robert.goren hat geschrieben:Die meisten Programme scheitern an der Metaebene von Kommunikation,...
[...]
Beim Menschen wird es spätestens jetzt aber zu einer wesentlich umfänglicheren Analyse:
a) War die Aussage neutral?
b) War die Aussage ironisch (und wenn ja, warum)?
c) War die Aussage positiv/negativ konnotiert?
[...]
Das können die Rechner zur Zeit von der Hardware her gar nicht leisten. Und selbst der Mensch als Experte für Kommunikation vertut sich regelmäßig.
Einfach ausgedrückt: Maschinen können „Neutral“ aber nicht „Emotional“.
Der heutige Stand von KIs ist sogar schon sehr weit!
Bei Hotlines können KIs die Stimmlage von Anrufern analysieren und entscheiden daraufhin, wie die Konversation von ihrer Seite her geführt wird. Sowohl was die eigene Tonalität, sowie die Formulierungen betrifft.
Wieder andere lernen selbstständig anhand der Analyse von Bildern was nun ein Hund und was eine Katze ist - und das ganz ohne dass diese Grundkonzepte von Menschen erklärt wurden.
Manche KIs komponieren Musikstücke, welche von Kennern nicht mehr länger von einer menschlichen Kreation unterschieden werden kann. (Bei einem Versuch waren alle Experten der Meinung, einem KI-Musikstück würde die „Seele“ fehlen... dennoch behaupteten sie, die von KIs geschriebenen Werke wären von Menschen geschrieben!)
Der heutige Stand der KIs ist bereits sehr beeindruckend! Die Metaebene der menschlichen Kommunikation werden Maschinen ohne große Anstrengungen leisten.
Was man für Empathie braucht sind Erfahrungen/Beispiele/Erlebnisse und die Fähigkeit, aus diesen Schlüsse zu ziehen - welche einen befähigen in zukünftigen Situationen Menschen und ihre aktuellen Bedürfnisse zu verstehen.
Nein, dass KIs so bald „fühlen“ glaube ich auch nicht... aber den Unterschied zwischen menschlicher und „künstlicher“ Kommunikation wird man dann wohl nur mehr daran erkennen, dass Menschen (weiterhin) „falsch“ auf einen reagieren.