Nachrichten

#Gefühle machen es Maschinen auch nicht leicht

Gefühle machen es Maschinen auch nicht leicht

Maschinen haben keine Emotionen. Auch niedliche Roboter mit großen Kulleraugen empfinden nichts. Dennoch sind Emotionen in der Künstliche-Intelligenz-Forschung ein großes Thema. „Affective Computing“ oder „Emotionale Künstliche Intelligenz“ heißt das Gebiet, in dem es darum geht, die Gefühle von Menschen zu vermessen und künstliche Systeme zu bauen, die diese erkennen und passend darauf reagieren können. Es ist ebenso unübersichtlich wie attraktiv: Für die Ergebnisse dieser Forschung interessieren sich Militär, Polizei und Geheimdienste ebenso wie die Unterhaltungs-, die Werbe- und die Sexindustrie. Catrin Misselhorn, Professorin für Wissenschaftstheorie und Technikphilosophie in Stuttgart, hat es nun unternommen, das Feld in einem schmalen Band zu kartieren. Sachlich und gut verständlich, wenn auch manchmal etwas lehrbuchhaft, führt sie durch Emotionstheorien, erklärt die Verfahren zur Emotionserkennung und berichtet von den Verwirrungen, die künstliche Systeme anrichten, die so tun, als hätten sie Gefühle.

Erst einmal diskutiert die Autorin die gängigen psychologischen Emotionstheorien und ihre Verwendbarkeit für die KI-Forschung. Emotionstheorien, in denen das Erleben besonders wichtig ist – die Angst, die einen überfällt, wenn sich nachts von hinten Schritte nähern –, sind weniger geeignet als solche, die Emotionen vor allem als eine Art von Bewertungen betrachten. Denn Bewertungen lassen sich in Algorithmen fassen, das subjektive Erleben nicht.

Ist das Grinsen lustig oder ironisch?

Auf dem Hintergrund eines so vereinfachten Verständnisses von Emotionen gilt es dann, Systemen beizubringen, menschliche Emotionen zu erkennen. Zuerst schloss die Forschung, wie Misselhorn zeigt, an ältere Versuche an, Menschen darauf zu trainieren, die Emotionen anderer besonders präzise zu erfassen, wie sie etwa der Psychologe Paul Ekman unternommen hat. Aktuell werden Algorithmen zur Emotionserkennung in Verfahren des maschinellen Lernens mit großen Mengen an Daten trainiert, etwa Bildern von Gesichtern mit emotionalem Ausdruck, die zuvor von Menschen betrachtet und klassifiziert wurden.

Die Ergebnisse sind umstritten. Oft funktionieren die Algorithmen nur bei Gesichtern, die gut ausgeleuchtet von vorn zu sehen sind. Bei weißen Gesichtern sind sie manchmal zuverlässiger als bei farbigen, weil die Trainingsdaten mehr Bilder weißer Menschen umfassten. Vor allem aber, so beschreibt es Misselhorn, sind Algorithmen nicht in der Lage, den Zusammenhang zu erfassen, in dem ein Gesichtsausdruck auftritt. Dieser ist aber zentral, um zu erkennen, ob zum Beispiel ein Grinsen lustig oder eher ironisch ist. Ähnlich unsicher seien die Ergebnisse auch bei Versuchen, Emotionen an der Stimme, der Verwendung positiver oder negativer Ausdrücke in den sozialen Medien oder anhand von physiologischen Reaktionen wie dem Blutdruck oder dem elektrischen Hautwiderstand zu bestimmen.

Künstlich gut gelaunt

Obwohl die automatische Emotionserkennung also nach wie vor alles andere als sicher gelingt, wird an Systemen gearbeitet, die die Konzentration von Schülern im Unterricht überwachen, das Erkennen von Terroristen erleichtern, die Belastbarkeit von Bewerbern oder die psychische Gesundheit von Versicherungsnehmern einschätzen, Computerspiele spannender und Werbung effektiver und Kunden durchsichtiger machen sollen. Siebzehn Einträge umfasst die eindrucksvolle Tabelle, in der Misselhorn die möglichen Verwendungen automatischer Emotionserkennung und -manipulation zusammengetragen hat – natürlich ohne Anspruch auf Vollständigkeit.

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Nachrichten kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!