Falsche Versprechen?

24.08.2021
1 Min.
Kolumne von Cornelia Diethelm – Wurde Ihnen kürzlich ein Produkt angeboten, das verspricht, mit Hilfe von Künstlicher Intelligenz Emotionen erfassen zu können? Dann sollten Sie hellhörig werden!
 
 
 
 
Emotionserkennung kann gewinnbringend eingesetzt werden. Beispielsweise hilft sie autistischen Kindern, die Gefühle des Gegenübers zu erkennen. Oder sie unterstützt Patienten bei der Erfassung eines Schmerzprotokolls. Doch die Technologie ist nicht ausgereift und anfällig für Fehler. 
 
Zum Beispiel basieren viele KI-Systeme auf der Annahme, dass es sechs prototypische Gesichtsausdrücke für Emotionen gibt. Doch diese Annahme ist wissenschaftlich überholt. Ein Forschungsteam hat mit emojify.info eine Website lanciert, auf der Interessierte in einem kurzweiligen Selbsttest erleben, dass die Vereinfachung auf nur sechs Gefühle zu simpel ist. Ausserdem stimmen die im Gesicht gezeigten Gefühle nicht unbedingt mit den empfundenen Gefühlen überein. 
 
Das Modell solcher KI-Systeme wird meistens mit Standard-Gesichtsausdrücken trainiert und gleicht sie mit dem aktuellen Gegenstand ab. Die Praxis ist deutlich komplexer: In einer Studie zeigten zum Beispiel nur 30 Prozent der untersuchten Personen ihre Wut mit dem prototypischen Gesichtsausdruck für diese Emotion. Zu berücksichtigen ist auch, dass sich die Interpretation einzelner Gesichtsausdrücke je nach Kultur, sozialem Kontext und Individuum stark unterscheidet. Emotionen ohne Kontext vom Gesicht abzulesen kann unvollständig, im schlimmsten Fall sogar völlig falsch sein, etwa bei psychologischen Einstufungen. 
 
Besonders kritisch sind Anwendungen in sensiblen Bereichen, etwa bei der Personalrekrutierung oder um die Aggression von Häftlingen in Gefängnissen zu messen. Sogar als Lügendetektor wurde die Emotionserkennung bereits eingesetzt, auch in Europa. Hier besteht die Gefahr, dass sich Menschen bei schwierigen Entscheiden auf eine vermeintlich neutrale Technologie verlassen. 
 
Die EU wird die vorgeschlagene Regulierung von KI-Anwendungen in diesem Bereich vielleicht noch verschärfen. Dies fordern zahlreiche Akteure, darunter Forschende und Datenschutzbehörden. Unternehmen sollten bereits heute darauf verzichten, eine unausgereifte Technologie einzusetzen, durch die Menschen zu Schaden kommen könnten. 
 
 
 
Cornelia Diethelm, Gründerin des Centre for Digital Responsibility (CDR), einem Think Tank für Digitale Ethik. Für das renommierte Marktforschungsinstitut Gartner gehört Digitale Ethik zu den Top-Themen von strategischer Bedeutung für Unternehmen. Cornelia Diethelm macht diesen Megatrend in ihrer Kolumne erlebbar, indem sie aktuelle Aspekte der Digitalen Ethik beleuchtet.
 
Lesetipp: Weitere Beiträge zum Thema "Digitale Ethik".
 
Symbolbild: Robert Kneschke / AdobeStock
 
 

 

Magazin kostenlos abonnieren

Abonnieren Sie das topsoft Fachmagazin kostenlos. 4 x im Jahr in Ihrem Briefkasten.