Empathie-Simulation: Wie Microsoft das Gefühlsleben von Schülern digitalisiert

Technologie für Analysealgorithmen mit künstlicher Intelligenz. Maschinelles Lernen für KI-Analysten. Künstliche Intelligenz. Eine Person benutzt einen Laptop, auf dessen Bildschirm eine Sprechblase mit der Aufschrift „KI” zu sehen ist.

(Bild: Day Of Victory Studio / Shutterstock.com)

KI soll Empathie simulieren - in der Schule und im Kundenservice. Microsoft Reflect lässt Schüler per Emojis reagieren. Kritiker warnen: Die Technik dient vor allem der Kontrolle.

Neue Technik steuert zunehmend Arbeitsprozesse. Die Arbeitsverteilung im Büro per Workflow oder ein Kundengespräch mit einem Chatbot sind oftmals Alltag. ADM steht für Automated Decision Making. Diese automatisierte Entscheidungsfindung beschreibt den Einsatz von Daten, um Entscheidungen zu treffen. Die Versprechen von Softwareanbietern gehen jedoch weiter. Der nächste Schritt soll die Gefühlswelt betreffen. Empathie per KI wird thematisiert.

Bereits im Schulalltag soll Technik helfen, Empfindungen wahrzunehmen. Bei Microsoft Reflect können Lernende mit Emojis und durch ein "Feelings Monster", mit 60 verschiedenen Emotionen im Unterricht reagieren. "Microsoft Reflect nutzt sogenannte süße Gefühlsmonster, mit denen die Schulkinder ihre Gefühle ausdrücken sollen", berichtet Reza Ghaboli-Rashti von der BTQ Kassel, einer gewerkschaftlichen Technologieberatung.

"Reflect verbessert das emotionale Vokabular der Lernenden und vertieft die Empathie für ihre Gleichaltrigen und gibt gleichzeitig wertvolles Feedback für Lehrkräfte, um eine gesunde Unterrichtsgemeinschaft zu fördern", wirbt Microsoft. Ein Klick reicht aus, Begründungen, was beim Vortrag stört oder gar Vorschläge, welche Lernmethoden besser geeignet werden, sind nicht mehr erforderlich.

"Reflect in Teams ist vorinstalliert und in jedem Kurs- und Mitarbeiterteam kostenlos verfügbar", schreibt Microsoft. Der Hersteller verspricht: Die App hilft Lehrkräften, Einblicke in das Wohlbefinden der Lernenden zu erhalten und so eine "glücklichere und gesündere Lerngemeinschaft" zu schaffen.

Dass dies gelingt, bezweifelt Reza Ghaboli-Rashti – aber es erfolgt eine "Gewöhnung der Beschäftigten von morgen an Microsoft-Software und derart fragwürdige Bewertungstools".

Im Kundenservice soll KI bei Empathie unterstützen

Über Künstliche Intelligenz im Kundenservice berichtet Kevin Yam, Chief AI Officer (CAIO) bei der coeo Group: "So empathisch können Chatbots sein". Der Autor betont die Bedeutung von "Customer Experience", die beschreibt, wie Kunden ein Unternehmen wahrnehmen, und zwar von der ersten Kontaktaufnahme bis zur Kundenbindung.

Der Vorteil von KI: Prozesse werden schneller, kostengünstiger und rund um die Uhr verfügbar. "Die vertikale Verknüpfung von KI mit Unternehmensdaten und -prozessen wird entscheidend für die Produktivität und Wettbewerbsfähigkeit", schreibt Yam.

Bei KI kann auf Konzepte aus der Verhaltenspsychologie zurückgegriffen werden. Durch Studien und Befragungen erstellte Kundenprofile sollen dazu dienen, "typische Verhaltensweisen vorherzusagen und Kommunikationsstrategien entsprechend anzupassen", so der KI-Experte.

So wird bei offenen Rechnungen Kunden gegenüber ein Forderungsmanagement betrieben, wo "standardisierte Reaktionsmuster auf bestimmte Kundentypen möglich sind. Moderne KI-Systeme setzen inzwischen vor allem auf datengetriebene Analysen und Deep-Learning-Methoden. Durch die Auswertung großer Mengen historischer Verhaltensdaten lassen sich präzisere und dynamischere Prognosen über individuelle Kundenbedürfnisse treffen", ist sich Yam sicher.

Entscheidend ist das Erkennen von Konfliktsituationen. So könne ein "Voicebot" mittels einer Stimmanalyse erkennen, ob ein Gesprächspartner gereizt ist. "Die Kooperationsbereitschaft wird frühzeitig von der KI erkannt und in der weiteren Kommunikation berücksichtigt", so der Experte.

Ein aktuelles Beispiel ist das "Decision-Navigator"-Modul von coeo. Dieses KI-Modul analysiert historische Daten und Kommunikationsmuster und bietet Lösungen an. "Anstatt eine pauschale Fristverlängerung vorzuschlagen, berechnet das System auf Grundlage der individuellen Daten des Kunden die beste Handlungsoption", erläutert Yam.

Auch wenn die Technik mit Reaktionen in "Echtzeit" beworben wird, ist auch für CAIO Kevin Yam klar: "Die finale Entscheidung über das weitere Vorgehen trifft jedoch stets ein Mensch".

Assistenzsystem gibt Beschäftigten Vorgaben

Für Beschäftigte, die mit dieser Technik arbeiten, stellt sich eine entscheidende Frage: Halte ich mich an die Empfehlungen der KI? Widersetzt sich ein Angestellter diesen Entscheidungsvorgaben, muss er dies im Zweifelsfall begründen können und seine Gedankengänge offenlegen – auch gegen eine Technik, für die ein Unternehmen hohe Investitionen getätigt hat und die als neue Innovation vorgestellt wurde.

Assistenzsysteme, die als Neuerungen Beschäftigte unterstützen sollen, werden so häufig zum Steuerungsinstrument und erteilen in der Praxis Vorgaben.

"Bei der Einführung von neuen Technologien in Arbeitsprozesse handelt es sich in den meisten Fällen um einen Angriff auf die Autonomie der Beschäftigten. Im Laufe der Zeit eignen sich Beschäftigte sogenanntes implizites Wissen über einen Arbeitsschritt an, der für sie die Arbeit leichter macht", warnt Technologieberater Markus Rhein, BTQ Kassel.

Ein Fahrer erkennt, welche Strecken am besten passen, ein Sachbearbeiter sammelt Erfahrungen mit Kunden. Dann wird die Technik eingeführt, die als Verbesserung vorgestellt wird, und gibt die Arbeitsschritte im Einzelnen vor, also die Fahrtstrecke wird minutengenau vorgeschrieben, Kundengespräche per Workflow gesteuert.

"Die Technik wird also nicht vor allem genutzt, um die Arbeit zu erleichtern, sondern um Beschäftigte stärker zu steuern, sie enger zu kontrollieren, ihnen Entscheidungen abzunehmen", warnt Rhein.