KI-Training für effektive De-Eskalation im Kundenservice

Contact CenterEmotionenLLMSprachtechnologie

Contact Center EskalationsgefahrContact Center Eskalationsgefahr
Contact Center Eskalationsgefahr

Im Kundenservice sind schwierige Gespräche unvermeidbar. KI kann helfen, Mitarbeiter auf eskalierende Anrufe vorzubereiten. Durch die Entwicklung realistischer Kunden-Personas und Szenarien bietet KI unbegrenzte Trainingsmöglichkeiten. KI-Agenten simulieren provokative Gespräche und liefern Feedback, um die emotional-intelligente Reaktion der Mitarbeiter zu schulen. Zudem können Unternehmen diese Technologie als Service nutzen. Mit innovativen Lösungen wie der KI-Stimmveränderung in Japan wird das Potenzial der KI weiter ausgebaut, um die psychische Belastung der Mitarbeiter zu verringern.

Enttäuschte, verärgerte und gar aggressive Kunden gehören leider zum Tagesgeschäft im Contact Center. Für Mitarbeiter sind solche Kunden immer wieder eine Herausforderung, zumal bisweilen am Beginn eines Gesprächs nicht absehbar ist, in welche Richtung es verläuft. So kann z. B. aus einer einfachen Nachfrage über die Verfügbarkeit eines Produkts schnell eine Kaskade an Beschwerden werden, dass das Unternehmen nicht genügend Produkte im Lager hat, seine Mitarbeiter nicht informiert und überhaupt der Kundendienst unfähig sei.

Unternehmen können Mitarbeiter im Contact Center natürlich auf solche Situationen vorbereiten und De-Eskalierungs-Techniken vermitteln. Das geschieht oft in persönlichen Trainings oder auch Seminaren, in denen mögliche Situationen durchgespielt werden. Doch solche Simulationen haben ihre Grenzen. Zum einen werden sie nicht regelmässig durchgeführt, zum anderen werden sie oft als künstliche Situation empfunden. Hinzu kommt, dass es meist die gleichen oder ähnliche Szenarien sind, die durchgespielt werden.

Um immer neue Szenarien bereit zu halten, kann aber KI eingesetzt werden. Diese ist in der Lage, eine unbegrenzte Zahl an verschiedenen Fällen vorzuhalten. Sie kann aber auch noch darüber hinaus eingesetzt werden, z. B. als virtuelles Training-Center. Mit einem recht geringen Aufwand können LLMs aus eigenen oder frei verfügbaren Daten trainiert werden, sich als beschwerende Kunden zu verhalten. Am besten sind KI-Modelle, die mit Sprach-Ein- und -Ausgabe funktionieren, um möglichst realistisch zu sein. Was es braucht, ist eine gute Planung.

Diese Punkte sind zu beachten

  • Szenarien definieren: Um die KI in die passende Richtung zu steuern, sollten Unternehmen verschiedene Szenarien definieren, die sich am besten in unterschiedlichen Eskalationsstufen darstellen. Diese können von einer einfachen Beschwerde über eine generelle Unzufriedenheit bis hin zu einem aggressiven Verhalten reichen.
  • Kunden-Personas definieren: Wenn man KI in einem Trainings-Center einsetzen will, ist es ausserdem zu empfehlen, unterschiedliche Personas zu entwickeln. Diese können dann in den verschiedenen Eskalationsszenarien eingesetzt werden, zum Beispiel die 40-jährige Hausfrau, die gestresst von Kindern und Hausarbeit ist, die Geschäftsfrau die zwischen Terminen kaum Zeit für einen Anruf hat und der Rentner, der nur anruft, weil er alleine ist bis hin zu einem Kunden, der bereits schlechte Erfahrungen gemacht hat und nun Mitarbeiter im Contact Center beschimpfen will.
  • Erste Prompts entwickeln: Aus diesen Personas lassen sich dann Prompts entwickeln, die die KI als Basis nimmt, um einen provozierenden Anruf zu simulieren. Es ist anzuraten, diese Prompts auch von der KI noch verbessern zu lassen und möglichst viele Variationen zu haben. Der Einsatz von KI-Agenten kann hier besonders sinnvoll sein. Sie sind in der Lage, selbstständig immer neue Fallbeispiele zu entwickeln und ins Training einzubringen.
  • KI-Training: Es empfiehlt sich, zunächst die KI selbst zu trainieren, in dem ihre Fälle von Mitarbeitern angenommen werden und man sich anschaut, wie die KI darauf reagiert. Eventuell sind dann noch Anpassungen an den Prompts notwendig.
  • Einsatz der KI-Agenten: KI-Agenten können im De-Eskalationstraining sowohl in Seminaren als auch in einer Live-Umgebung eingesetzt werden. So kann man diese im Tagesbetrieb anrufen lassen, ohne dass die MitarbeiterInnen wissen, dass es sich um ein Training handelt. 
  • Feedback: Das beste Training hilft nichts, wenn man dem Erfolg nicht misst. KI-Agenten können selbstständig Feedback gegen, wie ein Anruf verlief. Schon bald werden sie in der Lage sein zu analysieren, ob eine MitarbeiterIn ruhig blieb oder im Gespräch selbst eskalierend wirkt. Ausserdem sollten Mitarbeiter im Contact Center selbst bewerten können, wie sie das Training empfunden haben und was sie daraus gelernt haben.

Firmen bieten AI-Kunden als Service an

Unternehmen, die nicht selbst ein LLM-Modell zum De-Eskalationstraining aufbauen wollen, können sich auch an Anbieter wenden, die das als Service anbieten. Infosys Cortex z. B. bietet eine KI-als-Kunde-Funktion mit einem konfigurationsgesteuerten Studio, um beliebige Kombinationen von Szenarien (z. B. Rechnungsproblem, Fehlerbehebung usw.) und Kundenmerkmalen (Geschlecht, Alter, Sprachpräferenz, Emotionen usw.) zu erstellen, die verwendet werden können, um simulierte Trainingsumgebungen auf dem Agenten-Desktop bereitzustellen. Lernen, Situationen zu de-eskalieren, ist einer der Anwendungsfälle der KI-als-Kunde-Funktion, bei der Mitarbeiter anhand schwieriger Kundengespräche in emotionaler Intelligenz geschult werden können. So können sie z. B. Gespräche über „einen Kunden, der zum dritten Mal wegen eines Rechnungsstreits anruft“ üben.

In Japan wird die Stimmlage verändert

Es gibt auch noch eine andere Methode, die in Japan entwickelt wurde, um mittels KI zu de-eskalieren. Der japanische Telekommunikations- und Medienriese SoftBank hat kürzlich bekannt gegeben, dass er an einer KI-gestützten Technologie arbeitet, die „Emotionen neutralisiert“. Diese soll die Stimmen verärgerter Kunden während Telefonaten mit Kundendienstmitarbeitern so verändern, dass sie ruhiger klingen. Ziel des Projekts ist es, die psychologische Belastung der Mitarbeiter zu verringern, die oft unter Stress leiden. Die Entwicklung läuft seit drei Jahren, und SoftBank plant, die Technologie bis März 2026 auf den Markt zu bringen. Online stösst die Idee allerdings auf gemischte Reaktionen. Laut einem Bericht der japanischen Nachrichtenplattform The Asahi Shimbun basiert das Projekt auf einem KI-Modell, das Tonfall und Stimmlage eines Kunden während eines Telefonats in Echtzeit verändert. Das Entwicklerteam von SoftBank unter der Leitung von Toshiyuki Nakatani hat das System mit einem Datensatz aus über 10.000 Sprachproben trainiert. Diese wurden von zehn japanischen Schauspielern eingesprochen, die mehr als 100 Sätze mit unterschiedlichen Emotionen, darunter wütende und anklagende Töne, zum Ausdruck brachten.

Thomas Wanhoff

Thomas Wanhoff

Thomas Wanhoff, Jahrgang 1966, ist ein deutscher Journalist und Autor. Er arbeitete bei Zeitungen wie der “Frankfurter Neuen Presse”, war Produktentwickler bei der “Welt” und schreibt für die Nachrichtenplattform t-online. Außerdem betätigt er sich als freier Autor, mit Schwerpunkten auf CRM und Personalentwicklung. Wanhoff lebt seit 2007 in Südostasien.

Mehr zu Contact Center

Diskussion

Das könnte Sie auch interessieren