Das Bahnunternehmen BLS hat im Contact Center eine Voicebot-Lösung eingeführt und sich bewusst für einen ungewöhnlichen Start entschieden: Der Bot nimmt Beschwerden zu Fahrausweiskontrollen entgegen – ein emotional anspruchsvoller Use Case. Im Interview erläutert der Leiter des Contact Centers, warum dieser Einstieg gewählt wurde und welche Rolle Dialekterkennung, Datenschutz und Systemintegration spielen. Die Lösung erfasst Beschwerden automatisiert und erstellt Tickets, während Recherche und Antwort weiterhin durch Mitarbeitende erfolgen. Dadurch werden belastende Gesprächssituationen reduziert und Prozesse effizienter gestaltet. Der strategische Fokus lag nicht auf dem schnellsten Return on Investment, sondern darauf, Mitarbeitende zu entlasten und die Servicequalität langfristig zu verbessern.
Hören Sie auch den Podcast dazu
Die BLS setzt im Contact Center neuerdings auf Sprachautomatisierung und startet bewusst mit einem heiklen Use Case: Beschwerden zu Fahrausweiskontrollen. Im Interview erklärt Martin Friedli, Leiter Contact Center bei BLS, warum ein Voicebot ausgerechnet bei emotional belastenden Anfragen zum Einsatz kommt, wie Dialekterkennung, Compliance und bestehende Systemlandschaft zusammenspielen und weshalb der erste Schritt nicht vom schnellsten ROI, sondern vom grössten Schmerz der Mitarbeitenden bestimmt wurde.
Ihr habt euch entschieden, gerade jetzt in Voice-Automatisierung zu investieren. Was war der Auslöser?
Martin Friedli: Wir verfolgen schon länger das Ziel, nicht werthaltige Kontakte zu automatisieren, also Kontakte, die weder für uns noch für unsere Kundinnen und Kunden einen Mehrwert bringen. Im Schriftkanal haben wir bereits einiges automatisiert, beziehungsweise teilautomatisiert. Gleichzeitig blieb der Anteil an telefonischen Anfragen über die Jahre stabil hoch, weshalb wir einen Piloten für einen Voicebot durchgeführt haben, um die Akzeptanz zu testen. Die Ergebnisse haben gezeigt: Die Technologie ist reif und Kundinnen und Kunden akzeptieren sie. Deshalb haben wir uns für eine Conversational AI-Plattform entschieden.
Wie passt dieses Projekt in eure übergeordnete Strategie zwischen Service Exzellenz und Kostendruck?
Wir versuchen den Spagat: Kundenzufriedenheit halten, aber Kosten senken. Kontakte, die keinen Mehrwert schaffen, wollen wir konsequent vermeiden, beziehungsweise diese sollen gar nicht erst entstehen. Wo Kundinnen und Kunden jedoch Hilfe brauchen, wir als Unternehmen aber keinen eigentlichen Wertschöpfungsbeitrag im Sinne von Verkauf oder Lernen haben, setzen wir auf Automatisierung und Self Services. Und dort, wo wir bewusst den Dialog wollen, etwa weil wir eben lernen oder verkaufen können, soll der Zugang zu unseren Mitarbeitenden so einfach wie möglich sein und der Ablauf dann ohne Zeitdruck stattfinden. Wenn wir alle Anfragen weiterhin persönlich bearbeiten würden, würden wir zu teuer und unsere Mitarbeitenden wären mit repetitiven, wenig spannenden Aufgaben ausgelastet.
BLS gilt als innovativ und ihr habt im schriftlichen Kanal schon Erfahrung mit Automation gesammelt. Was waren für euch die grössten Unterschiede und Herausforderungen beim Schritt zur Sprachautomatisierung?
Ich habe erwartet, dass gesprochene Sprache, vor allem mit Dialekten, viel schwieriger zu verarbeiten ist als Text. Umso überraschender war, wie gut die Technologie in der Mundarterkennung bereits ist und wie gut unsere Lösung mit Dialekt klarkommt. Die eigentliche Herausforderung lag weniger bei der Spracherkennung, sondern in der Integration der Conversational AI-Plattform in unsere bestehende Contact Center-Technologie und das Ticketing. Uns war wichtig, dass der gesamte Prozess nahtlos funktioniert. Kundinnen und Kunden sollen nicht in einen Self Service gedrückt und dann alleingelassen werden. Wenn der Bot nicht weiterkommt, braucht es einen sauberen Transfer an Mitarbeitende inklusive Kontext, damit klar ist, worum es geht. Kundinnen und Kunden sollen sich ein einziges Mal äussern, wenn sie uns kontaktieren, der Rest ist dann an uns.
Ihr habt euch entschieden, ein Opt-in für den Voicebot einzuholen, was eher unüblich ist, weil die meisten Lösungen mit Opt-out arbeiten. Wie seid ihr damit umgegangen?
Regulativ waren wir verpflichtet, ein aktives Opt-in einzuholen, weil die Lösung KI-basiert personenbezogene Daten verarbeitet. Ein klassisches «Sind Sie einverstanden, diese Funktion zu nutzen?» hat zu wenig Adoption gebracht. Also haben wir das Opt-in besser in die Experience eingebettet. Wir kommunizieren, dass Kundinnen und Kunden «möglichst rasch Hilfe» erhalten, wenn sie die automatisierte Lösung nutzen, und erklären transparent, dass dafür das Gespräch aufgezeichnet und durch eine KI verarbeitet wird. Damit konnten wir die Opt-in-Quote etwa verdoppeln.
Wer war intern alles involviert, bevor ihr überhaupt live gehen konntet?
Es waren zahlreiche Bereiche beteiligt: Datenschutz, Legal, IT-Security sowie die Teams, die sich mit Hosting und Datenhaltung beschäftigen. Es ging um Fragen wie: Wo liegen die Daten, wer hat Zugriff, was passiert mit den Daten, wie funktioniert das Machine Learning und wie stellen wir sicher, dass keine personenbezogenen Daten für Trainingszwecke verwendet werden. Das war aufwendig, aber sehr wertvoll, auch für mein eigenes Bewusstsein hinsichtlich des Datenschutzes und Risikothemen. Positiv war, dass die Haltung im Unternehmen unterstützend war und nie blockierend. Man hat erkannt, dass ein Business Case dahintersteht und uns positiv gefordert.
Euch war wichtig, dass der Bot Dialekte versteht. Warum ist das so zentral?
Die BLS ist regional stark verankert und steht zu ihrer Herkunft. Wir verbinden Menschen und Regionen. Unsere Kundinnen und Kunden sollen mit uns so sprechen können, wie sie im Alltag sprechen, auch wenn der Kontakt automatisiert ist. Ein Voicebot, der nur Standardsprache versteht, würde nicht zu uns und zu unserem Selbstverständnis passen.
Ihr seid direkt mit einem heiklen Thema gestartet: Beschwerden zu Fahrausweiskontrollen. Warum dieser Case und was macht ihn besonders?
Ja, es ist unüblich, eine Beschwerde zu automatisieren. Ich hätte mir das lange selbst nicht vorstellen können. Aber ein grosser Teil dieser Anrufe ist eine klassische Lose-Lose-Situation: Wir können das Kundenbedürfnis oft nicht erfüllen, die Kundinnen und Kunden sind frustriert und unsere Mitarbeitenden ebenso. In den letzten zwei Jahren ist die Anzahl dieser Anfragen deutlich angestiegen und die durchschnittliche Bearbeitungszeit liegt massiv über anderen Tickets. Wir haben deshalb entschieden, dass der Bot das Anliegen aufnimmt und das Ticket erfasst; die weitere Recherche und die Antwort erfolgen weiterhin durch Mitarbeitende. Aus Prozesssicht haben wir damit die umfangreiche Input-Phase automatisiert, während die Verarbeitung und der Output bewusst menschlich bleiben.
Wie hat sich das auf die Mitarbeitenden ausgewirkt, insbesondere auf die emotionale Belastung?
Der entscheidende Effekt ist, dass unsere Mitarbeitenden nicht mehr den Frust und Ärger dieser Gespräche aushalten müssen. Obwohl sie dafür geschult sind, hinterlässt das emotional Spuren. Die Kolleginnen und Kollegen sind ja da, um Probleme zu lösen, nicht um permanent Beschwerdeemotionen zu absorbieren – auch wenn das zum Job dazugehört. Heute übernimmt der Bot den emotional aufgeladenen Teil, während die Mitarbeitenden sich auf Recherche und Lösung konzentrieren und mit mehr Geduld an die Fälle herangehen können. Das Feedback aus dem Team war sehr positiv. Die Einführung wird als echte Entlastung wahrgenommen, es war Dankbarkeit spürbar, weil wir ihren Frust ernst genommen und gehandelt haben. Dieser Use Case bringt zwar nicht den schnellsten Return on Investment, aber wir haben bewusst zuerst das gelöst, was Schmerzen bereitet, weil Mitarbeitende der Schlüssel zur Kundenzufriedenheit sind.
Kannst du einen groben zeitlichen Rahmen nennen, wie hat sich die Bearbeitungszeit verändert?
Die Fallbearbeitungszeit wurde mehr als halbiert, weil der Input wegfällt. Früher gab es oft Gesprächsschleifen: erklären, Verständnis signalisieren, wieder erklären, wieder bestätigen, und allein das Beenden des Gesprächs war anspruchsvoll. Indem wir diesen Teil automatisiert haben, ist ein erheblicher Zeitblock weggefallen.
Wie reagieren Kundinnen und Kunden auf die Automatisierung, gerade bei einem so emotionalen Thema wie einer Beschwerde?
Unsere Erfahrung ist besser als erwartet. Die Annahme ist vielleicht anfangs nicht ideal. Niemand freut sich, eine Beschwerde zuerst einem Bot zu schildern, aber wenn am Ende die Antwort stimmt, sind die Kundinnen und Kunden zufrieden. Der noch wichtigere Effekt liegt aber in der Gesamtsicht: Weil der Bot diese langen, belastenden Gespräche vorklassifiziert, steigt die Verfügbarkeit unserer Mitarbeitenden für die werthaltigen Gespräche, die wir wirklich führen wollen. In diesen Gesprächen ist uns auch die Kundenzufriedenheit viel wichtiger als bei den Fahrausweiskontrolle-Tickets. Die Stimmung im Team ist besser, die Geduld ist grösser und die Mitarbeitendenzufriedenheit ist gestiegen. Das wirkt sich auch auf die Kundenzufriedenheit aus, die bei uns bei rund 92 Prozent liegt.
Du hast vorhin von Machine Learning gesprochen. Lernen auch die Mitarbeitenden oder die Organisation direkt aus den Bot-Gesprächen?
Aus Sicht Gesprächsführung eher indirekt, weil wir diesen Teil ja eben an die Maschine abgegeben haben. Die Mitarbeitenden investieren ihre Zeit nun fokussiert in die komplexeren Fälle, bei denen sie wirklich präsent sein sollen. Was wir aber sehr genau anschauen, sind die Flows in der Conversational AI-Plattform. Werden Anliegen sauber gelöst, wie läuft das Conversational Design, wo müssen wir Aussagen schärfen oder Anpassungen vornehmen. Den Agents stellen wir nicht das Audio, sondern Transkripte zur Verfügung, was eine gewisse Routine in Interpretation verlangt und die Organisation in dieser Hinsicht weiterentwickelt.
Wie läuft die Übergabe konkret an die Agents?
Der Bot qualifiziert das Anliegen und hängt das Transkript an das Ticket. Dieses vorqualifizierte Ticket geht dann an die Agents, die direkt mit der Bearbeitung starten können. Ob sie dann zurückrufen oder schriftlich antworten, entscheiden sie situativ und auch im Einklang mit den Wünschen der Kundinnen und Kunden, manche möchten ausdrücklich nicht angerufen werden. Unser Partner für die Conversational AI Plattform Spitch hat die Lösung nun nochmals deutlich weiterentwickelt, sodass der Transfer nun nicht nur mit dem Transkript erfolgt, sondern neu auch der Kontext in verständlicher Sprache geliefert wird. Das ist nur eine markante Verbesserung der Funktionalitäten von Spitch.
Lass uns noch kurz auf die technologische Basis schauen. Welche Voraussetzungen waren nötig, um Sprachautomatisierung bei euch überhaupt einzuführen?
Wir nutzen Zendesk als Ticketing-Lösung und haben unsere Telefonie in Microsoft Teams organisiert, inklusive einer darin integrierten Contact Center-Lösung. Technisch mussten wir sicherstellen, dass die Flows zwischen der Teams-Telefonie, der Conversational AI-Plattform und Zendesk sauber abgebildet werden. Das bedeutet mehrere Systemwechsel: vom Anruf über die AI-Plattform und, wenn ein Transfer zu einem Agenten erfolgt, weiter zu Zendesk. Die Integration war anspruchsvoll, aber letztlich lösbar.
Ihr setzt also bewusst auf eine externe Conversational AI-Plattform. Warum habt ihr euch für diese dritte Lösung entschieden und nach welchen Kriterien?
Ein zentrales Kriterium war die zuverlässige Erkennung von Mundart, was die Anzahl geeigneter Lösungen damals noch stärker einschränkte. Zudem wollten wir einen Anbieter, der in der Praxis bewiesen hat, dass Integrationen in verschiedene Umsysteme machbar und wirtschaftlich sinnvoll sind. Wir wollten keine Versprechungen «vom Himmel», sondern konkrete Referenzen. Am Ende geht es nicht nur um Technologie, sondern auch darum, welcher Partner kulturell und in der Art der Zusammenarbeit zur Unternehmung passt. Mit UMB, unserem Partner für die Telefonie und Teams-Kommunikation, haben wir mit dem angebotenen Produkt von Spitch gefunden, was wir gesucht haben.
Gib uns bitte noch einen zeitlichen Rahmen: Wie lange hat das Projekt von Vorbereitung bis Go-live gedauert und wie organisiert ihr den laufenden Betrieb?
Die Dauer hängt natürlich stark vom Umfang ab. Einen einfachen, Standalone Voicebot mit wenigen Use Cases und strukturiertem Wissen kann man in wenigen Stunden live bringen. In unserem Setup, mit mehreren Systemen, Integrationen und regulatorischen Abklärungen, lag die Projektlaufzeit bei fast einem Jahr. Seither ist der Betrieb laufendes Tagesgeschäft: Wir messen, welche Flows funktionieren, wo es Abbrüche gibt, und nehmen laufend Anpassungen im Conversational Design vor.
Habt ihr für Betrieb und Weiterentwicklung zusätzliche Ressourcen aufgebaut?
Nein, personell sind wir im gleichen Rahmen geblieben. Entscheidend war für uns, eine Lösung zu wählen, die wir selbst konfigurativ weiterentwickeln und dadurch skalieren können, statt für jede Änderung Entwicklungsaufträge zu vergeben. Wir haben Mitarbeitende im Team, die diese Konfigurationen und Optimierungen als Teil ihres bestehenden Pensums übernehmen. Es geht im Kern um Priorisierung, nicht um zusätzliche Overhead-Kosten.
Wenn du heute anderen Verantwortlichen im Contact Center oder Customer Service einen Tipp geben würdest: Was sind deine wichtigsten Learnings?
Technologisch ist heute unglaublich viel möglich, sowohl im Chat- als auch im Voice-Bereich. Die entscheidende Frage ist weniger «Welche Features hat die Lösung?», sondern «Welcher Partner passt zu unserer Unternehmung und unserer Art, Dinge voranzutreiben?». Es ist eine Zusammenarbeit auf Augenhöhe, keine klassische Kunde-Lieferant-Beziehung. Man arbeitet gemeinsam an Zielen. Für die Organisation selbst ist wichtig zu verstehen: Technologie ersetzt nicht Kultur, aber sie verstärkt sie. In unserem Fall, indem wir bewusst zuerst Schmerzpunkte der Mitarbeitenden adressiert haben, statt nur den schnellsten ROI zu suchen.
Ihr habt bereits den nächsten Schritt eingeleitet. Wie geht es weiter, was ist euer Blick nach vorn?
Einerseits arbeiten wir einen Backlog weiterer Use Cases für die Selbstbedienung ab. Wir wissen sehr gut, welche Themen häufig gefragt sind und wie wir sie beantworten. Diese Use Cases rollen wir nach und nach aus. Andererseits denken wir skalierender, das heisst, die Lösung läuft heute im Contact Center, aber wir haben noch Reisezentren und weitere Touchpoints, an die sich Kundinnen und Kunden wenden. Unser Ziel ist, die Voice-Lösung auf weitere Touchpoints und Anwendungsfälle auszuweiten und so konzernweit Skaleneffekte zu erschliessen.
Hören Sie auch den Podcast dazu
Meike Tarabori
Im Januar 2019 übernahm Meike Tarabori die Position als Chefredakteurin des cmm360, das renommierte Schweizer Magazin für Customer Relations Stars und Service Champions. Als erfahrene Expertin für Marketing und Kommunikation mit Abschlüssen in Business, Marketing und deutscher Literatur hat sie wertvolle Erfahrungen unter anderem bei Unternehmen wie KUKA Robotics und zuletzt beim Cybathlon ETH Zürich gesammelt. Im Rahmen eines umfangreichen Rebranding-Projekts verlieh sie dem cmm360 seine aktuelle, moderne Ausrichtung. Seitdem hat sie nicht nur die Onlinepräsenz des Magazins erfolgreich etabliert, sondern kontinuierlich neue Formate wie die Podcasts «Nice To Meet You», «Meike's Raumzeit» und «ICT Talk» entwickelt. Darüber hinaus fungiert sie als Organisatorin des Schweizer Customer Relations Awards, eine Plattform, die innovative Projekte zur Gestaltung nachhaltiger Kundenbeziehungen und einzigartiger Kundeninteraktionen würdigt und auszeichnet.
