Neuro-symbolische KI kombiniert neuronale Netzwerke mit symbolischem Denken, um die Grenzen herkömmlicher KI zu überwinden. Diese Technologie wird bereits in selbstfahrenden Autos eingesetzt und könnte die Kundeninteraktion revolutionieren. Sie adressiert Probleme wie Halluzinationen in grossen Sprachmodellen und verbessert die Qualität längerer Konversationen. Kritiker warnen jedoch vor möglichen Einschränkungen durch zu starke Regelorientierung. Analysten sehen grosses Potenzial in der breiteren Anwendung dieser KI-Form, da sie sowohl Lernziele als auch Kontext bereitstellen kann. Die Technologie könnte eine persönlichere Kundenbetreuung und effizientere interne Prozesse ermöglichen.
Die Lloyd’s Bank hat angekündigt, gemeinsam mit der Firma UnlikelyAI eine neue Form der Künstlichen Intelligenz im Kundenservice zu testen: die neuro-symbolische KI. Zunächst soll in einer Testumgebung gearbeitet werden, um herauszufinden, ob die Ergebnisse besser sind als bei bisherigen Anwendungen.
Was ist neuro-symbolische KI?
Die meisten KI-Modelle arbeiten mit neuronalen Netzwerken. Dabei werden in großen, meist unstrukturierten Datenmengen Muster erkannt – ähnlich wie unser Gehirn, das bei einer neuen Frage zunächst prüft, welche verfügbaren Informationen passen könnten. Aus den Ergebnissen wird dann die wahrscheinlich beste Antwort berechnet. Dieses Verfahren funktioniert hervorragend bei der Analyse und Aufbereitung vorhandener Daten. So können bekannte Konversationen mit Kunden als Grundlage genutzt werden, um neue Anfragen zu beantworten.
An Grenzen stoßen diese Modelle jedoch, wenn es um Vorhersagen oder Einordnungen geht. Wenn ein Kunde beispielsweise fragt, warum seine Waschmaschine immer wieder stehen bleibt – und dies kein bekannter Fehler ist – kann eine KI schnell überfordert sein.
Bei der symbolischen KI versuchen Entwickler hingegen, Objektklassen (z. B. Wortarten, Bilder) zu identifizieren und sie mithilfe logischer Regeln in Beziehung zu setzen. Dadurch wird Wissen maschinenlesbar und kann für weitere Schlussfolgerungen verwendet werden.
Hier kommt das logische Denken – auch symbolic reasoning genannt – ins Spiel. Ein kleines Beispiel während des Schreibens dieses Textes verdeutlicht den Unterschied: Die Rechtschreibprüfung geht von einem deutschen Text aus und markiert «symbolic reasoning» als Fehler – auch wenn ein englisches Wörterbuch verfügbar ist. Um beim Beispiel der Waschmaschine zu bleiben: Eine neuro-symbolische KI könnte die Problemlösung umfassender angehen, indem sie zusätzliche Quellen wie Handbücher anderer Hersteller, Userforen oder sogar TikTok-Videos nutzt.
Anwendungen im Alltag
Bei selbstfahrenden Autos kommt die Technik bereits zum Einsatz. Klassische KI kann erkennen, dass ein Objekt die Straße betritt. Eine symbolische Komponente weiß zusätzlich, dass sich in der Nähe eine Schule befindet und daher Kinder auf die Straße laufen könnten – sie gibt die Anweisung, das Tempo zu drosseln.
Einige Unternehmen experimentieren bereits mit diesem Ansatz. Salesforce etwa setzt Modelle ein, die logische Schlüsse ziehen können – und damit bis zu 50 Prozent der Kundenanfragen zufriedenstellend beantworten. Die neuro-symbolische KI soll außerdem ein bekanntes Problem reduzieren: sogenannte Halluzinationen bei großen Sprachmodellen (LLMs). Dabei erfinden Chatbots Inhalte – für Unternehmen ein erhebliches Risiko. Zudem sollen die neuen Ansätze verhindern, dass die Qualität längerer Konversationen abnimmt.
Neuronale Netzwerke bleiben für Entwickler eine Blackbox – ihre Abläufe sind so komplex, dass sie kaum nachvollziehbar sind. Die Ergänzung um logische Strukturen bringt Instinkt und Abwägung in die Systeme. Neuronale Netze sind stark bei schnellen Entscheidungen («Wie lange gibt es die Rabatte noch?»). Komplexere Fragen wie «Warum wurde der Betrag doppelt abgebucht?» benötigen jedoch eine andere Herangehensweise: Es könnte ein Eingabefehler sein, eine doppelte Bestellung, ein Übertragungsfehler oder ein menschliches Versehen. Ein klassisches LLM würde den Fall hoffentlich an einen Mitarbeitenden weitergeben. Eine neuro-symbolische KI könnte technische Ursachen ausschließen und das Problem ganzheitlich analysieren – und verschiedene Lösungswege vorschlagen.
Ähnlich ist es bei kombinierten Anfragen wie: «Ich möchte meine Adresse ändern, den Vertrag kündigen und wissen, wie lange ich noch zahlen muss.» Manche Modelle bearbeiten nur den ersten Teil – und vergessen die restlichen Anliegen.
Analysten und Unternehmen sehen großes Potenzial
Bei Analysten wie der Marktforschungsfirma Gartner sieht man die Notwendigkeit, KI breiter aufzustellen. «Es besteht zwar noch Raum für Fortschritte, aber dieser LLM-Ansatz wird früher oder später in einer Sackgasse enden», sagt Pieter den Hamer, Leiter des Generative AI Resource Center bei Gartner.
Auch bei SAP geht man davon aus, dass LLMs erweitert werden müssen: «Techniken der neuro-symbolischen KI, insbesondere Wissensgraphen, werden eine Renaissance erleben, da sie sowohl Lernziele für grundlegende Modelle als auch Kontext bereitstellen können, um die Leistung der generativen KI deutlich zu verbessern und gleichzeitig Halluzinationen zu reduzieren», heißt es in einem Beitrag zu den KI-Trends 2025.
Lloyds verspricht sich von der Partnerschaft mit UnlikelyAI eine persönlichere Kundenbetreuung und eine Steigerung der internen Effizienz. Lloyds-CEO Charlie Nunn ist überzeugt, dass neue, leistungsfähige Sprachmodelle die Kundeninteraktion und die personalisierte Beratung deutlich verbessern könnten.
Einige Forscher bezeichnen die neuro-symbolische KI als dritte Welle der künstlichen Intelligenz, schreibt Massimo Attoresi von der europäischen Datenschutzaufsicht. «Andere sehen darin die natürliche Weiterentwicklung der KI und einen Weg hin zu künstlicher allgemeiner Intelligenz, da die Integration von lern- und schlussfolgerungsbasierten Ansätzen ein menschlicheres und vielseitigeres Verstehen, Lernen und Schlussfolgern ermöglichen würde.»
Kritik am Ansatz
Natürlich bringt auch der erweiterte KI-Ansatz Nachteile mit sich. Er verlangsamt unter Umständen die Entscheidungsprozesse und könnte – durch zu starke Regelorientierung – überkorrigieren. Kritiker warnen, neuro-symbolische KI könne zu vorsichtig, zu langsam oder zu deterministisch agieren.
«Wenn Systeme stark auf symbolische Einschränkungen angewiesen sind, kann die Kreativität leiden», heißt es in einem Beitrag des Blogs AIDrift. Neue Muster könnten ignoriert, Chancen verpasst werden. Es sei, als würde man einem KI-Künstler sagen: «Male nur innerhalb der Linien.» Das Ergebnis mag schön sein – aber ist es noch Kunst?
Thomas Wanhoff
Thomas Wanhoff, Jahrgang 1966, ist ein deutscher Journalist und Autor. Er arbeitete bei Zeitungen wie der “Frankfurter Neuen Presse”, war Produktentwickler bei der “Welt” und schreibt für die Nachrichtenplattform t-online. Außerdem betätigt er sich als freier Autor, mit Schwerpunkten auf CRM und Personalentwicklung. Wanhoff lebt seit 2007 in Südostasien.
