Agentic AI: Die nächste Stufe der Künstlichen Intelligenz

Agentic AICustomer ServiceData SecurityDigitale TransformationKundenbindung

Agentic AI: Die nächste Stufe der Künstlichen IntelligenzAgentic AI: Die nächste Stufe der Künstlichen Intelligenz
Agentic AI: Die nächste Stufe der Künstlichen Intelligenz

Das Jahr 2025 markiert den nächsten grossen Schritt in der KI-Entwicklung: Agentic AI. Diese fortschrittlichen KI-Agenten agieren eigenständig, treffen Entscheidungen und führen komplexe Aufgaben aus – vom Kundenservice bis zur Produktionssteuerung. Sie ermöglichen effizientere Prozesse, bergen aber auch Risiken wie Datenmissbrauch und Manipulation. Unternehmen müssen Sicherheitsstrategien entwickeln, um ihre Systeme zu schützen. Die Zukunft gehört den KI-Agenten – doch Kontrolle und Transparenz sind essenziell, um das volle Potenzial sicher zu nutzen.

2025 wird die KI ihren nächsten grossen Sprung machen. Nachdem 2024 weitgehend von der weltweiten Integration von generischer KI geprägt war, wird der nächste Schritt die Agentic AI, die Agenten-KI sein. Im Kundenservice wird sie teilweise schon eingesetzt: Dort, wo aus Bots eigenständige virtuelle «Mitarbeiter» werden, die mehr als nur eine Aufgabe bewältigen können. Sie chatten nicht nur mit einem Kunden und beantworten Fragen, sondern können auch weitere Massnahmen ergreifen – zum Beispiel eine Retoure annehmen, ein Ersatzteil liefern lassen oder gar eine Bestellung bearbeiten.

Agentic AI lebt in einer von ihren Machern definierten Umgebung, in der sie sich weitgehend frei bewegen kann. Man kennt diese Herangehensweise bereits von autonomen Fahrzeugen. Diese benötigen keine laufenden Inputs mehr, sondern bewältigen ihre Aufgaben autonom und vor allem simultan: Verkehr beobachten, Strecke auswählen, Regeln beachten. Diese Multifunktionalität ist es, was die Agentic KI von den bisherigen Modellen unterscheidet.

Google setzt auf Agentic AI

Anfang Dezember hat Google seine neue Gemini 2.0 Version vorgestellt, die bereits Agentic AI enthalten soll. Für die meisten Anwender bedeutet dies derzeit zwar lediglich, dass man längere Konversationen in natürlicher Sprache haben kann, ohne dass die KI den Kontext vergisst. In den Projekten über Werkzeuge, die für Gemini 2.0 entwickelt werden, sind aber zum Beispiel schon Google Maps und Google Lens in Abfragen integriert. Im Projekt Mariner lernt Gemini, Informationen in einem Browser zu verstehen und so Aufgaben zu lösen. Das bedeutet, dass die KI bald in der Lage sein wird, Eingabefelder wie Formulare, Anfragen und auch Bestellungen selbst auszufüllen.

Das birgt aber auch Risiken. «Während das Surfen im Internet ihrem Agenten ermöglicht, auf aktuelle Informationen zuzugreifen, um bessere Antworten zu generieren und Halluzinationen zu reduzieren, kann es ihren Agenten aber auch den Gefahren des Internets aussetzen. Wählen Sie Ihre Internet-APIs daher mit Bedacht aus», rät Chip Huyen, eine Expertin im Bereich KI-Entwicklung und bekannte KI-Buchautorin.

Schon bald werden Kunden über Gemini nach neuen Produkten wie beispielsweise einer Parfümserie fragen. Die KI stellt die neuesten Markenvariationen vor, liefert eine Beschreibung ab und kann dann über die Formularfelder der Webseite ein Parfüm bestellen – oder als Geschenk verschicken lassen.

Begleiter in Spielwelten und Patientenüberwachung

In der Erweiterung von Genie 2.0, einem Google-Modell, das 3D-Welten erstellt, werden KI-Agenten in der Lage sein, sich in Spielen zurechtzufinden und Spieler zu führen, indem sie beispielsweise in Echtzeit-Sprachausgabe Tipps geben, was man im Spiel als nächsten tun sollte.

«Mit neuen Fortschritten in der Multimodalität wie beispielsweise der nativen Bild- und Audioausgabe wird es möglich neue KI-Agenten zu entwickeln, die uns unserer Vision eines universellen Assistenten näherbringen», schreibt Google-CEO Sundar Pichai im Blog des Unternehmens. Cristian Randieri, Professor an der eCampus University, sieht in einem Beitrag für Forbes nahezu unendliche Einsatzmöglichkeiten für Agentic AI. So könnte KI kontinuierlich Daten über einen Patienten sammeln, diese analysieren und im Notfall sogar konkret eingreifen. In der Produktion könnten Agenten den gesamten Prozess beobachten, analysieren und optimieren, einschliesslich der Bestellungen bei Lieferanten. Natalie Petouhoff, die als Beraterin Unternehmen bei der Verbesserung des Kundenerlebnisses unterstützt, sieht noch weitere Möglichkeiten, z. B. die könnten Agenten eingreifen, wenn ein Kunde einen Online-Warenkorb „stehen“ lässt, und versuchen, den Kauf noch zu retten, zum Beispiel mit einer Erinnerung und einem Rabatt. Oder sie könnten nach dem Kauf eines Produkts durch einen Kunden Anleitungen oder Videos zur Anwendung verschicken, den Kunden nach seinen Erfahrungen fragen und anbieten, bei Problemen zur Verfügung zu stehen.

Im Gesundheitswesen könnten KI-Agenten bald die gesamte Terminvereinbarung übernehmen und im Tourismus dürften die Zeiten vorbei sein, in denen MitarbeiterInnen individuelle Touren zusammenstellen. KI-Agenten sind in der Lage, mit den richtigen Daten auch komplexe Anfragen zu verstehen und selbstständig einen optimalen Trip zusammenzustellen.

Achtung: Agenten können kompromittiert sein

Mit der Offenheit von KI und dem Einsatz von Tools steigen aber auch die Gefahren des Datenmissbrauchs. Bislang befinden sich die meisten KI-Anwendungen in einem geschlossenen System, entweder auf eigenen Servern oder bei OpenAI, Google, Claude etc. Agenten können dieses System verlassen, was verschiedene Bedenken aufwirft. Cristian Randieri schreibt in Forbes: «Wenn diese Systeme unabhängig voneinander arbeiten, kann es unglaublich schwierig sein, den Schutz sensibler Daten und Informationen zu gewährleisten. Es bedarf eines durchdachten Ansatzes, um Daten verantwortungsvoll und sicher zu verwalten. Da diese Systeme immer autonomer werden, besteht ein echtes Risiko, dass die menschliche Aufsicht unzureichend oder unwirksam wird, insbesondere wenn KI-Agenten unkontrolliert bleiben.»

Gesetze können dieses Problem nur zu einem kleinen Teil lösen. Es liegt in der Verantwortung der Unternehmen, zu überprüfen, was ihre Agenten tatsächlich tun, wem sie Daten anvertrauen, wo sie Daten sammeln und ob sie möglicherweise sogar vertrauliche Informationen weitergeben oder Schaden anrichten. David Brauchler, CTO der Cybersicherheitsfirma NCC Group, sieht genau diese Gefahr: «KI-Agenten dienen häufig als Gateways zu sensiblen Daten und kritischen Systemen und ihre autonomen Fähigkeiten bergen daher einzigartige Risiken im Vergleich zum bloßen Ausführen beliebiger Anwendungen, die KI nutzen. Beispielsweise könnte ein kompromittierter Logistikagent falsche Befehle in einer Lieferkette verbreiten und so weitreichende Störungen verursachen.»

Modelle müssen ein gutes Erinnerungsvermögen haben

Angriffe auf Modelle zielen darauf ab, deren Schwachstellen durch manipulierte Eingaben auszunutzen. Dabei können gestörte oder absichtlich manipulierte Daten verwendet werden, um das Modell zu Fehlverhalten zu verleiten. Shomit Ghose vom Berkeley Center for Entrepreneurship and Technology beschreibt drei Wege, wie KI-Agenten angegriffen werden können:

  • Eine Methode ist das schrittweise Einschleusen von Fehlern. Dies geschieht, indem in verschiedenen Schritten Widersprüche oder falsche Informationen eingeführt werden. Dadurch wird die Argumentation des Modells gestört oder in eine falsche Richtung gelenkt. Bei der Zerlegung von Aufgaben können Angreifer ebenfalls eingreifen, indem sie Teilaufgaben manipulieren oder irrelevante Daten einfügen, die zu Fehlern führen.
  • Bei längeren Interaktionen (Multiturn-Interaktionen) wird das Modell oft schrittweise in die Irre geführt. Dies geschieht z. B. durch wiederholte Widersprüche oder durch das Einbringen von Verwirrung, sodass das Modell den Überblick verliert.
  • Ein weiterer Angriffspunkt ist der Umgang des Modells mit dem Kontext. Bei Modellen mit begrenztem Speicher für vorherige Eingaben können Angreifer den Kontext mit irrelevanten Informationen überladen, um die Entscheidungsfindung zu erschweren. Alternativ kann der Kontext langsam verändert werden, um das Modell zu falschen Annahmen zu verleiten.

«Das agentenbasierte Modell befasst sich häufig mit Informationen, die über die Kontextgrenzen des Modells hinausgehen. Ein Speichersystem, das den Kontext des Modells bei der Informationsverarbeitung erweitert, kann die Fähigkeiten eines Agenten erheblich steigern», rät Expertin Chip Huyen.

Umso wichtiger ist es, dass Unternehmen das Thema Sicherheit ernst nehmen und ihre IT entsprechend auf mögliche Angriffe auf KI-Agenten vorbereiten. Wer jedoch ausreichend plant, die passende Umgebung für seine Agenten findet, die Tools sorgfältig auswählt und seine Modelle kontinuierlich verbessert, sollte schnell die Vorteile von Agentic AI sehen und Prozesse, etwa in der Kundenberatung, optimieren können. Salesforce hat diesen Weg bereits eingeschlagen: Agentforce, eine Schicht der Salesforce-Plattform, die Unternehmen dabei unterstützt, ihren Agenten bessere Kundenbeziehungen zu ermöglichen und ihnen als digitaler Helfer immer zur Seite zu stehen.

Thomas Wanhoff

Thomas Wanhoff

Thomas Wanhoff, Jahrgang 1966, ist ein deutscher Journalist und Autor. Er arbeitete bei Zeitungen wie der “Frankfurter Neuen Presse”, war Produktentwickler bei der “Welt” und schreibt für die Nachrichtenplattform t-online. Außerdem betätigt er sich als freier Autor, mit Schwerpunkten auf CRM und Personalentwicklung. Wanhoff lebt seit 2007 in Südostasien.

Mehr zu Agentic AI

Diskussion

Das könnte Sie auch interessieren