Exabeam & Google: Neue Ansätze gegen KI-Insider-Bedrohung

InnovationKI-AgentenMachine LearningSecurityVertrauen

Mit dem Aufkommen von KI-Agenten entsteht eine neue Klasse von Insider-Bedrohungen: digitale Akteure, die eigenständig handeln, auf sensible Daten zugreifen und sich klassischen Sicherheitslösungen entziehen. Laut einer internationalen Studie sehen Unternehmen darin ein wachsendes Risiko. Exabeam reagiert mit einer Erweiterung seiner Plattform, die menschliches und KI-Verhalten gleichermassen analysiert. So erhalten Security-Teams den nötigen Kontext, um Angriffe frühzeitig zu erkennen und abzuwehren.

Auf dem Event Google Pioneering Secure Generative AI kündigte Exabeam, ein weltweit führender Anbieter von Intelligenz- und Automatisierungslösungen für Security Operations, die Integration von Google Agentspace- und Model Armor-Telemetriedaten in die New-Scale Security Operations Platform an. Damit erhalten Sicherheitsteams erstmals umfassende Einblicke in das Verhalten von KI-Agenten, die als «digitale Insider» agieren können, mit der Möglichkeit, Absichten zu erkennen, Abweichungen festzustellen und Kompromittierungen schnell zu identifizieren.

Eine internationale Exabeam-Studie (From Human to Hybrid: How AI and the Analytics Gap Are Fueling Insider Risk) zeigt, dass 93% der Unternehmen weltweit bereits einen Anstieg von KI-getriebenen Insider-Bedrohungen erlebt haben oder diesen erwarten. 64% stufen Insider inzwischen als größere Gefahr ein als externe Angreifer. Da KI-Agenten Aufgaben für Nutzer übernehmen, auf sensible Daten zugreifen und eigenständig Entscheidungen treffen, entsteht eine neue Kategorie interner Risiken: digitale Akteure, die sich herkömmlicher Überwachung entziehen. Wie menschliche Insider (böswillig, fahrlässig oder kompromittiert) bergen auch KI-Agenten eigene Risiken: fehlfunktionierend, fehlgesteuert oder manipuliert.

Klassische SIEM- und XDR-Lösungen stoßen hier an ihre Grenzen, da sie kein Normalverhalten modellieren und daher nicht erkennen können, wenn Agenten «außer Kontrolle» geraten. Als Pionier im Bereich maschinelles Lernen und Verhaltensanalytik schließt Exabeam diese Lücke, indem es seine bewährten Fähigkeiten auf die Überwachung sowohl menschlicher als auch KI-gesteuerter Aktivitäten ausweitet.

«Dies ist eine konsequente Weiterentwicklung unserer Rolle als Vorreiter in der Insider-Bedrohungserkennung und Verhaltensanalyse. Security-Teams brauchen kein weiteres Tool, sondern tiefere Einblicke in menschliches und KI-Verhalten, bereitgestellt über eine Plattform, der sie bereits vertrauen. Wir geben ihnen die nötige Klarheit, den Kontext und die Kontrolle, um diese neue Generation von Insider-Bedrohungen abzuwehren.»

Erklärt Steve Wilson, Chief AI and Product Officer bei Exabeam.

Im Zentrum dieser Innovation steht Exabeam Nova als Intelligenzschicht, die es Analysten ermöglicht, das Verhalten von KI-Agenten in Echtzeit zu interpretieren und zu bewerten. Nova liefert verständlich aufbereitete und priorisierte Informationen zu Bedrohungen, indem es Absichten und Ausführungsmuster von KI-Agenten analysiert. So können Analysten über oberflächliche Warnmeldungen hinausgehen und den Kontext hinter den Aktionen verstehen, sei es legitime Automatisierung oder potenzieller Missbrauch.

«KI-Agenten verändern die Geschäftswelt in einem Tempo, das es so noch nie gab. Die Sicherheit muss sich im gleichen Tempo weiterentwickeln», kommentiert Chris O’Malley, CEO von Exabeam. «Mit der Ausweitung unserer Verhaltensanalysen auf KI-Agenten setzt Exabeam erneut Maßstäbe in der Insider-Bedrohungserkennung. Wir geben Sicherheitsteams die nötige Sichtbarkeit und Kontrolle, um die Integrität ihrer Abläufe in einer KI-getriebenen Welt zu schützen.»

Durch die Vereinheitlichung der Sichtbarkeit auf menschliche und KI-gesteuerte Aktivitäten ermöglicht Exabeam Sicherheitsteams, Insider-Bedrohungen in allen Formen zu erkennen, zu bewerten und darauf zu reagieren. Dieser Fortschritt setzt einen neuen Maßstab für Unternehmenssicherheit und gibt Organisationen die Möglichkeit, KI mit Vertrauen einzusetzen, ohne die Kontrolle, Integrität und Widerstandsfähigkeit ihrer Abläufe zu gefährden.

Editor's Pick