KI entwickelt sich rasant – schneller als viele Unternehmen, Strategien oder Regulierungen mithalten können. Sasha Rubel erklärt im Interview, warum eine Zwei-Klassen-KI-Ökonomie entsteht, wie mangelnde gemeinsame Fachsprache Adoption bremst und weshalb klare Regeln wichtiger sind als weniger Regulierung. Diskutiert werden Verantwortungsprinzipien, digitale Kompetenzen und die Frage, welche Fähigkeiten Marketing-, Vertriebs- und Serviceverantwortliche jetzt priorisieren sollten. Eine Folge, die zeigt, wie Innovation, Governance und menschliche Fähigkeiten zusammenspielen.
Sasha Rubel, Head of Public Policy for Generative AI bei AWS in EMEA, warnt vor einer Zwei-Klassen-KI-Ökonomie: Start-ups rasen voraus, Großkonzerne stecken im Pilot-Purgatory.
Im Interview live von der re:Invent 2025 in Las Vegas erklärt die Ex-UNESCO-Expertin, warum gemeinsame KI-Sprache der Schlüssel zur Adoption ist, der EU AI Act Innovation nicht hemmt, sondern Klarheit braucht, und welche Skills Marketing-, Sales- und Service-Manager jetzt priorisieren sollten.
Sie haben Regierungen und internationale Organisationen zu KI beraten und gestalten heute bei AWS die Rahmenbedingungen für Generative AI in EMEA. Wie hat dieser Weg Ihre Sicht auf die Rolle von KI in Wirtschaft und Gesellschaft geprägt?
Sasha Rubel: Ich habe mehr als 15 Jahre im öffentlichen Sektor gearbeitet, bevor ich zu AWS gewechselt bin. Gewechselt bin ich aus der Überzeugung, dass die Privatwirtschaft eine zentrale Rolle spielt, wenn es darum geht, Prinzipien verantwortungsvoller KI-Governance in die Praxis zu übersetzen und skalierbar zu machen. Mit jedem Service, den wir launchen oder nicht launchen, beeinflussen wir potenziell das Leben von Millionen Menschen. Dieser Maßstab bringt eine große Verantwortung mit sich. Für mich bedeutet das, Verantwortung nicht abstrakt zu diskutieren, sondern sehr konkret in Produkte, Prozesse und Entscheidungen zu übersetzen, damit die Vorteile der Technologie tatsächlich bei Menschen ankommen.
Sie sprechen oft darüber, dass Politik, Fachbereiche und Technik dieselbe Sprache finden müssen. Warum ist diese gemeinsame «KI-Sprache» so entscheidend?
In meiner fast 20-jährigen Arbeit mit KI habe ich gelernt, dass der fehlende gemeinsame Wortschatz einer der größten Blocker für Adoption ist. Fragt man politische Entscheider:innen nach Prinzipien wie Transparenz, Erklärbarkeit oder Robustheit, stimmen die meisten sofort zu, dass diese wichtig sind. Fragt man hingegen Ingenieur:innen, ein System «per Design transparent und erklärbar» zu bauen, ist oft unklar, was das konkret für Architektur, Training oder Testing bedeutet. Genau hier setzen wir mit Leitfäden an, die diese Prinzipien sehr konkret auf Rollen herunterbrechen, wie etwa für Designerinnen, Entwickler, Betreiber oder Nutzer von KI-Systemen. Das ist dringend nötig, denn zwar sehen etwa 85 Prozent der Organisationen Responsible AI als Top-Management-Thema, aber weniger als ein Viertel verfügt über substanzielle Governance-Programme. Verantwortung darf nicht «on top» kommen, sondern muss von Anfang an in Prozesse, Tools und Skills eingebaut werden.
Sie haben den Begriff «demokratisierter Zugang» zu KI geprägt. Was bedeutet das konkret für Anwender in Unternehmen und für Kundenerlebnisse?
In einem Satz bedeutet demokratisierter Zugang, KI so bereitzustellen, dass Menschen sie überall sicher und verantwortungsvoll nutzen können und das mit Vertraulichkeit, Kontrolle über ihre Daten, echten Wahlmöglichkeiten und transparenter Kostenkontrolle. Das spiegelt sich in Entscheidungen zur Modellvielfalt, Kostensteuerung und Architektur wider, die es auch kleinen Teams ermöglichen, eigene Lösungen aufzubauen. Besonders wichtig ist mir, dass diese Technologie in die Hände derer kommt, die nah am Problem sind.
Ein Beispiel ist ein Landwirt aus Italien, der die KI-basierte Plattform gegründet hat und seine agrarische Expertise nutzt, um mit KI Schädlinge, Lieferkettenrisiken und Klimafolgen zu managen – und das inzwischen in mehreren Ländern. Ein anderes Beispiel ist Huron AI in Ruanda, wo es weniger als 15 auf Brustkrebs spezialisierte Onkolog:innen gibt: Eine generative KI-Lösung unterstützt Frauen mit personalisierten Empfehlungen, immer mit ärztlicher Aufsicht, und überbrückt Distanzen, Kosten und Infrastrukturprobleme. Für mich zeigt das, was «demokratisierter Zugang» bedeutet, nämlich KI, die nicht nur Effizienz bringt, sondern auch Inklusion und Teilhabe stärkt.
Sie sprechen von einer «Two-Tier AI Economy». Was meinen Sie damit, und warum ist das für größere Unternehmen, auch im Kundenmanagement, so gefährlich?
Unsere Studie «Unlocking Europe’s AI Potential» zeigt, dass sich diese Zwei-Klassen-Ökonomie auf drei Ebenen abzeichnet. Erstens adoptieren Start-ups KI deutlich schneller als Großunternehmen. Viele Konzerne bleiben in einer Art «Proof-of-Concept (POC)-Purgatory» hängen oder nutzen KI vor allem für interne Effizienz-Use-Cases – etwa Chatbots für Mitarbeitende – statt ihr Geschäftsmodell, ihr Wertversprechen und ihre Kundeninteraktion wirklich neu zu denken. Start-ups hingegen gehen schneller in Richtung echte strategische und operative Transformation und fragen: «wie können wir mit KI unser Angebot und unsere Rolle im Markt grundlegend neu definieren?»
Zweitens gibt es eine Lücke zwischen privatem und öffentlichem Sektor. Die Privatwirtschaft rennt bei KI vorneweg, während viele Behörden zögern, obwohl gerade öffentliche Anwendungen Vertrauen schaffen könnten, das wiederum Adoption in der Wirtschaft beschleunigt. Ein Beispiel aus Frankreich: Ein generativer KI-Chatbot hilft Bürger:innen, ihre Sozialleistungen zu verstehen und abzurufen. Menschen, die mit komplexen Formularen überfordert wären, kommen dadurch viel leichter an ihre Ansprüche; der Staat rückt näher an die Bürger, und die Technologie wird als hilfreiches Werkzeug erlebt statt als abstrakte Bedrohung.
Drittens sehen wir eine Lücke zwischen Tech-nativen und traditionellen Unternehmen. In Europa – und insbesondere in Deutschland – sind klassische Branchen wie Industrie, Automotive oder Landwirtschaft das Rückgrat der Wirtschaft. Hier geht es um Themen wie vorausschauende Wartung, Effizienz in Werken, resiliente Lieferketten oder neue Service-Modelle entlang des Lebenszyklus. Wenn diese Branchen bei KI hinterherhinken, gefährdet das mittel- bis langfristig die Wettbewerbsfähigkeit ganzer Volkswirtschaften.
Viele Unternehmen empfinden die Regulatorik, insbesondere den EU AI Act, als hemmend. Was sind aus Ihrer Sicht die größten Missverständnisse?
Ein Kernproblem ist, dass rund 68 Prozent der Unternehmen ihre konkreten Pflichten unter dem EU AI Act nicht verstehen. In Gesprächen höre ich immer wieder das Bild eines Puzzles, dessen Teile sich ständig bewegen. Zwischen EU AI Act, DSGVO und weiteren Richtlinien wie der EU-Urheberrechtsrichtlinie fällt es schwer, ein konsistentes Bild zu bekommen. Die Folge ist, dass Unternehmen wegen regulatorischer Unsicherheit planen, ihre jährlichen KI-Investitionen im Schnitt um bis zu 28 Prozent zu senken – Geld, das nicht in Innovation fließt, obwohl der Bedarf da ist. Gleichzeitig fließen etwa 40 Prozent der gesamten IT-Ausgaben in Compliance-bezogene Aktivitäten. Für Start-ups ohne große Legal- oder Public-Policy-Teams ist das eine enorme Hürde und bremst europäische Innovationskraft.
Was helfen würde, ist das, was in Deutschland auf der Autobahn selbstverständlich ist: klare Regeln. Nicht, um Geschwindigkeit zu verbieten, sondern um hohes Tempo und Sicherheit zu kombinieren. Für KI heißt das: vereinfachte, verständliche und EU-weit harmonisierte Vorgaben sowie internationale Standards, damit Unternehmen von Anfang an global skalieren können. Am Ende ist regulatorische Klarheit ein zentraler Hebel für europäische Wettbewerbsfähigkeit, und zwar nicht trotz, sondern wegen verantwortungsvoller Nutzung.
Viele sehen Verantwortung und Innovation als Gegensätze. Wie erklären Sie Unternehmenslenkern und politischen Entscheidern, dass beides zusammengehört?
Es wird aktuell ein künstlicher Gegensatz konstruiert: hier Verantwortung, dort Innovation. In Wirklichkeit bedingen sie einander. Verantwortung schafft Vertrauen, Vertrauen ermöglicht Adoption – und Adoption ist die Basis für Innovation, die wirklich Wirkung entfaltet. Deshalb verfolgen wir bei AWS den Ansatz «responsible and sovereign by design», sowohl für unsere KI-Services als auch für Cloud-Dienste insgesamt. Verantwortung wird nicht hinten angeflanscht, sondern von Beginn an eingebaut, etwa über Sicherheitsarchitekturen, Governance-Prozesse, Schulungen und Monitoring.
Das ist nicht nur ethisch richtig, sondern betriebswirtschaftlich sinnvoll. Unternehmen, die Verantwortung systematisch in ihre Innovationsprozesse integrieren, erzielen deutlich bessere Renditen auf ihre Innovationsinvestitionen und profitieren langfristig von höherer Akzeptanz bei Kund:innen und Mitarbeitenden. Menschen nutzen auf Dauer nur Technologien, denen sie vertrauen – das gilt besonders für KI-Anwendungen in sensiblen Bereichen wie Kundendaten, Service-Interaktionen oder personalisierten Angeboten.
Wenn wir auf Fähigkeiten schauen: Welche Skills sollten Führungskräfte in Marketing, Vertrieb und Service jetzt priorisieren, sowohl für sich selbst als auch für ihre Teams?
Unsere Forschung zeigt, dass digitale und KI-bezogene Kompetenzen in vielen Fällen wichtiger sein werden als der klassische Hochschulabschluss. In den nächsten fünf Jahren werden fast 50 Prozent aller Jobs irgendeine Form von digitaler oder KI-Literacy erfordern. Wer diese Fähigkeiten mitbringt, kann sein Gehalt im Schnitt um bis zu 42 Prozent steigern. Das ist eine enorme Chance für individuelle wirtschaftliche Teilhabe, gerade für bisher unterrepräsentierte Gruppen wie Frauen im Tech-Sektor.
Für Führungsteams heißt das: Es geht nicht nur um Daten- oder Prompting-Skills. Mindestens ebenso wichtig sind sogenannte «Soft Skills», die in einer KI-gestützten Arbeitswelt zu echten Kernkompetenzen werden. Und mit Soft Skills meine ich kritisches Denken, Kreativität, Empathie und emotionale Intelligenz sowie systemisches Denken über Silos hinweg. Über allem steht für mich ein weiterer Faktor, nämlich Neugier. Organisationen, die eine Kultur der Neugier, des Fragenstellens und des reflektierten Experimentierens fördern, werden KI viel zielgerichteter einsetzen als solche, die nur Tool-Listen abarbeiten.
Wenn Sie auf 2030 blicken: Wie sieht eine «gute» KI-Landschaft aus – für Unternehmen, Bürger:innen und den Planeten?
«Gut» bedeutet für mich zunächst, dass wir weltweit ein geteiltes Verständnis davon haben, was Verantwortung bei KI konkret heißt – und dass es verbindliche, praktikable Governance-Mechanismen gibt, die Risiken minimieren und Innovation fördern. Diese Regeln sollten nicht nur von Regierungen entwickelt werden, sondern in enger Ko-Kreation mit Innovator:innen, Wissenschaft, Zivilgesellschaft und Wirtschaft. Genauso wichtig ist, dass demokratisierter Zugang Realität geworden ist: KI wird überall genutzt, um wirtschaftliche Chancen zu schaffen, gesellschaftliche Probleme anzugehen und das Leben von Menschen messbar zu verbessern – ohne, dass der Mensch aus dem Zentrum rückt. Das Ziel ist eine Zukunft, die technologisch ermöglicht, aber menschlich geprägt ist.
Viele Führungskräfte fühlen sich zwischen Begeisterung und Überforderung. Welchen Mindset-Shift würden Sie ihnen als nächsten Schritt mitgeben?
Der wichtigste Schritt ist, KI nicht als Selbstzweck zu sehen, sondern konsequent vom Problem her zu denken. Statt zu fragen «Wo können wir KI einsetzen?», sollte die Frage lauten: «Welche Probleme im Kunden- oder Mitarbeitererlebnis wollen wir lösen, und wie können KI, Agenten, Analytics oder Machine Learning uns dabei helfen?» Zugleich ist es entscheidend zu akzeptieren, dass wir uns mitten in einem kulturellen Wandel befinden, nicht nur in einem technologischen.
Gute Daten ermöglichen gute KI, gute KI braucht gute Daten, aber vor allem braucht gute Arbeit gute Menschen. Wenn wir in digitale Kompetenz, Neugier und Verantwortungsbewusstsein unserer Teams investieren, gestalten wir eine Zukunft, in der Technologie das Beste im Menschen verstärkt, statt es zu ersetzen. Für Führungskräfte in Marketing, Vertrieb und Service ist jetzt der Moment, gemeinsam mit den Teams eine klare Vision zu entwickeln, wofür KI im Sinne der Kund:innen und Mitarbeitenden eingesetzt werden soll, und diese Vision Schritt für Schritt in konkrete, verantwortungsvolle Use Cases zu übersetzen.
Dieses Interview basiert auf dem Podcast Meikes Raumzeit – Episode 64 «Regulation vs. Innovation? How to Scale AI Responsibly«
Meike Tarabori
Im Januar 2019 übernahm Meike Tarabori die Position als Chefredakteurin des cmm360, das renommierte Schweizer Magazin für Customer Relations Stars und Service Champions. Als erfahrene Expertin für Marketing und Kommunikation mit Abschlüssen in Business, Marketing und deutscher Literatur hat sie wertvolle Erfahrungen unter anderem bei Unternehmen wie KUKA Robotics und zuletzt beim Cybathlon ETH Zürich gesammelt. Im Rahmen eines umfangreichen Rebranding-Projekts verlieh sie dem cmm360 seine aktuelle, moderne Ausrichtung. Seitdem hat sie nicht nur die Onlinepräsenz des Magazins erfolgreich etabliert, sondern kontinuierlich neue Formate wie die Podcasts «Nice To Meet You», «Meike's Raumzeit» und «ICT Talk» entwickelt. Darüber hinaus fungiert sie als Organisatorin des Schweizer Customer Relations Awards, eine Plattform, die innovative Projekte zur Gestaltung nachhaltiger Kundenbeziehungen und einzigartiger Kundeninteraktionen würdigt und auszeichnet.

