Künstliche Intelligenz braucht klare Regeln im Unternehmen

ComplianceDatenschutzDSGVOGovernanceKI

Künstliche Intelligenz braucht klare Regeln im UnternehmenKünstliche Intelligenz braucht klare Regeln im Unternehmen
Künstliche Intelligenz braucht klare Regeln im Unternehmen

Die Entwicklung der Künstlichen Intelligenz (KI) schreitet voran, doch es fehlen weltweit einheitliche Vorgaben. Die EU hat mit dem AI Act und der DSGVO Regelwerke geschaffen, doch international bestehen Lücken, die Unsicherheit für Unternehmen bedeuten. Unternehmen müssen ihre KI-Systeme verstehen und Verantwortung übernehmen. Transparenz und Kontrolle sind entscheidend, um Missbrauch zu verhindern. Der AI Act verfolgt einen risikobasierten Ansatz, der für Hochrisiko-Anwendungen strenge Auflagen vorsieht. Unternehmen müssen sich auf interne Audits und externe Prüfungen einstellen. Die Zusammenarbeit mit Drittanbietern erhöht die Komplexität. Menschliche Aufsicht bleibt unverzichtbar, um ethische Massstäbe zu wahren.

Die Entwicklung von Künstlicher Intelligenz schreitet weiter voran, doch weltweit fehlt es an einheitlichen Vorgaben. Während die EU mit dem AI Act und der Datenschutz-Grundverordnung (DSGVO) zwei rechtlich verbindliche Regelwerke geschaffen hat, gibt es international viele Lücken. Für global tätige Unternehmen bedeutet das vor allem eines: Unsicherheit.

«Darauf zu setzen, dass Regulierungsbehörden rechtzeitig liefern, funktioniert nicht», sagt Roman Kilun, Chief Compliance Officer beim Softwareanbieter für intelligente Automatisierung ABBYY. «Unternehmen müssen verstehen, wie ihre KI-Systeme funktionieren und selbst Verantwortung übernehmen.» Es geht um Einblick in Datenflüsse, lückenlose Prüfpfade und Systeme zur laufenden Überwachung.

Transparenz und Kontrolle statt intransparenter Systeme

Künstliche Intelligenz ist längst Teil operativer Abläufe. Je weiter ihre Integration voranschreitet, desto klarer wird: Ohne wirksames Risikomanagement geraten Unternehmen in rechtliche, wirtschaftliche und gesellschaftliche Konflikte. Besonders der Einsatz sogenannter agentenbasierter Systeme – etwa bei Entscheidungsfindung oder Prozessautomatisierung – verlangt nach Kontrollmechanismen.

Ein zentrales Thema bleibt die Transparenz. Systeme, deren Logik sich nicht nachvollziehen lässt, bergen Missbrauchspotenzial und gefährden das Vertrauen. Die öffentliche Debatte um Amazons kassenlose Geschäfte, in denen KI-gestützte Entscheidungen offenbar auch durch Menschen beeinflusst wurden, hat die Problematik offengelegt. Die Kritik richtete sich dabei nicht gegen die menschliche Kontrolle, sondern gegen fehlende Offenlegung. Gerade wenn personenbezogene Daten verarbeitet werden, ist eine verständliche und vollständige Offenlegung notwendig. Vage Angaben wie «Verwendung zu Trainingszwecken» genügen nicht.

Risiken erkennen, bevor sie entstehen

Mit dem AI Act verfolgt die EU einen risikobasierten Ansatz. Systeme im Gesundheitswesen, der Strafverfolgung oder dem Finanzsektor gelten als Hochrisiko-Anwendungen und unterliegen strengeren Auflagen. Hier sind nachvollziehbare Dokumentationen, menschliche Aufsicht und die Möglichkeit zur Kontrolle verpflichtend. Weniger kritische Systeme müssen hingegen nur grundlegende Anforderungen erfüllen, etwa zur Transparenz oder Datensicherheit.

Gerade bei Hochrisiko-Anwendungen ergibt sich für Unternehmen ein erheblicher Handlungsbedarf. Ähnlich wie bei der Einführung der DSGVO sind interne Audits, Dokumentationspflichten und externe Prüfungen erforderlich. Die Kosten sind hoch, doch die Risiken durch unzureichende Compliance wiegen schwerer. Verstöße führen nicht nur zu hohen Bußgeldern, sondern gefährden auch das Vertrauen von Kunden, Partnern und Öffentlichkeit.

Externe Abhängigkeiten im Blick behalten

Viele Unternehmen greifen auf Modelle oder Tools von Drittanbietern zurück. Das erhöht die Komplexität und den Abstimmungsaufwand. Laut der Unternehmensberatung Accenture sehen 39 Prozent der Führungskräfte in der Zusammenarbeit mit externen Partnern die größte Herausforderung bei der Umsetzung von KI-Vorgaben. Klare Zuständigkeiten und transparente Prozesse entlang der Lieferkette werden damit zu einem zentralen Bestandteil jeder KI-Strategie.

Hilfreich sind praxisnahe Orientierungsrahmen wie etwa das Modell der Organisation ForHumanity. Es unterstützt Unternehmen bei der Etablierung unabhängiger Audits und flexibler Governance-Strukturen, die sich an veränderte Rahmenbedingungen anpassen lassen. Gerade bei komplexen Systemen mit mehreren Beteiligten ist das entscheidend.

Mensch und Maschine im richtigen Verhältnis

Menschliche Aufsicht bleibt unverzichtbar. Algorithmen können Prozesse beschleunigen und Entscheidungen vorbereiten. Sie sollten aber nicht anstelle menschlichen Urteils handeln. Unternehmen, die auf eine Kombination aus technischer Effizienz und menschlicher Kontrolle setzen, schaffen belastbare Strukturen und bewahren ethische Maßstäbe in sensiblen Bereichen.

Technologische Eigenständigkeit gewinnen

Auch geopolitische Fragen beeinflussen den Umgang mit KI. Frankreich unterstützt aktiv den Aufbau eigener Infrastruktur und treibt mit der Partnerschaft zwischen Mistral AI und Nvidia ein nationales Rechenzentrumsprojekt voran. Präsident Macron bezeichnete das Vorhaben im Juni 2025 als einen «Kampf um Souveränität und Autonomie». Mit dem geplanten Einsatz von 18.000 Hochleistungs-GPUs entsteht nahe Paris eine Alternative zu US-amerikanischen Hyperscalern wie Amazon Web Services, Microsoft Azure oder Google Cloud.

Das Projekt steht exemplarisch für Europas Bestreben, zentrale Technologiekompetenzen nicht nur zu nutzen, sondern auch unabhängig zu kontrollieren. Nationale Rechenzentren gewinnen dabei strategisch an Bedeutung – als Hebel zur Sicherung wirtschaftlicher Stabilität und technologischer Eigenständigkeit.

Verantwortung zeigt sich im Handeln

Künstliche Intelligenz stellt Unternehmen nicht nur vor technische und regulatorische Fragen, sondern auch vor eine Grundsatzentscheidung: aktiv gestalten oder passiv reagieren. In einem Umfeld, das noch keine globalen Standards kennt, braucht es klare interne Strukturen und den Mut zur eigenen Positionierung.

Unternehmen, die heute in nachvollziehbare Prozesse, transparente Systeme und wirksame Kontrollmechanismen investieren, schaffen nicht nur Sicherheit. Sie machen KI zu einem vertrauenswürdigen Werkzeug – im Dienst von Geschäftserfolg, Regulierung und gesellschaftlicher Akzeptanz.

Abbyy

ABBYY ist ein international tätiger Softwareanbieter mit Schwerpunkt auf dokumentenbasierter KI. Das Unternehmen entwickelt Lösungen für die automatisierte Verarbeitung und Auswertung von Geschäftsdokumenten. Die Technologien adressieren zentrale Anforderungen wie Genauigkeit, Skalierbarkeit und nahtlose Integration in bestehende Systeme.

Mehr zu Compliance

Diskussion

Das könnte Sie auch interessieren