Trotz des massiven Hypes um Sprach-KIs wie ChatGPT bleibt die Entwicklung echter künstlicher Intelligenz – AGI – in weiter Ferne. Aktuelle Systeme verarbeiten Wahrscheinlichkeiten auf Basis riesiger Datenmengen, verfügen jedoch weder über Denkfähigkeit noch über Abstraktionsvermögen. Der KI-Forscher François Chollet kritisiert, dass die Fokussierung auf Sprach-KI Ressourcen bindet und den Fortschritt hin zur AGI blockiert. Intelligenz bedeutet, neue Situationen zu verstehen und flexibel zu handeln – etwas, das heutige KI-Systeme nicht leisten. Der Weg zur echten menschenähnlichen Intelligenz erfordert daher neue Konzepte und Denkansätze.
Die gegenwärtige Sprach-KI ist alles andere als intelligent. Sie bindet Unsummen und blockiert damit die Entwicklung von Artificial General Intelligence.
Den Anfangs-Hype rund um die SprachKI wie ChatGPT haben wir hinter uns. Jetzt geht es darum, festzulegen, wie die entsprechenden Anwendungen genutzt werden können und wo sie eingeschränkt oder verboten werden sollen. Stichwort Hausaufgaben und Schulprüfungen. Spektakulär ist das nicht. Aber immerhin sorgte unlängst der Prozessor-Hersteller Nvidia noch ein wenig für KI-Schlagzeilen. Weil dessen Chips sich als die besten KI-Number-Cruncher herausgestellt haben, hat sich der Börsenwert des Unternehmens im vergangenen Jahr vervielfacht. Und ein Ende ist nicht abzusehen, hat Nvidia doch bereits die nächste KI-Prozessoren-Generation angekündigt, die das Vierfache der bisherigen Datenverarbeitungs-Motoren leisten soll. Und im kommenden Juni wird Apple dem Vernehmen nach die Integration von KI-Fähigkeiten in seine Produktpalette ins Zentrum seiner jährlichen Entwicklerkonferenz stellen.
«Intellektuelle Aufgaben» – oder was?
Wie gesagt: nichts Spektakuläres. Nun haben Zeiten relativer Flaute auch ihr Gutes. Sie erlauben einen Blick auf das grössere Ganze. In diesem Fall auf die AGI (Artificial General Intelligence), die sogenannte generelle oder allgemeine Künstliche Intelligenz. Wikipedia versteht darunter «die hypothetische Intelligenz eines Computerprogramms, welches die Fähigkeit besitzt, jede intellektuelle Aufgabe zu verstehen oder zu lernen, die ein Mensch ausführen kann.» Und: «Eine alternative Definition bezeichnet AGI als hochautonomes KI-System, welches bei der Lösung der meisten wirtschaftlich bedeutenden intellektuellen Aufgaben menschliche Fähigkeiten übertrifft.» Alles klar? Einerseits ja – andererseits überhaupt nicht. Denn was ist – erstens – eine «intellektuelle Aufgabe»? Und was sind – zweitens – «wirtschaftlich bedeutende intellektuelle Aufgaben»?
Mit der zweiten alternativen Definition lässt sich einfacher leben. Die gesamte Technikgeschichte kann ja so gelesen werden, dass Maschinen gewisse Aufgaben besser, schneller und effizienter erledigen als Menschen. Und dass Maschinen Menschen nach und nach aus etlichen Tätigkeitsfeldern verdrängen, weil sie wirtschaftlich gewinnträchtiger sind. Karl Marx und sein «Kapital» lassen grüssen. Denn wie schon im 19. und im 20. Jahrhundert geht auch jetzt wieder ein Gespenst um – oder besser gesagt: die Angst vor der Arbeitslosigkeit vieler zum Nutzen weniger. Und in der Tat: Zahlreiche repetitive Tätigkeiten – diesmal Büro- und nicht mehr Handwerks- und Fabrik-Jobs – werden durch den vermehrten Einsatz von KI überflüssig. Aber genau besehen hat dieser Ausdünnungs- respektive Umwälzungs-Prozess bereits mit der breiten Einführung der Informatik begonnen und dabei zahlreiche neue Berufsfelder entstehen lassen.
«Die gegenwärtige Fokussierung auf Sprach-KI verhindert die mögliche Entwicklung einer abstraktionsfähigen AGI. Denn die heutigen Aufgaben, die KI erledigt, sind keine intellektuellen Aufgaben, sondern höchstens schematisch-repetitive Vorgaben.»
Von blosser Wahrscheinlichkeit zur Abstraktionsfähigkeit
Und was hat das mit AGI zu tun? Nicht allzu viel, sagt einer, der es wissen muss. In einem lesenswerten NZZ-Interview vom 4. April dieses Jahres verscheucht der KI-Experte und Google-Forscher François Chollet das Schreckgespenst. Er bezweifelt, dass die gegenwärtige Form der KI – also die generative Sprach-KI à la ChatGPT – den Weg zu einer AGI bahnen kann. Dies aus dem einfachen Grund, weil die gegenwärtigen KI-Systeme primär auf riesigen Datenbanken aufbauen und deren Bestände mittels Wahrscheinlichkeits-Algorithmen zwecks mehr oder weniger plausibler Resultate abgrasen. Laut Chollet verfügen die KI-Sprachmodelle deshalb über keine Intelligenz. Menschen dagegen hätten – wie die KI-Systeme – ebenfalls ein Gedächtnis, seien aber fähig, mit ihren Gehirnen weit darüber hinauszugehen. «Vor allem können sie sich an neue Situationen anpassen, Dinge verstehen, die sie nie gesehen haben. Das ist Intelligenz», betont Chollet.
Grundsätzlich ist Chollet der Überzeugung, dass die gegenwärtige Fokussierung auf Sprach-KI die mögliche Entwicklung einer abstraktionsfähigen AGI verhindert. Ungeheure Mittel und Summen würden dadurch einseitig gebunden. «Wir brauchen also ganz neue Ansätze, um menschenähnliche KI zu erreichen. Der Weg ist sehr weit», konstatiert Chollet abschliessend.
Fazit
Ohne Denkfähigkeit keine AGI. Und: Die von Wikipedia erwähnten «intellektuellen Aufgaben», die heute schon oder in Bälde von KI erledigt werden, sind eben nicht wirklich intellektuelle Aufgaben, sondern höchstens schematisch-repetitive Vorgaben. Diese kann man getrost und ohne Wehklagen den Maschinen überlassen.

Beat Hochuli
Beat Hochuli ist ein Schweizer IT-Journalist, der als freischaffender Autor mit Schwerpunkt auf Informations- und Kommunikationstechnologien (ICT) tätig ist. Seine Arbeit umfasst unter anderem Trendanalysen und Fachartikel zu Themen wie Augmented Reality, mobilen Anwendungen und digitalen Innovationen.