• Die Plattform für Customer Relations Stars sowie CX & Service Champions

 

Mit Zukunftsbildern gelingt der Sprung nach vorn

Kundenloyalität im Wandel

Das Beste aus beiden KI Welten kombiniert - Generative AI und Conversational AI ergänzen sich

Die Grenzen grosser Sprachmodelle: Wegweisende Technologie ist kein Alleskönner

Swiss Customer Relations Award 2024: Neue Projekte, neue Chancen

ServiceNow: Finanzergebnisse für das 1. Quartal 2024

Oracle mit neuen KI-Funktionen für mehr Umsatz

VIER & questnet mit weltweitem Vertrieb von Cloud Contact Center & KI

Editor's Pick

Datenschutz in der CX

cmm360 - 21. März 2024

Podcast über analytische KI & smarte Entscheidungen

Meike Tarabori - Chefredaktion - 19. März 2024

Management, KI, Machine Learning

MIT macht KI sozialverträglich

Beat Hochuli - Business ICT-Strategien - 9. September 2020

Bild: Bei selbstfahrenden Autos müssen adversarial examples frühzeitig entdeckt und ausgemerzt werden.

Das Massachusetts Institute of Technology (MIT) spielt eine eminent wichtige Rolle in der Entwicklung von Methoden, die den flächendeckenden Einsatz von Künstlicher Intelligenz für Mensch und Gesellschaft sinnvoll und sicher machen soll. Aleksander Madry leistet seinen Beitrag dazu.

Sobald in den Medien von Künstlicher Intelligenz (KI) die Rede ist, spielt eine Art verbaler Reflex: Das Silicon Valley taucht sofort auf – und daran angehängt werden quasi naturgegeben die Namen der einschlägigen IT-Titanen. Mit anderen Worten: Eine der wichtigsten und traditionsreichsten Hochschulen, das Massachusetts Institute of Technology (MIT) in Cambridge bei Boston, fristet in der medialen Öffentlichkeit ein randständiges Dasein. Dabei wimmelt es am MIT nur so von Initiativen und Forschungsfeldern rund um KI und anverwandte Technologien.

Fehler im Machine Learning eliminieren

Da ist zum Beispiel Aleksander Madry, seines Zeichens Professor am Department of Electrical Engineering and Computer Science. Der gebürtige Pole hat sich voll und ganz der Verbesserung und Weiterentwicklung des Machin Learning verschrieben. «Ich will, dass die Gesellschaft das Machine Learning wirklich akzeptiert», sagt er. «Aber um dies zu erreichen, müssen wir Modelle konzipieren und trainieren, welche die Leute sicher, zuverlässig und für sie verständlich verwenden können», fügt er hinzu. Madry, der 2011 am MIT dissertiert und danach unter anderem an der ETH Lausanne weitergeforscht hat, betont, dass er ans MIT zurückgekehrt sei, weil er die dort pulsierende «aufregende Energie» vermisst habe.

Was genau treibt Madry also um? Nach seiner Rückkehr ans MIT 2015 war es in erster Linie die Frage, ob Machine Learning bloss ein gigantischer Hype sei – oder eben doch eine richtige Wissenschaft. «Es schien zu funktionieren. Aber niemand verstand wirklich wie und warum», bemerkt er dazu trocken. Also begab er sich zusammen mit seinem Team auf eine lange wissenschaftliche Reise – will sagen auf die abenteuerliche experimentelle Suche danach, was in der Machine Learning-Black Box eigentlich abläuft. Und gemäss der guten alten wissenschaftlichen Methodologie der Falsifikation hiess das: Herauszufinden, was alles schief oder grundfalsch läuft. Denn genau auf diesen wunden Punkt legten Madry und seine Leute in ihrem 2018 veröffentlichen Paper über ihre Forschungsresultate ihren sprichwörtlichen Finger. Bahnbrechend war das Paper insofern, als dass die Wissenschaftler darin eine Methodologie entwickelten, wie Machine Learn- ing-Modelle widerstandsfähiger gegenüber sogenannten «adversarial examples» (in etwa: konfliktträchtigen Beispielen) gemacht werden können.

Die tückischen «adversarial examples»

Adversarial examples sind leichte Verzerrungen bei den Input-Daten, die für Menschen nicht wahrnehmbar sind – beispielsweise ein Farbwechsel bei einem Pixel in einem digitalen Bild. Derartige minimale Verzerrungen können dazu führen, dass das Machine Learning-Modell inakkurate und falsche Voraussagen produziert. Was wiederum bedeutet, dass von sinnvollem maschinellem Lernen für menschliche Anwendungen nicht mehr die Rede sein kann. Zum Beispiel können «adversarial examples» dazu führen, dass ein Machine Learning-Modell aufgrund des Inputs von digitalen Katzen- und Hundebildern manchmal falsche Klassifikationen vornimmt – in Fällen wohlgemerkt, bei denen jeder Mensch die richtige Unterscheidung zwischen den Tierarten treffen würde.

Derartiges «Fehllernen», so Madry, muss selbstverständlich ausgeschlossen werden, wenn es nicht nur um Katzen- und Hundebilder geht, sondern beispielsweise um Machine Learning-Modelle, die in selbstfahrenden Autos zum Einsatz kommen. Hier und auch bei medizinischen Anwendungen geht es schnell einmal um Leben und Tod. Deshalb sehen Madry und seine Leute Sinn und Zweck ihrer Forschungstätigkeit darin, Machine Learning so sozial- und benutzerverträglich wie möglich zu machen.

Top Event

SCRF2024_750x422_w
Weisser Text als Abstand
Weisser Text als Abstand

Zu den aktuellsten News Dossiers