Le pape, l’OTAN, Trump : comment les chatbots échouent face aux faits

Papst, NATO, Trump: Wie Chatbots bei Fakten versagenPapst, NATO, Trump: Wie Chatbots bei Fakten versagen
Papst, NATO, Trump: Wie Chatbots bei Fakten versagen

Le texte met en lumière la légèreté avec laquelle de nombreuses personnes font confiance aux systèmes d’IA – et combien cela peut être dangereux. Les chatbots s’expriment avec assurance, mais se trompent souvent, notamment lorsqu’ils posent des questions floues ou imprécises. Une grande étude montre que des faits erronés et des sources inventées peuvent saper la confiance dans les médias et les processus démocratiques. Au lieu de diaboliser la technique en bloc, l’article met l’accent sur la responsabilité des utilisateurs : l’IA est un outil qui exige des pensées claires et des invites précises. Si l’on procède à une vérification critique et que l’on pose des questions en toute connaissance de cause, on réduit considérablement les hallucinations.

Le « Frankfurter Rundschau » appelle cela un « jeu de hasard avec la vérité », lorsque l’on demande par exemple à ChatGPT les derniers résultats des élections, que l’on demande à Copilot de résumer les nouvelles du jour ou que l’on demande à Gemini de fournir des informations de fond sur la situation mondiale actuelle. C’est pourtant ce que font des millions de citoyens allemands chaque jour, en comptant sur le fait qu’ils reçoivent des faits et non des « faits alternatifs ».

Le journal télévisé a illustré les résultats possibles lorsque l’IA est « folle » par des exemples prnon négligeables tirés de l’étude de l’Union européenne de radio-télévision (UER), à laquelle ARD et ZDF ont participé pour l’Allemagne. Selon cette étude, le populaire chatbot ChatGPT a affirmé que le pape François était encore en vie. Microsoft Copilot, présent entre autres dans les logiciels de bureautique Word et Excel, n’était pas au courant que la Suède était membre de l’OTAN. Et Google Gemini a qualifié la réélection de Donald Trump de « mpossible », alors qu’elle a eu lieu depuis longtemps, comme chacun sait.

Affirmer de manière convaincante des choses fausses

« Les systèmes semblent convaincre, même s’ils affirment toujours des choses totalement fausses », cite le « Tagesschau », l’économiste Peter Posch de la Technische Universit Dortmund. Il avertit que cela est particulièrement dangereux pour les utilisateurs inexpérimentés, car il n’est souvent pas possible de détecter immédiatement les erreurs.

Des rapports et des gros titres tels que « L’IA invente une réponse sur trois » ont d’abord un effet dramatique, rreconnaît également le professeur expert en IA Marco Barenkamp. Des sources fausses, des faits inventés, des chatbots confus, cela semble inquiétant. Mais si l’on regarde de près et avec compétence, on reconnaît le vrai problème, constate l’informaticien de gestion : car ce n’est pas la technique qui échoue dans ces cas-là, mais l’homme qui l’utilise. C’est l’amère vérité, explique le fondateur de la société LMIS AG d’Osnabrück, spécialisée dans le développement de l’IA.

Avec son objection, le consultant, qui conseille la politique, les entreprises, les associations et d’autres organisations sur l’utilisation de l’IA orientée vers les solutions, ne veut pas être mal compris. Il ne s’agit pas pour lui d’apaiser la réalité ou de diminuer les problèmes réels. Il veut plutôt prévenir les erreurs « hystériques » d’appréciation sur la base de l’étude de l’UER

.

De nombreuses personnes croient qu’un chatbot est une sorte de Wikipédia intelligent, explique le professeur Barenkamp. Mais c’est justement l’erreur : l’intelligence artificielle n’est pas une encyclopédie, mais un miroir de sa propre précision, explique l’expert. En d’autres termes : « Qui pose des questions bâclées reçoit des statistiques en guise de punition ». Selon le professeur Barenkamp, l’EBU a raison de mettre en garde contre les erreurs. Mais de son point de vue, elle se trompe lorsqu’elle attribue la faute uniquement à la machine. La responsabilité incombe – comme dans d’autres cas – toujours à l’utilisateur qui se fie aveuglément à un outil qu’il ne sait pas utiliser correctement, avertit l’expert en IA. Dans ce cas, les outils sont justement les systèmes que les utilisateurs ne comprennent pas. En fin de compte, l’intelligence artificielle est également un outil qu’il faut maîtriser, souligne le professeur Barenkamp.

.

« Quand on formule mal, on obtient des absurdités »

« Les systèmes modernes comme GPT 5 sont étonnamment prprécis, mais en même temps, ils ne pardonnent pas la négligence. Celui qui pose des questions claires obtient des réponses claires. Celui qui formule mal ses questions obtient des absurdités. La machine est sensible à l’imprécision. Elle calcule avec des probabilités, pas avec la vérité. Elle ne fait que suivre des modèles », explique le spécialiste pour illustrer le problème.

Le GPT 5 est un outil assez compliqué, qui demande de la discipline et des connaissances techniques dans son utilisation, sait l’informaticien. Concrètement : « La technique est fondamentalement très bonne, mais elle nous oblige à penser de manière plus précise », constate le professeur Barenkamp. Cela signifie que l’IA a besoin d’instructions claires ou de questions formulées avec précision (prompts) pour pouvoir répondre de manière raisonnable et ciblée. « Un prompteur soigneuxobtient des résultats propres. Celui qui est confortable et imprécis produit des hallucinations. C’est aussi simple que cela », résume le professeur Barenkamp.

Il en tire une règle claire : Garbage in – garbage out. Ou en français : qui entre de la merde, reçoit de la merde enretour. « Même avec l’IA, rien ne changera « , prévient l’expert.

.

Le directeur général adjoint de l’Union européenne de radio-télévision, Jean Philip De Tender, estime que les résultats de l’étude actuelle de l’UER sont particulièrement problématiques dans la mesure où les échecs de l’IA décrits ne sont pas des cas isolés. Ils seraient plutôt « systémiques, transfrontaliers et multilingues », selon le « Frankfurter Rundschau » qui cite le directeur de l’UER. Il craint donc « des conséquences dramatiques pour la démocratie » : si les gens ne savent pas à qui faire confiance, « ils finissent par ne plus faire confiance à personne, ce qui peut nuire à la participationdémocratique », affirme De Tender.

Appel aux utilisateurs : contre-vérification et réponse rapide et précise

.

Mais ce n’est pas tout : selon l’étude de l’EBU, les chatbots ne doivent pas seulement inventer des faits, mais aussi des sources. Les spécialistes des médias mettent ainsi en garde contre le fait que les tromperies pourraient avoir une toute autre qualité : lorsque les fake news sont attribuées à des sources sérieuses. Comme l’ont découvert les testeurs de l’EBU, les chatbots auraient affirmé lors des vérifications que leurs informations provenaient d’ARD, ZDF ou du journal télévisé – alors que ces rédactions n’ont jamais fait état de ces informations. Les systèmes d’IA sapent ainsila confiance dans les médias sérieux et créent un chaos de vérité et d’invention, avertit le « Frankfurter Rundschau » des conséquences particulièrement « perfides » des fantaisies de l’IA.

.

Dans ce contexte, l’EBU appelle tous les utilisateurs de LLM ou de chatbots basés sur l’IA à ne jamais se fier aveuglément aux réponses de l’IA. Au lieu de cela, il faut toujours vérifier les informations importantes auprès des médias établis. Et, comme le souligne le professeur Barenkamp, expert en IA, il faut toujours formuler les questions et les instructions aux systèmes de manière réfléchie et précise. Car comme nous l’avons dit : Garbage in – garbage out ! Parce que l’IA ne remplace pas une pensée claire…

ASAI

Die Academic Society for Artificial Intelligence – Studiengesellschaft für Künstliche Intelligenz e.V. ist ein eingetragener Verein mit Sitz in Hamburg (Fischertwiete 2, 20095 Hamburg). Sie widmet sich der Förderung und dem Austausch im Bereich Künstliche Intelligenz und ist im Vereinsregister unter VR24771 geführt.

Plus d'articles

Discussion