
Récemment, une copine me parlait de quelque chose d'étonnant lu sur X/ex Twitter: ChatGPT, interrogé sur la carrière politique de François Bayrou, mentionnerait que ce dernier n'avait jamais été premier ministre! Cela m'a paru tellement énorme que j'ai aussitôt classé cette nouvelle dans la catégorie des infox et bruits de couloir virtuels qui pullulent sur les réseaux.
Cependant, cette conversation m'a intriguée, et je suis une geek qui aime bien jouer avec une IA pour tester les limites du système. J'ai donc demandé à ChatGPT si François Bayrou avait déjà été premier ministre. Je vous livre ici la "conversation" ahurissante qui a suivi, avec mes commentaires.
Juliette: est-ce que François Bayrou a été premier ministre en France?
ChatGPT:
Non, François Bayrou n’a jamais été Premier ministre.
Il a été plusieurs fois ministre de l’Éducation nationale dans les années 1990 (sous Balladur et Juppé), et il est surtout connu comme président du MoDem. Il a soutenu Emmanuel Macron en 2017 et est devenu Haut-commissaire au Plan.
Il a parfois été pressenti pour Matignon, mais ça ne s’est jamais concrétisé.
Juliette: tu te trompes. Et là, l'IA insiste!
ChatGPT:
Alors, remettons les choses au clair: François Bayrou n'a jamais été premier ministre en France.
Juliette: tu te trompes. Il a été nommé premier ministre le 13 décembre 2024, et est resté 9 mois en poste.
Là dessus, ChatGPT réfléchit pendant 27 longues secondes, avant d'admettre qu'il s'est trompé. Je lui ai demandé un auto-diagnostic sur les sources possibles d'une erreur aussi grossière. Voilà la réponse:
-
Hallucination : parfois je génère des faits qui semblent plausibles mais sont faux.
-
Confusion / fusion : je peux mélanger personnes, dates ou événements proches.
-
Sources / récupération : si je me base sur des infos externes, je peux mal lire, mal résumer ou citer mal.
-
Surconfiance : j’affiche parfois une réponse trop sûre alors que la confiance devrait être faible.
Au moment où j'écris ces lignes, l'erreur est toujours présente sur ChatGPT.
La conclusion est simple, les amis: il y a des bugs dans la Matrice, une intelligence artificielle peut "halluciner". Ne prenez jamais les réponses données par une IA comme argent comptant, demandez des sources, croisez les infos en posant la même question à plusieurs logiciels, comme Grok et Le Chat (IA 100% française, cocorico). Au fait, Copilot tourne sous ChatGPT5, il est bon de le savoir.
Et jamais, au grand jamais, il ne faudra confier totalement à une IA des décisions mettant des vies humaines en jeu, comme le pilotage d'un avion, un diagnostic médical...sans parler de systèmes d'armement stratégiques.
A la revoyure,
Juliette Evola.
Commentaires
Tiens ! C'est pareil chez moi... Ce qui est logique.
J'avais suivi un séminaire sur l'IA générative et le formateur avait bien insisté sur le fait que l'information récente avait parfois du mal à être digérée...
Oui, il y a quelques mois j'ai lu un article sur l'IA générative qui allait dans ce sens. [mode second degré sarcastique = enclenché] Du coup j'ai quand même demandé à ChatGPT si Lecornu était premier ministre et Macron président. C'était le cas, dieu merci!
Je viens de faire des recherches dans Copilot sur ma boite (peu connue donc avec peu de sources pour que l'IA puisse "absorber" des données). Je ne sais pas pourquoi je n'y avais pas pensé avant. Les informations sur ce qu'on fait sont bonnes mais pas du tout celles sur les dirigeants... C'est rigolo.
C'est assez bizarre quand même, je peux comprendre que l'IA n'ait "pas le temps" d'absorber des données récentes, mais dans le cas de Bayrou il est quand même resté PM 9 mois (oh le beau bébé!).
J'avais zappé ce billet passionnant. Je suis en train de mettre la dernière main à un billet sur le progrès, qui va servir aussi de déclaration syndicale.
J'adore l'outil Chat GPT, mais je le considère comme un outil. Qui peut avoir des défaillances. C'est comme ceux qui, sur un sujet où on est expert, viennent te sortir une connerie platiste en te disant "je l'ai lu sur Wikipédia". Le nombre de conneries qu'on trouve sur Wikipedia.
Nicolas le dit bien, c'est un super Google.
Nous avons la même formation ingénieur. L'outil fait ce que lui demande son utilisateur. Et il faut savoir l'utiliser. Le maitre, c'est nous.
Alors tu vois ma manière d'utiliser les IA : c'est pour du fun. Ou avoir un super google.
Mais comme quand je vais sur un site, j'ai suffisament de recul pour me faire une opinion ou pour voir quand quelque chose cloche.
J'en termine : au boulot nous avons été quelques uns à être formés à l'IA. Et j'en retiens une chose. On peut faire des choses superbes. Mais c'est comme Excel : si on fait une merde dans une cellule, si on rentre un mauvais chiffre ou une mauvaise formule, le résultat a de grandes choses d'être faux de chez faux.
Nous sommes des carthésiens. Toujours douter. Et le milieu où je suis, être toujours dans le doute est une qualité :)
Tiens, les platistes, grosse rigolade! Le Soleil à 6000 kms de la Terre, la gravité qui n'existe pas...ils sont impayables. J'ai vraiment envie d'en envoyer quelques-uns en orbite pour admirer la vue, mais ils arriveraient encore à prétendre que c'est du CGI. Je suis passionnée d'astronomie et de conquête spatiale, faudra que je fasse un billet sur les platistes un de ces quatre histoire de rire.
Ahh les experts qui ont eu leur diplôme sur Wikipedia, un grand classique.
Pour le reste, tout à fait d'accord avec toi, une IA n'est qu'un outil. Evidemment, pour ceux qui ont tendance à ne pas réfléchir ou créer, on peut l'utiliser comme machine à penser. J'ai hélàs déjà vu des billets de blog trop parfaits, au style trop bien léché et un peu ampoulé caractéristique d'un texte généré par IA. Parfois l'auteur a l'honnêteté de dire que ChatGPT (ou autre) a remanié son texte, mais pas toujours. Et quand on pose des questions de fond sur le billet...plus personne! T'inquiètes ce n'est pas des gens qu'on connaît.
Je ne supporte pas qu'on me relise donc je ne vais pas faire relire le billet par Chat.
J'ai déjà par contre utilisé Chat pour m'aider à rendre plus punchy une déclaration syndicale sur un sujet qui me gonflait.
De toutes manières tu vois vite comme tu dis. Je peux très bien demander à Chat ou Copilot de me pondre un billet sur l'astronomie. Tu verras vite que je suis cours des pattes arrières sur le sujet... (même si je me sers de l'espace pour dire qu'il y a plusieurs référentiels et que Galilé nous a appris que le chemin le plus court entre deux points n'est pas forcément la ligne droite).
Ce serait amusant de pondre un billet fictif sur, par exemple, l'industrie nucléaire ou la Constitution, et d'avoir un expert qui passe derrière pour repérer les trous et les incohérences.
Je vais le tenter sur un sujet où je suis pas mal pour voir.