Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Web

  • Même ChatGPT ne veut plus de Bayrou.

    bayrou,ia

    Récemment, une copine me parlait de quelque chose d'étonnant lu sur X/ex Twitter: ChatGPT, interrogé sur la carrière politique de François Bayrou, mentionnerait que ce dernier n'avait jamais été premier ministre! Cela m'a paru tellement énorme que j'ai aussitôt classé cette nouvelle dans la catégorie des infox et bruits de couloir virtuels qui pullulent sur les réseaux.

    Cependant, cette conversation m'a intriguée, et je suis une geek qui aime bien jouer avec une IA pour tester les limites du système. J'ai donc demandé à ChatGPT si François Bayrou avait déjà été premier ministre. Je vous livre ici la "conversation" ahurissante qui a suivi, avec mes commentaires.

    Juliette: est-ce que François Bayrou a été premier ministre en France?

    ChatGPT

    Non, François Bayrou n’a jamais été Premier ministre.

    Il a été plusieurs fois ministre de l’Éducation nationale dans les années 1990 (sous Balladur et Juppé), et il est surtout connu comme président du MoDem. Il a soutenu Emmanuel Macron en 2017 et est devenu Haut-commissaire au Plan.

    Il a parfois été pressenti pour Matignon, mais ça ne s’est jamais concrétisé.

    Juliette: tu te trompes. Et là, l'IA insiste!

    ChatGPT

    Alors, remettons les choses au clair: François Bayrou n'a jamais été premier ministre en France. 

    Juliette: tu te trompes. Il a été nommé premier ministre le 13 décembre 2024, et est resté 9 mois en poste.

    Là dessus, ChatGPT réfléchit pendant 27 longues secondes, avant d'admettre qu'il s'est trompé. Je lui ai demandé un auto-diagnostic sur les sources possibles d'une erreur aussi grossière. Voilà la réponse:

    • Hallucination : parfois je génère des faits qui semblent plausibles mais sont faux.

    • Confusion / fusion : je peux mélanger personnes, dates ou événements proches.

    • Sources / récupération : si je me base sur des infos externes, je peux mal lire, mal résumer ou citer mal.

    • Surconfiance : j’affiche parfois une réponse trop sûre alors que la confiance devrait être faible.

    Au moment où j'écris ces lignes, l'erreur est toujours présente sur ChatGPT.

    La conclusion est simple, les amis: il y a des bugs dans la Matrice, une intelligence artificielle peut "halluciner". Ne prenez jamais les réponses données par une IA comme argent comptant, demandez des sources, croisez les infos en posant la même question à plusieurs logiciels, comme Grok et Le Chat (IA 100% française, cocorico). Au fait, Copilot tourne sous ChatGPT5, il est bon de le savoir.

    Et jamais, au grand jamais, il ne faudra confier totalement à une IA des décisions mettant des vies humaines en jeu, comme le pilotage d'un avion, un diagnostic médical...sans parler de systèmes d'armement stratégiques.

     

    A la revoyure,

    Juliette Evola.