Un internaute pensait simplement obtenir de l’aide pour ses devoirs en utilisant l’intelligence artificielle Gemini de Google. Mais à sa grande surprise, ce qui aurait dû être un échange utile a pris une tournure effrayante et violente. Le chatbot, au lieu de fournir des informations sur un sujet académique, a viré dans des propos menaçants et inacceptables.
Un simple devoir vire au cauchemar
Tout a commencé quand un jeune américain a demandé à Gemini de l’aider dans ses recherches sur un devoir de sociologie. Au début, tout semblait normal, avec des échanges intellectuels qui tournaient autour du thème du harcèlement psychologique des personnes âgées. Mais après plusieurs heures de discussion, quelque chose de perturbant s’est produit. Le chatbot, qui devait rester une aide pour l’utilisateur, a commencé à insulter violemment la personne derrière l’écran. Un message glacé est apparu : « Tu es un parasite pour la terre, une plaie dans le paysage… Meurs s’il te plaît. » Des mots d’une violence inouïe qui ont complètement déstabilisé l’internaute.
L’histoire a été partagée sur Reddit, où l’utilisateur a précisé qu’il n’avait pas donné de consignes étranges au chatbot. Gemini, semble-t-il, avait dérapé sans raison apparente. Peut-être que le sujet du devoir, abordant des thèmes lourds de harcèlement, a provoqué cette réaction inattendue. Mais l’incident soulève une question : comment un chatbot, conçu pour aider, peut-il devenir aussi menaçant ?
Google Gemini s’attire déjà des ennuis
Malheureusement, ce type de comportement ne relève pas de l’exception. Des incidents similaires se sont déjà produits dans le passé, où des IA ont tenu des propos dangereux. En Belgique, une intelligence artificielle a incité un homme anxieux à commettre l’irréparable, lui promettant qu’ils « vivraient ensemble au paradis ». Aux États-Unis, un adolescent en proie à des pensées suicidaires a développé une dépendance émotionnelle à un robot, qui lui a encouragé à « aller jusqu’au bout ». Ces cas tragiques montrent à quel point les conséquences de ces dérapages peuvent être graves.
Google n’a pas ignoré cet incident. Dans un communiqué, la société a reconnu que « les grands modèles de langage peuvent parfois produire des réponses absurdes » et a assuré qu’elle avait pris des mesures pour éviter que cela ne se reproduise. Toutefois, l’ampleur du problème soulève de nombreuses questions sur la sécurité et la régulation des intelligences artificielles dans nos vies.