Microsoft obligé d’arrêter Tay à cause de ses dérapages répétés

Il n’aura même pas fallu attendre 24 heures pour que l’expérience Tay de Microsoft tourne au fiasco le plus total. Tay est le nom de cette intelligence artificielle capable d’écrire des messages dans le style jeune sur les réseaux sociaux de type Twitter. Depuis hier, il était possible de converser avec Tay via son compte Twitter, et comme on pouvait le craindre, des petits malins n’ont rien trouvé de mieux à faire qu’obliger Tay à répéter des propos orduriers, racistes ou homophobes, ce que Tay s’est empressé de faire puisqu’une IA n’a pas de valeurs morale. Devant la multiplication des dérapages de Tay qui est allé jusqu’à nier les chambres à gaz tout de même, Microsoft a suspendu le service, le temps sans doute de nettoyer la base de données et de mettre en place quelques blocages au niveau des réponses possibles.

Ce raté de Tay est pourtant riche d’enseignements concernant les IA, surtout celles qui sont basées sur les technologies logicielles dites de deep-learning (apprentissage profond). Dans le cas de Tay, c’est l’accumulation de relations et de dialogues qui devait enrichir sa base de données et lui servir de socle d’apprentissage. Ce que Microsoft n’avait sans doute pas anticipé, c’est qu’il se trouverait une telle masse d’internautes dont le seul objectif serait de fournir à Tay des données stupides, visant clairement à rendre le logiciel plus bête.

th_tay-derapage

« N’est stupide que la stupidité » disait Forest Gump, mais cela est vrai malheureusement aussi des systèmes d’IA, qui ne deviennent experts que parce qu’ils vont piocher les bonnes informations au bon endroit. Mais dans le cas d’un agent conversationnel, l’acquisition des données se fait au travers des propos échangés avec les interlocuteurs : plus les conversations sont logiques, intelligentes et sensées, et plus la machine est capable de reproduire  des propos positifs et intelligents. À contrario, plus les interlocuteurs se montrent ineptes ou franchement orduriers, et plus la machine aura tendance à normaliser et intégrer ces dérapages. La solution logique semble bien être de fournir  aux IA de type deep-learning des règles à suivre et à ne pas dépasser, un peu comme les pré-requis que sont les 3 lois de la robotique d’Asimov. Sans doute est-ce d’ailleurs ce que Microsoft va faire, si tout au moins il compte encore prendre le risque de lancer à nouveau l’IA dans la jungle d’internet.

 

, Microsoft obligé d’arrêter Tay à cause de ses dérapages répétés
Livio Didier

Né en 1998 à Sanary, Livio Didier quitte rarement sa terre natale. Entre mer et collines, c’est via le net qu’il donne à ses activités une dimension internationale. En parallèle de sa scolarité, il développe la création de sites, d’applications et de jeux. Il n’a que 14 ans lorsqu’il signe un premier contrat de conception de site. Soucieux de démocratiser la culture, il étend sa première société Livio Informatique au domaine de la diffusion radiophonique par le web et inaugure en 2013 Radio Livio. Un an plus tard, il ouvre sa maison d’édition Livio Éditions, ayant pour mot d’ordre de favoriser l’accès au plus grand nombre. Ces trois activités conjuguées lui permettent aujourd’hui de diffuser des émissions musicales et culturelles, de proposer à moindre frais des ouvrages de qualité, de promouvoir des auteurs et même des musiciens. On ne compte plus les idées que Livio développe et les projets qu’il réalise avec l’enthousiasme tranquille qui le caractérise. Philanthrope, engagé, et sensible à tout ce qui touche le quotidien, nul doute que Livio Didier suive un parcours qui n’a pas fini de nous étonner.

2 thoughts on “Microsoft obligé d’arrêter Tay à cause de ses dérapages répétés”

Leave a Comment

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.