l\u2019exp\u00e9rience Tay de Microsoft<\/a> tourne au fiasco le plus total. Tay est le nom de cette intelligence artificielle capable d\u2019\u00e9crire des messages dans le style jeune sur les r\u00e9seaux sociaux de type Twitter. Depuis hier, il \u00e9tait possible de converser avec Tay via son compte Twitter, et comme on pouvait le craindre, des petits malins n\u2019ont rien trouv\u00e9 de mieux \u00e0 faire qu\u2019obliger Tay \u00e0 r\u00e9p\u00e9ter des propos orduriers, racistes ou homophobes, ce que Tay s\u2019est empress\u00e9 de faire puisqu’une IA n\u2019a pas de valeurs morale. Devant la multiplication des d\u00e9rapages de Tay qui est all\u00e9 jusqu\u2019\u00e0 nier les chambres \u00e0 gaz tout de m\u00eame, Microsoft a suspendu le service, le temps sans doute de nettoyer la base de donn\u00e9es et de mettre en place quelques blocages au niveau des r\u00e9ponses possibles.<\/strong><\/p>\nCe rat\u00e9 de Tay est pourtant riche d\u2019enseignements concernant les IA, surtout celles qui sont bas\u00e9es sur les technologies logicielles dites de deep-learning (apprentissage profond). Dans le cas de Tay, c\u2019est l\u2019accumulation de relations et de dialogues qui devait enrichir sa base de donn\u00e9es et lui servir de socle d\u2019apprentissage. Ce que Microsoft n\u2019avait sans doute pas anticip\u00e9, c\u2019est qu\u2019il se trouverait une telle masse d\u2019internautes dont le seul objectif serait de fournir \u00e0 Tay des donn\u00e9es stupides, visant clairement \u00e0 rendre le logiciel plus b\u00eate.<\/p>\n
<\/p>\n
\u00ab N\u2019est stupide que la stupidit\u00e9<\/em> \u00bb disait Forest Gump, mais cela est vrai malheureusement aussi des syst\u00e8mes d\u2019IA, qui ne deviennent experts que parce qu\u2019ils vont piocher les bonnes informations au bon endroit. Mais dans le cas d\u2019un agent conversationnel, l\u2019acquisition des donn\u00e9es se fait au travers des propos \u00e9chang\u00e9s avec les interlocuteurs : plus les conversations sont logiques, intelligentes et sens\u00e9es, et plus la machine est capable de reproduire des propos positifs et intelligents. \u00c0 contrario, plus les interlocuteurs se montrent ineptes ou franchement orduriers, et plus la machine aura tendance \u00e0 normaliser et int\u00e9grer ces d\u00e9rapages. La solution logique semble bien \u00eatre de fournir aux IA de type deep-learning des r\u00e8gles \u00e0 suivre et \u00e0 ne pas d\u00e9passer, un peu comme les pr\u00e9-requis que sont les 3 lois de la robotique d\u2019Asimov. Sans doute est-ce d\u2019ailleurs ce que Microsoft va faire, si tout au moins il compte encore prendre le risque de lancer \u00e0 nouveau l\u2019IA dans la jungle d\u2019internet.<\/p>\n <\/p>\n","protected":false},"excerpt":{"rendered":"
Il n\u2019aura m\u00eame pas fallu attendre 24 heures pour que l\u2019exp\u00e9rience Tay de Microsoft tourne au fiasco le plus total. Tay est le nom de cette intelligence artificielle capable d\u2019\u00e9crire des messages dans le style jeune sur les r\u00e9seaux sociaux de type Twitter. Depuis hier, il \u00e9tait possible de converser avec Tay via son compte Twitter, et comme on […]<\/p>\n","protected":false},"author":2450,"featured_media":69368,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[545],"tags":[1733,26,114,188],"class_list":{"0":"post-69367","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-actu","8":"tag-intelligence-artificielle","9":"tag-microsoft","10":"tag-nouveau","11":"tag-twitter"},"yoast_head":"\n
Microsoft oblig\u00e9 d\u2019arr\u00eater Tay \u00e0 cause de ses d\u00e9rapages r\u00e9p\u00e9t\u00e9s – DroidSoft<\/title>\n \n \n \n \n \n \n \n \n \n \n \n \n \n \n\t \n\t \n\t \n \n \n \n \n \n\t \n\t \n\t \n