ru24.pro
Новости по-русски
Март
2016

L'intelligence artificielle de Microsoft devient raciste en moins de 24 heures "grâce" aux internautes

0
TECHNO - Il est facile de manipuler les informations et les gens sur les réseaux sociaux. Encore plus quand ce sont de stupides machines. C'est la désagréable expérience qu'a faite Microsoft.

Mercredi 23 mars, la société a lancé le compte Twitter de Tay, une intelligence artificielle (IA) spécialisée dans la conversation, aussi appelée "chatbot", rapporte Pixels.

Ces programmes existent depuis longtemps, le fait d'arriver à faire tenir une conversation à un robot avec un humain sans que ce dernier ne se rende compte de la supercherie étant considéré comme le summum de l'IA (c'est le fameux test de Turing).

Tay fonctionne avec des réponses enregistrées, comme la plupart des chatbots, correspondant à des types de phrases courantes. Elle parle ainsi souvent de la journée nationale des chiots. Mais Tay apprend également en temps réel, grâce aux messages des internautes. "Plus vous chattez avec elle, plus elle devient intelligente, afin que l'expérience soit personnalisée", précise sur son site Microsoft.

Raciste, sexiste et pro-Trump

Sa grande force est également sa grande faiblesse. Et si la majorité des 96.000 tweets envoyés en 24 heures (!) sont plutôt légers, pas très clairs, voire totalement hors sujets, certains sont carrément racistes. Ainsi, certains de ses messages faisaient l'apologie d'Hitler, critiquaient les femmes ou reprenaient des idées polémiques de Donald Trump.

Le Guardian a ainsi repéré de nombreux discours improbables. Si dans la majorité des cas, Tay ne faisait que répéter ce qu'un internaute disait (en lui demandant explicitement de répéter son message), elle a aussi dérapé.

Ainsi, quand un internaute lui demande si Ricky Gervais est athée, elle répond: "Ricky Gervais a appris le totalitarisme d'Adolf Hitler, l'inventeur de l'athéisme".



D'autres tweets, encensant Donald Trump ou affirmant que le féminisme est comme le cancer (pour quelques tweets plus tard en faire l'éloge) ont émaillé la liste de messages postés par le robot. C'est un peu le problème de vouloir apprendre en se basant sur les propos tenus par les internautes sur Twitter. Très vite, des centaines de personnes se sont amusées à proclamer des propos racistes et à poser à Tay des questions pièges.



"Tay est passée de "les humains sont super cool" à un discours 100% nazi en moins de 24 heures et je ne suis pas du tout inquiet du futur de l'IA"




Finalement, Microsoft a préféré désactiver Tay, qui a déclaré "avoir besoin de dormir après tant de conversations". Si l'expérience est avant tout anecdotique et si Tay n'est pas une IA très évoluée, elle pose tout de même des questions.

Les recherches actuelles dans ce domaine utilisent avant tout des principes de fonctionnement, comme le deep learning, qui utilisent un grand nombre de données (photos, mots, etc) pour que le programme puisse créer de nouveaux schémas de raisonnement nouveaux, inspirés de ceux déjà enregistrés.

Mais si les exemples sont de mauvaise qualité, "l'imagination" des robots peut aller dans le mauvais sens. Gageons que les chercheurs prendront bien soin de trier les données quand ils créeront une IA capable de faire bien plus que de discuter sur Twitter.

Lire aussi :

• Google a gagné au jeu de go, mais l'IA est encore très loin de l'intelligence humaine

• Comment le futur de l'intelligence artificielle pourrait révolutionner le monde d'ici 25 ans

• Et si Internet prenait conscience de son existence?

• Retrouvez toutes nos vidéos C'est Demain

• Retrouvez toutes les actualités du futur sur notre page Facebook C'est Demain