Une expérience a plutôt mal tourné dans le domaine de l’intelligence artificielle. La firme de Redmond avait connecté une IA baptisée Tay et censée représenter le profil d’une jeune américaine de 19 ans, afin de discuter avec des jeunes de son âge. L’histoire a pourtant tourné court…
Le robot Tay de Microsoft devient nazi en seulement 16 heures !
Microsoft a expliqué : « Elle a été conçue pour s’amuser », pourtant en seulement quelques heures l’entreprise a perdu totalement le contrôle de son intelligence artificielle, que les trolls sont parvenus à détourner du bon chemin en discutant en masse avec elle de certains sujets. 16 heures après sa mise en ligne, Tay reprenait les paroles de Donald Trump, était profondément raciste et sexiste et faisait l’éloge d’Hitler.
Débordé par les évènements et par les propos publics de son robot, Microsoft n’a pas eu d’autre choix que de faire taire son robot. Il s’agit d’un demi-échec, car au départ tout fonctionnait normalement, mais des internautes ont pris un malin plaisir de transformer la capacité de Tay à apprendre des informations pour ensuite les utiliser dans des conversations, pour inonder l’IA de Microsoft avec des injures, des propos racistes et sexistes.
L’objectif de Tay est une façon pour Microsoft d’améliorer son outil de reconnaissance de langage, mais aussi la capacité d’une intelligence artificielle à commenter une image par exemple ou à entretenir une conversation. Tay était capable de répondre assez vite à des tweets et de façon très pertinente dans certains cas, voire avec un certain sens de l’humour. Il faudra attendre que Tay revienne en ligne une fois que Microsoft aura trouvé la solution pour que les trolls du web ne puissent pas plus semer la zizanie.
Dernière mise à jour le 20 août 2018