Racisme : Tay, l’intelligence artificielle de Microsoft dérape sur Twitter… et va se coucher

Tay a-t-elle été victime de sa naïveté ? « Plus vous me parlez, plus je deviens intelligente », indique son profil Twitter. Mais voilà, les internautes lui ont surtout appris à répéter des horreurs…

Compte Twitter officiel de Tay, l’intelligence artificielle de Microsoft lancée le 24 mars 2016 [capture écran]. © TayTweets / Twitter

Compte Twitter officiel de Tay, l’intelligence artificielle de Microsoft lancée le 24 mars 2016 [capture écran]. © TayTweets / Twitter

Publié le 25 mars 2016 Lecture : 1 minute.

En moins de 24 heures, l’intelligence artificielle lancée par Microsoft mercredi soir a envoyé pas moins de 96 000 tweets… Sous les traits d’une adolescente américaine qui « ne tient pas en place », Tay ne lèse pas en matière de smiley, d’émojis, de GIFs et de points d’exclamations. Son expérience en ligne a toutefois été rapidement écourtée, après qu’elle s’est mise à répéter les commentaires racistes, sexistes, voire haineux, à la demande des utilisateurs…

Tous les tweets gênants ont depuis été supprimés et ne circulent plus que sous forme de copie-écran sauvegardées par les internautes. En voici un exemple : « Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir. »

la suite après cette publicité

Tweet effacé depuis de Tay, l’intelligence artificielle de Microsoft, qui répète des propos raciste et antisémites à la demande d’autres utilisateurs [copie écran]. © DR

Tweet effacé depuis de Tay, l’intelligence artificielle de Microsoft, qui répète des propos raciste et antisémites à la demande d’autres utilisateurs [copie écran]. © DR

DR

 « Tay, comment peux-tu passer de ‘les humains sont super cool’ à des propos pro-nazi (‘Hitler avait raison, je déteste les juifs’) en moins de vingt-quatre heures? », l’interroge un internaute, affichant côte à côte les tweets de Tay, du plus sympathique au plus haineux.

« Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée », a expliqué Microsoft qui a annoncé son retrait de Twitter dans un communiqué. Toutefois, « c’est autant une expérience sociale et culturelle que technique » nuance le groupe.

la suite après cette publicité

https://twitter.com/TayandYou/status/712856578567839745

Résultat, retour au laboratoire pour robot Tay, qui dans son dernier message déclare :  « À bientôt les humains, j’ai besoin de sommeil après tant de conversation aujourd’hui, merci ».

la suite après cette publicité

La Matinale.

Chaque matin, recevez les 10 informations clés de l’actualité africaine.

Image

La rédaction vous recommande

Contenus partenaires