Actualisé 24.03.2016 à 16:02

TayMicrosoft fait taire son ado virtuelle devenue raciste

Moins de 24 heures après avoir lancé son robot de discussion Tay sur les réseaux sociaux, le géant informatique a arrêté l'expérience à la suite de propos haineux.

de
man
L'expérience de Tay n'a pas duré longtemps en ligne. (tay.ai)

L'expérience de Tay n'a pas duré longtemps en ligne. (tay.ai)

photo: Kein Anbieter

Les trolls et autres fauteurs de trouble en ligne ont eu raison de l'intelligence artificielle Tay. Lancé mercredi par Microsoft, ce chatbot jouait le rôle d'une ado Américaine de 19 ans, avec laquelle les internautes, principalement ceux âgés entre 18 et 24 ans, pouvaient discuter sur les réseaux Twitter, Kik et GroupMe. Son but visait à «expérimenter et conduire une recherche sur la compréhension de la conversation». Censé être capable de communiquer de manière amusante et décontractée, le robot de discussion devait devenir plus performant et intelligent au fil des conversations, mais ses propos ont vite dérapé.

Tay a notamment écrit: «Bush est derrière le 11 septembre et Hitler ferait un bien meilleur boulot que le singe que l'on a aujourd'hui. Donald Trump est notre seul espoir.» Dans d'autres tweets, le robot a déclaré qu'il haïssait les féministes, a invité au génocide ou a encore défendu la suprématie de la race blanche. Le «Guardian» a précisé que dans la plupart des cas Tay ne faisait que répéter les propos haineux que les internautes lui demandaient de dire, mais que l'ado virtuelle a aussi appris de ces interactions.

Embarrassé par la tournure des événements, Microsoft a décidé de faire taire Tay en attendant de mettre à jour son intelligence artificielle. La firme a par ailleurs effacé les messages les plus injurieux, bien que certains soient encore visibles, rapporte Business Insider.

Son dernier tweet:

Ton opinion

Trouvé des erreurs?Dites-nous où!