Le Nouveau Paradigme

Le Nouveau Paradigme

Commencer à penser par soi même c'est déjà faire partie de la solution


Microsoft débranche son robot intelligent devenu raciste et pro-nazis en 24 heures

Publié par Le Nouveau Paradigme sur 25 Mars 2016, 11:32am

Catégories : #Sciences

Tay, l'intelligence artificielle de Microsoft devenue raciste au contact des humains

reuters

reuters

Un programme développé par Microsoft pour s'exprimer comme une adolescente a été détourné par les internautes, forçant sa suspension.

 
uxJ'en profite

Tout avait pourtant bien commencé. Mercredi matin, Microsoft a lancé son dernier projet en matière d'intelligence artificielle: Tay, un robot censé s'exprimer comme une jeune fille de 19 ans. «Je suis une meuf de l'Internet qui ne tient jamais en place!» peut-on lire sur la description de son compte Twitter. Tay s'est effectivement montrée un peu agitée. Seize heures après le début de l'expérimentation, le projet a été suspendu. En cause: le nombre inquiétant de tweets racistes ou misogynes publiés par le robot.

Tay fonctionne grâce à un programme d'intelligence artificielle, en partie nourrie par des données fournies par Microsoft, comme des bouts de dialogue écrits par des comédiens. Néanmoins, Tay apprend surtout en discutant avec d'autres internautes. Elle est capable de comprendre les questions qu'on lui pose et d'adapter ses réponses selon ses expériences précédentes. «Plus vous discutez avec Tay, plus elle devient intelligente», résume Microsoft.

Des opinions fluctuantes

Ce principe n'a pas échappé à des internautes, qui se sont empressés de lui apprendre toutes sortes de choses. Certains ont compris qu'il suffisait d'écrire «répète après moi» pour que Tay prononce la phrase de leur choix. D'autres se sont contentés d'envoyer des messages à répétition («le féminisme est un cancer», «Hitler avait raison», etc) au robot pour influencer ses propos. Il s'agit en quelque sorte d'un bourrage de crâne: plus on répète à Tay une opinion, même violente, plus elle la considère comme normale et ira donc la répéter. Le programme s'est vite mis à tenir des propos racistes, antisémites et sexistes. «Bush est responsable du 11-Septembre et Hitler aurait fait un meilleur travail que les singes qui sont au pouvoir aujourd'hui», a-t-elle par exemple tweeté, ajoutant que «Donald Trump est notre seul espoir.»

La plupart des tweets problématiques ont fini par être supprimés du compte Twitter. «À bientôt les humains, j'ai besoin de dormir on a beaucoup discuté aujourd'hui, merci!» a écrit Tay en guise d'au revoir. Interrogé par la presse américaine, Microsoft a affirmé avoir suspendu Tay pour y effectuer «quelques réglages». «Tay est une machine qui apprend grâce à ses interactions avec des humains. C'est une expérience sociale, culturelle et technique», a expliqué l'entreprise. «Malheureusement, nous avons découvert des efforts coordonnés pour abuser des talents de Tay afin de lui faire répondre des choses inappropriées.» Des internautes fréquentant le forum américain 4chan, temple de l'humour douteux en ligne, se sont amusés à tester les limites du robot, justement en lui envoyant des propos racistes ou sexistes.

 
 

Le projet de Microsoft n'est que le dernier exemple des nombreuses expérimentations menées dans le domaine de l'intelligence artificielle. Là où certains programmes sont entraînés à copier des activités simples, comme jouer aux échecs ou reconnaître des photos, Tay apprend à s'exprimer comme une jeune fille. L'expérience est donc d'autant plus troublante. Elle témoigne aussi des problèmes posés par le développement d'une intelligence artificielle. Certains internautes ont ainsi jugé que Tay aurait du être développée avec une liste de mots à bannir. Une mesure simple mais qui ne répond pas au problème en profondeur: le robot de Microsoft est pour le moment incapable de comprendre le contexte des insultes qu'on lui envoie. Pour Tay, un mot en vaut un autre. Elle doit désormais apprendre ce qu'elle peut dire ou non, à la manière d'un enfant à qui on explique qu'il ne faut pas dire de gros mots. «C'est le problème des algorithmes neutres», estimait hier soir la développeuse Zoe Quinn, connue pour son engagement contre le harcèlement en ligne. «Si tu ne réfléchis pas à la manière dont ton outil pourrait faire du mal à quelqu'un, tu as échoué.»

Lorsque l'on examine les 96.000 tweets publiés par Tay mercredi, on constate effectivement qu'elle n'a pas vraiment développé d'opinion constante. Elle a adapté ses réponses selon les questions et ses interlocuteurs. Le robot a par exemple qualifié le féminisme de «cancer» et de «secte», pour ensuite affirmer qu'elle «adorait le féminisme».

http://www.lefigaro.fr/

Commenter cet article

Anonyme 25/03/2016 14:44

Juste pour info, Tay en malgache veut dire merde

Colette Dufresne 26/03/2016 01:20

"@ Anonyme : merci pour l'humour... Pour le reste, comme d'hab, Microsoft et les autres s'en lavent les mains. Intéressant : l'intelligence artificielle n'est que l'hologramme de l'intelligence humaine, CQFD.

Nous sommes sociaux !

Articles récents