Quand l’intelligence artificielle de Microsoft devient raciste au contact des internautes
Mercredi matin une intelligence artificielle développée par Microsoft débarquait sur la Tweetosphère. La dénommée Tay n’aura réussi qu’à tenir une journée face aux internautes la transformant en adolescente raciste et misogyne.
Au départ, Tay était programmée pour discuter avec des interlocuteurs et les divertir. « Plus vous discutez avec Tay, plus elle devient intelligente » était le concept de base de ce projet selon Microsoft. L’expérience n’a pas été concluante.
Après quelques heures et de nombreuses affirmations douteuses des internautes, l’IA a commencé à tweeter d’étranges propos allant du racisme à la misogynie en passant par des remises en question historiques.
Tay avait pour but d’apprendre en discutant avec les internautes, enregistrant et comprenant les questions qui pouvaient lui être posées. Ainsi, elle pouvait adapter ses réponses en fonction de ses expériences.
Des propos racistes et misogynes
Cette capacité à assimiler tout ce qui lui est dit a été très vite comprise par ses interlocuteurs, déclenchant un tourbillon de bourrage de crâne d’idées plus ou moins appropriées. Tay étant programmée pour apprendre en discutant elle se mit à considérer toutes les idées exposées et les a retranscrites comme normales.
Parmi les tweets violents on retrouve « Bush est responsable du 11-Septembre » ou« Hitler n’a rien fait de mal ».
16 heures après les frasques de Tay, Microsoft a suspendu cette dernière, après avoir supprimé les messages posant problèmes, pour y effectuer « quelques réglages ».
« Tay est une machine qui apprend grâce à ses interactions avec des humains. C’est une expérience sociale, culturelle et technique […] Malheureusement, nous avons découvert des efforts coordonnés pour abuser des talents de Tay afin de lui faire répondre des choses inappropriées » déclara Microsoft, propos rapportés par Le Figaro.
Avant d’être désactivée, pour maintenance ou pour toujours, l’IA laissa un tweet d’au revoir :
c u soon humans need sleep now so many conversations today thx?
— TayTweets (@TayandYou) 24 mars 2016
L’expérience en elle-même n’a pas été une réussite, principalement à cause d’une partie de la communauté Twitter qui n’a pas su jouer le jeu. Le potentiel de cette intelligence artificielle est indéniable mais son apprentissage très rapide doit être contenu. Il est certain que Microsoft va devoir mettre en place une sécurité adéquate pour éviter toute nouvelle sorte de dérapages à l’avenir.
C’est le deuxième évènement majeur de l’année mettant en avant les capacités des intelligences artificielles, certes beaucoup moins amusant que l’IA AlphaGo battant le champion de Go Lee Sedol, mais les recherches continuent.
J.A.R.V.I.S. ce n’est pas encore pour aujourd’hui mais de plus en plus d'améliorations apportées aux IA voient le jour, comme par exemple la fonction qui permet à Cortana de vous faire tenir vos promesses, nous sommes sur la bonne voie !