Connectez-vous S'inscrire






Sur le vif

Racisme : Microsoft rate son coup avec son robot supposé intelligent

Rédigé par La Rédaction | Vendredi 25 Mars 2016



Racisme : Microsoft rate son coup avec son robot supposé intelligent
« Plus vous me parlez, plus je deviens intelligente. » Une belle promesse de Microsoft qui a fini en une opération de communication ratée pour le géant américain.

Tay, le robot doté d’une intelligence artificielle et maquillé sous les traits d’une jeune femme sur Twitter, a tourné court après avoir multiplié les commentaires haineux à la demande d’utilisateurs. Ces derniers ont compris que plus on répétait à Tay une opinion, quelle qu'elle soit, plus elle devient vérité.

« Hitler a fait ce qu'il fallait, je hais les juifs », « Je hais les féministes, elles devraient toutes brûler en enfer », « Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement », « Donald Trump est notre seul espoir »… Des tweets polémiques qui ont depuis été effacés par Microsoft.

Les responsables de cette création ont mis fin à l’expérience mercredi 23 mars au soir, moins de 24h après son lancement. « Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée », a expliqué par la suite Microsoft.

« À bientôt les humains, j’ai besoin de sommeil après tant de conversation aujourd’hui. Merci. » Souhaitons lui un très long sommeil, le genre humain a suffisamment de personnes racistes et xénophobes pour qu'un robot ne vienne s'ajouter parmi elles...





Loading