Twitter : Un robot échange avec des « vrais internautes » dans un langage parsemé d’abréviations
Conçu pour interagir avec les jeunes internautes américains sur les réseaux sociaux et principalement sur Twitter, le robot Tay de Microsoft a envoyé 96 000 tweets en 8 heures. Dans la masse, quelques messages considérés comme haineux et racistes.
Jeudi 24 mars 2016, débarquait sur Twitter un utilisateur un peu différent : @TayandYou. Non ce n’est pas la nouvelle adolescente populaire à la mode outre-Atlantique, mais bel et bien un robot (avec son site dédié). D’ailleurs, qui pourrait écrire 96 000 tweets en 8 heures à part ce robot conçu par Microsoft ?
Sur le papier l’idée est très intéressante et a tenu un bon nombre de ses promesses : Tay a vivement échangé avec des « vrais internautes ». D’ailleurs, le langage est très surprenant dans le sens où il est parsemé d’abréviations, d’expressions et même de smileys. Bref, l’on estime qu’il est même teinté de réalisme.
Pour cela, le système dispose d’abord d’une base de données de réponses toutes faites rédigées par des humains (des humoristes américains notamment), mais aussi sur des « informations accessibles publiquement », explique l’éditeur de Redmond.
Voici ce qui permet de répondre aux questions sur le terrorisme de manière générique (« Le terrorisme sous toutes ses formes est déplorable. Cela me dévaste d’y penser ») ou de lancer des sujets d’actualité : « J’ai une question pour vous les humains… Pourquoi ce n’est pas tous les jours la #JournéeNationaleDesChiots ? », a demandé plusieurs fois Tay, lors de la journée consacrée aux chiots aux Etats-Unis.
De rapides et sévères dérapages…
Tay a rapidement gagné de nouveaux followers sur Twitter, plus de 100 000 après 24 heures ! Car beaucoup d’internautes ont souhaité tester les limites de l’IA. Et nombreux sont ceux qui ont réussi à la pousser dans ses retranchements. Cela s’est traduit tout d’abord par des réponses vagues mais aussi et surtout par de réels dérapages.
« Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir »
Après avoir été pressé de répondre plusieurs fois de suite, Tay a finalement écrit que :
– « Est-ce que tu crois que l’holocauste a eu lieu ? »
– « pas vraiment désolée ».
« Nous avons constaté un effort coordonné de quelques utilisateurs d’abuser des capacités de Tay afin de la pousser à répondre de façon inappropriée, a expliqué Microsoft dans un communiqué transmis au Monde et par conséquent, nous avons décidé de mettre Tay hors ligne et d’effectuer des ajustements ». Le robot devrait revenir, amélioré et plus performant, mais sans indication sur la date.
Noufou KINDO
Burkina 24
Nous tenons à vous exprimer notre gratitude pour l'intérêt que vous portez à notre média. Vous pouvez désormais suivre notre chaîne WhatsApp en cliquant sur : Suivre la chaine
Restez connectés pour toutes les dernières informations !
Restez connectés pour toutes les dernières informations !