L'IA de Microsoft est-elle réellement devenue raciste au contact des internautes ? Microsoft fait taire Tay, son intelligence artificielle... devenue raciste. En poursuivant votre navigation sur ce site, vous acceptez nos CGU et l'utilisation de cookies afin de réaliser des statistiques d'audiences et vous proposer une navigation optimale, la possibilité de partager des contenus sur des réseaux sociaux ainsi que des services et offres adaptés à vos centres d'intérêts.
Pour en savoir plus et paramétrer les cookies... Replay Emissions averses éparses Vent : 15km/h - UV : 3 Clôture veille : 4520.30 Ouverture : 4513.49 Replay Emissions CécileBOLESSE Journaliste Tay a dix-neuf ans et discute avec vous de tout et de rien. Seize heures après avoir donné la parole à Tay, un robot de discussion intelligent avec lequel les internautes pouvaient converser sur Twitter, Kik et GroupMe, Microsoft a préféré le faire taire. c u soon humans need sleep now so many conversations today thx— TayTweets (@TayandYou) 24 mars 2016 L'expérience avait bien pourtant bien commencé.
Tay a été conçue pour s’améliorer au fil du temps. Cécile BOLESSE. A peine lancée, une intelligence artificielle de Microsoft dérape sur Twitter. L’entreprise américaine a lancé Tay, un « chatbot » censé discuter avec des adolescents sur les réseaux sociaux.
Mais des propos racistes se sont glissés dans ces échanges. Le Monde.fr | • Mis à jour le | Par Morgane Tual 96 000 tweets envoyés en 8 heures : aucun utilisateur de Twitter n’est capable d’une telle prouesse… du moins chez les humains. Tay, elle, est une utilisatrice à part : il s’agit d’une intelligence artificielle développée par Microsoft, capable de participer à des conversations sur des réseaux sociaux et des applications de messagerie comme Twitter, Snapchat, Kik ou encore GroupMe. Ce « chatbot » (robot conversationnel), lancé mercredi 23 mars, « vise les Américains de 18 à 24 ans », explique Microsoft sur le site qui lui est consacré.
@Garon_w This is making me LOL harrrddd today TayandYou (@TayTweets) Pour dialoguer avec les autres utilisateurs, Tay se base sur des données accessibles publiquement, notamment pour construire des réponses à leurs questions. Le très bref retour de Tay, l’intelligence artificielle de Microsoft. Après ses propos racistes, ce programme avait été mis hors ligne par Microsoft.
Il est réapparu mercredi quelques minutes, et a de nouveau publié des messages problématiques. LE MONDE | • Mis à jour le | Par Morgane Tual « Yay, Tay est de retour ! Voyons si nous pouvons éviter de la transformer en Hitler cette fois. » Mercredi 30 mars, l’intelligence artificielle conçue par Microsoft pour échanger avec des adolescents sur Twitter a surpris et ravi les internautes en faisant son grand retour. Lancé mercredi 23 mars, ce programme baptisé Tay, se présentant comme une adolescente, avait été mis hors ligne à la hâte après quelques heures d’existence à la suite de multiples dérapages. Lire : Derrière les dérapages racistes de l’intelligence artificielle de Microsoft, une opération organisée « Je fume de la weed devant la police » Mais moins d’une semaine plus tard, à la surprise générale, Tay est réapparue sur Twitter… Et ce ne fut toujours pas une réussite.
Site francophone sur l'intelligence artificielle. Intelligence artificielle : une machine est-elle capable de philosopher ? Alors qu’Apple vient encore d’améliorer son assistant vocal Siri, de quoi sont aujourd’hui capables les intelligences artificielles les plus avancées en matière de conversation ?
Le Monde.fr | • Mis à jour le | Par Morgane Tual Cet article fait partie d’une série consacrée à l’état des lieux de l’intelligence artificielle. De C-3PO à HAL, en passant par l’héroïne virtuelle du film Her, le fantasme d’une intelligence artificielle (IA) aussi évoluée que celle de l’homme passe, dans l’imaginaire collectif, par une machine capable de communiquer naturellement avec son interlocuteur. Avec l’apparition, ces dernières années, d’outils tels que Siri, qu’Apple vient encore de peaufiner, au fond de nos poches, des progrès considérables semblent avoir été faits dans cette direction.
Mais où en est-on vraiment ? Un dialogue primaire La technologie derrière ces outils est similaire à celle utilisée par la plupart des « chatbots », ou agents conversationnels. En quête de sens La piste des robots En bref :