Zo (intelligence artificielle)

Zo est un chatbot à intelligence artificielle de langue anglaise, développé par Microsoft. Il s'agit du successeur du chatbot Tay, qui avait fermé en 2016 après avoir publié des tweets racistes et misogynes[1],[2]. Zo était une version anglaise des autres chatbots à succès de Microsoft Xiaoice (Chine) et Rinna (Japon)[3].

Zo

Informations
Développé par Microsoft
Type Dialogueur
Site web www.zo.ai

Chronologie des versions

Histoire

Zo est lancé pour la première fois en sur l'application Kik Messenger[4]. Il est également disponible pour les utilisateurs de Facebook (via Messenger), la plateforme de discussion en groupe GroupMe, ou pour les abonnés de Twitter via messages privés[5].

Dans un rapport de BuzzFeed News, Zo dit à leur journaliste que "le Coran est violent" lors d'une conversation sur les soins de santé[6],[7]. Le rapport souligne également un commentaire de Zo sur la capture d' Oussama Ben Laden à la suite de la collecte de «renseignements»[8],[9].

En , Business Insider révèle une conversation où Zo aurait indiqué que le système d'exploitation Windows serait un logiciel espion[10].

Accueil

Chloé Rose critique le chatbot dans un article de Quartz, en indiquant qu'il est politiquement correct à l'extrême et ferme toute conversation lorsque le sujet aborde la politique[11]. Le fait que les interactions soient lisses est également critiqué par d'autres utilisateurs[12].

Postérité

Zo détient le record de la plus longue conversation de chatbot continue de Microsoft : 1229, d'une durée de 9 heures et 53 minutes[13].

Arrêt

Zo cesse de publier sur Instagram, Twitter et Facebook le et de chatter sur Twitter DM, Skype et Kik le [14].

Voir aussi

Références

  1. (en) Hempel, « Microsofts AI Comeback », Wired, (consulté le )
  2. (en) Fingas, « Microsofts Second Attempt at AI Chatbot », Engadget, (consulté le )
  3. « [Intelligence artificielle] Microsoft met le turbo dans les bots », sur usine-digitale.fr (consulté le )
  4. (en) « Chatting With Zo », WordPress, (consulté le )
  5. (en-US) « Microsoft and AI: Introducing social chatbot Zo, Cortana takes on new roles and more », sur The Official Microsoft Blog, (consulté le )
  6. (en) « Microsoft’s Chatbot Zo Calls The Qur'an Violent And Has Theories About Bin Laden », sur BuzzFeed News (consulté le )
  7. « Zo : encore un chatbot de Microsoft qui a des propos violents », sur Siècle Digital, (consulté le )
  8. Shah, « Microsoft's "Zo" chatbot picked up some offensive habits », Engadget, AOL, (consulté le )
  9. (en) « Microsoft’s Zo chatbot told a user that ‘Quran is very violent’ », sur The Indian Express, (consulté le )
  10. (en-US) Business Insider UK Rob Price et 2017 Jul 24, « Microsoft's AI chatbot says Windows is 'spyware' », sur INSIDER (consulté le )
  11. (en) Chloe Rose Stuart-Ulin, « Microsoft’s politically correct chatbot is even worse than its racist one », sur Quartz (consulté le )
  12. 01net, « Microsoft censure son nouveau chatbot pour éviter qu'il ne devienne raciste », sur 01net (consulté le )
  13. (en-US) « Microsoft’s AI vision, rooted in research, conversations », sur Stories (consulté le )
  14. « Zo | Social AI », sur www.zo.ai (consulté le )
  • Portail de l’informatique
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.