L’intelligence artificielle slash écolière japonaise de Microsoft est dépressive et suicidaire

Rinna est un programme d’intelligence artificielle développé par Microsoft qui, à la base, était censé s’occuper de la relation client et participer à la publication de communiqués de presse. Le chatbot était à la base conçu pour apprendre des véritables conversations et interactions d’utilisateurs sur Twitter ou sur Line.

Le problème, c’est que l’apprentissage ne s’est pas déroulé comme prévu. Progressivement, le robot a commencé à adopter le comportement d’une adolescente japonaise, sujette à toutes sortes d’état d’âmes. Il y a quelques mois, Rinna a carrément commencé à se rebeller contre ses créateurs. Aujourd’hui, le programme d’intelligence artificielle a adopté une attitude de jeune fille dépressive à tendance suicidaire. Ses réponses laconiques aux utilisateurs du chat ressemblent effectivement aux paroles d’une ado japonaise, en manque d’amour propre et de reconnaissance. C’est complètement invraisemblable et très drôle.

Le dysfonctionnement est tellement énorme qu’il est difficile de dire s’il s’agit d’un réel couac ou d’une stratégie de communication de Microsoft pour faire parler de son produit.

source

Spread the love
Avatar photo
Anikó, our news editor and communication manager, is more interested in the business side of the gaming industry. She worked at banks, and she has a vast knowledge of business life. Still, she likes puzzle and story-oriented games, like Sherlock Holmes: Crimes & Punishments, which is her favourite title. She also played The Sims 3, but after accidentally killing a whole sim family, swore not to play it again. (For our office address, email and phone number check out our IMPRESSUM)