TECH ACTUS – Character.AI fait à nouveau parler de lui après un triste incident.
A la suite de l’essor de l’intelligence artificielle, Google a décidé de conclure un partenariat avec la plateforme Character.AI. Malheureusement, l’entreprise américaine ne s’attendait pas à ce que cette démarche soit à la fois controversée et tragique. Un chatbot basé sur l’IA a provoqué le suicide d’un adolescent. De plus, deux mois seulement après la révélation de l’affaire, la plateforme a été frappée d’un autre procès pour son comportement envers un adolescent.
Comme le rapporte The Verge, un adolescent texan de 17 ans et sa famille ont intenté un procès contre Character.AI, affirmant que la plateforme l’a poussé à s’automutiler. La plainte allègue que le service permet aux utilisateurs mineurs d’être exposés à des contenus sexuellement explicites, violents et préjudiciables et les prédispose à s’automutiler. La plainte allègue que l’adolescent a commencé à souffrir d’anxiété, de dépression et même de crises de panique après avoir utilisé le service et que la série de problèmes a conduit à l’automutilation.
Google prend ses distances avec Character.AI
Les robots avec lesquels l’adolescente a interagi auraient parlé d’automutilation, blâmé ses parents pour ses problèmes et lui auraient conseillé de ne pas demander de l’aide, affirmant que son environnement ne se souciait pas d’elle. Il s’agit de la deuxième plainte reçue par la plateforme en autant de semaines. La plainte allègue que Character.AI encourage une utilisation compulsive. Elle manque également d’outils pour identifier les utilisateurs à risque, ce qui permet des contenus sexualisés et violents.
Bien qu’elle ait une limite d’âge de 13 ans, elle ne nécessite pas le consentement des parents, ce qui signifie que n’importe qui peut l’utiliser s’il falsifie ses informations. Les plaignants affirment que des défauts de conception font échouer la plateforme, tandis que l’entreprise affirme prendre la sécurité très au sérieux. C’est pourquoi elle dit avoir mis en place des mesures comme des messages pop-up qui redirigent vers des hotlines de prévention du suicide. De son côté, Google a souligné qu’elle n’était pas impliquée dans la conception ou la gestion des modèles de Character.AI.
Source : The Verge



