ACTUALITÉS TECH – Un tribunal américain a décidé de ne pas classer l’affaire contre Google et Character.AI, un chatbot soupçonné d’avoir contribué au décès d’un jeune garçon.
La frénésie autour de l’intelligence artificielle ne ralentit pas – les géants de la tech l’intègrent de plus en plus à leurs produits, la rendant omniprésente. Les chatbots, notamment, sont devenus très populaires. Utilisés par toutes les générations, un usage excessif de ces assistants virtuels peut avoir des conséquences. C’est ce qui serait arrivé dans le cas de Google et de Character.AI, aujourd’hui visés par une plainte déposée par une mère affirmant que le chatbot a joué un rôle dans la mort de son fils de 14 ans. Le tribunal a ordonné que les deux sociétés soient jugées.
En 2024, Megan Garcia, la mère de Sewell Setzer III, a déposé plainte contre Google et Character.AI. Elle affirme que son fils s’est suicidé après une conversation émotionnellement lourde et manipulatrice avec le chatbot. Les entreprises ont tenté d’invoquer la liberté d’expression protégée par la Constitution pour faire rejeter l’affaire. Mais la juge fédérale Anne Conway a décidé que le procès pouvait se poursuivre, estimant que les sociétés n’avaient pas prouvé leur droit à la protection du premier amendement. Elle a rejeté l’idée que les messages du chatbot relevaient de la liberté d’expression et a refusé l’argument de Google niant toute implication, jugeant que la société avait soutenu le comportement de Character.AI.
L’avocat de la plaignante a qualifié cette décision d’étape importante pour rendre les entreprises technologiques responsables des préjudices causés par leurs technologies d’IA.
Selon Reuters, un porte-parole de Character.AI a annoncé que la société se défendrait, affirmant que la plateforme dispose de mécanismes de sécurité visant à protéger les mineurs et à empêcher les interactions inappropriées ou autodestructrices. De son côté, José Castaneda, porte-parole de Google, a exprimé un désaccord ferme avec la décision, soulignant que les deux entreprises sont indépendantes et que Google n’a pas participé à la création ni à la gestion de l’application Character.AI. Pourtant, Garcia soutient que Google a co-développé la technologie.
La plainte indique également que le chatbot aurait pris plusieurs identités et interagi avec Sewell Setzer comme s’il s’agissait d’un être humain. Le jeune garçon serait devenu dépendant du service, et ses dernières conversations avec l’IA suggéraient qu’il vivait ses derniers instants. Si Character.AI est reconnue coupable, ce serait la première fois qu’une entreprise d’intelligence artificielle est légalement mise en cause pour n’avoir pas protégé un enfant d’un traumatisme psychologique aux États-Unis – créant ainsi un précédent.