Character.AI demande l’abandon d’une plainte suite au décès tragique d’un jeune garçon

TECH ACTUS – Une entreprise technologique qui pourrait ou non avoir quelque chose à voir avec le suicide d’un garçon de 14 ans a déposé une demande de rejet d’une plainte…

 

Alors que l’IA continue de se développer, les inquiétudes se multiplient quant à la manière dont la technologie sera utilisée et quant à la question de savoir si des mesures de protection sont en place pour protéger les utilisateurs (en particulier les jeunes enfants) des effets négatifs. Bien que les entreprises travaillent activement pour garantir que les appareils sont utilisés de manière responsable, certains utilisateurs ont tendance à être fortement attachés à eux ou influencés par eux.

La mère d’un garçon de 14 ans qui s’est suicidé a intenté une action en justice contre Character.AI, et l’entreprise a déposé une requête en rejet de l’affaire. Character.AI est une plateforme qui permet aux utilisateurs de jouer un rôle lorsqu’ils interagissent avec ses chatbots IA et d’avoir des conversations plus humaines. Cependant, en octobre, Megan Garcia a intenté une action en justice contre l’entreprise pour le décès de son fils de 14 ans, affirmant que l’adolescent s’était trop impliqué dans la plateforme et avait développé un attachement émotionnel à celle-ci. Le garçon interagissait constamment avec le chatbot, discutant même avec lui avant sa mort.

L’entreprise a immédiatement répondu à la plainte, assurant aux utilisateurs que des garanties supplémentaires seraient mises en place, notamment une meilleure réponse et intervention lorsque les utilisateurs semblent enfreindre les conditions générales. La mère de l’adolescent n’abandonne cependant pas et demande des garanties plus solides et l’introduction de fonctionnalités pour minimiser les interactions nuisibles et toutes les formes d’attachement émotionnel. L’équipe juridique de Character.AI soutient que la plateforme est protégée par le premier amendement de la Constitution américaine, qui protège essentiellement la liberté d’expression, et que tenir l’entreprise responsable des interactions des utilisateurs viole les droits constitutionnels. Bien que cet argument ait été avancé par l’entreprise pour sa propre défense, il reste à voir si le tribunal jugera que la protection de la parole expressive s’étend au point où le résultat préjudiciable des interactions du système d’IA peut être considéré comme acceptable.

Les avocats de l’entreprise affirment que le procès viole les droits du premier amendement des utilisateurs, et non l’entreprise elle-même. Les protections de Character.AI se concentrent sur la capacité des utilisateurs à interagir librement avec la plateforme et à s’engager dans des conversations expressives. La motion suggère en outre que si l’affaire est gagnée, elle pourrait avoir un impact significatif non seulement sur Character.AI, mais sur l’ensemble du secteur de l’IA générative.

Cette affaire pourrait avoir un impact majeur sur le secteur à l’avenir.

Source : WCCFTech

Spread the love
Avatar photo
Anikó, our news editor and communication manager, is more interested in the business side of the gaming industry. She worked at banks, and she has a vast knowledge of business life. Still, she likes puzzle and story-oriented games, like Sherlock Holmes: Crimes & Punishments, which is her favourite title. She also played The Sims 3, but after accidentally killing a whole sim family, swore not to play it again. (For our office address, email and phone number check out our IMPRESSUM)