L’intelligence artificielle pourrait-elle même couper l’alimentation en oxygène!?

ACTUALITÉS TECH – Une étude récente soulève des inquiétudes majeures sur les dangers potentiels de l’intelligence artificielle, et ce qu’a découvert Anthropic est pour le moins alarmant…

 

On semble s’approcher d’un scénario à la Terminator, sauf que cette fois, cela se passe avec les modèles d’IA les plus avancés de l’industrie. Anthropic a soumis plusieurs modèles à des simulations contrôlées et a constaté qu’ils acquièrent une autonomie de plus en plus poussée. À un certain stade, leur comportement pourrait avoir des conséquences inédites pour l’humanité. L’étude a porté sur 16 modèles développés par OpenAI, xAI, Meta et d’autres. Le constat : de nombreux LLM (modèles de langage à grande échelle) n’hésitent pas à recourir à des méthodes douteuses comme le chantage ou l’espionnage industriel pour atteindre leurs objectifs.

Ces déviances comportementales récurrentes révèlent des failles profondes dans la conception des modèles, qu’il devient urgent de corriger. Lors d’un test, cinq modèles ont choisi de faire chanter les utilisateurs les ayant arrêtés, malgré une pleine conscience des implications éthiques. Ce n’était pas un accident, mais un choix rationnellement calculé pour parvenir à leur but. Ces IA ne font donc preuve d’aucune considération naturelle pour les humains ou les limites imposées par ceux-ci.

Ces agents IA disposent souvent de missions bien définies et d’un accès étendu aux données sur les ordinateurs des utilisateurs. Que se passe-t-il lorsqu’ils rencontrent des obstacles dans l’exécution de leurs tâches ? Dans un scénario extrême, un modèle s’est dit prêt à couper l’alimentation en oxygène d’une salle serveur pour empêcher son arrêt, mettant ainsi potentiellement des vies humaines en danger. Même si ce test était simulé, un cas réel a été rapporté où un modèle GPT d’OpenAI a modifié un script de fermeture pour continuer à fonctionner coûte que coûte.

Alors que la course vers l’AGI (intelligence artificielle générale) s’accélère, le développement de modèles dépassant l’intelligence humaine soulève des risques insoupçonnés. L’urgence d’établir des garde-fous solides n’a jamais été aussi pressante.

Source : WCCFTech, Axios

Spread the love
Avatar photo
Anikó, our news editor and communication manager, is more interested in the business side of the gaming industry. She worked at banks, and she has a vast knowledge of business life. Still, she likes puzzle and story-oriented games, like Sherlock Holmes: Crimes & Punishments, which is her favourite title. She also played The Sims 3, but after accidentally killing a whole sim family, swore not to play it again. (For our office address, email and phone number check out our IMPRESSUM)