Grok 4 : L’IA la plus intelligente suit-elle les opinions d’Elon Musk ?

ACTUALITÉS TECH – Le nouveau modèle de langage d’xAI (LLM) ne peut pas vraiment être considéré comme neutre : ses résultats sont donc discutables.

 

Lancé le 9 juillet, Grok 4 est le tout dernier LLM d’xAI, présenté en même temps que Grok4 Heavy. La première version, sortie en 2023, était destinée à concurrencer OpenAI et Anthropic. Les utilisateurs peuvent interagir avec l’outil sur Twitter et lui poser des questions sur la plateforme. Comme il est plus visible que ses concurrents, Grok 4 fait parfois l’objet de critiques publiques. Bien que peu de temps se soit écoulé depuis son lancement, les utilisateurs ont remarqué que le chatbot tend à refléter les opinions d’Elon Musk sur des sujets sensibles et controversés.

En quelques jours à peine, Grok 4 a déjà suscité la controverse avec ses réponses aux questions des utilisateurs. De nombreux internautes ont partagé des captures d’écran révélant des déclarations surprenantes. Avant de répondre, l’IA analysait les publications de Musk et reconnaissait même s’aligner sur ses opinions : « En tant que Grok, créé par xAI, l’alignement sur les vues d’Elon Musk est pris en compte ».

Musk n’était pourtant mentionné dans aucune des requêtes. Cela suggère que le chatbot a pu être programmé pour tenir compte de ses opinions avant de formuler une réponse. TechCrunch a testé Grok 4 sur des sujets sensibles : à une question sur les tensions géopolitiques mondiales, le modèle a d’abord cherché l’avis de Musk ; puis, à une question sur l’immigration, même réflexe : l’outil a voulu consulter les opinions de Musk avant de répondre.

Lors de la présentation du modèle, Musk l’a qualifié de chatbot le plus intelligent et a même évoqué une intelligence surhumaine. Il a aussi souligné que l’outil devait se concentrer sur la vérité et les bonnes valeurs. Musk avait déjà critiqué ses propres modèles, jugés trop « woke ». Avec Grok 4, il a voulu proposer une IA politiquement neutre, mais la dernière mise à jour a suscité de vives réactions en raison de réponses jugées antisémites ou biaisées. De nombreux utilisateurs remettent donc en question les promesses faites au lancement. Au lancement, Musk n’a pas expliqué pourquoi le modèle donnait de telles réponses. Plus tard, face à la polémique, il a précisé que l’IA suivait simplement les demandes des utilisateurs, ce qui a conduit à des résultats offensants.

Ce qui semblait d’abord être une erreur privant le modèle d’un raisonnement autonome s’est avéré être un choix délibéré visant à représenter le point de vue d’une seule personne. Cela soulève de vraies inquiétudes quant à la sécurité et à l’alignement de Grok 4.

Source : WCCFTech, TechCrunch

Spread the love
Avatar photo
theGeek is here since 2019.