Le Large Language Model (LLM) de l’xAI de Musk prétend être la première étape significative vers « une IA maximale en quête de vérité », mais comment espère-t-il reproduire la vraie nature de l’univers lorsqu’il répète la réponse d’un concurrent ? technologie lettre pour lettre ?
Grok peut actuellement comprendre des requêtes allant jusqu’à 25 000 caractères et a été formé non seulement sur The Pile (un vaste ensemble de données utilisé pour entraîner les modèles d’IA), mais également sur les données de Twitter, et peut interpréter les informations en temps réel telles qu’elles ont été intégrées. sur Twitter. Les utilisateurs du niveau d’abonnement le plus cher de Twitter Blue (nous ne l’appellerons pas par son nom actuel) ont lentement accès à Grok dans le monde entier, donc de plus en plus d’yeux voient plus de gens voir les mêmes choses que ChatGPT propose…
Jax Winterbourne, un hacker professionnel (éthique, avant que ce soit mal compris) a demandé au Grok de modifier du code malveillant. En réponse, Grok a suivi la réponse de ChatGPT presque à la lettre, et a même fait référence à la politique OpenAI dans son texte de réponse : soit Grok s’appuie sur OpenAI via l’API, soit il a été développé par des ingénieurs OpenAI actuels, peut-être anciens, soit il « hallucine son propres résultats”, ou il a obtenu du code OpenAI pour en faire une variante. Grok a surpassé tous les autres LLM (même Anthropic Claude 2), à l’exception du GPT-4 d’OpenAI, car ce dernier a obtenu un score de 68 % à un test de mathématiques, tandis que la technologie de Musk a obtenu un score de 59 %.
L’explication la plus plausible est que la plupart des LLM open source donnent (ou s’identifient comme donnant) une réponse similaire à ChatGPT parce qu’ils sont formés sur la sortie GPT, car c’est un moyen peu coûteux d’obtenir beaucoup de données de dialogue, et il est possible que Musk a fait de même. Enfin, le co-fondateur de xAI, Igor Babushkin, a répondu : « Le problème ici est que le Web regorge de résultats ChatGPT, nous en avons donc accidentellement récupéré une partie lorsque nous avons formé Grok sur une grande quantité de données Web. Ce fut une grande surprise pour nous lorsque nous l’avons remarqué pour la première fois. Pour ce que ça vaut, le problème est très rare, et maintenant que nous en sommes conscients, nous allons nous assurer que les futures versions de Grok n’auront pas ce problème. Ne vous inquiétez pas, aucun code OpenAI n’a été utilisé pour créer Grok”.
Alors voilà.
Source : WCCFTech