OpenAI GPT-4 Turbo : l’intelligence artificielle est-elle proche de la singularité ?

TECH ACTUS – Autrement dit, son évolution s’accélère-t-elle si vite que nous ne sommes plus capables de la comprendre et de la prédire pleinement ?

 

OpenAI a dévoilé son modèle de langage étendu (LLM) basé sur l’intelligence artificielle le plus puissant jamais conçu, GPT-4 Turbo, avec une version « prête pour la production » qui sera publiée dans quelques semaines, au plus tard début 2024. Le GPT-4 original a été formé avec des informations fermées jusqu’en septembre 2021, tandis que le GPT-4 Turbo est construit avec des données plus modernes, car ses informations sont fermées jusqu’en avril 2023.

Il existe en deux versions, l’une spécialisée dans l’analyse de texte, l’autre capable de traiter et d’interpréter à la fois le contexte textuel et image. Le premier est désormais disponible via un aperçu API. Le nouveau modèle d’IA serait nettement moins cher à exécuter pour les développeurs, avec une entrée coûtant aussi peu que 0,01 $ pour 1 000 jetons (une unité de base de texte ou de code qu’un LLM utilise pour générer sa réponse) contre 0,03 $ dans le cas du GPT vanille. 4 modèles. Dans les deux cas, la production coûterait environ 0,03 $ pour 1 000 jetons. La dernière offre d’OpenAI continuera à prendre en charge les requêtes de synthèse vocale, les saisies basées sur des images et les requêtes de génération d’images via l’intégration DALL-E 3.

GPT-4 Turbo serait capable de gérer des tâches très complexes en une seule requête, grâce à sa formation beaucoup plus approfondie. Le changement le plus important concerne la fenêtre contextuelle des jetons du LLM, une mesure de la richesse ou de la profondeur des entrées et des sorties d’un LLM particulier. GPT-4 Turbo propose une fenêtre contextuelle environ 4 fois plus grande que GPT-4, capable de traiter 128 000 jetons. Pour le contexte, 1 000 jetons équivalent à peu près à 750 mots. Cela signifie que la dernière offre d’OpenAI est capable de traiter 96 000 mots. Claude 2 d’Anthropic ne peut actuellement traiter que 100 000 jetons.

Joseph Ayoub, fondateur de rug.ai et Diffusion, a déclaré sur Twitter que GPT-4 Turbo est le plus grand pas vers la singularité de l’intelligence artificielle : “Hier, OpenAI a publié GPT-4 Turbo. C’est le plus grand pas vers la singularité que nous avons La singularité de l’IA est la compréhension que l’intelligence de l’IA surpassera l’intelligence humaine. L’IA peut déjà calculer de plus grandes quantités de données avec plus de précision que les humains avec une telle puissance de calcul, mais l’intelligence n’est pas la capacité de calculer de grandes quantités de données. La définition de l’intelligence est large, mais ma compréhension de l’intelligence est la capacité de converger rationnellement vers la bonne réponse. Être intelligent mais ne pas arriver aux bonnes conclusions n’est pas de l’intelligence ; avoir raison mais ne pas arriver à la réponse de manière rationnelle n’est pas non plus de l’intelligence.

Alors pourquoi cette mise à niveau d’OpenAI est-elle importante ? Ils ont augmenté à moindre coût le contexte que leurs modèles peuvent gérer de 8k à 128k. Tout cela signifie que GPT-4 peut désormais poursuivre une conversation tout en « mémorisant et traitant » environ 90 000 mots avant de vous donner une réponse. Le contexte est l’une des plus grandes limites du calcul intelligent. Sans un contexte plus large, les modèles sont incapables de suivre des ensembles de données plus volumineux présentant des problèmes plus complexes. Cette amélioration signifie que vous pouvez désormais saisir d’énormes ensembles de données et obtenir des réponses plus intelligentes. C’est pourquoi l’intelligence humaine surpasse l’intelligence artificielle. Nous pouvons comprendre le contexte plus large des ensembles de données, le monde, le problème au fil des années de découverte et de compréhension. Contrairement aux modèles d’IA, nous disposons d’une mémoire à court terme ET à long terme, alors que les modèles n’ont qu’une mémoire à court terme. Mais avec l’augmentation du contexte, la capacité cognitive d’un modèle augmente plusieurs fois avec la mémoire à long terme. Cette amélioration permet aux modèles de créer LEURS PROPRES programmes pour résoudre des tâches. Cela signifie que les modèles peuvent résoudre eux-mêmes des problèmes PLUS DIFFICILES plus efficacement. Dans un scénario hypothétique, cette avancée contextuelle signifie que vous pourriez former un modèle sur un vaste ensemble de données d’articles universitaires dans un domaine particulier et poser de nouvelles questions inédites. Et en conséquence, nous obtiendrons de nouvelles réponses inédites à des problèmes que les humains n’ont pas encore résolus…

Ainsi, si les modèles peuvent résoudre des problèmes avec plus de contexte (en utilisant plus de mémoire à long terme) et peuvent traiter les données mieux que les humains, ils peuvent résoudre des problèmes plus difficiles que nous ne pouvons pas résoudre, et ils sont plus intelligents que nous. Les implications de cette situation sont considérables. Je crois personnellement que plusieurs problèmes auxquels les humains sont confrontés aujourd’hui seront résolus par l’IA. De la découverte scientifique à la longévité. Dans un contexte plus large, l’IA peut converger plus intelligemment vers la bonne réponse. Ces modèles sont une extension de l’intelligence humaine. À cette fin, l’IA ne nous remplacera pas, mais elle nous donnera (à qui demander ?) un super pouvoir dans une certaine mesure », a écrit Ayoub.

Est-ce un avenir radieux ?

Source : WCCFTech

Spread the love
Avatar photo
Anikó, our news editor and communication manager, is more interested in the business side of the gaming industry. She worked at banks, and she has a vast knowledge of business life. Still, she likes puzzle and story-oriented games, like Sherlock Holmes: Crimes & Punishments, which is her favourite title. She also played The Sims 3, but after accidentally killing a whole sim family, swore not to play it again. (For our office address, email and phone number check out our IMPRESSUM)

theGeek TV