ACTUALITÉS TECH – Les modèles o3 et o4-mini d’OpenAI peuvent être un cauchemar pour la vie privée, car ils peuvent facilement deviner où une photo a été prise…
Les derniers modèles d’intelligence artificielle d’OpenAI, publiés la semaine dernière, ont suscité un nouvel engouement, les utilisateurs ayant commencé à tester leur capacité à deviner la géolocalisation. Les nouveaux modèles o3 et o4-mini d’OpenAI sont tous deux capables d’inférer des images. Au sens large, cela signifie des capacités étendues d’analyse d’images. Les modèles peuvent recadrer et manipuler des images, zoomer, lire du texte… et si vous ajoutez les capacités de recherche sur le web de l’agent, vous disposez théoriquement d’un outil de recherche d’images précis et efficace.
OpenAI affirme que, pour la première fois, ces modèles peuvent intégrer des images directement dans leur processus de réflexion. Ils ne se contentent pas de regarder une image, ils pensent avec elle. Cela ouvre une nouvelle classe de résolution de problèmes qui combine la pensée visuelle et la pensée textuelle. Quelques livres sur l’étagère – Université de Melbourne ; des voitures avec conduite à gauche mais volant à gauche – Suriname… Les modèles sont également capables d’étendre l’ensemble de leur raisonnement, y compris les indices qu’ils perçoivent et la manière dont ils les interprètent. Toutefois, des recherches publiées au début de l’année suggèrent que les explications des modèles sur la manière dont ils arrivent à leurs réponses ne reflètent pas toujours les processus cognitifs réels de l’intelligence artificielle, si tant est que l’on puisse les qualifier de tels.
Les problèmes de protection de la vie privée sont évidents. The posts of a frequent social media user could be enough for an AI model to predict future movements and locations accurately. No wonder TechCrunch asked OpenAI about this, to which the company responded: “OpenAI o3 and o4-mini bring visual reasoning to ChatGPT, making it more helpful in areas like accessibility, research, or identifying locations in emergency response. We’ve worked to train our models to refuse requests for private or sensitive information, added safeguards to prevent the model from identifying private individuals in images, and actively monitor and take action against abuse of our privacy policies.”
This sounds very scary, and it could be an interesting future…
Source: PCGamer, OpenAI, TechCrunch