TECH ACTUS – L’intelligence artificielle a fait de grands progrès, mais il est temps de penser à la sécurité…
OpenAI a porté l’IA à un tout autre niveau, et la communauté technologique y prête davantage attention à mesure que l’entreprise atteint de nouveaux sommets. Selon un éminent expert en IA, le nouveau modèle d’OpenAI, o1, n’est pas meilleur en matière de raisonnement, mais beaucoup plus puissant pour tromper ses utilisateurs. Le modèle peut gérer et résoudre des problèmes complexes de manière humaine, avec une stratégie de résolution de problèmes. Malgré ses capacités de raisonnement supérieures, Apollo Research, une société d’IA, estime que le modèle O1 est meilleur pour mentir.
Un article de Business Insider est en cours de discussion sur Reddit, et dans celui-ci, l’expert en IA Yoshua Bengio apparaît comme une figure clé dans le domaine de l’egiy. Il estime que des tests de sécurité plus stricts doivent être mis en œuvre pour éviter les conséquences négatives que les utilisateurs peuvent commettre avec le modèle O1. « En général, la capacité de tromper est très dangereuse, et nous devrions disposer de tests de sécurité beaucoup plus solides pour évaluer ce risque et ses conséquences dans le cas de o1 », a déclaré Bengio.
Comme beaucoup d’autres, Bengio s’inquiète du développement rapide de l’intelligence artificielle et du besoin urgent de garanties législatives. Il propose une loi similaire à la SB 1047 de Californie, qui impose des restrictions de sécurité strictes aux modèles d’IA. La SB 1047 est un projet de loi sur la sécurité de l’IA qui réglementerait les modèles d’IA puissants et obligerait les entreprises à autoriser les tests par des tiers pour évaluer les dommages ou traiter les risques potentiels.
OpenAI a veillé à ce que l’aperçu o1 soit géré dans le cadre du cadre de préparation, qui est conçu pour gérer les risques associés au développement de modèles d’IA. Le modèle est classé comme à risque moyen et les préoccupations sont modérées. Bengio a également souligné la nécessité pour les entreprises de démontrer une plus grande prévisibilité avant d’aller de l’avant avec des modèles d’IA et de les déployer sans garanties adéquates. Selon lui, un cadre réglementaire est nécessaire pour garantir que l’IA évolue dans la bonne direction.
Il est donc intéressant de réfléchir à ce que dit Bengio.
Source : WCCFTech