{"id":96857,"date":"2024-11-19T21:35:30","date_gmt":"2024-11-19T20:35:30","guid":{"rendered":"https:\/\/thegeek.site\/?p=96857"},"modified":"2024-11-19T21:35:30","modified_gmt":"2024-11-19T20:35:30","slug":"openai-o1-un-expert-en-ia-appelle-a-une-reglementation-plus-stricte","status":"publish","type":"post","link":"https:\/\/thegeek.site\/2024\/11\/19\/openai-o1-un-expert-en-ia-appelle-a-une-reglementation-plus-stricte\/","title":{"rendered":"OpenAI o1 : un expert en IA appelle \u00e0 une r\u00e9glementation plus stricte !"},"content":{"rendered":"
<\/p>\n
OpenAI a port\u00e9 l’IA \u00e0 un tout autre niveau, et la communaut\u00e9 technologique y pr\u00eate davantage attention \u00e0 mesure que l’entreprise atteint de nouveaux sommets. Selon un \u00e9minent expert en IA, le nouveau mod\u00e8le d’OpenAI, o1, n’est pas meilleur en mati\u00e8re de raisonnement, mais beaucoup plus puissant pour tromper ses utilisateurs. Le mod\u00e8le peut g\u00e9rer et r\u00e9soudre des probl\u00e8mes complexes de mani\u00e8re humaine, avec une strat\u00e9gie de r\u00e9solution de probl\u00e8mes. Malgr\u00e9 ses capacit\u00e9s de raisonnement sup\u00e9rieures, Apollo Research, une soci\u00e9t\u00e9 d’IA, estime que le mod\u00e8le O1 est meilleur pour mentir.<\/p>\n
Un article de Business Insider est en cours de discussion sur Reddit, et dans celui-ci, l’expert en IA Yoshua Bengio appara\u00eet comme une figure cl\u00e9 dans le domaine de l’egiy. Il estime que des tests de s\u00e9curit\u00e9 plus stricts doivent \u00eatre mis en \u0153uvre pour \u00e9viter les cons\u00e9quences n\u00e9gatives que les utilisateurs peuvent commettre avec le mod\u00e8le O1. \u00ab En g\u00e9n\u00e9ral, la capacit\u00e9 de tromper est tr\u00e8s dangereuse, et nous devrions disposer de tests de s\u00e9curit\u00e9 beaucoup plus solides pour \u00e9valuer ce risque et ses cons\u00e9quences dans le cas de o1 \u00bb, a d\u00e9clar\u00e9 Bengio.<\/p>\n
Comme beaucoup d’autres, Bengio s’inqui\u00e8te du d\u00e9veloppement rapide de l’intelligence artificielle et du besoin urgent de garanties l\u00e9gislatives. Il propose une loi similaire \u00e0 la SB 1047 de Californie, qui impose des restrictions de s\u00e9curit\u00e9 strictes aux mod\u00e8les d’IA. La SB 1047 est un projet de loi sur la s\u00e9curit\u00e9 de l’IA qui r\u00e9glementerait les mod\u00e8les d’IA puissants et obligerait les entreprises \u00e0 autoriser les tests par des tiers pour \u00e9valuer les dommages ou traiter les risques potentiels.<\/p>\n
OpenAI a veill\u00e9 \u00e0 ce que l’aper\u00e7u o1 soit g\u00e9r\u00e9 dans le cadre du cadre de pr\u00e9paration, qui est con\u00e7u pour g\u00e9rer les risques associ\u00e9s au d\u00e9veloppement de mod\u00e8les d’IA. Le mod\u00e8le est class\u00e9 comme \u00e0 risque moyen et les pr\u00e9occupations sont mod\u00e9r\u00e9es. Bengio a \u00e9galement soulign\u00e9 la n\u00e9cessit\u00e9 pour les entreprises de d\u00e9montrer une plus grande pr\u00e9visibilit\u00e9 avant d’aller de l’avant avec des mod\u00e8les d’IA et de les d\u00e9ployer sans garanties ad\u00e9quates. Selon lui, un cadre r\u00e9glementaire est n\u00e9cessaire pour garantir que l’IA \u00e9volue dans la bonne direction.<\/p>\n
Il est donc int\u00e9ressant de r\u00e9fl\u00e9chir \u00e0 ce que dit Bengio.<\/p>\n