TECH ACTUS – La Commission européenne a annoncé le premier cadre juridique pour l’intelligence artificielle (IA) il y a près d’un an. Désormais, les pouvoirs publics pourront réglementer, voire retirer les IA du marché, en les jugeant selon quatre catégories : inacceptable, à haut risque, à risque limité et à risque minimal.
l’IA, comme le “social système de classement” en Chine et d’autres utilisateurs manipulant, tomberont sous l’étiquette “inacceptable” ; par conséquent, ils seront bannis du marché. Les IA liées au transport, à l’éducation, à la sécurité, à l’application de la loi ou à la justice et tous les systèmes d’identification biométrique à distance appartiendront à la catégorie “à haut risque”. Nous verrons les chatbots sous “risque limité”, et les jeux vidéo ou les filtres anti-spam seront étiquetés comme des IA “à risque minimal”.
“En ce qui concerne l’intelligence artificielle, la confiance n’est pas seulement un signe de chance, c’est essentiel. Avec ces nouvelles règles historiques, l’UE est à l’avant-garde de l’élaboration de nouvelles normes mondiales pour garantir la confiance dans l’intelligence artificielle.” a déclaré Margrethe Vestager, vice-présidente exécutive pour une Europe numérique, lorsqu’elle a annoncé la loi sur l’intelligence artificielle en avril dernier.
Maintenant sur TechCrunch, Natasha Lomas a analysé la proposition avec Lilian Edwards, experte à l’Institut Ada Lovelace pour le droit, l’innovation et la société de l’Université de Newcastle. Selon Edwards, une partie des limites du cadre est qu’il adopte une approche similaire aux réglementations existantes sur les produits. Cette loi sur l’IA réglemente le fabricant, pas le consommateur ou le distributeur. Le principal facteur pour décider si c’est dangereux sera les données que l’IA spécifique utilise et quand elle utilise ces données. S’il s’avère dangereux ou nocif, il n’apparaîtra pas sur le marché. Cependant, la responsabilité du fonctionnement d’un système varie tout au long de son cycle de vie; par conséquent, il est difficile de déterminer le niveau de risque de l’IA.
En outre, de nombreux utilisateurs de l’intelligence artificielle ne sont pas mentionnés dans la nouvelle législation, tels que les moteurs de recherche et les sites de réseaux sociaux. La loi ne permet pas non plus aux citoyens de demander réparation aux autorités. On peut donc dire que la nouvelle loi de régulation de l’IA est encore relativement informe.
Quoi qu’il en soit, la nouvelle réglementation est indispensable à une époque où le développement de l’IA progresse énormément. La loi permet aux autorités de superviser l’étape de fabrication du développement de l’IA et d’arrêter tout ce qui est dangereux avant qu’il ne soit mis sur le marché.
“Vous pouvez également rappeler des jouets dangereux du marché ou les détruire dans certains pays de l’UE. Vous ne vous contentez pas d’interdire leur importation. Vous pouvez les détruire. Les options [offertes aux autorités] me le rappellent.”
Il est supposé que le texte définitif de la loi sera adopté après les négociations du Parlement et de la Commission, en 2023.
Source : TechCrunch