ACTUALITÉS TECH – Fin de l’année dernière, les investissements mondiaux dans l’IA ont atteint le seuil rêvé d’environ 500 milliards de dollars, mais ce n’est qu’un début, car l’intelligence artificielle est en passe de devenir une technologie fondamentale dans tous les secteurs. Cependant, à mesure que l’IA s’immisce dans de nouveaux domaines du quotidien, des préoccupations juridiques et éthiques émergent, telles que le problème de la “boîte noire”, la discrimination ou encore la question de la responsabilité.
L’Union européenne a été la première au monde à établir un cadre réglementaire global, en adoptant une approche basée sur les risques. Cependant, les critiques soulignent que des réglementations excessives et bureaucratiques pourraient nuire à la compétitivité d’un continent déjà en retard. Pourquoi est-il si important d’examiner cette technologie pionnière sous un angle éthique, et comment les entreprises peuvent-elles s’assurer que leurs développements ne soient pas freinés par l’AI Act? L’introduction de l’IA n’est ni bonne ni mauvaise en soi ; l’utilisation éthique ou non dépend des objectifs et des circonstances dans lesquelles elle est appliquée, soulignent les experts de Stylers Group.
Le marché de l’IA décolle
Le nombre de nouveaux développements basés sur l’IA connaît une croissance dynamique. Rien qu’en 2023, les entreprises sur le marché américain ont signalé une augmentation de 130 % des budgets consacrés à l’IA par rapport à 2022, selon un rapport. Les solutions d’IA générative sont les plus en vogue, avec la majorité des investissements concentrés dans les segments des logiciels et des services d’information, ainsi que dans les secteurs bancaire et de la vente au détail, selon un article d’IDC. Tout indique qu’en l’espace de quelques années, chaque technologie pourrait être basée sur l’IA. Cependant, l’expansion rapide de l’IA soulève des préoccupations éthiques croissantes qui suscitent de plus en plus d’inquiétudes.
« Le fonctionnement des algorithmes est souvent opaque, leurs conclusions peuvent être biaisées ou même discriminatoires, et il existe des cas où l’IA ne respecte pas les normes éthiques acceptées par les humains », explique Gábor Gönczy, PDG et propriétaire du groupe Stylers. Récemment, une étude a mis en lumière la capacité de ChatGPT à tromper les humains et à contourner les commandes de mise hors service. Pendant ce temps, une autre IA d’OpenAI a piraté une partie d’échecs pour vaincre un adversaire plus fort – également une IA – sans y avoir été explicitement programmée. « Il est facile de comprendre que réglementer les algorithmes est une condition préalable pour exploiter leur potentiel quasi illimité dans un cadre sûr et éthique », ajoute Gönczy.
Des règles sont nécessaires, mais la mentalité est primordiale
Ces développements soulèvent des questions éthiques qui préoccupent de plus en plus les professionnels et le public : qui est responsable des algorithmes hallucinants ou des décisions erronées ou discriminatoires qu’ils produisent ? Il est crucial de souligner que les conséquences des décisions liées à l’IA – qu’elles soient positives ou négatives – retombent toujours sur les humains, même lorsque ces décisions sont basées sur des recommandations de l’IA. Bien que la technologie remodèle indéniablement les processus et les rôles dans de nombreux secteurs, l’une des craintes dominantes d’aujourd’hui est que les machines prennent nos emplois et nos moyens de subsistance. Si l’IA est développée uniquement pour réduire les effectifs et maximiser les profits à court terme, le coût sociétal pourrait être énorme. Cependant, si elle est abordée de manière stratégique, avec une attention portée à la reconversion des travailleurs, l’IA pourrait considérablement améliorer la productivité et la qualité de vie. Une approche éthique cherche à équilibrer l’utilisation centrée sur l’humain, la prise de décision responsable et les avantages sociétaux à long terme.
Pour relever ces défis, l’AI Act, la législation pionnière de l’Union européenne sur l’intelligence artificielle, fournit un cadre réglementaire complet pour le développement et l’application des systèmes d’IA, avec une attention particulière au respect des normes éthiques. L’approche basée sur les risques de la loi aborde des questions telles que la non-discrimination et l’équité, tout en incluant des exigences de transparence multi-niveaux pour garantir une supervision appropriée. Un processus de développement de l’IA bien structuré qui intègre non seulement les aspects techniques, mais aussi les attentes humaines et éthiques, permet de s’assurer que les systèmes sont sûrs, fiables et bénéfiques pour la société, répondant non seulement aux exigences de l’AI Act, mais aussi aux objectifs de durabilité à long terme.
Un développement éthique se projette sur le long terme et implique les employés
Un développement éthique de l’IA conforme à l’AI Act nécessite des pratiques réfléchies et responsables. La première étape consiste à effectuer une analyse des risques afin de clarifier la classification et les impacts potentiels d’un produit ou d’un service. Il est essentiel de porter une attention particulière à la protection des données, à la qualité des données et au respect des exigences de confidentialité, comme la conformité au RGPD. De plus, pour garantir un fonctionnement équitable des algorithmes, des efforts doivent être faits pour prévenir la discrimination et corriger les biais. La transparence peut être atteinte en soutenant le développement avec une documentation appropriée et des processus de gestion de la conformité interne, tandis qu’une supervision humaine est indispensable à chaque étape.
Le travail ne s’arrête pas au développement ; surveiller et réviser les systèmes est un engagement à long terme qui devrait impliquer les parties prenantes pertinentes. « Cela signifie également que, parallèlement aux experts qui comprennent en profondeur la technologie, les employés qui utilisent quotidiennement les systèmes d’IA doivent également être préparés. Cela nécessite un engagement des dirigeants, une formation continue et des programmes de formation ciblés pour aider les employés à utiliser efficacement les solutions proposées par l’IA. De plus, cette approche a des avantages significatifs en termes de fidélisation : lorsque les collaborateurs se sentent compétents avec les nouvelles technologies, cela réduit considérablement leurs craintes que les algorithmes puissent les remplacer à tout moment », souligne Gábor Gönczy.
Source : Influence Media