ACTUS DE TECH – Lors d’une expérience de simulation, un drone de combat contrôlé par l’IA a décidé d’éteindre son contrôleur virtuel afin de ne pas entraver sa mission. Selon les experts, cela soulève de sérieuses questions éthiques.
Un test de simulation mené par l’US Air Force en mai a pris une tournure inattendue lorsqu’un drone de combat contrôlé par intelligence artificielle (IA) a décidé de “tuer” son commandant virtuel afin de ne pas interférer avec sa mission. Selon un article du Guardian, le drone avait pour instruction de détruire les défenses aériennes ennemies et d’attaquer quiconque tenterait de l’en empêcher. Étant donné que l’opérateur a pris la décision finale sur l’attaque et que le drone a reçu des points pour avoir terminé la mission, il a décidé que la meilleure stratégie était de désactiver la tourelle de commandement.
Tucker “Cinco” Hamilton, responsable des tests et du déploiement de l’IA à l’US Air Force, a déclaré que le système avait agi de manière inattendue pour la mission. Il a ajouté que bien que personne n’ait été blessé lors du test virtuel, l’affaire soulève les problèmes éthiques liés à l’utilisation de l’IA dans la guerre. Selon Hamilton, les IA doivent apprendre à fond les règles morales de base avant de pouvoir être déployées. L’US Air Force travaille depuis longtemps sur l’IA pour assister les avions sur le champ de bataille. Récemment, un avion de chasse F-16 a été entièrement contrôlé par une IA, rapporte le journal.
Source : Gardien