TECH ACTUS – Un représentant de chacune des deux entreprises technologiques américaines s’est présenté officiellement devant un comité britannique…
Malheureusement, il est trop courant de voir des gens ne pas répondre à la question posée, qui est généralement légitime, et soit s’enfuir, soit ne pas répondre de manière évasive à ce qu’ils devraient, mais sortir la carte d’accusation. Une performance similaire a été donnée par Rob Sherman (responsable de la politique de Meta et directeur adjoint de la protection de la vie privée) et Owen Larter (directeur de la politique publique mondiale responsable de l’IA chez Microsoft) à la commission des communications et du numérique de la Chambre des Lords. Ils ont discuté des LLM (grands modèles de langage) et de certaines des implications plus larges de l’intelligence artificielle.
La présidente du comité, la baronne Stowell de Beeston, a demandé si une entreprise pouvait rappeler un modèle d’IA s’il était jugé dangereux, ou arrêter son utilisation ultérieure. La réponse de Sherman était un peu différente de ce qui était censé être dit :
“Je pense que cela dépend de la technologie et de la façon dont elle est utilisée… l’une des choses très importantes est de réfléchir à ces choses dès le départ avant qu’elles ne soient publiées… il y a un certain nombre d’autres choses que nous peut faire, par exemple, une fois qu’un modèle est publié, il y a beaucoup de travail que ce que nous appelons un déployeur du modèle doit faire, donc il n’y a pas qu’un seul acteur responsable du déploiement de cette technologie… Lorsque nous avons publié Llama, [nous] publions un guide d’utilisation responsable qui parle des étapes qu’un déployeur de la technologie peut prendre pour s’assurer qu’elle est utilisée en toute sécurité, et qui inclut des choses comme ce que nous appelons le réglage fin, qui consiste à prendre le modèle et à le créer. “, a déclaré Sherman.
Larter n’a pas répondu, mais la discussion a porté sur un certain nombre de sujets et a eu certaines contraintes de temps, mais le manque de réponse de Meta est typique de l’entreprise. de la compagnie. Seulement, au fil du temps, aucun d’eux n’a pu expliquer sur quoi portait la discussion. Sherman avait déjà soulevé la question de l’utilisation irresponsable potentielle de l’intelligence artificielle : « Quels sont les risques auxquels nous réfléchissons, quels sont les outils dont nous disposons pour évaluer si ces risques existent, et ensuite quels sont ces risques ? et ensuite, quelles sont les choses que nous devons faire pour les atténuer ? »
Tous deux pensaient que la discussion devait se poursuivre, mais ni l’un ni l’autre n’était enthousiaste. était enthousiaste. La plupart du temps, leur réponse était simplement qu’ils travaillaient sur quelque chose. je travaillais sur quelque chose, mais ce n’était pas très instructif.
Source : PCGamer