Microsoft et Meta sont secrets : l’intelligence artificielle est-elle dangereuse pour eux ?

TECH ACTUS – Un représentant de chacune des deux entreprises technologiques américaines s’est présenté officiellement devant un comité britannique…

 

Malheureusement, il est trop courant de voir des gens ne pas répondre à la question posée, qui est généralement légitime, et soit s’enfuir, soit ne pas répondre de manière évasive à ce qu’ils devraient, mais sortir la carte d’accusation. Une performance similaire a été donnée par Rob Sherman (responsable de la politique de Meta et directeur adjoint de la protection de la vie privée) et Owen Larter (directeur de la politique publique mondiale responsable de l’IA chez Microsoft) à la commission des communications et du numérique de la Chambre des Lords. Ils ont discuté des LLM (grands modèles de langage) et de certaines des implications plus larges de l’intelligence artificielle.

La présidente du comité, la baronne Stowell de Beeston, a demandé si une entreprise pouvait rappeler un modèle d’IA s’il était jugé dangereux, ou arrêter son utilisation ultérieure. La réponse de Sherman était un peu différente de ce qui était censé être dit :

“Je pense que cela dépend de la technologie et de la façon dont elle est utilisée… l’une des choses très importantes est de réfléchir à ces choses dès le départ avant qu’elles ne soient publiées… il y a un certain nombre d’autres choses que nous peut faire, par exemple, une fois qu’un modèle est publié, il y a beaucoup de travail que ce que nous appelons un déployeur du modèle doit faire, donc il n’y a pas qu’un seul acteur responsable du déploiement de cette technologie… Lorsque nous avons publié Llama, [nous] publions un guide d’utilisation responsable qui parle des étapes qu’un déployeur de la technologie peut prendre pour s’assurer qu’elle est utilisée en toute sécurité, et qui inclut des choses comme ce que nous appelons le réglage fin, qui consiste à prendre le modèle et à le créer. “, a déclaré Sherman.

Larter n’a pas répondu, mais la discussion a porté sur un certain nombre de sujets et a eu certaines contraintes de temps, mais le manque de réponse de Meta est typique de l’entreprise. de la compagnie. Seulement, au fil du temps, aucun d’eux n’a pu expliquer sur quoi portait la discussion. Sherman avait déjà soulevé la question de l’utilisation irresponsable potentielle de l’intelligence artificielle : « Quels sont les risques auxquels nous réfléchissons, quels sont les outils dont nous disposons pour évaluer si ces risques existent, et ensuite quels sont ces risques ? et ensuite, quelles sont les choses que nous devons faire pour les atténuer ? »

Tous deux pensaient que la discussion devait se poursuivre, mais ni l’un ni l’autre n’était enthousiaste. était enthousiaste. La plupart du temps, leur réponse était simplement qu’ils travaillaient sur quelque chose. je travaillais sur quelque chose, mais ce n’était pas très instructif.

Source : PCGamer

Spread the love
Avatar photo
Anikó, our news editor and communication manager, is more interested in the business side of the gaming industry. She worked at banks, and she has a vast knowledge of business life. Still, she likes puzzle and story-oriented games, like Sherlock Holmes: Crimes & Punishments, which is her favourite title. She also played The Sims 3, but after accidentally killing a whole sim family, swore not to play it again. (For our office address, email and phone number check out our IMPRESSUM)