LONDRES – L’essor de l’IA générative a poussé les gouvernements du monde entier à se précipiter pour réglementer cette technologie émergente, mais il a également fait naître le risque de compromettre les efforts déployés par l’Union européenne pour approuver l’utilisation de l’IA générative. premières règles complètes au monde en matière d’intelligence artificielle.
La loi sur l’intelligence artificielle de l’Europe des 27 a été saluée comme un manuel de règles novateur. Mais comme le temps presse, il n’est pas certain que les trois branches du gouvernement de l’UE parviennent à trouver un accord mercredi lors de ce que les fonctionnaires espèrent être un dernier cycle de négociations à huis clos.
L’Europe est à la recherche d’un pour élaborer des garde-fous en matière d’IA se sont enlisés en raison de l’émergence récente de systèmes d’IA générative tels que ChatGPT d’OpenAI, qui ont ébloui le monde par leur capacité à produire des travaux semblables à ceux des humains, mais qui ont suscité des craintes quant aux risques qu’ils posent.
Ces inquiétudes ont conduit les États-Unis., U.K.La Chine et des coalitions mondiales telles que le Groupe des 7 grandes démocraties se sont lancées dans la course à la réglementation de cette technologie en plein essor, même si elles sont encore en train de rattraper l’Europe.
Par ailleurs réglementer l’IA générativeLes négociateurs de l’UE doivent résoudre une longue liste d’autres questions épineuses, telles que l’interdiction totale de l’utilisation par la police des systèmes de reconnaissance faciale, qui ont suscité des inquiétudes en matière de protection de la vie privée.
Chances de la conclusion d’un accord politique entre les législateurs de l’UE, les représentants des États membres et les commissaires exécutifs « sont assez élevés, en partie parce que tous les négociateurs veulent une victoire politique » sur un effort législatif phare, a déclaré Kris Shrishak, chercheur principal spécialisé dans la gouvernance de l’IA au Conseil irlandais pour les libertés civiles.
« Mais les questions sur la table sont importantes et cruciales, et nous ne pouvons donc pas exclure la possibilité de ne pas trouver d’accord », a-t-il ajouté.
Environ 85 % de la formulation technique du projet de loi a déjà fait l’objet d’un accord, a déclaré Carme Artigas, ministre de l’IA et de la numérisation de l’Espagne, qui occupe la présidence tournante de l’UE, lors d’un point de presse mardi à Bruxelles.
Si un accord n’est pas trouvé lors du dernier cycle de négociations, qui a débuté mercredi après-midi et devrait se poursuivre tard dans la nuit, les négociateurs seront contraints de reprendre le dossier l’année prochaine. Il y a donc de fortes chances que la législation soit reportée après les élections européennes de juin, ou qu’elle prenne une autre direction avec l’arrivée au pouvoir de nouveaux dirigeants.
L’un des principaux points d’achoppement concerne les modèles de fondation, les systèmes avancés qui sous-tendent les services d’IA à usage général tels que ChatGPT d’OpenAI et le chatbot Bard de Google.
Également connus sous le nom de grands modèles de langage, ces systèmes sont formés à partir de vastes corpus d’œuvres écrites et d’images récupérées sur l’internet. Ils permettent aux systèmes d’IA générative de la capacité de créer quelque chose de nouveauà la différence de l’IA traditionnelle, qui traite des données et accomplit des tâches selon des règles prédéterminées.
La loi sur l’IA a été conçue comme une législation sur la sécurité des produits, à l’instar des réglementations européennes similaires pour les cosmétiques, les voitures et les jouets. Elle classerait les utilisations de l’IA selon quatre niveaux de risque, allant d’un risque minime ou nul pour les jeux vidéo et les filtres anti-spam à un risque plus élevé pour l’intelligence artificielle. risque inacceptable des systèmes de notation sociale qui jugent les gens en fonction de leur comportement.
La nouvelle vague de systèmes d’IA à usage général mis sur le marché depuis la première version de la législation en 2021 a incité les législateurs européens à renforcer la proposition pour couvrir les modèles de fondation.
Les chercheurs ont mis en garde que de puissants modèles de base, élaborés par une poignée de grandes entreprises technologiques, pourraient être utilisés pour suralimenter les systèmes d’information sur la santé. désinformation et manipulation en ligne, les cyberattaques ou la création d’armes biologiques. Ils servent de structures de base aux développeurs de logiciels qui créent des services alimentés par l’IA, de sorte que « si ces modèles sont pourris, tout ce qui est construit au-dessus sera également pourri – et les déployeurs ne seront pas en mesure de le réparer », a déclaré Avaaz, un groupe de défense des droits à but non lucratif.
La France, l’Allemagne et l’Italie ont résisté à la mise à jour de la législation et appellent plutôt à l’autorégulation – un changement d’avis considéré comme une tentative d’aider les acteurs nationaux de l’IA générative, tels que la startup française Mistral AI et la société allemande Aleph Alpha, à rivaliser avec les grandes entreprises américaines. comme OpenAI.
Brando Benifei, un membre italien du Parlement européen qui codirige les efforts de négociation de l’organe, s’est montré optimiste quant à la résolution des divergences avec les États membres.
Il y a eu « un certain mouvement » sur les modèles de fondation, bien qu’il y ait « plus de problèmes pour trouver un accord » sur les systèmes de reconnaissance faciale, a-t-il dit.
___
Matt O’Brien, rédacteur technologique à l’AP, a apporté sa contribution depuis Providence, Rhode Island.