Meta ne signera pas le code de l'UE sur l'intelligence artificielle, mais qui le fera ?

Une semaine avant l'entrée en vigueur des nouvelles règles sur l'intelligence artificielle à usage général (GPAI), relatives à des outils tels que ChatGPT et Gemini, une image plus claire se dessine sur la position des entreprises en ce qui concerne la signature du code de bonnes pratiques de l'UE sur l'intelligence artificielle.
Le géant américain de la technologie Meta a déclaré la semaine dernière qu'il ne signerait pas, après avoir dénoncé des règles qui étouffent l'innovation.
Le code, publié le 10 juillet par la Commission européenne, est un ensemble de règles volontaires portant sur la transparence, les droits d'auteur et les questions de sûreté et de sécurité, qui vise à aider les fournisseurs de modèles GPAI à se conformer à la loi sur l'IA.
Les fournisseurs qui s'inscrivent sont censés se conformer à la loi sur l'IA et peuvent s'attendre à une plus grande sécurité juridique, tandis que les autres devront faire face à davantage d'inspections.
Ceux qui signeront
L'entreprise américaine Anthropic, qui a développé l'assistant d'IA Claude pour concurrencer ChatGPT d'OpenAI et Gemini de Google, est la dernière entreprise à avoir déclaré son intention de signer le code.
"Nous pensons que le code fait progresser les principes de transparence, de sécurité et de responsabilité, des valeurs qu'Anthropic défend depuis longtemps pour le développement de l'IA d'avant-garde", a déclaré l'entreprise dans un communiqué.
"S'ils sont mis en œuvre de manière réfléchie, la loi sur l'IA et le Code de l'UE sur l'IA permettront à l'Europe d'exploiter la technologie la plus importante de notre époque pour stimuler l'innovation et la compétitivité", ajoute la déclaration.
OpenAI, propriétaire de ChatGPT a déclaré plus tôt la semaine dernière qu'il signerait également, affirmant que l'Europe devrait maintenant "utiliser ce moment pour permettre à [ses] innovateurs d'innover et aux constructeurs de bâtir l'avenir de l'Europe".
Le processus de rédaction de la réglementation, qui a débuté en septembre dernier après la sélection d'un groupe d'experts par la Commission, a été fortement critiqué, principalement par les détenteurs de droits qui craignent une augmentation des violations du droit d'auteur, tandis que les géants américains de la technologie affirment que les règles étouffent l'innovation.
Le président de Microsoft, Brad Smith, a déclaré à Reuters la semaine dernière que son entreprise signerait probablement elle aussi. Il a déclaré au début de l'année que Microsoft voulait être "la voix de la raison" alors que les tensions géopolitiques augmentent.
Ceux qui ne signeront pas
Le géant américain de la technologie Meta a été le premier, et reste à ce jour le seul, à déclarer qu'il ne signera pas le code. Joel Kaplan, responsable des affaires internationales, a déclaré dans un communiqué vendredi dernier que "l'Europe fait fausse route en matière d'IA".
Après avoir "examiné attentivement" le code, Meta ne le signera pas car le document "introduit un certain nombre d'incertitudes juridiques pour les développeurs de modèles, ainsi que des mesures qui vont bien au-delà du champ d'application de la loi sur l'IA", a déclaré Joel Kaplan.
Gry Hasselbalch, une universitaire travaillant sur l'éthique des données et de l'IA et contribuant aux lignes directrices de l'UE sur l'éthique de l'IA, a déclaré à Euronews que le code n'apportait pas de réel changement sur la manière dont les entreprises peuvent mettre en œuvre l'IA à usage général dans l'UE.
"Les entreprises, comme Meta, qui décident de ne pas signer le code devront toujours se conformer à la loi sur l'IA. La signature du code n'est donc qu'une formalité," explique-t-elle. "Elles devront toujours le lire et le suivre pour comprendre quand un système d'IA est considéré comme un système d'IA à usage général et ce que la transparence, le droit d'auteur et la sécurité signifient dans la loi sur l'IA."
Elle a ajouté que la loi sur l'IA elle-même, les règles qui réglementent les systèmes et les outils d'IA en fonction du risque qu'ils représentent pour la société, "est devenue un pion dans une bataille géopolitique".
"La loi a été élaborée dans le cadre d'un processus démocratique soigneusement conçu et mis en œuvre afin de créer une sécurité juridique pour les développeurs et les utilisateurs d'IA dans l'UE," explique-t-elle. "En fait, la plupart des systèmes d'IA peuvent être développés et utilisés dans le cadre de la législation existante sans obligations juridiques supplémentaires liées à la loi sur l'IA."
Meta devra néanmoins se conformer aux obligations de la loi sur l'IA, qui entreront en vigueur le 2 août.
D'autres grandes entreprises technologiques, dont Amazon et Google, n'ont pas encore souhaité faire de commentaires sur leur éventuelle signature.
Les fournisseurs qui ont déjà un modèle GPAI sur le marché devront signer avant le 1er août, les autres pourront le faire plus tard, a déclaré la Commission. Le même jour, l'exécutif européen publiera une liste des signataires.
Le code doit être approuvé par les États membres de l'UE, qui sont représentés dans un sous-groupe du conseil d'administration de l'IA, ainsi que par l'office de l'IA de la Commission.
Today