Appuyez sur play pour écouter cet article
Exprimé par l’intelligence artificielle.
La nouvelle sensation de l’intelligence artificielle – le chatbot gabby sur stéroïdes ChatGPT – renvoie les décideurs européens à la planche à dessin sur la façon de réglementer l’IA.
Le chatbot a ébloui Internet ces derniers mois avec sa production rapide de prose humaine. Il déclaré son amour pour un journaliste du New York Times. Il écrit un haïku à propos de singes se libérant d’un laboratoire. Elle a même atteint le parquet du Parlement européen, où deux Allemand membres a prononcé des discours rédigés par ChatGPT pour souligner la nécessité de maîtriser la technologie de l’IA.
Mais après des mois de lolz sur Internet – et des critiques catastrophiques – la technologie confronte maintenant les régulateurs de l’Union européenne à une question déroutante : comment pouvons-nous maîtriser cette chose ?
La technologie a déjà bouleversé le travail effectué par la Commission européenne, le Parlement européen et le Conseil de l’UE sur le projet de règlement sur l’intelligence artificielle du bloc, le Loi sur l’intelligence artificielle. Le règlement, proposé par la Commission en 2021, a été conçu pour interdire certaines applications d’IA comme la notation sociale, la manipulation et certains cas de reconnaissance faciale. Cela désignerait également certaines utilisations spécifiques de l’IA comme “à haut risque”, obligeant les développeurs à des exigences plus strictes en matière de transparence, de sécurité et de surveillance humaine.
Le hic ? ChatGPT peut servir à la fois les bénins et les malins.
Ce type d’IA, appelé grand modèle de langage, n’a pas d’utilisation prévue unique : les gens peuvent l’inciter à écrire des chansons, des romans et des poèmes, mais aussi du code informatique, des notes d’information, de faux reportages ou, comme l’a reconnu un juge colombien, décisions de justice. Autres modèles formés sur les images plutôt que du texte peut tout générer, des dessins animés aux fausses images de politiciens, suscitant des craintes de désinformation.
Dans un cas, le nouveau moteur de recherche Bing alimenté par la technologie de ChatGPT menacé un chercheur avec “pirater[ing]” et ” ruiner “. Dans un autre, une application alimentée par l’IA pour transformer des images en dessins animés appelée Lensa photos hypersexualisées de femmes asiatiques.
“Ces systèmes n’ont aucune compréhension éthique du monde, n’ont aucun sens de la vérité et ne sont pas fiables”, a déclaré Gary Marcus, expert en IA et critique virulent.
Ces IA “sont comme des moteurs. Ce sont des moteurs et des algorithmes très puissants qui peuvent faire un certain nombre de choses et qui eux-mêmes ne sont pas encore affectés à un objectif”, a déclaré Dragoș Tudorache, un législateur roumain libéral qui, avec le législateur italien S&D Brando Benifei, est chargé de faire passer la loi sur l’IA par le Parlement européen.
Déjà, la technologie a incité les institutions européennes à réécrire leurs projets de plans. Le Conseil de l’UE, qui représente les capitales nationales, a approuvé sa version du projet de loi sur l’IA en décembre, qui confierait à la Commission la tâche d’établir des exigences en matière de cybersécurité, de transparence et de gestion des risques pour les IA à usage général.
La montée en puissance de ChatGPT oblige désormais le Parlement européen à emboîter le pas. En février, les principaux législateurs de la loi sur l’IA, Benifei et Tudorache, ont proposé que les systèmes d’IA générant des textes complexes sans surveillance humaine fassent partie de la liste “à haut risque” – un effort pour empêcher ChatGPT de produire de la désinformation à grande échelle.
L’idée a été accueillie avec scepticisme par les groupes politiques de droite au Parlement européen, et même par certaines parties du propre groupe libéral de Tudorache. Axel Voss, un éminent législateur de centre-droit qui a officiellement son mot à dire sur la position du Parlement, a déclaré que l’amendement “rendrait de nombreuses activités à haut risque, qui ne le sont pas du tout”.
En revanche, les militants et les observateurs estiment que la proposition ne faisait qu’effleurer la surface de l’énigme de l’IA à usage général. “Ce n’est pas génial de simplement mettre les systèmes de création de texte sur la liste des risques élevés : vous avez d’autres systèmes d’IA à usage général qui présentent des risques et devraient également être réglementés”, a déclaré Mark Brakel, directeur des politiques chez Future of Life. Institute, une organisation à but non lucratif axée sur la politique de l’IA.
Les deux principaux législateurs du Parlement s’efforcent également d’imposer des exigences plus strictes aux développeurs et aux utilisateurs de ChatGPT et de modèles d’IA similaires, notamment en gérant le risque de la technologie et en étant transparent sur son fonctionnement. Ils essaient également d’imposer des restrictions plus strictes aux grands fournisseurs de services tout en maintenant un régime plus léger pour les utilisateurs quotidiens jouant avec la technologie.
Les professionnels de secteurs tels que l’éducation, l’emploi, la banque et l’application de la loi doivent être conscients “de ce que cela implique d’utiliser ce type de système à des fins qui présentent un risque important pour les droits fondamentaux des individus”, a déclaré Benifei.
Si le Parlement a du mal à comprendre le règlement ChatGPT, Bruxelles se prépare aux négociations qui suivront.
La Commission européenne, le Conseil de l’UE et le Parlement définiront les détails d’une loi finale sur l’IA lors de négociations tripartites, qui devraient commencer en avril au plus tôt. Là, ChatGPT pourrait bien amener les négociateurs à se retrouver dans une impasse, alors que les trois parties élaborent une solution commune à la nouvelle technologie brillante.
En marge, les entreprises Big Tech – en particulier celles qui ont la peau dans le jeu, comme Microsoft et Google – surveillent de près.
La loi sur l’IA de l’UE devrait “maintenir l’accent sur les cas d’utilisation à haut risque”, a déclaré Natasha Crampton, responsable de l’IA chez Microsoft, suggérant que les systèmes d’IA à usage général tels que ChatGPT ne sont guère utilisés pour des activités à risque, et sont plutôt utilisés principalement pour rédaction de documents et aide à l’écriture de code.
“Nous voulons nous assurer que les cas d’utilisation de grande valeur et à faible risque continuent d’être disponibles pour les Européens”, a déclaré Crampton. (ChatGPT, créé par le groupe de recherche américain OpenAI, a Microsoft comme investisseur et est désormais considéré comme un élément central de sa stratégie de relance de son moteur de recherche Bing. OpenAI n’a pas répondu à une demande de commentaire.)
UN enquête récente par le groupe militant pour la transparence Corporate Europe Observatory a également déclaré que les acteurs de l’industrie, dont Microsoft et Google, avaient fait pression avec acharnement sur les décideurs politiques de l’UE pour exclure l’IA à usage général comme ChatGPT des obligations imposées aux systèmes d’IA à haut risque.
Le bot lui-même pourrait-il venir à la rescousse des décideurs de l’UE, peut-être ?
ChatGPT a déclaré à POLITICO qu’il pensait qu’il pourrait avoir besoin d’être réglementé: “L’UE devrait envisager de désigner l’IA générative et les grands modèles de langage comme des technologies” à haut risque “, compte tenu de leur potentiel de création de contenu nuisible et trompeur”, a répondu le chatbot lorsqu’on lui a demandé s’il devrait tomber dans le cadre de la loi sur l’IA.
“L’UE devrait envisager de mettre en place un cadre pour le développement, le déploiement et l’utilisation responsables de ces technologies, qui comprend des mécanismes de sauvegarde, de suivi et de surveillance appropriés”, a-t-il déclaré.
L’UE, cependant, a des questions complémentaires.