Pendant qu’Altman témoignait, le Comité sénatorial de la sécurité intérieure et des affaires gouvernementales a tenu discrètement sa propre audience sur la manière dont les agences devraient utiliser l’IA. Convoqué par le président du comité Gary Peters (D-Mich.), l’audience a réuni des responsables gouvernementaux actuels et anciens, des universitaires et la société civile pour discuter d’une multitude d’idées sur la manière dont le gouvernement fédéral devrait canaliser son immense budget vers l’intégration de systèmes d’IA tout en se prémunissant contre les injustices et les violations de la vie privée.
Ils comprenaient la suralimentation de la main-d’œuvre fédérale en IA, la mise en lumière de l’utilisation fédérale des systèmes automatisés, l’investissement dans l’infrastructure informatique publique et l’orientation des milliards de dollars d’achats technologiques du gouvernement vers des outils d’IA responsables.
Russell Wald, directeur des politiques de l’Institut d’intelligence artificielle centrée sur l’homme de l’Université de Stanford et conseiller fréquent des décideurs nationaux sur l’IA, l’a qualifié de véritable audience à surveiller.
“À mon avis, les choses les plus importantes se sont réellement produites ici”, a déclaré Wald, qui s’est entretenu avec POLITICO en marge de l’audience de mardi. “Ce que le gouvernement établit envoie en fait un message puissant au reste de ce qui se passe dans cet espace particulier.”
Alors que Peters et d’autres législateurs ont entendu un large éventail de recommandations mardi, quelques thèmes sont revenus à plusieurs reprises. Lynne Parker, ancienne directrice adjointe de l’IA au Bureau de la politique scientifique et technologique de la Maison Blanche, a suggéré que chaque agence devrait désigner un responsable pour être un «chef de l’IA». Plusieurs panélistes et législateurs ont qualifié le renforcement de la littératie en IA de première étape cruciale vers de nouvelles règles en matière d’IA – et lundi, Peters s’est associé au sénateur Sen. Mike Braun (R-Ind.) sur un projet de loi qui créer un « programme de formation » en IA pour les superviseurs fédéraux et les responsables de la gestion.
L’accent a également été mis sur la création d’une ressource nationale de recherche sur l’IA. L’administration Biden envisage le NAIRR comme un bac à sable pour les chercheurs en IA qui ne peuvent pas se permettre l’infrastructure informatique massive utilisée par OpenAI et d’autres acteurs du secteur privé.
Grâce à un investissement initial de 2,6 milliards de dollars sur six ans, cela donnerait aux chercheurs en IA l’accès à de puissantes capacités informatiques en échange de leur accord pour suivre un ensemble de normes approuvées par le gouvernement. Mais le Congrès doit encore approuver le plan.
D’autres panélistes ont déclaré qu’il était crucial que les citoyens comprennent quand et comment les outils automatisés sont utilisés pour déterminer leur admissibilité aux services gouvernementaux. “Un thème qui revient sans cesse est la transparence”, a déclaré Peters, qui s’est inquiété du fait que les “systèmes de boîte noire” utilisés par les agences gouvernementales pourraient susciter la méfiance et conduire à des résultats biaisés.
Mais même s’il s’agit d’un objectif largement partagé, la transparence de l’IA est difficile à réaliser dans la pratique – il est souvent techniquement difficile pour les informaticiens d’expliquer comment fonctionnent même les algorithmes, par exemple. Interrogé sur la façon dont il pense que le Congrès pourrait résoudre le problème de transparence, Peters a suggéré que cette audience ne serait que le début.
“Il y a beaucoup de bruit autour de cette question, tout le monde en parle”, a déclaré le sénateur.
Interrogé sur la frénésie de l’IA qui a dépassé certains de ses collègues, Peters a déclaré qu’il était important d’être “réfléchi et délibéré, et de prendre notre temps et de ne pas se précipiter pour tirer des conclusions”. Il a déclaré que c’était particulièrement essentiel si le Congrès voulait éviter d’écraser l’innovation tout en réprimant les utilisations nocives de la technologie.
“Créer cet équilibre n’est pas une chose facile à faire, et c’est pourquoi je veux prendre du temps”, a déclaré Peters.