Les développeurs travaillant sur l’intelligence artificielle devraient être autorisés et réglementés de la même manière que les industries pharmaceutique, médicale ou nucléaire, selon un représentant du parti politique britannique opposé.
Lucy Powell, politicienne et porte-parole numérique du Parti travailliste du Royaume-Uni, a déclaré au Guardian le 5 juin que des entreprises comme OpenAI ou Google qui ont créé des modèles d’IA devraient « avoir une licence pour construire ces modèles », ajoutant :
“Mon véritable sujet de préoccupation est l’absence de toute réglementation des grands modèles de langage qui peuvent ensuite être appliqués à une gamme d’outils d’IA, qu’il s’agisse de régir la façon dont ils sont construits, comment ils sont gérés ou comment ils sont contrôlés.”
Powell a fait valoir que réglementer le développement de certaines technologies est une meilleure option que de les interdire de la même manière que l’Union européenne outils de reconnaissance faciale interdits.
Elle a ajouté que l’IA “peut avoir de nombreuses conséquences imprévues”, mais si les développeurs étaient obligés d’être ouverts sur leurs modèles de formation et leurs ensembles de données sur l’IA, certains risques pourraient être atténués par le gouvernement.
“Cette technologie évolue si rapidement qu’elle nécessite une approche gouvernementale active et interventionniste, plutôt qu’une approche de laissez-faire”, a-t-elle déclaré.
Avant de prendre la parole à la conférence TechUk demain, j’ai parlé au Guardian de l’approche de Labour en matière de technologie numérique et d’IA https://t.co/qzypKE5uJU
— Députée Lucy Powell (@LucyMPowell) 5 juin 2023
Powell pense également qu’une telle technologie de pointe pourrait avoir un impact considérable sur l’économie britannique et que le parti travailliste est en train de terminer ses propres politiques sur l’IA et les technologies connexes.
La semaine prochaine, le leader travailliste Keir Starmer prévoit de tenir une réunion avec le cabinet fantôme du parti dans les bureaux britanniques de Google afin qu’il puisse parler avec ses dirigeants axés sur l’IA.
En rapport: Les responsables de l’UE veulent que tout le contenu généré par l’IA soit étiqueté
Pendant ce temps, le 5 juin, Matt Clifford, président de l’Advanced Research and Invention Agency – l’agence de recherche gouvernementale créée en février dernier – est apparu sur TalkTV pour avertir L’IA pourrait menacer les humains en aussi peu que deux ans.
EXCLUSIF: Matt Clifford, conseiller du groupe de travail sur l’IA du Premier ministre, a déclaré qu’il ne restait peut-être que deux ans au monde pour apprivoiser l’intelligence artificielle avant que les ordinateurs ne deviennent trop puissants pour être contrôlés par les humains.
– TalkTV (@TalkTV) 5 juin 2023
“Si nous ne commençons pas à réfléchir maintenant à la manière de réglementer et de penser à la sécurité, alors dans deux ans, nous découvrirons que nous avons des systèmes qui sont en effet très puissants”, a-t-il déclaré. Clifford a précisé, cependant, qu’un calendrier de deux ans est «l’extrémité haussière du spectre».
Clifford a souligné que les outils d’IA d’aujourd’hui pourraient être utilisés pour aider à “lancer des cyberattaques à grande échelle”. OpenAI a a avancé 1 million de dollars pour soutenir la technologie de cybersécurité assistée par l’IA pour contrecarrer de telles utilisations.
“Je pense qu’il y a [sic] beaucoup de scénarios différents à craindre », a-t-il déclaré. “Je pense certainement qu’il est juste qu’il soit très élevé dans les agendas des décideurs.”
BitCulture : Beaux-arts sur Solana, musique AI, podcast + critiques de livres