Le 30 octobre 2023, le président Biden a signé un décret. Celui-ci établit un cadre pour le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle aux États-Unis. L’objectif est de s’assurer que le pays puisse exploiter le potentiel de l’IA tout en atténuant ses risques substantiels. Cela nécessite un effort de toute la société. Cela s’applique tant au niveau du gouvernement, du secteur privé, du milieu universitaire ainsiq ue de la société civile.
Huit principes directeurs pour guider le développement et l’utilisation de l’IA
L’Executive Order établit 8 principes directeurs pour le développement et l’utilisation de l’IA :
- Sûreté et sécurité. L’IA doit être sûre et sécurisée. Cela nécessite des évaluations robustes et des politiques pour tester et atténuer les risques avant la mise en service.
- Innovation et concurrence responsables. Promouvoir l’innovation et la concurrence responsables. Le but est de permettre aux États-Unis d’être souverain dans le domaine de l’IA.
- Soutien aux travailleurs américains. Créer de nouveaux emplois et industries liés à l’IA. L’objectif est également de s’assurer que les travailleurs en bénéficient.
- Équité et droits civils. Faire progresser l’équité et les droits civils en s’assurant que l’IA ne discrimine pas illégalement dans l’administration des programmes et avantages fédéraux.
- Protection des consommateurs. Appliquer les lois existantes de protection des consommateurs. Il sera nécessaire d’adopter des garanties contre la fraude, les biais, la discrimination, les atteintes à la vie privée et autres préjudices potentiels de l’IA.
- Vie privée et libertés civiles. Veiller à ce que la collecte, l’utilisation et la conservation des données soient légales et sécurisées.
- Gestion des risques liés à l’utilisation de l’IA par le gouvernement fédéral. Le renforcement de sa capacité interne à réglementer et soutenir l’utilisation responsable de l’IA est également un enjeux.
- Leadership mondial. Mener les progrès sociétaux, économiques et technologiques mondiaux. C’est le cas notamment en collaborant avec les alliés pour élaborer un cadre d’atténuation des risques de l’IA.
Des directives spécifiques pour les agences fédérales
L’Executive Order donne des directives spécifiques à de nombreuses agences fédérales pour mettre en œuvre ces principes, notamment :
- Développer des lignes directrices et des normes pour l’évaluation de la sécurité de l’IA, en particulier pour les modèles fondateurs à double usage qui pourraient poser des risques de sécurité nationale.
- Exiger des plus grands développeurs de modèles d’IA qu’ils signalent au gouvernement fédéral lorsqu’ils forment le modèle et partagent les résultats des tests de sécurité.
- Élaborer des orientations pour détecter et étiqueter le contenu généré par l’IA.
- Faire progresser l’équité et les droits civils en atténuant la discrimination algorithmique.
- Protéger la vie privée en soutenant le développement de technologies améliorant la confidentialité.
- Promouvoir l’utilisation responsable de l’IA dans les soins de santé et l’éducation.
- Soutenir les travailleurs face aux perturbations potentielles du marché du travail liées à l’IA.
Ce décret est un vaste cadre réglementaire avec des implications pour l’industrie privée
Ce décret (Executive Order) établit un vaste cadre pour réglementer le développement et le déploiement de l’IA par le gouvernement fédéral afin de maximiser ses avantages tout en gérant ses risques. Bien qu’il se concentre sur les agences fédérales, il a également des implications importantes pour l’industrie privée, notamment en ce qui concerne les exigences de signalement et de test pour les grands développeurs de modèles d’IA.
La mise en œuvre de ce décret se déroulera sur plusieurs mois à travers les actions des différentes agences fédérales. Il représente une étape importante dans les efforts des États-Unis pour façonner le développement et l’utilisation de l’IA d’une manière qui profite à la société tout en atténuant les risques potentiels.