L’avenir des réglementations sur l’intelligence artificielle (IA) semble incertain alors que les États-Unis se préparent à un basculement politique majeur avec l’administration Trump. Cette transition marque un virage potentiel vers des politiques favorisant l’innovation sans les contraintes réglementaires imposées par l’administration précédente.
Un changement de cap dans la gouvernance de l’IA
Sous la présidence de Joe Biden, des efforts considérables avaient été déployés pour encadrer l’IA avec des garanties visant à protéger les droits des citoyens tout en encourageant l’innovation. Parmi ces mesures figurait l’Executive Order 14110, signé en octobre 2023, établissant des normes pour un développement sûr, sécurisé et digne de confiance de l’IA. Cependant, Donald Trump, récemment élu, a déjà annoncé son intention de révoquer cet ordre exécutif. À ce jour, il n’a pas précisé quelle politique le remplacera, bien que le programme du Comité national républicain indique une préférence pour une approche axée sur la liberté d’expression et le progrès humain.
Le précédent de l’administration Trump
Il est important de rappeler qu’en 2020, sous son premier mandat, Trump avait signé un décret visant à promouvoir une IA fiable au sein du gouvernement fédéral. Cette mesure visait à améliorer les services publics tout en renforçant la confiance du public dans l’utilisation de cette technologie. Cela laisse entrevoir une continuité possible avec des politiques antérieures favorisant une adoption accrue de l’IA dans les secteurs publics et privés.
Des perspectives divisées au Congrès
Avec un Congrès bientôt dominé par les républicains, la voie à suivre pour légiférer sur l’IA reste floue. Certains législateurs, comme le républicain Jay Obernolte, mettent en avant le potentiel économique et productif de l’IA, tout en soulignant la nécessité d’un équilibre entre innovation et prévention des abus. D’autres, comme le sénateur démocrate Gary Peters, espèrent des collaborations bipartites sur des sujets tels que la sécurité nationale et la lutte contre les images explicites générées sans consentement.
Cependant, les sujets comme l’utilisation des deepfakes dans les campagnes électorales et la désinformation pourraient ne pas figurer parmi les priorités, les républicains exprimant des réserves sur les réglementations perçues comme des entraves à la liberté d’expression.
L’impact des acteurs privés et internationaux
L’influence d’acteurs comme Elon Musk, proche de Trump et figure majeure de l’IA, suscite également des débats. Musk, tout en exprimant ses craintes sur les dangers potentiels de l’IA, a activement promu des contenus générés par cette technologie, notamment via sa plateforme X (anciennement Twitter). Certaines voix, comme celle de l’organisation Public Citizen, s’inquiètent de conflits d’intérêts potentiels si Musk devenait un conseiller clé sur ces questions.
Sur le plan international, des efforts pour coordonner des normes de sécurité autour de l’IA continuent. Des sommets récents, comme celui de San Francisco, réunissent des experts et des représentants de divers gouvernements pour aborder des questions critiques telles que les deepfakes et la désinformation.
Les défis de la désinformation et de la régulation
L’IA a joué un rôle subtil mais significatif dans les élections américaines de 2024. Bien que les craintes de deepfakes influençant directement les résultats ne se soient pas concrétisées, des exemples concrets, comme des appels robotiques imitant la voix de Joe Biden, ont montré comment ces technologies peuvent être utilisées à des fins nuisibles. À plus grande échelle, des acteurs étrangers ont exploité des outils d’IA pour diffuser de fausses informations via des profils en ligne automatisés.
Cette prolifération de contenus générés par l’IA, souvent réalistes, contribue à un climat de méfiance parmi les électeurs. Pour de nombreux experts, l’absence de réglementation fédérale constitue un risque pour la démocratie et l’intégrité des élections.
Un avenir incertain mais prometteur
Malgré ces incertitudes, des voix dans l’industrie, comme Craig Albright de The Software Alliance, plaident pour des lois nationales qui établiraient des « règles de la route » claires. Ces règles pourraient à la fois stimuler le développement des marchés technologiques et garantir une utilisation éthique de l’IA.
Alors que l’administration Trump se prépare à entrer en fonction, l’équilibre entre innovation et réglementation reste un défi majeur. La manière dont les États-Unis s’attaqueront à ces questions dans les années à venir pourrait bien définir l’avenir de l’intelligence artificielle, non seulement sur le plan national, mais aussi à l’échelle mondiale.
Sources :
- « Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence » : whitehouse.gov
- « Trump Allies Want to Make America First in AI with Sweeping Executive Order » : arstechnica.com
- « US Artificial Intelligence Policy: Legislative and Regulatory Developments » : cov.com
- « Promoting the Use of Trustworthy AI in the Federal Government » : trumpwhitehouse.archives.gov