Une vision stratégique pour l’avenir de l’IA militaire
Le Département de la Défense des États-Unis a récemment annoncé son engagement en faveur d’une utilisation responsable et éthique de l’intelligence artificielle (IA). Face à la montée en puissance des technologies d’IA, le Pentagone se positionne en leader mondial en adoptant cinq principes éthiques fondamentaux. Ces directives visent à encadrer le développement et l’utilisation des applications d’IA pour garantir qu’elles reflètent les valeurs américaines et respectent les droits humains.
Le secrétaire à la Défense, Mark Esper, a souligné dans une déclaration officielle : « L’adoption de l’IA pour les applications de sécurité nationale est essentielle pour maintenir notre position stratégique, prévaloir sur les champs de bataille futurs et défendre l’ordre international fondé sur des règles. »
Les cinq principes fondamentaux
Après une étude de 15 mois menée par le Defense Innovation Board, composé d’universitaires et de leaders du secteur technologique, cinq principes éthiques ont été définis :
- Responsable : Le développement et l’utilisation des technologies d’IA doivent être supervisés par des experts pour s’assurer qu’elles répondent à des besoins précis et respectent des normes élevées.
- Équitable : Les systèmes d’IA doivent éviter les biais involontaires dans l’analyse des données, garantissant ainsi une utilisation impartiale et juste.
- Traçable : Les processus d’apprentissage automatique et les décisions des systèmes d’IA doivent être transparents et audités pour identifier et corriger les erreurs potentielles.
- Fiable : Les technologies doivent fonctionner de manière cohérente et conformément à leurs paramètres définis, même dans des conditions extrêmes.
- Gouvernable : Les systèmes doivent disposer de mécanismes pour désactiver ou ajuster leur fonctionnement en cas de défaillance.
Ces principes reflètent une volonté claire de se démarquer des pratiques observées dans d’autres pays, comme la Chine et la Russie, qui ont suscité des préoccupations éthiques.
Les leçons du projet Maven
Un exemple emblématique des défis éthiques posés par l’IA est le projet Maven. Ce programme visait à utiliser l’IA pour analyser les images capturées par des drones, permettant notamment d’identifier des cibles potentielles. Cependant, cette initiative a suscité une vive controverse au sein de Google, partenaire technologique du projet.
En 2018, plus de 3 000 employés de Google ont signé une pétition demandant l’arrêt de la collaboration avec le Pentagone, exprimant des inquiétudes quant à l’utilisation potentielle de cette technologie pour des frappes militaires. Certains employés ont même choisi de démissionner en signe de protestation.
Face à cette pression, Google a annoncé qu’il ne renouvellerait pas son contrat avec le Pentagone après son expiration en 2019, marquant ainsi une prise de distance avec les projets militaires controversés.
Comparaison avec les pratiques internationales
Contrairement aux États-Unis, certains pays comme la Chine utilisent l’IA pour des pratiques de surveillance de masse. Les systèmes de reconnaissance faciale déployés par Pékin permettent de suivre en temps réel les mouvements des citoyens, soulevant des préoccupations majeures en matière de droits de l’homme.
Le lieutenant-général Jack Shanahan, directeur du Joint Artificial Intelligence Center (JAIC), a déclaré : « Je doute fortement que la Chine ou la Russie mènent des discussions éthiques comme nous le faisons actuellement. » Cette déclaration met en lumière les différences fondamentales entre les approches adoptées par les grandes puissances mondiales en matière d’IA.
Des projets concrets en cours de développement
Le Pentagone en est encore à ses débuts dans l’intégration de l’IA. Cependant, des projets spécifiques sont en cours, comme :
- Un outil d’entretien pour les hélicoptères UH-60 Black Hawk
- Des solutions de défense cybernétique
- Des applications pour améliorer l’efficacité des soins de santé militaires
Malgré les progrès réalisés, Shanahan a admis que certains projets passés, comme Maven, n’auraient pas respecté les nouveaux principes éthiques s’ils avaient été adoptés plus tôt.
Une politique en constante évolution
En plus des initiatives du Pentagone, la Maison-Blanche prévoit de publier cet été ses propres directives sur l’utilisation de l’IA. Ces principes s’inscriront dans une stratégie globale visant à garantir que l’utilisation des technologies avancées reste alignée sur les valeurs fondamentales des États-Unis.
Selon Shanahan : « Nos intentions sont claires : nous ferons tout ce qui est nécessaire pour que l’armée américaine respecte les valeurs éthiques de notre nation tout en maintenant son avantage technologique. »