Actualités

La croyance en l’IA comme une « Grande Machine » pourrait affaiblir les réponses aux crises de sécurité nationale, selon de nouvelles recherches de VCU.

La croyance en l'IA comme une « Grande Machine » pourrait affaiblir les réponses aux crises de sécurité nationale, selon de nouvelles recherches de VCU.
Simon Robben
Écrit par Simon Robben

2025-03-19 13:16:00

L’intelligence artificielle (IA) visant à influencer nos choix imprègne notre quotidien, des recherches sur Google aux recommandations de produits en ligne et de films. Toutefois, quelle est son influence sur nos prises de décisions lors de crises ?

Une enquête menée par le chercheur de l’Université de Virginia Commonwealth, Christopher Whyte, Ph.D., s’est penchée sur les réactions des professionnels de la gestion des urgences et de la sécurité nationale face à des attaques simulées pilotées par l’IA. Les données recueillies montrent que ces professionnels montraient une hésitation accrue et un doute plus prononcé sur leurs capacités lorsqu’ils étaient confrontés à des menaces totalement orchestrées par l’IA, comparativement à des attaques de hackers humains ou à des menaces assistées par l’IA.

Selon Whyte, ces résultats révèlent une dynamique inquiétante où les participants tendent à devenir plus prudents et réticents, hormis dans des circonstances spécifiques.”

Les Impacts Psychologiques de la Confiance en l’IA

Ces circonstances particulières préoccupent particulièrement Whyte, qui est également professeur associé à l’École de gouvernement L. Douglas Wilder de VCU. Les organisations de sécurité nationale s’efforcent de concevoir des formations visant à réduire cette hésitation en période d’incertitude. Bien que la majorité des quelque 700 professionnels interrogés aux États-Unis et en Europe considèrent que l’IA pourrait améliorer leurs compétences, une minorité pense qu’elle pourrait un jour complètement remplacer leur métier, ainsi que l’expertise humaine en général. Ce groupe en particulier a montré des comportements imprudents face à la menace de l’IA, acceptant des risques élevés et agissant de manière irréfléchie.

A lire aussi :  Sam Altman déclare que « l'Inde dépasse le monde » dans l'adoption de l'IA.

Whyte explique : « Ces personnes estiment que leur mission professionnelle, ainsi que l’objectif institutionnel qu’elles soutiennent, pourrait être supplanté par l’IA. »

Vers une Nouvelle Conception Historique : La Théorie de la ‘Grande Machine’

Christopher Whyte développe alors une théorie novatrice pour expliquer ce phénomène. Il souligne que l’histoire a souvent été considérée à travers le prisme de la théorie du « Grand Homme », qui attribue le cours des événements historiques à des figures politiques dominantes. Pourquoite suggère, en revanche, que la trajectoire de l’histoire est souvent influencée par des inventions technologiques révolutionnaires, telles que le télégraphe ou les ondes radio, et la confiance mal placée en leur potentiel — un postulat qu’il nomme la théorie de la « Grande Machine ».

Contrairement à la théorie du « Grand Homme », les « Grandes Machines » représentent une force sociétale collective qui peut être exploitée tant pour le bien que pour le mal, comme l’a illustré l’usage des ondes radio dans les années 1930, où le concept de rayons de la mort, largement impraticable, a captivé l’imagination mais n’a pas abouti à des réalisations positives avant plusieurs années.

Pourquoite affirme que la société se trouve actuellement face à un défi similaire avec l’IA, qu’il qualifie de technologie à « usage général » capable d’influencer radicalement la manière dont les individus perçoivent le monde et leur rôle à l’intérieur.

A lire aussi :  Les thérapeutes IA peuvent-ils équivaloir à la norme d'excellence de la thérapie cognitive ?

« L’IA est si polyvalente qu’elle engendre une mentalité de remplacement parmi certains professionnels, les amenant à croire que l’avenir sera totalement différent, et que leur rôle n’existera plus, car l’IA transformera profondément tout », déclare Whyte.

Réagir aux Menaces de Niveau ‘Skynet’

Pour approfondir ce phénomène, le chercheur a recruté près de 700 professionnels dédiés à la gestion des urgences et à la sécurité intérieure, venant des États-Unis, d’Allemagne, du Royaume-Uni et de Slovénie, afin de les soumettre à un exercice de simulation.

Au cours de cette expérience, les participants ont été confrontés à une menace typique de sécurité nationale : une ingérence gouvernementale étrangère lors d’élections dans leur pays. Ils ont été répartis en trois scénarios : un scénario de contrôle, se limitant à des hackers humains ; un scénario où des hackers bénéficiaient d’une assistance légère via de l’IA ; et un dernier scénario impliquant des niveaux élevés d’IA où la menace était orchestrée par un programme d’IA stratégique.

Face à une menace de type ‘Skynet’ — une référence à la saga *Terminator* —, les participants exprimaient des doutes quant à leur formation et faisaient preuve de réticence à agir. Ils étaient également plus enclins à demander des renseignements supplémentaires que leurs collègues des deux autres groupes, qui répondaient généralement selon leur formation.

A lire aussi :  Atlantium AI dévoile des produits révolutionnaires conçus par intelligence artificielle

En revanche, ceux qui percevaient l’IA comme une « Grande Machine » capable de les remplacer totalement prenaient des décisions irréfléchies et allaient à l’encontre de leur formation initiale. Bien que l’expérience et l’éducation aient modéré les réponses des professionnels face aux attaques assistées par l’IA, elles n’ont pas eu d’effet sur leur réaction face à cette menace de niveau ‘Skynet’. Cette dynamique pourrait exposer des vulnérabilités à mesure que les attaques IA deviennent plus fréquentes, selon Whyte, qui souligne que les opinions des professionnels quant à l’IA oscillent entre augmentation de capacités et crainte de remplacement total, modifiant ainsi leurs réactions en situation de crise.

A propos de l'auteur

Simon Robben

Simon Robben

Simon Robben est un expert reconnu en intelligence artificielle et en transformation numérique. Auteur principal du site Actualité I.A, il partage son expertise à travers des articles clairs et accessibles, dédiés à l'actualité de l'intelligence artificielle. Avec plusieurs années d'expérience dans le domaine, Simon suit de près les dernières avancées technologiques et leurs impacts sur les entreprises et la société.