Eric Schmidt, ancien PDG de Google, a récemment exprimé des inquiétudes majeures sur les risques posés par une utilisation abusive de l’intelligence artificielle (IA). Lors d’une intervention dans l’émission “Today” de la BBC Radio 4, Schmidt a averti que la manipulation de l’IA pourrait conduire à des conséquences catastrophiques, notamment dans les mains d’extrémistes ou d’États voyous comme la Corée du Nord, l’Iran et la Russie.
### Un risque extrême et inquiétant
Schmidt a souligné que les progrès rapides dans le domaine de l’IA pourraient être détournés pour créer des armes nouvelles, y compris des attaques biologiques. Il a insisté sur le fait que les véritables dangers associés à l’IA ne sont pas nécessairement ceux qui sont généralement discutés par le grand public. “Les vraies craintes que j’ai ne sont pas celles que la plupart des gens évoquent au sujet de l’IA, je parle de risques extrêmes”, a-t-il déclaré. En utilisant une analogie percutante, il a évoqué le scénario d’une figure maléfique comparable à celle d’Oussama ben Laden, qui pourrait exploiter certains aspects de notre vie moderne pour nuire à des innocents.
### Surveillance nécessaire pour prévenir les abus
Pour contrer ces menaces potentielles, Schmidt a appelé les gouvernements à surveiller attentivement les entreprises technologiques qui mènent des recherches innovantes en matière d’IA. Il a noté que, bien que les dirigeants technologiques aient généralement conscience des implications sociales de l’IA, leurs décisions peuvent être guidées par des valeurs différentes de celles des responsables publics. “Mon expérience avec les leaders du secteur technologique est qu’ils comprennent l’impact qu’ils ont, mais ils pourraient juger les valeurs différemment que le gouvernement”, a-t-il précisé. Il a également soutenu les contrôles à l’exportation instaurés par l’ex-président américain Joe Biden pour restreindre la vente de microprocesseurs avancés, une mesure visant à ralentir les progrès de rivaux géopolitiques dans la recherche sur l’IA.
### Divisions mondiales autour de l’IA
Les propos de Schmidt ont été tenus lors du sommet AI Action Summit à Paris, un événement de deux jours qui a rassemblé 57 pays. Ce sommet a abouti à la création d’un accord sur le développement d’une IA inclusive, signé par des acteurs majeurs tels que la Chine, l’Inde, l’UE et l’Union africaine. Toutefois, le Royaume-Uni et les États-Unis ont décliné de signer le communiqué, soulignant que l’accord manquait de clarté et n’abordait pas des questions cruciales de sécurité nationale.
L’ancien dirigeant de Google a mis en garde contre une réglementation excessive qui risquerait d’entraver l’innovation dans ce secteur. Cette affirmation a été partagée par le vice-président américain, JD Vance, qui a averti que des réglementations trop strictes pourraient freiner une industrie en pleine expansion. La réticence des États-Unis et du Royaume-Uni à soutenir des accords internationaux témoigne d’approches divergentes en matière de gouvernance de l’IA. Alors que l’UE préconise un cadre plus restrictif axé sur la protection des consommateurs, des pays comme les États-Unis et le Royaume-Uni optent pour des stratégies plus agiles et axées sur l’innovation.
### Une approche équilibrée pour la sécurité mondiale
Schmidt a également mis en garde contre le manque de réglementation, soulignant le potentiel de l’IA à être utilisée à des fins bénéfiques comme nuisibles. Que ce soit par le biais de fausses informations générées par des algorithmes ou d’armements autonomes, les dangers sont nombreux si aucune mesure n’est mise en place pour prévenir les abus. Populaires parmi les experts et les leaders, l’idée d’une approche équilibrée émerge, qui favorise l’innovation tout en répondant aux dangers associés.
Bien que la coopération internationale soit un sujet délicat et controversé, il est clair qu’en l’absence de protections adéquates, l’évolution de l’IA pourrait engendrer des conséquences imprévues et potentiellement catastrophiques. Schmidt conclut en soulignant l’importance d’une vigilance accrue pour garantir que cette révolution technologique ne se transforme pas en menace pour la sécurité mondiale.