Business et IA

Les hallucinations de l’IA tournent mal alors que l’Alaska utilise des statistiques falsifiées dans sa politique.

Les hallucinations de l'IA tournent mal alors que l'Alaska utilise des statistiques falsifiées dans sa politique.
Simon Robben
Écrit par Simon Robben

Les illusions de l’IA : Un incident embarrassant en Alaska

La récente utilisation de l’intelligence artificielle pour élaborer une politique éducative en Alaska a mis en lumière les dangers potentiels liés à la génération de contenu par des algorithmes. L’État a connu un moment pour le moins inhabituel lorsqu’il a été révélé que des citations fabriquées par l’IA avaient été utilisées pour justifier une proposition de loi interdisant les téléphones cellulaires dans les écoles. Selon un rapport de The Alaska Beacon, le projet de politique fourni par le Département de l’éducation et du développement précoce de l’Alaska (DEED) contenait des références à des études académiques qui n’existaient tout simplement pas.

La genèse du faux rapport

L’incident a commencé lorsque la commissaire de l’éducation de l’Alaska, Deena Bishop, a décidé de recourir à un générateur d’IA pour rédiger le projet de politique sur les téléphones portables. Le document produit comportait des références académiques non vérifiées et inexactes, sans mention claire de l’utilisation de l’intelligence artificielle lors de sa création. Certaines de ces informations ont été transmises au Conseil d’État de l’éducation et du développement précoce avant d’être examinées, risquant ainsi d’influencer les discussions au sein du conseil.

A lire aussi :  Comment gagner de l'argent grâce à l'intelligence artificielle ?

Tentatives de clarification

Suite aux critiques, la commissaire Bishop a tenté de minimiser la situation, affirmant que l’IA avait été utilisée seulement pour créer des citations préliminaires et qu’elle avait corrigé les erreurs avant la réunion en envoyant des références mises à jour aux membres du conseil. Cependant, des « hallucinations » de l’IA — des informations fabriquées lorsque le système essaie de créer du contenu plausible mais non vérifié — ont quand même persisté dans le document final qui a été soumis au vote.

Des références fictives au cœur d’une décision

La résolution finale publiée sur le site du DEED exprimait la nécessité pour le département d’élaborer un modèle de politique sur les restrictions de téléphones portables dans les écoles. Inquiétant, le document comportait six citations, dont quatre semblaient provenir de revues scientifiques respectées. Néanmoins, toutes les références étaient totalement fictives et les URL pointaient vers du contenu non pertinent. Cet incident illustre les risques liés à l’utilisation de données générées par l’IA sans vérification humaine appropriée, en particulier lors de l’élaboration de politiques.

Une tendance inquiétante

L’arficiellisation des décisions politiques n’est pas uniquement un problème localisé. Les hallucinations de l’IA apparaissent également dans de nombreux secteurs professionnels. Des avocats ont, par exemple, été sanctionnés pour avoir utilisé des citations de cas fictifs générées par l’IA en cour. De même, certains articles académiques produits par des intelligences artificielles ont inclus des données trompeuses et des sources inventées, soulevant des préoccupations majeures quant à leur crédibilité. Les algorithmes d’IA générative, conçus pour produire du contenu basé sur des modèles plutôt que sur l’exactitude des faits, peuvent facilement engendrer des citations erronées si elles ne sont pas surveillées.

A lire aussi :  DeepSeek ouvre la recherche en AGI open-source au milieu des préoccupations en matière de confidentialité.

Implications pour l’éducation et la confiance publique

L’usage de données générées par l’IA dans le domaine de la politique éducative soulève des enjeux cruciaux. Des politiques élaborées sur des informations fabriquées peuvent entraîner une mauvaise allocation des ressources et impacter négativement les élèves. Par exemple, l’interdiction des téléphones portables basée sur des données erronées pourrait détourner l’attention d’interventions plus efficaces qui pourraient réellement apporter des bénéfices aux élèves.

De plus, s’appuyer sur des données inexactes peut éroder la confiance du public dans le processus décisionnel ainsi que dans la technologie de l’IA elle-même. Ces incidents mettent en avant l’importance de la vérification des faits, de la transparence et de la prudence lors de l’utilisation de l’IA dans des domaines sensibles comme l’éducation, où les répercussions sur les élèves peuvent être majeures.

Un appel à la rigueur

Les responsables en Alaska ont tenté de minimiser la situation en décrivant les citations fictives comme de simples « espaces réservés » destinés à être corrigés ultérieurement. Pourtant, ces "espaces réservés" ont été présentés au conseil et ont servi de base à un vote, soulignant ainsi l’urgence d’une surveillance rigoureuse dans l’utilisation de l’IA.

L’incident souligne le besoin croissant de régulations strictes et de protocoles de vérification pour éviter que de tels faux pas ne se reproduisent. Dans cette ère numérique, l’intégration de l’intelligence artificielle dans la politique doit être réalisée avec une attention particulière à ses implications sur la société.

A lire aussi :  Qwen 2.5-Max surpasse DeepSeek V3 dans certains benchmarks.

A propos de l'auteur

Simon Robben

Simon Robben

Simon Robben est un expert reconnu en intelligence artificielle et en transformation numérique. Auteur principal du site Actualité I.A, il partage son expertise à travers des articles clairs et accessibles, dédiés à l'actualité de l'intelligence artificielle. Avec plusieurs années d'expérience dans le domaine, Simon suit de près les dernières avancées technologiques et leurs impacts sur les entreprises et la société.