Les illusions de l’IA : Un incident embarrassant en Alaska
La récente utilisation de l’intelligence artificielle pour élaborer une politique éducative en Alaska a mis en lumière les dangers potentiels liés à la génération de contenu par des algorithmes. L’État a connu un moment pour le moins inhabituel lorsqu’il a été révélé que des citations fabriquées par l’IA avaient été utilisées pour justifier une proposition de loi interdisant les téléphones cellulaires dans les écoles. Selon un rapport de The Alaska Beacon, le projet de politique fourni par le Département de l’éducation et du développement précoce de l’Alaska (DEED) contenait des références à des études académiques qui n’existaient tout simplement pas.
La genèse du faux rapport
L’incident a commencé lorsque la commissaire de l’éducation de l’Alaska, Deena Bishop, a décidé de recourir à un générateur d’IA pour rédiger le projet de politique sur les téléphones portables. Le document produit comportait des références académiques non vérifiées et inexactes, sans mention claire de l’utilisation de l’intelligence artificielle lors de sa création. Certaines de ces informations ont été transmises au Conseil d’État de l’éducation et du développement précoce avant d’être examinées, risquant ainsi d’influencer les discussions au sein du conseil.
Tentatives de clarification
Suite aux critiques, la commissaire Bishop a tenté de minimiser la situation, affirmant que l’IA avait été utilisée seulement pour créer des citations préliminaires et qu’elle avait corrigé les erreurs avant la réunion en envoyant des références mises à jour aux membres du conseil. Cependant, des « hallucinations » de l’IA — des informations fabriquées lorsque le système essaie de créer du contenu plausible mais non vérifié — ont quand même persisté dans le document final qui a été soumis au vote.
Des références fictives au cœur d’une décision
La résolution finale publiée sur le site du DEED exprimait la nécessité pour le département d’élaborer un modèle de politique sur les restrictions de téléphones portables dans les écoles. Inquiétant, le document comportait six citations, dont quatre semblaient provenir de revues scientifiques respectées. Néanmoins, toutes les références étaient totalement fictives et les URL pointaient vers du contenu non pertinent. Cet incident illustre les risques liés à l’utilisation de données générées par l’IA sans vérification humaine appropriée, en particulier lors de l’élaboration de politiques.
Une tendance inquiétante
L’arficiellisation des décisions politiques n’est pas uniquement un problème localisé. Les hallucinations de l’IA apparaissent également dans de nombreux secteurs professionnels. Des avocats ont, par exemple, été sanctionnés pour avoir utilisé des citations de cas fictifs générées par l’IA en cour. De même, certains articles académiques produits par des intelligences artificielles ont inclus des données trompeuses et des sources inventées, soulevant des préoccupations majeures quant à leur crédibilité. Les algorithmes d’IA générative, conçus pour produire du contenu basé sur des modèles plutôt que sur l’exactitude des faits, peuvent facilement engendrer des citations erronées si elles ne sont pas surveillées.
Implications pour l’éducation et la confiance publique
L’usage de données générées par l’IA dans le domaine de la politique éducative soulève des enjeux cruciaux. Des politiques élaborées sur des informations fabriquées peuvent entraîner une mauvaise allocation des ressources et impacter négativement les élèves. Par exemple, l’interdiction des téléphones portables basée sur des données erronées pourrait détourner l’attention d’interventions plus efficaces qui pourraient réellement apporter des bénéfices aux élèves.
De plus, s’appuyer sur des données inexactes peut éroder la confiance du public dans le processus décisionnel ainsi que dans la technologie de l’IA elle-même. Ces incidents mettent en avant l’importance de la vérification des faits, de la transparence et de la prudence lors de l’utilisation de l’IA dans des domaines sensibles comme l’éducation, où les répercussions sur les élèves peuvent être majeures.
Un appel à la rigueur
Les responsables en Alaska ont tenté de minimiser la situation en décrivant les citations fictives comme de simples « espaces réservés » destinés à être corrigés ultérieurement. Pourtant, ces "espaces réservés" ont été présentés au conseil et ont servi de base à un vote, soulignant ainsi l’urgence d’une surveillance rigoureuse dans l’utilisation de l’IA.
L’incident souligne le besoin croissant de régulations strictes et de protocoles de vérification pour éviter que de tels faux pas ne se reproduisent. Dans cette ère numérique, l’intégration de l’intelligence artificielle dans la politique doit être réalisée avec une attention particulière à ses implications sur la société.