Éthique et Régulation

Endor Labs : transparence de l’IA contre le « open-washing »

Endor Labs : transparence de l'IA contre le « open-washing »
Simon Robben
Écrit par Simon Robben

Les enjeux de la transparence et de l’ouverture dans l’IA

Le secteur de l’intelligence artificielle (IA) est en pleine effervescence, avec une attention accrue portée sur la transparence et la sécurité. Dans ce contexte, la définition même de l’« ouverture » fait l’objet de débats intenses. Des experts de la société de sécurité open-source Endor Labs apportent leur éclairage sur ces questions cruciales.

Leçons du passé : le lien entre sécurité logicielle et IA

Andrew Stiefel, Responsable Marketing Produit chez Endor Labs, souligne l’importance d’adapter les leçons tirées de la sécurité logicielle aux systèmes d’IA. Il rappelle qu’un décret exécutif américain de 2021 impose aux organisations de produire un "software bill of materials" (SBOM) pour chaque produit vendu aux agences gouvernementales fédérales. Un SBOM est une liste détaillant les composants open-source d’un produit, facilitant ainsi la détection de vulnérabilités. Stiefel insiste : « Appliquer ces mêmes principes aux systèmes d’IA est une étape logique. »

Analyse de ce que signifie véritablement “ouvrir” un modèle d’IA

Julien Sobrier, Responsable Produit Senior chez Endor Labs, apporte une perspective essentielle à la discussion autour de la transparence en matière d’IA. Il met en lumière la complexité d’une catégorisation claire des systèmes d’IA comme étant véritablement ouverts.

« Un modèle d’IA se compose de plusieurs éléments : l’ensemble d’entraînement, les poids, et les programmes utilisés pour entraîner et tester le modèle », explique-t-il. « Pour qu’un modèle soit considéré comme ‘ouvert’, il est crucial de rendre l’ensemble de la chaîne disponible en open-source. » Sobrier critique également l’incohérence des grands acteurs, engendrant ainsi une confusion sur ce que signifie réellement l’ouverture.

A lire aussi :  Le Forum Économique Mondial dévoile un plan pour une IA équitable.

Il met en garde contre une tendance grandissante connue sous le nom de "open-washing", où des organisations revendiquent la transparence tout en imposant des restrictions. « Des fournisseurs cloud offrent une version payante de projets open-source sans contribuer à leur développement, ce qui complique la notion d’ouverture. »

L’initiative de DeepSeek : vers une plus grande transparence en IA

DeepSeek, un acteur controversé mais montante dans l’industrie de l’IA, s’efforce d’apporter des réponses à ces préoccupations en rendant une partie de ses modèles et codes open-source. Stiefel remarque : « DeepSeek a déjà publié les modèles et leurs poids en open-source. Ce prochain mouvement permettra une transparence accrue de leurs services hébergés. » Une telle transparence est bénéfique, proposant un cadre d’audit pour identifier d’éventuels risques de sécurité.

DeepSeek s’engage aussi à fournir des indications sur la gestion de l’infrastructure d’IA à grande échelle, une nécessité croissante alors que la vigilance s’accroît suite à des révélations sur des bases de données laissées sans protection.

Une montée en puissance de l’IA open-source

La volonté de DeepSeek de privilégier la transparence s’inscrit dans une tendance plus large, confirmée par un rapport d’IDC révélant que 60 % des entreprises préfèrent utiliser des modèles d’IA open-source pour leurs projets de génération d’IA. De plus, une enquête d’Endor Labs révèle que les organisations utilisent, en moyenne, entre sept et vingt-un modèles open-source pour leurs applications. L’objectif ? Optimiser les coûts d’API tout en choisissant le meilleur modèle pour chaque tâche.

A lire aussi :  IA en 2025 : Modèles axés sur l'objectif, intégration humaine et bien plus encore.

Sobrier rappelle la nécessité d’évaluer les dépendances des modèles d’IA. « Les entreprises doivent s’assurer de l’existence de droits d’utilisation légaux tout en évaluant les risques opérationnels et liés à la chaîne d’approvisionnement, de manière similaire aux bibliothèques open-source. »

Vers une gestion systématique des risques liés aux modèles d’IA

Avec l’essor des modèles d’IA open-source, la gestion des risques prend une importance croissante. Stiefel propose une approche systématique en trois étapes : découvrir les modèles d’IA utilisés, évaluer les risques potentiels, puis établir des garde-fous pour sécuriser leur adoption.

Trouver un équilibre entre innovation et gestion des risques représente un véritable défi. Stiefel insiste sur le besoin d’une visibilité totale pour les équipes de sécurité, afin de favoriser l’expérimentation tout en préservant la sécurité.

Au-delà de la transparence : des mesures pour un avenir responsable en IA

Pour garantir une croissance responsable de l’IA, l’industrie doit mettre en place des contrôles sur plusieurs dimensions : protection de l’utilisation des modèles hébergés par les employés, intégrations d’API sécurisées et développement de modèles open-source.

Sobrier appelle la communauté à ne pas céder à la complaisanceface à l’évolution rapide de l’IA : « Il est impératif de développer des bonnes pratiques pour la création de modèles IA sûrs et ouverts. » En conclusion, Stiefel résume : « Il faut penser à la sécurité sur plusieurs fronts et mettre en œuvre les contrôles appropriés pour chacun. »

A lire aussi :  L'éthique de l'IA et son impact sur vous - Actualités IA

L’évolution rapide de l’IA nécessite donc une vigilance constante et une adaptation des pratiques afin de naviguer dans le paysage complexe de la transparence et de l’ouverture.

A propos de l'auteur

Simon Robben

Simon Robben

Simon Robben est un expert reconnu en intelligence artificielle et en transformation numérique. Auteur principal du site Actualité I.A, il partage son expertise à travers des articles clairs et accessibles, dédiés à l'actualité de l'intelligence artificielle. Avec plusieurs années d'expérience dans le domaine, Simon suit de près les dernières avancées technologiques et leurs impacts sur les entreprises et la société.