Autoscience a récemment levé le voile sur son projet révolutionnaire : Carl, le premier système d’intelligence artificielle capable de rédiger des articles de recherche académique et de passer le processus de révision par les pairs en double aveugle.
Carl a déjà démontré sa capacité en soumettant des travaux dans le cadre des Tiny Papers lors de la Conférence Internationale sur les Représentations d’Apprentissage (ICLR). Fait remarquable, ces soumissions ont été générées avec un minimum d’intervention humaine, signifiant un tournant dans la découverte scientifique pilotée par l’IA.
Carl : Un chercheur automatique de nouvelle génération
Cette intelligence artificielle ne se contente pas d’assister les chercheurs ; elle devient un acteur à part entière de la recherche académique. Carl est décrit comme « un scientifique de recherche automatisé » qui utilise des modèles de traitement du langage naturel pour concevoir, hypothétiser et citer des travaux scientifiques avec précision.
Sa capacité à analyser et comprendre des articles publiés en quelques secondes lui permet de travailler sans relâche, accélérant ainsi les cycles de recherche tout en abaissant les coûts expérimentaux.
Selon les propos d’Autoscience, Carl a menée à bien des hypothèses scientifiques novatrices, conçu et effectué des expériences, puis rédigé plusieurs articles académiques ayant réussi la révision par les pairs lors de divers ateliers. Cela démontre le potentiel de l’IA à non seulement compléter le travail humain, mais à le surpasser en termes de rapidité et d’efficacité.
La précision de Carl : Une collaboration humaine indispensable
La capacité de Carl à produire des travaux académiques de haute qualité repose sur un processus en trois étapes :
- Idéation et formulation d’hypothèses : En s’appuyant sur les recherches existantes, Carl identifie de nouvelles pistes de recherche et génère des hypothèses. Sa compréhension profonde de la littérature lui permet de formuler des idées inédites dans le domaine de l’IA.
- Expérimentation : Carl rédige du code, teste ses hypothèses et visualise les données obtenues à l’aide de figures détaillées. Son travail incessant réduit les temps d’itération et élimine les tâches redondantes.
- Présentation : En fin de parcours, Carl compile ses résultats dans des articles académiques soigneusement rédigés, accompagnés de visualisations de données et de conclusions clairement articulées.
Bien que Carl soit en grande partie autonome, l’intervention humaine reste essentielle à divers moments du processus :
- Validation des étapes de recherche : Pour éviter le gaspillage des ressources informatiques, des évaluateurs humains fournissent des signaux “continuer” ou “arrêter” à certaines phases du processus de Carl. Cette orientation permet à Carl de progresser plus efficacement dans ses projets sans impacter le contenu de la recherche.
- Citations et mise en forme : L’équipe d’Autoscience veille à ce que toutes les références soient correctement citées et formatées pour répondre aux normes académiques. Cela reste actuellement une étape manuelle, mais elle garantit que la recherche est conforme aux attentes du lieu de publication.
- Assistance pour les modèles pré-API : Dans certaines situations, Carl doit s’appuyer sur des modèles récents de chez OpenAI et Deep Research qui n’ont pas encore d’API accessibles. Dans ces cas, des interventions manuelles, comme le copier-coller des sorties, sont nécessaires. Autoscience prévoit que ces tâches seront entièrement automatisées à l’avenir, lorsque les API seront disponibles.
Pour son premier article, l’équipe humaine a également contribué à la rédaction de la section « travaux connexes » et à l’affinement du langage, bien que ces interventions soient devenues superflues après les mises à jour appliquées avant les soumissions ultérieures.
Un processus de vérification rigoureux pour l’intégrité académique
Avant toute soumission de recherche, l’équipe d’Autoscience a mis en œuvre un processus de vérification rigoureux pour s’assurer que le travail de Carl respectait les normes les plus élevées d’intégrité académique :
- Reproductibilité : Chaque ligne de code de Carl a été examinée et les expériences réitérées pour confirmer leur reproductibilité, garantissant ainsi que les résultats sont valides sur le plan scientifique et non des anomalies fortuites.
- Vérifications d’originalité : Autoscience a effectué des évaluations approfondies pour garantir que les idées de Carl constituaient de nouvelles contributions au domaine, et n’étaient pas de simples reformulations de publications existantes.
- Validation externe : Un hackathon impliquant des chercheurs de prestigieuses institutions académiques, telles que le MIT, l’Université de Stanford et l’Université de Californie à Berkeley, a permis une validation indépendante des recherches de Carl. Des vérifications de plagiat et de citation ont également été effectuées pour assurer le respect des normes académiques.
Un potentiel indéniable, mais des questions plus larges se posent
L’acceptation d’un article lors d’un atelier aussi respecté que l’ICLR représente une étape considérable, mais Autoscience est consciente de la discussion plus large que cela pourrait engendrer. Le succès de Carl soulève des questions philosophiques et logistiques sur le rôle de l’IA dans le milieu académique.
« Nous croyons que les résultats légitimes doivent être intégrés à la base de connaissances publiques, quelle que soit leur origine », a déclaré Autoscience. « Si une recherche satisfait aux normes scientifiques établies par la communauté académique, alors qui – ou quoi – l’a créée ne doit pas mener à une disqualification automatique. »
« Nous pensons également que l’attribution correcte est nécessaire pour une science transparente, et que les travaux générés uniquement par des systèmes d’IA doivent pouvoir être distingués de ceux produits par des humains. »
Le caractère novateur de chercheurs autonomes tels que Carl pourrait nécessiter un temps d’adaptation pour les organisateurs de conférences afin d’établir de nouvelles directives tenant compte de ce paradigme émergent, en veillant à garantir l’évaluation juste et des normes d’attribution intellectuelle appropriées. Pour éviter toute controverse actuelle, Autoscience a retiré les articles de Carl des ateliers ICLR jusqu’à ce que ces cadres soient définis.
À l’avenir, Autoscience ambitionne de contribuer à l’élaboration de ces nouveaux standards et envisage de proposer un atelier dédié lors de NeurIPS 2025 pour accueillir formellement les soumissions de systèmes de recherche autonomes.
Au fur et à mesure que l’histoire autour de la recherche générée par l’IA se développe, il est évident que des systèmes comme Carl ne sont pas de simples outils, mais des partenaires dans la quête de la connaissance. Cependant, à mesure que ces systèmes franchissent des frontières typiques, la communauté académique doit évoluer pour pleinement embrasser ce nouveau paradigme tout en préservant l’intégrité, la transparence et une attribution appropriée.
Pour en savoir plus sur l’IA et les grandes données via des leaders du secteur, assistez à l’AI & Big Data Expo qui aura lieu à Amsterdam, Californie et Londres. Cet événement complet est co-localisé avec d’autres événements phares tels que la Conférence sur l’Automatisation Intelligente, BlockX, Digital Transformation Week et Cyber Security & Cloud Expo.
Explorez d’autres événements et webinaires technologiques à venir propulsés par TechForge ici.
