2025-04-03 04:00:00
Christopher Bishop, figure emblématique de l’application de l’intelligence artificielle chez Microsoft, dirige le laboratoire AI for Science, créé en 2022. Ce laboratoire se consacre à l’utilisation de l’IA dans les sciences naturelles, avec pour mission d’accélérer les découvertes scientifiques par le biais de technologies avancées.
Chaque jour, son équipe s’attaque à des sujets variés allant de la découverte de nouveaux matériaux à la prévision météorologique, en intégrant les modèles d’IA pour anticiper les changements atmosphériques. Au cours d’un entretien avec Madhumita Murgia, rédactrice spécialisée en IA au Financial Times, Bishop partage sa conviction que la découverte scientifique pourrait devenir la plus importante application des technologies d’intelligence artificielle.
Madhumita Murgia : Qu’est-ce qui a poussé Microsoft à fonder le laboratoire AI for Science en 2022, avec vous à sa tête à Cambridge ? Quel est son objectif ?
Christopher Bishop : La mission de notre laboratoire consiste à dynamiser la découverte scientifique en intégrant l’IA dans le domaine des sciences naturelles telles que la chimie, la physique, la biologie et même certaines branches comme l’astronomie. Mon parcours a débuté dans la physique, notamment la physique des plasmas pour la fusion, avant de m’orienter vers le domaine des réseaux de neurones il y a maintenant 35 ans.
À mesure que le mouvement du deep learning prenait de l’ampleur, il m’a apparu que la capacité des modèles d’IA à transformer la découverte scientifique était exponentielle. Avant la formation de notre équipe, plusieurs projets pertinents étaient dispersés au sein de Microsoft Research. Cela nous a conduit à vouloir les rassembler, d’une part en capitalisant sur les travaux existants et d’autre part en attirant de nouveaux talents pour en faire un pôle d’excellence.
Je suis persuadé que la découverte scientifique sera l’application phare de l’intelligence artificielle.
Échange sur l’IA

Ce spin-off de notre série Tech Exchange populaire examinera les avantages, les risques et l’éthique de l’utilisation de l’intelligence artificielle, en discutant avec ceux qui sont au cœur de son développement.
Le rôle fondamental de la découverte scientifique réside dans sa capacité à ouvrir de nouvelles perspectives sur le monde qui nous entoure. Cela impacte profondément l’amélioration des conditions humaines à travers divers domaines, notamment l’agriculture, l’industrie, la découverte de médicaments, la santé, ainsi que le développement de nouvelles formes d’énergie, durables et respectueuses de l’environnement.
MM : Vous avez évoqué votre passage de la physique à l’IA. Geoffrey Hinton, pionnier de l’intelligence artificielle, a récemment reçu le prix Nobel de physique. Cette double appartenance a surpris de nombreuses personnes. Comment avez-vous fait cette transition ?
CB : Depuis mon adolescence, l’idée d’intelligence artificielle et le mystère du cerveau humain m’ont toujours fasciné. Ce dernier est capable de prouesses étonnantes en matière de traitement de l’information et de créativité. Cependant, à l’époque, la conception de règles pour faire « paraître » un ordinateur intelligent ne me semblait pas satisfaisante.
Puis, des chercheurs comme Geoffrey Hinton ont commencé à proposer une alternative appelée connectionisme, qui est à l’origine des réseaux de neurones modernes. J’y ai vu un véritable potentiel pour reproduire certaines capacités cognitives humaines. J’ai donc pris la décision audacieuse de quitter une carrière prometteuse en physique théorique pour rejoindre un domaine qui était alors perçu comme nébuleux.
Rétrospectivement, ce choix s’est avéré judicieux alors que l’IA est aujourd’hui à l’avant-garde de la transformation technologique.

© Alain Jocard/AFP via Getty Images
MM : Avec vos 35 ans d’expérience dans ce domaine, quels événements marquants ont transformé le secteur ? Quelles ont été les grandes étapes qui ont jalonné ce parcours ?
CB : À un niveau macro, trois grands jalons se dégagent. À l’origine, le développement des réseaux de neurones restait limité, malgré l’enthousiasme des pionniers comme Hinton. Bien que ces modèles soient inspirés par la neurobiologie, j’ai réalisé que nous étions avant tout en train de manipuler des statistiques, même si elles étaient complexes.
Ensuite, bien que ces modèles aient été capables de résoudre des problèmes intéressants, leur performance brute ne les rendait pas adaptés aux applications du monde réel. Une certaine stagnation s’est ensuite installée sur le terrain des réseaux de neurones pendant une période.
Le véritable tournant s’est opéré en 2012 avec l’essor du deep learning, qui a révolutionné notre capacité à entraîner des réseaux de neurones à plusieurs couches. Ce développement a profondément transformé le paysage technologique et a ouvert la voie à des solutions plus efficaces à des problèmes qui restaient jusqu’alors insolubles.
MM : À quel moment avez-vous commencé à être impressionné par les capacités des modèles de langage et à envisager qu’ils pourraient représenter une nouvelle étape dans l’évolution de ces systèmes ?
CB : J’ai eu l’opportunité unique d’accéder à GPT-4 avant sa mise sur le marché. Cela a été un moment charnière, car j’ai pu constater à quel point cette technologie améliorait la génération de langage. Sa capacité à raisonner de manière rudimentaire, au-delà de la simple génération de texte pertinent, était une avancée inimaginable pour l’époque.
Cela m’a rappelé le premier vol des frères Wright ; bien que ce vol n’ait duré que 120 pieds, il représentait le début d’une toute nouvelle ère. Ce fut une expérience marquante de réaliser que je parlais à une machine qui présentait des tangentes d’intelligence artificielle, même si nous sommes encore très loin d’égaler l’intelligence humaine.

© Nicolas Maeterlinck/BELGA MAG/AFP via Getty Images
MM : Selon vous, quelles branches de la science ont connu les changements les plus significatifs grâce à l’IA et dans quels domaines constatez-vous des avancées concrètes ?
CB : L’enthousiasme que je ressens provient des applications des modèles de langage à divers travaux de recherche. Prenons l’exemple d’une entreprise pharmaceutique cherchant à développer un médicament pour une maladie particulière. Le nombre de molécules organiques à examiner est astronomique, de l’ordre de 10 puissance 60.
Explorer cette immensité pour trouver une ou deux molécules capables de répondre à des critères précis est un défi colossal, qui nécessite des équipes entières pendant des années. En tant que scientifique, dans un monde idéal, il serait nécessaire de lire et de maîtriser chaque publication jamais écrite. Toutefois, cela est impossible pour un être humain, mais c’est ce qu’un modèle de langage peut accomplir.
Cela dit, la recherche scientifique est également expérimentale, basée sur des preuves et des essais. Dans des domaines comme la recherche moléculaire, les scientifiques effectuent de nombreuses expériences. Le recours à l’IA peut grandement accélérer ce processus itératif et finalement redéfinir notre approche des recherches scientifiques.
MM : Pourquoi Microsoft souhaite-t-elle investir dans le domaine scientifique ? Quelles avancées sont prometteuses pour des entreprises comme Microsoft ?
CB : En tant que leader dans le domaine de l’intelligence artificielle, nous possédons une infrastructure impressionnante et cherchons à l’étendre. Identifier les domaines où cette technologie peut apporter des bénéfices est crucial. Notre conviction, largement partagée au sein de l’entreprise, est que la découverte scientifique est un secteur qui va connaître des transformations significatives grâce à l’IA.
De plus, l’importance sociétale de cette recherche est essentielle puisqu’elle soutient le développement humain dans son ensemble. Le rôle de Microsoft est d’accélérer et d’autonomiser le travail des autres. Nous considérons des domaines comme la découverte de médicaments, la conception de matériaux, et des innovations en matière d’énergie durable, et croyons fermement que l’IA sera un puissant catalyseur dans ces domaines.
MM : Pensez-vous que le paradigme actuel, où les modèles d’IA, notamment les LLM, nécessitent toujours plus de puissance de calcul et de données pour de nouvelles avancées, représente un risque important ? Existe-t-il des alternatives possibles pour parvenir à des systèmes d’IA plus puissants qui pourraient être appliqués ?
CB : L’apprentissage automatique est un domaine riche en potentialités. Bien que le framework des modèles de langage ait reçu beaucoup d’attention, il existe une multitude d’approches qui n’ont pas encore été explorées. L’architecture en profondeur et l’attention portée aux modèles existants n’est qu’un début.
On observe le besoin de solutions complémentaires ou de variations des techniques actuelles. Ces alternatives représentent un vaste terrain à explorer. En intégrant des principes de physique dans l’architecture des modèles, nous pouvons développer des outils plus adaptés à certaines tâches spécifiques. Nous avons récemment développé un modèle, TamGen, capable de générer des molécules prometteuses, illustrant notre approche innovante dans la découverte médicale.
En somme, bien que la voie actuelle pour l’évolution des modèles trouve ses fondements dans le scaling, il demeure crucial de rester ouvert aux alternatives et aux nouvelles idées qui émergeront à l’avenir.
MM : Quelles évolutions envisagez-vous pour l’IA dans le domaine scientifique dans les deux à cinq prochaines années ?
CB : Ce qui est désormais évident, c’est la capacité à accomplir des tâches connues en utilisant une quantité phénoménale de puissance de calcul, et d’être en mesure de le faire beaucoup plus rapidement. Par exemple, les prévisions météorologiques sont de plus en plus précises. L’idée d’un émulateur, une sorte de cinquième paradigme, semble être robuste à travers de nombreux scénarios.
Il est probable que dans les prochaines années, des avancées significatives se manifesteront, s’incarnant dans des outils concrets que les chercheurs pourront utiliser pour transformer leur travail quotidien.