Business et IA

Ant Group utilise des puces nationales pour former des modèles d’IA et réduire les coûts.

Ant Group utilise des puces nationales pour former des modèles d'IA et réduire les coûts.
Simon Robben
Écrit par Simon Robben

Ant Group met en avant des semi-conducteurs nationaux pour l’entraînement de ses modèles d’intelligence artificielle, marquant ainsi une volonté claire de réduire les coûts et de diminuer sa dépendance à la technologie américaine, souvent soumise à des restrictions. Cette stratégie repose sur l’utilisation de puces fournies par des acteurs chinois tels qu’Alibaba, sa société mère, ainsi que Huawei Technologies.

### Vers une autonomie technologique

L’entreprise, qui appartient au groupe Alibaba, a commencé à utiliser ces chips chinois pour entraîner ses modèles de langage de grande envergure à travers la méthode Mixture of Experts (MoE). Selon des sources bien informées, les performances obtenues avec ces semi-conducteurs seraient comparables à celles réalisées avec les puces H800 de Nvidia. Bien qu’Ant Group continue de recourir à certaines puces Nvidia pour ses projets d’intelligence artificielle, un changement notable vers des alternatives proposées par AMD et des fabricants chinois est en cours pour ses modèles les plus récents.

Ce développement témoigne de l’engagement d’Ant dans la compétition croissante entre les entreprises technologiques chinoises et américaines, chacun cherchant des solutions efficaces en matière de coûts pour l’entraînement de ses modèles. Le choix de matériel domestique s’inscrit dans une dynamique plus large pour contourner les restrictions d’exportation qui limitent l’accès à des puces haut de gamme telles que les H800 de Nvidia, qui, bien qu’elles ne soient pas les plus avancées, demeurent parmi les GPU les plus puissants accessibles aux entreprises chinoises.

A lire aussi :  L’Oréal : Rendre les cosmétiques durables grâce à l'IA générative.

### Des résultats prometteurs mais à vérifier

Ant Group a récemment publié un article de recherche détaillant ses travaux, évoquant des résultats de performance qui, dans certains cas, surpasseraient ceux des modèles développés par Meta. Cependant, le rapport de Bloomberg, qui a initialement rendu compte de cette information, n’a pas encore validé indépendamment ces résultats. Si ces modèles se comportent comme annoncé, l’entreprise pourrait ainsi contribuer à coûteux progrès en matière de réduction des dépenses liées à l’IA en Chine, tout en diminuant sa dépendance à l’égard de matériel étranger.

L’approche MoE qu’Ant utilise pour ses modèles consiste à décomposer des tâches en ensembles de données plus petits, chacun étant géré par des composants différents. Cette technique est de plus en plus prisée par les chercheurs et les data scientists, et a déjà été adoptée par Google et le startup DeepSeek à Hangzhou.

### Réduction des coûts de formation des modèles IA

Ant Group a centré ses recherches sur la réduction des barrières financières liées à l’entraînement de modèles de MoE, car l’acquisition de GPU haute performance peut être prohibitive pour les petites entreprises. Le titre de l’article de recherche en témoigne avec une indication claire : “Scalabilité des modèles sans GPU haut de gamme.”

L’orientation adoptée par Ant contraste avec la stratégie de Nvidia. En effet, le PDG Jensen Huang a affirmé que la demande en puissance de calcul continuera à croître, même avec l’émergence de modèles plus efficientes comme le R1 de DeepSeek. Selon lui, les entreprises viseront des puces plus puissantes pour maximiser leurs revenus, plutôt que de réduire les coûts avec des alternatives moins chères.

A lire aussi :  Initiative française pour des leaders en IA responsable - Actualités IA

### Des applications concrètes en vue

Ant révèle que le coût d’entraînement d’un trillion de tokens, les unités de base utilisées par les modèles d’IA, était d’environ 6,35 millions de yuans (environ 880 000 $) lorsqu’il utilisait des équipements conventionnels. Avec sa méthode optimisée, ce coût a été réduit à environ 5,1 millions de yuans grâce à des puces de specifications inférieures.

Les modèles développés, Ling-Plus et Ling-Lite, sont destinés à des applications industrielles dans des domaines tels que la santé et la finance. Ant a récemment acquis Haodf.com, une plateforme médicale en ligne chinoise, pour renforcer ses capacités dans la mise en œuvre de solutions basées sur l’IA dans le secteur de la santé. L’entreprise propose également divers services d’IA, tels que l’assistant virtuel Zhixiaobao et la plateforme de conseil financier Maxiaocai.

### Une ouverture vers le futur

Ant Group a décidé de rendre ses modèles open source, avec Ling-Lite comptant 16,8 milliards de paramètres et Ling-Plus en ayant 290 milliards. À titre de comparaison, le modèle GPT-4.5, qui est fermé, aurait environ 1,8 trillion de paramètres, selon le MIT Technology Review.

Malgré les avancées réalisées, le groupe met également en lumière les défis persistants dans l’entraînement de modèles, mentionnant que de petites modifications au niveau du matériel ou de la structure des modèles peuvent entraîner des performances instables, notamment des pics dans les taux d’erreur.

A lire aussi :  Machines à penser : la nouvelle startup IA de l'ancien CTO d'OpenAI.

À travers ces initiatives, Ant Group se positionne comme un acteur clé dans le futur développement de l’intelligence artificielle en Chine, tout en traduisant une volonté de s’affranchir des contraintes extérieures et d’optimiser ses processus de création technologique.

A propos de l'auteur

Simon Robben

Simon Robben

Simon Robben est un expert reconnu en intelligence artificielle et en transformation numérique. Auteur principal du site Actualité I.A, il partage son expertise à travers des articles clairs et accessibles, dédiés à l'actualité de l'intelligence artificielle. Avec plusieurs années d'expérience dans le domaine, Simon suit de près les dernières avancées technologiques et leurs impacts sur les entreprises et la société.