Une Révolution des Modèles d’Apprentissage Profond par les CPU
Damian Bogunowicz, ingénieur en apprentissage automatique chez Neural Magic, a partagé des perspectives éclairantes sur l’approche innovante de l’entreprise concernant l’optimisation des modèles d’apprentissage profond et leur exécution sur des unités centrales de traitement (CPU). En raison des exigences croissantes en matière de taille et de puissance de calcul des modèles d’apprentissage profond, Neural Magic a choisi d’aborder ces défis sous un nouvel angle en utilisant le concept de la sparsité combinée.
La Sparsité Combinée : Une Solution Prometteuse
La sparsité combinée est une méthode qui inclut des techniques telles que l’élagage non structuré, la quantisation et la distillation pour réduire de manière significative la taille des réseaux de neurones tout en conservant leur précision. Selon Bogunowicz, Neural Magic a mis au point un runtime sensible à la sparsité qui exploite l’architecture des CPU pour accélérer les modèles rares. Cette approche remet en question l’idée selon laquelle les unités de traitement graphique (GPU) sont indispensables pour un apprentissage profond efficace.
Bénéfices pour les Entreprises
L’ingénieur met en avant les multiples avantages d’un tel modèle, notamment des déploiements plus rapides et la possibilité d’exécuter des modèles sur des systèmes CPU largement disponibles. Cela représente une véritable avancée pour les praticiens de l’apprentissage automatique, leur permettant de dépasser les limites et les coûts associés à l’utilisation des GPU. À propos de la pertinence de ces réseaux de neurones sparsifiés pour les entreprises, Bogunowicz affirme que la grande majorité d’entre elles peut tirer profit de cette technologie. En se débarrassant de 90% des paramètres sans affecter la précision, les entreprises peuvent atteindre des déploiements optimisés.
Perspectives d’Avenir pour les Modèles de Langage
Bogunowicz se montre également enthousiaste quant à l’avenir des grands modèles de langage (LLMs) et à leurs applications. Il évoque des possibilités telles que des agents d’IA pouvant agir comme des assistants personnels sur des plateformes de messagerie, et il cite l’exemple d’un chatbot utilisé par Khan Academy, qui aide les étudiants à développer leurs compétences en résolution de problèmes. La recherche menée chez Neural Magic a démontré qu’il est possible d’optimiser ces modèles pour un déploiement sur CPU, avec des résultats prometteurs publiés dans un article sur SparseGPT. Cela laisse penser qu’il pourrait ne plus être nécessaire de disposer de clusters GPU à l’avenir.
Innovations à Venir
Lors du prochain événement AI & Big Data Expo Europe, Neural Magic prévoit de révéler deux avancées majeures. La première concerne la prise en charge des modèles d’IA sur des dispositifs en périphérie, notamment sur des architectures x86 et ARM, ouvrant ainsi la voie à de nombreuses nouvelles applications dans divers secteurs. La seconde innovation est leur plateforme d’optimisation de modèles, Sparsify, qui facilite l’application de techniques avancées d’élagage, de quantisation et de distillation via une interface web conviviale.
Un Engagement pour la Démocratisation de l’IA
L’engagement de Neural Magic à démocratiser l’infrastructure de l’apprentissage automatique, en tirant parti des CPU, est une initiative impressionnante. Leur approche centrée sur la sparsité combinée et leurs avancées dans le domaine de l’informatique en périphérie témoignent de leur volonté d’autonomiser à la fois les entreprises et les chercheurs. Alors que l’industrie attend avec impatience les innovations qui seront présentées lors de l’exposition, il est clair que Neural Magic est bien partie pour avoir un impact majeur dans le domaine de l’apprentissage profond.
Pour découvrir l’intégralité de l’entretien avec Bogunowicz, nous vous invitons à consulter notre vidéo disponible en ligne. Neural Magic, sponsor clé de cette année, sera présent au stand #178 lors de l’AI & Big Data Expo Europe, prévu à Amsterdam les 26 et 27 septembre 2023.