Qu’est-ce qu’un NPU ? Explications




Le NPU : Nouvelle Frontière de l’Intelligence Artificielle

Dans le paysage informatique contemporain, après l’omniprésence du CPU (Unité Centrale de Traitement) et du GPU (Unité de Traitement Graphique), le NPU (Unité de Traitement Neuronal) s’impose comme la nouvelle avancée majeure. Chaque acteur technologique s’efforce d’exploiter cette technologie de pointe pour enrichir ses produits de capacités d’IA générative et d’expériences utilisateur novatrices. L’arrivée des PC Copilot+, équipés des puces Snapdragon X de Qualcomm, dotées d’un NPU performant atteignant jusqu’à 45 TOPS (trillions d’opérations par seconde), marque le début officiel de l’ère du NPU. Simultanément, le dernier Neural Engine d’Apple, également désigné comme NPU, affiche une puissance de 38 TOPS. Des géants tels qu’Intel et AMD s’apprêtent également à lancer leurs NPUs de nouvelle génération pour les plateformes Lunar Lake et Strix Point, respectivement, avec des performances attendues de 48 et 50 TOPS. Une interrogation fondamentale se pose alors : qu’est-ce qu’un NPU et quel rôle joue-t-il au sein de l’architecture informatique ? Cet article a pour objectif d’éclaircir tous les aspects du NPU.

Qu’est-ce qu’un NPU Exactement ?

Le NPU, ou Unité de Traitement Neuronal, est une entité spécifiquement conçue pour les opérations liées à l’intelligence artificielle. Son domaine d’activité inclut le traitement des réseaux de neurones, les tâches d’apprentissage automatique et les charges de travail en IA.

Les NPUs sont spécialisés dans les calculs mathématiques spécifiques aux applications d’IA, avec une prédominance des multiplications de matrices (également appelées « matmul »). Ces unités sont optimisées pour réaliser ces opérations matricielles à des vitesses exceptionnelles.

Le traitement parallèle est un élément vital pour toute application d’IA, permettant aux réseaux de neurones d’exécuter plusieurs opérations simultanément. Les NPUs possèdent des accélérateurs spécialisés qui garantissent un parallélisme étendu. Associés à une mémoire à large bande passante, les NPUs peuvent réaliser rapidement les opérations de « matmul » en parallèle sur une multitude de cœurs.

En bref, les NPUs sont conçus pour les tâches d’IA, en mettant l’accent sur le parallélisme, la rapidité des opérations de « matmul » et la capacité d’adaptation. Il est à noter que les fabricants nomment diversement les NPUs : Google parle de TPU (Tensor Processing Unit) et Apple utilise l’appellation Neural Engine.

Les Différences Entre NPU, CPU et GPU

Comme mentionné précédemment, les NPUs sont dédiés aux tâches d’IA, agissant comme des unités de traitement spécialisées. À l’inverse, le CPU est une unité polyvalente apte à traiter une grande variété d’opérations. Les CPUs, par exemple, gèrent les fonctions du système d’exploitation et les applications générales. Leur adaptabilité leur permet de prendre en charge presque toutes les requêtes. Les CPUs excellent dans les tâches séquentielles, mais montrent leurs limites dans le cadre d’opérations parallèles.

Les GPUs, quant à eux, sont spécifiquement conçus pour le rendu graphique, ce qui les rend particulièrement performants dans les jeux et les simulations. Les GPUs sont plus proches des NPUs, car ils peuvent aussi gérer des tâches en parallèle. C’est pour cela qu’ils sont souvent utilisés pour l’entraînement des modèles d’IA. Cependant, les NPUs, étant entièrement conçus pour les opérations d’IA, surpassent les GPUs en termes de rapidité et d’efficacité.

Il convient de rappeler qu’aux débuts de l’informatique, en l’absence de GPU ou NPU, le CPU gérait entièrement le rendu graphique via des logiciels. Avec l’avancée technologique des années 1990, les GPUs ont été introduits pour prendre en charge les graphiques grâce à du matériel dédié. Aujourd’hui, nous assistons à l’émergence du NPU.

Ces unités de calcul sont désormais développées pour des fonctions spécifiques, allégeant le CPU de la contrainte d’effectuer toutes sortes de tâches, ce qui se traduit par une amélioration de l’efficacité et des performances. Bien que les NPUs suscitent un intérêt croissant, il est important de rappeler que les GPUs continuent d’être largement utilisés pour l’entraînement des modèles d’IA, tandis que les NPUs sont fréquemment sollicités pour l’inférence. Par exemple, Google a entraîné son modèle Gemini sur son TPU.

Applications des NPUs dans les Ordinateurs Portables

Les NPUs, ou accélérateurs matériels spécifiquement dédiés à l’IA, étaient initialement utilisés par les grandes entreprises pour le traitement en parallèle. Cependant, aujourd’hui, des produits destinés au grand public tels que les ordinateurs portables et les smartphones intègrent également des NPUs. Les nouveaux PC Copilot+ de Microsoft, par exemple, sont dotés d’un NPU performant capable de prendre en charge des fonctionnalités telles que Recall, dont le lancement est temporairement reporté, mais qui devrait être disponible dans les mois à venir.

Recall permet la capture d’écrans, le traitement des données sur l’appareil grâce au NPU et la création d’un index vectoriel. Si cette opération avait été exécutée par le CPU ou le GPU, cela aurait consommé davantage de batterie. Grâce à l’intégration d’un NPU, il est possible d’effectuer des opérations d’IA sans nuire à l’autonomie de la batterie ni surcharger le CPU ou le GPU.

De même, les NPUs permettent des fonctionnalités telles que Cocreator dans MS Paint, la génération d’images dans l’application Photos, la suppression des arrière-plans des clips vidéo, l’application d’effets visuels grâce à Magic Mask sur DaVinci Resolve, l’amélioration de la définition des images dans les jeux, l’application des effets de Windows Studio, la génération de traductions et de transcriptions en temps réel, et bien d’autres applications.

L’utilisation des NPUs ne fera que croître, libérant le CPU et le GPU de ce type de tâches, ce qui rendra les appareils plus rapides et moins énergivores.

Apple, de son côté, utilise son Neural Engine, ou NPU, pour prendre en charge de nombreuses fonctionnalités d’intelligence sur iOS, iPadOS et macOS. Le modèle d’IA embarqué exploite le Neural Engine pour synthétiser les courriels, prioriser les notifications, générer des résumés d’enregistrements d’appels, créer des images et bien plus encore. Le nouveau Siri utilise également le Neural Engine pour gérer de nombreuses fonctions d’IA.

Conclusion

En conclusion, le NPU représente un nouvel accélérateur matériel ouvrant la voie à de nouvelles possibilités dans le domaine de l’IA. Il ne s’agit là que d’un début, et de nombreuses applications et expériences basées sur le NPU sont à prévoir dans un avenir proche. À mesure que la technologie continue d’évoluer, le NPU pourrait bien devenir un élément essentiel dans le futur du traitement de l’intelligence artificielle.