Apple renforce son cadre de machine learning avec une prise en charge des GPU NVIDIA, révolutionnant le développement d’applications. Cette avancée permettra aux développeurs d’exploiter des performances accrues, propulsant l’innovation dans des secteurs variés, de la santé à l’automobile. Une étape décisive pour l’écosystème technologique.

Apple élargit son cadre d’apprentissage automatique avec le support des GPU NVIDIA
Le cadre d’apprentissage automatique MLX d’Apple, initialement conçu pour les puces Apple Silicon, bénéficie désormais d’un backend CUDA. Cela signifie que les développeurs peuvent exécuter des modèles MLX directement sur les GPU NVIDIA, une avancée significative dans le domaine de l’apprentissage automatique.
Développement dirigé par la communauté
Le projet est dirigé par le développeur @zcbenz sur GitHub, qui a commencé à prototyper le support de CUDA il y a quelques mois. Ce dernier a ensuite décomposé le projet en plusieurs sous-projets, fusionnant progressivement les éléments dans la branche principale de MLX d’Apple.
Bien que le backend soit toujours en cours de développement, plusieurs opérations fondamentales, telles que la multiplication de matrices, le softmax, la réduction, le tri et l’indexation, sont déjà prises en charge et testées.
Qu’est-ce que CUDA ?
CUDA, ou Compute Unified Device Architecture, représente l’équivalent de Metal pour les matériels NVIDIA. C’est une plateforme de calcul que l’entreprise a conçue spécifiquement pour ses propres GPU, maximisant leur potentiel pour les tâches de calcul parallèle à haute performance.
Pour beaucoup, CUDA est la norme pour exécuter des charges de travail d’apprentissage automatique sur les GPU NVIDIA. Elle est intégrée dans l’écosystème de l’apprentissage automatique, allant de la recherche académique au déploiement commercial. Des cadres comme PyTorch et TensorFlow, de plus en plus connus même en dehors des cercles d’IA, s’appuient tous sur CUDA pour exploiter l’accélération GPU.
Les raisons du support de CUDA par MLX
Initialement, MLX étant étroitement intégré à Metal sur les plateformes Apple, il n’était pas conçu pour fonctionner en dehors de macOS. Cependant, l’ajout d’un backend CUDA modifie cette situation, offrant ainsi aux chercheurs et ingénieurs la possibilité de prototyper localement sur un Mac en utilisant Metal et Apple Silicon, puis d’exécuter le même code sur de grands clusters GPU NVIDIA, qui dominent encore les charges de travail d’entraînement en apprentissage automatique.
Cependant, il existe encore des limitations, dont la plupart sont en cours de développement. Par exemple, tous les opérateurs MLX ne sont pas encore implémentés, et le support des GPU AMD est encore éloigné.
Néanmoins, amener le code MLX vers les GPU NVIDIA sans avoir besoin de le réécrire ouvre la porte à des tests plus rapides, à l’expérimentation et à des cas d’utilisation en recherche, ce qui est une excellente nouvelle pour les développeurs d’IA.
Pour ceux qui souhaitent explorer cette nouvelle fonctionnalité, les détails sont disponibles sur NVIDIA Developer.
Offres sur l’Apple Watch
Nous utilisons des liens d’affiliation générant des revenus. Plus.
Qu’est-ce que CUDA ?
CUDA (ou Compute Unified Device Architecture) est une plateforme de calcul que NVIDIA a créée spécifiquement pour fonctionner sur ses propres GPU et optimiser les tâches de calcul parallèle haute performance.
Pourquoi le MLX d’Apple prend-il maintenant en charge CUDA ?
Ajouter un backend CUDA permet aux chercheurs et ingénieurs de prototyper localement sur un Mac, en utilisant Metal et Apple Silicon, puis d’exécuter le même code sur des clusters GPU NVIDIA à grande échelle, dominants dans les charges de travail d’entraînement en machine learning.
Quels types d’opérations sont déjà supportés par le backend CUDA ?
Plusieurs opérations de base, telles que la multiplication de matrices, softmax, réduction, tri et indexation, sont déjà prises en charge et testées.
Quelles sont les limitations de la prise en charge de CUDA par MLX ?
Bien que plusieurs opérateurs MLX soient déjà supportés, tous ne le sont pas encore, et le support des GPU AMD est encore en cours de développement.






Discussion about this post