Cette semaine, l’entreprise a dévoilé la puce Azure Maia 100 AI et l’unité centrale Azure Cobalt 100, signalant une percée dans la formation et l’inférence de grands modèles de langage dans le cloud et les services généraux du cloud Azure.
Azure Maia 100 AI : pour LLM
Commençons par celui qui m’a le plus impressionné. L’Azure Maia 100 AI, avec 105 milliards de transistors et construit sur le processus TSMC de 5 nanomètres, est conçu spécifiquement pour la formation et l’inférence de grands modèles de langage dans le nuage.
Cette stratégie vise à réduire la dépendance de Microsoft à l’égard des GPU H100 de Nvidia, en ajoutant plus de flexibilité à ses services Azure.
Le Maia 100 devrait non seulement augmenter la densité des serveurs, mais aussi s’intégrer parfaitement dans les centres de données existants. Microsoft s’engage à partager ses types de données MX et ses conceptions de baies avec ses concurrents, afin de favoriser un effort collectif de l’industrie.
Processeur Azure Cobalt 100 : priorité à la performance et à la gestion de l’énergie
Nous poursuivons avec l’unité centrale Azure Cobalt 100, une puce ARM à 128 cœurs conçue pour les services généraux du cloud Azure, qui repose sur une conception ARM Neoverse CSS. Microsoft se concentre sur la gestion de l’énergie, permettant de contrôler les performances et la consommation d’énergie par cœur et par machine virtuelle.
Comme je l’ai dit hier, Microsoft a collaboré avec OpenAI pour analyser la façon dont les charges de travail OpenAI s’exécutent sur Azure, en optimisant l’architecture AI de bout en bout avec Maia. Des plans ont été annoncés pour étendre les partenariats avec Nvidia, AMD, Intel et Qualcomm afin d’offrir aux clients un plus grand choix d’infrastructures.
Bien que Microsoft n’ait pas encore révélé sa nouvelle structure de prix pour les serveurs, le passage à des puces internes pourrait profiter aux clients grâce à des coûts potentiellement inférieurs ou à une plus grande valeur par dollar. L’annonce de ces puces lors de la conférence Ignite marque une évolution vers l’autosuffisance en matière de développement de puces et une réduction de l’impact environnemental grâce à des innovations telles que le “sidekick”, un refroidisseur de liquide pour le rack Maia 100.
Le lancement par Microsoft de l’Azure Maia 100 AI et de l’unité centrale Cobalt 100 est une indication claire de son engagement en faveur de l’innovation et de l’autosuffisance en matière d’IA et de services cloud. Ces développements promettent une infrastructure plus efficace et plus adaptable pour répondre aux besoins de ses clients à l’ère de l’IA.