Microsoft présente de nouvelles puces IA et met Copilot partout
Microsoft a tenu sa conférence annuelle Ignite. Cette année, l'accent a été mis sur le thème de l'intelligence artificielle. Outre de nouveaux outils et fonctions d'IA, le fabricant a également présenté du nouveau hardware pour l'entraînement de modèles de langage.
Microsoft a organisé sa conférence virtuelle pour les développeurs, Ignite, les 15 et 16 novembre 2023. Au premier plan de cet événement virtuel figurait - comment pourrait-il en être autrement - l'IA générative. Le premier jour de la conférence, la firme a présenté non seulement de nombreuses solutions d'IA, mais aussi du nouveau matériel.
Nouvelles puces & partenariats élargis
Microdoft a notamment annoncé de nouveaux produits pour son infrastructure de centre de données, dont deux nouvelles puces maison. La première, Microsoft Azura Maia, est un accélérateur d'intelligence artificielle. Selon l'entreprise, elle a été spécialement conçue pour l'entraînement et les inférences exécutées dans le cloud pour les processus d'IA, comme les modèles d'OpenAI, Bing ou Github Copilot. L'autre puce pour le cloud, Microsoft Azure Cobalt, est basée sur l'architecture ARM et a pour but d'améliorer les performances, l'efficacité énergétique et l'efficience des coûts pour les workloads ordinaires.
Microsoft a également annoncé la disponibilité générale d'Azure Boost. Ce système accélère le stockage et la mise en réseau en transférant ces processus des serveurs hôtes vers du matériel et des logiciels spécialement conçus.
Microsoft renforce en outre ses partenariats avec d'autres fabricants de matériel informatique. Azure est ainsi complété par des machines virtuelles accélérées ND MI300 VMs, via AMD MI300X. Selon Microsoft, celles-ci ont également été spécialement développées pour l'entraînement de modèles d'IA. Elles sont équipées du GPU Instinct MI300X actuel d'AMD.
La NC H100 v5 Virtual Machine Series, développée pour les GPU NVIDIA H100 Tensor Core, doit quant à elle offrir plus de puissance, de fiabilité et d'efficacité pour l'entraînement de l'IA dans le domaine des performances moyennes ainsi que pour l'inférence générative. Microsoft prévoit également d'utiliser à l'avenir la série de machines virtuelles ND H200 v5, une VM optimisée pour l'IA avec le prochain GPU NVIDIA H200 Tensor Core.
Nouveau nom pour Bing Chat & fonctionnalités pour Copilot
Microsoft veut rendre Copilot, son assistant IA maison, accessible à tous les utilisateurs et utilisatrices dans ses différentes versions. Bing Chat et Bing Chat Enterprise sont rebaptisés Copilot. L'offre devrait être disponible à partir du 1er décembre.
L'outil Low-Code Microsoft Copilot Studio, une autre nouveauté, doit permettre d'intégrer des données critiques dans Copilot et de créer ses propres Copilots. L'outil fonctionne avec des connecteurs, des plug-ins et des modèles GPT.
Microsoft Copilot for Service offre un support client basé sur les rôles. La solution aide à étendre les centres de contact clients existants avec l'IA générative.
L'entreprise lance également Copilot sur Azure, une solution destinée à aider les équipes IT à acquérir de nouvelles informations sur leurs workloads, à découvrir des fonctions Azure inexploitées et à contrôler les processus dans le cloud et à la périphérie.
Modèles réunis dans Azure AI Studio
Au cours de l'été 2023, Microsoft avait déjà annoncé qu'elle proposerait de nouveaux modèles d'IA comme LLama de Meta. L'entreprise crée à présent une plateforme pour rassembler tous les modèles en un seul endroit: Azure AI Studio. Les entreprises pourront y créer et entraîner leurs propres copilotes et améliorer d'autres modèles avec leurs propres données.
Le modèle GPT-3.5-Turbo d'OpenAI est par ailleurs disponible sur Azure OpenAI Service. Le modèle GPT-4-Turbo devrait également arriver cette année. Tous deux permettent, selon Microsoft, des prompts plus étendus et donc plus de contrôle sur les applications d'IA. Dans Azure OpenAI Service, DALL-E 3 est désormais également disponible.