Effet IA sur le marché IT

Les fournisseurs qui profitent des investissements massifs des géants de l'IA

Les géants de l’IA ont investi massivement ces derniers mois dans leurs capacités de calcul et comptent accélérer la cadence. Fournisseur quasi-exclusif des puces coûteuses taillées pour l’IA, Nvidia voit ses revenus s’envoler. Mais d’autres équipementiers IT en profitent aussi et des puces alternatives émergent.

(Photo: Alexander Grey sur Unsplash)
(Photo: Alexander Grey sur Unsplash)

Début 2024, ICTjournal dressait le constat que l’essor de l’IA générative bénéficiait financièrement pour l’heure surtout aux fabricants de semiconducteurs écoulant leurs super-puces taillées pour l’IA aux géants du cloud. Six mois plus tard, le phénomène s’est encore accentué et les gains n’ont que modérément ruisselé vers les éditeurs de logiciel et les prestataires de services IT.

Investissements massifs dans les capacités de calcul

Les dernières annonces de résultats trimestriels ont ainsi été marquées par la hausse des investissements des géants de la tech régatant dans l’entraînement de grands modèles de langage. 

Google a ainsi investi plus de 13 milliards de dollars en un trimestre (presque deux fois plus qu’un an avant) et indique que ces dépenses sont largement liées aux investissements dans son infrastructure technique et qu’elles vont se maintenir à ce niveau élevé durant l’exercice suivant. 

Durant la même période, Microsoft a vu ses dépenses Capex progresser de 78% à 19 milliards de dollars et signale que ces dernières sont presque entièrement consacrées au développement des capacités IA – moitié pour les serveurs et puces, moitié pour les datacenters. La firme a averti que ces montants allaient encore augmenter jusqu’à l’été 2025.

Chez Meta enfin, les investissements trimestriels ont crû de 33% sur un an à plus de 8 milliards de dollars et devraient encore augmenter au prochain semestre. 

Aux investisseurs perplexes face à l’envolée de ces dépenses, les trois firmes avancent le même argument : il faut saisir l’opportunité que représente l’IA générative et il serait risqué de ne pas être aux avant-postes. 

«A ce stade, je préfère prendre le risque de renforcer les capacités avant qu'elles ne soient nécessaires, plutôt que trop tard, compte tenu des longs délais de mise en œuvre des nouveaux projets d'infrastructure», explique ainsi Mark Zuckerberg. 

CEO de Google, Sundar Pichai tient quasiment les mêmes propos : «Lorsque vous traversez une courbe comme celle-ci, le risque de sous-investissement est bien plus grand que le risque de surinvestissement. Même dans les scénarios où il s'avère que nous surinvestissons, il s'agit d'infrastructures qui nous sont largement utiles, qui ont une longue durée de vie, et que nous pouvons exploiter de façon transversale».

Au niveau du marché, Gartner estime que les dépenses en systèmes équipant les centres de données augmenteront de 24% en 2024, et ceci en grande partie en raisons des plans pour l’IA générative.

Envolée de Nvidia

Nvidia est le premier à profiter de ces investissements. Son segment datacenter, qui comprend les systèmes Hopper (et le futur Blackwell) tant prisés des développeurs d’IA, a atteint des revenus record de plus de 26 milliards de dollars au dernier trimestre, soit une envolée de +154% en un an (+427% au trimestre précédent). Selon la firme, les hyperscalers comptent pour environ 45% du chiffre d’affaires du segment. «Nous constatons une augmentation de la demande de Hopper au cours de ce trimestre. Et nous nous attendons à ce que la demande dépasse l'offre pendant un certain temps, étant donné que nous passons maintenant à H200 et à Blackwell. Tout le monde est impatient de mettre son infrastructure en ligne», relevait Nvidia lors de la publication de ses résultats au trimestre précédent.

graphique

Et la demande promet de grossir. «La quantité de calcul nécessaire pour entraîner le Llama 4 sera probablement près de 10 fois supérieure à celle que nous avons utilisée pour entraîner Llama 3 - et les modèles futurs continueront à se développer au-delà», avertissait récemment Mark Zuckerberg. Premier gagnant de la course à l’entraînement de modèles de plus en plus grands dans laquelle sont engagés les géants de l’IA, Nvidia a donc tout intérêt à stimuler cette compétition. «Le temps est vraiment, vraiment précieux pour eux. La raison en est que la prochaine entreprise qui atteindra le prochain grand plateau pourra annoncer une IA révolutionnaire», avance sans surprise Jensen Huang, patron de Nvidia.

Infrastructure: les gagnants collatéraux

Si Nvidia se taille plus que la part du lion de ces investissements, les fournisseurs des serveurs abritant les GPU tirent leur épingle du jeu et ne s’en cachent pas lors de l’annonce de leurs résultats trimestriels. 

A commencer par Oracle. La firme, qui s’enorgueillit de fournir des équipements à OpenAI, dit avoir signé une trentaine de contrats IA pour 12 milliards de dollars au cours du dernier trimestre. «Cette course à l'IA va durer longtemps. Il ne s'agit pas de prendre de l'avance, vous devez également maintenir votre modèle à jour, et cela nécessitera des centres de données de plus en plus grands», se réjouit Larry Ellison, fondateur et actuellement CTO d’Oracle.

Le ton est tout aussi optimiste chez Dell, qui a vu ses ventes de serveurs bondir de 42% sur un an pour atteindre près de 5,5 milliards de dollars au dernier trimestre, dont un tiers pour les systèmes optimisés pour l’IA. «Aucune entreprise n'est mieux positionnée que Dell pour apporter l'IA à l'entreprise», a déclaré Jeff Clarke, vice-président et directeur de l'exploitation de Dell Technologies. Au printemps, la firme a annoncé qu’elle livrerait les équipements servant à Grok, la venture IA d’Elon Musk.

Du côté de HPE, les ventes de serveurs ont progressé de 18% en un an. A quelque 900 millions de dollars, les systèmes IA représentent environ un quart des revenus du segment. «Notre expertise approfondie dans la conception, la fabrication et l'exploitation de systèmes d'IA à grande échelle a alimenté la croissance des commandes cumulées de systèmes d'IA à 4,6 milliards de dollars», a commenté Antonio Neri, CEO de Hewlett Packard Enterprise. 

La part déjà importante des systèmes IA dans les revenus des équipementiers s’explique en partie par leur prix élevé. Selon l’analyse d’Omdia, ces systèmes optimisés représentent actuellement 19% des serveurs vendus pour 66% des revenus. Les systèmes optimisés sont plus chers mais aussi moins rentables. Dell et HPE expliquent ainsi que la part croissante de systèmes IA dans leurs ventes de serveurs impacte négativement la marge du segment. 

Autre gagnant collatéral de ces investissements: l’industrie des datacenters. Rappelons que pour chaque dollar dépensé en équipements IA, un autre dollar est dépensé dans les terrains et l’infrastructure physique d’hébergement. Les analystes d’Omdia estiment que l’IA est le principal moteur des investissements dans les centres de données qui devraient augmenter de près de 30% en 2024.

Puces alternatives

Du côté des plateformes GPU, la mainmise de Nvidia entraîne une dépendance de nature à inquiéter les géants de l’IA. Selon les analystes de Mizuho Securities, le fondeur détiendrait entre 70% et 95% du marché des puces servant à l’entraînement et à l’inférence des grands modèles de langage. 

Microsoft et Meta ont ainsi annoncé l’an dernier leur intention de diversifier leur approvisionnement en se fournissant chez AMD. Alors que, de son propre aveu, Intel peine à profiter de l’essor de l‘IA générative, AMD développe rapidement son business IA. Dans le domaine des puces pour serveurs, la firme a vu ses revenus plus que doubler en un an à 2,8 milliards de dollars au dernier trimestre. Un véritable bond, même si l’on reste très loin des 22 milliards de Nvidia sur la même période. 

AMD ne s’en cache pas : elle a de grandes ambitions sur un marché dont elle estime qu’il pourrait atteindre les 400 milliards de dollars en 2028. Le fondeur vient d’ailleurs de racheter ZT Systems, société américaine spécialisée dans les systèmes et puces pour datacenters. « Notre acquisition de ZT Systems est la prochaine étape majeure de notre stratégie à long terme en matière d'IA visant à fournir des solutions de formation et d'inférence de leadership qui peuvent être rapidement déployées à l'échelle des clients du cloud et des entreprises», a déclaré Lisa Su, CEO d’AMD.

A cela s’ajoute qu’AMD profite aussi du succès des PC IA. «Les progrès rapides de l'IA générative stimulent la demande de calcul sur tous les marchés, ce qui crée des opportunités de croissance significatives à mesure que nous fournissons des solutions d'IA de premier plan dans l'ensemble de nos activités», explique l’entreprise.

Outre le recours aux puces d’AMD, les hyperscalers développent peurs propres alternatives à Nvidia. Google a ainsi indiqué s’être servi de son système Trillium pour entraîner Gemini, tandis que Microsoft travaillerait sur deux systèmes baptisés Maia et Cobalt. 

Mais le champion dans le domaine est Amazon, qui mise grandement sur ses propres puces Trainium et Inferentia. Répondant à la question d’un analyste, Andre Jassy, patron d’Amazon expliquait que, comme pour les CPU puis les GPU, la conception maison est le seul moyen d’optimiser la performance et le prix. 

AWS n’a toutefois pas formellement arrêté de s’approvisionner chez Nvidia et ses dépenses en capitaux sont à la hausse. «Pour le reste de l'année 2024, nous nous attendons à ce que les investissements en capital soient plus élevés au second semestre. La majorité des dépenses sera destinée à soutenir le besoin croissant d'infrastructure AWS, car nous continuons à voir une forte demande à la fois dans l'IA générative et dans nos charges de travail d'IA non générative», explique la firme. La croissance des investissements d’AWS est toutefois bien inférieure avec celle de ses concurrents, elle est par exemple huit fois moins importante que chez Microsoft.

Retour sur investissement ?

Pour l’heure, ces dépenses massives n’ont qu’un impact modéré sur les revenus des géants de l’IA, qui se montrent optimistes et appellent les investisseurs à faire preuve de patience. Dans l’appel accompagnant la publication des résultats trimestriels, Amy Hood,  CFO de Microsoft expliquait que les infrastructures dans lesquelles la société investit serviraient ces 15 prochaines années.  

«Je pense qu'en gros, les modèles convergent tous vers un ensemble de capacités de base. Mais je pense que la prochaine étape consistera à construire des solutions au-dessus de ces capacités. Et je dirais qu'il y a des domaines, que ce soit le codage, le service client, etc., où nous voyons que des cas d'utilisation sont en train de se développer, mais je pense qu'il y a encore beaucoup de travail à faire pour débloquer complètement ces usages», expliquait Sundar Pichai, CEO de Google.

Quel est l’impact actuel de l’IA générative sur les revenus des hyperscalers? Qui sont leurs plus gros consommateurs ? Comment comptent-elles retomber sur leurs pattes et transformer leurs dépenses massives en revenus? C’est la question que se pose nombre d’investisseurs et c’est le sujet du prochain article de cette série. 

Tags
Webcode
vLJP6R5w