Lambda, le superordinateur dans le cloud, a déployé des systèmes GB300 NVL72 à hydrogène et de qualité production Nvidia (NASDAQ:NVDA) sur le campus de Mountain View de l’ECL. Le centre de données modulaire hors réseau, MV1, fonctionne entièrement à l’aide de piles à combustible à hydrogène, sans émissions ni consommation d’eau, tout en supportant l’inférence IA et la formation de modèles à grande échelle.
Super Micro Computer (NASDAQ:SMCI) a construit les unités GB300 NVL72, chacune fournissant 142 kW de puissance de calcul et refroidie par des systèmes liquides direct-to-chip qui recyclent l’eau produite lors de la génération d’énergie à hydrogène.
A lire aussi : Supermicro dévoile de nouveaux serveurs d’IA à Madrid
Lambda a entièrement intégré les systèmes de 4000 livres dans l’installation en deux heures, établissant ainsi une référence pour le déploiement rapide d’infrastructures d’IA à haute densité.
Ken Patchett, vice-président de l’infrastructure des centres de données chez Lambda, a déclaré que les systèmes fonctionnant à l’hydrogène constituent la base des usines d’IA durables à l’échelle du gigawatt. Pour renforcer son engagement, Lambda a doublé son empreinte à l’ECL, passant de 50 à 100 %.
En août, Super Micro Computer a annoncé que Lambda avait déployé ses serveurs optimisés pour les unités de traitement graphique (GPU), y compris les systèmes basés sur Nvidia Blackwell, pour étendre son infrastructure d’IA. Le déploiement, ancré par l’AI Supercluster de Super Micro Computer avec les racks Nvidia GB200 et GB300 NVL72, alimente la formation et l’inférence à grande échelle. Le déploiement de Lambda ajoute également des serveurs économes en énergie avec un refroidissement avancé, ce qui accélère l’adoption de l’IA de nouvelle génération à mesure que les géants de la technologie mondiaux enregistrent des dépenses records en matière d’infrastructure.
Mouvements des prix : Mardi, dans les échanges en avant-marché, les actions de SMCI s’élevaient de 1,45 % à 47,55 dollars. NVDA est en baisse de 0,83 %.
A lire ensuite :
Image : Shutterstock