Supermicro accélère la diffusion mondiale de ses systèmes NVIDIA Blackwell Ultra, avec des livraisons en volume de solutions Plug-and-Play, destinées à transformer les infrastructures informatiques des centres de données. Fort d’une expertise reconnue dans le déploiement rapide de technologies de pointe, le fabricant propose un portefeuille complet de configurations optimisées pour répondre aux exigences croissantes de l’intelligence artificielle à grande échelle. Ces innovations, validées à l’échelle du système, du rack et du centre de données, ouvrent de nouvelles perspectives pour les acteurs du numérique, du cloud computing, et des environnements 5G/Edge.
Production en série des systèmes NVIDIA Blackwell Ultra pour les centres de données
Supermicro vient de franchir une étape majeure avec la mise en production en série et la livraison des systèmes NVIDIA HGX B300 et des racks GB300 NVL72 dans le monde entier. Ces offres intégrées sont conçues pour permettre une mise en œuvre clé en main, réduisant drastiquement les délais habituels de déploiement en proposant des solutions prévalidées au niveau matériel et réseau. Ce choix stratégique répond directement aux besoins des entreprises et opérateurs réseaux, confrontés à la complexité croissante des infrastructures pour intelligences artificielles, notamment en termes de gestion thermique, alimentation électrique et câblage.

Une gamme complète pour construire des « usines d’IA » à toutes les échelles
Le portefeuille Supermicro comprend aujourd’hui plus de dix variantes de configurations Blackwell et Blackwell Ultra, offrant flexibilité et puissance pour bâtir des environnements d’intelligence artificielle diversifiés. Ces systèmes supportent une densité de calcul exceptionnelle, notamment grâce à une architecture combinant refroidissement liquide et solutions de ventilation avancées, capable d’alimenter chaque GPU jusqu’à 1400 watts. Un exemple parlant : les racks GB300 NVL72 atteignent une puissance de calcul de 1,1 exaFLOPS en précision FP4, un niveau jamais vu qui pousse les capacités d’inférence et de traitement à une nouvelle frontière.
La montée en puissance des infrastructures IA : de la performance au déploiement simplifié
Supermicro ne se contente pas de livrer du matériel haut de gamme ; son offre inclut un écosystème complet nommé Data Center Building Block Solutions (DCBBS). Cette approche modulaire permet d’assembler des infrastructures prêtes à l’emploi, combinant hardware, interconnexions à très haut débit (jusqu’à 800 Gb/s avec NVIDIA Quantum-X800 InfiniBand ou Spectrum-X Ethernet) et logiciels optimisés, notamment NVIDIA AI Enterprise. Grâce à cette intégration poussée, les équipes IT se focalisent moins sur la complexité technique et plus sur l’innovation métier.
Effets concrets sur l’efficacité opérationnelle et les coûts
Outre les performances de calcul impressionnantes, l’intégration des technologies de refroidissement liquide directe DLC-2 de Supermicro engendre des économies substantielles : jusqu’à 40 % de réduction de la consommation électrique, une diminution de 60 % de l’espace requis en centre de données, et une baisse de 40 % du volume d’eau utilisée pour la climatisation. Ces avancées se traduisent par une réduction des coûts globaux d’exploitation, un atout crucial pour les organisations désireuses de scaler rapidement sans sacrifier à la durabilité.
Une réponse aux défis des grands acteurs IT : concurrence et complémentarité
Dans un marché où des géants comme Dell Technologies, HPE, Lenovo, Cisco, IBM, ASUS, Gigabyte ou Fujitsu cherchent à optimiser leurs propres offres IA et cloud, Supermicro impose sa singularité par un positionnement axé sur la personnalisation et la rapidité d’intégration. Son expertise dans la conception de systèmes modulaires et sa capacité à fournir des solutions validées en usine renforcent sa crédibilité auprès des datacenters exigeants.





