Según los informes, el extremo de chip aguas arriba de NVIDIA AI GPU H200 ingresó al período de producción en masa a fines del segundo trimestre y se espera que se entregue en grandes cantidades después del Q3.Pero el cronograma de lanzamiento de la plataforma Nvidia Blackwell está al menos uno a dos trimestres antes de lo previsto, lo que afecta la disposición de los clientes finales a comprar H200.
La cadena de suministro señala que actualmente, los pedidos del cliente que esperan el envío todavía se concentran principalmente en la arquitectura HGX de H100, con una proporción limitada de H200.En el Q3, el H200 que será producido en masa y entregado es principalmente NVIDIA DGX H200;En cuanto a B100, ya tiene visibilidad parcial y se espera que se envíe en la primera mitad del próximo año.
Como un producto de actualización iterativa de la GPU H100, H200 adopta la tecnología de memoria de alto ancho de banda HBM3E por primera vez en función de la arquitectura avanzada de la tolva, logrando una velocidad de transferencia de datos más rápida y una mayor capacidad de memoria, especialmente mostrando ventajas significativas para las aplicaciones de modelos de lenguaje a gran escala.Según los datos oficiales publicados por NVIDIA, cuando se trata de modelos de lenguaje grandes complejos como Meta's LLAMA2, H200 tiene una mejora máxima del 45% en la velocidad de respuesta de salida de IA generativa en comparación con H100.
H200 se posiciona como otro producto hito de Nvidia en el campo de la computación de IA, no solo heredando las ventajas de H100, sino también logrando avances significativos en el rendimiento de la memoria.Con la aplicación comercial de H200, se espera que la demanda de memoria de alto ancho de banda continúe aumentando, lo que impulsará aún más el desarrollo de toda la cadena de la industria de hardware de computación de IA, especialmente las oportunidades de mercado para los proveedores relacionados con HBM3E.
La GPU B100 adoptará la tecnología de enfriamiento de líquidos.La disipación de calor se ha convertido en un factor clave para mejorar el rendimiento del chip.El TDP de NVIDIA H200 GPU es de 700 W, mientras que se estima conservadoramente que el TDP de B100 está cerca de los kilovatios.Es posible que el enfriamiento del aire tradicional no pueda cumplir con los requisitos de disipación de calor durante la operación del chip, y la tecnología de disipación de calor se innovará integralmente para el enfriamiento líquido.
El CEO de NVIDIA, Huang Renxun, declaró que a partir de la GPU B100, la tecnología de enfriamiento de todos los productos en el futuro cambiará del enfriamiento del aire al enfriamiento líquido.Galaxy Securities cree que la B100GPU de NVIDIA tiene al menos el doble del rendimiento de H200 y superará cuatro veces mayor que el de H100.La mejora en el rendimiento del chip se debe en parte a procesos avanzados, y por otro lado, la disipación de calor se ha convertido en un factor clave para mejorar el rendimiento del chip.El TDP de la GPU H200 de NVIDIA es de 700W, que se estima conservativamente cerca de los kilovatios.Es posible que el enfriamiento del aire tradicional no pueda satisfacer las necesidades de disipación de calor durante la operación del chip, y la tecnología de disipación de calor se revolucionará por completo hacia el enfriamiento líquido.