Amazon se está preparando para lanzar su último chip de inteligencia artificial (IA), ya que el gran conglomerado tecnológico busca obtener rendimientos de sus miles de millones de dólares en inversiones de semiconductores y reducir su dependencia del líder del mercado Nvidia.
Los ejecutivos de la división de computación en la nube de Amazon están invirtiendo fuertemente en chips personalizados, con la esperanza de mejorar la eficiencia de sus docenas de centros de datos y, en última instancia, reducir costos para sí mismo y a los clientes de Amazon AWS.
Este trabajo está dirigido por Annapurna Labs, una startup de chips con sede en Austin, que Amazon adquirió por $ 350 millones a principios de 2015. Se espera que los últimos logros de Annapurna se exhiban en diciembre, cuando Amazon anunciará la disponibilidad generalizada de "Entrenium 2", quees parte de una serie de chips de IA diseñada para entrenar los modelos más grandes.
Entrenium 2 ya está experimentando pruebas de Anthrope (el competidor de Openai, que ha recibido $ 4 mil millones en apoyo de Amazon), así como VNET, Deutsche Telekom, Ricoh Japón y Stockmark.
Amazon AWS y Annapurna apuntan a competir con Nvidia, que se ha convertido en una de las compañías más valiosas del mundo debido a su posición dominante en el mercado de chips de IA.
Esperamos ser el mejor lugar para ejecutar chips de Nvidia ", dijo Dave Brown, vicepresidente de informática y servicios de red en Amazon AWS. Pero al mismo tiempo, creemos que adoptar soluciones alternativas es beneficiosa", dijo Amazon, declarando que es que esOtra "inferencia" de chip de IA profesional ha reducido los costos operativos en un 40% y puede usarse para modelos de IA generativos receptivos.
Amazon ahora espera gastos de capital de aproximadamente $ 75 mil millones en 2024, y la mayoría se dirige hacia la infraestructura tecnológica.Durante la última conferencia telefónica de ganancias de la compañía, el CEO Andy Jassy declaró que espera que la compañía tenga más gastos en 2025.
Este es un aumento del gasto de todo el año de 48.4 mil millones de dólares estadounidenses en 2023. Los proveedores de nubes más grandes, incluidos Microsoft y Google, están invirtiendo fuertemente en inteligencia artificial, y esta tendencia muestra pocos signos de debilitamiento.
Amazon, Microsoft y Meta son todos los principales clientes de NVIDIA, pero también están diseñando sus propios chips centrales de datos para sentar las bases de la ola de crecimiento de IA que están anticipando.
Daniel Newman de Futurum Group dijo: "Cada gran proveedor de nubes está cambiando fervientemente hacia más verticalidad y, si es posible, avanzando hacia una pila homogénea e integrada de 'Tecnología de chips' '
Newman señaló que "de OpenAi a Apple, todos buscan construir sus propias chips" porque están buscando "costos de producción más bajos, mayores márgenes de beneficio, mayor disponibilidad y más control".
Después de comenzar a construir el chip de seguridad "nitro" para AWS, Annapurna ha desarrollado varias generaciones de Graviton, una unidad de procesamiento central basada en brazos (CPU) que proporciona una alternativa de baja potencia a los mainframes de servidores tradicionales proporcionados por Intel o AMD.
El analista de TechinSights, G Dan Hutcheson, dijo: "Una gran ventaja de AWS es que sus chips pueden usar menos potencia, y sus centros de datos pueden ser más eficientes", reduciendo así los costos.Dijo que si la Unidad de Procesamiento de Gráficos de Nvidia (GPU) es una poderosa herramienta de propósito general (para automóviles como Wagons), entonces Amazon puede optimizar sus chips para tareas y servicios específicos (como automóviles compactos o hatchback).
Sin embargo, hasta ahora, AWS y Annapurna apenas han debilitado la posición dominante de Nvidia en la infraestructura de IA.
Los ingresos por ventas de chips del centro de datos de AI de NVIDIA alcanzaron los $ 26.3 mil millones en el segundo trimestre del año fiscal 2024. Esta cifra es los mismos que los ingresos de toda la División de AWS anunciados por Amazon en su segundo trimestre.Se informa que solo se puede atribuir una pequeña porción a los clientes que ejecutan cargas de trabajo de IA en la infraestructura de Annapurna.
En cuanto al rendimiento en bruto de los chips de AWS y los chips Nvidia, Amazon evita las comparaciones directas y no envía sus chips a puntos de referencia de rendimiento independientes.
El consultor de chip de Moor Insights & Strategy, Patrick Moorhead, cree que el reclamo de Amazon de una mejora del rendimiento de 4 veces entre Entrenium 1 y Trainium 2 es precisa, ya que ha estado revisando la compañía durante años.Pero los datos de rendimiento pueden no ser tan importantes como simplemente proporcionar a los clientes más opciones.
La gente aprecia todas las innovaciones traídas por Nvidia, pero nadie quiere ver que Nvidia ocupa el 90% de la participación de mercado ", agregó".Esta situación no durará demasiado