Microsoft presenta nuevos chips personalizados para impulsar la infraestructura de la nube y la IA
Un laboratorio secreto en Microsoft investiga el silicio
En el campus de Microsoft en Redmond, hay un laboratorio oculto que se dedica a investigar el componente básico de la era digital: el silicio. Durante años, los ingenieros de Microsoft han perfeccionado en secreto un método meticuloso de prueba del silicio en un proceso de varios pasos.
Presentación de los nuevos chips de Microsoft
Hoy, en el evento Microsoft Ignite, la compañía presentó dos chips diseñados a medida y sistemas integrados que son el resultado de este largo proceso de investigación. El primero es el Microsoft Azure Maia AI Accelerator, optimizado para tareas de inteligencia artificial (IA) e IA generativa. El segundo es el CPU Microsoft Azure Cobalt, un procesador basado en Arm diseñado para ejecutar cargas de trabajo informáticas de uso general en la nube de Microsoft.
Una pieza clave para la infraestructura de Microsoft
Estos chips representan una última pieza del rompecabezas para que Microsoft pueda ofrecer sistemas de infraestructura completamente optimizados. Desde opciones de silicio, software y servidores hasta racks y sistemas de refrigeración, todo ha sido diseñado de arriba a abajo para satisfacer las necesidades de los clientes y las cargas de trabajo internas.
Disponibilidad y aplicaciones
Los chips comenzarán a distribuirse a principios del próximo año en los centros de datos de Microsoft. En un principio, impulsarán servicios como Microsoft Copilot o Azure OpenAI Service. Además, se unirán a una amplia gama de productos de socios de la industria para satisfacer la creciente demanda de potencia informática eficiente y escalable.
La visión de Microsoft
Scott Guthrie, vicepresidente ejecutivo de Cloud + AI Group de Microsoft, afirmó: “Microsoft construye la infraestructura para respaldar la innovación en IA y reinventamos cada aspecto de nuestros centros de datos para satisfacer las necesidades de nuestros clientes. Es importante para nosotros optimizar e integrar cada capa de la infraestructura para maximizar el rendimiento y brindar opciones de infraestructura a nuestros clientes”.
Optimización en cada capa de la pila
Los chips son fundamentales para el funcionamiento de la nube, ya que controlan miles de millones de transistores que procesan los datos en los centros de datos. Microsoft ve la adición de chips personalizados como una forma de garantizar que cada elemento esté diseñado específicamente para las cargas de trabajo de inteligencia artificial y la nube de Microsoft. Estos chips se colocarán en placas de servidor personalizadas y se integrarán en los centros de datos existentes de Microsoft.
Rani Borkar, vicepresidente corporativo de Infraestructura y Sistemas de Hardware de Azure (AHSI), explicó: “El objetivo final es un sistema de hardware de Azure que ofrezca la máxima flexibilidad y que también pueda optimizarse en cuanto a potencia, rendimiento, sostenibilidad o costo. En Microsoft, codiseñamos y optimizamos hardware y software juntos para desbloquear nuevas capacidades y oportunidades”.
Ampliación de asociaciones y nuevos productos
Además de los chips personalizados, Microsoft también anunció la disponibilidad general de Azure Boost, un sistema que acelera el almacenamiento y las redes en los centros de datos. La compañía también ampliará sus asociaciones industriales para ofrecer más opciones de infraestructura a los clientes. Esto incluye la introducción de nuevas máquinas virtuales diseñadas para el entrenamiento de IA y la inferencia generativa.
En resumen, Microsoft está apostando por la personalización de chips y la optimización de su infraestructura para satisfacer las crecientes demandas de potencia informática eficiente y escalable en la nube y la inteligencia artificial.
Microsoft lanza nuevos aceleradores de inteligencia artificial personalizados
Microsoft ha presentado sus nuevos aceleradores de inteligencia artificial (IA), diseñados específicamente para satisfacer las necesidades de sus clientes. Estos aceleradores, llamados Maia 100 y Cobalt 100, forman parte de la estrategia de Microsoft para ofrecer opciones de precio y rendimiento más amplias a sus usuarios.
Maia 100: impulsando cargas de trabajo de IA en Azure
El acelerador de IA Maia 100 de Microsoft está diseñado para impulsar las cargas de trabajo de IA más grandes que se ejecutan en Microsoft Azure. La compañía ha colaborado estrechamente con OpenAI para optimizar el rendimiento de Maia y adaptarlo a los modelos de lenguaje de OpenAI. Esta colaboración ha permitido a Microsoft diseñar una arquitectura de IA de extremo a extremo, optimizada hasta el silicio con Maia, lo que resulta en modelos de IA más capaces y asequibles para los clientes.
Cobalt 100: eficiencia y rendimiento en la nube
El acelerador de IA Cobalt 100 de Microsoft se basa en la arquitectura Arm y está optimizado para ofrecer mayor eficiencia y rendimiento en las ofertas nativas de la nube. Esta elección de tecnología es parte del objetivo de sostenibilidad de Microsoft, que busca maximizar el rendimiento por vatio en sus centros de datos. La arquitectura y la implementación de Cobalt 100 están diseñadas con la eficiencia energética en mente, lo que permite un uso más eficiente de los transistores de silicio y un mayor rendimiento en los servidores de Microsoft.
Personalización desde el chip hasta el centro de datos
Con el lanzamiento de estos nuevos aceleradores de IA, Microsoft continúa su estrategia de personalización en todas las capas de su infraestructura de nube. Anteriormente, la compañía construía sus propios servidores y racks personalizados, y ahora ha agregado el silicio personalizado a esta ecuación. Esto le permite a Microsoft centrarse en las cualidades específicas que necesita y garantizar que los chips funcionen de manera óptima en sus cargas de trabajo más importantes.
Además, la arquitectura de silicio personalizada de Microsoft mejora la eficiencia de enfriamiento y optimiza el uso de los activos actuales de sus centros de datos. La compañía ha creado bastidores especiales para albergar los requisitos exclusivos de las placas de servidor Maia 100, lo que maximiza la capacidad del servidor dentro de su espacio existente.
Con estos nuevos aceleradores de IA personalizados, Microsoft está demostrando su compromiso de ofrecer soluciones de vanguardia a sus clientes y de seguir liderando en el campo de la inteligencia artificial.
Microsoft desarrolla una solución de refrigeración líquida para cargas de trabajo de IA

Las cargas de trabajo de inteligencia artificial (IA) requieren una gran cantidad de energía computacional. Los métodos tradicionales de refrigeración por aire no son suficientes para los chips de alto rendimiento utilizados en estas tareas. Por esta razón, la refrigeración líquida se ha convertido en la solución preferida para enfrentar estos desafíos térmicos y garantizar un funcionamiento eficiente sin sobrecalentamiento.
Microsoft ha desarrollado un “compañero” que se coloca junto al bastidor Maia 100 para abordar este problema. Estos compañeros funcionan de manera similar a los radiadores de los automóviles. El líquido frío fluye desde el compañero hacia las placas frías que están adheridas a la superficie de los chips Maia 100. Cada placa tiene canales por los cuales circula el líquido para absorber y transportar el calor. Luego, el calor se transfiere al compañero, que lo elimina y lo envía de regreso al sistema para seguir absorbiendo más calor.
Este enfoque en conjunto del bastidor y el compañero resalta el valor de un enfoque sistémico para la infraestructura, según McCullough, un representante de Microsoft. Al controlar cada aspecto, desde el bajo consumo de energía del chip Cobalt 100 hasta las complejidades de la refrigeración del centro de datos, Microsoft puede orquestar una interacción armoniosa entre cada componente para reducir el impacto ambiental.
Microsoft ha compartido su conocimiento sobre el diseño de su bastidor personalizado con socios de la industria, lo que les permite utilizarlo independientemente del tipo de chip que utilicen. Según Stemen, otro representante de Microsoft, la compañía busca brindar a sus clientes la mejor experiencia posible con Azure, ya sea que utilicen sus propios chips o los de sus socios industriales.
En el futuro, Microsoft planea ampliar las opciones disponibles. Ya ha comenzado a diseñar la segunda generación de la serie Azure Maia AI Accelerator y la serie Azure Cobalt CPU. La misión de la compañía es optimizar cada capa de su pila tecnológica, desde el núcleo de silicio hasta el servicio final.
“La innovación de Microsoft va más allá con este trabajo de silicio para garantizar el futuro de las cargas de trabajo de nuestros clientes en Azure, al priorizar el rendimiento, la eficiencia energética y el costo”, afirmó Stemen. “Elegimos esta innovación de manera intencional, para que nuestros clientes obtengan la mejor experiencia que puedan tener con Azure hoy y en el futuro”.
Recursos Relacionados:
- Microsoft ofrece una infraestructura de nube especialmente diseñada en la era de la IA
- Azure anuncia una nueva serie de máquinas virtuales optimizadas para IA con la GPU insignia MI300X de AMD
Imagen de portada: un técnico instala los primeros bastidores de servidores que contienen CPU Microsoft Azure Cobalt 100 en un centro de datos en Quincy, Washington. Es la primera CPU diseñada por Microsoft para Microsoft Cloud. Foto de John Brecher para Microsoft.