iconoLos chips de IA al límite: Microsoft prueba con éxito la refrigeración con microfluidos, hasta tres veces más eficaz

La creciente demanda de inteligencia artificial está generando un desafío significativo para los operadores de centros de procesamiento de datos. Estos centros, ya sean de hiperescala o colocation, enfrentan el riesgo de que sus GPUs alcancen pronto su límite de rendimiento debido al aumento de temperatura. En este contexto, Microsoft ha anunciado un avance notable en la refrigeración de chips, utilizando un sistema innovador con microfluidos que dirige el líquido refrigerante directamente al interior del silicio.

La propuesta de Microsoft consiste en grabar microcanales en la parte posterior de los chips, con un tamaño similar al de un cabello humano, permitiendo que el líquido fluya a través de ellos. Este método ha demostrado ser más eficiente para disipar el calor en comparación con otros sistemas tradicionales. Según un comunicado de la compañía, mediante el uso de inteligencia artificial, es posible identificar áreas específicas con temperaturas elevadas y dirigir el refrigerante hacia ellas, logrando así resultados óptimos. En pruebas de laboratorio, Microsoft ha logrado reducir hasta un 65% el aumento máximo de temperatura de una GPU, lo que permite sobrecargar los chips sin dañarlos y aumentar la densidad de los servidores sin necesidad de construir nuevos edificios.

Sashi Majety, responsable de Innovación y Operaciones Cloud de Microsoft, advierte que si en cinco años la industria sigue dependiendo de la tecnología tradicional de refrigeración, se encontrará en un estancamiento. Este desarrollo, aunque complejo, ha requerido asegurar que los canales grabados en los procesadores sean lo suficientemente profundos para permitir el flujo del refrigerante sin comprometer la integridad del chip. Para ello, Microsoft ha colaborado con la startup suiza Corintis, buscando un diseño inspirado en la naturaleza, específicamente en la estructura de las venas de una hoja.

El director de tecnología de sistemas en Innovación y Operaciones Cloud, Husam Alissa, enfatiza la importancia del pensamiento sistémico en esta tecnología, ya que es fundamental comprender las interacciones entre el silicio, el refrigerante, el servidor y el centro de datos para maximizar su potencial. Además de mejorar la disipación térmica, este avance también promete un impacto positivo en la eficiencia energética de los centros de datos, al reducir el consumo necesario para enfriar el refrigerante y optimizar el aprovechamiento del calor residual. Esto se traduce en una mejora del PUE (Power Usage Effectiveness), una métrica clave en la industria para medir la eficiencia energética.

Microsoft planea integrar esta innovación en futuras generaciones de sus chips Cobalt y Maia, colaborando con fabricantes de silicio. La compañía tiene previsto invertir 30.000 millones de dólares, aproximadamente 24.500 millones de euros, solo en este trimestre. El objetivo es establecer este sistema como un estándar en la industria, lo que abriría la puerta a nuevas arquitecturas, como los chips en 3D, que han estado limitados por el calor. Esto facilitaría la construcción de centros de datos más eficientes y sostenibles, preparados para el auge de la inteligencia artificial.

¿NO ES IRÓNICO QUE, MIENTRAS LA INTELIGENCIA ARTIFICIAL AVANZA A PASO FIRME, SE SIGA DEPENDIENDO DE TECNOLOGÍAS DE REFRIGERACIÓN DEL SIGLO PASADO?

«`
APARECEN EN EL ARTÍCULO ORIGINAL:
Corintis
Husam Alissa
Microsoft
Sashi Majety
«`

Fuente: El Español | URL: Ver noticia original

Scroll al inicio
Verificado por MonsterInsights