iconoQualcomm presenta dos nuevas tarjetas aceleradoras y racks para impulsar la IA generativa en los centros de datos

Qualcomm presenta chips AI200 y AI250 para optimizar la inferencia de inteligencia artificial en centros de datos

Qualcomm ha lanzado los chips AI200 y AI250, diseñados para mejorar la inferencia de inteligencia artificial en centros de datos. Con un enfoque en el rendimiento y la eficiencia energética, estos nuevos modelos prometen un bajo coste total de propiedad y capacidades avanzadas para manejar cargas de trabajo de IA generativa. AI200 llegará en 2024 y AI250 en 2027.

Qualcomm ha presentado sus nuevas soluciones, los chips AI200 y AI250, destinados a la inferencia de inteligencia artificial (IA) generativa en centros de datos. La compañía de semiconductores ha anunciado que estas soluciones se actualizarán anualmente para mejorar el rendimiento y la eficiencia energética.

El chip AI200 está diseñado para ofrecer un bajo coste total de propiedad y un rendimiento optimizado para la inferencia de modelos de lenguaje y multimodales (LLM, LMM) de gran tamaño, así como para otras cargas de trabajo de IA. Este modelo admite hasta 768GB de LPDDR por tarjeta, lo que proporciona una mayor capacidad de memoria a un coste reducido, según ha informado Qualcomm en un comunicado.

Por otro lado, el AI250 introduce una arquitectura de memoria basada en computación cercana a la memoria, lo que permite un ancho de banda de memoria efectivo más de diez veces superior al de sus predecesores y un consumo de energía significativamente menor. Ambos chips utilizan refrigeración líquida directa para disipar el calor y están diseñados con soporte para PCIe, lo que permite escalamiento vertical, y Ethernet para escalamiento horizontal. También incorporan computación confidencial para garantizar la seguridad en las cargas de trabajo de IA, con un consumo de energía a nivel de rack de 160kW.

Qualcomm ha anunciado que el chip AI200 estará disponible en el mercado el próximo año, mientras que el AI250 se espera que llegue en 2027. Ambas soluciones son parte de una hoja de ruta más amplia en la que la compañía se ha comprometido a mejorar continuamente el rendimiento, la eficiencia energética y el coste total de propiedad de los centros de datos, con actualizaciones programadas anualmente.

¿QUIÉN DIJO QUE LA INNOVACIÓN NO TIENE PRECIO CUANDO SE TRATA DE INTELIGENCIA ARTIFICIAL?

________________________________________________________________________________

Fuente: Europa Press | URL: Ver noticia original

Scroll al inicio
Verificado por MonsterInsights