
inteligencia artificial, diseñada sobre estándares de la industria, durante su evento Advancing AI 2025.
“AMD está impulsando la innovación en IA a un ritmo sin precedentes, como lo demuestra el lanzamiento de nuestros aceleradores AMD Instinct Serie MI350, los avances en nuestras soluciones de próxima generación ‘Helios’ a escala de rack y el creciente impulso de nuestra pila de software abierto ROCm”, dijo Lisa Su, presidenta y CEO de AMD. “Estamos entrando en la próxima fase de la IA, impulsada por estándares abiertos, innovación compartida y el liderazgo cada vez mayor de AMD en un amplio ecosistema de socios de hardware y software que están colaborando para definir el futuro de la IA”.
AMD anunció un amplio portafolio de hardware, software y soluciones IA
- AMD presentó los GPUs Instinct Serie MI350, estableciendo un nuevo estándar en rendimiento, eficiencia y escalabilidad para la IA generativa y la computación de alto rendimiento. La Serie MI350, que incluye los modelos Instinct MI350X y MI355X, ofrece un aumento1 de 4x en capacidad de cómputo de IA en comparación con la generación anterior y un salto generacional de 35x en inferencia, abriendo camino a soluciones transformadoras de IA en diversas industrias. Además, el MI355X proporciona importantes mejoras en relación costo-rendimiento, generando hasta un 40% más de tokens por dólar en comparación con soluciones competidoras.
- AMD demostró su infraestructura de IA a escala de rack de extremo a extremo, ya implementada con los aceleradores AMD Instinct Serie MI350, procesadores AMD EPYC de 5ª generación y las NICs AMD en despliegues de hiperescala como Oracle Cloud Infrastructure (OCI). Esta solución estará disponible en la segunda mitad de 2025.
- AMD también presentó un adelanto de su próxima generación de racks de IA, denominada «Helios«. Este estará construido con los GPUs de próxima generación AMD Instinct Serie MI400, que se espera ofrezcan hasta 10x más rendimiento en la ejecución de inferencias en modelos Mixture of Experts en comparación con la generación anterior. Además, incluirá los procesadores AMD EPYC «Venice» basados en la arquitectura «Zen 6» y las NICs AMD Pensando «Vulcano».
- La última versión de la pila de software de IA de código abierto de AMD, ROCm 7, ha sido diseñada para satisfacer las crecientes demandas de la IA generativa y las cargas de trabajo de computación de alto rendimiento, al mismo tiempo que mejora significativamente la experiencia de los desarrolladores en todos los aspectos. ROCm 7 incluye soporte mejorado para marcos estándar de la industria, compatibilidad ampliada con hardware y nuevas herramientas de desarrollo, controladores, APIs y bibliotecas destinadas a acelerar el desarrollo y la implementación de IA.
- Instinct Serie MI350 superó el objetivo de AMD a cinco años de mejorar la eficiencia energética en el entrenamiento de IA y los nodos de computación de alto rendimiento en 30x, logrando finalmente una mejora de 38×5. Además, AMD presentó un nuevo objetivo para 2030: aumentar 20x la eficiencia energética a escala de rack tomando como referencia el año base 20246. Esto permitirá que un modelo típico de IA, que hoy requiere más de 275 racks para ser entrenado, pueda hacerlo en menos de un solo rack completamente utilizado para 2030, utilizando un 95% menos de electricidad.
- AMD también anunció la amplia disponibilidad de AMD Developer Cloud para las comunidades globales de desarrolladores y de código abierto. Diseñada específicamente para el desarrollo rápido y de alto rendimiento en IA, esta plataforma ofrecerá a los s a un entorno en la nube completamente gestionado, con herramientas y flexibilidad para iniciar proyectos de IA y escalarlos sin límites. Con ROCm 7 y AMD Developer Cloud, AMD está eliminando barreras y ampliando el a la computación de próxima generación.
Actualmente, siete de las 10 principales empresas de desarrollo de modelos y compañías de IA están ejecutando cargas de trabajo de producción en aceleradores Instinct. Entre estas empresas se encuentran Meta, OpenAI, Microsoft y xAI, quienes se unieron a AMD y otros socios en el evento Advancing AI para discutir cómo están colaborando con AMD en soluciones de IA para entrenar los modelos de IA más avanzados de la actualidad, potenciar la inferencia a gran escala y acelerar la exploración y el desarrollo de IA.
Meta detalló cómo el Instinct MI300X está ampliamente implementado para la inferencia de Llama 3 y Llama 4. Meta expresó su entusiasmo por el MI350, destacando su capacidad de cómputo, rendimiento por TCO (costo total de propiedad) y memoria de próxima generación.
En tanto, el CEO de OpenAI, Sam Altman, habló sobre la importancia de optimizar de manera integral el hardware, el software y los algoritmos, así como de la estrecha colaboración de OpenAI con AMD en infraestructura de IA, con investigaciones y modelos GPT en producción sobre Azure utilizando MI300X, además de una colaboración profunda en el diseño de las plataformas de la Serie MI400.