Skip to main content
  1. Casa
  2. Computación

Todos los mini anuncios de Nvidia en su conferencia de GPU

La Conferencia de Tecnología de GPU (GTC) semestral de ChatGPT con una lista de nuevas GPU. El principal de ellos es el H100 NVL, que une dos de las GPU H100 de Nvidia para implementar modelos de lenguaje grande (LLM) como ChatGPT.

La H100 no es una GPU nueva. Nvidia lo anunció hace un año en GTC, luciendo su arquitectura Hopper y prometiendo acelerar la inferencia de IA en una variedad de tareas. Se dice que el nuevo modelo NVL con sus enormes 94 GB de memoria funciona mejor cuando se implementan LLM a escala, ofreciendo una inferencia hasta 12 veces más rápida en comparación con el A100 de última generación.

El NVL H100 de Nvidia instalado en un servidor.
Nvidia

Estas GPU están en el corazón de modelos como ChatGPT. Nvidia y Microsoft revelaron recientemente que se utilizaron miles de GPU A100 para entrenar ChatGPT, que es un proyecto que lleva más de cinco años en desarrollo.

Recommended Videos

Además del H100 NVL, Nvidia también anunció la GPU L4, que está diseñada específicamente para impulsar videos generados por IA. Nvidia dice que es 120 veces más potente para videos generados por IA que una U, y ofrece un 99% mejor de eficiencia energética. Además del video generativo de IA, Nvidia dice que las capacidades de decodificación y transcodificación de video deportivo de GPU se pueden aprovechar para la realidad aumentada.

Nvidia dice que Google Cloud está entre los primeros en integrar el L4. Google planea ofrecer instancias L4 a los clientes a través de su plataforma Vertex AI más tarde hoy. Nvidia dijo que la GPU estará disponible de socios más adelante, incluidos Lenovo, Dell, Asus, HP, Gigabyte y HP, entre otros.

Nvidia está aprovechando las GPU para construir chips de 2 nm (y más pequeños)

La compañía anunció una nueva biblioteca de software que permitirá transistores de 2 nm y más pequeños. La biblioteca se llama cuLitho, y Nvidia ya se ha asociado con las compañías de semiconductores más grandes del mundo para usar la tecnología, incluidas TSMC y Synopsys.

La pila de software está construida para litografía computacional, que es el proceso de grabar los componentes de un procesador en una oblea de silicio. La litografía se ha vuelto más compleja a medida que aumenta la demanda de procesos de fabricación más pequeños, pero la tecnología actual ha alcanzado un punto de inflexión.

Tecnología cuLitho de Nvidia sobre una oblea de silicio.
Nvidia

Nvidia dice que cuLitho va más allá de estos límites, permitiendo a las marcas de semiconductores construir transistores de 2 nm e incluso más pequeños. Intel anunció en 2021 su litografía ultravioleta extrema (EUV) para superar estos límites también, y la compañía dice que su próximo nodo Intel 4 será el primero en aprovechar la litografía EUV.

La diferencia con cuLitho es que se ejecuta en GPU. Nvidia dice que este enfoque es 40 veces más rápido que la técnica de litografía actual, que según la compañía representa decenas de miles de millones de horas de U cada año. Con las GPU al timón, Nvidia dice que cuLitho puede reducir el consumo de energía nueve veces con respecto a las técnicas actuales. En la práctica, eso es pasar de 40,000 sistemas de U a 500 Nvidia DGX H100 con los mismos resultados, según Nvidia.

Nvidia finalmente hizo una pequeña tarjeta gráfica RTX 4000

Después de meses de tarjetas gráficas masivas como la RTX 4090, Nvidia finalmente está adelgazando las cosas en su Conferencia de Tecnología de GPU (GTC). La RTX 4000 SFF ofrece la arquitectura Ada Lovelace en un paquete pequeño, pero probablemente no la encontrará entre las mejores tarjetas gráficas.

Aunque la RTX 4000 SFF utiliza la misma arquitectura en las GPU para juegos como la RTX 4080, está construida para un propósito muy diferente. Utiliza controladores empresariales Nvidia, y está hecho para impulsar el diseño asistido por computadora (CAD), el diseño gráfico, las aplicaciones de inteligencia artificial y el desarrollo de software, según Nvidia. La tarjeta ocupa dos ranuras e incluye un soporte de perfil bajo para estuches como el Hyte Y40.

NVIDIA RTX 4000 SFF Ada Generation: Next-Level Performance for Compact Workstations

Para las especificaciones, incluye 20 GB de memoria GDDR6 en un bus de 160 bits, así como 6.144 núcleos CUDA, 192 núcleos Tensor y 48 núcleos de trazado de rayos. Esas especificaciones básicas son ligeramente más bajas que las de la RTX 4070 Ti, pero no debe esperar que la RTX 4000 SFF sea tan potente. Tiene especificaciones sólidas, pero está limitado a solo 70 vatios de potencia debido a su naturaleza de factor de forma pequeño.

Aunque la RTX 4000 SFF llena un nicho para los jugadores, no es una gran compra. Nvidia dice que PNY y Ryoyo Electro comenzarán a vender la GPU en abril por $ 1,250, y la mostrarán como una GPU construida para aplicaciones profesionales.
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Topics
Huawei quiere ser el rey de lo plegable: presenta su laptop MateBook Fold Ultimate Design sin Windows
Laptop plegable Huawei

La gente de Huawei quiere comenzar a probarse la corona de la marca con la mejor tecnología plegable del mercado, al menos a eso apunta tras el lanzamiento de su primer laptop del tipo, el MateBook Fold Ultimate Design, que además viene sin Windows y con su propio sistema operativo HarmonyOS 5.

Tiene 18 pulgadas completamente desplegado, y alcanza las 13 pulgadas si está retraído.

Leer más
Llega el HP OmniBook 5 con Snapdragon que promete volar con la IA
HP Omnibook 5

En el marco de Computex 2025, la gente de HP aprovechó para presentar su próxima línea de laptops diseñados para potenciar el trabajo con IA, los OmniBook 5.

"Los nuevos portátiles de consumo convencional de 14 y 16 pulgadas de la serie HP OmniBook 5 cuentan con la mayor duración de batería del mundo en un portátil de PC con IA de consumo", promete la gente de la marca.

Leer más
Microsoft Build 2025: el gran anuncio es hacer que todas la IA se comuniquen entre sí
Varias IA conversando entre ellas

Este lunes 19 de mayo fue la conferencia inaugural de Microsoft Build 2025, el evento de desarrolladores de la compañía fundada por Bill Gates que busca todos los años entregar nuevas herramientas e insumos para el sector, ahora muy modelado por la influencia de la IA.

Y la premisa para este año en el discurso de apertura de Satya Nadella fue muy clara: Microsoft apuesta por un ecosistema donde los asistentes de IA puedan comunicarse entre sí independientemente del fabricante. Un enfoque que permitiría, por ejemplo, que GitHub comprenda lo que hace Visual Studio, o que Copilot se comunique con otros asistentes.

Leer más