Inteligencia Artificial

TensorRT revoluciona Stable Diffusion 3.5 y trae NIM microservicios a RTX AI PCs

Durante la GTC París, NVIDIA presentó una potente combinación de avances para IA generativa: mejora de rendimiento con TensorRT en GPUs RTX y una nueva oleada de microservicios NIM para facilitar el acceso a modelos directamente desde tu PC.

Stable Diffusion 3.5 más rápida y ligera

Gracias a la optimización con TensorRT y cuantización FP8, Stable Diffusion 3.5 Large reduce en un 40 % el consumo de VRAM (pasa de 18 GB a 11 GB) y duplica su velocidad de generación en comparación con BF16 en PyTorch. Esto significa que ahora puedes ejecutar modelos avanzados de imagen en PCs con GPUs RTX más accesibles.

TensorRT para RTX: compilación JIT sobre la marcha

El nuevo SDK “TensorRT para RTX” permite generar motores optimizados justo al momento en el dispositivo (“JIT”), sin necesidad de precompilación manual. Su tamaño se redujo 8 veces, facilitando su integración con Windows ML y acelerando la adopción global.

NIM microservicios: IA lista para usar en tu PC

En julio llegan los microservicios NIM para RTX PCs, que permiten descargar y ejecutar modelos preajustados como herramientas plug‑and‑play. Esta iniciativa forma parte de la estrategia RTX AI Garage, que ofrece desde LLMs hasta generadores de imágenes y módulos de visión por computadora.

Construye flujos de trabajo inteligentes fácilmente

Los NIM microservicios se integran en frameworks populares como Visual Studio Code, ComfyUI o Langflow. Además, los AI Blueprints serán plantillas que combinan varios microservicios para crear soluciones completas —por ejemplo, convertir PDFs en podcasts o crear imágenes guiadas con escenas 3D—

“Each week, RTX AI Garage features community‑driven AI innovations… helping developers and enthusiasts build the next wave of AI apps and tools locally on RTX PCs.”

Un ecosistema que crece rápido

Los desarrolladores pueden descargar NIM desde build.nvidia.com, y la integración continúa avanzando con soporte para Windows ML, WSL, y herramientas de la comunidad como G‑Assist. Además, RTX 50 Series y GPUs Blackwell aprovechan al máximo esta nueva pila tecnológica.

¿Por qué importa?

  • Rentabilidad: IA potente que funciona con menos recursos.
  • Accesibilidad: modelos listos para usar en un par de clics.
  • Privacidad y control: procesamiento local, sin depender de la nube.
  • Comunidad vibrante: plantillas y microservicios compartidos y extensibles.


El artículo puede contener imprecisiones y/o errores, consulte la web del fabricante para obtener la principal información.

Related posts

HP revoluciona la agricultura en África con IA y estaciones de trabajo Z

principal

Agentes de IA: La nueva frontera de la automatización empresarial

principal

La alianza entre NVIDIA y Google impulsa la inteligencia artificial con Blackwell y Gemini

principal

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy