Jensen Huang sale al paso de las críticas a DLSS 5 afirmando que los jugadores están completamente equivocados
por Edgar OteroPocos días después de que NVIDIA presentara DLSS 5 en el GTC 2026 como su mayor salto en renderizado desde la introducción del ray tracing, la reacción de la comunidad no ha sido la esperada. Las primeras imágenes comparativas mostraban personajes como Grace Ashcroft y Leon Kennedy de Resident Evil Requiem con un aspecto que muchos usuarios describieron como propio de un vídeo generado por IA. En algunas capturas, los personajes aparecían con rasgos alterados, como pintalabios o cambios en el color del cabello, sin que los desarrolladores lo hubieran pedido.
La reacción en redes fue rápida y contundente. Comentarios en YouTube, foros y Twitter convirtieron las demos en objeto de mofa. Por si fuera poco, la polémica se intensificó cuando se supo que las demos habían requerido dos RTX 5090 para funcionar, una dedicada al renderizado del juego y otra exclusivamente para ejecutar el modelo de IA de DLSS 5. Una configuración que está muy lejos del hardware que se puede permitir el jugador medio.
La respuesta de Huang es que esto es renderizado neuronal, no posprocesado
En una sesión de preguntas con medios durante el GTC, el CEO de NVIDIA, Jensen Huang, no esquivó las críticas. "Están completamente equivocados", dijo al ser preguntado por la reacción negativa de los jugadores. Seguidamente, defendió su argumento técnico central, a saber, que DLSS 5 no es un filtro que se aplica sobre la imagen final. Más bien, se trata de un sistema generativo que opera a nivel de geometría y materiales.
La distinción que Huang intenta establecer es relevante. Las versiones anteriores de DLSS trabajaban sobre píxeles ya renderizados, reconstruyendo o generando fotogramas a partir de imágenes de menor resolución. DLSS 5, en cambio, entiende los elementos de la escena: qué es piel, qué es tela, qué es metal... Entonces, aplica propiedades físicas de iluminación y materiales antes de que la imagen llegue a su forma final. Es, en sus palabras, "control generativo a nivel de geometría, no posprocesado a nivel de fotograma".
Huang insistió también en que los desarrolladores mantienen el control total sobre el resultado. La tecnología permite ajustar el modelo generativo para que respete el estilo artístico de cada juego, y los estudios disponen de herramientas, máscaras y parámetros para definir cómo actúa la IA en cada escena. Si un juego tiene una estética estilizada o de dibujos animados, el desarrollador puede configurar DLSS 5 para que no rompa esa coherencia visual.
El problema, según reconocen incluso los defensores de la tecnología, es que las demos presentadas no transmitieron bien ese control. Los ejemplos elegidos mostraron cambios llamativos en personajes conocidos, precisamente los casos donde cualquier alteración visual resulta más evidente y más fácil de criticar.
Una tecnología en fase muy temprana
Obviamente, el contexto importa aquí. NVIDIA ha sido explícita en que lo mostrado hasta ahora es una versión muy temprana. Quizá hasta podríamos definirla como una versión alpha. La compañía tiene previsto lanzar DLSS 5 de forma general este otoño, exclusivamente para las RTX 50 Series. El trabajo de optimización para que funcione en una sola GPU todavía está en marcha. La necesidad de dos RTX 5090 para las demos actuales no es el objetivo final, sino el punto de partida de un proceso de desarrollo que tiene meses por delante.
En ese sentido, las críticas actuales son en parte una reacción a una tecnología que se presentó antes de estar lista para el escrutinio público. La pregunta relevante no es si las demos de marzo de 2026 convencen, sino si DLSS 5 será capaz, cuando llegue en otoño, de mejorar visualmente los juegos sin alterar la intención de sus creadores. Huang dice que sí. Los jugadores, por ahora, no están tan seguros.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!




