Control no fue el primer juego en mostrar las virtudes del rtx?
Versión para imprimir
Control no fue el primer juego en mostrar las virtudes del rtx?
Leo desde las sombras porque ni pincho ni corto y me nutro de las discusiones e intercambios, pero solo quiero aclarar porque parece que muy pocos vieron el video:
El titulo es el clasico clickbait que usan todos los creadores de contenido en todas las plataformas para generar flujo, usen esa inteligencia que demuestran hablando de cosas tecnicas para no quedar como unos boludos diciendo que el dijo que era una estafa.
Spoiler:
Primera oleada es quake 2 rtx cagones. Eso es un juego full rtx.
Full rtx porque deben de ser texturas de la época del Atari. :p
Igual que el Minecraft. Claro, cada pixel ocupa la cuarta parte de la pantalla! jjjeje
Justo hoy salió esto.
https://twitter.com/i/status/1677846492638224385
Vengo aportar mi granito de arena porque me summonearon y vuelvo a la cueva :p
RTX es un conjunto de algoritmos fisicamente reales que ejecuta la GPU para calcular la informacion de una superficie segun la luz y el viewport.
Shader es el conjunto de algoritmos que ejecuta la GPU para calcular el color de cada pixel en la pantalla.
Hoy en dia como tenemos mucho mas potencia de procesamiento en las GPUs, podemos ejecutar mas codigo (hacer mas cuentas, geometria, procesamiento, etc) por frame. Por ende la gente de NVIDIA dijo, opa, ahora podemos aplicar fisica real al rendering en vez de tomar atajos usando Shaders.
Y basicamente eso es todo, antes por limitaciones de poder de proceso se usaban atajos fisicamente incorrectos, pero que se veian lindos, en el Duke Nukem 3D teniamos espejos que funcionaban, la textura usaba una camara extra y pegaba la salida de esa camara en una geometria y la camara giraba inversa al viewport del jugador. Hoy en dia los reflejos se pueden hacer con los algoritmos fisicos de castear cada linea de vision segun el viewport base.
Conclusion, RTX es una estafa? no, pero a esta altura, los desarrolladores encontraron tantas formas de trucar iluminacion y reflejos sin usar RTX que la diferencia apenas se nota. A nivel de desarrollo es mas comodo RTX, porque quiere decir que ya no tenemos que ponernos a armar shaders para generar estos efectos, simplemente podemos configurar una superficie como reflectiva y dejar que RTX se engargue de todo.
@Juancho , a que te dedicas o por que te taggearon particularmente en este topic?
Esto resume en 3 lineas todo el video de Guille.
(Ni idea si esta bien o mal, comentario al margen para los que no lo vieron)
Hola! Nada... Solo quiero estar presente en el regreso de Juancho. Dejadlo entrar.
Enviado desde mi SM-A525M mediante Tapatalk
Clarísimo y con el plus de que con el RTX se lleva un 50 % del consumo.
Agrego, también lo de "estafa" se podría interpretar porque NVIDIA lo vendió como algo impresionante (como todo lo nuevo) y en la práctica para los consumidores hasta ahora no ha sido nada que no se haya visto, obviamente que lo revolucionario es el cómo se hace, cosa que por ahora solo beneficia a los desarrolladores, y lo que en un tiempo se va a poder hacer.
Y esto lleva a qué muchos prefieran que se siga usando la tecnología vieja que da más fps y se ve igual a que se invierta en esto que en principio solo afea los juegos de la gente que no tiene soporte a dicha tecnología...no sé si se entendió xD
Enviado desde mi M2103K19G mediante Tapatalk
Me permito una corrección.
Duke Nukem no usaba el método de la cámara virtual rendereando a una textura.
El Build Engine simulaba los espejos duplicando la geometría de todo lo que el espejo viera. Básicamente eran una ventana a un duplicado del nivel del otro lado.
Incluso al diseñar los niveles había que prever dejar atrás del espejo un espacio reservado suficiente para cuando el motor creara la habitación duplicada, y si desactivás el clipping podés atravesar el espejo y entrar al nivel "trucho" del otro lado.
https://youtu.be/CWBx6OhX7gc
No le hagas cherry picking asi peleador. Fue para que se entienda la idea jajaja.
@DT-Agus, Juancho es desarrollador de videojuegos profesional hace pila. No es un gordo bobo frustrado hablando como cuando hablo yo de desarrollo de videojuegos.
Se aprecia que venga uno que entiendo que labura en gráficos, a decir un par de cosas.
Pero el fin del ray tracing no es utilizarlo para facilitar la tarea, aunque eso sea un valor añadido para el desarrollador.
Si decimos eso en una comunidad de Siggraph, no sacamos a uno que esté de acuerdo. El fin es la calidad del render.
No es que lo diga REN, que renderizaba una calderita con el 3dsMax.
Y aparte cuando Juancho dice que hoy los tipos hacen casi lo mismo con shaders, sería importante incluir la consideración de que RTX está siendo usado para sacar un par de efectos, mientras las capacidades de hardware permiten ir más lejos con RTX.
Sino alguien va a interpretar que el RT ya fue explotado en juegos y no sirve para mucho más de lo que se logra con shaders, y Nvidia nos mintió.
---
Si miramos juegos del 2016 (7 años), y decimos que salieron en el 2023 es creíble. The Division, Quantum Break, Uncharted 4...
O sea, ya no van a ningún lado esos gráficos.
A menos que uno piense que son prácticamente lo mismo que hay en 2023 porque los gráficos en videojuegos tocaron techo, lo que está a la vista es que tocaron techo con shaders, y no pueden moverse hacia luz y reflejos realistas.
Yo también decía que los desarrolladores venían haciendo malabarismos. Pero se termina eso.
3 generaciones metió Nvidia, cada una multiplicando la capacidad de RTX. Pero no solo eso, en cada una de ellas los RT cores ocupan más lugar en los dies. Y aún así están en pañales.
Cuando no se entiende que están en pañales, es cuando salen las quejas de "mentiras" y "estafas".
Claro, Jen-Hsun Huang no te va a contar que esto recien empieza, y que en realidad una RTX4090 es una gpu temprana y precaria para acompañar los primeros pasos del RT, y ver alguna cosa cool.
Es ambas. Mucho mas realismo, mas implementable. Estas dejando una pata importante de lado ahi, el secreto de una buena plataforma existosa es el SDK que use. Ya no es como antes que los engines y SDK de consolas eran un veneno y bancatela porque es lo unico que habia para desarrollar y publicar. Que un desarrollador pueda sacar algo de calidad sin esfuerzo desmedido es el 50% minimo del exito de videojuego. Te pongo otro ejemplo opuesto, Vulkan es mejor que todo (o asi lo venden) comparado con DirectX, pero es un veneno de culebra codificarlo. Del 2016 para aca solo 190 juegos usan Vulkan. Triple A ni un 25% de ese numero.
No voy a profundizar en plataformas que historicamente eran bestias como Saturn, que con su SDK en Assembly, o el PS3 y sus 8 chips auxiliares que nadie usaba, y nadie aprovecho tanto ambas plataformas como se pudo aprovechar, solo sus first parties.
Si, hay motores, assets, kits y de todo. Pero tambien que te puedan sacar un juego con graficos de alta fidelidad mucho mas rapido con 3 clicks es un monton grande. Tanto para el estudio indie como para el triple A.
Buena correccion! Al final era mas criminal de lo que esperaba incluso. La resolucion de problemas computacionales y graficos a lo largo del tiempo son demenciales, desde el hecho de que las nubes y los arbustos del mario son el mismo sprite con distinta tinta para ahorrar memoria
https://i.redd.it/ii916gao14x01.jpg
Y este hack que hicieron en el Mario 2 para poder tener 5 colores por sprite, en vez de los 4 que tiene como límite la consola, todo para que los macacos pudieran tener ojitos blancos.
https://www.youtube.com/watch?v=opoQdHqGEHg