Bilateral filter y Deep shaders

El AA ha tenido una evolución. Tira de GPGPU, y vale para fotos y videojuegos.

Detroit de PS4 lo usa alimentandose de los render targets de profundidad y de normales, y filtra el conetracing de baja resolución (200x100):

En este caso se basan en la implantación de Square.

Para moviles y postprocesado de fotografía, via Open CL y GPU:

Square exhibió una técnica para filtrar el ruido del raytracing tirando de GPGPU (I.A.) que supongo es lo mismo que Detroit pero por fuerza bruta para vender GPUs:

Viendo el MSAA como eliminación de ruido en los bordes de objetos, esto va mas allá y filtra todo como los AA de postprocesado.

Detroit combina esto para la I.G. volumétrica indirecta en tiempo real con AA temporal (para la imagen final y para otras capas como el Screen space subsurface scattering si no recuerdo mal) por lo que también elimina el specular aliasing.

Detroit no usa Raytracing con menos precisión al ser conos porque no lo usa para crear reflejos ni refracción, en su lugar usa tecnicas ya establecidas como Screen space reflections de Rise of the tomb raider (pc máximo a mano) y Quantum break

Y la mentada Screen space subsurface scattering para la refracción de objetos:

Así evita disparar el consumo accidentalmente y mantiene buena relación calidad/consumo de recursos.

Parece que esto va a ser el inicio de los “deep shaders” basados en I.A. (en el caso del video de nvidia confirmado que es por I.A.). El término “deep” es por deep learning.

1 me gusta

Dejadlo, él és feliz así

https://www.youtube.com/watch?v=lzW9EKfqeE8

Está etiquetado como ciencia y tecnología, no offtopic. Si no os interesa estáis perdiendo vuestro tiempo.