Filtrados más detalles de las GPU AMD RDNA 3, ¿mejor que NVIDIA Lovelace?

Pues eso mis compas, ya empieza AMD a prometer el baño de oro para luego tener carbón…

Me gusta esta parte: Volviendo ya al presente, Greymon55 ha dejado ir más información acerca de Navi 31, por lo visto hay dos especificaciones en conflicto ahora mismo. Ambas son una GPU doble unida a partir de un puente de silicio y que son vistas por la CPU como una única GPU. Tal y como os comentamos en nuestro análisis de la patente de AMD, pero parece ser que AMD tendría dos diseños distintos, ambos haciendo uso de un bus de 256 bits GDDR6, por lo que AMD no adoptaría la GDDR6X en la siguiente generación de sus GPU.

Ambas configuraciones son referidas como Navi 31 por el momento, una está compuesta por 120 Compute Units en total y la otra por 180 Compute Units, una tiene 256 MB de Infinity Cache y la otra 512 MB . Creemos que AMD en estos momentos está estudiando cuál es el tamaño de Infinity Caché más eficiente, para no colocar en exceso y tener un diseño equilibrado en cuanto al número de Compute Units.

Yo confío en AMD, rdna2 fue una mejora considerable teniendo en cuenta que estaban en la mierda en comparación de nvidea.

Hombre, pues Amd viene dando guerra de lejos.

Eso significa que ya están desfasadas las consolas? Es qe del tema ni idea.

Pintan bien, pero actualmente ya son incluso mejores en raster en su gama de precios respecto a nvidia. Lo que debe hacer es ponerse a la par cuando otras variables se añaden a la ecuación como el RT o el Deep Learning, porque pasan de ser algo mejores en raster respecto a la competencia a bajar incluso dos gamas de golpe cuando activas algun efecto o a quedarse atrás enormemente cuando Nvidia activa elDLSS

po fale, el año pasado me vendieron en este foro que el rdna2 era la segunda venida de cristo y desde entonces no he vuelto a oir nada de el. Ya lo deben haber crucificao

Alb pero hay que tener en cuenta que Nvidia divide su chip en cores RT y tensor cores y aun así en 4k supera en raster y en 2k da la pelea. Aparte con 8nn de Samsung.

Vamos que su arquitectura está una gen por encima.

Sin duda. Por eso ahora mismo Amd lo que tiene que hacer es refinar su arquitectura antes que hacerse más potente por fuerza bruta que su competencia, porque entonces los problemas que tiene hoy serán similares a futuro. El raytracing sin rt cores lo puede medio solucionar si es verdad que va a meter una cantidad tan ingente de Cus ( hay una relación directa entre el número de CUs y el rendimiento en rt) o subiendo el número de unidades rt de cada cu, lo de DL lo veo más complicado sin sacar fuera tensor cores, me da que tienen confianza de que el parche del FSR les medio sirva como solución de paso.

Claro, con su FSR ni intentarán hacer DL, … pero si deben mejorar el RT, y como su RT está ligado a las CUs pues a petar de CUs el chip :rofl:

AMD siempre haciendo el AMD. A esperar a ver que les sale.

pero eso es porque nvidia sacrifica area de raster por hw especializado en raytracing e IA, es normal que cojee en raster a cambio de ganar en lo otro. si amd hiciera lo mismo volveríamos a lo de siempre, y eso que amd usa un nodo más avanzado. y se supone que las rdna 3 van a estrenar sus propios tensor cores.

pero no creo que cambien a la estrategia de nvidia con el raytracing, al menos hasta que este no se generalice.

De tods formas AMD está muy atrás de Nvidia en cuanto a drivers compatibilidad y problemas de software.

Hay que luchar mucho con ellos, fue haber tenido la 3080 la 6800 la 6800xt y la 3070 y ver que Nvidia les lleva años en esa parte.

Esos articulos que recuerdan entrañablemente a los de
AMD saca el FSR sera mejor que el DLSS?
AMD saca RDNA2 sera mejor que Ampere?

En la vida real AMD vive de las rentas de los Ryzen y Consolas mientras que Nvidia les lleva 2 generaciones de ventaja en GPUs .

Imaginate pillar una 6800XT para que vaya a menos FPS que la 3060 con RT en Control por culpa del DLSS . Yo me daria de cabezazos vamos .

AMD lo que tiene que hacer es cerrar sus granjas de minado y tratar de seguirle a Nvidia sus pedos . Con lo del FSR ni eso , directamente es un intento de marketing de hacer por software lo que no han sido capaces de hacer por hardware .

Como si todo fuera el reescalado de las consolas , el checkerboard y otras tecnicas cutres que nada tienen que ver con los Tensor Cores de Nvidia . Tecnicas engañabobos que siguen funcionando entre los consoleros cuando piensan que realmente juegan a 4k .Y luego tienes el DLSS 2.0 que a parte de doblar los frames tiene una IA capaz de mejorar las imagenes nativas . ESO si es Next-Gen .
Que da verguenza ajena ver cuando alguien sube videos a Youtube con lo de : PS5 4k!! y hasta mis videos tienen mas calidad en 2k nativos porque estan assets ultra y no en medio , y encima a 60 fps y con Ray Tracing a tope . Porque a poco que una consola “NEXT-GEN” tenga 4 reflejos Ray Tracing (sin RT de sombras ni luces) ya va a 30 putos FPS con reescalados terribles desde los 900p completamente emborronados .

Asi que nada AMD seguira con su “este año si” mientras no hace NADA a parte de tirar de rasterizado y Nvidia seguira invirtiendo su pasta en I+D hasta que salga Skynet .

Ni más ni menos, en raster están bastante igualadas a 1080 o 1440, y aunque AMD es cierto que saca un pelín de ventaja a 1080, a 1440 están bastante igualadas, y a resoluciones a 4K pasa al contrario y el pelín de ventaja lo tiene NVidia (aunque ninguna de las diferencia es para tirar cohetes) eso si… Con RT NVidia apaliza a las Radeon de mala manera.

Y ojo, porque cuando se hizo la comparativa probaron el smart access memory de las AMD cuando aún no tenía disponible NVidia el Resizable BAR (que viene a hacer lo mismo).

Y lo de DLSS vs FSR lo mismo, es muy buena técnica de reescalado y no necesita hardware dedicado, pero a la hora de la verdad…



Con AMD siempre pasa lo mismo, noticias ilusionantes, hype por las nubes, y cuando sacan el producto final llega un ostiazo de proporciones bíblicas, o bien porque en AMD exageraban, o bien porque en NVidia se guardaban varios ases bajo la manga…

Ya deberíamos estar acostumbrados, llevamos muchos años viendo lo mismo :joy:

1 me gusta

la comparación justa con fsr requiere prefiltrado con el taa de amd, y postfiltrado con el sharpen de amd. porque el dlss 2.x incluye todo eso (y por eso tiene ghosting, que en el 2.2 lo han eliminado de alguna manera)

2.0:

temporal feedback y vectores y múltiples fotogramas en esa imagen. blanco y en botella, parte del proceso es similar al taa.

y se dice que la imagen de salida tiene las texturas más nítidas en dlss 2 porque incluye sharpen. uno basado en el de amd seguramente, porque nvidia lo implementó para los drivers al ser open source.

y también por eso desde el 2.0 nvidia no necesita entrenamiento específico para cada juego.
el dlss 2.x es parecido a un pack de los 3 efectos, taa+fsr+sharpen. solo que el fsr en sí lo hace con IA optimizada para tensor cores.

un desarrollador dijo hace poco que están combinando el fsr con el taa de amd, dando a entender que ofrecía mejores resultados que el taa de su motor. a ver cuando hay combinaciones de los 3 efectos para comparar bien.

¿Pero que me cuentas? Esas comparativas son ya con el FSR oficial implementado con las recomendaciones de AMD en el juego Avengers (que tiene DLSS y FSR entre sus opciones).

El TAA siempre tenía problemas de ghosting y en Red Dead Redemption era basura y hacía un buen estropicio emborronando todo, ahora que le metieron DLSS se ve infinitamente mejor y evita los problemas del TXAA (y ni pizca de ghosting).

Joder, es que la diferencia es más que obvia, tanto que en el modo performance el DLSS mejora al modo ultra quality de FSR.

Solo hay que mirar las caras y sus ojos, DLSS partiendo de 720p en modo performance le pasa la mano por la cara al modo Ultra Quality del FSR, e incluso a la nativa a 1080 con TXAA y sharpen…

FSR es una opción cojonuda y no requiere hardware dedicado, y da el pego muy bien en movimiento, pero DLSS es mejor y ofrece bastante más calidad.

hay una diferencia enorme entre unos TAA y otros, a años luz. La IA de nvidia no solo reescala, también corrige la imagen para mejorarla aún más tras el prefiltrado de TAA, corrigiendo desde 2.2 también el ghosting de la etapa TAA. ya he puesto la imagen de nvidia que te muestra la pila de frames acumulados de imagen y de vector maps. y por eso desde 2.0 no requiere entrenamiento específico de cada juego. está menos centrado en hacer reescalado mágico porque parte del trabajo lo hace con algún tipo de TAA interno, lo que acota el entrenamiento.