- Messaggi
- 38,451
- Reazioni
- 13,858
- Punteggio
- 253
Consiglio la visione di questo video uscito poco fa.
--- i due messaggi sono stati uniti ---
I dati che Jim tira fuori sul raytracing e le performance comparate alla gen precedente sono leggermente allarmanti.
Video che sicuramente ha dei meriti, il principale è quello di evidenziare quello che in realtà è già evidente agli utenti un po' più accorti, ovvero che i claim di Nvidia sono esagerati.
Detto questo, il modo in cui calcola l'incremento di prestazioni in ray tracing della RTX4090 non ha senso e i risultati per tanto sono fuorvianti ( o per lo meno li spiega male). Ci sono delle imprecisioni nella manipolazione dei dati proprio a livello matematico, ma non cambiano di molto il senso della questione, quindi sorvoliamo.
Il problema è proprio il concetto. Secondo lui se la RTX4090 è più veloce del 50% rispetto alla RTX3090ti in un titolo senza utilizzare il ray tracing e, quando il ray tracing viene attivato, la differenza rimane del 50% significa che la RTX4090 non è più veloce della RTX3090ti in ray tracing. La conclusione del ragionamento è errata perchè non considera il fatto che il ray tracing provoca un carico addizionale sulla GPU, ovvero aumenta il tempo necessario per elaborare un frame, tantoché il frame rate, attivandolo, scende.
Esempio semplice per capire cosa intendo: ipotizziamo che l'elaborazione segua uno schema lineare, quindi priam viene creato la scena in rastering e poi si aggiungo gli effetti in ray tracing (non è vero, ma non importa).
Con la RTX3090 ti poniamo caso che per generare un frame in rastering ci vogliano 10 ms (100fps).
Se attiviamo il ray tracing invece il tempo sale a 20ms, 10 per l'elaborazione rastering, 10 per l'elaborazione ray tracing (50fps).
Ora veniamo alla RTX4090, che essendo il 50% più veloce in rastering elabora un frame in 6.666ms (150fps).
Secondo il suo ragionamento, fare +50% anche in ray tracing implicherebbe che le prestazioni in ray tracing sarebbero rimaste le stesse, mentre l'intero miglioramento proverebbe dal rastering. Però 6.666ms+10 fa 16.666, ovvero la RTX4090 in questo modo sarebbe capace di soli 60fps (+20%) in ray tracing.
Per fare +50%, ovvero un frametime di 13.33ms (75fps), serve un miglioramento del 50% anche in ray tracing: difatti 6.666+6.666ms fa 13.333.
Quindi se il rapporto tra le prestazioni in rastering e le prestazioni in ray tracing rimane uguale, significa che i miglioramenti interessano in egual modo la parte rastering e la parte ray tracing. La conclusione corretta a seguito dei dati elencati nei video sarebbe che Nvidia sta migliorando il ray tracing a un ritmo poco superiore rispetto a quanto fatto con il rastering.
O per lo meno, questo è quello che i dati in gaming sembrano indicare, perchè se invece si considerano programmi full ray tracing (professionali e non) in effetti il divario cresce rispetto a quello che sia può stimare mediamente nei giochi con rendering "ibrido".
Ma per questo ci possono essere tante spiegazioni, tipo che quando la GPU si trova ad affrontare un carico misto alcune risorse condivise tra shaders e RT core creano un bottleneck. Oppure il bottleneck può anche derivare da fattori esterni alla GPU (e in gaming con una RTX4090 questo avviene piuttosto spesso, anche in 4k...).