ad aprile sapremo di più...
la questione che lo chiami DLSS o Direct ML non influisce più di tanto: sono algoritmi ricavati da un'analisi su rete neurale per campionamento da alcuni screenshot a risoluzioni diverse.
come riportare la visione di 4K da una risoluzione 1440p, ad esempio, bilanciando il costo del computo rispetto alla visualizzazione.
trovati i parametri, grazie all'inferenza su IA che tira fuori il/i migliore/i algoritmo/i per il set d'immagini in sessioni dedicate a questo scopo, si utilizzano per l'upscaling in real time sulla GPU.
quello che voglio andare a capire è che riuscire a valutare il boost prestazionale dato dal fatto che hai unità specifiche per calcolare le matrici di questi algoritmi non è cosa semplice, ossia non possiamo determinare quanto i tensor core siano sfruttati nella loro massima capacità di calcolo.
può essere che i tensor core siano altamente sfruttati e quindi quella di avere un HW dedicato per queste cose sia l'unica strada, ed nvidia si troverebbe avvantaggiata perchè ha unità dedicate al compito, come potrebbe essere che lo stesso algoritmo si può far applicare non solo alle normali GPU ma magari anche alla CPU stessa, per quanto risulta leggero.. molto probabilmente il peso del computo è una via di mezzo.. un bilanciamento.
voglio ricordare che le RTX è vero che hanno in più questa caratteristica, come quella dell'RT core, ma che è una caratteristica che ha il suo consumo sulla potenza complessiva del chip, sia in fatto di energia che di banda sul bus che di uso della memoria (in qualche modo si devono passare i dati!), e che se anche fosse vero quello che ha indicato nvidia nella sua presentazione, ossia che hanno un'efficienza 6 volte maggiore rispetto a quella dei cudacore a fare la stessa cosa, è pur vero che per pareggiare la potenza cudacore di una 2080 TI costerebbe al chip 1/6 di 300W, ossia 50W.
ora, chi ha una 2080 Ti, potrebbe tranquilamente testarla con un power limit del 16-20% in meno e guardare che prestazioni dona la scheda ( ma alle medesime temperature, sennò boosta a manetta comunque) di quanto stà a 300W ma alimentata a 250W, ma basta semplicemente fare un grossolano rapporto, ossia andrà al massimo all'80-85% delle prestazioni a piena potenza.
e questo nellla migliore ipotesi illustrata da nvidia, ossia che si sta usando i tensor core con un'algoritmo che richiede al 100% l'uso dei tensor core invece che l'uso del resto del sistema (attenzione: richiede solo il lavoro dei tensor core, non che richieda che i tensor core lavorino al 100%), situazione decisamente anomala per un algoritmo complesso che necessita di essere "trattato" anche dalla CPU se non implementato in HW sul chip (ma le "unità dedicate" tensor core, in effetti, non sono specifiche per un algoritmo come potrebbe essere un ASIC, sono specifiche per un certo tipo di lavoro, ossia matriciale, e di un certo specifico tipo, quindi sono unità di propositi generalisti su un particolare tipo di lavoro, ma assolutamente non sono specifiche)... a spanne potrebbero avere un rendimento anche solo con un fattore x3, in quella determinata situazione, ossia anche meno del 50% di quanto descritto in un sistema ideale.
quindi un conto e avere 300W per i cudacore e spingerli a manetta a 1440p, un conto è avere gli stessi cudacore e doverli usare con solo 200W per produrre 1440p e dover usare gli altri 100W per far girare l'algoritmo sui tensor core...
su Guru3D ci illustrano che usando RTX si perde il 20% a pari risoluzione, ma il benchmark non può essere ancora usato con DLSS attivato per un bug (!che strano!), quindi la stima di questo "costo" risulta invalutabile ancora una volta e comunque è un'altro tipo di tecnologia, che si appoggia ancora pesantemente sui cudacore (in pratica ne aumenta solo il lavoro perchè renderizza anche quello che non si vede).
il fatto è comunque uno, sia che si parli di RTX che di DLSS: la potenza per la scheda grafica è quella, o la usi per fare una cosa o per farne 2 o 3 la puoi solo dividere e bilanciare, ma non certo sommare.
e le prestazioni senza DLSS ed RTX sono date esclusivamente dai cudacore, quindi la massima espressione prestazionale che la scheda può mostrare perchè alimenta principalmente quei transistors e non altri.
altra ipotesi sul del Direct ML:
una volta si usava il crossfire o lo SLI per aumentare le prestazioni con 2 schede; oggi, magari, potremmo usare una scheda che renderizza a risoluzione bassa e l'altra che si prende i frame generati e li elabora con un algoritmo di scaling (apportando un minimo di latenza per applicare l'algoritmo di scaling).
potenze indipendenti per fare il rendering e per fare l'upscaling.
d'altronde la scheda di rendering con qualcosa comunica, ed oggi manda dati binari e non più dati analogici da dover poi ricampionare, quindi è una possibile strategia d'uso per un miglioramento visivo senza dover decurtare le prestazioni, ed in modo anche "economico".
una VII costa comunque la metà di una 2080 Ti e una vega 64 fa 49fps a 1440p contro i 50fps della 1080 Ti a 4K, quindi un set di VII potrebbe donare oltre i 60fps in 4K anche su un gioco del genere, perchè una elabora a 1440p e l'altra applica il Direct ML.
stessa cosa si può applicare al DRX: una si occupa del rendering della scena che vede, l'altra scheda si occupa del rendering della scena vista dalla direzione del riflesso, e poi si uniscono i dati (ho già spiegato come funziona questa tecnologia, almeno sui riflessi); non sarebbe necessaria nemmeno una accurata sincronia....
insomma DXR e DXML potrebbero essere tecnologie che consentirebbero di migliorare resa visiva e velocità delle schede usandole anche più di una, mentre RTX e DLSS potrebbero avere un rendimento migliore per frame, ma rimangono altamente limitati dal fatto che sono su un solo chip e che l'alimentazione di quel chip ha ben determinati limiti massimi.
in più si potrebbe semplicemente usare un ASIC, come avviene su altri tipi di HW (quelli usati per l'elaborazione video, per le TV... le sony usavano il Cell proprio come scaling HW, ma il cell è un'altro processore vettoriale, non un ASIC dedicato ad un determinato algoritmo).
ma, il tutto, sono comunque fantasie di poveri illusi, perchè se non c'è lo sviluppo di tali tecnologie, non le vedremo mai applicate.
MAI!
quindi qui la questione è che se gli sviluppatori non trovano terreno fertile per le loro fatiche (remunerazione per le vendite) non non vedremo mai nulla di tutto ciò concretizzarsi in un software, perchè faticare a gratiss ci ho visto realmente poche persone.
ok.. sono andato per la tangente, ispirato dal momento, ma il senso è nell'ultima frase... non c'è una base HW consistente, non c'è possibilità che queste soluzioni arrivino sul mercato, perchè nessuno se le fila per il costo... e la 2060 non può fare miracoli, perchè son comunque 350 euro di HW.