Il video spiega molto bene, visivamente, a cosa serve e i vantaggi che si hanno.
Tecnicamente ne avevamo parlato al lancio, ed era (per me) molto esauriente il
link sul DLSS3 che aveva inserito
@pribolo, dove si vede come questa generazione avviene, pixel per pixel... o meglio, quadratino per quadratino, perche' i vettori di movimento, come per i video, riguardano un'area.
La domanda importante appunto e': "perche' sia stato limitato alla serie 4000?"... a cui ancora pero' nessuno ha dato una risposta "concreta".
Dico questo perche' nel video che hai postato (e anche altrove) si parla di Optical Flow
Accelerator.
(Anche questo discusso con
@pribolo,
qui e
qui.)
Ma questo
Optical Flow Accelerator (con relativo SDK: Software Development Kit) esiste gia' fin dalla serie Turing e cito dalla pagina NVidia:
The NVIDIA Turing architecture introduced a new hardware functionality for computing optical flow between a pair of images with very high performance.
Cio' che c'e' di piu' nel DLSS3 e' che questa tecnica di generazione "intra-frame" viene
integrata anche col raytracing (RTX): lo spiega bene la pagina deicata al DLSS3, dove si parla dell'ombra del motociclista.
Pero', per il momento, nessuno ci ha detto quale hardware "dedicato" ci sia sulla serie 4000 per cui questa tecnica non possa essere riprodotta anche sulle serie RTX precedenti.
E' un "nuovo" Optical Flow Generator/Accelerator?
O semplicemente il DLSS3 puo' essere riprodotto, ma non e' cosi' "fluido" come su 4000 (grazie al maggior numero di TensorCores)... quindi e' stato semplicemente "inibito" per le RTX precedenti?
P.S.
A pensar male qualcuno potrebbe dire: "semplice scelta di marketing"