- Messaggi
- 84,912
- Reazioni
- 38,462
- Punteggio
- 253
era una domanda retoirica, ma si vede ad occhio che il dlss rende 10 volte melgio e posso prendere qualsiasi gioco persino quelli cui non è stato implementatoC'è scritto sui titoli in alto![]()
Segui il video qui sotto per vedere come installare il nostro sito come web app sulla tua schermata principale.
Nota: Questa funzionalità potrebbe non essere disponibile in alcuni browser.
PubblicitÃ
era una domanda retoirica, ma si vede ad occhio che il dlss rende 10 volte melgio e posso prendere qualsiasi gioco persino quelli cui non è stato implementatoC'è scritto sui titoli in alto![]()
Non è proprio così.invece un Ia ti permette di creare informazioni anche quando non sono presenti, sta proprio lui la differenza e si vede anche nelle immagini comparative
Su quello che dico ho portato ampia dcoumentazione sopra ma si può trovare riscontro anche negli articoli di nvidia debvelopers
Ecco qua ti faccio un nativo vs DLSS fatto in QHD dove le "informazioni" sono di meno
Visualizza allegato 466356
le chjiacchiere stanno a 0
fsr è in ogni gioco molto più "sfocato" proprio perchè è un semplice scalerSi era chiaro dalla qualità dell'immagine avendolo anche utilizzato...ma mi era balzata subito all'occhio il nome della foto..FSR lo vedo sempre un pò sfocato come effetto almeno sul mio 34"

quellop è une sempio che non ha nulla a che fare per come funzioan il DLSSNon è proprio così.
Nella foto in alto come lavora la I.A. essa è in grado di trovare la linea di separazione tra l'insieme blu e il nero in alto dopo l'addestramento.
Ma poi la divisione sarà sempre quella.
Lo stesso accade quell'immagine: ci sono dei blu inesistenti nello sfondo perché quando riconosce il pattern delle foglie ci vuole il blu anche se dietro c'è una montagna.
Con una rete di 184 nodi fai tanto, ma non è detto sarà perfetta visto che è come uno zip di informazioni mediate.
Io ho usato reti di 64 nodi per fare previsioni di consumi, ma l'errore era inevitabilmente del 10% perché alla fine hai variabili come oggetti strani che ti compaiono/elimini in alcuni casi.
Altro sono le texture, dove scali texture di qualità .
Questo è quanto e non ho ancora deciso eh... l'ho scritto prima... :D
Fino ad ora per me sono sostanzialmente alla pari sui 1440p, vince un po' la 7800 sui 4k, mentre vince la 4070 sui giochi "sbagliati" dove hanno fatto male le ottimizzazioni e ci vuole intelligenza per rimettere le cose a posto.
Poi ripeto il mio è un caso particolare in cui faccio (anche) fotografia e qualche montaggio A/V quindi ho un uso a volte hobbystico del PC che mi spingerebbe verso una nvidia peraltro visto che è più "compatibile".
Ma ripeto io non ho le schede per fare un confronto, mi limito ai benchmark che trovo on-line.
Dici di aver lavorato con l'AI su qualche progetto, ma non sembra tu ci abbia capito molto sul come agisce sul rendering dei videogiochi tramite il DLSS / ray reconstruction, vatti a cercare cos'ha dichiarato di recente Bryan Catanzaro. Il futuro del realismo grafico nei videogiochi si chiama Ray Tracing /Path tracing / DLSS servendosi del deep learning tramite AI. Siamo ad un punto critico per quanto riguarda la miniaturizzazione del silicio, servono soluzioni alternative ed efficaci per il futuro, altrimenti rimarremo sempre ancorati alla grafica di 20 anni fa, perchè il rastering moderno è solo un'evoluzione di ciò che abbiamo da 20 anni, ma non è questa la soluzione in quanto non sarà mai fotorealistica. Che vi piaccia o no, il mondo videoludico va TUTTO in questo senso.La IA o machine learning altro non è che una rete neurale che è esprimibile tramite TENSORI, da cui tensor-core.
In pratica devi addestrare i pesi dei tensori e crei un modello che riesce ad esempio a partizionare un piano di colori in un altro.
Per addestrarla gli dai in pasto un numero n>>1 di immagini in bassa risoluzione e alta risoluzione contemporaneamente e lei ti fa il mapping di come sarebbe di solito la risoluzione più alta a partire da quella più bassa.
OK ?
Ok, ma questo non ti permetterà mai un upscaling perfetto, solo un'approssimazione di quello che sarebbe in realtà .
Non è un caso che nei primi test del DLSS sparivano addirittura le auto in particolari condizioni (ci sono video che lo dimostrano).
La ricostruzione è sempre un upscaling e se l'informazione NON C'E' non la puoi creare.
Se hai tanti frame, e hai il precedente e il successivo prossimi, questo è meno vero, perché ci sono poche differenze tra i due frame per generare il terzo con un algoritmo o con un machine learning.
Se hai mai usato programmi come tensorflow lo capisci subito.
Arrivi a un livello di perfezione dipendente al numero di dati di input.
Se hai pochi frame molto distanziati prevedere quel che c'era nel mezzo è più arduo.
Boh, spero che sia chiaro... è come fare le previsioni atmosferiche a 24 ore o a 5 gg un conto è quando hai 20 Fps un conto è quando ne hai 100 di Fps nella tua matrice di input della rete.


Si ma infatti.... ma di cosa vogliamo parlare....guarda caso una recente intervista a Bryan Catanzaro ha appunto appurato come la risoluzione nativa non è più la soluzione ideale
![]()
Nvidia Says Native Resolution Gaming is Out, DLSS is Here to Stay
The times are changingwww.tomshardware.com
L'intervista completa
Giusto per capire l'enorme differenza che porta il RAY traciong
Ecco come appare CP al massimo della rasterizzazione
Visualizza allegato 466379
Ecco invece come appare in anteprioma tecnologica
Visualizza allegato 466380
E' praticamente il giorno e la notte
Mischi un po', ma ok.Dici di aver lavorato con l'AI su qualche progetto, ma non sembra tu ci abbia capito molto sul come agisce sul rendering dei videogiochi tramite il DLSS / ray reconstruction, vatti a cercare cos'ha dichiarato di recente Bryan Catanzaro. Il futuro del realismo grafico nei videogiochi si chiama Ray Tracing /Path tracing / DLSS servendosi del deep learning tramite AI. Siamo ad un punto critico per quanto riguarda la miniaturizzazione del silicio, servono soluzioni alternative ed efficaci per il futuro, altrimenti rimarremo sempre ancorati alla grafica di 20 anni fa, perchè il rastering moderno è solo un'evoluzione di ciò che abbiamo da 20 anni, ma non è questa la soluzione in quanto non sarà mai fotorealistica. Che vi piaccia o no, il mondo videoludico va TUTTO in questo senso.
Sono pronto a scommetterci che anche le prossime console mid gen (ps5 pro e xbox series x pro) avranno unità AI. Evoluzione amico mio, evoluzione. Ma tu tranquillo, comprati una radeon per fare 150fps in 720 a derragli prato fiorito
Guarda, ho un impastata generale sul machine learning ma non sono mai entrato in tecnicismi anche perchè non mi competono. Tuttavia la questione che hai sollevato non è da poco. Io spero solo che questo strumento venga usato nella maniera giusta e non vanga accorpata tutta questa "intelligenza" che noi stiamo creando, in un unico grande "cervello" AI, altrimenti son doloriMischi un po', ma ok.
Bryan Catanzaro lavora in NVIDIA quindi diciamo che sul futuro lo vede come lo vedono a Santa Clara...
Ora tutti i chip stanno implementando l'IA, anche nei Meteor-Lake di Intel se non erro ci sarà una NCU.
E se fsr3 e tutto il resto lo fanno da driver penso che AMD e soci (ossia anche Intel) cercheranno di recuperare li il gap proprio usando l'IA del processore.
Mettila così le "teconologie di IA" sono un po' come dei file zip in cui metti un quadrato 10x10 pixel e te ne danno un 20x20 in base all'addestramento che hai fatto e ai campionamenti che fai di tanto in tanto sulla scena, quindi i giochi daranno ai driver i pesi della rete per fare il mapping caricandoli.
Sul mio lavoro con il machine learning beh ci ho fatto degli strumenti per prevedere i consumi (neanche tanto male con un errore del 10-15%)... usando tensorflow.
E (incredibile a dirsi) ho deciso alla fine di farmi la 4070 perché alla fine tensorflow usa CUDA che è la vera forza di NVIDIA la libreria che è usata ovunque...
Sul futuro penso che arriveremmo all'I.A. diffusa, ognuno dovrà a suo malgrado interagire con la propria I.A. che sarà come il telefonino indossata e prenderà tuoi dati H24 per suggerirti come migliorare.
Almeno fino a quando non sarà l'essere più intelligente del pianeta.
A questo proposito (dai chiudo ludico) ecco cosa ci dice google bard... :D
Sicuramente nvidia offre tecnologie da grafica nextgen, indipendentemente dalle gpu, a differenza delle tech grafiche di AMD. Su questo non ci piovetutti a inchinarsi al dlss3 di nvidia e poi quando uscirà il dlss 4.0 sarà esclusiva delle rtx5000 e chi ha preso la rtx4000 perché hanno il frame generation al posto delle rtx3000 si sentirà preso in giro ma continuerà comunque a lodare nvidia
Da certamente fastidio una politica del genere ma si sta parlando della tecnologia in se ed è innegabile che Nvidia è su un altro pianeta.tutti a inchinarsi al dlss3 di nvidia e poi quando uscirà il dlss 4.0 sarà esclusiva delle rtx5000 e chi ha preso la rtx4000 perché hanno il frame generation al posto delle rtx3000 si sentirà preso in giro ma continuerà comunque a lodare nvidia