RTX 4070 liscia o 7800 XT ?

Pubblicità
Spero solo che il DLSS 3 o 3.5 non soffra di ghosting come l'FSR (l'unico upscaling che io abbia provato) perche' mi fa venire il mal di testa
il dlss non soffre di ghosting

le primissime versioni del DLSS ( 1.0)
avevano questo problema che era dato dal fatto che l'IA attravero il driver non era ancora pronta ed addestrata

Oggi si può addirittura dire che spesso il DLSS offre un esperienza pari o migliore del nativo per quello che riguarda il preset qualità

Non solo ma il DLSS 3.5 porta miglioramenti assurdi per quello che riguarda l'uso dei denoiser

avere il dlss in un gioco in PTX significa questo




NON averlo significa questo



Nvidia basa le sue innovazioni su un solito sottosistema hardware, ossia le innovazioni che ha eseguito nel corso del tempo hanno il supporto hardware sotto e sono "ragionate"

AMD si limita a copiare e rincorrere con soluzioni di tipo software che ovviamente non possono rendere come la contro parte

FSR ne è la prova ancfhe quando è implementato bene si ha un degrado dell'immagine evidente, in guiochi come the witcher 3 è addirittura inguardabile.

AMD dovrebbe cambiare semplicemente politiche, verso una politica più incentrata sui prezzi che a rincorrere Nvidia dove nel suo campo innovativo non ha proprio rivali
 
Ultima modifica:
Vorrei aggiungere un dettaglio importante che i faboy amd omettono quando parlano della 7800xt, ma evidenziano erroneamente quando parlando di nvidia: tra la 7800xt e la 6800xt c'è un schifo di 5% di prestazioni senza aggiungere null'altro.... woooow che traguardo per le radeon eh?? Bello avere una scheda di nuova gen sulla stessa fascia che va praticamente come la vecchia woooow. Questa non è una presa per il c.....o da parte amd? No ve? Questo va bene... mentre nvidia con la 4070 che ha raggiunto la 3080 (ma aggiungendo ulteriori performance in RT ed il frame generator) fa schifo cacca pupù ve? Tra la 3070 e la 4070 balla un 25% di performance tanto per intenderci! L'onestà intellettuale è inesistente nei fanboy amd e questa ne è la prova

Vogliamo parlare dell'efficienza energetica? Vogliamo parlare dei driver amd che ogni 2x3 fanno cilecca??? No perchè mi sembra che sia stata già bella che distrutta sta 7800xt
 
Vorrei aggiungere un dettaglio importante che i faboy amd omettono quando parlano della 7800xt, ma evidenziano erroneamente quando parlando di nvidia: tra la 7800xt e la 6800xt c'è un schifo di 5% di prestazioni senza aggiungere null'altro.... woooow che traguardo per le radeon eh?? Bello avere una scheda di nuova gen sulla stessa fascia che va praticamente come la vecchia woooow. Questa non è una presa per il c.....o da parte amd? No ve? Questo va bene... mentre nvidia con la 4070 che ha raggiunto la 3080 (ma aggiungendo ulteriori performance in RT ed il frame generator) fa schifo cacca pupù ve? Tra la 3070 e la 4070 balla un 25% di performance tanto per intenderci! L'onestà intellettuale è inesistente nei fanboy amd e questa ne è la prova
il punto è che oggi il mercato è cambiato l'ho sto dicendo già da un pò, e lo sviluppo non si basa più sul semplice rastering ma su tecniche diverse di upscaling e effetti in RTX che diventano sempre più applicati contemporaneamente e a cose diverse

Le schede puntano verso questa direzione MA amd sembra molto più "lenta" in tutto anche suelle architetture che puntano al miglioramento verso questo tipo di tecnologie. probabilment eun limite anche di RDNA 3 che non è al livello di nvidia.

In pratica Nvidia non punta più al rastering puro già da un pò visto che le schede riescono bene o male a dare delle buone performance, ma la sfida è proprio nel raggiungere un alto frame nei giochi con effetti in RTX pesanti e non parliamo solo di uno o 2 effetti applicati orami ma di giochi più vecchi che vengono completamente rifatti in PTX
 
il punto è che oggi il mercato è cambiato l'ho sto dicendo già da un pò, e lo sviluppo non si basa più sul semplice rastering ma su tecniche diverse di upscaling e effetti in RTX che diventano sempre più applicati contemporaneamente e a cose diverse

Le schede puntano verso questa direzione MA amd sembra molto più "lenta" in tutto anche suelle architetture che puntano al miglioramento verso questo tipo di tecnologie. probabilment eun limite anche di RDNA 3 che non è al livello di nvidia.

In pratica Nvidia non punta più al rastering puro già da un pò visto che le schede riescono bene o male a dare delle buone performance, ma la sfida è proprio nel raggiungere un alto frame nei giochi con effetti in RTX pesanti e non parliamo solo di uno o 2 effetti applicati orami ma di giochi più vecchi che vengono completamente rifatti in PTX
No ma il bello è che a parte nvidia a che è stata la prima ad investire in queste tech, anche le console vanno in questa direzione e di conseguenza anche la stessa AMD e da poco anche intel pur rimanendo giustamente indietro rispetto nvidia. Il problema sono i fanboy amd che non hanno minimamente capito come si sta evolvendo la grafica dei giochi, cercando aggiungere quel foto realismo che il puro raster non potrà mai darti. Amd è semplicemente un player all'interno del mondo videoludico. I fanboy amd invece sono la piaga che fa disinformazione. Ecco dove sta il problema!!!
 
No ma il bello è che aparte nvidia a llche è stata la prima ad investire in queste tech, anche le console vanno in questa direzione e di conseguenza anche la stessa AMD e da poco anche intel pur rimanendo giustamente indietro rispetto nvidia. Il problema sono i fanboy amd che non hanno minimamente capito come si sta evolvendo la grafica dei giochi, cercando aggiungere quel foto realismo che il puro raster non potrà mai darti. Amd è semplicemente un player all'interno del mondo videoludico. I fanboy amd invece sono la semplicemente la piaga che fa disinformazione. Ecco dove sta il problema!!!
basta spiegarlo

Molti non riescono a capire che la rasterizzazione orami ha raggiunto il suo limite, alcune volte il limite è tecnologico, in cui per svariati motivi il rastering non riesce a fare di melgio, in altre situazioni è fattuale nel senso che il lavoro dello sviluppatore richiederebbe un tempo immane e risorse nettamente superiori sia al livello lavorativo che al livello proprio di resa

Mi spiego meglio con un immagine che ho postato sopra



Nonostante il gioco sia vecchio vediamo un illuminazione e delle ombre perfette, sfumate naturali come dovrebbero essere nella realtà

E' vero che gli effetti in RTX sono pesanti ma non si considera mai quanto sarebbero pesanti gli stessi effetti applicati in rastering

Ossia per fare la stessa qualità dell'immagine ma in rasterizzazione per avere la stessa qualità dell'ombreggiatura, illuminazione ecc in rasterizzazione ci vorrebbe un lavoro 1000 volte superiore, con filtri e modifiche talmente pesanti che il ray tracing risulta più leggero
 
come chiedere all'oste se il suo vino è buono 🤣
Osteeeeeeeee è buono il vinoooo???

No ma il bello è che, almeno kitguru ha avuto il coraggio di ammetterlo, sintomo che un pò di malcontento tra loro c'è probabilmente. Per gli altri 2 invece proprio non sono minimamente da commentare....
 
Ma esiste un sito dove scaricare video 4k senza compressione di confronto tra dlss ed fsr? Su youtube c'è parecchia compressione e le immagini non servono a nulla perché puoi vedere solo la qualità immagine ma non appunto la qualità in movimento
 
falso, è proprio questa la rivoluzione DLE DLSS che è uno scaler basato su IA
La IA o machine learning altro non è che una rete neurale che è esprimibile tramite TENSORI, da cui tensor-core.
In pratica devi addestrare i pesi dei tensori e crei un modello che riesce ad esempio a partizionare un piano di colori in un altro.
Per addestrarla gli dai in pasto un numero n>>1 di immagini in bassa risoluzione e alta risoluzione contemporaneamente e lei ti fa il mapping di come sarebbe di solito la risoluzione più alta a partire da quella più bassa.
OK ?
Ok, ma questo non ti permetterà mai un upscaling perfetto, solo un'approssimazione di quello che sarebbe in realtà.
Non è un caso che nei primi test del DLSS sparivano addirittura le auto in particolari condizioni (ci sono video che lo dimostrano).
La ricostruzione è sempre un upscaling e se l'informazione NON C'E' non la puoi creare.
Se hai tanti frame, e hai il precedente e il successivo prossimi, questo è meno vero, perché ci sono poche differenze tra i due frame per generare il terzo con un algoritmo o con un machine learning.

Se hai mai usato programmi come tensorflow lo capisci subito.
Arrivi a un livello di perfezione dipendente al numero di dati di input.

Se hai pochi frame molto distanziati prevedere quel che c'era nel mezzo è più arduo.
Boh, spero che sia chiaro... è come fare le previsioni atmosferiche a 24 ore o a 5 gg un conto è quando hai 20 Fps un conto è quando ne hai 100 di Fps nella tua matrice di input della rete.
 
Ma esiste un sito dove scaricare video 4k senza compressione di confronto tra dlss ed fsr? Su youtube c'è parecchia compressione e le immagini non servono a nulla perché puoi vedere solo la qualità immagine ma non appunto la qualità in movimento
ma nons erve il DLSS è palesemente superiore basta uno screen che ti faccio ora ora

1695218696371.png


Quale è il DLSS?
 
La IA o machine learning altro non è che una rete neurale che è esprimibile tramite TENSORI, da cui tensor-core.
In pratica devi addestrare i pesi dei tensori e crei un modello che riesce ad esempio a partizionare un piano di colori in un altro.
Per addestrarla gli dai in pasto un numero n>>1 di immagini in bassa risoluzione e alta risoluzione contemporaneamente e lei ti fa il mapping di come sarebbe di solito la risoluzione più alta a partire da quella più bassa.
OK ?
Ok, ma questo non ti permetterà mai un upscaling perfetto, solo un'approssimazione di quello che sarebbe in realtà.
Non è un caso che nei primi test del DLSS sparivano addirittura le auto in particolari condizioni (ci sono video che lo dimostrano).
La ricostruzione è sempre un upscaling e se l'informazione NON C'E' non la puoi creare.
Se hai tanti frame, e hai il precedente e il successivo prossimi, questo è meno vero, perché ci sono poche differenze tra i due frame per generare il terzo con un algoritmo o con un machine learning.

Se hai mai usato programmi come tensorflow lo capisci subito.
Arrivi a un livello di perfezione dipendente al numero di dati di input.

Se hai pochi frame molto distanziati prevedere quel che c'era nel mezzo è più arduo.
Boh, spero che sia chiaro... è come fare le previsioni atmosferiche a 24 ore o a 5 gg un conto è quando hai 20 Fps un conto è quando ne hai 100 di Fps nella tua matrice di input della rete.

invece un Ia ti permette di creare informazioni anche quando non sono presenti, sta proprio lui la differenza e si vede anche nelle immagini comparative

Su quello che dico ho portato ampia dcoumentazione sopra ma si può trovare riscontro anche negli articoli di nvidia debvelopers



Ecco qua ti faccio un nativo vs DLSS fatto in QHD dove le "informazioni" sono di meno

1695219163933.webp



le chjiacchiere stanno a 0
 
Pubblicità
Pubblicità
Indietro
Top