RTX 4070 liscia o 7800 XT ?

Pubblicità
Si era chiaro dalla qualità dell'immagine avendolo anche utilizzato...ma mi era balzata subito all'occhio il nome della foto..FSR lo vedo sempre un pò sfocato come effetto almeno sul mio 34"
 
invece un Ia ti permette di creare informazioni anche quando non sono presenti, sta proprio lui la differenza e si vede anche nelle immagini comparative

Su quello che dico ho portato ampia dcoumentazione sopra ma si può trovare riscontro anche negli articoli di nvidia debvelopers



Ecco qua ti faccio un nativo vs DLSS fatto in QHD dove le "informazioni" sono di meno

Visualizza allegato 466356



le chjiacchiere stanno a 0
Non è proprio così.
Nella foto in alto come lavora la I.A. essa è in grado di trovare la linea di separazione tra l'insieme blu e il nero in alto dopo l'addestramento.
Ma poi la divisione sarà sempre quella.
Lo stesso accade quell'immagine: ci sono dei blu inesistenti nello sfondo perché quando riconosce il pattern delle foglie ci vuole il blu anche se dietro c'è una montagna.
Con una rete di 184 nodi fai tanto, ma non è detto sarà perfetta visto che è come uno zip di informazioni mediate.
Io ho usato reti di 64 nodi per fare previsioni di consumi, ma l'errore era inevitabilmente del 10% perché alla fine hai variabili come oggetti strani che ti compaiono/elimini in alcuni casi.
Altro sono le texture, dove scali texture di qualità.
Questo è quanto e non ho ancora deciso eh... l'ho scritto prima... :D

Fino ad ora per me sono sostanzialmente alla pari sui 1440p, vince un po' la 7800 sui 4k, mentre vince la 4070 sui giochi "sbagliati" dove hanno fatto male le ottimizzazioni e ci vuole intelligenza per rimettere le cose a posto.
Poi ripeto il mio è un caso particolare in cui faccio (anche) fotografia e qualche montaggio A/V quindi ho un uso a volte hobbystico del PC che mi spingerebbe verso una nvidia peraltro visto che è più "compatibile", ma ho un monitor 60hz... 4k che se ne frega degli fps altissimi, anzi... gli fanno male..
Ma ripeto io non ho le schede per fare un confronto, mi limito ai benchmark che trovo on-line.
 

Allegati

  • IA.webp
    IA.webp
    274.1 KB · Visualizzazioni: 21
Si era chiaro dalla qualità dell'immagine avendolo anche utilizzato...ma mi era balzata subito all'occhio il nome della foto..FSR lo vedo sempre un pò sfocato come effetto almeno sul mio 34"
fsr è in ogni gioco molto più "sfocato" proprio perchè è un semplice scaler

Ma la differenza è evidente in qualsiasi gioco

1695220381567.webp

qui ciberpunk 2077 dove FSR è molto ben implementato anche qui la differenza è netta
 
Non è proprio così.
Nella foto in alto come lavora la I.A. essa è in grado di trovare la linea di separazione tra l'insieme blu e il nero in alto dopo l'addestramento.
Ma poi la divisione sarà sempre quella.
Lo stesso accade quell'immagine: ci sono dei blu inesistenti nello sfondo perché quando riconosce il pattern delle foglie ci vuole il blu anche se dietro c'è una montagna.
Con una rete di 184 nodi fai tanto, ma non è detto sarà perfetta visto che è come uno zip di informazioni mediate.
Io ho usato reti di 64 nodi per fare previsioni di consumi, ma l'errore era inevitabilmente del 10% perché alla fine hai variabili come oggetti strani che ti compaiono/elimini in alcuni casi.
Altro sono le texture, dove scali texture di qualità.
Questo è quanto e non ho ancora deciso eh... l'ho scritto prima... :D

Fino ad ora per me sono sostanzialmente alla pari sui 1440p, vince un po' la 7800 sui 4k, mentre vince la 4070 sui giochi "sbagliati" dove hanno fatto male le ottimizzazioni e ci vuole intelligenza per rimettere le cose a posto.
Poi ripeto il mio è un caso particolare in cui faccio (anche) fotografia e qualche montaggio A/V quindi ho un uso a volte hobbystico del PC che mi spingerebbe verso una nvidia peraltro visto che è più "compatibile".
Ma ripeto io non ho le schede per fare un confronto, mi limito ai benchmark che trovo on-line.
quellop è une sempio che non ha nulla a che fare per come funzioan il DLSS

Ci stava un articolo molto interesante sul sito che però adesos non riesco a trovare lì è spiegato bene come l'Ia riesca a generare le info mancanti, proprio eprchè in primis i giochi sono un sistema chiuso e secondo perché questo tecnologia orami è "addestrata" a determinati pattern

Ovviamente ci saranno sempre delle approssimazioni su cose imprevedibili, ma la qualità dell'imamgine sarà sempre nettamente superiore ad un FSR basato semplicemente su software
 
La IA o machine learning altro non è che una rete neurale che è esprimibile tramite TENSORI, da cui tensor-core.
In pratica devi addestrare i pesi dei tensori e crei un modello che riesce ad esempio a partizionare un piano di colori in un altro.
Per addestrarla gli dai in pasto un numero n>>1 di immagini in bassa risoluzione e alta risoluzione contemporaneamente e lei ti fa il mapping di come sarebbe di solito la risoluzione più alta a partire da quella più bassa.
OK ?
Ok, ma questo non ti permetterà mai un upscaling perfetto, solo un'approssimazione di quello che sarebbe in realtà.
Non è un caso che nei primi test del DLSS sparivano addirittura le auto in particolari condizioni (ci sono video che lo dimostrano).
La ricostruzione è sempre un upscaling e se l'informazione NON C'E' non la puoi creare.
Se hai tanti frame, e hai il precedente e il successivo prossimi, questo è meno vero, perché ci sono poche differenze tra i due frame per generare il terzo con un algoritmo o con un machine learning.

Se hai mai usato programmi come tensorflow lo capisci subito.
Arrivi a un livello di perfezione dipendente al numero di dati di input.

Se hai pochi frame molto distanziati prevedere quel che c'era nel mezzo è più arduo.
Boh, spero che sia chiaro... è come fare le previsioni atmosferiche a 24 ore o a 5 gg un conto è quando hai 20 Fps un conto è quando ne hai 100 di Fps nella tua matrice di input della rete.
Dici di aver lavorato con l'AI su qualche progetto, ma non sembra tu ci abbia capito molto sul come agisce sul rendering dei videogiochi tramite il DLSS / ray reconstruction, vatti a cercare cos'ha dichiarato di recente Bryan Catanzaro. Il futuro del realismo grafico nei videogiochi si chiama Ray Tracing /Path tracing / DLSS servendosi del deep learning tramite AI. Siamo ad un punto critico per quanto riguarda la miniaturizzazione del silicio, servono soluzioni alternative ed efficaci per il futuro, altrimenti rimarremo sempre ancorati alla grafica di 20 anni fa, perchè il rastering moderno è solo un'evoluzione di ciò che abbiamo da 20 anni, ma non è questa la soluzione in quanto non sarà mai fotorealistica. Che vi piaccia o no, il mondo videoludico va TUTTO in questo senso.

Sono pronto a scommetterci che anche le prossime console mid gen (ps5 pro e xbox series x pro) avranno unità AI. Evoluzione amico mio, evoluzione. Ma tu tranquillo, comprati una radeon per fare 150fps in 720 a derragli prato fiorito
 
Ultima modifica:
guarda caso una recente intervista a Bryan Catanzaro ha appunto appurato come la risoluzione nativa non è più la soluzione ideale


L'intervista completa


Giusto per capire l'enorme differenza che porta il RAY traciong


Ecco come appare CP al massimo della rasterizzazione

1695291101735.webp

Ecco invece come appare in anteprioma tecnologica

1695291263986.webp

E' praticamente il giorno e la notte
 
Ultima modifica:
guarda caso una recente intervista a Bryan Catanzaro ha appunto appurato come la risoluzione nativa non è più la soluzione ideale


L'intervista completa


Giusto per capire l'enorme differenza che porta il RAY traciong


Ecco come appare CP al massimo della rasterizzazione

Visualizza allegato 466379

Ecco invece come appare in anteprioma tecnologica

Visualizza allegato 466380

E' praticamente il giorno e la notte
Si ma infatti.... ma di cosa vogliamo parlare....
 
Dici di aver lavorato con l'AI su qualche progetto, ma non sembra tu ci abbia capito molto sul come agisce sul rendering dei videogiochi tramite il DLSS / ray reconstruction, vatti a cercare cos'ha dichiarato di recente Bryan Catanzaro. Il futuro del realismo grafico nei videogiochi si chiama Ray Tracing /Path tracing / DLSS servendosi del deep learning tramite AI. Siamo ad un punto critico per quanto riguarda la miniaturizzazione del silicio, servono soluzioni alternative ed efficaci per il futuro, altrimenti rimarremo sempre ancorati alla grafica di 20 anni fa, perchè il rastering moderno è solo un'evoluzione di ciò che abbiamo da 20 anni, ma non è questa la soluzione in quanto non sarà mai fotorealistica. Che vi piaccia o no, il mondo videoludico va TUTTO in questo senso.

Sono pronto a scommetterci che anche le prossime console mid gen (ps5 pro e xbox series x pro) avranno unità AI. Evoluzione amico mio, evoluzione. Ma tu tranquillo, comprati una radeon per fare 150fps in 720 a derragli prato fiorito
Mischi un po', ma ok.
Bryan Catanzaro lavora in NVIDIA quindi diciamo che sul futuro lo vede come lo vedono a Santa Clara...
Ora tutti i chip stanno implementando l'IA, anche nei Meteor-Lake di Intel se non erro ci sarà una NCU.
E se fsr3 e tutto il resto lo fanno da driver penso che AMD e soci (ossia anche Intel) cercheranno di recuperare li il gap proprio usando l'IA del processore.
Mettila così le "teconologie di IA" sono un po' come dei file zip in cui metti un quadrato 10x10 pixel e te ne danno un 20x20 in base all'addestramento che hai fatto e ai campionamenti che fai di tanto in tanto sulla scena, quindi i giochi daranno ai driver i pesi della rete per fare il mapping caricandoli.
Sul mio lavoro con il machine learning beh ci ho fatto degli strumenti per prevedere i consumi (neanche tanto male con un errore del 10-15%)... usando tensorflow.
E (incredibile a dirsi) ho deciso alla fine di farmi la 4070 perché alla fine tensorflow usa CUDA che è la vera forza di NVIDIA la libreria che è usata ovunque...
Sul futuro penso che arriveremmo all'I.A. diffusa, ognuno dovrà a suo malgrado interagire con la propria I.A. che sarà come il telefonino indossata e prenderà tuoi dati H24 per suggerirti come migliorare.
Almeno fino a quando non sarà l'essere più intelligente del pianeta.
A questo proposito (dai chiudo ludico) ecco cosa ci dice google bard... :D
 

Allegati

  • bard.webp
    bard.webp
    69.5 KB · Visualizzazioni: 29
Non è così semplice.
Il Dlss di Nvidia non avviene solo attraverso il driver ma anche perché ci è un hardware molto specifico e dedicato dietro.
Lo puoi benissimo vedere nella costruzione del chip che è molto diverso da quello di AMD
Nvidia per il Dlss usa i cosiddetti tensor core, che sono unità di calcolo esternamente specializzate.

Non solo ma la ricostituzione avviene attraverso un coprocessore hardware dedicato (OFA) che si occupa anche del calcolo vettoriale.
È proprio grazie ad un OFA migliorato e che si riesce ad ottenere il frame generator.

Quello che affermi lo vedo molto improbabile, prima di tutto non è detto che sia possibile implementare la stessa cosa semplicemente attraverso l'utilizzo dei processori, che poi saranno occupati durante il gaming a fare quello che fanno

Secobdo anche se fosse non si capisce perché Intel dovrebbe avantaggiare AMD

Terzo trovo molto difficile creare la stessa cosa senza l'utilizzo di un hardware dedicato, e per inciso intendi con una qualità paragonabile all'attuale dlss

Che poi in futuro AMD o Intel possano utilizzare un approccio simile con una proposta simile e una propria IA può essere, ma dubito che la cosa sia fattibile con le schede attuali e comunque Nvidia si porta ormai anni di vantaggio nel settore.

Amd e Intel sono indietro, per assurdo Intel è meno indietro di AMD con un xess e prestazioni in rtx che spesso sono migliori di quelli dei rossi, ma è proprio diverso l'approccio

Le schede AMD non hanno tensor core, non hanno core per il RT dedicato, non hanno l'OFA per i vettoriali, tutto questo ovviamente è uno svantaggio enorme che poi si traduce in quello che si vede
 
Ultima modifica:
tutti a inchinarsi al dlss3 di nvidia e poi quando uscirà il dlss 4.0 sarà esclusiva delle rtx5000 e chi ha preso la rtx4000 perché hanno il frame generation al posto delle rtx3000 si sentirà preso in giro ma continuerà comunque a lodare nvidia
 
Mischi un po', ma ok.
Bryan Catanzaro lavora in NVIDIA quindi diciamo che sul futuro lo vede come lo vedono a Santa Clara...
Ora tutti i chip stanno implementando l'IA, anche nei Meteor-Lake di Intel se non erro ci sarà una NCU.
E se fsr3 e tutto il resto lo fanno da driver penso che AMD e soci (ossia anche Intel) cercheranno di recuperare li il gap proprio usando l'IA del processore.
Mettila così le "teconologie di IA" sono un po' come dei file zip in cui metti un quadrato 10x10 pixel e te ne danno un 20x20 in base all'addestramento che hai fatto e ai campionamenti che fai di tanto in tanto sulla scena, quindi i giochi daranno ai driver i pesi della rete per fare il mapping caricandoli.
Sul mio lavoro con il machine learning beh ci ho fatto degli strumenti per prevedere i consumi (neanche tanto male con un errore del 10-15%)... usando tensorflow.
E (incredibile a dirsi) ho deciso alla fine di farmi la 4070 perché alla fine tensorflow usa CUDA che è la vera forza di NVIDIA la libreria che è usata ovunque...
Sul futuro penso che arriveremmo all'I.A. diffusa, ognuno dovrà a suo malgrado interagire con la propria I.A. che sarà come il telefonino indossata e prenderà tuoi dati H24 per suggerirti come migliorare.
Almeno fino a quando non sarà l'essere più intelligente del pianeta.
A questo proposito (dai chiudo ludico) ecco cosa ci dice google bard... :D
Guarda, ho un impastata generale sul machine learning ma non sono mai entrato in tecnicismi anche perchè non mi competono. Tuttavia la questione che hai sollevato non è da poco. Io spero solo che questo strumento venga usato nella maniera giusta e non vanga accorpata tutta questa "intelligenza" che noi stiamo creando, in un unico grande "cervello" AI, altrimenti son dolori 😅

Ritornato intopic, si, AMD sicuramente cercherà di utilizzare le unità AI che sta implementando anch'essa nelle sue gpu, ma come da molti anni accade, AMD arriva sempre dopo nvidia! Nel settore videoludico NVIDIA crea AMD insegue, è ovvio che poi AMD è costretta a giocarsela con la competitività nel prezzo delle sue GPU, perchè se le prezzasse male (come fa NVIDIA) non venderebbe un fico secco. Tra l'altro AMD nel prossimo futuro si concentrerà proprio sull' utilizzo dell'AI, solo che non avendo la potenza di fuoco si NVIDIA, il settore gaming su gpu verrà un pò arginato, difatti le radeon 8000 non avranno la fascia top di gamma ed è comprensibile tutto ciò. AMD deve solo riuscire a competere nelle fasce di prestazioni ove presente. Tra l'altro lei ha un compito più importante delle gpu desktop da portare avanti, cioè le APU su console. Tuttavia, anche in questo settore ho qualche timore per AMD: e se pure Sony e MS si rivolgono a NVIDIA per le tech grafiche, data la sua immensa superiorità?? Dato che lo ha già fatto nintendo? Nintendo implementerà il dlss + RT di NVIDIA, sai che figuraccia che farà fare a ps5 e ms con i nuovi giochi? Sicuramente switch 2 avrà un rendering in RT migliore delle altre 2 attuali console... staremo a vedere
 
Ultima modifica:
tutti a inchinarsi al dlss3 di nvidia e poi quando uscirà il dlss 4.0 sarà esclusiva delle rtx5000 e chi ha preso la rtx4000 perché hanno il frame generation al posto delle rtx3000 si sentirà preso in giro ma continuerà comunque a lodare nvidia
Sicuramente nvidia offre tecnologie da grafica nextgen, indipendentemente dalle gpu, a differenza delle tech grafiche di AMD. Su questo non ci piove
 
tutti a inchinarsi al dlss3 di nvidia e poi quando uscirà il dlss 4.0 sarà esclusiva delle rtx5000 e chi ha preso la rtx4000 perché hanno il frame generation al posto delle rtx3000 si sentirà preso in giro ma continuerà comunque a lodare nvidia
Da certamente fastidio una politica del genere ma si sta parlando della tecnologia in se ed è innegabile che Nvidia è su un altro pianeta.
Inoltre il dlss è già buono dalla versione 1.0 e quando si cambia scheda si ha il plus di avere una versione sempre più rifinita.
L'fsr invece fa pena dalla prima versione e continua a farla anche nelle ultime.
Vado a giocare a casa di amici che hanno Amd e loro vengono da me che ho Nvidia e la differenza è abissale.
Non sono un fanboy perchè ho bazzicato le diverse sponde nel mondo dell'hardware e non precludo mai nulla ma bisogna essere oggettivi nelle cose.
Nvidia si loda per l'innovazione tecnologia non certo per le strategie di mercato.
 
Pubblicità
Pubblicità
Indietro
Top