UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Neanche i ryzen all'inizio, seppure oggettivamente migliori, non sbaragliarono intel.
qui apriremmo un OT enorme, ma hai una percezione sbagliata quando parli di AMD.
I Ryzen all'inizio avevano più core/threads ma non erano migliori di Intel manco per sbaglio.

1666289021769.webp

Le prestazioni erano ancora appannaggio di Intel, specie nel gaming.

1666289072281.webp

Con Zen 2 sono arrivati ad essere competitivi nelle prestazioni:

1666289172000.webp

ma nel gaming ancora erano indietro:

1666289220402.webp

Solo con Zen 3, dopo anni, hanno davvero preso la leadership prestazionale, almeno fino ad Alder Lake. La prima CPU AMD considerabile come "oggettivamente superiore" in epoca recente è Zen 3 insomma.
Questo sia chiaro è solo per mostrarti come nonostante io ti stimi tantissimo come utente, ritengo che tu non sia obiettivo quando parli di AMD 😉

Oh, sia chiaro che io sono un grande tifoso di AMD: in casa ho un 5900X, un 5800X e due notebook con 5800HS e 6800H.
 
Ma sono d'accordissimo ed infatti lo avevo detto anche prima questo.

Col RT semplicemente noi paghiamo di più e gli sviluppatori devono programmare meno.
Non lo dico per screditare per principio.
il RayTracing esisteva ancor prima (molto molto prima!) che NVidia esistesse come societa', ed era una tecnica totalmente software... e ancor prima come teoria in fisica.
Nvidia non ha inventato il RayTracing, e' stata solo la prima ad accelerarlo via hardware... e non credo gli se ne debba fare una colpa.

Se volessimo fare un paragone, e.g. l'H265/HVEC, anch'esso sviluppato prima come algoritmo di compressione software... sarebbe come colpevolizzare i produttori TV del fatto che adesso si debba cambiare decoder per poter visualizzare le trasmissioni compresse in H265/HVEC per FHD, 4K e 8K.
E' semplicemente frutto del progresso e dell'innovazione

Ed e' vero solo in parte che i programmatori devono lavorare di meno, perche' servono complesse tecniche di illuminazione, per rendere reali le scene (e lo stanno facendo in NVidia nelle librerie RTXGI e RTXDI, Global e Direct Illumination... compatibili anche con AMD serie 6000 in poi)
Cosi' come tutte le tecniche raster per luce, ombre e quant'altro, le varie software house le posseggono gia'... non devono riscriverle per ogni gioco.
Si paga di piu' semplicemente perche' i titoli AAA ormai DEVONO uscire con entrambe le tecnologie... quindi i programmatori lavorano di piu'

Oggettivamente uno dei vantaggi del RT è che diventa molto più facile gestire l'illuminazione senza sbattersi dietro a 20 diversi effetti raster per renderle realistiche.
Ma non si tratta di dover gestire le tecniche di illuminazione, e' che l'illuminazione col rendering/raster diventa (o puo' diventare) un fatto puramente soggettivo, soprattutto in alcune situazioni limite, ossia quando la "luce ambiente" diventa una componente fondamentale (e.g. scene in ombra o con poca luce diretta/globale).

I modelli di illuminazione nel rendering prevedono (e.g. modello illuminazione Phong):

Phong_components_version_4.png

La luce ambiente
La luce diffusa (che e' la luce che quel materiale puo' diffondere)
La luce/componente speculare (la componente di riflessione del materiale)
E la risultante di queste 3 componenti da' la resa della superficie con quel materiale.

Il problema e' che la luce ambiente in natura non esiste.
Nel mondo reale la luce ambiente e' data dalla luce che viene diffusa (per rimbalzo) dai vari oggetti nella scena, ma questa interazione, come ho gia' detto in precedenza, non e' contemplata nel rendering/raster.
E nel rendering e' una componente totalmente fittizia ed empirica, ed e' una quantita' che viene data "soggettivamente" (non calcolata!) in base a quanto si pensa/immagina possa essere illuminata la scena dalla luce che viene diffusa dai vari oggetti presenti.

La prova di quanto cio' possa variare ed essere distante dalla realta', lo sono le immagini del corridoio di @crimescene (troppo accentuata, scena in raster troppo chiara) e quella di Metro Exodus (troppo bassa, scena in raster troppo scura).
Quindi ci affida solo a come il programmatore vede/immagina la scena, secondo il proprio gusto personale, non a come realmente e'.

Ma questo e' solo un aspetto, mancherebbero, per esempio ,tutte quelle sfumature di luce presenti (Metro Exodus): in raster la scena risulterebbe mono-tono
E l'interazione della luce e' un limite NON colmabile in raster, indipendentemente da quante tecniche di illuminazione tu voglia applicare, per questo se si vuole rendere una scena piu' simile alla realta, bisognera' abbandonare il raster.

E sempre oggettivamente uno dei contro è stato che nvidia ha sfruttato la cosa per alzare tutti i prezzi, dalla serie 2000 in poi.
I prezzi in realta' li hanno alzati un po' tutti... NVidia in primis, ti do ragione, ed ha esagerato con la 4000 (almeno per quanto e' prezzata la 4080)... ma Intel e AMD (e.g. serie 5000 Ryzen al debutto) non sono stati certo da meno
 
Ultima modifica:
il RayTracing esisteva ancor prima (molto molto prima!) che NVidia esistesse come societa', ed era una tecnica totalmente software... e ancor prima come teoria in fisica.
Nvidia non ha inventato il RayTracing, e' stata solo la prima ad accelerarlo via hardware... e non credo gli se ne debba fare una colpa.

Se volessimo fare un paragone, e.g. l'H265/HVEC, anch'esso sviluppato prima come algoritmo di compressione software... sarebbe come colpevolizzare i produttori TV del fatto che adesso si debba cambiare decoder per poter visualizzare le trasmissioni compresse in H265/HVEC per FHD, 4K e 8K.
E' semplicemente frutto del progresso e dell'innovazione

Ed e' vero solo in parte che i programmatori devono lavorare di meno, perche' servono complesse tecniche di illuminazione, per rendere reali le scene (e lo stanno facendo in NVidia nelle librerie RTXGI e RTXDI, Global e Direct Illumination... compatibili anche con AMD serie 6000 in poi)
Cosi' come tutte le tecniche raster per luce, ombre e quant'altro, le varie software house le posseggono gia'... non devono riscriverle per ogni gioco.
Si paga di piu' semplicemente perche' i titoli AAA ormai DEVONO uscire con entrambe le tecnologie... quindi i programmatori lavorano di piu'


Ma non si tratta di dover gestire le tecniche di illuminazione, e' che l'illuminazione col rendering/raster diventa (o puo' diventare) un fatto puramente soggettivo, soprattutto in alcune situazioni limite, ossia quando la "luce ambiente" diventa una componente fondamentale (e.g. scene in ombra o con poca luce diretta/globale).

I modelli di illuminazione nel rendering prevedono (e.g. modello illuminazione Phong):

Phong_components_version_4.png

La luce ambiente
La luce diffusa (che e' la luce che quel materiale puo' diffondere)
La luce/componente speculare (la componente di riflessione del materiale)
E la risultante di queste 3 componenti da' la resa della superficie con quel materiale.

Il problema e' che la luce ambiente in natura non esiste.
Nel mondo reale la luce ambiente e' data dalla luce che viene diffusa (per rimbalzo) dai vari oggetti nella scena, ma questa interazione, come ho gia' detto in precedenza, non e' contemplata nel rendering/raster.
E nel rendering e' una componente totalmente fittizia ed empirica, ed e' una quantita' che viene data "soggettivamente" (non calcolata!) in base a quanto si pensa/immagina possa essere illuminata la scena dalla luce che viene diffusa dai vari oggetti presenti.

La prova di quanto cio' possa variare ed essere distante dalla realta', lo sono le immagini del corridoio di @crimescene (troppo accentuata, scena in raster troppo chiara) e quella di Metro Exodus (troppo bassa, scena in raster troppo scura).
Quindi ci affida solo a come il programmatore vede/immagina la scena, secondo il proprio gusto personale, non a come realmente e'.

Ma questo e' solo un aspetto, mancherebbero, per esempio ,tutte quelle sfumature di luce presenti (Metro Exodus): in raster la scena risulterebbe mono-tono
E l'interazione della luce e' un limite NON colmabile in raster, indipendentemente da quante tecniche di illuminazione tu voglia applicare, per questo se si vuole rendere una scena piu' simile alla realta, bisognera' abbandonare il raster.


I prezzi in realta' li hanno alzati un po' tutti... NVidia in primis, ti do ragione, ed ha esagerato con la 4000 (almeno per quanto e' prezzata la 4080)... ma Intel e AMD (e.g. serie 5000 Ryzen al debutto) non sono stati certo da meno

Che te devo dire applausi 👋👋👋
 
La prima CPU AMD considerabile come "oggettivamente superiore" in epoca recente è Zen 3 insomma.
Per me anche ZEN2 lo possiamo considerare tale, alla fine in game, come dagli screen che hai postato, è un pareggio di fatto (pochissimi punti percentuali di differenza che non cambiano la percezione d'uso) a cui si aggiunge la vittoria sulle prestazioni generiche e soprattutto sull'efficienza
E la serie 3000 aveva anche buonissimi prezzi, infatti ha venduto tantissimo, forse anche più della 5000 che è uscita con prezzo più alto ed ha poi avuto un po' di problemi di produzione causa covid

Se la serie 7000 uscisse con un "pareggio" in RT e raster migliore, consumi inferiori e buoni prezzi e disponibilità sono convinto che farebbe numeri fin da subito (dubito però che accada tutto questo, soprattutto il prezzo competitivo)
E' però bene ricordare che quando ATI (ora AMD) ha tirato fuori schede davvero competitive è sempre stata premiata sul marketshare (così come nVidia del resto):
_id1429521203_343178.jpg
 
Per me anche ZEN2 lo possiamo considerare tale, alla fine in game, come dagli screen che hai postato, è un pareggio di fatto (pochissimi punti percentuali di differenza che non cambiano la percezione d'uso) a cui si aggiunge la vittoria sulle prestazioni generiche e soprattutto sull'efficienza
E la serie 3000 aveva anche buonissimi prezzi, infatti ha venduto tantissimo, forse anche più della 5000 che è uscita con prezzo più alto ed ha poi avuto un po' di problemi di produzione causa covid

Se la serie 7000 uscisse con un "pareggio" in RT e raster migliore, consumi inferiori e buoni prezzi e disponibilità sono convinto che farebbe numeri fin da subito (dubito però che accada tutto questo, soprattutto il prezzo competitivo)
E' però bene ricordare che quando ATI (ora AMD) ha tirato fuori schede davvero competitive è sempre stata premiata sul marketshare (così come nVidia del resto):
_id1429521203_343178.jpg
Ma anche RT leggermente sotto e raster migliore con prezzo inferiore farebbe i numeri
 
I prezzi in realta' li hanno alzati un po' tutti... NVidia in primis, ti do ragione, ed ha esagerato con la 4000 (almeno per quanto e' prezzata la 4080)... ma Intel e AMD (e.g. serie 5000 Ryzen al debutto) non sono stati certo da meno
Parli di quanto successo dopo la pandemia con l impennata della domanda, il mining, e la produzione rallentata.

Però nvidia inizio ad alzare i prezzi già dalla serie 2000. E a quel tempo intel non esisteva sulle gpu (manco ora mi verrebbe da dire) ed amd aveva rdna1 che non ricordo proprio fossero schede costose.
E poi c'era nvidia con la 2080ti a? 1200 mi pare... E la 2060 a 4-500euro se ricordo bene
 
Parli di quanto successo dopo la pandemia con l impennata della domanda, il mining, e la produzione rallentata.

Però nvidia inizio ad alzare i prezzi già dalla serie 2000. E a quel tempo intel non esisteva sulle gpu (manco ora mi verrebbe da dire) ed amd aveva rdna1 che non ricordo proprio fossero schede costose.
E poi c'era nvidia con la 2080ti a? 1200 mi pare... E la 2060 a 4-500euro se ricordo bene

Le RDNA1 non erano schede costose perchè potevano competere solo nella fascia media: RTX2080\2080S e RTX2080ti erano completamente scoperte. E inoltre, non avevano alcuna accelerazione per il ray tracing, a differenza delle Nvidia.
Oggettivamente c'era una disparità di offerta tale che AMD per forza dovette tenere i listini bassi.
Tra l'altro, le RX 5700 XT, RX5700 e RX5600 XT, se ricordo bene, ebbero anche dei bei problemi coi driver a un certo punto.
 
ra l'altro, le RX 5700 XT, RX5700 e RX5600 XT, se ricordo bene, ebbero anche dei bei problemi coi driver a un certo punto.
le 5700xt erano così instabili all'inizio che alcuni sample si fondevano ai recensori, per molti mesi non si potevano consigliare per via dei driver che davano problemi di ogni sorta

Inoltre le reference le fecero uscire ( senon ricordo male) con il sistema blower su una scheda che scaldava parecchio

AMD non era proprio da considerare, la 5600xt fun una scheda un buon rapporto prezzo prestazioni in raster ma anche li per alcuni mesi i driver hanno dato parecchi problemi a moltissimi utenti anzi a tutti

Ricordo ancora il video di una ragazzina che piangeva su you tube per aver comprato una 5700xt nuova e non riusciva ad avviare nemmeno un singolo gioco di quelli che gli piaceva ( o il gioco non prativa o andava in crash o BSOD o schermo nero)

In quel periodo proprio AMD non pervenuta senza considerare che non avevano nessun supporto al ray tracing, quindi nemmeno il DLSS, lato streaming registrazione un supporto da parte di AMD pietoso (ed ancora oggi fa pecca)
 
Ultima modifica:
le 5700xt erano così instabili all'inizio che alcuni sample si fondevano ai recensori, per molti mesi non si potevano consigliare per via dei driver che davano problemi di ogni sorta

Inoltre le reference le fecero uscire ( senon ricordo male) con il sistema blower su una scheda che scaldava parecchio

AMD non era proprio da considerare, la 5600xt fun una scheda un buon rapporto prezzo prestazioni in raster ma anche li per alcuni mesi i driver hanno dato parecchi problemi a moltissimi utenti anzi a tutti

Ricordo ancora il video di una ragazzina che piangeva su you tube per aver comprato una 5700xt nuova e non riusciva ad avviare nemmeno un singolo gioco di quelli che gli piaceva ( o il gioco non prativa o andava in crash o BSOD o schermo nero)

In quel periodo proprio AMD non pervenuta senza considerare che non avevano nessun supporto al ray tracing, quindi nemmeno il DLSS, lato streaming registrazione un supporto da parte di AMD pietoso (ed ancora oggi fa pecca)
Si ricordo, io ho avuto una pulse 5700 e una nitro 5700xt, però io non ho avuto troppi problemi devo dire, magari non era l'inizio
 
Parli di quanto successo dopo la pandemia con l impennata della domanda, il mining, e la produzione rallentata.

Però nvidia inizio ad alzare i prezzi già dalla serie 2000. E a quel tempo intel non esisteva sulle gpu (manco ora mi verrebbe da dire) ed amd aveva rdna1 che non ricordo proprio fossero schede costose.
E poi c'era nvidia con la 2080ti a? 1200 mi pare... E la 2060 a 4-500euro se ricordo bene
Il 9 ottobbre 2020 non si era ancora in emergenza pandemica
Ancora si trovavano 3080 (poche ma si trovavano) attorno gli 800 euro (la mia la pagai 738 euro pochi giorni prima e @crimescene ne prese addirittura 2 in quel periodo: una la regalo' al corriere 🤣 )
AMD aumento di 50$ il MSRP sia del 5600X (+20% rispetto alla gen. precedente) e del 5800X (+12.5%)

Tant'e' che dopo aver sentito, in diretta streaming, i prezzi della serie 5000, presi un 3700X a:
Screenshot at 2022-10-21 13-18-27.png
Quando il 5600X era prezzato a 310 euro e il 5800X a 489 euro.

Fu un'operazione in stile NVidia, anche quella fatta per continuare a vendere la gen. precedente, che infatti ricomincio' subito a rincarare.
Dal punto di vista commerciale pero' non fa una piega.

Ma non voglio fare polemica, era solo per dire, chi governa il mercato detta la propria linea per il massimo profitto... e non importa che colore sia (Rosso, Verde, Blu: fanno parte tutte dello stesso PIXEL): nessuna e' il paladino dei consumatori.
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top