UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Ho visto l'approfondimento (sponsorizzato, ricordiamolo) di DigitalFoundry sul DLSS 3.0.
Rappresenta un cambio di paradigma rispetto alle attuali tecnologie di ricostruzione dell'immagine (DLSS 1/2,FRS 1/2 e XeSS): l'AI non modifica i frame ma li aggiunge. Quindi tra il frame A e quello C, alla risoluzione nativa, inserisce un terzo frame totalmente creato dal nulla.

L'idea alla base di ciò, e secondo me uno dei motivi per cui è stato limitato alla serie RTX 4000, è dare ulteriore fluidità accettando l'approssimazione (il frame generato dalla AI è imperfetto): le altre tecnologie mirano a rendere giocabile un framerate basso, il DLSS 3.0 mira a rendere più fluido una situazione già buona in partenza. Un'imperfezione a 200 fps è più difficile da percepire, questo è il senso.
Alla luce della transizione che sta avvenendo verso monitor con refresh rate più elevato.

Questo è quello che sono riuscito ad estrapolare dal video. Guardate in particolare gli ultimi segmenti che mostrano la qualità della ricostruzione, per il resto aspetteremo le recensioni.
 
Ho notato che te credi a qualsiasi cosa promettano o dicano queste aziende e spesso difendi le loro mosse anti-consumer. Non capisco il motivo.

io invece ho notato che la tendenza di oggi è di partire dall'assunto che tutto fa schifo, tutto costa troppo, tutto non vale la pena, tutto era meglio prima.
mi sembra di parlare con i vecchi del 1900 che dicevano: "ai tempi miei". :D

ai tempi miei un 486 l'ho pagato 6 milioni di lire. La roba buona è costata sempre cara e non ci ha mai regalato niente nessuno.

spariamo merd@ su tutto conoscendo niente.
non mi risulta che qui ci siano dei luminari dell'hardware (me compreso ovviamente), però tutti sanno cosa non va e hanno la soluzione che avrebbe potuto creare un prodotto migliore.

Vedo video di youtuber con centinaia di migliaia di iscritti che "aggiustano" gli zen 4 mandandoli a 60°C.

si è arrivati a dire che raptor è un semplice overclock di alder lake quando in più di 30 anni che compro CPU di refresh così me ne ricordo poche.

diciamo che Intel che introduce una GPU per la prima volta capace di competere con i colossi del settore è un disastro.
Era meglio Windows XP.
Se non girano bene le DirectX 9 (uscite nel 2002) io non lo compro.
Lunga vita alle DDR4 per altri 15 anni. Quando usciranno le DDR7 forse sarà il momento di comprare le DDR5.
il DLSS3 si poteva certamente fare anche sulla serie 3000, bastardi. è tutto un gomblotto.

su questo thread tutti hanno la serie 3000 (IMHO una delle peggiori schede degli ultimi anni) ma tutti criticano le RTX4000 che sono sicuramente molto meglio delle 3000 all'uscita.

concezione comune che il 12900K/13900K o il 5950X/7950X non serve a niente.
non si sa perchè. un 12700K è utile, ci si fa qualcosa, con il 12900K invece non ci si fa niente.

boh, mi sento un pesce fuor d'acqua. magari sono fatto male io ma io non sono d'accordo su niente.
--- i due messaggi sono stati uniti ---
Ho visto l'approfondimento (sponsorizzato, ricordiamolo) di DigitalFoundry sul DLSS 3.0.
sponsorizzato che significa? lo dici tu che è sponsorizzato?
ora siamo capaci di dire male pure a digital foundry?
 
Ultima modifica:
sponsorizzato che significa? lo dici tu che è sponsorizzato?
ora siamo capaci di dire male pure a digital foundry?

Provo a tradurlo: tutti i content creator sono sotto embargo, DF ha ricevuto il placet per rilasciare questo contenuto (per esempio nel video non parlano mai di fps rimanendo sulle percentuali ma pubblicano i dati relativi alla latenza della pipeline) e di conseguenza guadagnarne. Tutto qui.

È dir male?
 
su questo thread tutti hanno la serie 3000 (IMHO una delle peggiori schede degli ultimi anni) ma tutti criticano le RTX4000 che sono sicuramente molto meglio delle 3000 all'uscita.
questo è assolutamente falso, ele RTX 3000 hanno venduto parecchio in quanto avevano un eccellente rapporto qualità prezzo prestazioni cosa che mi dispiace ma queste nuove schede non hanno


io invece ho notato che la tendenza di oggi è di partire dall'assunto che tutto fa schifo, tutto costa troppo, tutto non vale la pena, tutto era meglio prima.
mi sembra di parlare con i vecchi del 1900 che dicevano: "ai tempi miei". :D

ai tempi miei un 486 l'ho pagato 6 milioni di lire. La roba buona è costata sempre cara e non ci ha mai regalato niente nessuno.

spariamo merd@ su tutto conoscendo niente.
non mi risulta che qui ci siano dei luminari dell'hardware (me compreso ovviamente), però tutti sanno cosa non va e hanno la soluzione che avrebbe potuto creare un prodotto migliore

L;o sai com si divece non devi provare la cacca per capire che fa schifo, puzza, scusa tanto il paragone ma tutti ir recensori del mondo hjanno la stessa identica opinione, schede costosissime, etica di nvidia 0, cacciano 2 3080 di cui una è una fake 4070, la 4090 che ha il doppio dei cuda ha un assorbimento energetico che fa schifo


concezione comune che il 12900K/13900K o il 5950X/7950X non serve a niente.
Certo per giocare sono processori che non servono assolutamente a nulla solo a farsi spennare

boh, mi sento un pesce fuor d'acqua. magari sono fatto male io ma io non sono d'accordo su niente.
Hai i soldi sei libero di prendere vagonate di ddr5 e processori da migliaia di euro....se ti va ma un altra cosa è dire che sono "necessari"

Ti posso fare una previsione fin da ora, che la serie 4000 non solo venderanno pochissimo sarà ricordata come uno dei peggiori serie da parte di nvidia.

Se tutti quanti pensano che questi prodotti sono pessimi e si va verso una deriva anche pericolosa per il pc gaming, credimi un motivo ci sarà, la maggior parte delle persone non ha certo soldi da regalare per avere un aumento di prestazioni risibile dopo aver passato la pandemia i prezzi fuori controllo e la crisi energetica

Le persone invece di regalare 2k a nvidia ed altri 2k ad intel o AMD credimi spendono la " bellezza " di 549 euro e giocano 6-7 anni senza problemi su ps5 o xbox series x
 
Ultima modifica:
@techsaskia Tu dici che noi ragioniamo come vecchi del 1900, dici che ci sbagliamo sui prezzi, che dobbiamo andare avanti e guardare il futuro, ma la realtà dei fatti è che sei tu che non hai capito una beata m.....
Se Nvidia vendesse la rtx 4080 16GB a 749 euro o 799 euro non andrebbe in perdita. Guarda voglio esagerare 849.99$ ci guadagnerebbe tantissimo come ha sempre fatto. Tra rtx 3000 e 4000 non cambia un cazz... Praticamente i cuda core sono gli stessi di Ampere, l'unica cosa che cambia sono il numero di transistors e rt core insieme alla memoria cache. Inoltre grazie al nuovo processo produttivo hanno potuto aumentare drasticamente le frequenze. Tutto qui, non ce nessun miglioramento vero e proprio lato tecnologia come ci fu tra Pascal a Turing o come ci fu tra Curie ( gtx 7800 ) a Tesla ( gtx 8800 ) con l'introduzione per la primissima volta dei cuda core e del supporto alle dx 10 che potrebbe giustificare quei prezzi msrp folli e ridicoli.

Nvidia ha semplicemente visto che i dementi ( me compreso ) gli hanno comprato le gpu a prezzi assurdi, giusto per non dimenticare:
-rtx 3060 a 600/650 euro.
-rtx 3060ti 800/900 euro
-rtx 3070 1000/1200 euro
ecc ricordiamo tutti i prezzi folli e ci sono andato anche leggero poiché ce stato un periodo che costavano anche di più.
Quindi questa volta ha semplicemente osato trasformare quei prezzi folli in msrp perché sa benissimo che ce gente come te che andrà a giustificare questi prezzi e altri che le andranno a comprare.

Senza dimenticare che nvidia ci aveva già provato con la rtx 2080ti, sperimentava quanti geni di turno, gli avrebbero comprato una flag ship a 1200 euro quando poi dopo un anno, la stessa gpu venne superata/raggiunta da un altra gpu di fascia medio-alta venduta a meno della metà , cioè la rtx 3070 con un prezzo msrp di 499$.
Ma dico, tu che hai la rtx 2080ti non ti senti preso in giro ? 😂🤣 Ho sempre provato a mettermi nei panni di chi aveva acquistato la rtx 2080ti a 1000 e passa euro, che guarda la diretta della presentazione delle rtx 3000 dove viene annunciata la rtx 3070. Non riesco ad immaginare la bruciata di culo.
E pure questo non vi ha ancora aperto gli occhi, ed è assurdo. Difendete ancora queste aziende e soprattutto credete nelle cavolate che raccontano.

Ogni volta che ti sento parlare di qualcosa, come in questo caso delle gpu Intel, i tuoi concetti e previsioni si basano sempre su ciò che ha detto "intel", ciò che ha mostrato "nvidia", i benchmark di "amd", sempre a credere alle fesserie che dicono/mostrano per fare marketing.
 
Certo per giocare sono processori che non servono assolutamente a nulla solo a farsi spennare
Ma il PC è una console con la tastiera per voi? xD
Ma lo sapete che il PC permette di fare tante cose?
Non è che se una cosa non serve a voi allora non serve e basta xD

La serie 3000?
Parli di quella GPU progettata per i 4k che però non può andare in 4k perché gli manca la VRAM e che non ha nemmeno una nuova features rispetto alla serie 2000?

Mazza che affare le 3080 xD
--- i due messaggi sono stati uniti ---
Praticamente i cuda core sono gli stessi di Ampere, l'unica cosa che cambia sono il numero di transistors e rt core insieme alla memoria cache. Inoltre grazie al nuovo processo produttivo hanno potuto aumentare drasticamente le frequenze. Tutto qui, non ce nessun miglioramento vero
Grazie per avermi illuminato con questa spiegazione scientifica sulla nuova architettura Nvidia.
A Jensen non gli credo, però tu mi hai aperto gli occhi.
Visto che giacchetta nera è in difficoltà, mandagli una mail dagli 2 suggerimenti su dove concentrarsi di più per fare meglio.

Magari togliamo qualche watt pure dalla 4080 che non fa mai male, sai com'è con la crisi energetica, perché secondo me Jensen non c'ha pensato. Come si fa a essere così fessi e essere il CEO di Nvidia. Proprio vero, Cristo da il pane a chi non ha i denti.
Se ci avessero messo te a fare il CEO adesso avremmo i poveri con le 4090 da usare al posto delle stufe a carbone.

--- i due messaggi sono stati uniti ---
Provo a tradurlo: tutti i content creator sono sotto embargo, DF ha ricevuto il placet per rilasciare questo contenuto (per esempio nel video non parlano mai di fps rimanendo sulle percentuali ma pubblicano i dati relativi alla latenza della pipeline) e di conseguenza guadagnarne. Tutto qui.

È dir male?
Dire che una cosa è sponsorizzata significa dire che quella cosa è guidata e per questo non affidabile.

Che un content creator lavori per guadagnare mi sembra normale. Tu lavori per la gloria?

Digital foundry è l'unico canale YouTube in grado di fare quelle analisi con cognizione di causa, non mi sembra che DF abbia mai fatto video con contenuti di parte, per cui, si è dire male.
 
Ultima modifica:
Ma il PC è una console con la tastiera per voi? xD
Ma lo sapete che il PC permette di fare tante cose?
Non è che se una cosa non serve a voi allora non serve e basta xD

La serie 3000?
Parli di quella GPU progettata per i 4k che però non può andare in 4k perché gli manca la VRAM e che non ha nemmeno una nuova features rispetto alla serie 2000?

Mazza che affare le 3080 xD
--- i due messaggi sono stati uniti ---

Grazie per avermi illuminato con questa spiegazione scientifica sulla nuova architettura Nvidia.
A Jensen non gli credo, però tu mi hai aperto gli occhi.
Visto che giacchetta nera è in difficoltà, mandagli una mail dagli 2 suggerimenti su dove concentrarsi di più per fare meglio.

Magari togliamo qualche watt pure dalla 4080 che non fa mai male, sai com'è con la crisi energetica, perché secondo me Jensen non c'ha pensato. Come si fa a essere così fessi e essere il CEO di Nvidia. Proprio vero, Cristo da il pane a chi non ha i denti.
Se ci avessero messo te a fare il CEO adesso avremmo i poveri con le 4090 da usare al posto delle stufe a carbone.

--- i due messaggi sono stati uniti ---

Dire che una cosa è sponsorizzata significa dire che quella cosa è guidata e per questo non affidabile.

Che un content creator lavori per guadagnare mi sembra normale. Tu lavori per la gloria?

Digital foundry è l'unico canale YouTube in grado di fare quelle analisi con cognizione di causa, non mi sembra che DF abbia mai fatto video con contenuti di parte, per cui, si è dire male.

Ti stai rendendo antipatico…….te lo dico conoscendoti un po’ più degli altri utenti.
Hanno tutti ragione, tu non sei l’oracolo dell’hardware quale ti professi ma sei solo uno che commenta(spesso esaltandosi)le slide di nVidia, intel e AMD, di prodotti che sono ancora sotto embargo di cui si sa zero se non le molte fesserie che dicono i produttori stessi, ma Dio santo almeno aspetta i test indipendenti per parlare e dare giudizi definitivi.

Inviato dal mio iPhone utilizzando Tapatalk Pro
 
Ultima modifica:
Visto che giacchetta nera è in difficoltà, mandagli una mail dagli 2 suggerimenti su dove concentrarsi di più per fare meglio.
Magari togliamo qualche watt pure dalla 4080 che non fa mai male, sai com'è con la crisi energetica, perché secondo me Jensen non c'ha pensato.
Dovrei farlo visto che effettivamente non ci a pensato, parlo dei consumi e della crisi in europa.
Ampere ha introdotto nuovi cuda core per tua info.
Con ampere i cuda possono gestire contemporaneamente sia int32 che fp32 cosa che turing non poteva fare, questo ovviamente comporta un miglioramento nella potenza computazionale visto che può fare due calcoli shader per clock.
La cosa straordinaria di Ampere è il rapporto Prezzo/prestazioni, sicuramente uno dei migliori della storia delle gpu nvidia, vale anche per i consumi rapportati alle performance.
499 euro e ti porti a casa una serie 70 che supera la ex flag ship dal costo di 1200 euro e questo basta e avanza per descrivere cosa è la serie rtx 3000.
La serie rtx 4000 è 💩 in quanto ha senza ombra di dubbio il peggior rapporto prezzo/performance consumi/performance della storia delle gpu nvidia.
Penso possiamo chiuderla qui, la pensiamo in modo differente e va bene cosi.
--- i due messaggi sono stati uniti ---
Ti stai rendendo antipatico…….te lo dico conoscendoti un po’ più degli altri utenti.


Inviato dal mio iPhone utilizzando Tapatalk Pro
Io lo so che non è antipatico, lo beccai su altre discussioni e si vedeva che ne capiva ed era anche gentile.
Penso sia troppo ottimista xD ma va bene cosi, alla fine gli utenti hanno opinioni diverse e spesso ( veramente spesso ) si alzano un po i toni, ma finisce tutto li. Infondo siamo due utenti che hanno in comune l'amore per l'hardware e i videogames.
Ma poi, uno con l'immagine profilo di Ciri, potrà mai essere antipatico ? 😂
 
Ma il PC è una console con la tastiera per voi? xD
Ma lo sapete che il PC permette di fare tante cose?
Non è che se una cosa non serve a voi allora non serve e basta xD

figlio mio le persone pur di non spendere cifre assurde si accontentano anche di una console anzio dire i che con i prezzi che corrono le console stanno trovando una nuova età d'oro visto che a 2 anni dal lancio non si torva una ps5 manco prenotarla

La serie 3000?
Parli di quella GPU progettata per i 4k che però non può andare in 4k perché gli manca la VRAM e che non ha nemmeno una nuova features rispetto alla serie 2000?

Mazza che affare le 3080 xD

Ma tu non eri quello pronto al d1 sul sito nvidia che svendeva la sua 2060 ti a 600 euro per prendere una 3080?

Se faceva cosi schifo perchè stavi in coda?

Ci vuole un pochino di coerenza eh

Parlando con sincerità se questi sono i prezzi e se le prestazioni come sembra sono mooolto inferiori a quelle che nvidia sbandiera sta gen la salto senza proprio pensarci, regalare 1,5k nvidia non ci penso proprio
 
Idem, non ho alcuna intenzione di spendere tanti soldi per una scheda video perchè 1. attualmente non mi serve nemmeno al punto per il rendering in quanto non lo sto facendo, 2. sono un gamer, anche viziatello si ma non ho attualmente nulla da recriminare alla mia, che sarà di due gen fa ma si comporta benissimo sui titoli perlomeno odierni e comunque non ho solo il gaming come passione, anzi, ultimamente gioco poco. Non vedo proprio alcuna motivazione per spendere tali soldi. Appassionato di computer, gaming e hardware si ma non da versarci tutti questi soldi per un componente hardware che nemmeno mi serve attualmente, la potenza dev'essere anche una necessità e non sempre lo è, altrimenti si parla di sfizio e scimmia, sfizio a cui non intendo versare 1500 euro.
 
Ho visto l'approfondimento (sponsorizzato, ricordiamolo) di DigitalFoundry sul DLSS 3.0.
Rappresenta un cambio di paradigma rispetto alle attuali tecnologie di ricostruzione dell'immagine (DLSS 1/2,FRS 1/2 e XeSS): l'AI non modifica i frame ma li aggiunge. Quindi tra il frame A e quello C, alla risoluzione nativa, inserisce un terzo frame totalmente creato dal nulla.
Il video spiega molto bene, visivamente, a cosa serve e i vantaggi che si hanno.
Tecnicamente ne avevamo parlato al lancio, ed era (per me) molto esauriente il link sul DLSS3 che aveva inserito @pribolo, dove si vede come questa generazione avviene, pixel per pixel... o meglio, quadratino per quadratino, perche' i vettori di movimento, come per i video, riguardano un'area.

L'idea alla base di ciò, e secondo me uno dei motivi per cui è stato limitato alla serie RTX 4000, è dare ulteriore fluidità accettando l'approssimazione (il frame generato dalla AI è imperfetto): le altre tecnologie mirano a rendere giocabile un framerate basso, il DLSS 3.0 mira a rendere più fluido una situazione già buona in partenza. Un'imperfezione a 200 fps è più difficile da percepire, questo è il senso.
Alla luce della transizione che sta avvenendo verso monitor con refresh rate più elevato.
La domanda importante appunto e': "perche' sia stato limitato alla serie 4000?"... a cui ancora pero' nessuno ha dato una risposta "concreta".
Dico questo perche' nel video che hai postato (e anche altrove) si parla di Optical Flow Accelerator.
(Anche questo discusso con @pribolo, qui e qui.)
Ma questo Optical Flow Accelerator (con relativo SDK: Software Development Kit) esiste gia' fin dalla serie Turing e cito dalla pagina NVidia: The NVIDIA Turing architecture introduced a new hardware functionality for computing optical flow between a pair of images with very high performance.

Cio' che c'e' di piu' nel DLSS3 e' che questa tecnica di generazione "intra-frame" viene integrata anche col raytracing (RTX): lo spiega bene la pagina deicata al DLSS3, dove si parla dell'ombra del motociclista.

Pero', per il momento, nessuno ci ha detto quale hardware "dedicato" ci sia sulla serie 4000 per cui questa tecnica non possa essere riprodotta anche sulle serie RTX precedenti.
E' un "nuovo" Optical Flow Generator/Accelerator?
O semplicemente il DLSS3 puo' essere riprodotto, ma non e' cosi' "fluido" come su 4000 (grazie al maggior numero di TensorCores)... quindi e' stato semplicemente "inibito" per le RTX precedenti?

Succederebbe un po' cio' che avviene con l'HVEC: i filmati possono essere riprodottii ugualmente, ma l'hardware dedicato/predisposto velocizza le operazioni, sgravando notevolmente CPU/GPU.

P.S.
A pensar male qualcuno potrebbe dire: "semplice scelta di marketing"
 
Pubblicità
Pubblicità
Indietro
Top