UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Io OGGI, vedo usare come benchmark giochi che vanno indietro fino al 2018 se non prima… nei prossimi due anni non vedo alcuna rivoluzione nel campo gaming in grado di cambiare il panorama in modo così netto.
è solo marketing e qualcuno ci sta cadendo con tutte le scarpe.
Parliamo del futuro e poi verifichiamo le prestazioni con Shadow of the Tomb raider e Ranbow Six…
Siamo in un pieno cambio generazionale dove le software house stanno preparando le nuove major dei motori grafici e tu non vedi rivoluzione.
 
Aggiungo il grafico di Der8auer, interessantissimo: lo sweet spot è a circa 285w.

Visualizza allegato 443496



Il mio messaggio forse può essere frainteso: con porcheria intendo il video di Digital Foundry, non il DLSS 3.0.
Sì, mi aspettavo renderizzasse i frame aggiuntivi partendo dalla risoluzione nativa: questo lascia intendere il video di 30 minuti. Mai accennato ad una riduzione della risoluzione.
Non mi stupisce e l’abbiamo visto accadere con Zen 4.
Hanno in mano una buona soluzione, ma se non sparano millemila Watt non possono produrre le barre dei grafici così lunghe da far sbavare un certo tipo di clientela.

Su Digital Foundry come su Jayz e Linus ho una mia idea precisa: hanno perso da tempo la loro “integrità” diventando un mero veicolo pubblicitario, burattini in mano alle Case, nel momento in cui hanno smesso di essere YouTuber e sono diventati aziende. Nessun contenuto è pulito da parte loro.
Sono rimasti integri PER ORA solo Steve Burke di Gamersnexus ed i ragazzi di HwUnboxed (che però sono spudoratamente fanboy AMD, ma vabbé, i loro contenuti sono buoni).

Nvidia sara' stata volutamente vaga su dove potra' esser implementato il DLSS 3 (solo 4000 a anche GPU precedenti), ma quello della risoluzione era qualcos che era stato chiarito fin da subito, cito dalla pagina ufficiale del DLSS3 che abbiamo postato piu' volte:

With DLSS 3 enabled, AI is reconstructing three-fourths of the first frame with DLSS Super Resolution, and reconstructing the entire second frame using DLSS Frame Generation. In total, DLSS 3 reconstructs seven-eighths of the total displayed pixels

nvidia-dlss-3-reconstructs-pixels.png


Quindi il primo frame viene "renderizzato" solo per 1/4 della risoluzione nativa, e credo sia un parametro fisso.
I livelli del DLSS 3 immagino influiscano sul deep learning della AI, per operare sulla qualita' a discapito delle performances.
Ma del resto non esiste alcun modo per accelerare se non renderizzando a risoluzione inferiore 🤷🏻‍♂️

Il giochino poi è sulla rigenerazione dell’immagine.

Soprattutto quando tra poco, le rx 7000 di amd batteranno questa scheda, consumando meno, e penso anche ad un prezzo inferiore.
nvidia probabilmente lo sospetta e penso sia per questo che non l'hanno chiamata titan la loro scheda.
Mah, io lo spero ma non ho la stessa fiducia, specie sui consumi e soprattutto sui prezzi… La nuova AMD di Lisa Su non è molto diversa da Nvidia.
 
questo thread si è trasformato in un thread di bambini che non si possono permettere il giocattolo e per questo motivo lo criticano.

ciao ragazzi. buona vita.
Tu hai veramente stancato con questo atteggiamento…

… non ve lo potete permettere … ignoranti …

vivi su un piedistallo che ti sei creato nella tua mente e non fai altro che offendere il resto dell’utenza che consideri “inferiore” perché non ha la tua stessa disponibilità a buttare via soldi.

Se ti apostrofo come “fenomeno” lo faccio solo per come ti poni qui in questo thread, da essere supremo(io sono io e voi non siete un c…o)e saccente all’ennesima potenza.


Inviato dal mio iPhone utilizzando Tapatalk Pro
Per quanto condivida la tua sensazione, visto che ogni suo intervento del genere sfocia in flame su ogni thread, non lo apostrofare, andando contro il regolamento, ma segnala.
 
Per quanto condivida la tua sensazione, visto che ogni suo intervento del genere sfocia in flame su ogni thread, non lo apostrofare, andando contro il regolamento, ma segnala.
Io ho spiegato i motivi per cui dico quello che dico. xD
Siamo arrivati al punto da dire che fa troppi FPS e non serve. xD
 
Amd ha il multi die, già questo potrebbe bastare.
Non avrebbero spinto così tanto la 4090 se non avessero paura della concorrenza (500w standard, 650+ con la funzione oc o qualcosa di simile... follia per un pc di casa).

Per il resto al momento mi reputo un fiero sostenitore dell'unico competitor della malvagia nvidia 😁
Multi die non significa nulla… o meglio non significa essere automaticamente più efficienti o più prestanti. È un approccio diverso che probabilmente rende più facile la scalabilità dei prodotti, ma sulle prestazioni vedremo.
Ora più che mai abbiamo bisogno di un forte competitor di Nvidia, viste le scelte assurde (4080 fake, prezzi ridicoli per 4080 e 4090, consumi alle stelle).
Ma se considero la 6900X e 6950X il rischio è che AMD percorra la stessa strada come prezzi e consumi. Insomma la 6900X non è che consumasse poco, e come spike faceva concorrenza alla 3090 pur essendo costruita con un nodo migliore.
Speriamo perché io a sto giro manderei a quel paese Nvidia molto volentieri…

Su questo sono d'accordo. Anche se è una gpu che consuma tanto al confronto con la rtx 3090ti ne risulta vincente. Insomma stiamo parlando di una gpu che se la mangia a colazione e consuma uguale.
Ecco mettiamola cosi, giustifico i 450watt della rtx 4090 data la potenza che offre ma non riesco a giustificare i 450Watt della rtx 3090ti. Quindi dire che è una gpu che consuma tanto è corretto ma dire che è una gpu poco efficiente è sbagliato.
Ma il discorso era lo stesso: la 3090/3090 Ti esattamente come la 4090 erano schede inutili, costruite solo per dire “io ce l’ho più lungo”.
Ora la 4090 almeno usando un processo produttivo diverso e più moderno risulta essere più efficiente. Ma di base resta una scheda che, a quel prezzo e con quel consumo, non ha ragione di esistere PER GAMING se non per mostrare grafici.

Tranquillo te la lascio più che volentieri 🤣
Si si, prendete pure le mie 3… credo che comprerò altro

Comunque mentre voi parlate della 4090, io sto giocando a Valhalla con la 3090 bello fisso a 90 fps risoluzione 3480x1600 tutto al MAx.
Io dico che se vuoi giocare basta e avanza. Poi certo, bella scheda la 4090, nulla da dire. MA 2500 pippi..... insomma....
Però se proprio insistete me la compro...😇
Solo 90 FPS ?
Eh no, non sei nessuno !
Qui se non sono 140 il gioco è tutto un lag e scatto… ingiocabile no ? 😂
 
Si è vero ma chiediamoci perché… ci serve giocare a 140 FPS in 4K ???
Stiamo continuando a giudicare la 4090 come una scheda da gaming, spinti anche da marketing .
A 1440P cerchiamo benchmark da 200/300 FPS dicendo che “la CPU fa da bottleneck”… e che senso ha cercare più FPS a quel punto ?
Quindi davvero ci siamo fatti convincere che 2000 euro per giocare vadano bene ?

Io non sono tanto perplesso sulle scelte hardware di Nvidia, con una scheda con picchi di oltre 600W, quando sulla reazione del web in cui non c’è nessuno che dica “ma a cosa serve quell’affare ?”.
Chiaramente escludo dal discorso chi fa rendering.
Effettivamente è lo stesso ragionamento che stavo facendo io. Io ho una TV 4k a 120hz e un monitor a 160hz che uso sempre a 120hz per avere 10bit colore, ma acosa mi serve una scheda che fa 189 o 240 fps?
 
Si è vero ma chiediamoci perché… ci serve giocare a 140 FPS in 4K ???
Stiamo continuando a giudicare la 4090 come una scheda da gaming, spinti anche da marketing .
A 1440P cerchiamo benchmark da 200/300 FPS dicendo che “la CPU fa da bottleneck”… e che senso ha cercare più FPS a quel punto ?
Quindi davvero ci siamo fatti convincere che 2000 euro per giocare vadano bene ?

Io non sono tanto perplesso sulle scelte hardware di Nvidia, con una scheda con picchi di oltre 600W, quando sulla reazione del web in cui non c’è nessuno che dica “ma a cosa serve quell’affare ?”.
Chiaramente escludo dal discorso chi fa rendering.

In realtà allora si può anche dire "serve giocare?"
Il gaming è uno svago e come tale va preso, non è certo una necessità primaria
Ci sono mille altre attività che possiamo fare senza comprare alcuna scheda per divertirci e svagarci, quindi dipende unicamente da cosa vogliono le persone

Questa scheda (che viene valutata in gaming, perché per quello nVida la propone) è chiaramente una soluzione di nicchia, a partire dal prezzo, dai consumi e tutto il resto
Ovvio che non serve giocare in 4k maxato a 140 fps, ma se uno vuole farlo ed ha i soldi per permettersi tale monitor li avrà anche per questa scheda e potrà sfruttarla
La massa giocherà a risoluzioni inferiori con schede inferiori e si divertirà altrettanto (o forse anche di più)
Ognuno si farà i suoi conti su cosa vuole e quanto è disposto a spendere per averlo ed agirà di conseguenza (io mi sto tenendo ben stretta la mia vecchia vega56 per questo motivo, di certo non sono interessato all'acquisto di una scheda come la 4090, ma mi piace comunque seguire e vedere che genere di progressi avvengono nel mondo dell'hw)

La preoccupazione sul bottleneck invece la vedo anche per le schede inferiori perché se prendo dei test in cui la scheda è tappata (da cpu e motore di gioco) si nota abbastanza spesso un calo rispetto alla generazione precedente:
deathloop-1920-1080.png

Il che fa pensare che la nuova architettura sia un po' più cpu-bound delle precedenti (ed in realtà se guardiamo questa cosa in casa nVidia sta andando avanti già dai tempi di Pascal questo effetto in cui la cpu comincia a "tappare" prima)
--- i due messaggi sono stati uniti ---
ma delle belle recensioni delle custom non si trovano ancora...
Per le custom l'NDA sulle review scade oggi 😉
 
Tu hai veramente stancato con questo atteggiamento…

… non ve lo potete permettere … ignoranti …

vivi su un piedistallo che ti sei creato nella tua mente e non fai altro che offendere il resto dell’utenza che consideri “inferiore” perché non ha la tua stessa disponibilità a buttare via soldi.


Per quanto condivida la tua sensazione, visto che ogni suo intervento del genere sfocia in flame su ogni thread, non lo apostrofare, andando contro il regolamento, ma segnala.
Che poi io veramente la 4090 la potrei prendere anche questa mattina se ci fosse, il punto è che ho valutato quante altre belle cose potrei comprare con 2500 E. Se faccio un calcolo probabilmente sforo anche i 2500 😅😅. Il punto è che non ne ho voglia e soprattutto per un motivo: le aziende cominceranno a stare buone con i prezzi solo se le rimangono sul groppone i prodotti invenduti. PEr il resto , non mi va di criticare chi , avendo saltato 2 generazioni decide ( avendo conservato i soldi per4 anni) , di acquistare questa 4090 a 2500E. Non potrei, cambio HW in continuazione😅😅
 
Che poi io veramente la 4090 la potrei prendere anche questa mattina se ci fosse, il punto è che ho valutato quante altre belle cose potrei comprare con 2500 E. Se faccio un calcolo probabilmente sforo anche i 2500 😅😅. Il punto è che non ne ho voglia e soprattutto per un motivo: le aziende cominceranno a stare buone con i prezzi solo se le rimangono sul groppone i prodotti invenduti. PEr il resto , non mi va di criticare chi , avendo saltato 2 generazioni decide ( avendo conservato i soldi per4 anni) , di acquistare questa 4090 a 2500E. Non potrei, cambio HW in continuazione😅😅


Credimi non ne vale la pena il prezzo di queste schede è semplicemente assurdo
 
MA infatti chi la prende.... in realtà aspetto AMD. Possibile anche che decida per 2 PC con GPU AMD e Nvidia. Sempre che mia moglie mi faccia vendere la 3080TI che io le ho rimediato ah ah ah😆

Anche se ci spero poco AMD ha davvero a disposizione un calcio di rigore, anche se non credo che lo sfrutterà o per lo meno non al 100%

Questo tipo di politica non fa che spianare ponti d'oro al mercato console
 
Ultima modifica:
Se non devi giocare in 4K a dettagli dove noti anche i peli del c...o di ogni personaggio tienitela stretta
MA si me la tengo, ma se AMD sfornasse aualcosa che mi da le stesse prestazioni della 3080TI ad un buon prezzo e a temperature inferiori e consumi inferiori, un pensierino lo potrei anche fare. La 4090 di certo, come ho detto, No
--- i due messaggi sono stati uniti ---
Anche se ci spero poco AMD ha davvero a disposizione un calcio di rigore, anche se nonc redo che lo sfrutterà o per lo meno non al 100%

Questo tipo di politica non fa che spianare pontio d'oro al mercato console
Se pensiamo che AMD è nel mondo console , ce la dice lunga....
 
Questo schifoso marketing funziona sulla massa. Ci sta gente che considera la propria rtx 3070/3080 gpu lenta e vecchia da sostituire il prima possibile solo perché nei benchmark la "barra" della loro gpu è la metà di quella della rtx 4090, ignorando il fatto che in quel benchmark la loro rtx 3080 sta facendo 90fps in 2160p tutto su ultra 🤷‍♂️ .
Poi vai a vedere ed hanno un monitor 1440p e si fanno seghe mentali.

La cosa TRISTE è che lentamente stiamo cambiando. Una volta ci esaltavamo a vedere una rx 480 8GB che veniva venduta a 199$ al day one e ti permetteva di giocare a tutto in 1080p con settaggi alti/ultra.
La gtx 1070 8GB, con un tdp di soli 150 Watt superava in prestazioni sia la gtx 980ti che la Titan Maxwell ad un costo di soli 379$, ripeto 150watt. Giocavi tutto al max in 1080p alto refresh rate e ti godevi anche il 1440p.

Oggi ci esaltiamo per una gpu che ha picchi di 600watt, che fa 180fps in 2160p e che costa soltanto 1599$/2000 euro e che non serve al 99.99% degli utenti. Ci facciamo andare bene anche che Nvidia venda la classe 70 spacciandola per 80 ad un prezzo msrp 999$, ditemi voi se Nvidia non è la prima a fare la scalper e ci sono utenti in questo forum lieti di dargli quei soldi. Sottolineo che non sono prezzi gonfiati dalla crisi, pandemia ecc ma prezzi msrp.
Amd può fare qualcosa ma purtroppo io non ho mai avuto grande fiducia in amd quindi sono sicuro che butterà nel cesso anche questa opportunità d'oro, spero di sbagliarmi.
Che tristezza.
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top