UFFICIALE Nvidia RTX 5000: Blackwell

Pubblicità
Quindi dell'efficienza in realtà ne parlano tutti ma frega davvero poco alla fine, si troverà sempre un modo per dire che quel prodotto poteva esser "fatto memeglio"
Sono in parte d'accordo, di certo non guardo i consumi di corrente.. se per ipotesi prendo in considerazione 2 schede che consumano rispettivamente 250 e 300w i 50w di differenza non sarebbero un dramma a pari prestazioni. Da quando ho scoperto l'undervolt, mi son reso conto che è più interessante dell'overclock. Poi magari sulle nuove schede sarà diverso, ma non credo. Per quanto riguarda la 5090, ho capito benissimo che è un mostro e non voglio affatto sminuire questo aspetto, sono anche certo che vedremo cose interessanti che al momento non sono ancora sfruttabili. Capisco anche che il consumo sia proporzionato, non sto parlando di tecnicismi, quelli li lascio agli utenti più tecnici.. si stava solo dicendo che mettersi una scheda da 600 w nel case sotto la scrivania non sarà un'esperienza ne fresca ne silenziosa. A prescindere dalle prestazioni, questo lo capisce anche un falegname ha detto qualcuno 😅 facendomi ridere perché quello è il mio lavoro.
 
Ultima modifica:

In breve, funziona da bene a benissimo quando non serve e funziona da male a malissimo quando serve. Per avere un'immagine di buona qualità con MFG servono almeno 70/80 Fps, va da se che a quel punto, a meno di avere monitor da 300+ Hz, avere la MFG attiva non serve a niente e basta la normale FG 2x.
 
Basta prenderlo per quello che è, in certi contesti sarà utile, in altri no. Se dovessi acquistare una 5070, non mi aspetterei di avere una 4090, questo l'ho capito pure io.
 
Comunque il dlss4 sembra che abbia davvero cambiato la concezione del rendering. DLss perfomance in QHD ora si vede quasi come il nativo e anche meglio se di quando si usa un antialiasing pezzotto. Potrei dire anche sia la pietra tombale sul full HD
Effettivamente i video mostrano chiaramente che l'immagine con Dlss4 è più pulita e stabile della nativa. Gran bel risultato.
 
ma non è quello che succede nella reatà-

che esista qualche fesso che si compra la scheda da 3k ogni tanto non singifica che quelle schede siano per il gioco

Che nvidia faccia anche una campagna di "marketing" dove magnificano quelle schede per il gioco non significa che la maggioranza dei giocatori si tutffa a comprarle per quello
Anzi sono una esigua minoranza

Oggi con le schede ci fai tutto e quando dico tutto intendo tutto, anche il semplice giocare poi registrare editare e riproporre poi quei contenuti in rete porta ipoteticamente ad un guadagno che può bvenissimo giustificare per un utente l'esborso di cifre belle alte se la scheda gli permette di fare quello che deve fare ( e quello non è più solo giocare è creare contenuti per un guadagno)

Ma come ha fatto notare l'utente @Dyavel oggi anche in ambito puramente professionale proprioi le schede che vanno per la maggiore sono le XX90 siua nei piccoli studi che in tutte le case di chi lavora in quegli studi

E' assurdo credere che un utente che compra una 4090 o anche una 4080 ci giochi e basta

Poi quancuno mi spieghi cosa dovrebbe farci un giocatore con 32GB DI VRAM GDDR7

verissimo che poi con una 5090-4090 ci giochi anche, per carità ma non sono assolutamente schede create per il gioco e la stessa strategia di nvidia che lo conferma in più punti anche nelle sue azioni


Esempio i driver studio sono proprio per utilizzate quelle schede al melgio a scopi professionali
Ripeto: tu puoi scrivere anche 10 post ma IL SITO NVIDIA la pubblicizza primariamente per il gaming. Poi si sa benissimo che non sarà la scheda che farà i numeri più alti di vendita, ma questa è una scheda pubblicizzata per il gaming.

imho:
se la presentavano a 1849$/2000€ con un consumo massimo di 450/480w ed un Salto del 20%, ma durante la presentazione concentrandosi maggiormente su calcoli IA e DLSS4? non avremmo tutto sto casino.

e magari, alla fine mostrare il guadagno in OC a 560/580w. qualcuno ci faceva un pensierino a usarla in Daily a 530 c'era? si! ma il 99% si "accontentava" del PL normale. (a 450/480)
Esatto. Che credo sia quello che hanno fatto nella prova mostrata ieri. Limiti il PL e ti accorgi che la scheda va bene senza arrivare a consumare in modo ridicolo.

Sì Ada Lovelace era efficiente per gli standard di 2 anni fa, ma la normalità è che l'efficienza di generazione in generazione aumenti. Magari non tanto quanto in passato perché ormai la tecnologia è piuttosto matura, ma qui il guadagno è praticamente 0. Un po' deludente, no?
Un pò ? A parte crime entrato in modalità fanboy, direi che il guadagno tecnologico è stato 0 con la serie 5000 (beh vediamo le altre, ma non mi aspetto miracoli). Hanno semplicemente spremuto all’inverosimile quanto avevano già.
Mi ricorda terribilmente le diverse iterazioni di Intel negli ultimi anni…

come sono cambiati i tempi...

performance per watt praticamente identico alla 4090 che già a sua volta era non molto efficiente, bei vecchi tempi quando le performance per watt miglioravano da una serie al altre...
E quello dovrebbe essere la norma. Ma a quanto pare per qualcuno va bene se ogni due anni aumenti la frequenza ed aggiungi 100W. tanto poi fai 50 FPS in più e sono tutti felici.

Diciamo che in situazioni normali sarebbe uno spreco sia di soldi che di risorse (intese come potenzialità della scheda) mentre per uno che ha soldi da buttare sarebbe uno spreco solo di risorse ma quelli in quest'ultimo caso alla fine possono permettersi di fare ciò che vogliono (come anche comprare la nuova *090 ad ogni generazione) e fregarsene.

Il brutto è per i poveracci come me perché poi Nvidia va avanti con questi prezzi improponibili e ce la prendiamo in quel posto.
Ragazzi ma voi davvero credete che computer che consumano 700/800W siano un problema “solo di noi poveracci” ? Credete che sia “gratuito” per l’ambiente ?
Ora io sono tutto fuorché un ipocrita green, ma è UNA FORTUNA che questo hardware se lo possono permettere in pochi, perché queste sono scelte folli di principio.
Il progresso tecnologico si ha quanto migliori le prestazioni aumentando l’efficienza, non solo quando migliori le prestazioni a scapito dell’efficienza.

Di sicuro le 6000 saranno sul 3nm di tsmc, qua hanno dovuto spremere all'osso il 4nm perché non avevano accesso al 3, monopolizzato da Apple, che si è comprata l'intera linea in pratica
Ma gliel’aveva ordinato il medico di uscire quest’anno ? Se avessero lanciato tra 6/8 mesi, tra un anno, quando il nodo era disponibile ?

I video che hai mostrato illustrano primariamente content creator singoli.
Io in una render farm ci sono stato di recente, hanno decine di workstation e la base è Quadro. Per le attività mission critical non si usano 4090, usate invece su altre postazioni.
 
il guadagno tecnologico è stato 0 con la serie 5000 (beh vediamo le altre, ma non mi aspetto miracoli). Hanno semplicemente spremuto all’inverosimile quanto avevano già.
no, questo non è corretto, è stato cambiato l'approccio generale di come viene gestita la costruzione della scena da parte dell'intelligenza artificiale e sono stati ulteriormente migliorate le caratteristiche preesistenti. Solo che a noi utenti non ce ne dovrebbe fregare troppo se mi fai strapagare la novità e non mi dai un aumento sostanzioso di prestazioni su tutti i fronti.

I problemi secondo me sono altri, e non sono pochi:
  • i costi dell'hw sono come al solito eccessivi;
  • il guadagno in prestazioni è linearmente proporzionale all'aumento del numero di transistor integrati ed al consumo elettrico delle schede, di nuovo aumentato. Non è una novità, le RTX 4000 praticamente doppiavano la serie RTX 3000 (almeno nelle prestazioni RT) ma anche lì c'era stato un quasi raddoppio dei circuiti hw basilari. Il tempo del raddoppio di prestazioni a parità di "ferraglia" sottostante o almeno a parità di prestazione/watt è finito (da un pezzo: si vede anche con le CPU);
  • il supporto sw alle tecnologie di neural rendering (innovativo quanto si vuole) è attualmente inesistente, in pratica paghi (carissimo) ora per cose che si avranno in futuro;
  • è la prima iterazione di questi nuovi modelli di generazione della scena, di cui si vedranno i reali vantaggio solo in giochi di là da venire e probabilmente con la prossima generazione di schede video, tra un paio di anni. E poi cambieranno ancora!
  • AMD latita come al solito, non si capisce dove voglia andare a parare, non c'è concorrenza e questi sono i risultati;
  • la fascia medio-bassa del mercato continua ad essere scoperta, trovo assurdo che se non si spendono almeno 600€ di scheda video non si possa mettere in piedi un PC da gioco degno di questo nome. Forse solo Intel ha cercato di metterci una pezza, ma le sue schede video in Italia sono quasi introvabili e quando lo sono non hanno i prezzi simili al mercato USA. E dove diavolo è AMD su questa fascia? le nuove Radeon RX 9070/9070XT sempre prezzi a partire da 600€ avranno, a budget ristretto conviene comprare una console, spendi meno a comprare una console solo per giocare e un PC senza scheda video ma con normale grafica integrata per home/office
Chi non ha una scheda video o deve fare upgrade dalla serie RTX 3000, dovrebbe limitarsi alle RTX 5070 o al massimo RTX 5070-Ti.
 
no, questo non è corretto, è stato cambiato l'approccio generale di come viene gestita la costruzione della scena da parte dell'intelligenza artificiale e sono stati ulteriormente migliorate le caratteristiche preesistenti. Solo che a noi utenti non ce ne dovrebbe fregare troppo se mi fai strapagare la novità e non mi dai un aumento sostanzioso di prestazioni su tutti i fronti.

Occhio che una parte di questi cambiamenti è SOFTWARE, in parte addirittura cloud based. Quindi l’evoluzione tecnologica non è tutta legata a miglioramenti architetturali.

I problemi secondo me sono altri, e non sono pochi:
  • i costi dell'hw sono come al solito eccessivi;

Quando non hai concorrenza, succede questo.
  • il guadagno in prestazioni è linearmente proporzionale all'aumento del numero di transistor integrati ed al consumo elettrico delle schede, di nuovo aumentato. Non è una novità, le RTX 4000 praticamente doppiavano la serie RTX 3000 (almeno nelle prestazioni RT) ma anche lì c'era stato un quasi raddoppio dei circuiti hw basilari. Il tempo del raddoppio di prestazioni a parità di "ferraglia" sottostante o almeno a parità di prestazione/watt è finito (da un pezzo: si vede anche con le CPU);
E questo è il punto cardine: NON C’È’ evoluzione. Da anni. La serie 4000 quantomeno migliorava l’efficienza energetica, qui neppure questo. 100W in più, 1000€ in più. Questo sarebbe il progresso tecnologico ?
  • il supporto sw alle tecnologie di neural rendering (innovativo quanto si vuole) è attualmente inesistente, in pratica paghi (carissimo) ora per cose che si avranno in futuro;
Questo è il minore dei problemi. Come con il RT , prima o poi devi iniziare.
  • è la prima iterazione di questi nuovi modelli di generazione della scena, di cui si vedranno i reali vantaggio solo in giochi di là da venire e probabilmente con la prossima generazione di schede video, tra un paio di anni. E poi cambieranno ancora!
Vedasi sopra.
  • AMD latita come al solito, non si capisce dove voglia andare a parare, non c'è concorrenza e questi sono i risultati;
Esatto, questo è un GROSSO problema. va bene , AMD non vuole competere nella fascia “insensata” della 5090, ma al momento sembra voler (forse) competere solo nella fascia della 5070. Da AMD servirebbe un concorrente per la 5080 e per le 5060. Così nascerebbe nuovamente una gara tra le due entità.
  • la fascia medio-bassa del mercato continua ad essere scoperta, trovo assurdo che se non si spendono almeno 600€ di scheda video non si possa mettere in piedi un PC da gioco degno di questo nome. Forse solo Intel ha cercato di metterci una pezza, ma le sue schede video in Italia sono quasi introvabili e quando lo sono non hanno i prezzi simili al mercato USA. E dove diavolo è AMD su questa fascia? le nuove Radeon RX 9070/9070XT sempre prezzi a partire da 600€ avranno, a budget ristretto conviene comprare una console, spendi meno a comprare una console solo per giocare e un PC senza scheda video ma con normale grafica integrata per home/office
Chi non ha una scheda video o deve fare upgrade dalla serie RTX 3000, dovrebbe limitarsi alle RTX 5070 o al massimo RTX 5070-Ti.
Oh, temo le RX9070/9070XT avranno prezzi ben superiori ai 600 euro, a meno che AMD non si ravveda e decida di diventare una concorrenza. La fascia medio-bassa storicamente Nvidia la copre 4/6 mesi dopo, quando avremo le 5060 immagino. Il problema è che senza concorrenza, le 5060 saranno delle mezze porcherie come sono state le 4060. L’ultima fascia medio-bassa decente che ricordi è stata la 3060Ti, che già era al limite all’epoca.
 
Prima del lancio avevo detto che mi aspettavo una generazione tipo Turing, viste le premesse del processo produttivo, ma mi sono sbagliato: è peggio di Turing. Almeno la 2080 TI consumava 250w .... non 600w. Direi che in questi sette anni siamo arrivati alla frutta per quanto riguarda il consumo energetico, credo che questo sia proprio il limite umano per le schede consumer. Il futuro non sembra brillante, i nodi successivi saranno più costosi e non porteranno a miglioramenti paragonabili a quelli passati. Di sicuro ci martelleranno con mirabolanti soluzioni software, tralasciando ovviamente le limitazioni che ognuna di queste soluzioni comporta. Quest'andazzo non mi stimola ad investire centinaia/migliaia di euro in una scheda video.....
 
Esatto. Che credo sia quello che hanno fatto nella prova mostrata ieri. Limiti il PL e ti accorgi che la scheda va bene senza arrivare a consumare in modo ridicolo.
nel video che ho postato, si vede la 5090 superare di un +15/18% medio la precedente 90 a pari consumi. con driver a dir poco acerbi.
per cui, un minimo di aggiornamento c'è stato. immagino che con driver maturi e giochi/software aggiornati, il salto si attesterà sul 25/30% a pari consumi.

mo devo riguardarlo, ma mi sa che il vero salto sia in rt/pt. (e giustamente!)

Un pò ? A parte crime entrato in modalità fanboy, direi che il guadagno tecnologico è stato 0 con la serie 5000 (beh vediamo le altre, ma non mi aspetto miracoli). Hanno semplicemente spremuto all’inverosimile quanto avevano già.
Mi ricorda terribilmente le diverse iterazioni di Intel negli ultimi anni…
no, non sono a livello di intel.
loro fino all'uscita degli zen1 dormivano beatamente.
E quello dovrebbe essere la norma. Ma a quanto pare per qualcuno va bene se ogni due anni aumenti la frequenza ed aggiungi 100W. tanto poi fai 50 FPS in più e sono tutti felici.


Ragazzi ma voi davvero credete che computer che consumano 700/800W siano un problema “solo di noi poveracci” ? Credete che sia “gratuito” per l’ambiente ?
Ora io sono tutto fuorché un ipocrita green, ma è UNA FORTUNA che questo hardware se lo possono permettere in pochi, perché queste sono scelte folli di principio.
Il progresso tecnologico si ha quanto migliori le prestazioni aumentando l’efficienza, non solo quando migliori le prestazioni a scapito dell’efficienza.
magari, han tutti 10kw di pannelli sul tetto e batterie da 12/15kwh... 😅 🤣🤣
Ma gliel’aveva ordinato il medico di uscire quest’anno ? Se avessero lanciato tra 6/8 mesi, tra un anno, quando il nodo era disponibile ?
su questo concordo pienamente.
ho il forte presentimento, che se avessero atteso 12mesi uscendo sui 3nm, ste botte da 550w e oltre non le avremmo viste.
e ci saremmo solo interessati alle pure prestazioni ed al cambio di architettura.
e probabilmente concentrandici moooolto di più sulla 4°gen del dlss, che sembra una figata!

mega geometry non vi fa' suonare un campanello?

le ada e quelle sotto potranno usarlo?
si, ma probabilmente non con la stessa efficienza e precisione delle Blackwell.

neural material (o come si chiama...)?
idem.
i video che hai mostrato illustrano primariamente content creator singoli.
Io in una render farm ci sono stato di recente, hanno decine di workstation e la base è Quadro. Per le attività mission critical non si usano 4090, usate invece su altre postazioni.
 
Leggo un po’ di post strani di persone che si scagliano contro Nvidia per i prezzi e per l’incremento di prestazioni “non reale” ma la responsabilità è solo della concorrenza non capace di essere competitiva o apportare altre innovazioni. Non è detto che NVIDIA occuperà il podio anche in futuro, quindi è normale che si faccia pagare il lavoro dietro queste schede e con margine.

Detto questo, mi domando se vale la pena spendere 2500 euro per il top di gamma invece della 5080 per giocare in 4K a 120-140 con dettagli alti (ultra li lasciamo stare)… perché penso che è a quello che puntiamo tutti.

Il mio ragionamento è che con una 5090 si potrebbe comprare una 5080 oggi e una 6080 domani ed essere più aggiornati con più innovazione… sbaglio??
 
Detto questo, mi domando se vale la pena spendere 2500 euro per il top di gamma invece della 5080 per giocare in 4K a 120-140 con dettagli alti (ultra li lasciamo stare)… perché penso che è a quello che puntiamo tutti.
Tutti no...ti dico che a me del 4K per esempio non frega nulla. Io mi "accontento" di un QHD con preset alto/ultra che mi garantisca 100/120 FPS e sto molto più che contento.
 
Non penso che la ragione della RTX5090 FE "piccola" sia non entrare in competizione con gli AIB: quello lo ottiene facilmente limitando le quantità di FE disponibili per i consumatori finali. Piuttosto, credo ci sia la volontà di aprirsi a mercati dove servono effettivamente dual slot.

Comunque non sottovalutare l'impegno necessario per realizzare un PCB simile. Pure quelli dei partner ormai non scherzano, ma non si arriva allo stesso livello di densità di quello presentato da Nvidia e probabilmente è proprio a causa della diversità di risorse in termini di materiale umano che hanno a disposizione. Poi senza dubbio progettare una moderna GPU\CPU è un altro livello di complessità, ma di fatti lo fanno solo 3 aziende al mondo e si ripagano lo sviluppo vendendone milioni a centinaia se non migliaia di dollari. Di RTX5090 FE Nvidia quante ne venderà? E con che margini (rispetto alla vendita della singola GPU)?
si anche questa è un'ipotesi molto ragionevole, concordo.
 
no, questo non è corretto, è stato cambiato l'approccio generale di come viene gestita la costruzione della scena da parte dell'intelligenza artificiale e sono stati ulteriormente migliorate le caratteristiche preesistenti. Solo che a noi utenti non ce ne dovrebbe fregare troppo se mi fai strapagare la novità e non mi dai un aumento sostanzioso di prestazioni su tutti i fronti.

I problemi secondo me sono altri, e non sono pochi:

  • il guadagno in prestazioni è linearmente proporzionale all'aumento del numero di transistor integrati ed al consumo elettrico delle schede, di nuovo aumentato. Non è una novità, le RTX 4000 praticamente doppiavano la serie RTX 3000 (almeno nelle prestazioni RT) ma anche lì c'era stato un quasi raddoppio dei circuiti hw basilari. Il tempo del raddoppio di prestazioni a parità di "ferraglia" sottostante o almeno a parità di prestazione/watt è finito (da un pezzo: si vede anche con le CPU);
  • AMD latita come al solito, non si capisce dove voglia andare a parare, non c'è concorrenza e questi sono i risultati;
Amd può anche latitare ed è vero, ma nVidia fa tutto da sola è, se io mi invento una cosa oggi, non è che tu domani hai già la stessa cosa pronta.
Nvidia crea tech, alcune utili altre no, senza che nessuno glielo stia chiedendo, normale che sia avanti, le fa lei! anzi AMD mostra a tutti quanto nVidia prende in giro i propri consumatori, lo hanno fatto con il FreeSync, dove il G sync di nVidia aveva bisogno di un modulo proprietario, lo ha fatto con fsr senza unità dedicate, e lo ha fatto con il FG, senza optical flow ;)
Qui non ci siamo proprio Bat, hanno alzato i prezzi, ridotto il salto prestazionale(prevedibili dato il pp), ed aumentato i consumi(prevedibile anche questo), è una sconfitta sia dal punto di vista tecnologico (perché la 5090 è un qualcosa di osceno da avere nel case), che dal punto di vista di noi consumatori, e non credere, la fascia al di sotto della xx90, sarà ancora peggiore, con salti prestazionali che neanche i refresh portano con se.
Ha detto bene Max, paragonando NVidia di oggi, ad Intel di ieri con quei cexxi di 14nm+++++++++++++, innovazione zero gen to gen(perché anche qui è 0, all'atto pratico) ed aumento dei prezzi.
Siamo in una fase di stagnazione purtroppo :( la 5070 è fuori discussione, 12Gb sono ridicoli, ed anche quella gpu lo è, prestazionalmente parlando, se il prezzo sarà idoneo, sicuramente sarà meglio una 9070 ad una 5070, ma a mani basse.
 
Ultima modifica:
Ha detto bene Max, paragonando NVidia di oggi, ad Intel di ieri con quei cexxi di 14nm+++++++++++++, innovazione zero gen to gen(perché anche qui è 0, all'atto pratico) ed aumento dei prezzi.
La cosa Trieste è che quando Intel faceva porcherie (vedesi 2017) farsi un PC da gaming era ancora alla portata di tutti. Con 1000€ ti portavi un PC quasi con una 1070. Anche le schede madri case e alimentatori costavano molto meno. Le CPU avevano pochi core ma in gioco andavano bene. Un i5 stava comunque anche meno di 200€ e un i7 poco sopra i 300€. Solo gli SSD costavano di più, ma non dimentichiamoci che all'epoca sulle console si usavano ancora quei rottami dei 5400rpm, già un hard disk di 7200rpm era un altro mondo

Ora con 1200€ ti fai una 4060 che a stento supera una console del 2020 ma di che parliamo

Certo già una 4070 è un altra storia, ma ci vuoi almeno 1500€ per avere i vantaggi del PC da gaming (senza considerare lo schermo che ormai sono l'unica cosa che davvero sono migliorati). Un tempo una rx480 in un PC da 800€ si ci riusciva a metterla e già si avevano tutti i vantaggi del PC da gaming
 
La cosa Trieste è che quando Intel faceva porcherie (vedesi 2017) farsi un PC da gaming era ancora alla portata di tutti. Con 1000€ ti portavi un PC quasi con una 1070. Anche le schede madri case e alimentatori costavano molto meno. Le CPU avevano pochi core ma in gioco andavano bene. Un i5 stava comunque anche meno di 200€ e un i7 poco sopra i 300€. Solo gli SSD costavano di più, ma non dimentichiamoci che all'epoca sulle console si usavano ancora quei rottami dei 5400rpm, già un hard disk di 7200rpm era un altro mondo

Ora con 1200€ ti fai una 4060 che a stento supera una console del 2020 ma di che parliamo
spe la serie 109 non costava poco eh

Le schede sono state sempre care io la 1070 tri la pagai la bellezza di 500 euro nel 2018

1737900124696.webp

Ci sta questa percezione generale sballata che prima le schede costavano sempre meno, io onestamente non lo ricordo specie se parliamo di schede di fascia medio alta
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top