UFFICIALE Nvidia RTX 5000: Blackwell

Pubblicità
imho:
se la presentavano a 1849$/2000€ con un consumo massimo di 450/480w ed un Salto del 20%, ma durante la presentazione concentrandosi maggiormente su calcoli IA e DLSS4? non avremmo tutto sto casino.

e magari, alla fine mostrare il guadagno in OC a 560/580w. qualcuno ci faceva un pensierino a usarla in Daily a 530 c'era? si! ma il 99% si "accontentava" del PL normale. (a 450/480)
Esatto. Che credo sia quello che hanno fatto nella prova mostrata ieri. Limiti il PL e ti accorgi che la scheda va bene senza arrivare a consumare in modo ridicolo.

Sì Ada Lovelace era efficiente per gli standard di 2 anni fa, ma la normalità è che l'efficienza di generazione in generazione aumenti. Magari non tanto quanto in passato perché ormai la tecnologia è piuttosto matura, ma qui il guadagno è praticamente 0. Un po' deludente, no?
Un pò ? A parte crime entrato in modalità fanboy, direi che il guadagno tecnologico è stato 0 con la serie 5000 (beh vediamo le altre, ma non mi aspetto miracoli). Hanno semplicemente spremuto all’inverosimile quanto avevano già.
Mi ricorda terribilmente le diverse iterazioni di Intel negli ultimi anni…

come sono cambiati i tempi...

performance per watt praticamente identico alla 4090 che già a sua volta era non molto efficiente, bei vecchi tempi quando le performance per watt miglioravano da una serie al altre...
E quello dovrebbe essere la norma. Ma a quanto pare per qualcuno va bene se ogni due anni aumenti la frequenza ed aggiungi 100W. tanto poi fai 50 FPS in più e sono tutti felici.

Diciamo che in situazioni normali sarebbe uno spreco sia di soldi che di risorse (intese come potenzialità della scheda) mentre per uno che ha soldi da buttare sarebbe uno spreco solo di risorse ma quelli in quest'ultimo caso alla fine possono permettersi di fare ciò che vogliono (come anche comprare la nuova *090 ad ogni generazione) e fregarsene.

Il brutto è per i poveracci come me perché poi Nvidia va avanti con questi prezzi improponibili e ce la prendiamo in quel posto.
Ragazzi ma voi davvero credete che computer che consumano 700/800W siano un problema “solo di noi poveracci” ? Credete che sia “gratuito” per l’ambiente ?
Ora io sono tutto fuorché un ipocrita green, ma è UNA FORTUNA che questo hardware se lo possono permettere in pochi, perché queste sono scelte folli di principio.
Il progresso tecnologico si ha quanto migliori le prestazioni aumentando l’efficienza, non solo quando migliori le prestazioni a scapito dell’efficienza.

Di sicuro le 6000 saranno sul 3nm di tsmc, qua hanno dovuto spremere all'osso il 4nm perché non avevano accesso al 3, monopolizzato da Apple, che si è comprata l'intera linea in pratica
Ma gliel’aveva ordinato il medico di uscire quest’anno ? Se avessero lanciato tra 6/8 mesi, tra un anno, quando il nodo era disponibile ?

I video che hai mostrato illustrano primariamente content creator singoli.
Io in una render farm ci sono stato di recente, hanno decine di workstation e la base è Quadro. Per le attività mission critical non si usano 4090, usate invece su altre postazioni.
 
Ultima modifica da un moderatore:
il guadagno tecnologico è stato 0 con la serie 5000 (beh vediamo le altre, ma non mi aspetto miracoli). Hanno semplicemente spremuto all’inverosimile quanto avevano già.
no, questo non è corretto, è stato cambiato l'approccio generale di come viene gestita la costruzione della scena da parte dell'intelligenza artificiale e sono stati ulteriormente migliorate le caratteristiche preesistenti. Solo che a noi utenti non ce ne dovrebbe fregare troppo se mi fai strapagare la novità e non mi dai un aumento sostanzioso di prestazioni su tutti i fronti.

I problemi secondo me sono altri, e non sono pochi:
  • i costi dell'hw sono come al solito eccessivi;
  • il guadagno in prestazioni è linearmente proporzionale all'aumento del numero di transistor integrati ed al consumo elettrico delle schede, di nuovo aumentato. Non è una novità, le RTX 4000 praticamente doppiavano la serie RTX 3000 (almeno nelle prestazioni RT) ma anche lì c'era stato un quasi raddoppio dei circuiti hw basilari. Il tempo del raddoppio di prestazioni a parità di "ferraglia" sottostante o almeno a parità di prestazione/watt è finito (da un pezzo: si vede anche con le CPU);
  • il supporto sw alle tecnologie di neural rendering (innovativo quanto si vuole) è attualmente inesistente, in pratica paghi (carissimo) ora per cose che si avranno in futuro;
  • è la prima iterazione di questi nuovi modelli di generazione della scena, di cui si vedranno i reali vantaggio solo in giochi di là da venire e probabilmente con la prossima generazione di schede video, tra un paio di anni. E poi cambieranno ancora!
  • AMD latita come al solito, non si capisce dove voglia andare a parare, non c'è concorrenza e questi sono i risultati;
  • la fascia medio-bassa del mercato continua ad essere scoperta, trovo assurdo che se non si spendono almeno 600€ di scheda video non si possa mettere in piedi un PC da gioco degno di questo nome. Forse solo Intel ha cercato di metterci una pezza, ma le sue schede video in Italia sono quasi introvabili e quando lo sono non hanno i prezzi simili al mercato USA. E dove diavolo è AMD su questa fascia? le nuove Radeon RX 9070/9070XT sempre prezzi a partire da 600€ avranno, a budget ristretto conviene comprare una console, spendi meno a comprare una console solo per giocare e un PC senza scheda video ma con normale grafica integrata per home/office
Chi non ha una scheda video o deve fare upgrade dalla serie RTX 3000, dovrebbe limitarsi alle RTX 5070 o al massimo RTX 5070-Ti.
 
no, questo non è corretto, è stato cambiato l'approccio generale di come viene gestita la costruzione della scena da parte dell'intelligenza artificiale e sono stati ulteriormente migliorate le caratteristiche preesistenti. Solo che a noi utenti non ce ne dovrebbe fregare troppo se mi fai strapagare la novità e non mi dai un aumento sostanzioso di prestazioni su tutti i fronti.

Occhio che una parte di questi cambiamenti è SOFTWARE, in parte addirittura cloud based. Quindi l’evoluzione tecnologica non è tutta legata a miglioramenti architetturali.

I problemi secondo me sono altri, e non sono pochi:
  • i costi dell'hw sono come al solito eccessivi;

Quando non hai concorrenza, succede questo.
  • il guadagno in prestazioni è linearmente proporzionale all'aumento del numero di transistor integrati ed al consumo elettrico delle schede, di nuovo aumentato. Non è una novità, le RTX 4000 praticamente doppiavano la serie RTX 3000 (almeno nelle prestazioni RT) ma anche lì c'era stato un quasi raddoppio dei circuiti hw basilari. Il tempo del raddoppio di prestazioni a parità di "ferraglia" sottostante o almeno a parità di prestazione/watt è finito (da un pezzo: si vede anche con le CPU);
E questo è il punto cardine: NON C’È’ evoluzione. Da anni. La serie 4000 quantomeno migliorava l’efficienza energetica, qui neppure questo. 100W in più, 1000€ in più. Questo sarebbe il progresso tecnologico ?
  • il supporto sw alle tecnologie di neural rendering (innovativo quanto si vuole) è attualmente inesistente, in pratica paghi (carissimo) ora per cose che si avranno in futuro;
Questo è il minore dei problemi. Come con il RT , prima o poi devi iniziare.
  • è la prima iterazione di questi nuovi modelli di generazione della scena, di cui si vedranno i reali vantaggio solo in giochi di là da venire e probabilmente con la prossima generazione di schede video, tra un paio di anni. E poi cambieranno ancora!
Vedasi sopra.
  • AMD latita come al solito, non si capisce dove voglia andare a parare, non c'è concorrenza e questi sono i risultati;
Esatto, questo è un GROSSO problema. va bene , AMD non vuole competere nella fascia “insensata” della 5090, ma al momento sembra voler (forse) competere solo nella fascia della 5070. Da AMD servirebbe un concorrente per la 5080 e per le 5060. Così nascerebbe nuovamente una gara tra le due entità.
  • la fascia medio-bassa del mercato continua ad essere scoperta, trovo assurdo che se non si spendono almeno 600€ di scheda video non si possa mettere in piedi un PC da gioco degno di questo nome. Forse solo Intel ha cercato di metterci una pezza, ma le sue schede video in Italia sono quasi introvabili e quando lo sono non hanno i prezzi simili al mercato USA. E dove diavolo è AMD su questa fascia? le nuove Radeon RX 9070/9070XT sempre prezzi a partire da 600€ avranno, a budget ristretto conviene comprare una console, spendi meno a comprare una console solo per giocare e un PC senza scheda video ma con normale grafica integrata per home/office
Chi non ha una scheda video o deve fare upgrade dalla serie RTX 3000, dovrebbe limitarsi alle RTX 5070 o al massimo RTX 5070-Ti.
Oh, temo le RX9070/9070XT avranno prezzi ben superiori ai 600 euro, a meno che AMD non si ravveda e decida di diventare una concorrenza. La fascia medio-bassa storicamente Nvidia la copre 4/6 mesi dopo, quando avremo le 5060 immagino. Il problema è che senza concorrenza, le 5060 saranno delle mezze porcherie come sono state le 4060. L’ultima fascia medio-bassa decente che ricordi è stata la 3060Ti, che già era al limite all’epoca.
 
Prima del lancio avevo detto che mi aspettavo una generazione tipo Turing, viste le premesse del processo produttivo, ma mi sono sbagliato: è peggio di Turing. Almeno la 2080 TI consumava 250w .... non 600w. Direi che in questi sette anni siamo arrivati alla frutta per quanto riguarda il consumo energetico, credo che questo sia proprio il limite umano per le schede consumer. Il futuro non sembra brillante, i nodi successivi saranno più costosi e non porteranno a miglioramenti paragonabili a quelli passati. Di sicuro ci martelleranno con mirabolanti soluzioni software, tralasciando ovviamente le limitazioni che ognuna di queste soluzioni comporta. Quest'andazzo non mi stimola ad investire centinaia/migliaia di euro in una scheda video.....
 
Esatto. Che credo sia quello che hanno fatto nella prova mostrata ieri. Limiti il PL e ti accorgi che la scheda va bene senza arrivare a consumare in modo ridicolo.
nel video che ho postato, si vede la 5090 superare di un +15/18% medio la precedente 90 a pari consumi. con driver a dir poco acerbi.
per cui, un minimo di aggiornamento c'è stato. immagino che con driver maturi e giochi/software aggiornati, il salto si attesterà sul 25/30% a pari consumi.

mo devo riguardarlo, ma mi sa che il vero salto sia in rt/pt. (e giustamente!)

Un pò ? A parte crime entrato in modalità fanboy, direi che il guadagno tecnologico è stato 0 con la serie 5000 (beh vediamo le altre, ma non mi aspetto miracoli). Hanno semplicemente spremuto all’inverosimile quanto avevano già.
Mi ricorda terribilmente le diverse iterazioni di Intel negli ultimi anni…
no, non sono a livello di intel.
loro fino all'uscita degli zen1 dormivano beatamente.
E quello dovrebbe essere la norma. Ma a quanto pare per qualcuno va bene se ogni due anni aumenti la frequenza ed aggiungi 100W. tanto poi fai 50 FPS in più e sono tutti felici.


Ragazzi ma voi davvero credete che computer che consumano 700/800W siano un problema “solo di noi poveracci” ? Credete che sia “gratuito” per l’ambiente ?
Ora io sono tutto fuorché un ipocrita green, ma è UNA FORTUNA che questo hardware se lo possono permettere in pochi, perché queste sono scelte folli di principio.
Il progresso tecnologico si ha quanto migliori le prestazioni aumentando l’efficienza, non solo quando migliori le prestazioni a scapito dell’efficienza.
magari, han tutti 10kw di pannelli sul tetto e batterie da 12/15kwh... 😅 🤣🤣
Ma gliel’aveva ordinato il medico di uscire quest’anno ? Se avessero lanciato tra 6/8 mesi, tra un anno, quando il nodo era disponibile ?
su questo concordo pienamente.
ho il forte presentimento, che se avessero atteso 12mesi uscendo sui 3nm, ste botte da 550w e oltre non le avremmo viste.
e ci saremmo solo interessati alle pure prestazioni ed al cambio di architettura.
e probabilmente concentrandici moooolto di più sulla 4°gen del dlss, che sembra una figata!

mega geometry non vi fa' suonare un campanello?

le ada e quelle sotto potranno usarlo?
si, ma probabilmente non con la stessa efficienza e precisione delle Blackwell.

neural material (o come si chiama...)?
idem.
i video che hai mostrato illustrano primariamente content creator singoli.
Io in una render farm ci sono stato di recente, hanno decine di workstation e la base è Quadro. Per le attività mission critical non si usano 4090, usate invece su altre postazioni.
 
Leggo un po’ di post strani di persone che si scagliano contro Nvidia per i prezzi e per l’incremento di prestazioni “non reale” ma la responsabilità è solo della concorrenza non capace di essere competitiva o apportare altre innovazioni. Non è detto che NVIDIA occuperà il podio anche in futuro, quindi è normale che si faccia pagare il lavoro dietro queste schede e con margine.

Detto questo, mi domando se vale la pena spendere 2500 euro per il top di gamma invece della 5080 per giocare in 4K a 120-140 con dettagli alti (ultra li lasciamo stare)… perché penso che è a quello che puntiamo tutti.

Il mio ragionamento è che con una 5090 si potrebbe comprare una 5080 oggi e una 6080 domani ed essere più aggiornati con più innovazione… sbaglio??
 
Detto questo, mi domando se vale la pena spendere 2500 euro per il top di gamma invece della 5080 per giocare in 4K a 120-140 con dettagli alti (ultra li lasciamo stare)… perché penso che è a quello che puntiamo tutti.
Tutti no...ti dico che a me del 4K per esempio non frega nulla. Io mi "accontento" di un QHD con preset alto/ultra che mi garantisca 100/120 FPS e sto molto più che contento.
 
Non penso che la ragione della RTX5090 FE "piccola" sia non entrare in competizione con gli AIB: quello lo ottiene facilmente limitando le quantità di FE disponibili per i consumatori finali. Piuttosto, credo ci sia la volontà di aprirsi a mercati dove servono effettivamente dual slot.

Comunque non sottovalutare l'impegno necessario per realizzare un PCB simile. Pure quelli dei partner ormai non scherzano, ma non si arriva allo stesso livello di densità di quello presentato da Nvidia e probabilmente è proprio a causa della diversità di risorse in termini di materiale umano che hanno a disposizione. Poi senza dubbio progettare una moderna GPU\CPU è un altro livello di complessità, ma di fatti lo fanno solo 3 aziende al mondo e si ripagano lo sviluppo vendendone milioni a centinaia se non migliaia di dollari. Di RTX5090 FE Nvidia quante ne venderà? E con che margini (rispetto alla vendita della singola GPU)?
si anche questa è un'ipotesi molto ragionevole, concordo.
 
no, questo non è corretto, è stato cambiato l'approccio generale di come viene gestita la costruzione della scena da parte dell'intelligenza artificiale e sono stati ulteriormente migliorate le caratteristiche preesistenti. Solo che a noi utenti non ce ne dovrebbe fregare troppo se mi fai strapagare la novità e non mi dai un aumento sostanzioso di prestazioni su tutti i fronti.

I problemi secondo me sono altri, e non sono pochi:

  • il guadagno in prestazioni è linearmente proporzionale all'aumento del numero di transistor integrati ed al consumo elettrico delle schede, di nuovo aumentato. Non è una novità, le RTX 4000 praticamente doppiavano la serie RTX 3000 (almeno nelle prestazioni RT) ma anche lì c'era stato un quasi raddoppio dei circuiti hw basilari. Il tempo del raddoppio di prestazioni a parità di "ferraglia" sottostante o almeno a parità di prestazione/watt è finito (da un pezzo: si vede anche con le CPU);
  • AMD latita come al solito, non si capisce dove voglia andare a parare, non c'è concorrenza e questi sono i risultati;
Amd può anche latitare ed è vero, ma nVidia fa tutto da sola è, se io mi invento una cosa oggi, non è che tu domani hai già la stessa cosa pronta.
Nvidia crea tech, alcune utili altre no, senza che nessuno glielo stia chiedendo, normale che sia avanti, le fa lei! anzi AMD mostra a tutti quanto nVidia prende in giro i propri consumatori, lo hanno fatto con il FreeSync, dove il G sync di nVidia aveva bisogno di un modulo proprietario, lo ha fatto con fsr senza unità dedicate, e lo ha fatto con il FG, senza optical flow ;)
Qui non ci siamo proprio Bat, hanno alzato i prezzi, ridotto il salto prestazionale(prevedibili dato il pp), ed aumentato i consumi(prevedibile anche questo), è una sconfitta sia dal punto di vista tecnologico (perché la 5090 è un qualcosa di osceno da avere nel case), che dal punto di vista di noi consumatori, e non credere, la fascia al di sotto della xx90, sarà ancora peggiore, con salti prestazionali che neanche i refresh portano con se.
Ha detto bene Max, paragonando NVidia di oggi, ad Intel di ieri con quei cexxi di 14nm+++++++++++++, innovazione zero gen to gen(perché anche qui è 0, all'atto pratico) ed aumento dei prezzi.
Siamo in una fase di stagnazione purtroppo :( la 5070 è fuori discussione, 12Gb sono ridicoli, ed anche quella gpu lo è, prestazionalmente parlando, se il prezzo sarà idoneo, sicuramente sarà meglio una 9070 ad una 5070, ma a mani basse.
 
Ultima modifica:
Ha detto bene Max, paragonando NVidia di oggi, ad Intel di ieri con quei cexxi di 14nm+++++++++++++, innovazione zero gen to gen(perché anche qui è 0, all'atto pratico) ed aumento dei prezzi.
La cosa Trieste è che quando Intel faceva porcherie (vedesi 2017) farsi un PC da gaming era ancora alla portata di tutti. Con 1000€ ti portavi un PC quasi con una 1070. Anche le schede madri case e alimentatori costavano molto meno. Le CPU avevano pochi core ma in gioco andavano bene. Un i5 stava comunque anche meno di 200€ e un i7 poco sopra i 300€. Solo gli SSD costavano di più, ma non dimentichiamoci che all'epoca sulle console si usavano ancora quei rottami dei 5400rpm, già un hard disk di 7200rpm era un altro mondo

Ora con 1200€ ti fai una 4060 che a stento supera una console del 2020 ma di che parliamo

Certo già una 4070 è un altra storia, ma ci vuoi almeno 1500€ per avere i vantaggi del PC da gaming (senza considerare lo schermo che ormai sono l'unica cosa che davvero sono migliorati). Un tempo una rx480 in un PC da 800€ si ci riusciva a metterla e già si avevano tutti i vantaggi del PC da gaming
 
La cosa Trieste è che quando Intel faceva porcherie (vedesi 2017) farsi un PC da gaming era ancora alla portata di tutti. Con 1000€ ti portavi un PC quasi con una 1070. Anche le schede madri case e alimentatori costavano molto meno. Le CPU avevano pochi core ma in gioco andavano bene. Un i5 stava comunque anche meno di 200€ e un i7 poco sopra i 300€. Solo gli SSD costavano di più, ma non dimentichiamoci che all'epoca sulle console si usavano ancora quei rottami dei 5400rpm, già un hard disk di 7200rpm era un altro mondo

Ora con 1200€ ti fai una 4060 che a stento supera una console del 2020 ma di che parliamo
spe la serie 109 non costava poco eh

Le schede sono state sempre care io la 1070 tri la pagai la bellezza di 500 euro nel 2018

1737900124696.webp

Ci sta questa percezione generale sballata che prima le schede costavano sempre meno, io onestamente non lo ricordo specie se parliamo di schede di fascia medio alta
 
Ultima modifica:
spe la serie 109 non costava poco eh

Le schede sono state sempre care io la 1070 tri la pagai la bellezza di 500 euro nel 2018

Visualizza allegato 487824

Ci sta questa percezione generale sballata che prima le schede costavano sempre meno, io onestamente non lo ricordo specie se parliamo di schede di fascia medio alta
Nel 2017 ci fu il boom più grande del Bitcoin e le schede divennero introvabili. Prima del 2017 i prezzi erano molto più contenuti, dopo non si è capito più nulla.
 
Nel 2017 ci fu il boom più grande del Bitcoin e le schede divennero introvabili. Prima del 2017 i prezzi erano molto più contenuti, dopo non si è capito più nulla.
ma almeno da che io ho memoria le schede grafiche costavano sempre care prima della 1070 ti avevo una R9 3890 pagata 220 euro e parliamo del 2016
1737900010326.webp
le schede grafiche non sono mai state a "buon mercato"
 
se io mi invento una cosa oggi, non è che tu domani hai già la stessa cosa pronta.
appunto: è per questo che AMD latita.
D'accordo che NVidia ha tutt'altra dimensione e budget, ma AMD negli ultimi 5 anni ha tirato fuori solo schifezze una dietro l'altra, mentendo spudoratamente a tutti quando, pur di vendere mezza scheda video in era COVID-19, si inventò l'improponibile RX 6500 con 4 GB di VRAM e 2 mesi dopo accusare NVidia di mettere solo 6 GB sulle schede da 1080p. Se zoppichi e vuoi camminare meglio non è che se lucidi il bastone camminerai meglio (AMD).
Intel ci sta provando, almeno questo merito glielo concedo.
 
appunto: è per questo che AMD latita.
A me nulla toglie dalla testa, che AMD in ambito GPU, fa da cartello a nVidia.
Ampere vs RDNA2, in raster andavano similmente, ma le amd mancano di tutto il pacchetto per la gestione del RT, nonostante ciò, hanno avuto il coraggio di mettere MSRP simili a quelli di Ampere, come successo anche con la disastrosa RDNA3, vediamo a che prezzo proporranno la 9070xt, perché la 5070 per me è invendibile nel 2025 con 12gb di Vram.
 
Pubblicità
Pubblicità
Indietro
Top