UFFICIALE Nvidia RTX 5000: Blackwell

Pubblicità
Oltre il 90% di chi compra queste schede le compra solo per giocare.
Nvidia stessa le vende come schede da gioco, la gente le compra come schede da gioco, per cos'altro dovrei valutarle ?
cosa le 5080?
Assolutamente falso
Se fossero schede usate solo per il gioco ne venderebbero 3 in croce

questo non significa che non ci siano utenti che la comprano anche solo per quello (così come ce ne sono che comprano la xx90) ma non è assolutamente quello che muove il mercato su quelle schede, e non è per quello che le persone sono disposte a spendere tutti quei soldi e per cui le schede vanno a ruba anche a prezzi folli

I gamers sono una minoranza (anzi ti dirò di più sono una goccia nel mare in questo mercato)

Una delle ragioni per cui AMD ha rinunciato a cacciare schede di fascia più "alta" è proprio perchè non possono essere competitivi a 360 gradi
 
Ultima modifica:
In ray tracing siamo ad un 30% scarso stando alle medie di techpowerup.
Detto questo puoi indicarmi più di tre giochi, in cui l'utilizzo del ray tracing è talmente massivo da risultare un fattore per Nvidia?
Alan wake 2 68 fps vs 60 in qhd
Cyberpunk 70 fps vs 54
Poi ci sarà black myth wukong, e parliamo di tre giochi sponsorizzati Nvidia. Ma poi?
E soprattutto, sta differenza vale 800 euro?
Certo, ti giro la fonte:

MEDIA RT QHD
Screenshot_20250307_194231_Samsung Internet.webp

MEDIA 4k Rt
Screenshot_20250307_194302_Samsung Internet.webp

In Pt è un massacro, però quoto il tuo discorso come già ho scritto.
 
Certo, ti giro la fonte:

MEDIA RT QHD
Visualizza allegato 489715

MEDIA 4k Rt
Visualizza allegato 489716

In Pt è un massacro, però quoto il tuo discorso come già ho scritto.
in path tracing le AMD non sono mai state competitive, i giochi in path tracing sono ancora pochi è verissimo.

Se però la vedi da una prospettiva futura gli effetti in RTX e path tracing saranno sempre più presenti, ovviamente saranno disattivabili, ma queto è certo
 
in path tracing le AMD non sono mai state competitive, i giochi in path tracing sono ancora pochi è verissimo.

Se però la vedi da una prospettiva futura gli effetti in RTX e path tracing saranno sempre più presenti, ovviamente saranno disattivabili, ma queto è certo
Il PT non è ancora cosa per AMD, sta troppo indietro, sono due giochi in croce ok, ma io valuto tutto.
La 5070ti in PT ha proprio un altro passo rispetto alla 9070xt.
Con le 4000 top ho sempre giocato in PT DLSS+FG in quei pochi giochi che lo implementavano, a livello visivo cambia, non c'è nulla da fare.

Quindi almeno per me valutare una AMD è impensabile, andrei peggio di prima, certo terrei tanti soldi in tasca ma... non sarei appagato totalmente.

Però NON TUTTI LA PENSANO COME ME (e meno male) quindi per quelli che se ne strafregano del PT e accettano il RT al livello della 4070ti super (che è un bell'andare eh) a 700 euro la XT è un buon acquisto con i dovuti compromessi.

Certo la 5070ti se fosse al suo prezzo (900 euro) sarebbe un prodotto globalmente migliore, va di più in rt/pt etcc.. paghi di più, ma ottieni di più, quindi ci stanno entrambe le soluzioni, una è più economica e l'altra più prestante a 360 gradi, li la scelta è dell'utente, spendere di più per avere qualcosa in più, oppure accettare il compromesso e spendere meno?
Il problema è che la 5070ti a quei prezzi non la trovi e tocca sborsare 1100 almeno, mentre la 9070xt tra ieri e oggi è andata meglio, alcuni se la sono potuta ordinare.

Comunque è tutto in divenire, se riescono ad aggiustare i prezzi delle verdi e aumentare disponibilità, se ne può riparlare.
 
Ma voi siete cosi sicuri che a Maggio-Giugno la situazione sarà migliore? Mah, io non vedo segni di miglioramento, ma proprio zero. Entro su amazon, digito 5070 ti, e leggo prezzi a partire da 1300 euro, la 5070 a partire da 900 euro.
 
I gamers sono una minoranza (anzi ti dirò di più sono una goccia nel mare in questo mercato)
Puoi spiegarmi su quali basi dici ciò?
Davvero, lo chiedo senza polemica, giusto per capire un pensiero diverso dal mio.
Cioé, ovviamente non ho dati statistici certi su questo (come nessuno del resto, come si fa statisticamente a sapere che ci fa la gente con una scheda dopo che la compra) però l'impressione che ho leggendo questo forum, altri forum, vari canali telegram anche molto numerosi, reddit, mi riferisco a tantissime fonti, è che la stragrande maggioranza delle configurazioni siano dedicate esclusivamente al gioco o quasi.
Prima ho scritto 90% ma mi pare una stima anche al ribasso.
Per uno che chiede una scheda per Blender ce ne sono 20 (ma proprio per dirne pochi) il cui unico scopo è giocare ai tripla A con dettagli e filtri al massimo.
Come fai a dire che costoro sono addirittura una goccia nel mare? Con questo suppongo intendi che su 10 RTX vendute 9 siano destinate solo o prevalentemente a v-ray, procyon, davinci resolve... Giusto?
 
Per mantenere sti prezzi dovrebbero continuare a produrne poche, da che mondo è mondo, domanda superiore all'offerta=aumento prezzi, prima regola del mercato.
Parecchie multinzionali stanno applicando questa "legge" pochi pezzi prodotti venduti a prezzi elevati, della serie se lo vuoi è così altrimenti ciao!

Tutto si può fare, se vogliono possono continuare a dirottare poche schede per il consumer.
Secondo me si sblocca la situazione tra qualche mese, ma non avendo la sfera di cristallo mi preparo al peggio, pagare una 5080 1500, oppure una 5090 3200, vorrà dire che prima o poi mi stancherò di comprarle ;)
Io fossi in voi una 9070xt come piano B la metterei sul carrello, ora che si trovano.

Di certo non mi taglio le vene per loro.. LOL
 
Ultima modifica:
Puoi spiegarmi su quali basi dici ciò?
Davvero, lo chiedo senza polemica, giusto per capire un pensiero diverso dal mio.
Cioé, ovviamente non ho dati statistici certi su questo (come nessuno del resto, come si fa statisticamente a sapere che ci fa la gente con una scheda dopo che la compra) però l'impressione che ho leggendo questo forum, altri forum, vari canali telegram anche molto numerosi, reddit, mi riferisco a tantissime fonti, è che la stragrande maggioranza delle configurazioni siano dedicate esclusivamente al gioco o quasi.
Prima ho scritto 90% ma mi pare una stima anche al ribasso.
Per uno che chiede una scheda per Blender ce ne sono 20 (ma proprio per dirne pochi) il cui unico scopo è giocare ai tripla A con dettagli e filtri al massimo.
Come fai a dire che costoro sono addirittura una goccia nel mare? Con questo suppongo intendi che su 10 RTX vendute 9 siano destinate solo o prevalentemente a v-ray, procyon, davinci resolve... Giusto?
semplice sulla base dei fatti.

Oggi il mondo è cambiato e basta che ti fai un giretto su un social o in giro per internet per veder quanti creatori di contenuti ci sono, e con questo anche streamer, editor, lavoratori in computer grafica, sviluppatori, gente che lavora con il mechine learing e chi più ne ha più ne metta

tutte queste persone, lavorano con le schede grafiche e ci guadagnano.

Se vai su un forum di grafica non c'è un singolo utente che ha una scheda sotto i 1200 euro
Se vai su un forum di grafica 4d è uguale, c'è addirittura chi in passato usava più di una 4090 in una singola macchina e l'utente più "povero" possiede almeno una 4080
Tutti quei lavoratoti che oggi sono in smart working che lavorano in qualsiasi settore dove l'intelligenza artificiale ha una valenza comprano o possiedono una scheda nvidia
Qualsiasi utente o istituto che si vuole mettere una LMM compra una scheda del genere
Qualsiasi utente che fa streaming compra una scheda Nvidia o che lavora in ambito IA o grafico


Per tute questi utenti spederei 1600 euro di schede non è una "spesa" è di fatto un investimento

Oggi "giocare" con le schede grafiche è diventato quasi la cosa che si fa di meno.

E non venite a dirmi che ci sono le "quadro"

Le quadro ormai sono vendute solo agli OEM, ma tutti quelli che usano il Pc a casa per scopi produttivi ti garantisco che non hanno una scheda AMD e se ne fregano bellamente di fare il discorso " quella costa 700 euro e gioco uguale"

Il lor discorso è diverso ed è "se una scheda mi permette di fare X lavoro in meno tempo io guadagno di più, o ho più tempo libero per me

Prima si riuscirà a comprenderlo e prima si esce da questa assurda convinzione che gli utenti che comprano Nvidia sono tutti idioti
 
Ultima modifica:
semplice sulla base dei fatti.

Oggi il mondo è cambiato e basta che ti fai un giretto su un social o in giro per internet per veder qwuanti creat9ori di contenuti ci cono, e con questo anche streamer, editor, lavoratori in computer grafica, sviluppatori, gente che lavora con il mechine learing e chi più ne ha più ne metta

tutte queste persone, lavorano con le schede grafiche e ci guadagano.

Se vai su un forum di grafica non c'è un singolo utente che ha una scheda sotto i 1200 euro
Se cvai su un forum di grafica 4d è uguale
Tutti quei lavoratoti che oggi sono in smart working che lavorano in qualsiasi settore dove l'intelligenza artificiale ha una valenza comprano o possiedono una scheda nvidia
Qualsiasi utente o istituto che si vuole mettere una LMM compra una scheda del genere
Qualsiasi utente che fa streaming compra una scheda Nvidia


Per tute questi utenti spederei 1600 euro di schede non è una "spesa" è di fatto un investimento

Oggi "giocare" con le schede grafiche è diventato quasi la cosa che si fa di meno
Guarda che i creatori di contenuti non usano solo PC convenzionali e GPU, molti usano i nuovi Mac(Silicon) che sono delle bombe
 
Guarda che i creatori di contenuti non usano solo PC convenzionali e GPU, molti usano i nuovi Mac(Silicon) che sono delle bombe

dipende da che tipo di contenuti fai, ma se oggi ti serve l'IA usi una scheda grafica nvidia

EPr farti un esempio a 20KM da casa ci sta un azienda che ha appena aperto che svolge grafica pubblicitraria in gran parte usano anche l'intelligenza articficilae

indovina che schede comprano?
 
Ormai ci puoi fare qualsiasi cosa con i nuovi Mac
P.S. e si i Mac utilizzano Apple intelligence, hanno hardware dedicato per la IA

Inviato dal mio iPhone utilizzando Tapatalk Pro
Certo ma specialmente in Europa si usa ancora windows per un mucchio di ragioni

non lo dico io lo dicono proprio le statistiche

Questo succede anche con le schede grafiche ci fai "tutto"

Vi spiego dove sta andando a parare nvidia e perchè molti utenti non stanno "capendo"

Non voglio difendere nessuno e solo una cosa che loro stessi hanno dichiarato in più occasioni e può piacere o meno ma è questa la strada che hanno scelto

Per Nvidia non è più una priorità andare a migliorare le performance "brute" per loro non è una strada "percorribile"
Alla domanda "quante generazioni di schede passeranno prima che avremmo una scheda in grado di gestire il 4k a 120hz in forza "bruta"
Jhon Spitzel ha risposto:

"Anche se si potesse produrre una scheda simile, NVIDIA non la produrrebbe mai, perché vorrebbe dire sprecare risorse, potenza e aumentare i costi di produzione per un qualcosa che, tra qualche anno, l’IA potrà fare alla perfezione consumando una quantità irrisoria di potenza e senza impatto sul prezzo delle schede."

Poi aggiunge:

"Più i frame sono simili più è facile creare un frame intermedio, ed è questo che ha guidato NVIDIA verso il multi frame generation: secondo Spitzel raggiungere la perfezione nell’upscaling generativo, o nella generazione dei frame, richiederà molto meno tempo e risorse rispetto all’impatto che richiede la generazione di un nuovo fotogramma che, rispetto a quello precedente, cambia di pochi pixel"

Appare chiaro epr loro dove si vuole andare a parare e cioè che le schede saranno sempre più incentrate a rendere "meglio" tutto quello che riguarda la generazione di frame e quello che vi ruota interno che ad aumentare effettivamente la "forza bruta" dell'hardware.

Ripeto con questo non sto difendendo nessuno riporto solo ciò che hanno intenzione di fare e del perchè le schede non hanno più gli incrementi prestazionali di una volta
 
Ultima modifica:
Paracul@te, hanno risposto così perchè sapevano benissimo che a sto giro non potevano aumentare di molto le performance visto lo stesso nodo e la stessa densità in termini di transistor.

Hanno solo spinto con la 5090, aumentando il numero di transistor e tirando fuori un monolite da 760mm2 e 575w, arrivando al limite fisico o giù di li.
Si tradiscono con le loro stesse affermazioni, quindi la potenza bruta è aumentata, magari d'ora in poi conterranno più gli uplift, ma aumenterà sempre.
Se ragioniamo per IA Tops già la 5080 ne ha più della 4090, 1800 vs 1430, quindi sarebbe bastata quella, ma non si sono accontentati, poichè in tutto il resto le prende dalla 4090 e di santa ragione.
Quindi hanno tirato fuori il massimo del massimo con rese pessime, infatti la 5090 è cuttata malamente, perde alu, cache, rop's etc.. il full chip è quellp da 24k per intenderci, che non vedrà mai la luce in ambito consumer sotto forma di 5090 ti o fesserie del genere.

Infatti la 5090 è l'unica che tira fuori quel +35% medio dalla ex top di gamma, se fossero interessati solo a sfornare software non avrebbero raggiunto dei limiti così folli.
 
Paracul@te, hanno risposto così perchè sapevano benissimo che a sto giro non potevano aumentare di molto le performance visto lo stesso nodo e la stessa densità in termini di transistor.

Hanno solo spinto con la 5090, aumentando il numero di transistor e tirando fuori un monolite da 760mm2 e 575w, arrivando al limite fisico o giù di li.
Si tradiscono con le loro stesse affermazioni, quindi la potenza bruta è aumentata, magari d'ora in poi conterranno più gli uplift, ma aumenterà sempre.
Se ragioniamo per IA Tops già la 5080 ne ha più della 4090, 1800 vs 1430, quindi sarebbe bastata quella, ma non si sono accontentati e hanno tirato fuori il massimo del massimo con rese pessime, infatti la 5090 è cuttata malamente, perde alu, cache, rop's etc.. il full chip è quellp da 24k per intenderci, che non vedrà mai la luce in ambito consumer sotto forma di 5090 ti o fesserie del genere.

Infatti la 5090 è l'unica che tira fuori quel +35% medio dalla ex top di gamma, se fossero interessati solo a sfornare software non avrebbero raggiunto dei limiti così folli.
io non credo che siano perculate come dici, ci credono fdavvero

Poi quello che parla non è un venditore ma un developer (il vice presidente developer & tecnology), non ha alcun interesse a fare quelle dichiarazioni se non stessero davvero andando in quella direzione .

il MFG (che adesso può sembrare situazionale) insieme al DLSS4 in gioco farà la differenza
 
Questo lo dici te che invecchi
Non sono schede confrontabili, perchè sono di fascia com0pletamente diversa, tu perchè continui a vedere la cosa soldo al punto di vista solo di chi gioca.
) le 9000 invecchieranno male, mentre sarà molto diverso per le 5000

una scheda va valutata nel complesso e non solo da un benchmark in rasterizzazione
Questo lo dici te che invecchiano male....

Ed invece vogliamo parlare di come invecchierà la 5070 col bus a 192 bit e 12 GB?

Ah no aspe' verranno in soccorso i fake frame ...
 
Pubblicità
Pubblicità
Indietro
Top