UFFICIALE Nvidia RTX 5000: Blackwell

Pubblicità
Gli X3D della serie 9000 eguagliano gli standard in produttività o addirittura riescono a superarli?
la versione identica deve ancora uscire, il 9950x3d deve ancora uscire, una volta uscito si potrà confrontare con il diretto equivalente 9950x

per ora comunque il 9800x3d va un 20% in più in produttività del 9700x, l' altro zen 6 octa core, non è un paragone perfetto, perché il 9700x ha meno tdp e meno frequenza, però per ora c'è questo
 
Neural rendering, mega geometry, Pci ex 5, display Port 2.1, Nuovi tensor core nuovi RT core, DDR7, ecosistema AI pompato, e poi la vera big..il Dlls4, tutto molto bello. Scheda nuova, e giochi vecchi, CP2077 a parte che resiste, probabilmente con l'uscita di The witcher 4 saremo tutti qui a sbavare. Oggi restiamo un po..' mha! la 5080 troppo poco, la 5090 troppo in tutti i sensi, costo consumi, ingombro.. founder a parte, ma come dicevo qualche giorno fa, bisogna smaltire la temperatura del nocciolo della terra, e da quello che sappiamo oggi, dentro e fuori dal case. Io mi prendo qualche settimana per osservare varie ed eventuali, ho già incatenato la scimmia per valutare meglio la scelta quando i prezzi si saranno stabilizzati.

Inviato dal mio 23090RA98G utilizzando Tapatalk
 
Ultima modifica:
Io penso che in un gioco il gameplay è la cosa più importante, poi ci sono le interazioni con l'ambiente, l'esplorazione e per ultima la grafica.

Dopo aver letto i prezzi credo che aspetterò la switch 2
Io credo sia importante il bilanciamento tra gli elementi.
Però se si parla di Switch, allora no, i nostri gusti almeno da questo punto di vista sono diversi: lo stile Nintendo ci ho provato in cento generazioni ma non riesco a farmelo piacere.
Però va ammesso che loro sono maghi nel far uscire grandi giochi su piattaforme ridicole.

Lucine inutili?

Lo sanno tutti che aumentano gli fps 👀
Che ignoranza eh ? I LED danno almeno il 10% di FPS in più !

invece che le lucine inutili pensassero a rendere i riflessi realistici
in hogwarts legacy (e molti altri videogiochi):
RT OFF pavimento asciutto
RT ON pavimento bagnato

e poveri gli studenti quando attivi il RT, le lavagne si trasformano in specchi delle necessità 🤡
Sei incredibile, nella tua guerra personale ad Nvidia sei arrivato ad identificare RT = Nvidia, e quindi te ne esci con post come questo 🤦🏻‍♂️

Un paio di punti:
- anche AMD sta inseguendo a fatica il RT perché è il futuro
- il fatto che la tecnologia sia usata male da uno (o più) sviluppatori non è per colpa della tecnologia o dell’hardware che la supporta, bensì dello sviluppatore che la implementa ad cazzum

Shortage per chippettini come quelli della 5080?……ormai è una barzelletta, sta storia è fatta solo per tenere i prezzi alti
Concordo. Spero solo che l’utenza abbia la maturità di lasciarle sullo scaffale, forzando Nvidia e gli AIB a rivedere le politiche.
NON essendoci una concorrenza adeguata, dobbiamo essere noi a calmierare il mercato. Altrimenti il giacchetta non si limita …

Vero

Poi magari Jensen e i partner produttori delle custom si sono messi d'accordo per mantenere la disponibilità scarsa al fine di marginare
Ma non sono il tipo che crede nelle teorie complottiste
Non sono teorie eh. Un paio di anni fa fu ammesso da Jensen in una riunione con gli azionisti che una delle strategie di mercato era il “controllo dei flussi”, termine tecnico con cui spiegava la creazione ad hoc di shortage per tenere alti i prezzi.

Quella che hai descritto non é gente ricca ma gente stupida... Se l'oggetto x costa 10k e uno la paga 15k é un pirla e basta, indipendentemente dalla disponibilita economica.

Seguendo il tuo pensiero pero mi sento di supporre che il mondo é pieno di gente stupida.
Concordo. E spesso chi è ricco, lo è proprio perché non è stupido e non getta al vento i propri soldi solo perché li ha. La sua è la definizione del ragazzino viziato, non di chi ha i soldi.
Chi ha i soldi l’oggetto da 2000 euro lo vuole pagare 2000 euro, non 3000 solo perché tanto li ha,

Che è quello che fa Apple con i suoi prodotti.
A sto giro non sarebbe stato male se l'avesse fatto anche Nvidia, mi sembra che stiano tutti veramente esagerando, non sono minimamente ammissibili quei pezzi.
Apple può permetterselo perché ha i propri Store e distribuzione capillare worldwide, quindi nessuno sano di mente comprerebbe altrove a prezzo più alto di quello ufficiale.
Nvidia non è nella stessa condizione.
Per farlo dovrebbe aumentare enormemente la produzione delle FE, ma non hanno alcun interesse a farlo: sospetto che guadagnino molto di più a vendere i chip agli AIB senza impelagarsi in produzione e distribuzione.

E' uscita la recensione dei Prodigeek, UN'ORA E DODICI MINUTI 😁
Mi piacciono, sbagliano anche loro (chi non sbaglia?) ma le loro analisi tecniche le trovo davvero complete e ben fatte.
Stasera me la guardo bello comodo sul divano, per curiosità "accademica".
Per il mio utilizzo, la 5090 sta bene dove sta: in video su Youtube.
Non mi sono mai piaciuti…
 
Povero cavo con quei ''miseri'' 55A (in realtà sono 50A) questa qui da certe tirate con spikes da 640w:

Lo voglio dire a pieni polmoni, concedetemelo, questa SCHEDA VIDEO è UNA GRANDE, GRANDISSIMA M3RD4

No totale, liberata la coda per quanto mi riguarda, il 30 avrete anche la mia.

Sono stato impegnato e non ho ancora letto in dettaglio tutte le recensioni, quindi mi riservo di commentare in seguito, ma questo grafico da solo mi fa giungere al risultato che il prodotto fa schifo. Scalare in prestazioni scalando in consumo (e prezzo) non significa incremento tecnologico.
Se per assurdo avessero potuto produrre una scheda da 1000W e 5000€, che faceva un altro 30% di prestazioni in più, avremmo i “techsaskia” della situazione a dire ancora che è un bel prodotto ?
Mi spiace ma la 5090 mi pare una zozzeria…

Ecco dove và a finire l'aria calda, povera cpu, d'altronde con un cesso che si beve fino a 650w è normale.


Beh è chiaro che 650W nell’aria non è che li dissipi facilmente…

secondo me vi state facendo troppe pippe su una scheda che non è mai stata pensta al gaming e badate solamente ai punteggi su fortnite, se escludete il gaming, è una scheda che va molto meglio della 4090. (punto)
Mah, dire che la 5090 non è pensata per il gaming significa nascondersi dietro il mignolo… perché le 4090 alla fine per cosa sono state usate ? Le soluzioni professionali di Nvidia sono altre, e queste schede sono per la maggior parte destinate proprio alla nicchia gaming “insensato”

Per quella data ho gia un altro impegno purtroppo.... 👻
Anch'io, un colloquio di lavoro con l’Altissimo 😅

Con le prime cosa, non capisco?
Cmq a quel prezzo se le tengano pure. Mi compro una 4080 super usata. Non ci sto al loro gioco.



901W?
Ma i prodigeek non parlavano di questi picchi nei loro test...
I Prodigeek non sono assolutamente al livello di fare recensioni tecniche così precise…

Per tutti quelli che dicono '' la xx90 non è una gpu da gaming'', sono in errore, lo è, ed è così che anche nVidia la sponsorizza.
Non cercate di giustificare uno dei prodotti più scandalosi ed anti-consumatore mai prodotti, grazie.
Questa Gpu per come è posizionata e per quello che offre è un'offesa all'intelletto umano.
Ci vuole a far peggio di Ampere sulle memorie :(
Non so cosa ti sia successo ma nei tuoi ultimi interventi concordo completamente 😅 Definire le 5090 come schede “non da gaming” è abbastanza ridicolo. Che ci si possa fare altro è indubbio, ma che questo genere di prodotti sia pensato primariamente per il gaming di nicchia è palese.

Fossero solo le top di gamma il problema.

Preparate i pop corn per la 5080, quella se vi và bene 1500 euro (anche di più inzialmente) prestazioni che lasceranno molto a desiderare.
Una scheda del genere non dovrebbe superare 1000 euro.

Se la RTX 5090 è FRANKENSTEIN la rtx 5080 è paragonabile alla Fiat Duna.
Sono curioso.Guarda la 4080 alla fine la considerai una buona scelta: consumava meno della 3080 ed andava meglio, con un prezzo alto (la pagai sui 1200/1300 euro, per me doveva stare a massimo 1000 euro) ma ancora accettabile. La 5080 vedremo come si piazza, ma i prezzi di 1600/1800€ che vedo in giro spero siano solo una speculazione al lancio…

Io mi sto togliendo l'i7 13700K
Consumi troppo elevati e dopo l'aggiornamento bios ho perso stabilità e fps.
Sono anche con le DDR4 ho già comprato un 9600X adesso decido in sti giorni se prendere una B650 o una B850 e con 60W dormo sereno
Ma bastava settarlo correttamente! Anche il mio 13900K riesco a tenerlo su consumi accettabili con i giusti setting. Passare dal 13700K al 9600X non ha alcun senso…

Stai zitto che ti conviene, hai 50 anni svegliati sblantipodi, dai su! ti prendevamo tutti per il culo dai tempi di hwup.
Fai da bravo, che non capisci un caxxo.

Sai solo flammare, non sai fare altro, le tue competenze tecniche rasentano lo zero.

Ora basta ti butto in ignore, ignorante che non sei altro.

Quindi secondo te fare un bus da 512 bit su g7 è pure cosa buona e giusta, quando puoi tranquillamente farlo con le HBM.
Ma vai và...

P.s la volpe che non arriva all'uva per 3000 euro pisciati, un bambino di due anni ragiona meglio di te.
Nota di moderazione: non cadere nelle provocazioni. Segnala e non rispondere con questi toni.

uahahah, il PCB piccolo serve proprio a fare vedere che sono bravi a fare PCB piccoli ... che astuzia, li hai sgamati...

Visualizza allegato 487764
Nota di moderazione: è la seconda volta che la usi. Finiscila di provocare. Puoi esporre la tua idea senza passare il messaggio che gli altri non possono permettersi quello che tu puoi permetterti.
 
Sono curioso.Guarda la 4080 alla fine la considerai una buona scelta: consumava meno della 3080 ed andava meglio, con un prezzo alto (la pagai sui 1200/1300 euro, per me doveva stare a massimo 1000 euro) ma ancora accettabile. La 5080 vedremo come si piazza, ma i prezzi di 1600/1800€ che vedo in giro spero siano solo una speculazione al lancio…

Guarda dopo la review della 5090 , un mezzo flop diciamocelo, almeno al momento, Nvidia se la giocherà tutta su 5080 e 5070. E secondo me AMD è nascosta nell ombra guardando proprio così succede alla review di queste due schede. Se non faranno clamore (in bene) AMD deve fare hype al massimo pubblicando video delle nuove 9000 con l fsr4 in bella mostra perché la gente vuole vedere questo. A quel punto voglio vedere.
 
Guarda dopo la review della 5090 , un mezzo flop diciamocelo, almeno al momento, Nvidia se la giocherà tutta su 5080 e 5070. E secondo me AMD è nascosta nell ombra guardando proprio così succede alla review di queste due schede. Se non faranno clamore (in bene) AMD deve fare hype al massimo pubblicando video delle nuove 9000 con l fsr4 in bella mostra perché la gente vuole vedere questo. A quel punto voglio vedere.
Le premesse con le 9070 non sono brillanti: in ritardo e con il prezzo sbagliato. Ma c’è ancora un mesetto abbondante per correggere il tiro. Vedremo le prestazioni
 
Io credo sia importante il bilanciamento tra gli elementi.
Però se si parla di Switch, allora no, i nostri gusti almeno da questo punto di vista sono diversi: lo stile Nintendo ci ho provato in cento generazioni ma non riesco a farmelo piacere.
Però va ammesso che loro sono maghi nel far uscire grandi giochi su piattaforme ridicole.

Idem.
I gusti sono gusti ma il loro generi di giochi proprio non mi attira.



Un paio di punti:
- anche AMD sta inseguendo a fatica il RT perché è il futuro
- il fatto che la tecnologia sia usata male da uno (o più) sviluppatori non è per colpa della tecnologia o dell’hardware che la supporta, bensì dello sviluppatore che la implementa ad cazzum
Ecco domanda mia da ignorante a tal proposito.
Le nuove 9000 della AMD non saranno potenti, se ho capito bene , come le 5080.
Ma saranno potenti in raster come le 4080? Si sa già?
Altra domanda
A parità di raster, diciamo così, AMD mi pare di capire sia indietro rispetto Nvidia nel upscaling, anche se ancora l FSR4 non si è visto.
Poi , nel nel ray tracing inteso come Path tracing?
Poi perde in qualcos' altro ? Altro che si vede in ogni gioco in esecuzione su Nvidia?

Le premesse con le 9070 non sono brillanti: in ritardo e con il prezzo sbagliato. Ma c’è ancora un mesetto abbondante per correggere il tiro. Vedremo le prestazioni

Però il prezzo è sbagliato anche nelle 5000 , che per altro sono in shortage (quindi come se fossero in ritardo) per cui alla fine siamo li.
Il discorso sono le prestazioni. forza AMDDDDDDDDDDDDDDDD🤣🤣🤣🤣🤣🤣
 
Sei incredibile, nella tua guerra personale ad Nvidia sei arrivato ad identificare RT = Nvidia, e quindi te ne esci con post come questo 🤦🏻‍♂️

Un paio di punti:
- anche AMD sta inseguendo a fatica il RT perché è il futuro
- il fatto che la tecnologia sia usata male da uno (o più) sviluppatori non è per colpa della tecnologia o dell’hardware che la supporta, bensì dello sviluppatore che la implementa ad cazzum
🤣

non vedere le cose che non esistono

il RT nella maggior parte dei videogiochi è implementato alla CDC, è un dato di fatto

e questo rende l' ossessione da parte di molti verso di esso ancora più stupida

Le nuove 9000 della AMD non saranno potenti, se ho capito bene , come le 5080.
cosa vuol dire "non saranno potenti" ?

come già annunciato due anni fa, amd ha pensato, giustamente aggiungo, di fregarsene della fascia 1500-2500€ e puntare alla fascia sub 1000€

il che significa che le 9070 e 9070xt saranno rivali di 5070-5070ti e per sovraposizione di 4070ti e 4080

Ma saranno potenti in raster come le 4080? Si sa già?
fin che non escono le recensioni non si può sapere con esattezza, ma le 9070xt verosimilmente SI
Poi , nel nel ray tracing inteso come Path tracing?
il path tracing lo soffre molto, il ray tracing "classico" molto meno

Poi perde in qualcos' altro ? Altro che si vede in ogni gioco in esecuzione su Nvidia?
no
 
Pubblicità
Pubblicità
Indietro
Top