UFFICIALE AMD RDNA 4: 9070 XT & 9070

Pubblicità
Mi sa che molti rimarranno delusi dal prezzo di queste 9070, ora come ora la 7900 XT si trova a 680 euro quello è il best buy...oppure gli ultimi rimasugli della 4070 super..
Confermo , io ho preso una 7900XT Asrock Phantom Gaming a 680 E. Va davvero benissimo... e 20GB memoria
 
Quale sarebbe questa gpu a 550euro di cui parli?
avevo scritto un piccolo poema, son andato a cercare un pó di dati sui consumi della 7900xt, e mi ha cancellato tutto... casso!

appena riaccedo al pc, riscrivo tutto e rifaccio i vari quote.

facendola estremamente breve?
9070 (che in teoria dovrebbe andare come una 70 in rt e avere la potenza bruta di una 70ti, ma con 16gb di vram), il prezzo "giusto" dovrebbe essere tra i 480 ed i 550, con 200/230w di consumo massimo.

XT? tra i 600 ed i 700, con prestazioni in rt pari alla 70s/ti e potenza bruta di una 80.
con consumi massimi sui 300/320.

ci spero? (sia nei prezzi, che nelle prestazioni) SI!
ci credo? son come san Tommaso! se non vedo...

@Beex
quanto consuma in gaming in qhd e in 4k? 200/230 in qhd cappato a 141/160 e 300/320 in 4k? (vado a naso) di massima, oltre i 375 non può andare, 2x 8pin più 75w dallo slot pci-e.
se la usi in fhd... ti vengo a prendere a casa! 😂
 
avevo scritto un piccolo poema, son andato a cercare un pó di dati sui consumi della 7900xt, e mi ha cancellato tutto... casso!

appena riaccedo al pc, riscrivo tutto e rifaccio i vari quote.

facendola estremamente breve?
9070 (che in teoria dovrebbe andare come una 70 in rt e avere la potenza bruta di una 70ti, ma con 16gb di vram), il prezzo "giusto" dovrebbe essere tra i 480 ed i 550, con 200/230w di consumo massimo.

XT? tra i 600 ed i 700, con prestazioni in rt pari alla 70s/ti e potenza bruta di una 80.
con consumi massimi sui 300/320.

ci spero? (sia nei prezzi, che nelle prestazioni) SI!
ci credo? son come san Tommaso! se non vedo...

@Beex
quanto consuma in gaming in qhd e in 4k? 200/230 in qhd cappato a 141/160 e 300/320 in 4k? (vado a naso) di massima, oltre i 375 non può andare, 2x 8pin più 75w dallo slot pci-e.
se la usi in fhd... ti vengo a prendere a casa! 😂
La usano in 3440x1440p 21:9. Consuma sui 280/300 w. Fps libero. Senza Undervolt ragionato. Altrimenti anche meno.
 
beh dai, non è malaccio per essere una risoluzione a metà fra qhd e 4k.👍
a livello di puro numero di pixel.
 
Effettivamente il prezzo delle AMD non pare quello che ci si aspettava il che è molto strano....si parlava di prezzi aggressivi.....
veramente è quello che ci si aspettava: un prezzo del pazzo :asd: (scusate il latinismo)

sostanzialmente identico alle 5070 e mi chiedo chi diavolo si comprerà le Radeon. Per avere una qualsiasi chance dovrebbero stare almeno 100€ sotto se non 150 :rolleyes:

poi vabbè, questi sono gli msrp... ...bisognerà vedere il prezzo effettivo ovviamente. Diciamo che se l'idea era di avere una gpu competitiva ad un perzzo "giusto" partiamo male..
 
sostanzialmente identico alle 5070 e mi chiedo chi diavolo si comprerà le Radeon. Per avere una qualsiasi chance dovrebbero stare almeno 100€ sotto se non 150 :rolleyes:
i prezzi msrp Nvidia e street price sono due cose totalmente diverse, sono più fake dei frame del dlss x4
e infatti si è passati da 1999$ esentasse a 3400€ per certe custom rtx5090
 
Tanto alla fine una scheda potente consuma... inutile illudersi
ah, su questo son d'accordo al 1000%.
ma tanto se prendi una 80 o 90 o amd di fascia "enthusiast", dei 50/70w in più o in meno te ne sbatti.

su classi 60 e 70 (o equivalente rosso o blu), se ho un buon 550/650 e mi "costringi" a cambiarlo perché voi aziende non sapete ottimizzare i consumi, ma solo spingerle al massimo per guadagnare quel 5/7% scarso di prestazione in più? lì mi girano non poco le cosidette!
 
veramente è quello che ci si aspettava: un prezzo del pazzo :asd: (scusate il latinismo)

sostanzialmente identico alle 5070 e mi chiedo chi diavolo si comprerà le Radeon. Per avere una qualsiasi chance dovrebbero stare almeno 100€ sotto se non 150 :rolleyes:

poi vabbè, questi sono gli msrp... ...bisognerà vedere il prezzo effettivo ovviamente. Diciamo che se l'idea era di avere una gpu competitiva ad un perzzo "giusto" partiamo male..

Effettivamente a parità di costo vado sul sicuro e scelgo nvidia. Rischio con Amd se mi invogli con un prezzo distante da nvidia al ribasso...vedremo.
 
In Rt non arriva alla 5080 per via dei driver?
le possibilità sono: driver, architettura, hardware dedicato (amd sono alla terza gen, nvidia alla 5°), software usato (dlss vs fsr), ottimizzazione dei giochi per una o per l'altra...

ma in realtà è una combinazione delle precedenti.

amd da quant'è che lavora su upscaler basati su IA? praticamente da meno di un anno. Nvidia ha costruito il dlss che conosciamo ora da decine di migliaia di ore di addestramento dei modelli di IA nel corso di 7 anni, senza contare i dati della telemetria inviati da milioni di schede tutti i giorni... la mole di dati che possono e danno in pasto ai modelli, è mastodontica.
amd, sta iniziando ora... (ok, che ha il vantaggio di iniziare con modelli molto, ma moooooooooooolto più rifiniti di quelli iniziali di nvidia, che comunque di sicuro non rimane a guardare e starsene in panciolle... ogni riferimento alla casa blu sulle cpu... era voluta.)
per non parlare della pura potenza bruta delle serverfarm che quei dati processano...
parliamo di migliaia o decine di migliaia di 4090/5090 o forse anche unità progettate specificatamente per quel singolo scopo, portando l'efficienza per tale scopo a livelli che noi come normali utenti vedremo forse fra 10 anni.

personalmente ritengo più probabile quest'ultima possibilità.

una singola 5090 con un minimo di ottimizzazione, al 100% arriva a 500w/h... ovvero 12 kWh/giorno, non saranno al 100% tutto il tempo, facciamo 10kwh/giorno. mettiamo 10000 di queste schede in una renderfarm. siamo a 100 MW/h al giorno.

stessi numeri e potenze, ma chip dedicati, che per fare gli stessi calcoli ci mettono la metà del tempo... con conseguente dimezzamento dei costi di esercizio.

su cosa andrà il giacchetta?

attualmente, il distacco fra le due aziende è legato a come addestrano i rispettivi modelli IA per gli upscaling.

per ora, nvidia è in un campionato tutto suo... amd la raggiungerà? speriamo di si!

personalmente, penso che se si gioca bene le sue carte ce la possa fare a raggiurla in 4-5anni, considerando che nvidia ha dimostrato di voler continuare ad innovare, e alzare l'asticella.

amd lo ha già fatto in passato. deve solo riuscirci in ambito gpu.
 
Quinta? Non sapevo fosse uscita la serie rtx6000 🤣
Screenshot_2025-02-17-06-55-45-946_com.android.chrome.webp

edit:
vedo che come al solito ti piace prendere una singola parola o frase e cercare di toglierla dal contesto...

direttamente dal messaggio che hai quotato:
le possibilità sono: driver, architettura,
hardware dedicato
(amd sono alla terza gen, nvidia alla 5°), software usato (dlss vs fsr), ottimizzazione dei giochi per una o per l'altra...
non mi sembrava così difficile...
 
Ultima modifica:

edit:
vedo che come al solito ti piace prendere una singola parola o frase e cercare di toglierla dal contesto...

direttamente dal messaggio che hai quotato:

non mi sembrava così difficile...
Mmhhh... La mia in realtà era un affermazione seria

Se rtx2000 era la prima, rtx3000 la seconda, rtx4000 la quarta? Allora hanno saltato una numerazione?
 
Mmhhh... La mia in realtà era un affermazione seria

Se rtx2000 era la prima, rtx3000 la seconda, rtx4000 la quarta? Allora hanno saltato una numerazione?
occhio che touring (le rtx 2000), non sono la prima gen di tensor core! la prima era Volta.
le 2000 erano la prima gen di RTcore.
Volta = server
Touring = gaming

"The Turing architecture also carries over the tensor cores from Volta, and indeed these have even been enhanced over Volta."

Fonte

edit:
qui vado a memoria, per cui prendete questa affermazione con le pinze.
volta, era uscito a metà 2017, mentre touring oltre 1 anno dopo.
 
Pubblicità
Pubblicità
Indietro
Top