UFFICIALE AMD RDNA 4: 9070 XT & 9070

Pubblicità
sostanzialmente identico alle 5070 e mi chiedo chi diavolo si comprerà le Radeon. Per avere una qualsiasi chance dovrebbero stare almeno 100€ sotto se non 150 :rolleyes:
i prezzi msrp Nvidia e street price sono due cose totalmente diverse, sono più fake dei frame del dlss x4
e infatti si è passati da 1999$ esentasse a 3400€ per certe custom rtx5090
 
Tanto alla fine una scheda potente consuma... inutile illudersi
ah, su questo son d'accordo al 1000%.
ma tanto se prendi una 80 o 90 o amd di fascia "enthusiast", dei 50/70w in più o in meno te ne sbatti.

su classi 60 e 70 (o equivalente rosso o blu), se ho un buon 550/650 e mi "costringi" a cambiarlo perché voi aziende non sapete ottimizzare i consumi, ma solo spingerle al massimo per guadagnare quel 5/7% scarso di prestazione in più? lì mi girano non poco le cosidette!
 
XT? tra i 600 ed i 700, con prestazioni in rt pari alla 70s/ti e potenza bruta di una 80.
con consumi massimi sui 300/320.

In Rt non arriva alla 5080 per via dei driver?

veramente è quello che ci si aspettava: un prezzo del pazzo :asd: (scusate il latinismo)

sostanzialmente identico alle 5070 e mi chiedo chi diavolo si comprerà le Radeon. Per avere una qualsiasi chance dovrebbero stare almeno 100€ sotto se non 150 :rolleyes:

poi vabbè, questi sono gli msrp... ...bisognerà vedere il prezzo effettivo ovviamente. Diciamo che se l'idea era di avere una gpu competitiva ad un perzzo "giusto" partiamo male..

Effettivamente a parità di costo vado sul sicuro e scelgo nvidia. Rischio con Amd se mi invogli con un prezzo distante da nvidia al ribasso...vedremo.
 
In Rt non arriva alla 5080 per via dei driver?
le possibilità sono: driver, architettura, hardware dedicato (amd sono alla terza gen, nvidia alla 5°), software usato (dlss vs fsr), ottimizzazione dei giochi per una o per l'altra...

ma in realtà è una combinazione delle precedenti.

amd da quant'è che lavora su upscaler basati su IA? praticamente da meno di un anno. Nvidia ha costruito il dlss che conosciamo ora da decine di migliaia di ore di addestramento dei modelli di IA nel corso di 7 anni, senza contare i dati della telemetria inviati da milioni di schede tutti i giorni... la mole di dati che possono e danno in pasto ai modelli, è mastodontica.
amd, sta iniziando ora... (ok, che ha il vantaggio di iniziare con modelli molto, ma moooooooooooolto più rifiniti di quelli iniziali di nvidia, che comunque di sicuro non rimane a guardare e starsene in panciolle... ogni riferimento alla casa blu sulle cpu... era voluta.)
per non parlare della pura potenza bruta delle serverfarm che quei dati processano...
parliamo di migliaia o decine di migliaia di 4090/5090 o forse anche unità progettate specificatamente per quel singolo scopo, portando l'efficienza per tale scopo a livelli che noi come normali utenti vedremo forse fra 10 anni.

personalmente ritengo più probabile quest'ultima possibilità.

una singola 5090 con un minimo di ottimizzazione, al 100% arriva a 500w/h... ovvero 12 kWh/giorno, non saranno al 100% tutto il tempo, facciamo 10kwh/giorno. mettiamo 10000 di queste schede in una renderfarm. siamo a 100 MW/h al giorno.

stessi numeri e potenze, ma chip dedicati, che per fare gli stessi calcoli ci mettono la metà del tempo... con conseguente dimezzamento dei costi di esercizio.

su cosa andrà il giacchetta?

attualmente, il distacco fra le due aziende è legato a come addestrano i rispettivi modelli IA per gli upscaling.

per ora, nvidia è in un campionato tutto suo... amd la raggiungerà? speriamo di si!

personalmente, penso che se si gioca bene le sue carte ce la possa fare a raggiurla in 4-5anni, considerando che nvidia ha dimostrato di voler continuare ad innovare, e alzare l'asticella.

amd lo ha già fatto in passato. deve solo riuscirci in ambito gpu.
 
Quinta? Non sapevo fosse uscita la serie rtx6000 🤣
Screenshot_2025-02-17-06-55-45-946_com.android.chrome.webp

edit:
vedo che come al solito ti piace prendere una singola parola o frase e cercare di toglierla dal contesto...

direttamente dal messaggio che hai quotato:
le possibilità sono: driver, architettura,
hardware dedicato
(amd sono alla terza gen, nvidia alla 5°), software usato (dlss vs fsr), ottimizzazione dei giochi per una o per l'altra...
non mi sembrava così difficile...
 
Ultima modifica:

edit:
vedo che come al solito ti piace prendere una singola parola o frase e cercare di toglierla dal contesto...

direttamente dal messaggio che hai quotato:

non mi sembrava così difficile...
Mmhhh... La mia in realtà era un affermazione seria

Se rtx2000 era la prima, rtx3000 la seconda, rtx4000 la quarta? Allora hanno saltato una numerazione?
 
Mmhhh... La mia in realtà era un affermazione seria

Se rtx2000 era la prima, rtx3000 la seconda, rtx4000 la quarta? Allora hanno saltato una numerazione?
occhio che touring (le rtx 2000), non sono la prima gen di tensor core! la prima era Volta.
le 2000 erano la prima gen di RTcore.
Volta = server
Touring = gaming

"The Turing architecture also carries over the tensor cores from Volta, and indeed these have even been enhanced over Volta."

Fonte

edit:
qui vado a memoria, per cui prendete questa affermazione con le pinze.
volta, era uscito a metà 2017, mentre touring oltre 1 anno dopo.
 
occhio che touring (le rtx 2000), non sono la prima gen di tensor core! la prima era Volta.
le 2000 erano la prima gen di RTcore.
Volta = server
Touring = gaming

"The Turing architecture also carries over the tensor cores from Volta, and indeed these have even been enhanced over Volta."

Fonte

edit:
qui vado a memoria, per cui prendete questa affermazione con le pinze.
volta, era uscito a metà 2017, mentre touring oltre 1 anno dopo.
Ah...

Ok non lo sapevo
Anche perché nel epoca GTX 1000-rtx2000 non seguivo molto il settore
 
- cut-

attualmente, il distacco fra le due aziende è legato a come addestrano i rispettivi modelli IA per gli upscaling.

per ora, nvidia è in un campionato tutto suo... amd la raggiungerà? speriamo di si!

personalmente, penso che se si gioca bene le sue carte ce la possa fare a raggiurla in 4-5anni, considerando che nvidia ha dimostrato di voler continuare ad innovare, e alzare l'asticella.

amd lo ha già fatto in passato. deve solo riuscirci in ambito gpu.

secondo me ci metteranno anche meno.

Migliorando gli upscaler diventeranno sempre più simili alla risoluzione reale. Dato che non possono diventare "più reali" della realtà stessa, è chiaro che avranno un andamento asintotico. Migliorando entrambe le tecnologie e avvicinandosi sempre più a questo asintoto, DLSS e FSR (o altri) diventeranno sempre più simili fra loro e sostanzialmente equivalenti.

Spero di essermi spiegato 😅
 
secondo me ci metteranno anche meno.

Migliorando gli upscaler diventeranno sempre più simili alla risoluzione reale. Dato che non possono diventare "più reali" della realtà stessa, è chiaro che avranno un andamento asintotico. Migliorando entrambe le tecnologie e avvicinandosi sempre più a questo asintoto, DLSS e FSR (o altri) diventeranno sempre più simili fra loro e sostanzialmente equivalenti.

Spero di essermi spiegato 😅
Asintoticamente si, ti sei spiegato 😅
 
ah, mio caro Orazio... mai, tu ti chiedi se le stelle una notte riusciranno ad acciufar la Luna?

o chissà... forse superar la potranno, e il gioco del gatto e del topo uno scambio otterrà?

chissà mio caro Orazio! chissà...

ma forse mai si incontreranno e ad un sol passo si fermeranno!


@Blitz84
si esiste davvero.
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top