UFFICIALE AMD Big NAVI RDNA2

Pubblicità
scendendo di risoluzione, il carico di lavoro si sposta sulla cpu

si ma anche con un 10900k @5.0ghz, che è la cpu che si comporta meglio in gaming ora come ora, la differenza è di un 20% a 1440p tra 2080ti e 3080, mi sembra stano che un 10900k vada in bottleneck. In teoria il 10900k non dovrebbe fare da bottleneck o sbaglio? ?

review Hardware Canucks
 
Ultima modifica:
Io giuro che mi sto ancora sforzando di capire perché c'è gente che si ostina a voler prendere una scheda come la rtx3080 per il full HD. Mistero...è inconcepibile dal mio punto di vista , cioè a momenti nei test non eseguono nemmeno i benchmark a 1080p ?
Appunto è una scheda da 1440p maxato alto refresh e 4k diretto

Dove avrei detto che sarei ostinato a prendere una 3080 @1080p scusa?!?!?! ? ? ?
 
Dove avrei parlato di 1080p scusa?!?!?! ? ? ?
Ancora non capisco perchè la 3080 perde punti percentuali di prestazioni a 1080p o 1440p rispetto a tutte le altre schede "vecchie" ... Mi sembra un controsenso...

Qui l'ho preso come spunto....ma cmq non era affatto riferito a te ma alla marea di gente che sta inondando i vari topic con il desiderio di mettere una 3080 in 1080p , parlando di longevità. Mi pare un po' ridicolo...

E cmq non ti ho mica quotato , era un discorso generico il mio , non so perché l'hai presa sul personale.
 
Ultima modifica da un moderatore:
Qui l'ho preso come spunto....ma cmq non era affatto riferito a te ma alla marea di gente che sta inondando i vari topic con il desiderio di mettere una 3080 in 1080p , parlando di longevità. Mi pare un po' ridicolo...
Per il semplice fatto che non mi spiego un aumento di punti percentuale di prestazioni così tanto diverso... Praticamente prendendo la recensione di TPU:
differenza tra 2080ti e 1080ti
1080p: +23%
1440p: +33%
4k: +38%

Differenza tra 3080 vs 2080
1080p: +35%
1440p: +51%
4k: +66%

Quello che volevo dire e mi sono spiegato male, è che la differenza da 1080p e 4k è molto più marcata rispetto alla serie 2000. Mi sarei aspettato qualche punto percentuale in più a 1080p e 1440p tra 3080 e 2080. Vorrei capire il motivo perchè la 2080ti ha circa lo stesso guadagno a tutte le risoluzioni, mentre con la 3080 si ha un guadagno così tanto diverso tra le varie risoluzioni.
Ovvio poi che prendere una 3080 e giocare a 1080p è cosa da pazzi

Cmq tornando in tema... Secondo voi arriveranno i primi leaks sulle prestazioni di navi21 e navi22 visto che il 12 ottobre sony rilascerà sul mercato la PS5. Altra cosa, ma Lisa Su non aveva detto che le nuove gpu sarebbe state rilasciate prima dell'entrata in commercio delle nuove console? O_o
 
Ultima modifica:
scendendo di risoluzione, il carico di lavoro si sposta sulla cpu
Perché tutti quei CC non sono sfruttati con basso carico sulla GPU, come la banda che non viene saturata, inoltre anche la CPU ad altissimi refresh si satura e non fa esprimere il massimo potenziale alla GPU.
Non è un caso che nVidia abbia messo tutte le slide in 4k...
--- i due messaggi sono stati uniti ---
Per il semplice fatto che non mi spiego un aumento di punti percentuale di prestazioni così tanto diverso... Praticamente prendendo la recensione di TPU:
differenza tra 2080ti e 1080ti
1080p: +23%
1440p: +33%
4k: +38%

Differenza tra 3080 vs 2080
1080p: +35%
1440p: +51%
4k: +66%

Quello che volevo dire e mi sono spiegato male, è che la differenza da 1080p e 4k è molto più marcata rispetto alla serie 2000. Mi sarei aspettato qualche punto percentuale in più a 1080p e 1440p tra 3080 e 2080. Vorrei capire il motivo perchè la 2080ti ha circa lo stesso guadagno a tutte le risoluzioni, mentre con la 3080 si ha un guadagno così tanto diverso tra le varie risoluzioni.
Ovvio poi che prendere una 3080 e giocare a 1080p è cosa da pazzi

Cmq tornando in tema... Secondo voi arriveranno i primi leaks sulle prestazioni di navi21 e navi22 visto che il 12 ottobre sony rilascerà sul mercato la PS5. Altra cosa, ma Lisa Su non aveva detto che le nuove gpu sarebbe state rilasciate prima dell'entrata in commercio delle nuove console? O_o
Sony rilascia PS5 il 12 novembre, e comunque Rdna2 desktop almeno in fascia Top esce un paio di settimane prima, secondo me fanno evento il 28 e lancio la settimana dopo il 1 novembre oppure il 28 è proprio il lancio, boh.
diciamo che sarebbe 45 giorni dopo 3080 e 15 dopo 3070, direi buono.

AMD non può permettersi di fare uscire ora leak sulle prestazioni, perché se si scopre troppo potrebbe permettere ad nVidia di abbassare i prezzi in caso fosse troppo veloce.

Diciamo che nVidia una idea se l'è già fatta, altrimenti non avrebbe piazzato 3080 a 700 dollari ma almeno a 900, pensano già che AMD possa coprire almeno 3080 e nel caso rispondere con una 3080ti a +15% ma a 350watt, praticamente una 3090 con 12GB di memoria e non 24 a prezzo più basso.

Io dico che sulle performance non ci saranno grosse differenze, ma ce ne saranno in consumi dove per la prima volta dopo 10 anni vedremo delle AMD consumare meno della nVidia soprattutto grazie al processo produttivo 8nm vs 7nm.
--- i due messaggi sono stati uniti ---
1600326308468.png

+2ghz per un Sample ? e dice che non è un chip "full die", quindi un CUT, un chip che andrà in una SKU inferiore alla TOP di gamma.
Fosse vero avremmo che a questo punto se una cut è 60CU, Navi22 full cioè il chip medio e non quello grand è circa 48CU non di più e a 2/2.2 GHz farebbe cmq +40/50% in performance su Navi 10 considerando anche che un 10% di IPC lo prendono sicuro.

Navi21 80/72/60 CU 384/320/256bit 505mmq
Navi22 48/40 CU 256/192bit 340mmq
Navi23 32/28 CU 192/128bit 240mmq.

A quel punto la 6900XT potrebbe avere 24GB di Vram con 384bit, la 6900 20GB con 320bit, e la 3a SKU data anche dai leak sempre con Navi21 chiamata 6800XT a 16GB di Vram con 256bit.

6900XT vs 3090
6900 vs 3080
6800XT vs 3070ti/super

beh far vedere un sample da 256bit cuttato come leak e non il full, potrebbe essere un ottimo jebait.
 
Ultima modifica da un moderatore:
CmtNCqTWEAElip8.jpg


sembra un 3 slot, invece di ridurre il processo hanno aumentato dimensioni e consumi
 
CmtNCqTWEAElip8.jpg


sembra un 3 slot, invece di ridurre il processo hanno aumentato dimensioni e consumi
Non è 3 slot, ha 2 bracket, sarà 2.25slot lo si vede da questa foto dove il dissipatore sporge di mezzo centimetro dai bracket, ma questo è il dissipatore più grande e da 3 ventole, probabilmente per la Top di gamma 6900XT a 300watt
amd-radeon-rx-6900-xt-canli-olarak-goruntulendi-6-e1600373529400.jpg


Beh indubbiamente la Top di gamma avrà consumi e TDP più alti di 5700XT, utilizza i 7nm ma ha un Die Size doppio rispetto a Navi10 (250 vs 500 mmq) e andrà anche il doppio di questa, il guadagno di performance/watt è dato per +50/60%, quindi 300watt (+50% consumi) ma 2x di prestazioni (e c'è chi dice oltre anche 2.2x) su 5700XT (+100% performance)

esiste anche il dissipatore più piccolo, questo
amd-radeon-rx-6900-xt-canli-olarak-goruntulendi-5.jpg

che è 2 slot standard e 2 ventole, probabilmente andrà sulle mid post 5700xt da 200watt, 6700XT con +50% di prestazioni a pari consumo, quindi come 2080ti~3070 a livello performance, immagino sulle 400$.
 
Io giuro che mi sto ancora sforzando di capire perché c'è gente che si ostina a voler prendere una scheda come la rtx3080 per il full HD. Mistero...è inconcepibile dal mio punto di vista , cioè a momenti nei test non eseguono nemmeno i benchmark a 1080p ?

Perchè in moltissimi sono ancora con i monitor fullhd, inspiegabilmente secondo me. Personalmente è dal 2014 che gioco a 1440p su pc e conto di continuare a farlo per molti anni dato che il 4k per giocare su di un 27 pollici non mi interessa.
 
Perchè in moltissimi sono ancora con i monitor fullhd, inspiegabilmente secondo me. Personalmente è dal 2014 che gioco a 1440p su pc e conto di continuare a farlo per molti anni dato che il 4k per giocare su di un 27 pollici non mi interessa.
si ma a quel punto prendi al massimo 3070 o 6700XT.
 
Pubblicità
Pubblicità
Indietro
Top