UFFICIALE AMD Big NAVI RDNA2

met92

Utente Èlite
3,241
799
scendendo di risoluzione, il carico di lavoro si sposta sulla cpu
si ma anche con un 10900k @5.0ghz, che è la cpu che si comporta meglio in gaming ora come ora, la differenza è di un 20% a 1440p tra 2080ti e 3080, mi sembra stano che un 10900k vada in bottleneck. In teoria il 10900k non dovrebbe fare da bottleneck o sbaglio? 🤔

review Hardware Canucks
 
Ultima modifica:

iikari999

Utente Attivo
1,646
645
CPU
Ryzen 5 2600x
Dissipatore
Arctic Freezer 34 Esport
Scheda Madre
Asrock B450 Steel Legend
Hard Disk
Ssd Crucial MX500 + Corsair Force MP510 480 Gb Nvme M.2
RAM
HyperX Predator RGB 16GB (8x2) @ 3200 mhz CL16
Scheda Video
XFX RX5600XT Thicc 3 Pro 6GB - 14 Gbps
Scheda Audio
Integrata
Monitor
Asus VG279Q
Alimentatore
Corsair RM550x
Case
DeepCool Matrexx 55 V3 Argb
Periferiche
Corsair M65 Elite + Logitech G413 Carbon
Sistema Operativo
Windows 10 64 bit
Io giuro che mi sto ancora sforzando di capire perché c'è gente che si ostina a voler prendere una scheda come la rtx3080 per il full HD. Mistero...è inconcepibile dal mio punto di vista , cioè a momenti nei test non eseguono nemmeno i benchmark a 1080p 😅
 

met92

Utente Èlite
3,241
799
Io giuro che mi sto ancora sforzando di capire perché c'è gente che si ostina a voler prendere una scheda come la rtx3080 per il full HD. Mistero...è inconcepibile dal mio punto di vista , cioè a momenti nei test non eseguono nemmeno i benchmark a 1080p 😅
Appunto è una scheda da 1440p maxato alto refresh e 4k diretto

Dove avrei detto che sarei ostinato a prendere una 3080 @1080p scusa?!?!?! 🤔 🤔 🤔
 

iikari999

Utente Attivo
1,646
645
CPU
Ryzen 5 2600x
Dissipatore
Arctic Freezer 34 Esport
Scheda Madre
Asrock B450 Steel Legend
Hard Disk
Ssd Crucial MX500 + Corsair Force MP510 480 Gb Nvme M.2
RAM
HyperX Predator RGB 16GB (8x2) @ 3200 mhz CL16
Scheda Video
XFX RX5600XT Thicc 3 Pro 6GB - 14 Gbps
Scheda Audio
Integrata
Monitor
Asus VG279Q
Alimentatore
Corsair RM550x
Case
DeepCool Matrexx 55 V3 Argb
Periferiche
Corsair M65 Elite + Logitech G413 Carbon
Sistema Operativo
Windows 10 64 bit
Dove avrei parlato di 1080p scusa?!?!?! 🤔 🤔 🤔
Ancora non capisco perchè la 3080 perde punti percentuali di prestazioni a 1080p o 1440p rispetto a tutte le altre schede "vecchie" ... Mi sembra un controsenso...
Qui l'ho preso come spunto....ma cmq non era affatto riferito a te ma alla marea di gente che sta inondando i vari topic con il desiderio di mettere una 3080 in 1080p , parlando di longevità. Mi pare un po' ridicolo...

E cmq non ti ho mica quotato , era un discorso generico il mio , non so perché l'hai presa sul personale.
 
Ultima modifica:

crimescene

Super Moderatore
Staff Forum
Utente Èlite
29,506
13,147
CPU
Intel Core i5 9600k
Dissipatore
Be Quiet Shadow Rock slim
Scheda Madre
MSI z390i Gaming Edge AC
Hard Disk
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
32GB DDR4 @ 3000 Corsair Vengeance lpx
Scheda Video
Zotac 2070 Super
Scheda Audio
Realtek Hd Audio
Monitor
LG Ultragear 27GL850 QHD 144
Alimentatore
Seasonic Foìcus+ 550W Platinum
Case
Sharkoon TG5 RGB
Internet
TIm 100Mega
Sistema Operativo
Windows 10 Pro
Qui l'ho preso come spunto....ma cmq non era affatto riferito a te ma alla marea di gente che sta inondando i vari topic con il desiderio di mettere una 3080 in 1080p , parlando di longevità. Mi pare un po' ridicolo...
direi che è folle
 

met92

Utente Èlite
3,241
799
Qui l'ho preso come spunto....ma cmq non era affatto riferito a te ma alla marea di gente che sta inondando i vari topic con il desiderio di mettere una 3080 in 1080p , parlando di longevità. Mi pare un po' ridicolo...
Per il semplice fatto che non mi spiego un aumento di punti percentuale di prestazioni così tanto diverso... Praticamente prendendo la recensione di TPU:
differenza tra 2080ti e 1080ti
1080p: +23%
1440p: +33%
4k: +38%

Differenza tra 3080 vs 2080
1080p: +35%
1440p: +51%
4k: +66%

Quello che volevo dire e mi sono spiegato male, è che la differenza da 1080p e 4k è molto più marcata rispetto alla serie 2000. Mi sarei aspettato qualche punto percentuale in più a 1080p e 1440p tra 3080 e 2080. Vorrei capire il motivo perchè la 2080ti ha circa lo stesso guadagno a tutte le risoluzioni, mentre con la 3080 si ha un guadagno così tanto diverso tra le varie risoluzioni.
Ovvio poi che prendere una 3080 e giocare a 1080p è cosa da pazzi

Cmq tornando in tema... Secondo voi arriveranno i primi leaks sulle prestazioni di navi21 e navi22 visto che il 12 ottobre sony rilascerà sul mercato la PS5. Altra cosa, ma Lisa Su non aveva detto che le nuove gpu sarebbe state rilasciate prima dell'entrata in commercio delle nuove console? O_o
 
Ultima modifica:

gridracedriver

Utente Attivo
1,416
633
CPU
FX-8320e 4.2ghz@1.30v
Scheda Madre
Asus Sabertooth 990fx rev 1
Hard Disk
840PRO@128gb + Hitachi@320gb + 500gb ssd
RAM
16gb@1600 cl8-9-8-27-36 1T
Scheda Video
Vega56 Pulse@core 1650 - ram 930
Scheda Audio
Realtek® ALC 892
Monitor
LG TV 55B7V
Alimentatore
Toughpower XT "TPX-675M"
Case
Corsair Carbide 500r
Sistema Operativo
Winzoz 10 64bit
scendendo di risoluzione, il carico di lavoro si sposta sulla cpu
Perché tutti quei CC non sono sfruttati con basso carico sulla GPU, come la banda che non viene saturata, inoltre anche la CPU ad altissimi refresh si satura e non fa esprimere il massimo potenziale alla GPU.
Non è un caso che nVidia abbia messo tutte le slide in 4k...
Post automaticamente unito:

Per il semplice fatto che non mi spiego un aumento di punti percentuale di prestazioni così tanto diverso... Praticamente prendendo la recensione di TPU:
differenza tra 2080ti e 1080ti
1080p: +23%
1440p: +33%
4k: +38%

Differenza tra 3080 vs 2080
1080p: +35%
1440p: +51%
4k: +66%

Quello che volevo dire e mi sono spiegato male, è che la differenza da 1080p e 4k è molto più marcata rispetto alla serie 2000. Mi sarei aspettato qualche punto percentuale in più a 1080p e 1440p tra 3080 e 2080. Vorrei capire il motivo perchè la 2080ti ha circa lo stesso guadagno a tutte le risoluzioni, mentre con la 3080 si ha un guadagno così tanto diverso tra le varie risoluzioni.
Ovvio poi che prendere una 3080 e giocare a 1080p è cosa da pazzi

Cmq tornando in tema... Secondo voi arriveranno i primi leaks sulle prestazioni di navi21 e navi22 visto che il 12 ottobre sony rilascerà sul mercato la PS5. Altra cosa, ma Lisa Su non aveva detto che le nuove gpu sarebbe state rilasciate prima dell'entrata in commercio delle nuove console? O_o
Sony rilascia PS5 il 12 novembre, e comunque Rdna2 desktop almeno in fascia Top esce un paio di settimane prima, secondo me fanno evento il 28 e lancio la settimana dopo il 1 novembre oppure il 28 è proprio il lancio, boh.
diciamo che sarebbe 45 giorni dopo 3080 e 15 dopo 3070, direi buono.

AMD non può permettersi di fare uscire ora leak sulle prestazioni, perché se si scopre troppo potrebbe permettere ad nVidia di abbassare i prezzi in caso fosse troppo veloce.

Diciamo che nVidia una idea se l'è già fatta, altrimenti non avrebbe piazzato 3080 a 700 dollari ma almeno a 900, pensano già che AMD possa coprire almeno 3080 e nel caso rispondere con una 3080ti a +15% ma a 350watt, praticamente una 3090 con 12GB di memoria e non 24 a prezzo più basso.

Io dico che sulle performance non ci saranno grosse differenze, ma ce ne saranno in consumi dove per la prima volta dopo 10 anni vedremo delle AMD consumare meno della nVidia soprattutto grazie al processo produttivo 8nm vs 7nm.
Post automaticamente unito:

1600326308468.png


+2ghz per un Sample 😁 e dice che non è un chip "full die", quindi un CUT, un chip che andrà in una SKU inferiore alla TOP di gamma.
Fosse vero avremmo che a questo punto se una cut è 60CU, Navi22 full cioè il chip medio e non quello grand è circa 48CU non di più e a 2/2.2 GHz farebbe cmq +40/50% in performance su Navi 10 considerando anche che un 10% di IPC lo prendono sicuro.

Navi21 80/72/60 CU 384/320/256bit 505mmq
Navi22 48/40 CU 256/192bit 340mmq
Navi23 32/28 CU 192/128bit 240mmq.

A quel punto la 6900XT potrebbe avere 24GB di Vram con 384bit, la 6900 20GB con 320bit, e la 3a SKU data anche dai leak sempre con Navi21 chiamata 6800XT a 16GB di Vram con 256bit.

6900XT vs 3090
6900 vs 3080
6800XT vs 3070ti/super

beh far vedere un sample da 256bit cuttato come leak e non il full, potrebbe essere un ottimo jebait.
 
Ultima modifica:

Glob Glob

Utente Attivo
2,260
1,580
CPU
i7-4790k oc 4.7ghz/ 1700x/ Celeron g550/i3 4030u/i5 4300M
Dissipatore
Noctua Nh-d15/Deepcool Gammax gt/Stock intel
Scheda Madre
Msi Z97 mpower/X370 Prime pro/ P8 H61m lx3 r2.0
Hard Disk
Wd blue 1tb A55 256gb/ 860 evo/ Toshiba
RAM
2x4gb 1600mhz/2x8gb 3000mhz/1x4gb 1333 mhz
Scheda Video
Gtx 1070/Hd 4600/Hd 4400/Hd 2500
Scheda Audio
Integrata
Monitor
Asus Vs228
Alimentatore
Superflower leadex 3 (stessa piattaforma evga)
Case
Mb511
Sistema Operativo
Windows 10
Ragazzi le reference hanno un design bellissimo!
 

gridracedriver

Utente Attivo
1,416
633
CPU
FX-8320e 4.2ghz@1.30v
Scheda Madre
Asus Sabertooth 990fx rev 1
Hard Disk
840PRO@128gb + Hitachi@320gb + 500gb ssd
RAM
16gb@1600 cl8-9-8-27-36 1T
Scheda Video
Vega56 Pulse@core 1650 - ram 930
Scheda Audio
Realtek® ALC 892
Monitor
LG TV 55B7V
Alimentatore
Toughpower XT "TPX-675M"
Case
Corsair Carbide 500r
Sistema Operativo
Winzoz 10 64bit

gridracedriver

Utente Attivo
1,416
633
CPU
FX-8320e 4.2ghz@1.30v
Scheda Madre
Asus Sabertooth 990fx rev 1
Hard Disk
840PRO@128gb + Hitachi@320gb + 500gb ssd
RAM
16gb@1600 cl8-9-8-27-36 1T
Scheda Video
Vega56 Pulse@core 1650 - ram 930
Scheda Audio
Realtek® ALC 892
Monitor
LG TV 55B7V
Alimentatore
Toughpower XT "TPX-675M"
Case
Corsair Carbide 500r
Sistema Operativo
Winzoz 10 64bit


sembra un 3 slot, invece di ridurre il processo hanno aumentato dimensioni e consumi
Non è 3 slot, ha 2 bracket, sarà 2.25slot lo si vede da questa foto dove il dissipatore sporge di mezzo centimetro dai bracket, ma questo è il dissipatore più grande e da 3 ventole, probabilmente per la Top di gamma 6900XT a 300watt


Beh indubbiamente la Top di gamma avrà consumi e TDP più alti di 5700XT, utilizza i 7nm ma ha un Die Size doppio rispetto a Navi10 (250 vs 500 mmq) e andrà anche il doppio di questa, il guadagno di performance/watt è dato per +50/60%, quindi 300watt (+50% consumi) ma 2x di prestazioni (e c'è chi dice oltre anche 2.2x) su 5700XT (+100% performance)

esiste anche il dissipatore più piccolo, questo

che è 2 slot standard e 2 ventole, probabilmente andrà sulle mid post 5700xt da 200watt, 6700XT con +50% di prestazioni a pari consumo, quindi come 2080ti~3070 a livello performance, immagino sulle 400$.
 

Steeb

Utente Attivo
164
58
Io giuro che mi sto ancora sforzando di capire perché c'è gente che si ostina a voler prendere una scheda come la rtx3080 per il full HD. Mistero...è inconcepibile dal mio punto di vista , cioè a momenti nei test non eseguono nemmeno i benchmark a 1080p 😅
Perchè in moltissimi sono ancora con i monitor fullhd, inspiegabilmente secondo me. Personalmente è dal 2014 che gioco a 1440p su pc e conto di continuare a farlo per molti anni dato che il 4k per giocare su di un 27 pollici non mi interessa.
 

gridracedriver

Utente Attivo
1,416
633
CPU
FX-8320e 4.2ghz@1.30v
Scheda Madre
Asus Sabertooth 990fx rev 1
Hard Disk
840PRO@128gb + Hitachi@320gb + 500gb ssd
RAM
16gb@1600 cl8-9-8-27-36 1T
Scheda Video
Vega56 Pulse@core 1650 - ram 930
Scheda Audio
Realtek® ALC 892
Monitor
LG TV 55B7V
Alimentatore
Toughpower XT "TPX-675M"
Case
Corsair Carbide 500r
Sistema Operativo
Winzoz 10 64bit
Perchè in moltissimi sono ancora con i monitor fullhd, inspiegabilmente secondo me. Personalmente è dal 2014 che gioco a 1440p su pc e conto di continuare a farlo per molti anni dato che il 4k per giocare su di un 27 pollici non mi interessa.
si ma a quel punto prendi al massimo 3070 o 6700XT.
 

Entra

oppure Accedi utilizzando

Discussioni Simili

Hot del momento