UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
Io son dispiaciuto proprio per quello..ultra wide gsync costano.tutti 150 in più. .minimo
Prima o poi Nvidia la smetterà e non ci sarà più privatizzazione del Sync adattivo, come è giusto che sia. Ma la "scissione" è "colpa" di Nvidia.
Scoccia dover legarsi al brand pure per il monitor, onestamente.

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
 
Prima o poi Nvidia la smetterà e non ci sarà più privatizzazione del Sync adattivo, come è giusto che sia. Ma la "scissione" è "colpa" di Nvidia.
Scoccia dover legarsi al brand pure per il monitor, onestamente.

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk

Questo è quello che mi rode di più, però spero che cambi qualcosa da ora a quando dovrò cambiare monitor.

Com'era quella storia del fastsync?
 
Quando dicevo non molto tempo fa che Paxwell cade (e fa rumore) man mano che escono motori propriamente utilizzare DX12 c’era un motivo.
1070 tra 12-18 mesi fará anche peggio, prima o poi dovranno uscire giochi che utilizzano ocmpletamente DX12 o meglio ancora Vulkan.
Il bluff delle dx ''11.500'' sta terminando.
O se no, come fanno ad essere cosí parche nei consumi Maxwell e Pascal? Qualcosa dovevano pur ''togliere'', come ha detto @lucusta in diversi interventi Nvidia ora dovrá trovare il modo di integrare in Volta supporto 100% in hardware a DX12 SENZA dover, inevitabilmente, ritrovarsi schede che consumano di piú. E sará difficile, questo lo sanno anche i sassi.
GCN consuma di piú per un motivo preciso, non perché AMD é ignorante o perché Nvidia ha trovato nel 2014 l’elisir dell’efficienza.

attenzione.
come abbiamo avuto modo di capire sui video postati dal Presidente qualche pagina fa, tutto è a causa del megathread e dell'uso piu' intensivo della CPU per via di uno scheduling software effettuato da nvidia.
se in questo gioco è il megathread ad essere il fattore dominante delle prestazioni, per far andare nel modo "giusto" la 1080 Ti ci vorrebbe una CPU Intel con il +20% delle prestazioni, su FHD.
se questa è 4.3Ghz, serve una CPU che arrivi ad un clock di quasi 5.2Ghz per stare dietro a quella GPU, mentre a risoluzioni superiori, con l'aumento di carico grafico sulla GPU, i frame teorici che potrebbe fare questa sono molto di meno e la CPU riesce a stargli dietro.

se è per questo anche se riduci l'MSAA da 8 a 4.
Vega perde molto di piu' in prestazione per ogni raddoppio di applicazione del filtro.
a 4x MSAA in 4K fa 94.5 fps, la 1080 Ti, passando da x8 a x4 dovrebbe guadagnare come la 1080 Fe, un 6%, portando da 90.8 a 96.2.
e fanno vedere un video in cui la differenza tra x2 e x4 non è cosi' sensibile, figuriamoci tra x4 e x8...

già con filtro 2x anche la 1080 Ti risulterebbe sempre sotto alla 64.

questo intervento, percio', non è accurato, perchè non detto che la 1080Ti possa aumentare le sue prestazioni diminuendo il carico del filtro AA;
la 1080 Ti è ancora sovramisura per la CPU a 8x; scaricarla da altro computo grafico potrebbe non portare a nessun aumento delle prestazioni (sempre con una CPU a 4.3Ghz) per limiti ancora da imputare alla CPU...
il senso è che probabilmente 8x, 4x, 2x o senza AA quella scheda, con quel processore, non cambia il framerate, perchè non è la GPU a fare da limite prestazionale, ma continua ad essere la CPU.
andando a guardare la 1080 FE sull'applicazione del filtro in 4K vediamo che senza AA passando a 2x si perde il 9% di frame, da 2x a 4x ancora il 9%, da 4x a 8x solo il 6%.
questo mostra che i parametri del filtro da 4x a 8x sono meno intensi degli altri.
l'altra cosa che notiamo è che il frame rate della 1080 FE porta al massimo a generare 94.4fps, con quella CPU.
se avessimo avuto una scala anche sulla 1080Ti potevamo dedurne li limite della CPU.
in pratica possiamo affermare solo che la 1080Ti come minimo otterrà 94.4fps, perchè se il limite non è il carico grafico, vediamo che la CPU garantisce comunque quel framerate con una nvidia, in cui lo scheduling software "mangia" potenza utile sulla CPU per la generazione dei frame.

fatto apposta o meno quest'analisi proposta da ComputerBase è lacunosa, perchè dovevano mostrare l'andamento del filto con la 1080Ti, non con la 1080Fe.
mostrare l'andamento del filtro con la 1080Ti avrebbe evidenziato il limite architetturale delle Nvidia: servono Ghz sulla CPU; talmente tanti da non esserci CPU in grado di fornirli (servirebbero almeno 5.2Ghz).

la questione potrebbe migliorare se gli sviluppatori riescono a ridurre il carico sul megathread, come è avvenuto su ROTR, in cui sono riusciti a tagliate un buon 7%, dopo la patch DX12, e a migliorare non solo sulle AMD, ma anche sulle Pascal.

spero vivamente che Nvidia cambi radicalmente la sua architettura, perchè questo è il limite superiore.
di piu' non si puo' spremere sulla CPU, ed una 2080 che aumenta anche solo del 15% le prestazioni della 1080Fe (prestazioni che possiamo avere sulle custom 1080, tra l'altro) non porterebbe guadagni.
oggi la 1080Ti incontra colli di bottiglia dovuti alla CPU; domani, con l'aumento prestazionale, li incontrerà l'erede della 1080.
possiamo aumentare filtri a piu' non posso, ma l'aumento di framerate si ferma qui, perchè CPU ad oltre 5Ghz non saranno facili da ottenere.

miglioramenti da parte degli sviluppatori li potremmo avere qualora producessere giochi in cui il carico del megathread venisse scaricato, almeno in parte, dai computi accessori, come fisica e audio spazializzato, ma... se li metti sulla GPU (oggi non esiste piu' physx sulla GPU) ledi comunque risorse grafiche.
 
attenzione.
come abbiamo avuto modo di capire sui video postati dal Presidente qualche pagina fa, tutto è a causa del megathread e dell'uso piu' intensivo della CPU per via di uno scheduling software effettuato da nvidia.
se in questo gioco è il megathread ad essere il fattore dominante delle prestazioni, per far andare nel modo "giusto" la 1080 Ti ci vorrebbe una CPU Intel con il +20% delle prestazioni, su FHD.
se questa è 4.3Ghz, serve una CPU che arrivi ad un clock di quasi 5.2Ghz per stare dietro a quella GPU, mentre a risoluzioni superiori, con l'aumento di carico grafico sulla GPU, i frame teorici che potrebbe fare questa sono molto di meno e la CPU riesce a stargli dietro.



questo intervento, percio', non è accurato, perchè non detto che la 1080Ti possa aumentare le sue prestazioni diminuendo il carico del filtro AA;
la 1080 Ti è ancora sovramisura per la CPU a 8x; scaricarla da altro computo grafico potrebbe non portare a nessun aumento delle prestazioni (sempre con una CPU a 4.3Ghz) per limiti ancora da imputare alla CPU...
il senso è che probabilmente 8x, 4x, 2x o senza AA quella scheda, con quel processore, non cambia il framerate, perchè non è la GPU a fare da limite prestazionale, ma continua ad essere la CPU.
andando a guardare la 1080 FE sull'applicazione del filtro in 4K vediamo che senza AA passando a 2x si perde il 9% di frame, da 2x a 4x ancora il 9%, da 4x a 8x solo il 6%.
questo mostra che i parametri del filtro da 4x a 8x sono meno intensi degli altri.
l'altra cosa che notiamo è che il frame rate della 1080 FE porta al massimo a generare 94.4fps, con quella CPU.
se avessimo avuto una scala anche sulla 1080Ti potevamo dedurne li limite della CPU.
in pratica possiamo affermare solo che la 1080Ti come minimo otterrà 94.4fps, perchè se il limite non è il carico grafico, vediamo che la CPU garantisce comunque quel framerate con una nvidia, in cui lo scheduling software "mangia" potenza utile sulla CPU per la generazione dei frame.

fatto apposta o meno quest'analisi proposta da ComputerBase è lacunosa, perchè dovevano mostrare l'andamento del filto con la 1080Ti, non con la 1080Fe.
mostrare l'andamento del filtro con la 1080Ti avrebbe evidenziato il limite architetturale delle Nvidia: servono Ghz sulla CPU; talmente tanti da non esserci CPU in grado di fornirli (servirebbero almeno 5.2Ghz).

la questione potrebbe migliorare se gli sviluppatori riescono a ridurre il carico sul megathread, come è avvenuto su ROTR, in cui sono riusciti a tagliate un buon 7%, dopo la patch DX12, e a migliorare non solo sulle AMD, ma anche sulle Pascal.

spero vivamente che Nvidia cambi radicalmente la sua architettura, perchè questo è il limite superiore.
di piu' non si puo' spremere sulla CPU, ed una 2080 che aumenta anche solo del 15% le prestazioni della 1080Fe (prestazioni che possiamo avere sulle custom 1080, tra l'altro) non porterebbe guadagni.
oggi la 1080Ti incontra colli di bottiglia dovuti alla CPU; domani, con l'aumento prestazionale, li incontrerà l'erede della 1080.
possiamo aumentare filtri a piu' non posso, ma l'aumento di framerate si ferma qui, perchè CPU ad oltre 5Ghz non saranno facili da ottenere.

miglioramenti da parte degli sviluppatori li potremmo avere qualora producessere giochi in cui il carico del megathread venisse scaricato, almeno in parte, dai computi accessori, come fisica e audio spazializzato, ma... se li metti sulla GPU (oggi non esiste piu' physx sulla GPU) ledi comunque risorse grafiche.

E invece tutti quei picchi nel frametime di Pascal come si spiegano? Tenendo conto della risoluzione il carico dovrebbe essere in massima parte spostato sulla GPU quindi il core "sfuttato" della CPU non dovrebbe essere intasato dal megathread. Vega in confronto ha una risposta enormemente più lineare a parità di processore....
 

Allegati

  • untitled-4.webp
    untitled-4.webp
    18.4 KB · Visualizzazioni: 43
quelle sono le DX12...
guarda su BF1 che succede...

Su BF1 in DX12 pure AMD zoppica...meno ma comunque zoppica. Sicuramente si è detto 1000 volte che le DX12 in BF1 erano implementate in maniera pessima ma vedendo quel grafico su questo nuovo titolo con con Pascal il framerate è veramente penoso. Se questo risulterà il limite dello scheduler software di Nvidia per le DX12 è davvero difficile immaginare per Maxwell e Pascal una longevità differente da quella di Kepler, una volta che l'anno prossimo entrambi i produttori saranno full DX12 in hardware e pure Nvidia sponsorizzerà economicamente le SH per programmare secondo la loro nuova architettura.
 
Credo non ci saranno problemi per la 2080, Volta sarà pienamente DX12 ready, anche se le performance dovessero essere anche oltre un 15% dalla 1080.
 
Io credo che i giochi continueranno ad uscire con il doppio supporto Dx12 e Dx11 per un po', almeno per un altro anno
 
Credo non ci saranno problemi per la 2080, Volta sarà pienamente DX12 ready, anche se le performance dovessero essere anche oltre un 15% dalla 1080.

Infatti sono sicuro che Volta sara "una bomba" con i nuovi giochi dell'anno prossimo, mai avuto il minimo dubbio sul contrario. E' che se si confermerà questo andamento prestazionale con i prossimi giochi DX12 la vedo dura in futuro per Pascal e Maxwell. Con quelle oscillazioni pure un sistema full G-Sync farebbe fatica a mantenere una certa fluidità quando gli fps vanno su e giù come se non ci fosse un domani.
 
Pubblicità
Pubblicità
Indietro
Top