UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
se invece di quittare per evitare di diventare tonto avessi argomentato avresti ricevuto la seguente risposta:

ci sono gameplay su YT, su questo gioco, dove mostrano la 1080Ti a 8K (4K x 200%) con un processore a 4.6Ghz, 80fps e solo il 60% di occupazione GPU.
quindi quando ho scritto che ci vorrebbero CPU a 6Ghz è solo la constatazione di questo: 4.6 x 100 / 60 = 7.6Ghz
quindi, come vedi, sono stato magnanimo...

d'altronde pero' ti avrei scritto che "frega cavoli del 60% di utilizzo; sei a 80fps a 8K, che pretendi.. non riesci a giocarci così?!"
perchè la stessa proporzione la puoi fare sul framerate: 80 x 100 / 60 = 133fps.

quindi risulta che la 1080 Ti necessita di un processore a 7.6Ghz per operare al 100% della sua potenza grafica, ma che arriverebbe a 133fps su un gioco che è godibile a 60...

questo prima dei driver migliori, ma, come scritto anche questi driver non consentirebbero alla 1080 Ti di esprimersi al meglio, ossia i suoi 133fps, per il semplice motivo che dovrebbero alleggerire il lavoro di quasi il 50% per riuscirlo a fare con una CPU comune... ed è assai.

quindi quittare non mi sembra che ti salvi dal diventare tonto, ma forse salva noi.

Ma tu queste cose le pensi sul serio o cosa?

L'utilizzo gpu da dove lo prendi? da un programma come msi afterbuner fatto con i piedi?scusami eh, quanti casi ci sono dove la gpu seppur lavorando al 99% viene limitata?
Quante volte è capitato di far girare un gioco con gpu usage al 99% su una cpu X per poi ritestarlo su una cpu Y e avere sempre 99% gpu usage ma con il +20% del frame rate medio?
Cioè tu basi i tuoi calcoli/proporzioni su un software amatoriale come afterburner o similari? o hai altra strumentazione o metodi di comparazione?

No, perchè se mi dici che guardi video su yotube e vedi l'usage della gpu allora siamo messi male qui, altro che basi..

Anche la proporzione del clock della cpu è completamente sballata, non pùoi pretendere che una cpu ottenga linearmente perf/clock mantenendo sempre lo stesso rateo %, c'è sempre qualcosa che va storto e non si riesce quasi mai ad ottenere scaling lineare, non stai benchando su cinebench eh.

1080ti era palesemente cpu limitata su forza 7, cosi come gtx 1080, puoi dare clock quanto vuoi, ma se alla base non hai un buon driver (overhead/draw calls) non risolvi nulla, ho visto miglioramenti su forza 7, e le cpu nel 2017 arrivano a 4.9-5 ghz mediamente, parlo di 4/8 kabylake e 6/12 coffelake, NON c'è bisogno di nessuna cpu a 6ghz per saturare una 1080ti.

Tralasciando il fatto che Gp102 nasce per scalare a risoluzioni molto alte, altrimenti di tutte quelle rop's in compressione se ne farebbe a meno non credi? o come hai intenzione di saturare le ALU a 1080p di un bestione cosi?
Dai per favore, il tuo discorso crolla all'inizio quando citi yt e afterburner, mi sono anche dilungato inutilmente.
 
tu hai un animo buono ;)
per questo mi trovi sempre d'accordo.
:)

sarà che sono più appassionato alla tecnologia che a certi discorsi...

comunque: https://www.techspot.com/review/1497-intel-core-i7-8700k/page3.html

in DX12 i Ryzen vengono sfruttati palesemente meglio dalle Vega che dalle GTX... Non a caso stanno più alti nelle classifiche nel caso AMD/AMD.

Vediamo un po', prendiamo come riferimento il 1800X:
scrivo: gioco (API) FpsPascal vs. FpsVega commento

BF1 (DX12) 128 vs 140
AOTS (DX12) 114 vs 112 qui tutto in regola
CIV VI (DX12) 84 vs 100 qui il 1800X da le paste anche al 8700k con la 64LC, implementazione ottima di DX12 a quanto pare
F1_17 (DX11) 194 vs 185
BF1 720p 200fps cap 128 vs 157 GTX + Ryzen + DX12 vanno totalmente in disaccordo
 
Se dici così lo proverò al più presto. Me ne sono accorto ieri che era attivo (probabilmente in automatico dopo un aggiornamento) su Doom ma come da abitudine ero uscito dal gioco e l'avevo disattivato....a dir la verità me ne ero accorto dai pochi frame generati tramite il contatore ma visivamente pure a me sembrava non ci fosse una percepibile differenza qualitativa tra averlo attivo o disattivo o almeno durante il gioco non me ne accorgevo quando c'erano dei drop a 40fps e la scheda dai classici 1550Mhz scendeva a 1100....

Il toggle predefinito è F11 senza dover uscire/entrare dal gioco :>

Probabilmente DOOM non è nemmeno il gioco in cui hai i vantaggi maggiori, essendo un FPS puro, però avrà sicuramente dei benefici :>
 
Ma tu queste cose le pensi sul serio o cosa?

L'utilizzo gpu da dove lo prendi? da un programma come msi afterbuner fatto con i piedi?scusami eh, quanti casi ci sono dove la gpu seppur lavorando al 99% viene limitata?
Quante volte è capitato di far girare un gioco con gpu usage al 99% su una cpu X per poi ritestarlo su una cpu Y e avere sempre 99% gpu usage ma con il +20% del frame rate medio?

medio... prendere il valore di un benchmark è già di per se una cosa da analizzare, perchè puo' intendere il valore medio aritmetico o medio ponderato.
tutto questo pero' esula dall'uso della GPU, in quanto in ogni istante la GPU potrebbe essere in parte limitata dalla CPU per un minimo di frame.
in piu', sulle nvidia, non vedi lo sfruttamente diretto della GPU, ma solo quello che lo scheduling SW effettua.
non hai modo diretto di monitorare l'uso dei singoli transistors di un chip, sia CPU che GPU, lo fai per schedulazione, cicli e tempo macchina.

Cioè tu basi i tuoi calcoli/proporzioni su un software amatoriale come afterburner o similari? o hai altra strumentazione o metodi di comparazione?

No, perchè se mi dici che guardi video su yotube e vedi l'usage della gpu allora siamo messi male qui, altro che basi..

quindi tu hai metodi migliori?
interessante.
puoi illustrarceli?

Anche la proporzione del clock della cpu è completamente sballata, non pùoi pretendere che una cpu ottenga linearmente perf/clock mantenendo sempre lo stesso rateo %, c'è sempre qualcosa che va storto e non si riesce quasi mai ad ottenere scaling lineare, non stai benchando su cinebench eh.

fortunatamente questo è un gioco molto lineare nel framerate e, soprattutto, praticamente monothread, quindi risulta accettabile l'approssimazione proporzionale diretta.
puoi farlo anche con programmi multithread, se le routine sono ripetitive e scadenziate, ma devi usare accorgimenti del caso (riconoscere quale siano le coppie dei core logici della CPU; proporzionarli e sommarli per tempistica).
un computer è un ciclo determinantistico... complicato quanto possa essere, hai sempre il risultato matematico alla mano.

1080ti era palesemente cpu limitata su forza 7, cosi come gtx 1080, puoi dare clock quanto vuoi, ma se alla base non hai un buon driver (overhead/draw calls) non risolvi nulla, ho visto miglioramenti su forza 7, e le cpu nel 2017 arrivano a 4.9-5 ghz mediamente, parlo di 4/8 kabylake e 6/12 coffelake, NON c'è bisogno di nessuna cpu a 6ghz per saturare una 1080ti.
hai visto superare 133fps?
lascio cadere la questione del coffey a 5ghz...
qui usano un 6850K@4.3ghz e, se seguivi il tread, il mio sintetico post della settimana scorsa avvisava che c'era una pesante relazione per l'uso del processore.
logico che F7 va meglio con un kaby@5ghz e una 1080Ti rispetto ad un 6850@4.3ghz: è praticamente un monothread, la CPU è bottleneck e piu' frequenza hai piu' vai, fino alla saturazione della GPU.
ma.. va bene e forse meglio anche con un 8350K, perchè piu' di 2 core non riempi ed un dual sale meglio di un quad o di un esa o un octacore.

Tralasciando il fatto che Gp102 nasce per scalare a risoluzioni molto alte, altrimenti di tutte quelle rop's in compressione se ne farebbe a meno non credi? o come hai intenzione di saturare le ALU a 1080p di un bestione cosi?
Dai per favore, il tuo discorso crolla all'inizio quando citi yt e afterburner, mi sono anche dilungato inutilmente.

tralasciando il fatto che, su questo gioco, girerebbe con 6 monitor 4K come con uno, forse è l'unica cosa su cui possiamo concordare.

una cosa: prima di quittare perchè sennò diventi tonto potresti suggerirci il tuo metodo di rilevazione dell'occupazione GPU.
grazie.
 
Ultima modifica:
:)

sarà che sono più appassionato alla tecnologia che a certi discorsi...

comunque: https://www.techspot.com/review/1497-intel-core-i7-8700k/page3.html

in DX12 i Ryzen vengono sfruttati palesemente meglio dalle Vega che dalle GTX... Non a caso stanno più alti nelle classifiche nel caso AMD/AMD.

Vediamo un po', prendiamo come riferimento il 1800X:
scrivo: gioco (API) FpsPascal vs. FpsVega commento

BF1 (DX12) 128 vs 140
AOTS (DX12) 114 vs 112 qui tutto in regola
CIV VI (DX12) 84 vs 100 qui il 1800X da le paste anche al 8700k con la 64LC, implementazione ottima di DX12 a quanto pare
F1_17 (DX11) 194 vs 185
BF1 720p 200fps cap 128 vs 157 GTX + Ryzen + DX12 vanno totalmente in disaccordo

in alcuni l'intesa Intel+Vega da risultati maggiori rispetto Ryzen+Vega, ma dipende dallo sfruttamento dei core e quindi dalla CPU.
CIV VI è un gioco che sfrutta bene sia il fatto che Ryzen ha 8 core, sia la stessa architettura Zen con le sue 8 FPU.

nvidia e DX12 stanno alla sullo stesso ordine di problematiche di AMD e DX11, questo è quanto.
 
Pubblicità
Pubblicità
Indietro
Top