Hear me roar! AMD Radeon 390 and 390X - Fiji Assault -

Pubblicità
Stato
Discussione chiusa ad ulteriori risposte.
Quei test si concentrano unicamente sulle draw call, ma non sono l'unica cosa che definisce le prestazioni di una scheda video con un gioco, quindi come ora la Fury non è sotto del 30% rispetto alla 980ti, un domani la 980ti non sarà sotto del 30% (e questo è ovvio, ma giusto per spiegare).
Anzi, secondo me con le DX12, non saranno proprio tra i fattori limitanti: quindi la capacità di una scheda di sostenerne di più o di meno non sarà di conseguenza fondamentale. Del resto, guardando i numero puri, si passa da 2.7 milioni a 12.3 milioni di draw call sostenute con la 980ti e da 2.0 a 16.5 milioni di draw call con la Fury; anche con la 980ti si tratta di un miglioramento enorme, di quasi 5 volte.
Tra l'altro credo proprio che tutte le vecchie schede, GCN 1.0, Kepler e Fermi, che sono la gran parte di quelle attualmente in uso, abbiano prestazioni peggiori di entrambe in quel bench.
Infine non escluderei che via driver Nvidia possa apportare dei miglioramenti da questo punto di vista, visto che è esattamente quello che ha fatto con le DX11.
Insomma, mi pare presto per trarre delle conclusioni.

Questo è ovvio, infatti io stavo parlando esclusivamente delle performance riportate sul grafico.
Non mi sembra di avere detto che con le DX12 AMD andrà a superare del 30% nvidia... Ho detto che con le dx12 la fury potrebbe (ipotesi) superare le prestazioni della 980ti considerando che nel test ha avuto un boost prestazionale maggiore rispetto alla controparte. Di numeri non possiamo parlare visto che non ci sono giochi ad oggi che girano su DX12, e non sappiamo quali saranno le strategie dei driver di entrambe le aziende, come hai detto tu.
 
Questo è ovvio, infatti io stavo parlando esclusivamente delle performance riportate sul grafico.
Non mi sembra di avere detto che con le DX12 AMD andrà a superare del 30% nvidia... Ho detto che con le dx12 la fury potrebbe (ipotesi) superare le prestazioni della 980ti considerando che nel test ha avuto un boost prestazionale maggiore rispetto alla controparte. Di numeri non possiamo parlare visto che non ci sono giochi ad oggi che girano su DX12, e non sappiamo quali saranno le strategie dei driver di entrambe le aziende, come hai detto tu.

Per avere un'idea, o meglio una preview delle performance DX12, dovrebbero provare un titolo con dual API su DX per Nvidia e Mantle per AMD.
 
Se il blocco è hardware, vedi appunto la mia 780ti, non ci fai nulla a meno di metterti a saldare e dissaldare sulla scheda !


sulle memorie si , e va bè , ma la gpu è overcloccabile , ma non overvoltabile , quindi se c'è un blocco gpu è solo software

bisogna vedere se , sbloccandolo, esso influisce sulle memorie , visto le interconnessioni fisiche e non a piste

ma certamente non c'è un blocco hardware sulla gpu e certamente c'è sulle memorie ....

- - - Updated - - -

Per avere un'idea, o meglio una preview delle performance DX12, dovrebbero provare un titolo con dual API su DX per Nvidia e Mantle per AMD.


test sintetico Directx 12 drawcalls

Fonte in tedesco:

http://www.hardwareluxx.de/index.php....html?start=22

Google traduttore:

We tested both the AMD Radeon R9 Fury X and the NVIDIA GeForce GTX 980 Ti under the current insider Preview-Build 10130 of Windows 10 and the latest available drivers from AMD and NVIDIA. When setting we chose the Futuremark 3DMark in Driver overhead test a resolution of 3,840 x 2,160 pixels.


d12.jpg




The results confirm the findings old, which NVIDIA is working even better under DirectX 11 and can compute about 30 percent more calls Draw. This applies to both single-threaded and multi-threaded test. Under DirectX 12 AMD seems currently better exploit the possibilities. Here AMD is good with 33 percent against NVIDIA. But it is still unclear for DirectX 12, the impact this has on the ultimate gaming performance. Here we'll just have to wait until first practical applications on Windows 10 and DirectX 12 are available.
 
Inizio a chiedermi se la tua sia una critica seria o una semplice presa di posizione per fare il "bastian contrario" :boh:

L'HDMI 1.4 è limitante per chi ha un monitor 2K o UHD con pannello a 10 bit e, magari, pure 144Hz? No.

L'HDMI 1.4 è limitante solo ed unicamente per chi ha una TV UHD dotata di pannello a 10bit e di HDMI 2.0 Full? Sì.
Quante persone hanno una TV UHD con pannello a 10bit e dotata solo di HDMI 2.0 Full? Pochissimi.
Quanti di questi pochissimi compreranno una FuryX per collegarla alla stessa? Si e no 100 persone.
Quanto inciderà su queste 100 persone lo stress di collegare le suddette VGA e TV usando un adattatore e/o un cavo DP-HDMI? Zero.

Morale: è un problema che non si pone.

Io sono partito da una MIA analisi, senza peraltro riprendere nessuno, sulla MIA valutazione della scheda. Puoi non essere d'accordo, va bene, ma ora basta, sarà la 5-6 volta che posti la stessa cosa secondo me inesatta. Penso di aver chiarito il mio punto di vista e tu il tuo, ora basta, non credo tu abbia funzione di poter decidere cosa sia importante o meno nelle scelte altrui. Hai espresso un parere che vale quanto il mio.
 
E questa sarà senz'altro un ottima cosa !

Ma al giorno attuale ?

Che entro fine anno escano giochi dx12, calcolando il tempo che ci hanno messo le dx 11, ci credo dopo che l'ho comperato !
oddio, si certo può uscire tipo un pinball, un candy crush, un fruit ninjia, in dx12, ma una scheda da 700 euro attuali per giocarci ?
Giochi tripla A, tipo Gta, Battlefield, Crysys, ecc.ecc. non penso che li vedremo in dx12 nativo prima di uno/due anni e a quel punto la fury x sarà messa peggio della mia 780ti ora !

Quindi prenderla perchè piace, ok, va bene, ma prenderla per aspettare i giochi dx12, direi proprio di no !

Il direttore tecnico del frostbite Johan Andersson ha detto, a riguardo di SW, che stanno spingendo parecchio sull'implementazione delle DX12 nel gioco, poi se ci riusciranno o meno è un altro discorso, ma intanto ci stanno provando. Inoltre, sempre lui ha detto che molto probabilmente ci saranno giochi DX12 entro la fine del 2015... La stessa cosa è stata detta da Phil Spencer (capo divisione xbox)
 
Io sono partito da una MIA analisi, senza peraltro riprendere nessuno, sulla MIA valutazione della scheda. Puoi non essere d'accordo, va bene, ma ora basta, sarà la 5-6 volta che posti la stessa cosa secondo me inesatta. Penso di aver chiarito il mio punto di vista e tu il tuo, ora basta, non credo tu abbia funzione di poter decidere cosa sia importante o meno nelle scelte altrui. Hai espresso un parere che vale quanto il mio.
Guarda che come tu hai il diritto di ribadire la tua analisi "n" volte, io ho il diritto di contraddirla altrettante volte e, mi pare, con adeguate motivazioni e non per mero cipiglio.
Fatico a capire quale sia la cosa inesatta che avrei postato 5 o 6 volte :look:
 
che budget hai?

Considera che avevo puntato il Rog MG279Q, quindi non lo ho proprio ristretto... diciamo che posso arrivare pure a 750-800€ se ne vale la pena, ma temo non sarà sufficiente... sicuramente comunque un testone per un monitor non ce li spendo
 
Il direttore tecnico del frostbite Johan Andersson ha detto, a riguardo di SW, che stanno spingendo parecchio sull'implementazione delle DX12 nel gioco, poi se ci riusciranno o meno è un altro discorso, ma intanto ci stanno provando. Inoltre, sempre lui ha detto che molto probabilmente ci saranno giochi DX12 entro la fine del 2015... La stessa cosa è stata detta da Phil Spencer (capo divisione xbox)

Che ci provino, e anche di corsa sono sicuro...
Sai te la prima che salta fuori annunciando a gran voce DX12, venderà un casino, anche se sarà un emerita ciofeca, solo per il fatto che ha le dx 12...
( quanta gente ha comperato thieft, solo perchè aveva mantle ? )
Poi vedendo le ultime uscite, vedi appunto batman, ho enormi dubbi, sulla qualità dei medesimi !
La fretta di buttar fuori il gioco, sicuramente non andrà a braccietto con la qualità del medesimo !

- - - Updated - - -

Considera che avevo puntato il Rog MG279Q, quindi non lo ho proprio ristretto... diciamo che posso arrivare pure a 750-800€ se ne vale la pena, ma temo non sarà sufficiente... sicuramente comunque un testone per un monitor non ce li spendo

Acer-XR341CK-front-view.jpg


Acer-XR341CK
 
Considera che avevo puntato il Rog MG279Q, quindi non lo ho proprio ristretto... diciamo che posso arrivare pure a 750-800€ se ne vale la pena, ma temo non sarà sufficiente... sicuramente comunque un testone per un monitor non ce li spendo

beh guarda che il samsung che ti ha consigliato costa meno del rog... E' un PLS 4k con freesync come da te richiesto vs un 1440p 90hz freesync IPS
 
Stato
Discussione chiusa ad ulteriori risposte.
Pubblicità
Pubblicità
Indietro
Top