UFFICIALE GTX980ti Discussione Ufficiale - GM200 a dieta

Pubblicità
la fury x non può battere 980ti oggi come oggi.. troppo divario prestazionale.... si crea confusione per il semplice fatto che nei grafici di tup furyx sia pari a 980ti reference (1440P) ed in 4k addirittura la supera, in realtà non è cosi, come già detto la 980ti reference è un chiodo, limitata all'inverosimile, su di una scheda del genere la variabile oc si deve tenere in conto, da ottimi risultati..

tutto questo è generato dal semplice fatto che nvidia è molto cauta con le frequenze e non immette prodotti overcloccati, i suoi prodotti (reference) sono molto frenati in termini di frequenze e di energia assorbita, per rientrare in dei parametri (tdp esempio).. questo ovviamente è un bene poichè già le reference sono calde, se non si adottassero questi accorgimenti le temp su di una review (reference) sarebbero più alte con conseguente aumento di richiesta energia, ed ecco che potrebbe sfigurare sui consumi, sulla rumorosità e temperatura..
Ma c'è un ma, questa procedura porta ad un abbassamento fisiologico delle performance assolute, innescando la mala lettura dei grafici e credendo appunto che una 980ti sia più lenta di fury x..
questo avviene anche tra 980 e 390x, si pensa che 390x sia veloce quanto 980.. ricordiamoci che una 390x strix ha già 1100 sul core, della serie prende altri 50/70mhz e la sua corsa all'oc è bella che finita, invece da 980 reference a custom 980 in oc ci passa un altro buon 25%..

sta all'utente vederci chiaro, ed il gap che si crea da stock ad oc è mostruoso..

Mi spieghi come fa un crossfire di fury x in 4k a far meglio di uno sli di titan x in giochi tipo The Witcher 3 con game works attivato?
1444048041PaXLI3YOE9_4_3_l.gif


Nel caso della gtx970 vs r9 390, una EVGA 970 SSC sta dietro a una MSI r9 390 sia da stock che overcloccata.
 
Ultima modifica da un moderatore:
Mi spieghi come fa un crossfire di fury x in 4k a far meglio di uno sli di titan x in giochi tipo The Witcher 3 con game works attivato?
1444048041PaXLI3YOE9_4_3_l.gif

boh come te lo spiego.. vediamo..
hai presente quando con la macchina prendi una serie di dossi ad alta velocità?
3cco quello è giocare con quwl crossfire.. se noti ha una variabiltà dei frame molto più alta rispetto allo sli di titan x e 980ti, tanto è vero che i minimi sono piu bassi e da un impennata nei massimi facendo aumentarei medi... un classico del crossfire..

detto questo vorrei vedere il grafico delle latenze per vedere se si nota microstuttering.. (sicuramente)

fare 38.5 e fare 39 non significa che fare 39 sia meglio.... e come sempre si nota la pagliuzza (0.5 frame) e non la trave (+35% di oc) sulle 980ti.. inutile

la review è di hardcop
 
Mi spieghi come fa un crossfire di fury x in 4k a far meglio di uno sli di titan x in giochi tipo The Witcher 3 con game works attivato?
1444048041PaXLI3YOE9_4_3_l.gif


Nel caso della gtx970 vs r9 390, una EVGA 970 SSC sta dietro a una MSI r9 390 sia da stock che overcloccata.
Io non capisco perché pensate sempre ai numeri, questa va più di quella; quella è più potente....... Avete la Fury X giocateci e divertitevi in santa pace. Io non ho mai postato nel thread delle Fury scrivendo che la mia 980ti è la più potente di tutte, anzi neanche lo guardo. Poi ognuno ha la sua opinione sulle prestazioni, se voi pensate che queste Fury X vadano così bene compratele, invece di scrivere, cosi almeno AMD fa cassa e esce fuori da questa crisi, almeno più concorrenza abbassa i prezzi e questo è un bene per tutti.
 
Ultima modifica da un moderatore:
gesù ma perchè.. saluti..

questo mi parla di 3way sli 4way.. percarità.. ma perchè tutti a me? che ho fatto di male?

i video di jayztwocent si guarda..signoreee
 
Io non capisco perché pensate sempre ai numeri, questa va più di quella; quella è più potente....... Avete la Fury X giocateci e divertitevi in santa pace. Io non ho mai postato nel thread delle Fury scrivendo che la mia 980ti è la più potente di tutte, anzi neanche lo guardo. Poi ognuno ha la sua opinione sulle prestazioni, se voi pensate che queste Fury X vadano così bene compratele, invece di scrivere, cosi almeno AMD fa cassa e esce fuori da questa crisi, almeno più concorrenza abbassa i prezzi e questo è un bene per tutti.

La fury x non mi piace, è limitata nella vram e nei rops. Per par condicio andrò nel thread delle fury a postare i benchmark di AoS con async disattivato in cui la 980ti custom massacra la fury x. Scherzo ovviamente. Devo upgradare la vga per un 4k decente ma non c'è niente che mi soddisfi completamente.

- - - Updated - - -

gesù ma perchè.. saluti..

questo mi parla di 3way sli 4way.. percarità.. ma perchè tutti a me? che ho fatto di male?

i video di jayztwocent si guarda..signoreee

Perchè sei stato l'unico che ha abboccato al mio commento provocatorio. Ti lascio in pace.
 
veramente hai citato me in primis.. io non ho abboccato ho solo risposto con argomentazioni..

poi sei pure poco intelligente visto che ti vanti che io ci sia cascato al tuo commento provocatorio..
questo è un forum dove ci si scambiano opinioni e sj parla in maniera civile, e non si tenta di fare flame con provocazioni o altro..
quindi regolati
 
Abbiamo anche qui il tipico confronto AMD fanboy VS NVidia fanboy? Chi è che l'ha sparata tanto grossa da dire che una Fury X è meglio di una Titan X? Certo è che invece è vero che il Crossfire di Fury X scala meglio del Crossfire di Titan X
 
Oh gesù
allego review
CrossFire et Radeon R9 Fury X, Fiji vs GM200, round 2 ! - HardWare.fr
rthhrt.webp

risoluzione 4k dettagli ultra, è vero che su una media dei giochi testati il cross restituisce più scaling dello sli di 980ti (reference) ma c'è un ma....

voi non considerate minimamente i limiti della memoria della fury, ed il microstuttering che innesca, quindi quel valore anche se superiore:

1- va a farsi benedire con l'oc delle 980ti
2- il microstuttering porta il titolo a livelli ingiocabili, anche se il frame rate massimo è superiore
3- i limiti della memoria portano a ridurre il dettaglio e non godere più della massima qualità che si potrebbe estrapolare da schede del genere.. e rende ancora una volta ingiocabile il titolo (vedasi d.light, evolve) ed i titoli che necessitano di molta memoria video
4- non vi entrerà mai in testa ma quelle sono 980ti reference (ad aria) e su carichi 4k vengono limitate continuamente
5- le fury x sono raffreddate con AIO, i confronti si fanno con le custom 980ti mettendo una ventola in mezzo alle schede in modo che aspiri l'aria calda e la butti fuori, anche se la soluzione AIO sarebbe ancora preferibile, la fury in questo caso è in vantaggio

consumi
dbfbdfdbf.webp



Fluidité
Pour ce test, nous avons brièvement observé la fluidité dans chaque jeu testé. Premièrement, tout comme nous l'avions déjà constaté à plusieurs reprises, en bi-GPU et en 4K, les Radeon ont globalement un petit avantage sur les GeForce au niveau du ressenti. Nous présumons ici soit que le lien SLI atteint ses limites, soit que les algorithmes de frame pacing de Nvidia ne sont pas totalement fonctionnels en très hautes résolutions.

Cependant, dans aucun jeu nous n'avons rencontré de réel problème de fluidité sur les GeForce GTX 980 Ti en SLI, contrairement aux Radeon R9 Fury X en CFX qui souffrent dans 3 jeux :

- Dying Light max : très grosses saccades, injouable
- Evolve medium : saccades par moment, principalement en début de partie
- Evolve very high : saccades par moment, principalement en début de partie
- The Witcher 3 medium : petites saccades régulières
- The Witcher 3 max sans HairWorks : petites saccades régulières
- The Witcher 3 max avec HairWorks : grosses saccades, très désagréable

A noter que dans tous ces jeux la Radeon R9 295X2 souffre des mêmes problèmes, qui sont accentués par son niveau de performances inférieur.


Adesso ho realmente concluso, prima che qualcuno se ne esca con i driver crimson..
:asd:
 
Ultima modifica da un moderatore:
SolidSnake1989;5242069[COLOR=#000000 ha detto:
Adesso ho realmente concluso, prima che qualcuno se ne esca con i driver crimson..[/COLOR]:asd:

Potremmo parlare dell'incapacità delle Maxwell di gestire il calcolo asincrono via hardware. Del fatto che sei fai il benchmark integrato di Ashes of Singularity in DX12 una r9 390 sorpassa una 980ti. Scherzo non voglio tediarti nè creare inutili provocazioni, piuttosto vorrei parlare del mio dilemma.
Anandtech
GeForce + Radeon: Previewing DirectX 12 Multi-Adapter with Ashes of the Singularity ha dimostrato che le DX12 permettono finalmente di avere radeon e gtx nello stesso pc. L'incrocio "Slifire" funzionerebbe bene,meglio di sli e crossfire. Io avrei una mezza intenzione di affiancare alla mia radeon una gtx e testare i giochi DX12 usciti finora (AoS,Caffeine, Descent U.).
Tuttavia la mia preoccupazione è Nvidia farà un aggiornamento driver che impedirà la compatibilità? Non mi voglio ritrovare con un pc funzionante a metà.
 
Cmq ragazzi evviva il chippone! La 980Ti è stata la mia prima gpu con il "chippone" e non mi sono mai trovato così bene! Aspetto con ansia il prossimo chippone. Vediamo queste x70/x80 quanto superano la Ti. La x80 sicuro la supera, per la x70 non ci metterei la mano sul fuoco.
 
Potremmo parlare dell'incapacità delle Maxwell di gestire il calcolo asincrono via hardware. Del fatto che sei fai il benchmark integrato di Ashes of Singularity in DX12 una r9 390 sorpassa una 980ti. Scherzo non voglio tediarti nè creare inutili provocazioni, piuttosto vorrei parlare del mio dilemma.
Anandtech
GeForce + Radeon: Previewing DirectX 12 Multi-Adapter with Ashes of the Singularity ha dimostrato che le DX12 permettono finalmente di avere radeon e gtx nello stesso pc. L'incrocio "Slifire" funzionerebbe bene,meglio di sli e crossfire. Io avrei una mezza intenzione di affiancare alla mia radeon una gtx e testare i giochi DX12 usciti finora (AoS,Caffeine, Descent U.).
Tuttavia la mia preoccupazione è Nvidia farà un aggiornamento driver che impedirà la compatibilità? Non mi voglio ritrovare con un pc funzionante a metà.

Maxwell li gestisce via hardware, forse i programmatori di AoS non li sapevano usare: l'unica differenza è che le Hawaii arrivano a code di comandi più lunghe, fino a 64, mentre le Maxwell 2.0 fino a 31. Se questo darà un qualche vantaggio in alcuni titoli alle R9 390\x, 380\x e Fury\x non è dato saperlo (le GCN 1.0, le Kepler, le Maxwell 1.0 sono messe ben peggio anche rispetto a Maxwell 2.0).
Ciò spiega anche il parzialmente il fatto che le Nvidia andassero così male in quel bench in DX12, anche se a dire il vero da test successivi i divari rispetto alle concorrenti dirette sono ben più piccoli.

Non credo che né AMD, né Nvidia, impediranno di usare il multi adapter con configurazioni miste, ma mai direi mai. Più che altro è una caratteristica ancora in beta: possono esserci bug e problemi prestazionali, come si vede usando la GTX680 e la HD7970 insieme con la Nvidia come primaria. Io non lo farei sinceramente: non hai la sicurezza che funzioni bene sempre e inoltre i titoli DX12 si contano ancora sulle dita di una mano (monca).
 
Ultima modifica:
Maxwell li gestisce via hardware, forse i programmatori di AoS non li sapevano usare: l'unica differenza è che le Hawaii arrivano a code di comandi più lunghe, fino a 64, mentre le Maxwell 2.0 fino a 31. Se questo darà un qualche vantaggio in alcuni titoli alle R9 390\x, 380\x e Fury\x non è dato saperlo (le GCN 1.0, le Kepler, le Maxwell 1.0 sono messe ben peggio anche rispetto a Maxwell 2.0).
Ciò spiega anche il parzialmente il fatto che le Nvidia andassero così male in quel bench in DX12, anche se a dire il vero da test successivi i divari rispetto alle concorrenti dirette sono ben più piccoli.

Non credo che né AMD, né Nvidia, impediranno di usare il multi adapter con configurazioni miste, ma mai direi mai. Più che altro è una caratteristica ancora in beta: possono esserci bug e problemi prestazionali, come si vede usando la GTX680 e la HD7970 insieme con la Nvidia come primaria. Io non lo farei sinceramente: non hai la sicurezza che funzioni bene sempre e inoltre i titoli DX12 si contano ancora sulle dita di una mano (monca).

Le Maxwell gestirebbero il calcolo asincrono caricando di lavoro la cpu, mentre le radeon lo svolgerebbero direttamente; ipotizzo che la peggiore latenza in VR delle gtx sia dovuto a questo.
Asynchronous compute, AMD, Nvidia, and DX12: What we know so far | ExtremeTech


Se trovassi una gtx 970-980 d'occasione tipo a 200€ farei la prova, vediamo.




 
Ultima modifica:
Ciao ragazzi premetto che possiedo una gtx 980ti G1
Anche a voi succede che si occocchi da sola a 1367/1380mhz? (da quanto mi riporta evgaprecisionx)
La Gigabyte mentre dice che la frequenza massima col boost è di 1279mhz, che è successo???
Magia nera?? XD :lol:
 
Pubblicità
Pubblicità
Indietro
Top