UFFICIALE GTX 970 Discussione Ufficiale.

fenigo69

Utente Attivo
346
19
Tutti e due. Ma è un po' inutile usarli insieme: l'MSAA 8x già dovrebbe eliminare in modo efficace l'aliasing. E poi DSR e MSAA 8x insieme sono pesantissimi...
quindi se attivo il dsr(più che altro per aumentare la risoluzione a 4k) l'anti aliasing nel menu di gioco come lo devo impostare?
 

pribolo

Moderatore
Staff Forum
Utente Èlite
38,402
13,811
CPU
i5 13600KF @5.4/4.3 GHz
Dissipatore
Thermalright Frozen Notte 360
Scheda Madre
MSI Z690 Tomahawk Wifi DDR4
HDD
Samsung 990 Pro 2TB e Crucial MX500 2TB
RAM
Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
GPU
Asus TUF RTX 4070 Ti Super
Monitor
LG 27UL650 UHD
PSU
Seasonic Prime TX-750
Case
Sharkoon CA200M
OS
Windows 11 Pro
quindi se attivo il dsr(più che altro per aumentare la risoluzione a 4k) l'anti aliasing nel menu di gioco come lo devo impostare?

Il DSR non aumenta la risoluzione, è semplicemente un oversampling: la scheda renderizza a una risoluzione più alta (4k in questo caso) ma poi l'immagine viene ridimensionata per essere visualizzata alla risoluzione nativa del monitor. Il risultato è che si ottiene è un immagine più omogenea, perchè l'oversampling consente di ridurre efficaciemente l'aliasing, come avevo spiegato sopra: non apporta benefici oltre a questo, che si avrebbero invece con un pannello con risoluzione maggiore (nitidezza maggiore in primis).
Non fatevi infinocchiare dal marketing: il DSR non fa nessun miracolo, è solo uno dei tanti filtri AA (anti aliasing) in circolazione.

Detto questo, fai delle prove: se hai FPS buoni con l'MSAA al massimo e il DSR con risoluzione 4k, tieni pure così (ma vuol dire che il gioco è veramente leggero, di quale parliamo?). Altrimenti dovrai abbassare o la risoluzione del DSR, o l'MSAA: scegli tu, in base a cosa ti sembra meglio per la qualità dell'immagine.
 

fenigo69

Utente Attivo
346
19
Il DSR non aumenta la risoluzione, è semplicemente un oversampling: la scheda renderizza a una risoluzione più alta (4k in questo caso) ma poi l'immagine viene ridimensionata per essere visualizzata alla risoluzione nativa del monitor. Il risultato è che si ottiene è un immagine più omogenea, perchè l'oversampling consente di ridurre efficaciemente l'aliasing, come avevo spiegato sopra: non apporta benefici oltre a questo, che si avrebbero invece con un pannello con risoluzione maggiore (nitidezza maggiore in primis).
Non fatevi infinocchiare dal marketing: il DSR non fa nessun miracolo, è solo uno dei tanti filtri AA (anti aliasing) in circolazione.

Detto questo, fai delle prove: se hai FPS buoni con l'MSAA al massimo e il DSR con risoluzione 4k, tieni pure così (ma vuol dire che il gioco è veramente leggero, di quale parliamo?). Altrimenti dovrai abbassare o la risoluzione del DSR, o l'MSAA: scegli tu, in base a cosa ti sembra meglio per la qualità dell'immagine.

ah capisco, io pensavo invece che facesse vedere a una risoluzione maggiore indipendentemente dal monitor...vabbe XD comunque se volessi tenere solo il dsr l'anti aliasing dal menù di gioco dovrei disattivarlo del tutto? indipendentemente dalla pesantezza del gioco credo che a mettere al massimo sia il dsr che l'msaa mi sfuma troppo le texture...non so dammi conferma XD altra cosa,secondo te quale converrebbe tenere attivo? l'MSAA al massimo o il dsr?
 

pribolo

Moderatore
Staff Forum
Utente Èlite
38,402
13,811
CPU
i5 13600KF @5.4/4.3 GHz
Dissipatore
Thermalright Frozen Notte 360
Scheda Madre
MSI Z690 Tomahawk Wifi DDR4
HDD
Samsung 990 Pro 2TB e Crucial MX500 2TB
RAM
Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
GPU
Asus TUF RTX 4070 Ti Super
Monitor
LG 27UL650 UHD
PSU
Seasonic Prime TX-750
Case
Sharkoon CA200M
OS
Windows 11 Pro
ah capisco, io pensavo invece che facesse vedere a una risoluzione maggiore indipendentemente dal monitor...vabbe XD comunque se volessi tenere solo il dsr l'anti aliasing dal menù di gioco dovrei disattivarlo del tutto? indipendentemente dalla pesantezza del gioco credo che a mettere al massimo sia il dsr che l'msaa mi sfuma troppo le texture...non so dammi conferma XD altra cosa,secondo te quale converrebbe tenere attivo? l'MSAA al massimo o il dsr?

No, perchè l'MSAA non sfuma le texture, quindi teoricamente anche attivandoli entrambi non dovresti avere un effetto troppo sfuocato: basta tenere bassa la smoothness del DSR. Ma comunque ti basta provare...
Anche per sapere se è meglio eventualmente l'uno o l'altro, prova: è abbastanza soggettiva la cosa.
 

fenigo69

Utente Attivo
346
19
No, perchè l'MSAA non sfuma le texture, quindi teoricamente anche attivandoli entrambi non dovresti avere un effetto troppo sfuocato: basta tenere bassa la smoothness del DSR. Ma comunque ti basta provare...
Anche per sapere se è meglio eventualmente l'uno o l'altro, prova: è abbastanza soggettiva la cosa.

va bene grazie ancora dell'aiuto e la pazienza, un'ultima cosa(anche se mi sembra abbastanza banale ma per sicurezza...) per attivare solo il dsr senza msaa devo disattivare il filtro anti aliasing dal menù di gioco?
 

pribolo

Moderatore
Staff Forum
Utente Èlite
38,402
13,811
CPU
i5 13600KF @5.4/4.3 GHz
Dissipatore
Thermalright Frozen Notte 360
Scheda Madre
MSI Z690 Tomahawk Wifi DDR4
HDD
Samsung 990 Pro 2TB e Crucial MX500 2TB
RAM
Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
GPU
Asus TUF RTX 4070 Ti Super
Monitor
LG 27UL650 UHD
PSU
Seasonic Prime TX-750
Case
Sharkoon CA200M
OS
Windows 11 Pro
U

Utente cancellato 159815

Ospite
Non è che si sia capito molto fino ad ora, ci sono in giro solo alcuni test con ashes of singularity alpha. Tra l'altro i bench mostrano risultati anche molto diversi, a seconda probabilmente dei dettagli usati. Io guarderei questi, intanto: Ashes of the Singularity: the first DX12 gaming benchmark tested • Eurogamer.net

Le AMD, in quel gioco, con le DX12, vanno meglio, dato che sembra insistere molto sulle draw call, aspetto in cui le AMD sono leggermente avanti con le DX12 e fa anche un uso abbastanza importante dell'async compute, per il post processing, ma solo sulle AMD perchè Nvidia non supporta questa funzione nativamente. Qui si parla appunto degli asyncronuos shaders: DirectX 12 Async Shaders An Advantage For AMD And An Achilles Heel For Nvidia Explains Oxide Games Dev




Sì ma infatti i pixel che si accendono rimangono sempre 100, ovviamente. Ma elaborandone di più, 200 per esempio, si possono ottenere i colori dei 100 pixel che si accendono per interpolazione dei 200 elaborati, e quindi essi risulteranno più accurati. E' un modo come un altro (anzi, il migliore) per ridurre l'aliasing, le seghettature che si formano sugli angoli degli oggetti: avendo più pixel elaborati da confrontare, si possono calcolare meglio i colori dei pixel fisici che costituiscono i bordi, e quindi eliminare la seghettatura, sostituendola con una zona di colore intermedio. E' un po' la stessa cosa che fanno filtri tipo l'MSAA, solo che vengono applicati solo in certi punti dell'immagine.

- - - Updated - - -



Tutti e due. Ma è un po' inutile usarli insieme: l'MSAA 8x già dovrebbe eliminare in modo efficace l'aliasing. E poi DSR e MSAA 8x insieme sono pesantissimi...
Nvidia Wanted Oxide dev DX12 benchmark to disable certain DX12 Features ? (content updated)

Qui c'e' la spiegazione della vicenda. Pare che Maxwell inizi a scalare sopra le 32 istruzioni contemporanee, mentre AMD fino a 128 non abbia cali di performance.
980 ti pero' entro le 32 va il doppio di Fury x, che pareggia man mano che aumentano il numero di istruzioni.
Bisogna ancora capire bene l'impatto delle 2 architetture nei titoli Dx12.
 
  • Mi piace
Reazioni: pribolo

pribolo

Moderatore
Staff Forum
Utente Èlite
38,402
13,811
CPU
i5 13600KF @5.4/4.3 GHz
Dissipatore
Thermalright Frozen Notte 360
Scheda Madre
MSI Z690 Tomahawk Wifi DDR4
HDD
Samsung 990 Pro 2TB e Crucial MX500 2TB
RAM
Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
GPU
Asus TUF RTX 4070 Ti Super
Monitor
LG 27UL650 UHD
PSU
Seasonic Prime TX-750
Case
Sharkoon CA200M
OS
Windows 11 Pro
Nvidia Wanted Oxide dev DX12 benchmark to disable certain DX12 Features ? (content updated)

Qui c'e' la spiegazione della vicenda. Pare che Maxwell inizi a scalare sopra le 32 istruzioni contemporanee, mentre AMD fino a 128 non abbia cali di performance.
980 ti pero' entro le 32 va il doppio di Fury x, che pareggia man mano che aumentano il numero di istruzioni.
Bisogna ancora capire bene l'impatto delle 2 architetture nei titoli Dx12.

Ora direi che è tutto più chiaro. A parte che, secondo me hanno copiato da qui: https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_is_it_true_nvidia_cant_do/ :asd:

Maxwell e GCN supportano entrambi gli Async shaders, solo che GCN può digerire una lista di comandi più lunga (64 contro 32). Tra l'altro, se ho capito bene, le Maxwell sono più veloci a eseguire queste operazioni, rimanendo entro i 31 comandi.

Francamente non penso che vedremo tanti altri esempio di async compute usati in modo così importante come ashes of singularity, quindi questa caratteristica non dovrebbe secondo me avere un gran peso sulle performance delle GPU che abbiamo oggi: i limiti nella maggior parte dei giochi saranno i consueti (texel rate, pixel rate, bandwidth, potenza degli shader).

Ma nel caso gli sviluppatori volessero utilizzare tutta la potenza di GCN 1.1\1.2 da questo punto di vista, è possibile impostare in modo diverso l'utilizzo degli sync shaders usando tutti i comandi disponibili con le AMD e riducendo questo dato per le Maxwell? Questo non l' ho capito.

Ah poi tra l'altro GCN 1.1\1.2 (Tonga, Hawaii, Fiji) è l'architettura con più async shaders, ma Maxwell 2.0 è la seconda, assieme al GK110: GCN 1.0 e Bonaire ne hanno solo 16, mentre tutte le altre Kepler solo 1, se quello che ho letto è giusto.
Quindi poi sarà interessante sapere come si comporteranno anche tutti gli altri chip, oltre alle Maxwell e alle GCN di nuova generazione.

- - - Updated - - -

Ragazzi devo acquistare una nuova scheda video e ero orientato su una G1. Ma poi ho visto questa: Asus Turbo GTX 970 - OC - 4Gg. Che ne pensate?
Grazie

Che la G1 è 10 volte meglio in tutto :lol:
Quella Asus è tra le 970 peggiori.
 

GUKA81

Utente Èlite
2,941
827
CPU
I7 4790K @oc 4.700GHZ
Scheda Madre
MSI Z97S KRAIT
HDD
SSD KINGSTON 128GB
RAM
16 GB DDR3 KINGSTON FURY
GPU
GIGABYTE G1 GTX 1070
Monitor
Samsung UE49KU6400 4K
PSU
ARKANGEL 850WATT(10 anni di utilizzo)
OS
WINDOWS 10 64BIT
ragazzi secondo voi quale sarà il gioco ammazza gtx 970? ac syndacate? faremo 30 fps su dettagli alti:sisilui:.
tutti gli ultimi titoli vanno egregiamente con la gtx 970...f1 2015-mad max -metal gear, perfino con batman knight riesco a giocare tutto maxato ad oltre 60 fps,nonostante sia dichiarato ingiocabile per molte configurazioni,ho solo dei cali,ma non sotto i 40 fps.
 

Sammy854

Utente Attivo
288
19
CPU
Intel Core i5-4690
Scheda Madre
Msi H97 PC Mate
HDD
WD Caviar Blue 1TB 7200rpm + SSD SanDisk Plus 120GB
RAM
Crucial Ballistix Sport 2x4GB CL9 + Corsair VenP k 2x4GB CL9
GPU
MSI GTX 970 GAMING 4G
Monitor
ASUS VX239H (24" - 1920x1080)
PSU
Thermaltake Berlin 630w 80Plus
Case
Zalman Z11 Plus HF1
OS
Dual boot: Windows 10/ Mac OS X 10.11 El Capitan
ragazzi secondo voi quale sarà il gioco ammazza gtx 970? ac syndacate? faremo 30 fps su dettagli alti:sisilui:.
tutti gli ultimi titoli vanno egregiamente con la gtx 970...f1 2015-mad max -metal gear, perfino con batman knight riesco a giocare tutto maxato ad oltre 60 fps,nonostante sia dichiarato ingiocabile per molte configurazioni,ho solo dei cali,ma non sotto i 40 fps.

Più che altro syndicate sarà un problema per la mia CPU... io opto per Hitman.
 

Mr_Shooter

Utente Attivo
135
8
CPU
Amd Fx 8350
Scheda Madre
gigabyte ga-970a-ud3p
HDD
SSD Samsung 840 pro evo
RAM
Corsair Vengeance 8gb
GPU
Gigabyte 970 g1
Audio
Asus Xonar DX/XD 7.1
Monitor
Samsung 21:9 2560 x 1080
PSU
Seasonic 550 w gold
Case
Corsair air 540
OS
Windows 8.1 pro 64
Ragazzi una amico deve cambiare scheda mi ha chiesto tra una r9 390 e una gtx 970 .. che mi dite ? lui con una scheda ci fa più o meno 3-4 anni
 

pribolo

Moderatore
Staff Forum
Utente Èlite
38,402
13,811
CPU
i5 13600KF @5.4/4.3 GHz
Dissipatore
Thermalright Frozen Notte 360
Scheda Madre
MSI Z690 Tomahawk Wifi DDR4
HDD
Samsung 990 Pro 2TB e Crucial MX500 2TB
RAM
Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
GPU
Asus TUF RTX 4070 Ti Super
Monitor
LG 27UL650 UHD
PSU
Seasonic Prime TX-750
Case
Sharkoon CA200M
OS
Windows 11 Pro
GTX970

Leggermente più veloci (almeno a 1080p), consumano meno, generalmente più fresche e più overcloccabili. Il prezzo credo sia simile. resta l'incognita delle DX12, ma non credo che vedremo prestazioni molto diverse dalle attuali delle Maxwell rispetto alle GCN 1.1\1.2, almeno nella gran parte dei giochi.
Come custom, la Gigabyte G1 è la miglior scelta se non ci sono problemi di spazio e di budget.
 
  • Mi piace
Reazioni: Il nabbo di turno

GUKA81

Utente Èlite
2,941
827
CPU
I7 4790K @oc 4.700GHZ
Scheda Madre
MSI Z97S KRAIT
HDD
SSD KINGSTON 128GB
RAM
16 GB DDR3 KINGSTON FURY
GPU
GIGABYTE G1 GTX 1070
Monitor
Samsung UE49KU6400 4K
PSU
ARKANGEL 850WATT(10 anni di utilizzo)
OS
WINDOWS 10 64BIT
Più che altro syndicate sarà un problema per la mia CPU... io opto per Hitman.
beh..dai hai un ottimo processore,se ubisoft non sposta tutto il carico sulla cpu dovresti farcela tranquillamente.
io credo che sarà ottimizzato un po' meglio di unity
 
  • Mi piace
Reazioni: Sammy854

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!