Stai usando un browser non aggiornato. Potresti non visualizzare correttamente questo o altri siti web. Dovreste aggiornare o usare un browser alternativo.
Seguo con interesse ...sto valutando l'acquisto proprio tra queste due VGA e mi chiedevo se non fosse utile fare una specie di riassunto, magari anche in prima pagina e con una sorta di Votazione con PRO e contro!
L'unico post più attinente e forse non OT mi sembra sia il n.3
sono schede che sostanzialmente si equivalgono a prestazioni, (scambiando l'una con l'altra senza dirti esplictamente quale sia non noteresti differenza di sorta effettiva) con le relative ottimizzazioni nei giochi che possono talvolta far prevalere l'una su l'altra ed entrambe hanno brand che propongono soluzioni custom molto valide (come qualità genrale e ed efficenza dissipativa) rimanendo sulla stessa fascia di prezzo indicativa dei 270-310€.
A questo punto l'unica cosa che differenzia realmente le 2 soluzioni, non sono tanto più le schede video in se ma le funzioni che le arricchiscono e che di conseguenza arricchiscono l'esperienza di gioco:
AMD:
Mantle
True Audio
Raptr
nvidia:
physx e librerie GameWorks
G-Sync
GeforceExperience e ShadowPlay
nvidia 3D Vision
in caso mi fossi dimenticato qualcosa aggiungete o aggiungo editando il messaggio
si ma come per il mantle in amd il g-sync nvidia è pure lui un grande mistero, ancora si deve capire quali monitor lo supporteranno e se lo supporteranno, o se verrano introdotti nuovi monitor sul mercato con questa funzione, ho letto l'articolo ma è molto confusionario.
si ma come per il mantle in amd il g-sync nvidia è pure lui un grande mistero, ancora si deve capire quali monitor lo supporteranno e se lo supporteranno, o se verrano introdotti nuovi monitor sul mercato con questa funzione, ho letto l'articolo ma è molto confusionario.
non c'è tanto mistero e hanno già dato una dimostrazione chiara delle sue potenzialità a differenza di mantle (e di questo passo ci sarà da aspettare ancora molto prima che ce ne rivelino le vere potenzialità con quest'ultimo) , non vorrei parlarne qui perchè sinceramente non vorrei andare OT approfondendo, se poi non ci sono problemi argomento :asd:
non c'è tanto mistero e hanno già dato una dimostrazione chiara delle sue potenzialità a differenza di mantle (e di questo passo ci sarà da aspettare ancora molto prima che ce ne rivelino le vere potenzialità con quest'ultimo) , non vorrei parlarne qui perchè sinceramente non vorrei andare OT approfondendo, se poi non ci sono problemi argomento :asd:
sono schede che sostanzialmente si equivalgono a prestazioni, (scambiando l'una con l'altra senza dirti esplictamente quale sia non noteresti differenza di sorta effettiva) con le relative ottimizzazioni nei giochi che possono talvolta far prevalere l'una su l'altra ed entrambe hanno brand che propongono soluzioni custom molto valide (come qualità genrale e ed efficenza dissipativa) rimanendo sulla stessa fascia di prezzo indicativa dei 270-310€.
A questo punto l'unica cosa che differenzia realmente le 2 soluzioni, non sono tanto più le schede video in se ma le funzioni che le arricchiscono e che di conseguenza arricchiscono l'esperienza di gioco:
AMD:
Mantle
True Audio
Raptr
nvidia:
physx e librerie GameWorks
G-Sync
GeforceExperience (ShadowPlay)
in caso mi fossi dimenticato qualcosa aggiungete o aggiungo editando il messaggio
sono schede che sostanzialmente si equivalgono a prestazioni, (scambiando l'una con l'altra senza dirti esplictamente quale sia non noteresti differenza di sorta effettiva) con le relative ottimizzazioni nei giochi che possono talvolta far prevalere l'una su l'altra ed entrambe hanno brand che propongono soluzioni custom molto valide (come qualità genrale e ed efficenza dissipativa) rimanendo sulla stessa fascia di prezzo indicativa dei 270-310€.
A questo punto l'unica cosa che differenzia realmente le 2 soluzioni, non sono tanto più le schede video in se ma le funzioni che le arricchiscono e che di conseguenza arricchiscono l'esperienza di gioco:
AMD:
Mantle
True Audio
Raptr
nvidia:
physx e librerie GameWorks
G-Sync
GeforceExperience (ShadowPlay)
in caso mi fossi dimenticato qualcosa aggiungete o aggiungo editando il messaggio
Bene! Grazie, si in linea di massima mi è abbastanza chiaro ...visto che sarei molto interessato in particolare alla seguente scheda: Gigabyte GV-N770OC-2GD e vedo che tu hai la versione a 4gb mi diresti le tue impressioni pls!?
E altra curiosità sai se detta scheda è compatibile UEFI?
Possibile il tanto sbandierato windforce faccia più casino del dissi della zotac amp? avevo una 670 zotac amp e l'ho rivenduta per disperazione per quanto casino faceva :suicidio:
Si pure io ne leggevo meraviglie, mi sono deciso a provarlo e come per la zotac, dissi molto efficente, ma rumoroso, dopo tutto sono sempre 3 ventole e dalle piccole dimensioni, l' acx della evga è su un altro livello, due ventole più grandi meno giri, ma i costi sono decisamente più alti.
sono schede che sostanzialmente si equivalgono a prestazioni, (scambiando l'una con l'altra senza dirti esplictamente quale sia non noteresti differenza di sorta effettiva) con le relative ottimizzazioni nei giochi che possono talvolta far prevalere l'una su l'altra ed entrambe hanno brand che propongono soluzioni custom molto valide (come qualità genrale e ed efficenza dissipativa) rimanendo sulla stessa fascia di prezzo indicativa dei 270-310€.
A questo punto l'unica cosa che differenzia realmente le 2 soluzioni, non sono tanto più le schede video in se ma le funzioni che le arricchiscono e che di conseguenza arricchiscono l'esperienza di gioco:
AMD:
Mantle
True Audio
Raptr
nvidia:
physx e librerie GameWorks
G-Sync
GeforceExperience (ShadowPlay)
in caso mi fossi dimenticato qualcosa aggiungete o aggiungo editando il messaggio
Breve premessa, per introdurre l'utilità e le problematiche in gioco che si vanno a risolvere per chi fosse a digiuno e per completezza:
Come molti sapranno per esperienza diretta, una problematica che si riscontra spesso in molti giochi in maniera più o meno evidente e a prescindere dalla scheda video, che sia una rossa o una verde, di fascia enthusiast o bassa, è quella dello screen tearing
che oltre a degradare la qualità generale dell'immagine, può risultare decisamente fastidioso, se in grande quantità, anche ai fini del gameplay.
Il problema si verifica per una mancata sincronia tra il refresh del monitor chiamato anche "Scan" (fisso a determinati scalini 120-60-30...) e l'enorme variabilità degli fps generati dalla scheda video, sia che si superi la frequenza di refresh del monitor sia che si rimanga sotto tale frequenza
Come potete vedere un determinato refresh, (in questo esempio 60hz) impone determinate tempistiche da rispettare per la scheda video nel generare un'immagine (frame), che in 1 secondo corrispondono esattamente a 16.6ms (periodico) arrotondati nell'immagine a 16, probabilmente per comodità.
Se tali tempistiche non vengono rispettate, andando fuori sincronia, si ha il fenomeno del tearing poiche verrà riprodotta una parte dell'immagine precedente e una parte di quella successiva in 1 o più dei 60 refresh che il monitor effettua una volta al secondo.
Per ovviare a questo problema sino ad ora, si faceva solitamente uso del classico v-sync che, se da una parte eliminava il problema del tearing, forzando una sincronia a scalini netti dal refresh del monitor ai suoi sottomultipli, ne creava altri due:
. il primo (se pur di entità minore) "imput lag", aggiungendo un piccolo ma percepttibile ritardo nella risposta ai comandi o cambi rapidi di visuale, maggiormente percettibile durante giochi frenetici (vedi fps)
. il secondo il "microstuttering" ovvero dei fastidiosi microscatti che minano pesantemente la fluidità di un gioco m:fuuu:
Dato che il classico v-sync riesce a risolvere 1 problema innescandone altri 2 e il v-sync adattivo (attivabile per i possessori di schede nvidia) risolve solo in parte l'aspetto del tearing, nvidia ha deciso di studiare un nuovo metodo per spazzare via tutte queste problematiche con il g-sync
--------
Per chi invece sa già tutto delle basi:
Il G-sync si presenta come un nuovo metodo per sincronizzare i due componenti chiamati in causa, monitor e scheda video, grazie ad un modulo hardware apposito compreso nel primo abbinato ad una scheda video serie 6xx-7xx (e probabilmente future se avrà successo)
Quello che otterremo è una sincronia variabile, rendendo dinamica la frequenza (o scan) del monitor a seconda degli fps che la scheda video può restituire.
Per fare un esempio pratico:
se la scheda video in un determinato scenario sarà in grado di riprodurre 55 fps (o 47, 35, 51, etc) il refresh del monitor verrà immediatamente adattato al corrispondente refresh 55/47/35/51/etc hz, in maniera che ad ogni singolo frame generato corrisponda, in perfetta sincronia, l'aggiornamento dell'immagine a schermo eliminando il tearing e senza forzare una sincronia a determinati scalini come col v-sync classico.
Adottando questo metodo, si elimina anche la questione dell'imput lag introdotto con il v-sync e l'eventuale microstuttering.
Per completare, lascio anche un video scaricabile >>QUI<< di 201Mb (fonte: G-SYNC | GeForce) che consiglio caldamente di vedere, per chi oltre alle chiacchere nel quale mi sono dilungato sicuramente :asd: voglia vedere chiaramente a lato pratico in cosa si traduce (inoltre riassume il tutto in inglese ovviamente).
Consiglio di vederlo in fullscreen accertandosi di usare un player che esegua il video a 60 fps (io ho usato GomPlayer) e controllato che lo eseguisse a 60 frame con fraps.
Concludendo, il bello di questa tecnologia è che risolve radicalmente problemi che esistono da anni e che hanno accomunato un pò tutti, a prescindere dalla fascia della propria scheda video o dal produttore (AMD o nvidia), comprendendo tutti i giochi a prescindere dalle ottimizzazioni da una o dall'altra parte, ovviamente a patto di avere un monitor che supporti tale modulo e una scheda video nvidia kepler.
L'importanza di puntare a fare i classici 60 fps fissi (ideali) inoltre, diventerà relativa, dato che si percepirà fluidità grazie alla perfetta sincronia, anche con medie di fps inferiori (senza problemi di tearing/stuttering/imput lag) e dalle recensioni traspare che il meglio di tale tecnica si riesce ad "assaporare" già dai 30 fps, considerando i 40 già un ottima soglia.
Per chi chiedeva quali monitor supporteranno tale tecnologia, al momento della presentazione e ad oggi (credo) ci siano 2 Asus, uno dei quali integra il modulo all'interno e un lo supporta all'esterno, ma al lancio sul mercato di tale tecnologia sicuramente giungeranno a disposizione modelli di molte marche.
Per chi invece dicesse "ma io ho già speso 5-600€ di monitor e lo voglio senza cambiare monitor visto la cifra che ho speso altrimenti se lo possono tenere" porgo questa mia vecchia considerazione dato che è già capitato: :asd:
p.s. il tutto è stato scritto senza nessun copia/incolla, ad eccezione delle immagini prese dall'articolo di guru3d, per quello che ho capito informandomi a tale riguardo seguendo parecchi articoli, quindi se ci fossero errori o inesattezze siete pregati di correggermi e di scusarmi se non sono stato probabilmente chiarissimo nell'esprimere i concetti.
In caso interessassero le fonti per continuare ad approfondire, dato che la mia è una sintesi, qui ci sono alcuni dei vari articoli che avevo letto:
sì, e mi sembra un ottimo risultato, c'era da aspettarselo un comportamento simile del resto è sempre un quad core tirato alto di frequenza, se ce la fai/ne hai voglia puoi provare anche crisys 3 è un gioco decisamente cpu bound ;)
Bene! Grazie, si in linea di massima mi è abbastanza chiaro ...visto che sarei molto interessato in particolare alla seguente scheda: Gigabyte GV-N770OC-2GD e vedo che tu hai la versione a 4gb mi diresti le tue impressioni pls!?
E altra curiosità sai se detta scheda è compatibile UEFI?
Una buona scheda custom, al pari di altri brand, solitamente per il modello specifico della 770 suggerisco appunto la Giga, la MSI Gaming o Lightning visto che si trova a prezzi simili (talvolta meno della Gaming) e la EVGA ACX, caschi sul sicuro con tutte, puoi scegliere in base a preferenze personali e/o prezzo
Quindi se ho capito bene le prestazioni delle due schede sono vicine e buone, io mi trovo cmq al filo di queste schede e non so decidermi, volevo chiedere consiglio a voi, gioco normalmente in fullhd e ai giochi più disparati, la mia scelta in casa Nvidia ricadrebbe su "MSI lightning" o "MSI TwinFrozr 2GD5/*OC", in casa AMD "Asus DirectCU II TOP"..
Io volevo propendere principalmente per AMD (sono curioso di provare mantle, il margine di OC e le diverse ottimizzazioni per diversi giochi, sempre se verranno fatte), mentre dal lato Nvidia sarei curioso di vedere e provare i le loro frequenze e i margini di OC..
Dite che la differenza di frequenze di stock e dei loro margini in oc possa valere la pena di lasciar perdere mantle e puntare su Nvidia ?
Vorrei avere diversi pareri perché il mio dubbio continua a perseguitare :grat:
sì, e mi sembra un ottimo risultato, c'era da aspettarselo un comportamento simile del resto è sempre un quad core tirato alto di frequenza, se ce la fai/ne hai voglia puoi provare anche crisys 3 è un gioco decisamente cpu bound ;)
Una buona scheda custom, al pari di altri brand, solitamente per il modello specifico della 770 suggerisco appunto la Giga, la MSI Gaming o Lightning visto che si trova a prezzi simili (talvolta meno della Gaming) e la EVGA ACX, caschi sul sicuro con tutte, puoi scegliere in base a preferenze personali e/o prezzo
CRISYS 3 non c'è l'ho magari in futuro se mi capita di prenderlo faccio qualche test.
a quanto posso tirarla senza cambiare le frequenza?
a 1200 ghz arriva tranquillamente?
ho notato che la scheda è abbastanza silenziosa però la temp sale a 78 gradi con ventola automatica.
meglio fare una curva manuale?
CRISYS 3 non c'è l'ho magari in futuro se mi capita di prenderlo faccio qualche test.
a quanto posso tirarla senza cambiare le frequenza?
a 1200 ghz arriva tranquillamente?
ho notato che la scheda è abbastanza silenziosa però la temp sale a 78 gradi con ventola automatica.
meglio fare una curva manuale?
Non so perchè nelle recensioni stiano così alte le temp, io so che con bf4 non supero i 74 C°.
E dire che nelle review di solito le mettono sul banchetto... BOH
Breve premessa, per introdurre l'utilità e le problematiche in gioco che si vanno a risolvere per chi fosse a digiuno e per completezza:
Come molti sapranno per esperienza diretta, una problematica che si riscontra spesso in molti giochi in maniera più o meno evidente e a prescindere dalla scheda video, che sia una rossa o una verde, di fascia enthusiast o bassa, è quella dello screen tearing
che oltre a degradare la qualità generale dell'immagine, può risultare decisamente fastidioso, se in grande quantità, anche ai fini del gameplay.
Il problema si verifica per una mancata sincronia tra il refresh del monitor chiamato anche "Scan" (fisso a determinati scalini 120-60-30...) e l'enorme variabilità degli fps generati dalla scheda video, sia che si superi la frequenza di refresh del monitor sia che si rimanga sotto tale frequenza
Come potete vedere un determinato refresh, (in questo esempio 60hz) impone determinate tempistiche da rispettare per la scheda video nel generare un'immagine (frame), che in 1 secondo corrispondono esattamente a 16.6ms (periodico) arrotondati nell'immagine a 16, probabilmente per comodità.
Se tali tempistiche non vengono rispettate, andando fuori sincronia, si ha il fenomeno del tearing poiche verrà riprodotta una parte dell'immagine precedente e una parte di quella successiva in 1 o più dei 60 refresh che il monitor effettua una volta al secondo.
Per ovviare a questo problema sino ad ora, si faceva solitamente uso del classico v-sync che, se da una parte eliminava il problema del tearing, forzando una sincronia a scalini netti dal refresh del monitor ai suoi sottomultipli, ne creava altri due:
. il primo (se pur di entità minore) "imput lag", aggiungendo un piccolo ma percepttibile ritardo nella risposta ai comandi o cambi rapidi di visuale, maggiormente percettibile durante giochi frenetici (vedi fps)
. il secondo il "microstuttering" ovvero dei fastidiosi microscatti che minano pesantemente la fluidità di un gioco m:fuuu:
Dato che il classico v-sync riesce a risolvere 1 problema innescandone altri 2 e il v-sync adattivo (attivabile per i possessori di schede nvidia) risolve solo in parte l'aspetto del tearing, nvidia ha deciso di studiare un nuovo metodo per spazzare via tutte queste problematiche con il g-sync
Il G-sync si presenta come un nuovo metodo per sincronizzare i due componenti chiamati in causa, monitor e scheda video, grazie ad un modulo hardware apposito compreso nel primo abbinato ad una scheda video serie 6xx-7xx (e probabilmente future se avrà successo)
Quello che otterremo è una sincronia variabile, rendendo dinamica la frequenza (o scan) del monitor a seconda degli fps che la scheda video può restituire.
Per fare un esempio pratico:
se la scheda video in un determinato scenario sarà in grado di riprodurre 55 fps (o 47, 35, 51, etc) il refresh del monitor verrà immediatamente adattato al corrispondente refresh 55/47/35/51/etc hz, in maniera che ad ogni singolo frame generato corrisponda, in perfetta sincronia, l'aggiornamento dell'immagine a schermo eliminando il tearing e senza forzare una sincronia a determinati scalini come col v-sync classico.
Adottando questo metodo, si elimina anche la questione dell'imput lag introdotto con il v-sync e l'eventuale microstuttering.
Per completare, lascio anche un video scaricabile >>QUI<< di 201Mb (fonte: G-SYNC | GeForce) che consiglio caldamente di vedere, per chi oltre alle chiacchere nel quale mi sono dilungato sicuramente :asd: voglia vedere chiaramente a lato pratico in cosa si traduce (inoltre riassume il tutto in inglese ovviamente).
Consiglio di vederlo in fullscreen accertandosi di usare un player che esegua il video a 60 fps (io ho usato GomPlayer) e controllato che lo eseguisse a 60 frame con fraps.
Concludendo, il bello di questa tecnologia è che risolve radicalmente problemi che esistono da anni e che hanno accomunato un pò tutti, a prescindere dalla fascia della propria scheda video o dal produttore (AMD o nvidia), comprendendo tutti i giochi a prescindere dalle ottimizzazioni da una o dall'altra parte, ovviamente a patto di avere un monitor che supporti tale modulo e una scheda video nvidia kepler.
L'importanza di puntare a fare i classici 60 fps fissi (ideali) inoltre, diventerà relativa, dato che si percepirà fluidità grazie alla perfetta sincronia, anche con medie di fps inferiori (senza problemi di tearing/stuttering/imput lag) e dalle recensioni traspare che il meglio di tale tecnica si riesce ad "assaporare" già dai 30 fps, considerando i 40 già un ottima soglia.
Per chi chiedeva quali monitor supporteranno tale tecnologia, al momento della presentazione e ad oggi (credo) ci siano 2 Asus, uno dei quali integra il modulo all'interno e un lo supporta all'esterno, ma al lancio sul mercato di tale tecnologia sicuramente giungeranno a disposizione modelli di molte marche.
Per chi invece dicesse "ma io ho già speso 5-600€ di monitor e lo voglio senza cambiare monitor visto la cifra che ho speso altrimenti se lo possono tenere" porgo questa mia vecchia considerazione dato che è già capitato: :asd:
p.s. il tutto è stato scritto senza nessun copia/incolla, ad eccezione delle immagini prese dall'articolo di guru3d, per quello che ho capito informandomi a tale riguardo seguendo parecchi articoli, quindi se ci fossero errori o inesattezze siete pregati di correggermi e di scusarmi se non sono stato probabilmente chiarissimo nell'esprimere i concetti.
In caso interessassero le fonti per continuare ad approfondire, dato che la mia è una sintesi, qui ci sono alcuni dei vari articoli che avevo letto:
Poco dopo che venne annunciato avevo trovato un articolo che diceva che all'uscita oltre ad asus anche benq e acer avevano giàin programma dei monitor con il g-sync.
Inoltre c'era scritto che in alcuni monitor ci sarà la possibilità di mettere questo chip esterno, quindi senza il bisogno di comprarne uno nuovo.
Sinceramente quest'ultima frase la vedo dura, non tanto per la fattibilità della cosa ma perchè bisognerebbe smontare il monitor secondo me, e non tutti sarebbero disposti a farlo.