UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
mi sfugge il perchè uno dovrebbe acquistare una vega 56 o 64 piuttosto che una 1070ti o una 1080 visto che hanno pari prestazioni e le verdi sono piu fresche e consumano meno e spesso si trovano anche a meno.

Perchè non è detto che le AMD vadano di meno, consumino di più, siano più calde o che costino di più delle verdi... Senza contare che AMD ti permette di fare un sistema sincronizzato col monitor spendendo molto meno.
 
anche io a mio fratello ho comprato la rx 580 invece della 1060 perchè la ritengo migliore, ma nonostante questo mi sfugge il perchè uno dovrebbe acquistare una vega 56 o 64 piuttosto che una 1070ti o una 1080 visto che hanno pari prestazioni e le verdi sono piu fresche e consumano meno e spesso si trovano anche a meno.
sinceramente non posso parlare a nome di tutti, ti dico la mia. quando ho cambiato monitor ho capito che il sync adattivo era il futuro, come ho capito la differenza tra pc e console. mi sono informato su gsync e freesync, e ho scelto il secondo per un discorso di simpatia o se vuoi chiamarla etica.. mi da fastidio che nvidia imponga questa cosa, come mi da fastidio il loro modo di "ottimizzare" i videogiochi sponsorizzati. ora se voglio sfruttare il sync adattivo del mio monitor devo acquistare radeon, e una top di gamma esce una volta ogni due anni, per questo ritengo irrilevanti le differenze di cui parli. se poi devo consigliare ad altri non ho problemi a consigliare le verdi, se fai un giro sul forum i miei post te lo confermano.
 
comunque dico che sono un fanboy ma non è del tutto vero, intendo che mi sono affezionato al marchio ma cerco di essere lucido.
è un po come quello che compra le ducati e l'altro che dice che honda è meglio perché più efficente nel rapporto prezzo prestazioni,
è vero ma la ducati è ducati. (io ho sempre avuto giapponesi)

anche io a mio fratello ho comprato la rx 580 invece della 1060 perchè la ritengo migliore, ma nonostante questo mi sfugge il perchè uno dovrebbe acquistare una vega 56 o 64 piuttosto che una 1070ti o una 1080 visto che hanno pari prestazioni e le verdi sono piu fresche e consumano meno e spesso si trovano anche a meno.
Io lo farei per il freesync.
Preferirei giocare in fhd 144Hz con freesync grazie a Vega piuttosto che in 2K 144Hz con la 1080/ti
 
Perchè non è detto che le AMD vadano di meno, consumino di più, siano più calde o che costino di più delle verdi... Senza contare che AMD ti permette di fare un sistema sincronizzato col monitor spendendo molto meno.
la vediamo abbastanza simile ma in tutta sincerità ritengo poco rilevante anche i costi maggiori del gsync, alla fine un monitor lo si acquista una volta ogni 8 anni? diciamo ogni 3-4 generazioni di gpu? è proprio un discorso di principio quello che faccio, perché mi devo legare ad un brand per sfruttare tale tecnologia?
sarebbe bello se facessero monitor che hanno entrambe le possibilità, freesync-gsync ma questo probabilmente lo vogliamo solo noi consumatori.
io spero tanto che intel tiri fuori delle gpu che sfruttano la tecnologia freesync, sogno?
 
la vediamo abbastanza simile ma in tutta sincerità ritengo poco rilevante anche i costi maggiori del gsync, alla fine un monitor lo si acquista una volta ogni 8 anni? diciamo ogni 3-4 generazioni di gpu? è proprio un discorso di principio quello che faccio, perché mi devo legare ad un brand per sfruttare tale tecnologia?
sarebbe bello se facessero monitor che hanno entrambe le possibilità, freesync-gsync ma questo probabilmente lo vogliamo solo noi consumatori.
io spero tanto che intel tiri fuori delle gpu che sfruttano la tecnologia freesync, sogno?

anche prendendo un monitor freesync ti leghi lo stesso ad amd, la differenza è che nvidia te lo fa pagare 100-150 di piu.

onestamente nelle gpu di intel ci credo meno di zero.

l'uncia cosa che vorrei è che crolli tutto questo mercato delle crypto, gia sarei felice.
 
anche prendendo un monitor freesync ti leghi lo stesso ad amd, la differenza è che nvidia te lo fa pagare 100-150 di piu.

onestamente nelle gpu di intel ci credo meno di zero.

l'uncia cosa che vorrei è che crolli tutto questo mercato delle crypto, gia sarei felice.
no no calma, la tecnologia freesync è libera! l'imposizione la fa nvidia, è fattuale.
sulle schede intel ci spero, magari faranno solo apu tipo amd ma mi è parso di capire che si parlasse di schede dedicate, vedremo...
sulle cryptovalute siamo d'accordo.
 
non so se questo video sia attendibile, sembra che a sinistra sia molto più dettagliato, sbaglio?
Appunto. Cercavo di capire se si trattava di differenze imputabili alla registrazione o proprio differenze visibili nella realtà durante il gioco. Sembra che su Nvidia la gestione delle texture sia molto meno precisa....
 
Appunto. Cercavo di capire se si trattava di differenze imputabili alla registrazione o proprio differenze visibili nella realtà durante il gioco. Sembra che su Nvidia la gestione delle texture sia molto meno precisa....
guarda io non sono uno di quelli che cerca il pelo nell'uovo, in questo video però è palese la differenza.
non so quanto sia attendibile, questo è il punto, se fosse vero sarebbe divertente :asd:
 
Per caso girando ho trovato questo :

Per una volta riesco a vedere su un video i consumi in Watt di una Nvidia.....

c'è anche questo fresco fresco
 
Per caso girando ho trovato questo :

Per una volta riesco a vedere su un video i consumi in Watt di una Nvidia.....

c'è anche questo fresco fresco
Perché in watt non c'è nessuno strumento a misurarli; sono tutti in percentuale (tdp e varia da scheda a scheda, anche usando le formule non funziona una cippa).

Invece se usi hwinfo vedi i consumi in W. Basta coadiuvarlo a riva Turner, smanettare un po' ed ecco fatto. Nota le scritte di due programmi differenti infatti.
In molti casi causa mini problemi perché hai:
Afterburner
Riva
Hwinfo + sensori attivi

Tutto in overlay su video.
Invece se usi hwinfo e riva (perdi il framerate) non capitano problemi, idem afterburner e riva (ma non vedi consumi).

Inviato dal mio MIX 2 utilizzando Tapatalk
 
anche io a mio fratello ho comprato la rx 580 invece della 1060 perchè la ritengo migliore, ma nonostante questo mi sfugge il perchè uno dovrebbe acquistare una vega 56 o 64 piuttosto che una 1070ti o una 1080 visto che hanno pari prestazioni e le verdi sono piu fresche e consumano meno e spesso si trovano anche a meno.

è tutto assai relativo, oggi.
cominciamo nel dire che il prezzo non lo guardare nemmeno... si vede un cenno, negli ultimi giorni, di calo, ma siamo ben lontani da un mercato ben bilanciato.
anche il consumo è un paramentro molto relativo, su un desktop.
l'uso che se ne fa di una GPU è talmente marginale che anche se sei un assiduo giocatore, in media non ci fai più di 2 ore al giorno.
a confronto di due schede di pari prestazioni, con la condizione di un consumo assurdo di +500W di uno rispetto all'altro ti darebbe una differenza di costo di 75 euro all'anno...visto che al massimo la differenza è di 100W, il risparmio per un hard gamer è 15 euro all'anno sulla bolletta.
sui desktop parlare di consumo è voler fare le pulci ad una talpa glabra.
diversa la questione per la compoentistica, come l'alimentatore, ma... anche qui la differenza pratica tra un 650 e un 750W è di ben pochi euri in acquisto, e se hai ben dimensionato l'alimentatore non corri pericoli.
in pratica il consumo è un parametro assai relativo su un PC high end usato al suo massimo potenziale (e poi il consumo delle nvidia non è solo relativo alla GPU, ma anche da un uso maggiore della CPU; parte del lavoro viene fatto software ed ecco la ragione per cui sono necessari processori ad elevato clock e overclock spinti sulla CPU, che portano ulteriore consumo... lo ripeto ogni volta, ma sembra che passi sempre inosservato).
per la temperatura dipende dall'ingegnerizzazione della scheda; molte custom Vega hanno temperature inferiori alle 1080.
per le prestazioni mediamente una vega 64 supera le custon 1080, se consideri giochi modermi lo fanno anche di parecchie lunghezze, posizionandosi tra 1080 e 1080 ti (quindi si dovrebbe anche riparametrizzare il consumo).

insomma, ad oggi non ci sono seri motivi, per un appassionato informato, di protendere per una o l'altra scheda in modo univoco se non il prezzo a cui vengono proposte le differenti soluzioni (e soprattutto la disponibilità).

farsi certe domande è perchè molte volte non si hanno tutte le informazioni e si è molto influenzati dal marketing (e dall'enfasi di altri utenti succubi dello stesso gioco).

ad esempio io non prenderei mai una nvidia non perchè le ritengo tecnologicamente inferiori, ma soprattutto per la politica di vendita di Nvidia.
negli anni ha imposto troppe cose al mercato ed ai consumatori e odierei la condizione che hanno portato queste pratiche scorrette a dover acquistare una CPU al doppio del suo reale valore, come ormai eravamo abituati con Intel, con progressi minimi nella tecnologia applicata (approposito l'8700K stà in offerta a 329$ su amazon.com... hai capito a cosa serve la concorrenza?!).

quindi che ti dovrei dire? se ti piace nvidia prendila tranquillamente, ma non ci sono reali ragioni per fare l'esatto contrario.

è uscita la prova di Igor sulla devil 64.
http://www.tomshardware.de/vega64-p...ufnahme-lautstarke,testberichte-242457-3.html

a mio avviso potevano fare il PCB ancora più corto e lasciare spazio ancora di più al passaggio dell'aria, ma in effetti coprono solo la parte centrale della terza ventola, quindi poco influente togliere anche quell'aletta.

realmente una bella schedona, solo che... sarà appetibile forse tra un anno.
 
la vediamo abbastanza simile ma in tutta sincerità ritengo poco rilevante anche i costi maggiori del gsync, alla fine un monitor lo si acquista una volta ogni 8 anni? diciamo ogni 3-4 generazioni di gpu? è proprio un discorso di principio quello che faccio, perché mi devo legare ad un brand per sfruttare tale tecnologia?
sarebbe bello se facessero monitor che hanno entrambe le possibilità, freesync-gsync ma questo probabilmente lo vogliamo solo noi consumatori.
io spero tanto che intel tiri fuori delle gpu che sfruttano la tecnologia freesync, sogno?
Intel dovrebbe sfruttare (ne annunciò l'adozione ad agosto 2015) l'adaptive sync VESA già sui kaby, standard che puo' essere sfruttato per far funzionare i monitor come freesync.
in pratica freesync è una specifica che si poggia anche su VESA adaptive sync; se il monitor è solo adaptive sync puoi usarlo con sinc adattivo sia con Intel iGPU che con AMD, mentre se il monitor è freesync non è detto che funzioni anche con Intel (perchè non è detto che sia Vesa standard)...
credo quindi che anche le prossime GPU Intel saranno adaptive sync, e probabilmente i monitor si potrebbero trovare anche freesync e funzionare anche con Intel.
 
E quindi siamo arrivati al dunque del famigerato GPP: AMD fuori dal brand "Republic of Gamers" di ASUS...

http://www.guru3d.com/news-story/ru...ing-amd-graphics-cards-under-a-new-brand.html

Mi aspetto che a breve altre Case aderenti all' iniziativa si sgancino dalle GPU AMD relegandole a fasce di "seconda scelta". Temo per i consumatori: Nvidia potrà fare quello che vuole sui prezzi contando sulla forza dei marchi.

EDIT: anche le altre Case hanno iniziato a smarcarsi da AMD.

https://www.techpowerup.com/243088/...-creates-arez-brand-for-radeon-graphics-cards
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top