UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
Si ma non è che deve mandare 144fps di continuo, "sfrutterà" un po' meno il monitor ma non è un grosso problema, se vuole i 144fps setta le impostazioni su medio-basso e voilà, si volaaaa! 130, anzi 144, martin garrix :D

Sent from my HTC One_M8 dual sim using Tapatalk

Ecco, condivido in pieno.. che poi i giochi che hanno VERAMENTE bisogno di essere giocati a 144fps sono più che altro gli fps tipo Doom, Bf o COD , oppure giochi di guida ecc, ma di certo un TW3 , Far Cry, Tomb Rider o altri titoli adventure vanno più che bene giocati a 60.. poi se uno è fissato con i frame scende di dettagli e via
 
Basti pensare ai giocatori pro di FPS : giocano a refresh elevatissimi e scendono di dettagli e filtri grafici sacrificando la grafica (logicamente non gli interessa la grafica nel gioco competitivo).

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
 
Solamente gli FPS competitivi, per lo più si tratta di FPS Arena, possono avere un reale senso giocati a 100+ fps, ma tutti gli altri generi, in particolare titoli tps, sono perfetti a 60 fps.
 
Solamente gli FPS competitivi, per lo più si tratta di FPS Arena, possono avere un reale senso giocati a 100+ fps, ma tutti gli altri generi, in particolare titoli tps, sono perfetti a 60 fps.

Esatto, per quello dico che una 1080ti durerà parecchio in 2k
Poi vabbè, giocarsi un tw3 a 100fps è cmq una goduria secondo me, ma non è "necessario"
 
Esatto, per quello dico che una 1080ti durerà parecchio in 2k
Poi vabbè, giocarsi un tw3 a 100fps è cmq una goduria secondo me, ma non è "necessario"

Calcolando quanto te lo fanno pagare un monitor ad alto refresh a 1440p, a maggior ragione se è pure g-sync, converrebbe prenderlo solo se si è appassionati di FPS, IMHO.
 
Calcolando quanto te lo fanno pagare un monitor ad alto refresh a 1440p, a maggior ragione se è pure g-sync, converrebbe prenderlo solo se si è appassionati di FPS, IMHO.

Beh, dipende dalla gpu.. Io ad esempio la futura Vega non la comprerei per un 1440p 60hz perché sarebbe sprecata(gtx 1080 oc+ di performance).
Che monitor vorresti abbinarci? O un 4k 60hz oppure un 1440p 144hz oppure un 3440x1440p 100hz+
 
Beh, dipende dalla gpu.. Io ad esempio la futura Vega non la comprerei per un 1440p 60hz perché sarebbe sprecata(gtx 1080 oc+ di performance).
Che monitor vorresti abbinarci? O un 4k 60hz oppure un 1440p 144hz oppure un 3440x1440p 100hz+

Direi un 4k a 60Hz può andare benissimo.
 
Si dipende sempre dai giochi a cui si gioca, ma soprattutto dal portafogli: se esso è illimitato fottesega e si compra il meglio che c'è.
Quando si è poverelli come me allora si cerca il giusto compromesso in base al budget e alle proprie preferenze.

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
 
Si dipende sempre dai giochi a cui si gioca, ma soprattutto dal portafogli: se esso è illimitato fottesega e si compra il meglio che c'è.
Quando si è poverelli come me allora si cerca il giusto compromesso in base al budget e alle proprie preferenze.

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk

Non fa una grinza.
Anzi...si gode di + nello spremere al massimo quel che sia ha...ogni frame è come un coito.
 
Non fa una grinza.
Anzi...si gode di + nello spremere al massimo quel che sia ha...ogni frame è come un coito.
Io ormai sono fuori dalla corsa ai frame a tutti i costi (nei limiti del proprio budget sempre, ricordiamolo).
Col freesync sono su un livello superiore a tutti coloro che ancora giocano su monitor del paleolitico con refresh bloccato.
Col freesync nemmeno piú il contatore nell ’ angolino tengo attivo in gioco, fottesega se faccio 50,55,60 o 65. In linea di massima non é un problema per me (e per i miei occhi super-allenati, dopo quasi 20 anni di gaming anche competitivo in FPS) che il framerate scenda anche di poco sotto i 50 nei giochi singleplayer (quando non gioco competitivo online, insomma).
Fermo restando che il contatore a me serve a nulla, a prescindere, so quando sono a 70 , a 40 o a 55 fps, per dire.

Peró la percezione cambia totalmente con sync adattivo, il fegato ringiovanisce :asd: proprio perché non devi preoccuparti e non devi convivere con la classica ossessione che attanaglia il giocatore medio, ovvero il problema di stare il piú possibile ancorato ai fatidici 60 fps.

Gente che impazzisce ancora, nel 2017, proprio perché gioca ancora su monitor NON gaming (monitor a refresh bloccato a mio parere NON sono da gaming, nel 2017 ci sono monitor freesync che costano UGUALE ai monitor con refrehs bloccato di pari specifiche).

Se il giocatore medio entrasse in quest’ottica (col tempo il sync adattivo diverrá lo standard, é solo questione di tempo, le tecnologie diventano standard col tempo, la gente deve entrarvici nell’ottica) le configurazioni si farebbero prima di tutto su monitor freesync/gsync e poi intorno a questo viene tutto il resto della build. (Lo so, legarsi ai rossi o ai verdi non é il massimo, ma per questo dovete prendervela con i verdi che vogliono fare imitare quelli della mela (marcia) ).

La corsa al framerate per quel che mi riguarda, é una roba ormai molto piú fine a sé stessa; se non si gioca competitivo, io credo che non abbia piú molto senso rincorrere i 60 fps a tutti i costi a suon di $$$$$$$$$ e quindi a forza di upgrade furiosi ogni 12-18 mesi lato VGA.

Se non avessi il freesync indubbiamente la 480 mi starebbe stretta (fHD qui) perché i 60 fps non li vedo sempre , costanti, in tutti i giochi AAA a meno che di sacrificare qualche dettaglio e filtro grafico. Quindi penserei giá (come scritto nel periodo sopra) all’upgrade e quindi altri $$$$$$ che vanno nelle casse dei rossi o dei verdi.

Invece il freesync, come mi piace definirlo, é una tecnologia che oltre ai benefici che porta nell’esperienza gaming , ''allunga'' letteralmente la vita della VGA perché libera il giocatore dalla SCHIAVITU’ (ne é soggiogato psicologicamente, prima di tutto) dei 60 FPS, conscio che sotto i 60 fps su un classico pannello del paleolitico a refresh bloccato, si gioca MAI fluidi, e l’esperienza non é mai ottimale. (In realtá nemmeno oltre i 60 é bello aver a che fare col tearing ma meglio avere solo tearing 60+ anziché tearing+stuttering 60-).

Mi sono accorto sono andato OT e chiedo scusa.
 
Quindi vorra' dire che se il gv104 avra' dimensioni simili al gp104 (300mm2),in modo da collocarsi nella sua giusta fascia di prezzo, non vedo come il chip cut potra' coprire tutto il gap con la 1080ti. Mi sembra che un guadagno del 60% (o giu' di li', ora non ricordo di preciso) con lo stesso pp, perche' alla fine i 12 sono solo un affinamento dei 16 ( e' questione di nomenclatura probabilmente potevano chiamarli semplicemente 16+ ), "solo" con un cambio di architettura sia un po' ottimistico.
Altrimenti per rispettare le previsioni ingrandiranno parecchio il gv104, ma a questo punto per forza di cose la scheda finale costera' molto di piu', e una 2070 da 500+ euro lo e' solo di nome...
Questi sono solo ragionamenti miei, pero' capisci le mie perplessita'?

Faccio un paio di considerazioni di carattere generale che possono tornare utili per avere una visione un po' più chiara, anche se di certo non hanno pretese di scientificità dato che vengono da un semplice appassionato. :asd:

Innanzitutto bisogna tenere presente che costo è superficie del chip non sono direttamente proporzionali, sebbene spesso vadano di pari passo. Il costo per mm^2 subisce sicuramente un netto aumento passando a un nuovo pp, specie negli ultimi anni: inoltre ipotizzo che scenda leggermente durante il periodo di permanenza sul mercato dello stesso mano a mano che si rientra dell'investimento iniziale e si affina la produzione.
Per di più il costo della singola GPU dipende anche dalle rese e le rese dipendono in parte dalla fonderia, ma anche dai parametri definiti dal produttore di GPU perchè un chip si possa considerare buono. Di conseguenza pensare che due GPU, soprattutto se di generazione diverse, costino uguale in termini di produzione perchè sono grandi uguali è una semplificazione eccessiva.

Venendo rapidamente alle volta, per quello che si è capito finora, i chip saranno più grossi, come è più grosso il GV100 rispetto al GP100. Dire quanto più grossi però è più complicato perchè tuttora non si capisce bene come sia fisicamente composto un SM Volta (quel tensor core è un oggetto misterioso, almeno per me). L'ipotesi più ovvia è un GV104 sui 400mm^2 e un GV102 sui 600mm^2 (che può sembrar tanto, ma ricordo che Vega è intorno ai 550), su modello delle Maxwell.
Tuttavia non per forza saranno più costosi, proprio perchè usano un pp sul mercato da anni e maggiormente affinato. Anche le rese potrebbero ragionevolemente essere più alte: con Pascal specie all'inizio, secondo me erano basse, sia perchè c'era poca disponibilità di schede sul mercato, sia perchè ho sempre visto ben poca variabilità in OC (tra 2050 e 2150MHz alla fine balla nenanche un 5%) e secondo me questo indica parametri piuttosto stringenti in fase di testing delle GPU.

Per ulteriori informazioni sulle Volta e il GV100, rimando a questo thread: https://www.tomshw.it/forum/threads/aspettando-nvidia-volta.596795/page-40

P.S I 12nm, come dici correttamente tu, sono solo un affinamento del 16 FF+ delle Pascal: in poche parole, transistor diversi, su un backend uguale, quindi densità più o meno uguale, ma migliori prestazioni in termini di efficienza e\o frequenza. Il nome 12nm è puramente una sparata di marketing: non è un die shrink.
 
Pubblicità
Pubblicità
Indietro
Top