UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
Arrivata e testata al volo la 3070, in Superposition fa il doppio circa della 1080 Overclockata in firma...8766 contro i 4556 e nei giochi provati fa circa il doppio degli FPS...quindi piu o meno in linea con quello che ci si aspettava....temperatura massima 68 gradi con ventole a stock inudibili
 
Provato brevemente cyberpunk.
Tutta altra storia.
Il ray tracing è fenomenale.
Peccato debba sistemare il bios e sopratutto le temperature.
Come consigliate di mettere le impostazioni in cp in 2k?

Inviato dal mio SM-G781B utilizzando Tapatalk
 
Provato brevemente cyberpunk.
Tutta altra storia.
Il ray tracing è fenomenale.
Peccato debba sistemare il bios e sopratutto le temperature.
Come consigliate di mettere le impostazioni in cp in 2k?

Inviato dal mio SM-G781B utilizzando Tapatalk
ti consiglio di sistemare la questione raffreddamento della CPU prima di rovinarla...
Poi avrai tempo di giocare.

Per CP2077 online troverai decine di guide sui settaggi ottimali. Usale come base per trovare i tuoi.
 
Il gsync nei benchmark va disattivato perché limita il frame rate al massimo che il tuo monitor può visualizzare. Teoricamente se il benchmark fosse molto pesante, non avresti differenze (timespy ad esempio). Ma in quel benchmark evidentemente ci sono momenti in cui la VGA potrebbe andare più veloce
Ho imparato una cosa nuova. Ma scusa allora non vale lo stesso in game? Specie giochi tipo cs:go dove il framerate conta meglio escluderlo?
 
Ma il gsync non influenza mica i benchmark, se fai 200 fps e il monitor arriva a 100 il benchmark ti registra comunque i 200 fps.
Per il resto non ha senso fare più fps del monitor naturalmente!
 
Ma il gsync non influenza mica i benchmark, se fai 200 fps e il monitor arriva a 100 il benchmark ti registra comunque i 200 fps.
Per il resto non ha senso fare più fps del monitor naturalmente!
si, il Gsync può influenzare i benchmark. TimeSpy ad esempio se ce l'hai attivo ti avvisa che il risultato potrebbe risultare falsato
 
di avere un frame rate superiore al refresh rate del monitor non ti interessa assolutamente nulla ed introduce tearing

A giochi come cs:go si viaggia a 2x rispetto al refresh rate uso ridere, io sono dalle parti dei 350 fps con schermo da 160hz. E io sono mister-nessuno il casual gamer, i pro viaggiano a 600fps con schermi da 320hz nelle giornate mosce:)

Devo approfondire il tema perché davvero non immaginavo che potesse esserci un impatto così visibe: senza gsync ho fatto più fps (nel benchmark) con la GPU 7 gradi più fresca.
 
Ho imparato una cosa nuova. Ma scusa allora non vale lo stesso in game? Specie giochi tipo cs:go dove il framerate conta meglio escluderlo?
in raltà il g-sync è diverso dal v-sybnc se superi il refresh del monitor si disattiva

Nei bench oggi non influisce

A giochi come cs:go si viaggia a 2x rispetto al refresh rate uso ridere, io sono dalle parti dei 350 fps con schermo da 160hz. E io sono mister-nessuno il casual gamer, i pro viaggiano a 600fps con schermi da 320hz nelle giornate mosce:)

Devo approfondire il tema perché davvero non immaginavo che potesse esserci un impatto così visibe: senza gsync ho fatto più fps (nel benchmark) con la GPU 7 gradi più fresca.
il g-sync non influenza il numerio di FPS che fai ma è un elemento importante per alcuni giochi evita il tearing e lo stuttering dovuto al Vsync con un minimo impatto sull'inpuit lag.
Nvidia ha anche introdotto feature che limitano ancora di più l'input lag rendendo in pratica il g-sync molto simile a come se non ci fosse

Oggi è quasi impossibile stare senza con un montiro 14hz e una scheda potente
 
Cmq ragazzi ho fatto due conti per sfizio con il mio vecchio rig da mining:

una 3080 stock al netto del costo della corrente italiana che è allucinante (tra i 20 e i 30 cent/kwh) genera un profitto di 4,5 dollari al giorno.
Naturalmente con il giusto oc/uv i profitti aumentano ulteriormente.

E' facile capire quindi che un prodotto che si autoripaga in 6 mesi (nelle peggiori condizioni) difficilmente arriverà al mercato customer in abbondanza!

Infatti hanno fatto le 3060 da 12 gb per minare i bitcoin che sono schede perfette per quel lavoro , basso costo tanta ram evviva quasi quasi ci penso anch’io...


Inviato da iPhone tramite App ufficiale di Tom\'s Hardware Italia Forum
 
Pubblicità
Pubblicità
Indietro
Top