UFFICIALE NVIDIA Turing: Il Ray Tracing prende Vita

Pubblicità
Cioè giocherei a 2k e benissimo a quei giochi senza il RT ed in full hd a quelli con il RT? non credo proprio, chi è interesato a giocare a 2k continuerà a puntare alla 1070 o alla 1070 ti, spende meno e gioca benissimo in 2k, anche a 144hz.

Giocare "benissimo" a 144hz significa avere 140 fps o più... io con la 1080ti non ci riesco su alcuni giochi.. vedi pubg, tutto a ultra in 2k mi fa 90-120 fps.. se uno ha l'obbiettivo di sfruttare a pieno un 2k 144hz è sensato puntare a una 2080ti ...


PS: ma cod in 4k a 140 fps con la 2080ti?? *_* nel giro di qualche anno inizieranno ad avere senso i 4k 144hz... MAMMA MIA
--- i due messaggi sono stati uniti ---
Gia si trovano le 1080 ti a 570€... poveri rincoglioniti, che svendono le schede video e fanno abbassare il prezzo!
 
Ultima modifica:
Gia si trovano le 1080 ti a 570€... poveri rincoglioniti, che svendono le schede video e fanno abbassare il prezzo!

Secondo me, le 1080 ti non avranno più senso nemmeno a quella cifra, se le 2070 avranno prestazioni simili a 650€..
Io non acquisterei mai una scheda usata, con architettura del 2016, quando con 100€ in più ho una scheda nuova con prestazioni anche di poco inferiori
 
Giocare "benissimo" a 144hz significa avere 140 fps o più... io con la 1080ti non ci riesco su alcuni giochi.. vedi pubg, tutto a ultra in 2k mi fa 90-120 fps.. se uno ha l'obbiettivo di sfruttare a pieno un 2k 144hz è sensato puntare a una 2080ti ...


PS: ma cod in 4k a 140 fps con la 2080ti?? *_* nel giro di qualche anno inizieranno ad avere senso i 4k 144hz... MAMMA MIA
--- i due messaggi sono stati uniti ---
Gia si trovano le 1080 ti a 570€... poveri rincoglioniti, che svendono le schede video e fanno abbassare il prezzo!
Basta passare da ultra ad alto e di fps ne fai 160 anche, ultra non ha senso, specialmente su certi giochi...
La 2080ti non dovrebbe essere una scheda da QHD ma da 4k in base alla line up e ai calcoli fatti, poi ovviamente bisogna vedere i bench.
Concordo su chi (s)vende pascal ora, cose da pazzi, io credo che al momento 1080 e 1080ti siano le schede migliori, soprattutto poi se uno svende alla cieca senza sapere le reali performance di turing. Ok il RT, bello e tutto ma se per giocare in 1080p a 30fps serve una scheda da oltre 1000€ io personalmente passo e prendo una 1080 usata a 400€ e ci gioco a meravliglia per anni in QHD 165Hz

Inviato dal mio SM-N950F utilizzando Tapatalk
 
Basta passare da ultra ad alto e di fps ne fai 160 anche, ultra non ha senso, specialmente su certi giochi...
La 2080ti non dovrebbe essere una scheda da QHD ma da 4k in base alla line up e ai calcoli fatti, poi ovviamente bisogna vedere i bench.
Concordo su chi (s)vende pascal ora, cose da pazzi, io credo che al momento 1080 e 1080ti siano le schede migliori, soprattutto poi se uno svende alla cieca senza sapere le reali performance di turing. Ok il RT, bello e tutto ma se per giocare in 1080p a 30fps serve una scheda da oltre 1000€ io personalmente passo e prendo una 1080 usata a 400€ e ci gioco a meravliglia per anni in QHD 165Hz

Inviato dal mio SM-N950F utilizzando Tapatalk

Io ho preso una Ti semi nuova (fatturata il 20/08) con 350 euro + la mia 1070 (valutazione complessiva 650 euro).

Arrivo tranquillamente alla prossima gen.

Concordo sul fatto che è inutile mettere tutto ad ultra specie in giochi come PUBG o FPS dove ci sono alcuni sett che andrebbero proprio disattivati (vedi AA, occlusione ambientale motion blurr ecc)
 
Ultima modifica:
Io ho preso una Ti semi nuova (fatturata il 20/08) con 350 euro + la mia 1070 (valutazione complessiva 650 euro).

Arrivo tranquillamente alla prossima gen.

Concordo sul fatto che è inutile mettere tutto ad ultra specie in giochi come PUBG o FPS dove ci sono alcuni sett che andrebbero proprio disattivati (vedi AA, occlusione ambientale motion blurr ecc)

Beh dipende, se giochi in maniera competitiva si, alcuni settings e bene abbassarli... pero ogni tanto ci sta di sparare tutto a ultra... a me piace molto pubg graficamente!
E l’antialiasing va messo per forza a ultra, perché e un gioco mal ottimizzato e soffre di aliasing


Inviato da iPhone tramite App ufficiale di Tom\\\'s Hardware Italia Forum
 
Beh dipende, se giochi in maniera competitiva si, alcuni settings e bene abbassarli... pero ogni tanto ci sta di sparare tutto a ultra... a me piace molto pubg graficamente!
E l’antialiasing va messo per forza a ultra, perché e un gioco mal ottimizzato e soffre di aliasing


Inviato da iPhone tramite App ufficiale di Tom\\\'s Hardware Italia Forum

beh diciamo che uno gioca sempre per vincere no?

L'AA andrebbe disattivato sempre negli FPS online. Può piacere o no ma andrebbe tolto.
 
Basta passare da ultra ad alto e di fps ne fai 160 anche, ultra non ha senso, specialmente su certi giochi...
La 2080ti non dovrebbe essere una scheda da QHD ma da 4k in base alla line up e ai calcoli fatti, poi ovviamente bisogna vedere i bench.
Concordo su chi (s)vende pascal ora, cose da pazzi, io credo che al momento 1080 e 1080ti siano le schede migliori, soprattutto poi se uno svende alla cieca senza sapere le reali performance di turing. Ok il RT, bello e tutto ma se per giocare in 1080p a 30fps serve una scheda da oltre 1000€ io personalmente passo e prendo una 1080 usata a 400€ e ci gioco a meravliglia per anni in QHD 165Hz

Inviato dal mio SM-N950F utilizzando Tapatalk

Però vedi mi hai dato ragione, per avere 160fps Devi trovare un compromesso, io reputo che una scheda sia perfetta per una determinata risoluzione, quando appunto riesci a tenere i 144 Fps tutto a ultra senza compromessi. E secondo me la 2080 ti oltre ad essere finalmente una ottima scheda per il 4K, è la scheda perfetta per il 2k144hz.

E poi in giochi come pubgL’unico vantaggio che hai ad abbassare i dettagli è appunto un frame Rare più alto e stabile, Non è che se abbassi i dettagli del fogliame Vedrai meglio i nemici in mezzo ai cespugli, semplicemente vedrai i cespugli fatti di m***a i bordi frastagliati eccetera, e io a quel punto preferisco vedere tutto per bene


Inviato da iPhone tramite App ufficiale di Tom\\\'s Hardware Italia Forum
 
Sarà che son abituato a cs ma non credo che, anche negli altri fps online, conti molto la grafica. Conta creare le miglior condizioni per uccidere: a cs si gioca a risoluzioni basse, il 90% dei giocatori gioca sotto i 1280x1024, proprio per favorire la mira.
 
Sarà che son abituato a cs ma non credo che, anche negli altri fps online, conti molto la grafica. Conta creare le miglior condizioni per uccidere: a cs si gioca a risoluzioni basse, il 90% dei giocatori gioca sotto i 1280x1024, proprio per favorire la mira.

non l'ho mai capita questa cosaa dell'abbassare la risoluzione. Perche favorirebbe la mira?
 
Però vedi mi hai dato ragione, per avere 160fps Devi trovare un compromesso, io reputo che una scheda sia perfetta per una determinata risoluzione, quando appunto riesci a tenere i 144 Fps tutto a ultra senza compromessi. E secondo me la 2080 ti oltre ad essere finalmente una ottima scheda per il 4K, è la scheda perfetta per il 2k144hz.

E poi in giochi come pubgL’unico vantaggio che hai ad abbassare i dettagli è appunto un frame Rare più alto e stabile, Non è che se abbassi i dettagli del fogliame Vedrai meglio i nemici in mezzo ai cespugli, semplicemente vedrai i cespugli fatti di sheetah i bordi frastagliati eccetera, e io a quel punto preferisco vedere tutto per bene


Inviato da iPhone tramite App ufficiale di Tom\\\'s Hardware Italia Forum

Non è un compromesso, è semplicemente settare la grafica in modo furbo, se metti tutto a ultra l'ultimo AC te lo devi giocare in fhd con la 1080ti...
Non è questione di fps o altro, sparare tutto a ultra è inutile, in ogni gioco, lo fai se il gioco è talmente leggero per la tua scheda da non avere cali di fps o altro come framerate troppo basso, mancanza di fluidità, stuttering ecc.

Io gioco in QHD con una 970 e va alla grande, è soprattutto merito del gsync (questo è un altro discorso) ma anche del fatto che se non spari tutto ad ultra non ti servono 1000€ di scheda per giocare in fhd...semplice :)
Il "tutto a ultra senza compromessi" è da fessi che comprano schede inutilmente potenti. La 1080ti probabilmente è pure eccessiva per un QHD 144Hz, volendo con una 1080 si gestisce alla grande, che poi se invece di 144fps ne fai 120 il 99% della gente non è in grado di notare tale differenza ;)


Inviato dal mio SM-N950F utilizzando Tapatalk
 
non l'ho mai capita questa cosaa dell'abbassare la risoluzione. Perche favorirebbe la mira?

Perché ci sono meno pixel ed il punto verso cui vai a sparare è più " grossolano", ci sono meglio dettagli che inficiano la mira.

Chiaramente sulle lunghe/lunghissime distanze questo può diventare uno svantaggio. Bisogna trovare la quadra.
 
Non è un compromesso, è semplicemente settare la grafica in modo furbo, se metti tutto a ultra l'ultimo AC te lo devi giocare in fhd con la 1080ti...
Non è questione di fps o altro, sparare tutto a ultra è inutile, in ogni gioco, lo fai se il gioco è talmente leggero per la tua scheda da non avere cali di fps o altro come framerate troppo basso, mancanza di fluidità, stuttering ecc.

Io gioco in QHD con una 970 e va alla grande, è soprattutto merito del gsync (questo è un altro discorso) ma anche del fatto che se non spari tutto ad ultra non ti servono 1000€ di scheda per giocare in fhd...semplice :)
Il "tutto a ultra senza compromessi" è da fessi che comprano schede inutilmente potenti. La 1080ti probabilmente è pure eccessiva per un QHD 144Hz, volendo con una 1080 si gestisce alla grande, che poi se invece di 144fps ne fai 120 il 99% della gente non è in grado di notare tale differenza ;)


Inviato dal mio SM-N950F utilizzando Tapatalk

No caro mio, i giochi come AC, o gta o altri giochi in quel modo, non serve a niente avere fps alti, mentre negli sparatutto è essenziale.
Io noto la differenza tra 100 e 144fps, tantè che mi tocca attivare il gsync!
Per te sarà inutile tenere tutto a ultra, invece per me l’occhio vuole la sua parte, e ti ripeto 144fps tutto a ultra su pubg, in 2k non li fai (e non parlo di motion blur e occlusione ambientale) per farlo devi trovare un compromesso, è cosi punto, poi se per te e inutile avere tutto al massimo è un altro conto.
Pubg tutto a ultra e bellissimo ti godi a pieno il gioco, ma fare 110fps con drop fino a 90 ti assicuro che non è gratificante


Inviato da iPhone tramite App ufficiale di Tom\\\'s Hardware Italia Forum
 
Ma no, già ci sono voci abbastanza insistenti (e fondate) che su schede di fascia più bassa come un eventuale 2060 non ci sarà il chip RTX.

Le voci dicono che avranno RTrt disabilitato
Questo non significa che non possano riutilizzare i chip "venuti male" disabilitando gli RTcore da un chip TU106 ;)

Per me è un eroore anche grossolano credere che s a sto giro ci saranno le stesse dinamiche del passato.
Anche per le schede di fascia alta ci saranno diverse versioni dello stesso chip a quanto pare

Io mi sono rifatto alle dichiarazioni di quell'articolo dove riportano esattamente che ad anno nuovo è prevista l'uscita delle schede di fascia inferiore
Diverse versioni dello stesso chip che intendi?
Forse ti riferisci alle varianti "-A" binnate per clock più alti?
Se è questo non c'entra niente con il completamento della serie, è di nuovo una scelta aziendale di selezionare alcuni chip (che faccio pagare più cari) per metterli nei modelli "OC" e sulle FE (poi ovviamente possono essere messi anche sui modelli base, dipende solo da che chip gli aib richiedono ad nVidia ;))

Anche confondere con intel non c'entra un tubo, sono 2 aziende diverse e tra l'altro intel sono decenni che fa la stessa identica politica, anche dopo l'usicta di ryzen non è cambiato nulla a parte il numero dei core, quindi non c'entrea.

L'ho solo riportato come esempio, visto che da anni sta usando una politica simile sulle nuove uscite, tutto qui ;)

Qui parliamo di grafica che è un mondo diverso di ray tracing in tempo rale che è una caratteristica nuova, non si possono fare paragoni con il passato.

Sì, per chi è interessato a tale funzione (perché magari la sfrutta in ambito pro, dove è subito accessibile) ci può stare che gli vada bene che una 2070 sia passata ad un'altra fascia, ma questi sono appunto ragionamenti specifici di ogni persona

Io propio perchè ragiono con la mia testa sono intento a cerdere che mai come questa volta chi ha una 1060 o una 1070 non ha alcuna necessità di prendere una serie 20
E non è quasi mai successo prima.

E fai bene, d'altronde se non ti servono le prestazioni in più ed effettivamente in ambito "gaming" RT è acerbo, perché mai uno dovrebbe cambiare?
Anche io non sento minimamente l'esigenza di un upgrade, ma questo non vuol dire che accetti a testa bassa che queste schede salgano di fascia come niente fosse solo perché nVidia mi dice che "non sostituiscono ma si affiancano"
E' questa affermazione ad essere piena di marketing e basta (e se era vera invece di chiamartele RTX 2070-2080-2080Ti bastava chiamarle RTX 2080-2080Ti-2090, inserendo così davvero una fascia aggiuntiva)

Io ricordo benissimo la conferenza di pascal dove il comune denominatore erano presatzioni e 2k 4k e le persone correvano a vendere le 970 per fare i preordini di 1070 che già un mese prima del rilascio erano esaurite ed introvabili per mancanza di memorie
A sto giro è molto diverso il clima

E' molto diverso perché la situazione di mercato è diversa
Comunque di preordini ce ne sono parecchi, le RTX 2080Ti FE sono già esaurite ed nVidia ha già dichiarato di avere ritardi nell'espletare i preordini ;) (o ne hanno prodotte davvero poche oppure fidati che di gente che acquista ce n'è anche a sto giro :asd:)

Si sbalgia anche se si pensa solo ad un discorso di performance, perchè a sto giro chiunque avrà una scheda della serie 10 a meno che non ha necessità realedi giocare in 4k non cambierà pascal per passare a turing, perchè non ne vale la pena.

E infatti oltre ad RT nVidia le pubblicizza anche proprio per il 4k
Inoltre anche a risoluzioni inferiori per qualcuno che non si accontenta possono tornare utili: un 1440p@144fps è alla fine forse più pesante di un 4k@60fps (per il primo la scheda deve processare 530,8 milioni di pixel al secondo, per l'altro invece 497,7 milioni di pixel al secondo ;))
E anche un Full-HD@240Hz per sfruttarlo a pieno serve la stessa potenza del 4k@60Hz (hai un quarto di pixel a schermo, ma processi il quadruplo di immagini al secondo ;))

Il ray tracing in tempo reale è una grossa innovazione, ma ha bisogno di un periodo di transizione, e nvidia lo sa, nessun giocatore che oggi ha una 1070 rinuncerà a giocare (ad esempio) a 2k per avere il RT, anche se è bello e figo.
E' innovativo ma è anche un grosso azzardo.

E su questo siamo d'accordo :) (salvo casi particolari, perché poi ognuno è libero di fare le sue scelte ;))

---Per quello che riguarda le 1080 ti esiste qualche altro produttore che fa una una scheda all'altezza di quest'ultima? O anche della 1080?
Il punto è proprio questo, se nvidia decide che pascal e turing convivono lo possono fare, anche se tu credi che non lo fanno, se decidono che la 2060 esce l'anno prossimo lo possono fare, perchè nessuno gli sta col fiato sul collo.

No, ma è anche quella che nVidia ha già smesso di produrre e ne vende le rimanenze :lol:
Anche perché non ha più senso visto che sarà molto probabilmente raggiunta o quasi dalla 2070 ;) (e sicuramente superata dalla 2080 che ha lo stesso MSRP :))

Che se lo possano permettere siamo d'accordo, l'ho già ripetuto più volte anche io ;), io contesto solo l'impuntarsi sul fatto che questa sia un'aggiunta, non lo è (è un cambio generazionale realizzato su step per convenienza aziendale e situazione di mercato stagnante)

Se io voglio giocare in 2k oggi come oggi e anche quando usciranno le nuove schede prenderò una 2070?

Secondo me no se non sono proprio interessato al RT in particolare.

Cioè giocherei a 2k e benissimo a quei giochi senza il RT ed in full hd a quelli con il RT? non credo proprio, chi è interesato a giocare a 2k continuerà a puntare alla 1070 o alla 1070 ti, spende meno e gioca benissimo in 2k, anche a 144hz.

Se non avessi niente e dovessi acquistare ora dipende dalle mie esigenze
Lo so che una 1070(ti)/1080 possono bastare per il 1440p (che ad essere pignoli non è 2k ;)), ma su alcuni titoli possono richiedere dei compromessi, soprattutto per i 144Hz
Se uno stava puntando la fascia superiore (1080Ti), ad oggi andrei sicuramente su una delle nuove invece che su quella (a meno che non mi venga svenduta) visto che la revisione architetturale a questo giro è bella consistente ;) (e, come successo tra kepler e maxwell, nei prossimi periodi si potrebbe cominciare a vedere la differenza ;), e non perché nVidia castri i driver, che è solo fuffa da forum, ma perché i titoli potrebbero cominciare, tanto per fare un esempio, ad inserire più istruzioni INT, che turing processa in contemporanea alle FP mentre Pascal deve interrompere il flusso per processarle, che già ora è una funzione che darà sicuramente un aumento di prestazioni per ciclo di clock)
Quindi dipende da che scheda puntavi (ovvio che se punti ad una scheda sui 400€ queste nuove sono fuori budget)

Oltre a questo ricordati che i nuovi giochi possono essere anche più pesanti graficamente indipendentemente da funzioni come RT (tanto per fare un esempio, guarda un Superposition a preset "1080p extreme" a quanti fps gira con la tua 1070Ti :asd:, lo so che è un bench e vuole essere pesante sulla grafica appositamente, ma indica comunque che volendo caricare la grafica quando si realizza un gioco si possono mettere in ginocchio tutte le schede video attuali ;))
 
Ultima modifica da un moderatore:
Pubblicità
Pubblicità
Indietro
Top