UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Arrivata la bestiola...

Visualizza allegato 455969

Visualizza allegato 455970

la cosa che colpisce sono le dimensioni. Accanto alla 3080 FTW3 Ultra, una delle più grosse, si capisce quanto sia grande

Visualizza allegato 455972
Bella bella ❤️❤️❤️
Goditela 😍😍😍
--- i due messaggi sono stati uniti ---
ma infatti i discorsi di Kal Al non stanno ne in cielo ne in terra...
Ha un idea tutta sua, e del resto se compri una 4090 per giocare in 1440P è evidente che hai una concezione particolare delle prestazioni.


una vera porcheria quel adattatore... 😓


ma quando mai !?!
Poca RAM ? A 1440P ? Ma non diciamo assurdità. Peraltro in molti giochi mio figlio usa DLSS su balanced senza alcun problema...
La mia 3080 era limitata dalla Vram a 1440p, anche in A Plague Tale cominciavano gli stuttering con Rt attivo, quando la Vram era attorno ai 9Gb.
 
La mia 3080 era limitata dalla Vram a 1440p, anche in A Plague Tale cominciavano gli stuttering con Rt attivo, quando la Vram era attorno ai 9Gb.
Semplicemente impossibile.
tu confondi problemi di ottimizzazione con limiti tecnici e risolvi il problema acquistando hardware esageratamente sovrapotenziato.
I 9 GB che vedi sono ALLOCATI, non usati. Se lo fai girare su una scheda con 24 GB, ne vedrai allocati anche di più (è il normale meccanismo di predisposizione delle risorse). Peraltro ho finito A Plague Tale (bellissimo) senza nessun problema e l’ha giocato anche mio figlio con una 3070 senza stuttering. Il suo engine non fa millemila FPS, ma del resto non è necessario vista la dinamica del gioco.

A 1440P puoi esaurire la VRAM solo con scelte assurde come caricare pacchetti di texture 4K.
Ma stai passando un messaggio sbagliato.
Oggi con una 3060Ti giochi a tutto, a 1440P. Vero, nei giochi meno ottimizzati non potrai tenere tutto ad Ultra, ma questo è purtroppo generalmente valido sempre: spesso il dettaglio Ultra fornisce un impercettibile miglioramento in cambio di un hit sensibile sulle prestazioni.

Poi se mi vuoi dire che PERSONALMENTE vuoi usare il RT senza DLSS allora alzo le mani. è un TUO requisito, per quanto poco sensato IMHO, e come tale resta personale E non discutibile. Ma io oggi una 3060 Ti sui 450 euro la consiglio a chiunque non voglia svenarsi per giocare.
 
di 6700XT e 6800 ne ho installate alcune, e non ripeterò più quell'errore. Mi spiace ma non sono fake news: i driver AMD fanno pena (non che quelli Nvidia siano perfetti, sia chiaro...)


per ora ho fatto un test a "stockissimo" e con svariati software in background.
La scheda si comporta come previsto

Visualizza allegato 455984

temperature basse (specie le VRAM, scese di 15°), con 22° di Tamb, e consumo più contenuto della 3080.
Con la mia rtx 3080 12GB faccio un punteggio gpu di 18.500/18.600 punti, non ricordo precisamente, te fai 10.000 punti in più 😅
Dopo alcuni test in game ci potresti dire se noti tanto la differenza rispetto alla rtx 3080 in 1440p ?
 
Con la mia rtx 3080 12GB faccio un punteggio gpu di 18.500/18.600 punti, non ricordo precisamente, te fai 10.000 punti in più 😅
Dopo alcuni test in game ci potresti dire se noti tanto la differenza rispetto alla rtx 3080 in 1440p ?
Vuoi la verità Drad ? Ieri ho fatto un paio di partitine a due giochi che sto usando in questo momento, non pesanti (Star Wars Jedi Fallen Order e lo splendido Death Stranding) e come volevasi dimostrare … non cambia una fava 😅

Certo, 10000 punti di 3dMark (facevo poco più di 18000 con la 3080), il frame rate più alto… ma non serve a nulla.
Potrebbe fare la differenza nei giochi programmati male come Hogwarts magari. Ma torniamo al discorso di prima: ovviamo alle pecche di programmazione comprando hw pompatissimo in sovrapprezzo ?
 
Vuoi la verità Drad ? Ieri ho fatto un paio di partitine a due giochi che sto usando in questo momento, non pesanti (Star Wars Jedi Fallen Order e lo splendido Death Stranding) e come volevasi dimostrare … non cambia una fava 😅

Certo, 10000 punti di 3dMark (facevo poco più di 18000 con la 3080), il frame rate più alto… ma non serve a nulla.
Potrebbe fare la differenza nei giochi programmati male come Hogwarts magari. Ma torniamo al discorso di prima: ovviamo alle pecche di programmazione comprando hw pompatissimo in sovrapprezzo ?
Immaginavo, forse per notare la differenza dovresti avere un monitor 2160p ma onestamente a quei prezzi se li possono pure tenere.

Scusami se vado OT, ultimamente stavo rigiocando a star wars jedi fallen order, la prima volta lo giocai con la mia vecchia gtx 1070 + i7 8700K e pensavo che lo stuttering era dovuto alla gpu, ma rigiocandolo con l'attuale hardware, lo stuttering è presente lo stesso mentre gioco in 1440p tutto al max. Ho provato a mettere tutto su alto ma non cambia nulla, l'unica cosa che allevia la situazione sembra essere il cap a 60fps ma anche in quel caso è presente. La mia domanda è se anche te hai riscontrato questo problema ?
 
Immaginavo, forse per notare la differenza dovresti avere un monitor 2160p ma onestamente a quei prezzi se li possono pure tenere.
Come ho spiegato più volte, non ho intenzione di prendere un monitor 4K al momento. Trovo la risoluzione inutile sotto i 32” (io uso un 27”) ed un inutile spreco di risorse.
certo in 4K la differenza sarebbe tangibile, ma non ha senso. Ho un 1440P da 165 Hz di buona qualità e non lo cambierò a breve.

Scusami se vado OT, ultimamente stavo rigiocando a star wars jedi fallen order, la prima volta lo giocai con la mia vecchia gtx 1070 + i7 8700K e pensavo che lo stuttering era dovuto alla gpu, ma rigiocandolo con l'attuale hardware, lo stuttering è presente lo stesso mentre gioco in 1440p tutto al max. Ho provato a mettere tutto su alto ma non cambia nulla, l'unica cosa che allevia la situazione sembra essere il cap a 60fps ma anche in quel caso è presente. La mia domanda è se anche te hai riscontrato questo problema ?
Ci sto giocando da un paio di giorni, giusto un paio di capitoli. Non ho notato stuttering, ma se vuoi provo a farci caso maggiormente. Il gioco, pure se tutto ad Ultra, è tecnicamente modesto: una trasposizione da consolle non molto arricchita. A livello poligonale e d texture siamo molto indietro (Death Stranding, finito ieri, è di un altro livello !).
Ma la storia è bella, e l’universo di Star Wars lo adoro, quindi in previsione del prossimo capitolo in uscita a breve lo sto giocando.
 
Con la mia rtx 3080 12GB faccio un punteggio gpu di 18.500/18.600 punti, non ricordo precisamente, te fai 10.000 punti in più 😅
Dopo alcuni test in game ci potresti dire se noti tanto la differenza rispetto alla rtx 3080 in 1440p ?
Io ne faccio 18800😉
Vuoi la verità Drad ? Ieri ho fatto un paio di partitine a due giochi che sto usando in questo momento, non pesanti (Star Wars Jedi Fallen Order e lo splendido Death Stranding) e come volevasi dimostrare … non cambia una fava 😅

Certo, 10000 punti di 3dMark (facevo poco più di 18000 con la 3080), il frame rate più alto… ma non serve a nulla.
Potrebbe fare la differenza nei giochi programmati male come Hogwarts magari. Ma torniamo al discorso di prima: ovviamo alle pecche di programmazione comprando hw pompatissimo in sovrapprezzo ?
Sottoscrivo e 90 minuti di applausi👏
Come detto sempre, sono delle bestie, niente da dire, ma non ci servono per giocare decentemente. Basta e avanza la serie 3000 imho
 
Ma certo sempre detto, quando superi tot fps la percezione è nulla, tranne in rari casi di giochi competitivi e frenetici. Magari solo perché un pirla su YouTube dice che lui fa tanti fps e gioca meglio allora tutti i pirloni che lo seguono si fanno condizionare comprano schede spropositate per fare più fos possibili quando fino al giorno prima manco sapevano cosa fossero gli fps e cosa fosse un refresh rate.
 
Mhhh strano devo controllare a casa se ho detto un cavolata o pure no. Io ricordavo qualcosa con 18.500 ma non vorrei che fosse quello combinato.
Probabile, io combinato faccio intorno ai 17000.
Comunque la mia è liquidata, la tengo a 925mV@1950MHz adesso.
Non cambia niente, anche quando facevo 18000 in 3dMark non notavo nessuna differenza in game.
È solo il numerino😉
 
Ultima modifica:
Semplicemente impossibile.
tu confondi problemi di ottimizzazione con limiti tecnici e risolvi il problema acquistando hardware esageratamente sovrapotenziato.
I 9 GB che vedi sono ALLOCATI, non usati. Se lo fai girare su una scheda con 24 GB, ne vedrai allocati anche di più (è il normale meccanismo di predisposizione delle risorse). Peraltro ho finito A Plague Tale (bellissimo) senza nessun problema e l’ha giocato anche mio figlio con una 3070 senza stuttering. Il suo engine non fa millemila FPS, ma del resto non è necessario vista la dinamica del gioco.

A 1440P puoi esaurire la VRAM solo con scelte assurde come caricare pacchetti di texture 4K.
Ma stai passando un messaggio sbagliato.
Oggi con una 3060Ti giochi a tutto, a 1440P. Vero, nei giochi meno ottimizzati non potrai tenere tutto ad Ultra, ma questo è purtroppo generalmente valido sempre: spesso il dettaglio Ultra fornisce un impercettibile miglioramento in cambio di un hit sensibile sulle prestazioni.

Poi se mi vuoi dire che PERSONALMENTE vuoi usare il RT senza DLSS allora alzo le mani. è un TUO requisito, per quanto poco sensato IMHO, e come tale resta personale E non discutibile. Ma io oggi una 3060 Ti sui 450 euro la consiglio a chiunque non voglia svenarsi per giocare.
A plague tale con Rt su ombre(ultimo aggiornamento, prima non c’era),tutto maxato a 1440p, quando la Vram utilizzata(lascia stare il concetto di allocata o meno) arriva a 9GB comincia a fare stuttering mostruosi, al di sotto no.
Hogwarts Legacy, insegna ad esempio, come la Vram della 3080 sia “risicata”, sai come si chiama in altri termini questo?
Obsolescenza Programmata, effettuata da nVidia stessa, sia chiaro.
Le mie principali ragioni per cui mi sono tolto la 3080 sono state:
-La poca Vram per gestire il Rt a 1440p.
-L’assenza del dlss3(curiosità) unito alla necessità di avere più frame con la massima qualità d’immagine possibile.
 
A plague tale con Rt su ombre(ultimo aggiornamento, prima non c’era),tutto maxato a 1440p, quando la Vram utilizzata(lascia stare il concetto di allocata o meno) arriva a 9GB comincia a fare stuttering mostruosi, al di sotto no.
Hogwarts Legacy, insegna ad esempio, come la Vram della 3080 sia “risicata”, sai come si chiama in altri termini questo?
Obsolescenza Programmata, effettuata da nVidia stessa, sia chiaro.
Le mie principali ragioni per cui mi sono tolto la 3080 sono state:
-La poca Vram per gestire il Rt a 1440p.
-L’assenza del dlss3(curiosità) unito alla necessità di avere più frame con la massima qualità d’immagine possibile.
Il discorso della VRAM di una scheda video è riassumile così : una scheda video che ha tanta vram tende a riempirla anche se non ne ha realmente bisogno, quindi se hai una scheda da 24gb e ne vedi utilizzati 16 non significa che se non hai 16 gb non riesci a giocare a quel gioco in modo stabile senza cali.
 
Buongiorno avrei un paio di domande inerenti ad un ipotetica rtx 4070 ti:

1) in base alla mia attuale build avrei un boost prestazionale tale da giustificare la spesa o mi converrebbe rimanere così fino alla prossima gen?

2) se la prima domanda è positiva avrei problemi a collegare la prolunga rgb che ho adesso per mantenere l'estetica attuale o conviene eliminarla?

Inviato dal mio SM-G991B utilizzando Tapatalk
 
1) in base alla mia attuale build avrei un boost prestazionale tale da giustificare la spesa o mi converrebbe rimanere così fino alla prossima gen?
Rmani cosi

2) se la prima domanda è positiva avrei problemi a collegare la prolunga rgb che ho adesso per mantenere l'estetica attuale o conviene eliminarla?
Chi ha ocmprato una RTX 3000 non dovrebbe minimamente pensare di prendere una rtx 4000, questa serie verrà ricordata come una delle peggiori della storia
 
Buongiorno avrei un paio di domande inerenti ad un ipotetica rtx 4070 ti:

1) in base alla mia attuale build avrei un boost prestazionale tale da giustificare la spesa o mi converrebbe rimanere così fino alla prossima gen?

2) se la prima domanda è positiva avrei problemi a collegare la prolunga rgb che ho adesso per mantenere l'estetica attuale o conviene eliminarla?

Inviato dal mio SM-G991B utilizzando Tapatalk
Ma noooo dai, una 3070 è una gpu molto valida per il qhd, non vale la pena il cambio.
 
Pubblicità
Pubblicità
Indietro
Top