UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Mi puoi documentare con dati ciò che affermi ? Tipo Resident evil 4 remake, il ray tracing è inutile, quindi mi puoi documentare come un titolo del genere saturi più di 8GB di vram ?
Lo potresti fare anche con HL, possibilmente senza ray tracing visto che anche li non solo è inultile ma anche rotto.
Grazie in anticipo, sono pronto a cambiare idea, sono serio. Aspetto i dati.
--- i due messaggi sono stati uniti ---

Lo so, ma infatti è un valore fisso, è identico a tutti xD
Sta messo li cosi a cazz, manco se la gente è cosi stupida da avviare il gioco con 20 software aperti.
sui dati son curioso anch'io.

anch'io son per i dati nudi e puri, e l'ho sempre detto. ma bisogna vedere dove i dati vengono presi.
è un pò come chiedere dati ad un terrapiattista... ti fornisce i dati che vuole lui!
mi vien voglia di recuperare il gioco anche solo per far le prove...

molti criticano i video sul tubo in cui vengono mostrati i dati, secondo me sbagliano a criticare senza manco guardarli quei video.
posso capire se mi mostri semplicemente il numeretto e basta, in tal caso concordo con la critica.

ma se prima del numeretto mi mostri a che risoluzione e dettagli fai quel bench e sopratutto con che hardware? li prendo decisamente in considerazione.

poi bisogna anche considerare che è il gioco al D1. se vi ricordate, di giochi rotti al D1 ne sono usciti non pochi:
CP2077
Tw3 Next-Gen
HL
Elden Ringo
DL 2
dei primi due e dell'ultimo ne posso parlare di prima mano, gli altri non li conosco se non essendomi solo informato in rete.

tutti giochi che con il passar del tempo son migliorati parecchio. (chi più, chi meno.)

cacchio! 60 sleppe?? farò il giro dei amici giocatori per vedere se qualcuno lo ha preso, ed in caso affermativo gli chiedo di passarmi la cartella e user e pass.

@Max(IT)
Concordo in pieno.
 
HL ti ho appena dimostrato il contrario, appena hanno patchato il gioco che aveva evidenti memory leak.
Mi passi il link di quella review di TLOU, che sul canale HardwareUnboxed non lo trovo ?
Infatti la prima cosa che ho fatto e cercare quel benchmark sul loro canale ma non ci sta nulla. Mi chiedo da dove lo abbia preso.
 
questa recensione dove l'hai presa ?
Perché poi voglio vedere il gioco come viene corretto se questi sono i risultati.
Anche di HL si è parlato malissimo ma dopo alcune patch la situazione è cambiata

Ultra_1440p-color.png


una 3070 ed una 3060 Ti giocabilissimi in Ultra Quality (ed io ribadisco che Ultra è spesso il setting più sbagliato)
6800 e 3070 Ti pressoché identiche nonostante il doppio della VRAM
Hogsmeade_RT_1440p-color.png


Se vogliamo togliere il RT, facciamolo pure, anzi, io direi di tornare all'età della pietra.
Cosa dovrei rispondere ad una persona che mi chiede:
Mandami un confronto in HL senza RT, perché è rotto... allora togliamo il brand RTX, tappiamoci gli occhi e facciamo finta che il RT non esista.
Chiudo qui il discorso, non ho più voglia di rispondere a qualcosa che risulta esser ovvio, un po'di onestà intellettuale sarebbe gradita, grazie.
 
Infatti la prima cosa che ho fatto e cercare quel benchmark sul loro canale ma non ci sta nulla. Mi chiedo da dove lo abbia preso.
la prima patch del gioco è stata rilasciata letteralmente ORE dopo il lancio...
E nelle note gli sviluppatori hanno scritto che stanno investigando su altri problemi segnalati.

1680195309283.webp

ma il nostro supereroe preferisce risolvere alla radice prendendo una 4090 per giocare in 720P. Così li frega per bene 😈
 
Hogsmeade_RT_1440p-color.png


Se vogliamo togliere il RT, facciamolo pure, anzi, io direi di tornare all'età della pietra.
Cosa dovrei rispondere ad una persona che mi chiede:
Mandami un confronto in HL senza RT, perché è rotto... allora togliamo il brand RTX, tappiamoci gli occhi e facciamo finta che il RT non esista.
Chiudo qui il discorso, non ho più voglia di rispondere a qualcosa che risulta esser ovvio, un po'di onestà intellettuale sarebbe gradita, grazie.
Ok da queste risposte mi sto cominciando a preoccupare. Se un gioco ti fa attivare il ray tracing mangiandoti metà degli fps in cambio di una resa grafica quasi indistinguibile dal tenere il RT off, tu lo attiveresti comunque ? Rispondi perché voglio capire fino a dove sei disposto ad arrivare pur di attivare un filtro inutile.
Io sono il primo che attiva il ray tracing, su control è meraviglioso, idem su Metro exodus enchanted edition, yberpunk 2077 ecc ma non su HL o su RE4, permettimi il termine ma è da "testicolo" attivarlo in quei giochi.
 
Hogsmeade_RT_1440p-color.png


Se vogliamo togliere il RT, facciamolo pure, anzi, io direi di tornare all'età della pietra.
Cosa dovrei rispondere ad una persona che mi chiede:
Mandami un confronto in HL senza RT, perché è rotto... allora togliamo il brand RTX, tappiamoci gli occhi e facciamo finta che il RT non esista.
Chiudo qui il discorso, non ho più voglia di rispondere a qualcosa che risulta esser ovvio, un po'di onestà intellettuale sarebbe gradita, grazie.
peccato che solo loro, notoriamente propensi a favorire AMD, abbiano rilevato quei numeri

performance-rt-2560-1440.png


ed il DLSS l'abbiamo dimenticato ?
 
Hogsmeade_RT_1440p-color.png


Se vogliamo togliere il RT, facciamolo pure, anzi, io direi di tornare all'età della pietra.
Cosa dovrei rispondere ad una persona che mi chiede:
Mandami un confronto in HL senza RT, perché è rotto... allora togliamo il brand RTX, tappiamoci gli occhi e facciamo finta che il RT non esista.
Chiudo qui il discorso, non ho più voglia di rispondere a qualcosa che risulta esser ovvio, un po'di onestà intellettuale sarebbe gradita, grazie.
L'onestà sarebbe dire che il RT di HL è rotto. Sei tu che neghi pure l'evidenza
 
Come posso sbagliare se mi baso su fatti documentati degli ultimi giochi? ci sono le slide è, test e benchmark, non è basato sul ''credo comune''.
Sono un uomo di scienza, e mi sono sempre basato su DATI, ed oggi, i dati suggeriscono che, per il 1440p nei giochi moderni, gpu al di sotto dei 12Gb di Vram, sembrano non esser più sufficienti, e questo non è assolutamente discutibile.
I giochi moderni richiedono più risorse, come è giusto che sia, HL,RE4,TLOU, tutti richiedono un alto utilizzo di Vram, vogliamo negarlo? fate pure, a me non interessa, io ho i dati e la scienza dalla mia parte, più forte di cosi non si può, chiacchiere e pregiudizi non fanno parte del mio credo;)
<3


Ma davvero parliamo di TLOU e HL come giochi che "richiedono risorse"?

Mi sa che abbiamo un altro tipo di giudizio

In HL hanno fatto un mappazzone di fatto è una grafica cross gen

TLOU rti informo che quella STESSA GRAFICA la fanno girare su ps4 con TLOU2 ( hai capito ps4)

Altro che vram ottimizzano con i piedi e vi fanno credere che per giocare ci serva chissà quale scheda grafica mentre gente gioca su ps5 con la stessa grafica e un hardware che costa 500 euro


vuoi le prove eccoti uno screen di TLOU2 versione ps4

2023032920230550.webp

fatto ieri con la scheda di acquisizione
 
Ultima modifica:
Ma davvero parliamo di TLOU e HL come giochi che "richiedono risorse"?

Mi sa che abbiamo un altro tipo di giudizio

In HL hanno fatto un mappazzone di fatto è una grafica cross gen

TLOU rti informo che quella STESSA GRAFICA la fanno girare su ps4 con TLOU2 ( hai capito ps4)

Altro che vram ottimizzano con i piedi e vi fanno credere che per giocare ci serva chissà quale scheda grafica mentre gente gioca su ps5 con la stessa grafica e un hardware che costa 500 euro
 
Pubblicità
Pubblicità
Indietro
Top