UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Giochi su un 27° con il DSR a 2.25x, mi fai ridere.
Hai finito il budget per un monitor 4K ?
È solamente per bypassare il bottleneck su RE4(che resta comunque), te l'ho detto, il 2160p è tutta fuffa per il gaming, non rinuncerei mai all'alto refresh, ragazzo.
 
voglio togliermi una curiosità...

nelle prime 72 ore da che vi è arrivata la scheda (ora con le ada, ma prima anche con ampere) quante di quelle ore le avete passate giocando? e quante cercando di ottimizzare la scheda?

per il sottoscritto:
nella prima settimana/10 giorni, su 20/24 ore totali di utilizzo... saran state 17/21 di test fra UV/ottimizzazione, bench, test coi giochi, e forse il resto in gioco vero e proprio.

e con questa c'è pure il Frame-Generator da testare... la donna mi conosce bene, e infatti la vedo già scuotere la testa e mormorare... (immagino sia: "lo so già! appena arriva il giocattolino nuovo... per una settimana non lo vedrò se non a cena!" e probabilmente ha ragione! per fortuna da venerdì ha il turno notturno per quasi 2 settimane.)

@Kal El
ti dirò... se la 3070 non mi dava problemi? aspettavo senza problemi le 5000. 🤷‍♂️ forse anche le 6000. (mmmhhh.... naah.)
Ho fatto circa 6 ore di test vari per avere 3 profili sulla mia 4070 ti...Stock sta a 1,1@2820... 900@2650 ( la scheda non consuma più di 150w in game e sta sotto i 55° fissi con una perdita di prestazioni irrisorie) 965@2800( frequenza stock della scheda) 1025@2950 (profilo overclock).
 
quante di quelle ore le avete passate giocando? e quante cercando di ottimizzare la scheda?
Ah ma perché si può anche giocare con l'hardware ? 😁
Di solito io prima trovo l'hardware "migliore", poi provo un po' di overclock "spinto", poi faccio ottimizzazione ed infine, già che ormai ci sono, se c'è qualche titolo che merita lo gioco ma di solito sono massimo un paio.

Ma next gen cosa, dove ? Se quel gioco è next gen io sono Maria de Filippi.
Condoglianze per suo marito.
 
gioco da pc da almeno 25 anni, e non ho mai avuto sistemi enthusiast, ma sempre sistemi medi. per cui mi son sempre divertito e per necessità virtù trovare il giusto compromesso qualità visiva/prestazioni ottimizzando le varie impostazioni nei giochi. 😉

@Dradkol
sotto una 3080? per la 3070 in giù, francamente se il denaro non è un problema... un pensierino lo farei. (in qhd. in FHD anche no!)
3080 a salire? si rimane alla finestra!

P.S.
la 4070 in qhd va come una 3080 senza FG. su risoluzioni maggiori, il bus è un problema ed un limite. (e ne sono ben consapevole.)

@Kal El
anch'io fatico a capire come un 5900 ti limiti in 4k. se in casa hai una tv 4k a 120... prova a collegarla al pc e gioca con quella in 4k nativo, ovviamente con AB attivo con tutte le info a schermo, almeno proviamo a capire se effettivamente c'è bottleneck e se davvero deriva dalla cpu o è solo leggermente cpu-limited, ovvero la gpu spinge ma non al massimo ma senza esserci cali di frame strani. (in qhd? decisamente probabile. in 4k? eh... cpu limited? possibile che non arrivi al 100% di uso. ma comunque se il frame-time è piatto? fregatene! e appena esce qualcosa di buono lato cpu, fai il cambio.)
l'immagine di prima da dove l'hai presa? sito nvidia? in tal caso: aspetta sempre l'uscita delle review serie dei giochi. credo che le software house tendano a inviare sia ad nvidia che ad amd release leggermente ottimizzate per i sistemi su cui andranno a girare. che immagino entrambe le case inviino alle SH la lista delle schede con relativo HW/SO.

in realtà, su un 4k 32" avresti una resa grafica migliore anche passando da ultra-mega-iper-massimo a mega-iper-massimo. praticamente non rinunciano a nessun fps o al massimo ad una manciata, fra 4k 32 e qhd 27 c'è un bel 25% di differenza in ppi.
https://www.calculatorsoup.com/calc...inch&compare=true&compare_last=1&action=solve

P.S.
Se avete disponibilità economica e la scimmia preme? accontentatela! al massimo è solo il portafoglio a soffrire. 🤣 🐒
 
Ci sono parecchi video in rete, anche di persone che da 5900x sono passati al 7800X3D; 2160p in RE4 è limitata da un 5900x, soprattutto quando sei con Ashley nel villaggio, fra pioggia, vento e fisica dei capelli, è tutta roba che pesa sulla cpu, mentre su un 7800x3d tiene bene botta, anche un 13900k ha dei bei drop a 2160p, ma comunque un frame rate minimo più accettabile.
La 4090 è così, è mostruoso il suo overhead sulla cpu, per questo c’è anche il frame generation, ed i DEVS non aiutano in tutto ciò.
 
pensavo a gennaio di aver fatto una fesseria a prendere una 3060 TI per 1440P, ma dopo aver visto la 4060 TI sono più felice di come ho speso i miei soldi. Pari pari a una 3070 è una vergogna. A questo punto avrebbero dovuto fare solo la versione da 16 GB allo stesso prezzo da 8. Hanno fatto la migliore pubblicità a AMD. E di certo non sarà il DLSS 3 a salvarli. Anche AMD lo ha quasi pronto e per quanto magari sarà inferiore sarà una cosa irrisoria.
 
Hanno fatto la migliore pubblicità a AMD. E di certo non sarà il DLSS 3 a salvarli. Anche AMD lo ha quasi pronto e per quanto magari sarà inferiore sarà una cosa irrisoria.
Però non sottovaluterei la capacità di amd di perdere queste occasioni con scelte altrettanto assurde in pieno stile nvidia...
 
Ah questo è sicuro che spesso si danno la zappa sui piedi da soli. Quelli del reparto vga dovrebbero imparare di più dal lato cpu in fatto di marketing
 
Ci sono parecchi video in rete, anche di persone che da 5900x sono passati al 7800X3D; 2160p in RE4 è limitata da un 5900x, soprattutto quando sei con Ashley nel villaggio, fra pioggia, vento e fisica dei capelli, è tutta roba che pesa sulla cpu, mentre su un 7800x3d tiene bene botta, anche un 13900k ha dei bei drop a 2160p, ma comunque un frame rate minimo più accettabile.
Posti qualche link a questi video di RE4 che sono curioso...
 
Ma che senso hanno queste tue frasi ? Me lo devi spiegare, zavorra cosa ?!!!! Se la mia rtx 3080 12Gb è più veloce della sua rtx 4070.
La devi smettere di scrivere fesserie, sei come la 💩 di 🐶, difficile da eliminare una volta calpestata.

Manteniamo la discussione su toni civili, per favore! Non è un linguaggio adattato al luogo in cui siamo.
Grazie.

È solamente per bypassare il bottleneck su RE4(che resta comunque), te l'ho detto, il 2160p è tutta fuffa per il gaming, non rinuncerei mai all'alto refresh, ragazzo.

Ma il punto è che tu hai la fortuna (fortuna... soldi, ecco) di avere una GPU che ti permette di avere entrambe le cose, 2160p e alto frame rate 🤣
Certo i monitor 4k 144Hz costano... Ma non mi pare sia una questione di soldi. Avessi avuto una GPU inferiore avrei capito la scelta di insistere sul QHD, ma con una 4090 no! Però oh, alla fine è il tuo sistema: ognuno se lo gestisce come vuole.
 
Ultima modifica:
Comunque, tornando all'argomento del giorno, vedo che la RTX4060ti sta avendo l'accoglienza che merita, da scheda insulsa qual è...
Vorrei citare una frase che mi è particolarmente piaciuta nella recensione di Techspot\HWUnboxed:

"In our analysis, the RTX 4060 Ti should be priced no more than $300 for the 8GB version, with the 16GB variant at $350. This would ensure better value for gamers and promote healthy market competition."

Una scheda da 300$, 350$ forse nella variante 16GB. Fine delle questioni. Invece la 8GB costa 399$ e la 16GB costa 499$ (che poi in euro diventano rispettivamente 449\559). Finchè i prezzi sono questi, mi auguro che se le tengano tutte nei loro bellissimi magazzini.

Questione memoria.
Rimango convinto che a volte se ne faccia una questione più grande di quella che è: quando vedo un benchmark in cui si sottolineano prestazioni sotto le attese a causa della mancanza di memoria mi piacerebbe anche sapere che dettagli bisogna abbassare per ritornare a una situazione normale e che impatto visivo questo comporta. Perchè dicendo che una scheda ha stuttering e 10fps di minimo la si presenta ben peggio di quello che è se abbassando le texture ad alto o a medio (le texture, non il preset, perchè è inutile abbassare ciò che non impatta sulla memoria) o attivando il DLSS la questione si risolve, magari senza nemmeno un impatto significativo su ciò che si vede a schermo (perchè non sempre tra texture a medio e ad ultra la differenza è significativa).

Tuttavia, è stupido nascondere che questa scheda video in particolare nasce memory limited, come era memory limited alla sua uscita la RTX3070. E' una tragedia? No. Ma è un ulteriore contro che ne mina un valore già inesistente.

Poi il fatto che in certe situazioni la RTX4060ti vada addirittura meno della RTX3060ti, scheda che sostituisce nella line up, non si può vedere ed è una pubblicità pessima per Nvidia. Secondo me hanno cannato di brutto anche a livello di marketing: questa doveva essere al massimo una RTX4060. L'hanno chiamata 4060ti per giustificarne il costo spropositato, ma se il nome non è supportato da prestazioni degne rischiano addirittura che sia visto ancora peggio di come sarebbe stata accolta una 4060 da 399$.
Comunque alla fine quello che importa di più è il rapporto prezzo\prestazioni, pessimo, quindi in qualsiasi modo la si guardi è una delusione.
 
anche tu, oltre al mattacchione di @Beex e al maschio alfa di @Kal El con il braccio palestrato... (ma uno solo o entrambi?) 🤣
loro però sono veri Maschi Alfa! non son mica come noi tirchioni a prendere dei cancelli... 😏🤣🤣🤣

io sono innocente! ho semplicemente sfruttato l'occasione che mi ha presentato la mia 3070 facendo la sciocca a quasi 5 mesi dall'acquisto.
ogni tanto sfarfallava il monitor per mezzo secondo... (2 o 3 volte in sessioni da 2 a 4 ore di gaming) a stock e non.
provato su questo pc e monitor una 3080 per qualche giorno e zero problemi.
provato la mia 3070 su un altro pc e altro monitor sempre in qhd... stesso problema. per fortuna amazon ci ha messo na pezza!

Chi è Beex.... non c'è più Beex , ora sono io che ho assunto il controllo.... vi piaccia o no...ah ah ahahahah
--- i due messaggi sono stati uniti ---
Ah per inciso, Beex non ha nessuna 4090, ce l'ho io... parlate con me, non ve la prendete con Beex
 
Ultima modifica:
Il DLSS3 è una gran feature ma basare le prestazioni solo su questo, lasciando un gap del 10% con una scheda di medesimo segmento della precedente generazione in raster è una mezza follia di Nvidia secondo me. Dal momento che becchi un gioco partner Amd o che non ce l'ha o a cui non è immediatamente implementato ti freghi, più avanti soprattutto con tutti questi giochi in UE5 che arriveranno. Nvidia può fare di tutto per implementarlo su più giochi possibili ma ora come ora non è che ce l'abbiano tutti.
 
Chi è Beex.... non c'è più Beex , ora sono io che ho assunto il controllo.... vi piaccia o no...ah ah ahahahah
--- i due messaggi sono stati uniti ---
Ah per inciso, Beex non ha nessuna 4090, ce l'ho io... parlate con me, non ve la prendete con Beex
ah... capisco! sei il suo orangutan! senti, visto che fra scimmie vi capite... non è che potresti avvisare la mia di starsene tranquilla qualche anno? a meno che non voglia finire sotto un ponte a saltellare mentre suono l'organetto anche solo per mangiare!

🤣 🤣 🤣

P.S.
non ho un organetto, e non so suonarlo...
 
Pubblicità
Pubblicità
Indietro
Top