UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Ma sono solo io l'unico cretino con la 3080 che non è mai andata sotto i 70 fps in nessun gioco? Ma proprio nessuno!
Boh io a volte non capisco se ci siete o ci fate...
Il discorso future-proof sulle schede video è la cosa più assurda che abbia mai sentito. Io compro quello che mi serve ORA, e al massimo lo tiro per 3 anni, la tecnologia avanza troppo velocemente.
Hai perfettamente ragione infatti il tutto si deve incapsulare in un discorso estremistico, nel voler maxare ogni cosa ed ogni impostazione!

cosa che non serve a una fava

ma è giusto per voler testare i limiti di un sistema siamo smanettoni
 
Ultima modifica:
Ma sono solo io l'unico cretino con la 3080 che non è mai andata sotto i 70 fps in nessun gioco? Ma proprio nessuno!
Boh io a volte non capisco se ci siete o ci fate...
Il discorso future-proof sulle schede video è la cosa più assurda che abbia mai sentito. Io compro quello che mi serve ORA, e al massimo lo tiro per 3 anni, la tecnologia avanza troppo velocemente.

Te figurati che io l'ho finito giusto ieri con la 3060😂 a 60 fps in 1440p dettagli max anche! E in left behind mi stava anche a 90!
Ma infatti il tuo è un discorso perfetto! Inoltre qui sembra che se da tutto ad ultra ci troviamo a dover mettere alto alle nuvole che mai guarderemo in un videogioco ci sparano! Passare da qualità ultra a qualità medio alta cambia quasi 0. Quando invece si scende già a basso ecco in quel caso la differenza può notare i ed in caso farci pensare ad un’eventuale upgrade.
 
Ma certo che si cambia per il bottleneck, altrimenti una persona prende una 4080 piuttosto che una 4090.
Se a 2160p con un 5900x sono in bottleneck, e non sto sfruttando tutta la gpu, cosa l’ho comprata a fare?
Prendevo una 4080, risparmiavo e non mi mandava la gpu in bottleneck a 2160p.
Semplice, la 4090 è un’animale, che deve ancor esser sfruttata per bene.
--- i due messaggi sono stati uniti ---
Comunque io concordo con @Kal El quando dice che una 4090 è ottima in 1440p e che l'unico problema è che ancora non ci sono CPU in grado di sfruttarla a dovere su quella res. Avessi i soldi la prenderei anche io per giocare in 1440p.
Esatto, è proprio così, poi come visto più volte, nei giochi pesanti in rt e sponsorizzati nVidia, la 4090 è completamente sfruttata a 1440p, dimostrando che è ottima per l’alto refresh a quella risoluzione, ma come è logico che sia.
Poi, se uno vuol spendere 2000 euro e fare 80fps a 2160p con rt maxato, dlss e dlss3, si accomodino anche i professoroni :)
--- i due messaggi sono stati uniti ---
Dai ragazzuoli, voi la mettete troppo a mo' di sfida egocentrica personali fra voi, ormai quasi non si riesce a fare più una discussione (che è il fulcro di un FORUM) sui vari punti di vista personali 😉
Sono loro che vanno sull’egocentrismo, io sono assolutamente imparziale e realista XD
Si insiste ancora sul fantabottleneck qui, quando è stato dimostrato come funziona, ma nulla, si insiste ad oltranza, cambiare argomento no?
 
Ultima modifica:
ma è quello che sto dicendo da una vita

Che uno voglia avere il sistema più "bilanciato" possibile specie se ha una scheda video potente non ci piove!

Ci sta

Quando dici a @Beex che il suo 5900x "boccheggia" in 4k perchè ha usato il DLSS e la GPU non sta al 100% FAI DISINFORMAZIONE

Quando dici a me in uno screen come dead Island 2 che il 10700k è in CPU bottleneck solo perché in QHD una 4080 non lavora la 100% quando con una scheda nvidia nemmeno con un 7800x3d lo fa

E' DISINFORMAZIONE

in tutti i casi che abbiamo visto vi è un "collo di sistema" spesso dovuto semplicemente ad una poca ottimizzazione software, che viene oltretutto accentuato dall'uso di risoluzioni più basse!

Stiamo cercando di dirlo da 50 pagine!

qui nessuno contesta o a mai contestato il fatto che una scheda potente vada possibilmente accoppiata ad un processore "adeguato" e se COMPRI una 4090 insieme a tutto il sistema chiaramente ahi i soldi e puoi anche spendere per un processore che ti offra le migliori prestazioni possibili ( se vuoi farlo)

Ma avere un 5900x con una 4090 rappresenta un problema ?

La risposta è NO non ci sono problemi

qui il vero problema è che ci sta uno che guarda lo screen di afterburner vede che ne so la percentuale di utilizzo di una GPU invece che al 99% sta al 70 e grida "CPU bottleneck"

Già detta cosi fa ridere e ci stanno utenti che si fanno condizionare e gli danno pure retta!

Prendiamo un caso più estremo come il mio

Un 10700k accoppiato con una 4080, non è una situazione certo ideale, perché consapevolmente in una situazione con un processore migliore si guadagnerebbero moltissimi frame.

Ma anche in questo caso siamo in una situazione tale da dire che siamo in CPU bottleneck?

In QHD è possibile che nei giochi più CPU intensive una sorta di collo si verifichi, ma questi casi sono abbastanza rari.

Mentre in 4k la situazione migliora come è ovvio che sia

Ma anche in questo caso ci troviamo di fronte ad un problema?

La risposta è no perchè nel 90% delle situazioni / casi andrà bene, ovviamente non sto dicendo che l'accoppiamento 10700k /4080 sia una scelta "giusta" ma può essere accettabile finchè non si cambia sistema per un periodo di tempo.

Anche qui se ci facciamo 2 domande possiamo dire, si perdono frame rispetto ad una CPU più moderna?

La risposta è SI assolutamente

Esiste un problema di CPU bottleneck

La risposta è generalmente NO
Ma il mio 5900x non è in difficoltà e non intendo cambiarlo. Il mio dubbio era solo sul 3700x e 4080 in 4k
 
Comunque il giorno dopo l'uscita di TLOU (quindi non patchato e non ho verificato come sia ora la situazione) gli feci un video in 4K con DLSS QUALITY (quindi renderizzava a 1440p) per vedere le differenze su una stessa sequenza tra quello che ottenevo io con il 5800X3D ed un Ryzen 5000X. Se Interessa:


Io direi che la cache 3D allora mi ha dato una bella mano....
 
Certo che si può fare un discorso sui diversi punti di vista l’importante è che non si travisi mai la realtà.😉 Tornando al tuo discorso il prendere una scheda video più potente ora per il futuro penso è un ragionamento che poteva funzionare qualche anno fa dove tra una gen e l’altra vi era il solo incremento di prestazioni. Ora invece le cose sono cambiate ogni gen porta oltre l’incremento di prestazioni nuove tecnologie e future che cambiano anche radicalmente l’esperienza di gioco. Vedasi il Ray Tracing il DLSS 3 ed in futuro il probabile path tracing. Per tutto questo ragionamento ora conviene prendere la scheda ideale alla risoluzione in cui si vuole giocare è stare alla finestra ad ogni nuova gen per vedere se la novità presentata rappresenta o rappresenterà un valido motivo di upgrade.😉
Me ne frega poco delle nuove tecnologie, sopratutto del DLSS che anche impostato in "qualità" a me sembra sempre peggiorare la resa visiva. Piuttosto aspetto 7/8 anni e prendo una futura RTX10xxx con le ultime tecnologie piuttosto che ogni 2 anni rivendere la GPU vecchia e metterci altri 300/500€ per prendermi la top di gamma nuova (con alimentatore con nuovo standard annesso). Alla fine ho speso 1100€ 2 anni fa e li rispenderò tra 8 anni ammortizzando la spesa. Anche perchè una 3080Ti ora come ora la posso vendere a quanto? tra i 600 e gli 800€? una 4080 quanto costa? 1300€? dovrei aggiungerci 400€ più il costo di un ali nuovo con il nuovo standard (perchè col cavolo che uso gli adattatori). Arrotondiamo a una spesa totale di 550€. Praticamente sono già a metà della spesa di una ipotetica futura GPU che uscirà tra 7 anni. Se dovessi ripetere sta manfrina ad ogni gen arriverei a spendere 2000 e passa in 7 anni. Piuttosto mi sto fermo e mi godo ciò che posso e se dovrò scendere a compromessi lo farò tra qualche anno quando i giochi maxati mi andranno a meno di 80 FPS con il DLSS a qualità. Non dico che il mio ragionamento sia migliore del vostro, come il vostre non è migliore del mio. C'è chi non si può permettere di combiare gpu ad ogni gen e ce chi può e c'è chi potrebbe permetterselo ma non lo reputa necessario. Sono tutti ragionamenti validi che variano da persona a persona, non esiste il "è un ragioanemnto che poteva funzionare qualche hanno fa", esiste il "il tuo è un ragioanemnto valido ma io non lo condivido".
 
@Kal El non sei nuovo a questi toni, ti invito a calmarti e sottopongo ai super mod se il tuo messaggio qui che quoto è da sanzionare per flame.

Ma certo che si cambia per il bottleneck, altrimenti una persona prende una 4080 piuttosto che una 4090.
Se a 2160p con un 5900x sono in bottleneck, e non sto sfruttando tutta la gpu, cosa l’ho comprata a fare?
Prendevo una 4080, risparmiavo e non mi mandava la gpu in bottleneck a 2160p.
Semplice, la 4090 è un’animale, che deve ancor esser sfruttata per bene.
--- i due messaggi sono stati uniti ---

Esatto, è proprio così, poi come visto più volte, nei giochi pesanti in rt e sponsorizzati nVidia, la 4090 è completamente sfruttata a 1440p, dimostrando che è ottima per l’alto refresh a quella risoluzione, ma come è logico che sia.
Poi, se uno vuol spendere 2000 euro e fare 80fps a 2160p con rt maxato, dlss e dlss3, si accomodino anche i professoroni :)
--- i due messaggi sono stati uniti ---

Sono loro che vanno sull’egocentrismo, io sono assolutamente imparziale e realista XD
Si insiste ancora sul fantabottleneck qui, quando è stato dimostrato come funziona, ma nulla, si insiste ad oltranza, cambiare argomento no?

@crimescene @SiRiO @sp3ctrum @Mursey
 
@Kal El non sei nuovo a questi toni, ti invito a calmarti e sottopongo ai super mod se il tuo messaggio qui che quoto è da sanzionare per flame.



@crimescene @SiRiO @sp3ctrum @Mursey
QUALI TONI, SCUSAMI?
Io comunque non bado a queste cose, per me inutili, dato che dalla mia parte c'è solamente ironia e simpatia, il professorone viene anche detto da ALDO in tre uomini ed una gamba, ed è totalmente IRONICO e Simpatico, con un cenno di verità, perché no, non lo nego, c'è un gran cenno di verità nelle mie parole, ma restano simpatiche, non c'è malizia e nessun altra forma di ''ostilità''.
Poi, comunque, non sono il solo a fare le BATTUTINE, che a me piacciono anche <3
--- i due messaggi sono stati uniti ---
A me non pare di vedere flame, non vedo nulla di ostile verso nessun utente del forum
Infatti non c'è alcun flame, ma spesso, la verità è dura da digerire.
 
Me ne frega poco delle nuove tecnologie, sopratutto del DLSS che anche impostato in "qualità" a me sembra sempre peggiorare la resa visiva. Piuttosto aspetto 7/8 anni e prendo una futura RTX10xxx con le ultime tecnologie piuttosto che ogni 2 anni rivendere la GPU vecchia e metterci altri 300/500€ per prendermi la top di gamma nuova (con alimentatore con nuovo standard annesso). Alla fine ho speso 1100€ 2 anni fa e li rispenderò tra 8 anni ammortizzando la spesa. Anche perchè una 3080Ti ora come ora la posso vendere a quanto? tra i 600 e gli 800€? una 4080 quanto costa? 1300€? dovrei aggiungerci 400€ più il costo di un ali nuovo con il nuovo standard (perchè col cavolo che uso gli adattatori). Arrotondiamo a una spesa totale di 550€. Praticamente sono già a metà della spesa di una ipotetica futura GPU che uscirà tra 7 anni. Se dovessi ripetere sta manfrina ad ogni gen arriverei a spendere 2000 e passa in 7 anni. Piuttosto mi sto fermo e mi godo ciò che posso e se dovrò scendere a compromessi lo farò tra qualche anno quando i giochi maxati mi andranno a meno di 80 FPS con il DLSS a qualità. Non dico che il mio ragionamento sia migliore del vostro, come il vostre non è migliore del mio. C'è chi non si può permettere di combiare gpu ad ogni gen e ce chi può e c'è chi potrebbe permetterselo ma non lo reputa necessario. Sono tutti ragionamenti validi che variano da persona a persona, non esiste il "è un ragioanemnto che poteva funzionare qualche hanno fa", esiste il "il tuo è un ragioanemnto valido ma io non lo condivido".
Col DLSS la qualità visiva non è detto che sia peggiore. Ci sono giochi dove la qualità aumenta ed altri dove peggiora lievemente ma i pro che apporta nei casi dove non si è CPU limited sono enormemente maggiori rispetto ai contro.
Per massimizzare il valore ed ammortizzare l'acquisto di un nuovo PC uso gaming chiunque c'è passato credo che, partendo da una situazione con CPU valida e senza cambiare risoluzione dello schermo, ti può confermare di saltare sempre una generazione di GPU scendendo poi di un livello sull'acquisto della seconda scheda video per poi cambiare CPU (e quindi il sistema) entro 5 massimo 6 anni.
Esempio a grandi linee sul mio PC:
2020 - 5950X+RTX3090
2022 - Avrei dovuto saltare Ada
2024 - Avrei dovuto vendere la 3090 e prendere una RTX5070/80
2026 - Ryzen 9800X3D (è un esempio!) + RTX5070/80 (salto le RTX6XXX)
2028 - Ryzen 9800X3D + RTX7090
 
Ultima modifica:
Col DLSS la qualità visiva non è detto che sia peggiore. Ci sono giochi dove la qualità aumenta ed altri dove peggiora lievemente ma i pro che apporta nei casi dove non si è CPU limited sono enormemente maggiori rispetto ai contro.
Per massimizzare il valore ed ammortizzare l'acquisto di un nuovo PC uso gaming chiunque c'è passato credo che, partendo da una situazione con CPU valida e senza cambiare risoluzione dello schermo, ti può confermare di saltare sempre una generazione di GPU scendendo poi di un livello sull'acquisto della seconda scheda video per poi cambiare CPU (e quindi il sistema) entro 5 massimo 6 anni.
Esempio a grandi linee sul mio PC:
2020 - 5950X+RTX3090
2022 - Avrei dovuto saltare Ada
2024 - Avrei dovuto vendere la 3090 e prendere una RTX5070/80
2026 - Ryzen 9800X3D (è un esempio!) + RTX5070/80 (salto le RTX6XXX)
2028 - Ryzen 9800X3D + RTX7900
Credimi ma io la noto, la cosa che mi irrita di più è il ghosting, per fortuna gli ultimi giochi (vedi Atomic Heart) hanno l'ultima versione e si nota meno, ma comunque si nota. Tuttavia è un sacrificio accettabile per stare sopra i 100FPS in tutti i giochi tranne alcuni
 
Esempio a grandi linee sul mio PC:
2020 - 5950X+RTX3090
2022 - Si salta Ada
2024 - Si vende la 3090 e si prende una RTX5070/80
2026 - Ryzen 9800X3D (è un esempio!) + RTX5070/80
2028 - Ryzen 9800X3D + RTX7900
Alla fine sono scelte individuali se fare l'upgrade o non farlo, si guarda al portafogli ed alla passione che si ha per l'hardware ed il PcGaming in generale.
Io, possibilità permettendo (che nella vita non si sa mai), opterei per un upgrade sulla gpu ad ogni nuova gen, sempre che la generazione sia valida e l'upgrade sensato, in merito alla cpu, dipende molto dalla gpu.
Per upgrade sensato intendo, secondo il mio metro di misura, un almeno +60% di performance gen to gen, per questo sono passato dalla 3080 alla 4090, perché ho fatto un +2x in raster(netto), e fino ad un x4 in RT/raster, consumando anche meno.
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top