UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Lo stai ripetendo decine di post fa, se la gpu non è al 99/100% c’è bottleneck😅. Riguardo la 4080 ti correggo subito certo c’è differenza con una 4090 infatti per dimostrarti che se voglio riesco a mandare in bottleneck anche la miglior cpu da gaming attualmente sul mercato ovvero il 7800X3D ho detto che avrei testato dei giochi in 1080p, te con una 4090 ci andrebbe anche in 1440p ma non è un bottleneck sia il mio in 1080p che il tuo in 1440p dato dalla cpu ma dall’errata scelta delle risoluzioni. Paradossalmente una 4080 in 1440p si discosta da una 4090 in percentuali molto minori di quanto lo farebbe in 4K. Ciò che significa che c’è bottleneck? No semplicemente la 4090 è una scheda per il 4K ed in 1440p non darà mai il meglio di se.
Esatto, alla base il problema è il monitor. Se lui cambiasse risoluzione, adattando una adeguata a quella gpu, non avrebbe più problemi, però come di sua abitudine, se non fa disinformazione non è contento e quindi da la colpa alla cpu.
 
Esatto, alla base il problema è il monitor. Se lui cambiasse risoluzione, adattando una adeguata a quella gpu, non avrebbe più problemi, però come di sua abitudine, se non fa disinformazione non è contento e quindi da la colpa alla cpu.
ma che dite mai la 4090 è una scheda al massimo per il full hd con i suoi 24GB di VRAM al massimo può un altro anno dopodiché iniziano a diventare stretti!
 
Ma infatti quando sento dire overkill per il 1440p capisco il grado di cultura informatica di chi scrive determinate cose, non esiste la GENERALIZZAZIONE nel mondo informatico.
Su cb2077 la 4090 è perfetta per il 1440p, così come per titoli in RT spinto, mentre per altri giochi del 2018(vedo che vanno di moda qui) la 4090 è SOVRADIMENSIONATA per il 1440p, generalizzare è sinonima di scarsa conoscenza.
--- i due messaggi sono stati uniti ---

Ma lo dico esplicitamente che la 4090 non va in full load neanche con l'ultima gen di cpu, ma hai letto almeno?
Qui mi sa che l’unico che ha 0 cultura informatica sei te!😅 L’esempio di Cyberpunk che è un gioco GPU intensive non può fare da unica verità, lo dici tu stesso che non arrivi se non in alcuni casi al massimo utilizzo della tua GPU, e su questo ti crediamo eh! Quello che non torna e che tu ci vuoi far credere che questo scarso utilizzo della GPU dipenda dalla CPU e non è così.
 
in realtà il RT sembra avere impatto anche sulla CPU.
Il motivo francamente non lo conosco, teoricamente è tutto calcolato nella GPU. Potrebbe anche essere solo un problema di drivers 🤷‍♂️
anche se ha un impatto non cambia nulla in CP è talmente dipendente dalle GPU che la mandi al 100% inq qualsiasi situazione RT non RT addirittura hai visto lo screen sta a 1080p con il dlss attivo
 
ma che dite mai la 4090 è una scheda al massimo per il full hd con i suoi 24GB di VRAM al massimo può un altro anno dopodiché iniziano a diventare stretti!

io pensavo che forse potrei metterla sull'HTPC per usi più idonei alle sue infime potenzialità, per navigazione e giochini leggeri dal lettone dovrebbe andare bene con qualche inevitabile rinuncia/compromesso...

ovviamente anche se in camera ho un OLED 55" 4K avrò l'accortezza di ridurre la risoluzione al FHD, perchè altrimenti la metterei in crisi e non mi pare il caso...
 
Esatto, alla base il problema è il monitor. Se lui cambiasse risoluzione, adattando una adeguata a quella gpu, non avrebbe più problemi, però come di sua abitudine, se non fa disinformazione non è contento e quindi da la colpa alla cpu.
Ma lui dice che vuole fare millemila fps anche nei tripla a e qui vabbè sono gusti e posso anche capirlo ma se hai preso una 4090 per il 1440p devi essere consapevole che non sfrutterai quasi mai la scheda se non fra tanti anni quando i giochi con i loro motori grafici diventeranno più complessi e pesanti e forse lì potrebbe iniziare a sfruttarla meglio. Io stesso con una 4080 mi trovo in 1440p molte volte su diversi giochi ad essere anche oltre.
 
Per rispondere a tutti quelli che mi hanno chiesto della 3080... Ho il cicalino sulla mobo, quando avvio fa i bip che manca la vga in pratica. Non so ancora cosa è successo appena ho un attimo smonto il wb e vedo. Comunque sono già partito con Amazon, se mi fanno il rimborso completo meglio così non divento matto. Vi tengo aggiornati.
 
Per rispondere a tutti quelli che mi hanno chiesto della 3080... Ho il cicalino sulla mobo, quando avvio fa i bip che manca la vga in pratica. Non so ancora cosa è successo appena ho un attimo smonto il wb e vedo. Comunque sono già partito con Amazon, se mi fanno il rimborso completo meglio così non divento matto. Vi tengo aggiornati.
Se puoi, fai rimborso completo e prendi una 4000, meglio di così cosa vuoi di più?
 
Ma lui dice che vuole fare millemila fps anche nei tripla a e qui vabbè sono gusti e posso anche capirlo ma se hai preso una 4090 per il 1440p devi essere consapevole che non sfrutterai quasi mai la scheda se non fra tanti anni quando i giochi con i loro motori grafici diventeranno più complessi e pesanti e forse lì potrebbe iniziare a sfruttarla meglio. Io stesso con una 4080 mi trovo in 1440p molte volte su diversi giochi ad essere anche oltre.
tornando a parlare seriamente senza sfottere (troppo) è chiaro che tra 2/3 anni qualche titolo che metterà in crisi pure una 4090 a 1440P ci sarà. È del resto accaduto anche con le 3090, che al lancio erano considerate schede da 4K (qualcuno fece prove pure in 8K, pubblicizzato da Nvidia al lancio !), ed oggi se la cavano ancora in 1440P senza esagerare.
Questo è il normale progresso, anche se poi nulla possiamo ancora sapere sullo sviluppo dei giochi (che potrebbe accelerare oppure entrare in una fase piatta).

Per rispondere a tutti quelli che mi hanno chiesto della 3080... Ho il cicalino sulla mobo, quando avvio fa i bip che manca la vga in pratica. Non so ancora cosa è successo appena ho un attimo smonto il wb e vedo. Comunque sono già partito con Amazon, se mi fanno il rimborso completo meglio così non divento matto. Vi tengo aggiornati.
voi fissati con il watercooling ... 😅
Controlla bene prima di friggere altro.
 
Ah no? Dipende da Mago Merlino?
Dai, buona cena va…
Ma non ci arrivi? Dipende dalla risoluzione del tuo monitor te lo stiamo dicendo in mille! La stessa Nvidia sul suo sito nei confronti che fa riporta le varie GPU sulla risoluzione per cui sono pensate. Poi ovvio che nessuno ti vieta di mettere la 4090 in 1440p ma la GPU sarà sempre sottosfruttata.
 
Pubblicità
Pubblicità
Indietro
Top