UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
questa scheda è il più grande salto prestazionale gen to gen mai realizzato nella storia di nvidia anche senza DLSS,
spero che ce ne siano abbastanza per tutti.

il grosso problema sono gli scalper, i negozi stessi fanno scalping, come fa un negozio fisico a restare impunito come quello di torino (e tanti altri purtroppo)?
mi devo informare come usare la guardia di finanza per la tutela dei consumatori, tanto questi le tasse non le pagano, se sei disonesto, le tasse non le paghi.

non rispettano la concorrenza degli altri negozi, rubano schede ai negozi onesti per scalperarci sopra, non deve restare impunita sta gente.
Ma che stai dicendo ? Da gtx 7800 a gtx 8800 130% di gap. Studia :P
 
il libero mercato è questo: io posso comprare a 10 e vendere a1000 e nessuno può dire nulla, sarà il mercato a decidere se faccio bene o no.
Il denaro, in fase di acquisto, non ha lo stesso peso per tutti: spendere 2500€ dipende dalla possibilità economica che hai, se guadagni 10000€ o più al mese sai quanto te ne importa?
 
il libero mercato è questo: io posso comprare a 10 e vendere a1000 e nessuno può dire nulla, sarà il mercato a decidere se faccio bene o no.
Il denaro, in fase di acquisto, non ha lo stesso peso per tutti: spendere 2500€ dipende dalla possibilità economica che hai, se guadagni 10000€ o più al mese sai quanto te ne importa?
hai ragione, condivido però vendere prima degli altri significa essere disonesti.
--- i due messaggi sono stati uniti ---
Ma che stai dicendo ? Da gtx 7800 a gtx 8800 130% di gap. Studia :P
qui abbiamo più del 130% :)

1665517996272.webp

non stiamo tenendo conto del solo RTX senza mettere il DLSS3.
sulla 4090 si potrà usare anche il DLSS2 laddove il 3 non sarà sufficientemente "ripulito".

poi vabbè vogliamo argomentare del nulla, mi correggo, parliamo di una scheda che da un salto generazionale che non si vedeva da 15 anni, senza contare le nuove tecnologie :D
--- i due messaggi sono stati uniti ---
1665518447261.webp

questo è il primo titolo che vedrà la mia 4090
--- i due messaggi sono stati uniti ---
il DLSS 3 funzionerà solo con il "GPU Hardware Scheduling" attivo, questa funzionalità rende inutilizzabile le Desktop Duplication API di Windows quando attiva droppando le performance sulla GPU a livelli indicibili.

Sono preoccupato per i software di acquisizione video, almeno per i primi mesi finchè "Microsoft / Nvidia" non correranno ai rimedi.

ecco questa cosa non mi piace per niente.
 
Ultima modifica:
Comunque mentre voi parlate della 4090, io sto giocando a Valhalla con la 3090 bello fisso a 90 fps risoluzione 3480x1600 tutto al MAx.
Io dico che se vuoi giocare basta e avanza. Poi certo, bella scheda la 4090, nulla da dire. MA 2500 pippi..... insomma....
Però se proprio insistete me la compro...😇
 
io uso parecchio le DDUPL API per questo ho sempre il GPU Hardware Scheduling disattivato.

il primo che prende una 4090 mi fa un benchmarkino con OBS in registrazione e uno senza registrazione per favore? (OBS usa le DDUPL API di WIndows)
ovviamente con il l GPU Hardware Scheduling attivato?
--- i due messaggi sono stati uniti ---
Comunque mentre voi parlate della 4090, io sto giocando a Valhalla con la 3090 bello fisso a 90 fps risoluzione 3480x1600 tutto al MAx.
Io dico che se vuoi giocare basta e avanza. Poi certo, bella scheda la 4090, nulla da dire. MA 2500 pippi..... insomma....
concordo... bel titolo Valhalla, bravo.
 
io uso parecchio le DDUPL API per questo ho sempre il GPU Hardware Scheduling disattivato.

il primo che prende una 4090 mi fa un benchmarkino con OBS in registrazione e uno senza registrazione per favore? (OBS usa le DDUPL API di WIndows)
ovviamente con il l GPU Hardware Scheduling attivato?
--- i due messaggi sono stati uniti ---

concordo... bel titolo Valhalla, bravo.
Si, se solo si riuscisse a capire meglio cosa devi fare .... e scremando della parti ( molte) che davvero rompono le scatole
 
Si, se solo si riuscisse a capire meglio cosa devi fare .... e scremando della parti ( molte) che davvero rompono le scatole
in questo forum abbiamo degli utenti d'oro con gli AC, se hai bisogno chiedi nel thread di AC e ti sapranno aiutare.
--- i due messaggi sono stati uniti ---
nota di servizio: ma le immagini si devono mettere sotto spoiler per il regolamento?
--- i due messaggi sono stati uniti ---
il primo che prende una 4090 mi fa un benchmarkino con OBS in registrazione e uno senza registrazione per favore? (OBS usa le DDUPL API di WIndows)
ovviamente con il l GPU Hardware Scheduling attivato?
in realtà questa cosa mi interesserebbe anche con una 3000, non vorrei che è stato fixxato sulle 3000 e non lo so.
bisogna dire però a OBS di usare le API di Windows e non l'NVENC che purtroppo sono proprietarie ed Nvidia le cede solo "agli amici".
 
Ultima modifica:
qui abbiamo più del 130% :)
Ma che stai dicendo ? Sei impazzito o cosa ? 😂 🤣
La gtx 8800 era un 130% più veloce di media e non in un singolo gioco, spero tu capisca che sono due cose completamente differenti. Non sto dicendo che la rtx 4090 non sia potentissima, sto solo facendo notare che hai fatto un affermazione errata dicendo che la rtx 4090 sia il più grande gap prestazionale tra gen.
La gtx 8800 è una Leggenda tra le schede video, una leggenda immortale che soltanto chi ha vissuto quel periodo del pc gaming sa di cosa parlo. Non soltanto devastava la gtx 7800, 130% di gap come già detto ma introduceva per la prima volta i cuda core nelle gpu Nvidia. Inoltre supportava le directx 10, mentre la gtx 7800 soltando le directx 9.
Il die size della gtx 8800 era mastodontico per l'epoca e contava i doppio dei transistors della gtx 7800.
Il bus di memoria passo da 256bit a 384bit.
Prova solo per un istante ad immaginare il gap prestazionale tra una top di gamma ad una nuova che non soltanto introduceva i cuda core ma che supportava le nuove librerie grafiche, che aveva il doppio dei transistors e un bus di memoria molto più grande. Le due gpu non erano neanche lontanamente paragonabili poiché la gtx 8800 introdusse l'era delle gpu moderne come le conosciamo noi oggi.

Quindi se dici cose errate, permettimi di correggerti.
 
Ultima modifica:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/

Finalmente un passo avanti nell'efficienza energetica:
energy-efficiency.png

Comunque siamo al punto in cui non abbiamo più cpu in grado di tenere il passo delle schede video se si abbassa la risoluzione (e per questa scheda è il 2160p l'unica su cui vale la pena usarla)
Questa già in 1440p comincia a sentire effetti di bottleneck in qualche gioco
deathloop-2560-1440.png
deathloop-3840-2160.png
Si è vero ma chiediamoci perché… ci serve giocare a 140 FPS in 4K ???
Stiamo continuando a giudicare la 4090 come una scheda da gaming, spinti anche da marketing .
A 1440P cerchiamo benchmark da 200/300 FPS dicendo che “la CPU fa da bottleneck”… e che senso ha cercare più FPS a quel punto ?
Quindi davvero ci siamo fatti convincere che 2000 euro per giocare vadano bene ?

Io non sono tanto perplesso sulle scelte hardware di Nvidia, con una scheda con picchi di oltre 600W, quando sulla reazione del web in cui non c’è nessuno che dica “ma a cosa serve quell’affare ?”.
Chiaramente escludo dal discorso chi fa rendering.
 
Si è vero ma chiediamoci perché… ci serve giocare a 140 FPS in 4K ???
Stiamo continuando a giudicare la 4090 come una scheda da gaming, spinti anche da marketing .
A 1440P cerchiamo benchmark da 200/300 FPS dicendo che “la CPU fa da bottleneck”… e che senso ha cercare più FPS a quel punto ?
Quindi davvero ci siamo fatti convincere che 2000 euro per giocare vadano bene ?

Io non sono tanto perplesso sulle scelte hardware di Nvidia, con una scheda con picchi di oltre 600W, quando sulla reazione del web in cui non c’è nessuno che dica “ma a cosa serve quell’affare ?”.
Chiaramente escludo dal discorso chi fa rendering.
Queste sono le schede dei prossimi due anni almeno. Serve per i prossimi anni in cui la richiesta computazionale diventerà più importante.
 
@techsaskia A riconferma dell'approfondimento sponsorizzato di Digital Foundry, non è mai stata nominata la riduzione della risoluzione da parte del DLSS 3.0. Oggi scopriamo che anche il DLSS 3.0 ha i suoi livelli (Quality, Balance, Performance e Ultra Performance) esattamente come il vecchio DLSS 2.0 e non renderizza a risoluzione nativa i frame che poi verranno moltiplicati.

Permettetemi, quella roba è una porcheria.
Scusa i dubbi da dove derivavano ? Che il DLSS non renderizzi a risoluzione nativa è logico, e l’algoritmo agisce sulla ricostruzione dell’immagine.
A me quello che farebbe incavolare è il fatto che la versione 3.0, più efficiente, sia artificiosamente tenuta solo sulla serie 4000 per distaccare in modo più netto la serie 3000 e giustificare i prezzi delle nuove.
Se venisse confermato questo, sarebbe l’ennesima porcata di Nvidia.
 
Queste sono le schede dei prossimi due anni almeno. Serve per i prossimi anni in cui la richiesta computazionale diventerà più importante.
Io OGGI, vedo usare come benchmark giochi che vanno indietro fino al 2018 se non prima… nei prossimi due anni non vedo alcuna rivoluzione nel campo gaming in grado di cambiare il panorama in modo così netto.
è solo marketing e qualcuno ci sta cadendo con tutte le scarpe.
Parliamo del futuro e poi verifichiamo le prestazioni con Shadow of the Tomb raider e Ranbow Six…
 
Pubblicità
Pubblicità
Indietro
Top