Segui il video qui sotto per vedere come installare il nostro sito come web app sulla tua schermata principale.
Nota: Questa funzionalità potrebbe non essere disponibile in alcuni browser.
Pubblicità
Proprio no ? quello lo dovrebbe fare il dlss semmai
Centinaia proprio no.
Ad arrivare a 100 probabilmente farà prima FSR di amd dato che lo avranno tutti i giochi presenti su console.
Ma chi te lo ha detto ? Tutta la pubblicità che paga nvidia immagino.
Chi dice che dover eseguire il gioco per centinaia di ore nelle costosissime server farm di nvidia per allenare una IA sia meglio di un prodotto che, a detta degli sviluppatori, si implementa nel motore dei giochi in due ore e poi si perfeziona in qualche giorno ?
Chi ti dice che nvidia continuerà a pagare (come ha fatto fino ad ora) per far usare il DLSS nei giochi, pagando tutte le spese di sviluppo (sviluppatori, server farm, ecc...) ?
--- i due messaggi sono stati uniti ---
Ho detto che è migliore (di gran lunga) del DLSS appena uscito, cioè del 1.0.
Ovvio che con 2 anni di vantaggio DLSS 2.2 (o il numero che è) è meglio ma guardando alla partenza, FSR è partito meglio. Questo dicevo, avete capito male.
--- i due messaggi sono stati uniti ---
Non uso fortnite, ma su battlefield 5, uno dei primi ad avere il RT avevano messo tutto lucido e riflettente per far vedere quanto bello fosse il ray tracing solo che sembrava che qualsiasi cosa fosse cromata e non era affatto bello, è risaputo.
La 3070 Ti consuma leggermente più, rispetto alla “liscia”. Quindi immagino che qualcosina potresti provare a farla, poi potrebbe essere non necessario eh.scusate ragazzi domanda un po' ot ma non saprei dove chiedere: io avevo settato l'undervolt seguendo la guida di crime, ora dovrei passare dalla 3070 alla 3070 ti, è necessario qualche aggiustamento su afterburner?
scusate ragazzi domanda un po' ot ma non saprei dove chiedere: io avevo settato l'undervolt seguendo la guida di crime, ora dovrei passare dalla 3070 alla 3070 ti, è necessario qualche aggiustamento su afterburner?
Il DLSS 1.0 aveva limiti ben maggiori dal FSR 1.0... Io sono fiducioso che possa migliorare molto anche quest'ultimo rapidamente.ma guardate che i limitti dell FSR sono stati già messi in evidenza da Digital Foundery
C'è un grosso guadagno di FPS ma a scapito di una qualità grafica che risente fortemetn4e delle scaling
Il video si trova in rete
MEntre per il DLSS sono stati risolt emolte altre cose coem il problema ghosting in alcune texture
Questo è un po' un autogol se cerchi di difendere nvidia (posto che non penso tu sia un fanboy eh) ?
Comunque allora immagino prenderai una scheda amd al più presto dato che Nvidia non si degna neanche di inserire lo "scheduler" a livello hardware ma lascia fare tutto alla cpu via drivers andando a pesare su di essa invece che svolgere quella funzione da se come le schede amd.
non ho capito di che parli ?Tra l'altro se non ricordo male HWUnboxed aveva trovato che il carico trasferito corrispondeva a circa 10-30Watt. Quindi, volendo essere corretti, quando si considerano i valori di potenza delle schede nvidia, bisognerebbe aggiungerci 10-30w.
Non solo, in alcuni casi, si è visto come passare da una scheda vecchia ad una più recente Nvidia, aumentasse il bottleneck sulla cpu e riducesse le prestazioni. Erano sistemi vecchi comunque ma faceva "impressione" vedere diminuire gli fps togliendo una rx570 ed aggiungendo una 2060super in un sistema (ripeto, con cpu non recente) ?
continui a sbagliare eh: lo scheduling hardware sulle RTX è attivo da molti mesi.Volendo pensare alla longevità futura, con una cpu a 6 core come hanno in molti, proprio per via di questo "spostamento di carico sulla cpu", magari le 3000 creeranno bottleneck prima delle 6000 (che hanno lo scheduler implementato nel loro chip a livello hw appunto) ed allora non ci sarà RT o DLSS o FSR che tenga.
Ovviamente si vedrà...
Mi spiace ma il tuo post mi dimostra che non hai capito come funziona il DLSS.Siccome sono da telefono, mi si scaricherebbe la batteria a scrivere poemi, cerco di essere il più sintetico possibile.
Io non sono confuso su cosa sia il RT e su cosa il DLSS. Il fatto è che se la scheda andasse bene in RT non avrei nulla da dire. Invece il RT richiede parecchie risorse ed è giusto il calo di fps. Per sopperire al calo di fps dati dal RT hanno creato il DLSS.
Il DLSS è una porcheria che ha sviluppato Nvidia (azienda che stimo parecchio) che per me non ha senso. Renderizza l’immagine a una qualità inferiore per poi spararla a risoluzione scelta durante ”l’ultimo step”.
Se io col mio 3400G, su Fortnite (con DirectX 11) imposto (cosa che ho già provato) la risoluzione a 1440p e rendering al 50%, la Vega 11 mi scarica 70/80 fps, però non vado in giro a dire che gioco in 1440p, perché gioco con una risoluzione fake porcheria.
Se avessi voluto giocare a 1080p, avrei preso un monitor 1080p 120hz e una 3060 Ti e avrei risparmiato soldi senza bisogno di attivare il DLSS per un fake 1440p.
Sono punti di vista (in questo caso, il mio), però, ripeto, io preferisco giocare a risoluzione nativa piuttosto che un fake.
Lo screenshot è preso dal mio pannello impostazioni di WindowsCosa sarebbe? Si può attivare dalle impostazioni windows?
Quel problema di overhead è reale e noto, ma l’hw scheduling non c’entra nulla.Ero convinto di no per via del driver overhead che è presente anche nelle RTX. Pensavo fosse quello a causarlo, errore mio scusate.
La situazione comunque non cambia perché (anche se non dovuto allo scheduler allora) il problema dell'overhead esiste anche sulle RTX.
Ecco un esempio che avevo visto:
(Ci sono molti altri confronti in questo video.)
In alcuni casi, una RTX3090 produce paradossalmente meno fps di una 5600xt perché aggrava notevolmente il bottleneck della cpu.
Ma accadrebbe anche con una RTX2060.
Per adesso il problema sembra presentarsi con processori fino al 2600 però in futuro, con la maggiore ed ormai certa parallelizzazione dei giochi che sfrutterà sempre di più le cpu, credo potrebbe estendersi anche alle cpu successive dal 3600 in avanti.
Dopo tutto warzone se non erro arriva a picchi del 70-80% su un 5600x quindi, sebbene presente, non resta troppo margine di sicurezza prima di arrivare al bottleneck (sebbene quei picchi di utilizzo siano molto brevi). Forse un 3600 sarebbe già a rischio.
Cosa sarebbe? Si può attivare dalle impostazioni windows?lo scheduling hardware sulle RTX c'è da un po' di tempo eh...
non ho capito di che parli ?
si, questo è un noto problema di overhead sulle schede Nvidia che rendono davvero male con CPU più vecchiotte (già con gli Zen+)
continui a sbagliare eh: lo scheduling hardware sulle RTX è attivo da molti mesi.
Visualizza allegato 411520
Teoricamente no… ma io rifarei il profilo da capo.scusate ragazzi domanda un po' ot ma non saprei dove chiedere: io avevo settato l'undervolt seguendo la guida di crime, ora dovrei passare dalla 3070 alla 3070 ti, è necessario qualche aggiustamento su afterburner?
Ero convinto di no per via del driver overhead che è presente anche nelle RTX. Pensavo fosse quello a causarlo, errore mio.lo scheduling hardware sulle RTX c'è da un po' di tempo eh...
Si ho verificato e a me è disattivata di base, conviene attivarla?Lo screenshot è preso dal mio pannello impostazioni di Windows
si conviene attivarla.Si ho verificato e a me è disattivata di base, conviene attivarla?
si ma chi monta una 3090 su un Ryzen 2600X ? ?Ero convinto di no per via del driver overhead che è presente anche nelle RTX. Pensavo fosse quello a causarlo, errore mio.
Mi scuso con @StrixyRoG, pare che il suo non fosse un autogoal allora ?
La situazione comunque non cambia perché (anche se non dovuto allo scheduler allora) il problema dell'overhead esiste anche sulle RTX.
Ecco un esempio che avevo visto:
(Ci sono molti altri confronti in questo video.)
In alcuni casi, una RTX3090 produce paradossalmente meno fps di una 5600xt perché aggrava notevolmente il bottleneck della cpu.
Ma accadrebbe anche con una RTX2060 o qualsiasi altra scheda nvidia (credo esistano esempi simili anche con una 1660ti).
Per adesso il problema sembra presentarsi con processori fino al 2600 però in futuro, con la maggiore ed ormai certa parallelizzazione dei giochi che sfrutterà sempre di più le cpu, credo potrebbe estendersi anche alle cpu successive dal 3600 in avanti.
Dopo tutto warzone, per esempio, se non erro arriva già a picchi del 70-80% su un 5600x quindi, sebbene presente, non resta troppo margine di sicurezza prima di arrivare al bottleneck (sebbene quei picchi di utilizzo siano molto brevi). Forse un 3600 sarebbe già a rischio in quel titoli ?
È una ovvio che col DLSS va meglio, la scheda è più “leggera” perché renderizza a risoluzione inferiore.Non c’è nulla di fake: se fai una partita a Control ti accorgi che a 1440P con DLSS è meglio che senza.
Qui si sta osannando (a mio parere) una cosa come il DLSS quando invece si dovrebbe osannare il RT.