Ho provato ora su RDR2. Si è notevole, ma necessariamente con il DLSS attivo. Almeno sulla mia 4080. Tutto al massimo con DLDSR e DLSS attivo mi fa sui 90fps. Se si toglie il DLSS forse si sende troppo.Giusto giusto, no, non devi disattivare nulla.
Segui il video qui sotto per vedere come installare il nostro sito come web app sulla tua schermata principale.
Nota: Questa funzionalità potrebbe non essere disponibile in alcuni browser.
Pubblicità
Ho provato ora su RDR2. Si è notevole, ma necessariamente con il DLSS attivo. Almeno sulla mia 4080. Tutto al massimo con DLDSR e DLSS attivo mi fa sui 90fps. Se si toglie il DLSS forse si sende troppo.Giusto giusto, no, non devi disattivare nulla.
E' uscita l'intervista allo sviluppatore di Infinity Ward sul canale di Mooreslawisdead. (Parlano della ram a 15:36)
Dicono che tra pochi anni ci saranno già i primi casi di giochi tripla A che avranno problemi a girare sulle schede da 12Gb
Io ci penserei due volte prima di prendere una 4070 / 4070ti. E poi non la comprerei.![]()
![]()
Da quanto ho capito, non si può fare solo un discorso del peso delle texture per evincere la massima vram richiesta per ogni data risoluzione.
Oltre alle texture la Vram è utilizzata per sempre più cose (ray tracing, effetti, ecc...) e questo trend è destinato ad aumentare poiché si cerca di spostare quante più possibili cose sulla gpu per aumentare le performance, e questo richiede più Vram.
8 Gb saranno pochi anche in 1080p e 12gb saranno pochi anche in 1440p.
Gli sviluppatori lottano già contro la poca vram per cercare di far stare quanto più possibile negli 8gb ma questo preclude la possibilità di creare giochi con una qualità grafica "next gen" e sembra non manchi troppo prima che si decida di relegare la fascia dai 12Gb in giù a fascia bassa (dove bisogna disattivare alcuni effetti, abbassare le texture, ecc per poter giocare). La fascia media sarà quella dei 16Gb.
Vedremo i prossimi tipla A cosa faranno, ma le stesse cose le aveva dette un altro sviluppatore (Unreal Engine 5) prima di lui.
Poi magari HardwareUnboxed, Mooreslaw, gli sviluppatori ecc... fanno tutti parte di un complotto orchestrato da amd che mette più vram sulle schede... Ma magari è soltanto la realtà![]()
È'un po`il discorso che faccio io, attualmente il 90% del mercato delle schede è fermo a 8gb di VRAM con risolzuioni che stanno tra il full hd ed il QHDNo chiaramente non è un complotto pro-AMD, ci mancherebbe. Io sono convinto che davvero gli sviluppatori avrebbero bisogno di più RAM, così come avrebbero bisogno di più potenza, soprattutto in RT. Storicamente le due cose sono andate abbastanza di pari passo e GPU che hanno sofferto veramente tanto la mancanza di VRAM la soffrivano almeno in parte anche da nuove: si pensi alla GTX1060 3GB per esempio.
Detto questo, quando si introduce una nuova tecnologia bisogna pensare anche se il mercato di riferimento è pronto per adottarla: se un gioco per girare bene ha bisogno 16GB di VRAM, tagli fuori automaticamente tutti quelli che non hanno una GPU con 16GB di VRAM, cioè praticamente tutti, perchè le schede con 16GB disponibili ad oggi sono le RX6800\RX6900 che hanno venduto ma neanche tantissimo, RTX3090 e 3090ti oltre che, ovviamente, a RTX4080 e RTX4090 e RX7900... Anche mettendo insieme il market share di tutte queste schede, sono 4 gatti rispetta alla platea complessiva di giocatori e sarà così ancora per anni, considerando che anche la fascia media di questa generazione avrà 12GB di VRAM (anche per AMD credo).
Quindi non escludo che qualche gioco con certe combinazioni di dettaglio nei prossimi anni richiederà 16GB di VRAM, ma dubito fortemente che sarà la regola. E comunque bisognerà anche capire che potenza servirà per spingere un tale livello di effetti e di dettaglio: una RTX4070, scheda che performa più o meno come una RTX3080, davvero può gestire tutti questi effetti? Ho qualche dubbio sinceramente...
Sulla 4070ti (stessa VRAM, +20% abbondante di prestazioni) già avrei qualche remora in più, anche se ad oggi non è sicuramente una scheda "VRAM-Limited".
Prova ad andare in una qualsiasi città di notte, mettiti di fronte ad un lampione o una casa che abbia una luce calda, fai uno screen con dldsr1.7x +DlssON(qualità) ed uno screen a risoluzione nativa senza DLSS, vedrai che quello con dldsr+dlss avrà una qualità superiore, e perderai non troppi fps.Ho provato ora su RDR2. Si è notevole, ma necessariamente con il DLSS attivo. Almeno sulla mia 4080. Tutto al massimo con DLDSR e DLSS attivo mi fa sui 90fps. Se si toglie il DLSS forse si sende troppo.
Si ma infatti il dettaglio è lampante. Su RDR2 si possono contare i fili d'erbaProva ad andare in una qualsiasi città di notte, mettiti di fronte ad un lampione o una casa che abbia una luce calda, fai uno screen con dldsr1.7x +DlssON(qualità) ed uno screen a risoluzione nativa senza DLSS, vedrai che quello con dldsr+dlss avrà una qualità superiore, e perderai non troppi fps.
Fammi sapere...
Si ma infatti il dettaglio è lampante. Su RDR2 si possono contare i fili d'erba. Tocca vedere in TV 4k che differenze si notano. Magari stasera se riesco provo su RE 4 remake.
E allora nell'intervista dicono cavolate perché parlano esplicitamente di Ray tracing che aumenta l'utilizzo di vram... Per via delle istruzioni avx che si porta dietro...Poi sento spesso parlare di VRAM legate al ray tracing il ray tracing è un algoritmo che non ha bisogno di VRAM!
Di nuovo, nell'intervista dicono proprio l opposto... Che servono tot giga (mi pare facessero un esempio con 4) soltanto per asset relativi ad effetti grafici e non so cosa altro. Poi ci sono le texture che sono solo una parte... BohSolo la qualità delle texture ha un peso sulla vram ed altri fattori secondari, ma quello che pesa effettivamente sono semrpe le texture
Sisi esatto, l'utilizzo del RT aumenta esponenzialmente l'uso di Vram, è sufficiente provare, fortuna che i tempi degli suttering da bottleneck di Vram sono terminati.E allora nell'intervista dicono cavolate perché parlano esplicitamente di Ray tracing che aumenta l'utilizzo di vram... Per via delle istruzioni avx che si porta dietro...
che devo dirti adesso come adesso il ray tracing non aumenta la VRAM manco per sognmo, è un algoritmo che non consuma manco 1 kb di memoria, anzi tutto quello che gira intorno al ray tracing come il DLSS ne fa diminuire il consumoE allora nell'intervista dicono cavolate perché parlano esplicitamente di Ray tracing che aumenta l'utilizzo di vram... Per via delle istruzioni avx che si porta dietro...
Poi io non so niente in merito quindi boh.
--- i due messaggi sono stati uniti ---
Di nuovo, nell'intervista dicono proprio l opposto... Che servono tot giga (mi pare facessero un esempio con 4) soltanto per asset relativi ad effetti grafici e non so cosa altro. Poi ci sono le texture che sono solo una parte... Boh
questo è FALSOSisi esatto, l'utilizzo del RT aumenta esponenzialmente l'uso di Vram, è sufficiente provare, fortuna che i tempi degli suttering da bottleneck di Vram sono terminati.
Tutti i settaggi grafici pesano sulla Vram, chi meno chi più, comunque


Io riporto i dialoghi dell'intervista ad uno sviluppatore di infinity ward
Preceduta da un'altro sviluppatore di unreal engine 5 che diceva cose simili.
Tra le altre cose, per esempio, dicevano che un effetto che consumava molta memoria era il movimento delle foglie, perché c'erano tutta una serie di vettori con nomi strani che ovviamente andavano caricati nella ram.
Poi io non ho le competenze per sapere se dicono cavolate, ma mi sembravano convinti...


Ragazzi sulle schede video la gente spende i soldi, far credere che 8GB non basteranno in QHD o in full hd E' SBAGLIATO!
il futuo non è scrittoNon è che non basteranno, è che ci saranno titoli (dicono) dove con una scheda da 8gb in 1080p o da 12gb in 1440p bisognerà rinunciare alle impostazioni ultre/alte.
Non è un dramma ma è anche qualcosa da tenere conto dato che di ram nvidia ne dà poca e le schede se le fa pagare bene.
Comunque si fa presto a vedere, si prende qualcosa tipo Control e si guarda con RT on e off quanta ram cambiase qualcuno vuole provare be venga. Io non ho giochi nel pc al momento (oltre che una 5500xt che esplode solo a pensare al RT
)
Io continuo a ribadire che ti sbagli. Anche se la gpu è una entry level che ti costringe a giocare a dettagli medio-bassi, il quantitativo di vram abbondante permette almeno di mettere le texture su ultra-alto che nella maggior parte dei casi è il settaggio grafico che cambia drasticamente la grafica in game.senza contare che tanto pure se hai 200GB di vram non vai da nessuna parte se la GPU non regge il passo, il tutto deve essere bilanciato, per questo non servivano a nulla soluzioni con 8-12GB e passa ma con GPU macellate senza pietà...
si torna sempre sui soliti discorsi, ma tanto chi pensa che servono su GPU infime continuerà a pensarlo...
a breve vedremo le 4060Ti e lisce con appena 8GB, e 4050 con 6GB, e basteranno al 101% per il target di queste GPU...