Mi spiegate una cosa sulla risoluzione?

  • Autore discussione Autore discussione Utente 291167
  • Data d'inizio Data d'inizio
Pubblicità
U

Utente 291167

Ospite
Ciao ragazzi, e scusate l'ignoranza.
Non capisco bene uan cosa, ma la RISOLUZIONE è collegata in qualche modo alla dimensione del video?

Mi spiego, io ho questo monitor
MSI Optix G241 Esports Gaming IPS Monitor - 23.8 Inch, 16:9 Full HD (1920 x 1080), IPS, 144Hz, quindi 1080p nativo.

e una scheda video RTX 2060


Ho visto un video, dove si parlava di DSR del pannello Nvidia. e scalare la risoluzione.
Giusto per provare mi son detto, ho attivato 1.78 DL e 2.25 DL così ho visto che nel gioco potevo attivare da ora risoluzioni a 2460x1440
Ho provato in Starfield, hodovuto cambiare la risoluzione dello schermo purtroppo perché da dentro il game non te lo fa fare, ed ho lanciato il gioco, cambiando appunto alla risoluzione 2460 del desktop ora attivabile ingame.

Allo stesso FRAMERATE! cosa molto strana oltretutto, ora la grafica era incredibilmente migliorata.
Ok mi son detto, ma allora posso giocare su uno schermo 1080p risoluzioni a 2k?

Ma allora sono io che mi confondo? LE RISOLUZIONI 2k, 4k, sono collegate alle dimensioni del mio monitor?
Voglio dire perché posso giocare su 2k, su uno schermo che ha le dimensioni 1080p.
Sono parechcio confuso in merito qualcuno mi spiegherebbe come funziona la cosa ? e soprattutto che voi sappiate è un buon modo per giocare cioè posso continuare a giocare i titoli così?
GRAZIE
 
Si e no. Un monitor da (es) 23'' lo puoi trovare sia 720p che 1080p che 1440p e avanti.
Certo è che più piccolo è il monitor meno si riescono a percepire i dettagli delle alte risoluzioni: non ne vale la pena.
Con le risoluzioni virtuali DSR e VSR quello che ho visto migliorare sono la nitidezza (soprattuto sugli elementi distanti) e la diminuzione di aliasing
Non è come usare un 2K nativo ma un miglioramento si può percepire
Più si sale di risoluzione più questo impatta sulle prestazioni ma questo dipende anche dal gioco e dal resto del sistema
 
Una cosa sono le dimensioni (larghezza x altezza in pixel) dei frames generati dalla scheda video, un'altra sono le dimensioni che vedi a schermo sul monitor.
E' possibile che queste 2 siano diverse, questo può essere per vari motivi (principalmente upscaling e downscaling).
Tu con il DSR hai fatto esattamente questa cosa, è un downscaling e comporta perdita di prestazioni.
 
Si e no. Un monitor da (es) 23'' lo puoi trovare sia 720p che 1080p che 1440p e avanti.
Certo è che più piccolo è il monitor meno si riescono a percepire i dettagli delle alte risoluzioni: non ne vale la pena.
Con le risoluzioni virtuali DSR e VSR quello che ho visto migliorare sono la nitidezza (soprattuto sugli elementi distanti) e la diminuzione di aliasing
Non è come usare un 2K nativo ma un miglioramento si può percepire
Più si sale di risoluzione più questo impatta sulle prestazioni ma questo dipende anche dal gioco e dal resto del sistema
Ottima spiegazione !!!
Aggiungo per l'utente @Ruttolo , che avere un monitor 24° 1920x1080p nativo, sul quale viene utilizzato il dsr per salire a 2560x1440p, offrirà una resa grafica superiore ma non come quella nel visualizzare la stessa immagine su un 27° 2560x1440p nativo.
Questo perché ?!
Perché il dsr non va magicamente ad aumentare il numero di pixel che il tuo monitor può visualizzare, ma va a "controllare" pixel per pixel in modo da aumentare la definizione, rimuovendo l'aliasing in eccesso e rendendo l'immagine molto più "pulita" e definita, come quasi, simulare una risoluzione superiore a quella nativa.
Quindi in poche parole, il dsr dovrebbe essere visto come una forma di Anti-Aliasing molto efficiente ma allo stesso tempo anche pesante, poiché aumenta il carico sulla gpu.
Non fraintendermi, il dsr va effettivamente ad aumentare la risoluzione, ma non quella che tu visualizzi a schermo, ma quella che la gpu andrà a renderizzare.
Se vuoi giocare ad una risoluzione nativa 2560x1440p, devi acquistare un monitor che supporti tale risoluzione nativamente, in modo da poter visualizzare effettivamente tutti quei pixel,

In oltre, sempre per quanto riguarda le risoluzioni, serve un pannello adatto per ogni risoluzione, altrimenti si rischia di "annullare" i benefici di una risoluzione elevata.
Per esempio, se compro un monitor 42° con una risoluzione di 2560x1440p, avrò una densità di pixel ( che da ora chiamero PPI, Pixel per Inch ) talmente bassa da avere una qualità inferiore ad un 15° 1920x1080p, nonostante la risoluzione di quest'ultimo sia inferiore. Questo perché la PPI è fondamentale per una buona resa grafica.
Una risoluzione di 2560x1440p è perfetta per un monitor 27°, ma anche con un 32°, certo perde di PPI, ma è comunque accettabile. Un monitor, per godere appieno del 4K 3840x2160p deve avere un pannello almeno di 42°, altrimenti la PPI sarà cosi elevata da causare l'effetto opposto della PPI bassa, cioè quella di avere tutti quei pixel ammassati e "spalmati" su una superficie troppo piccola per beneficiare di tale risoluzione.
Infine un monitor 1920x1080p, per avere un ottimo PPI, il pannello deve essere un 22°, anche se ormai lo standard è 23.5/24°.
 
Poi ci sarebbe il dot pitch di cui tenere conto: in un buon monitor l'alta densità non risiede esclusivamente nella quantità di pixel in una data misura ma anche dallo spazio non attivamente illuminato tra uno e quelli attigui. Ma si va leggermente OT.
 
Ah capito. credo di aver capito. Quindi la cosa è correlata.
Dunque se faccio un downscaling sto forzando il mio monitor ha contenere "più pixel" diciamo. ma comunque non sarà mai come con un video a dimensione più grande, che non ha bisogno di scalare, perché essendo più grande contiene più pixel detto in maniera rozzissima.
ci sono più o meno o non ho capito ancora nulla?
 
Ah capito. credo di aver capito. Quindi la cosa è correlata.
Dunque se faccio un downscaling sto forzando il mio monitor ha contenere "più pixel" diciamo. ma comunque non sarà mai come con un video a dimensione più grande, che non ha bisogno di scalare, perché essendo più grande contiene più pixel detto in maniera rozzissima.
ci sono più o meno o non ho capito ancora nulla?
Non è una questione di contenere o dimensioni, è una questione che il monitor non può generare quella mole di pixel, perché non è stato progettato per farlo. L'unica cosa che ottieni, utilizzando il dsr, è ciò che ti ho spiegato io nell'altro commento, cioè un aumento della definizione dell'immagine, che rimuove l'aliasing in eccesso e simula un aumento di risoluzione, """simula""".
Con il dsr stai facendo renderizzare alla tua gpu, le immagini in 2560x1440p ( o altre risoluzioni superiori ), che poi vengono downscalate alla risoluzione del tuo monitor, cioè 1920x1080p, questo ""pressare"" l'immagine renderizzata ad una risoluzione superiore, applicata ad una risoluzione inferiore, fa si che l'immagine esca più "definita" e pulita.
Quindi in definitiva ( la faccio terra terra cosi ci capiamo ), non giocherai come su un monitor nativo 1440p e non avrai neanche un immagine nativa 1080p, quello che avrai come risultato, attivando il dsr ( a parte il calo di performance, quello ovvio ) è ottenere un immagine, si nativa 1080p, ma molto, molto più definita e pulita rispetto ad un immagine nativa 1080p senza dsr.
Vale la pena utilizzare il dsr ? Si e No, dipende dai casi. Se in un gioco stai facendo tantissimi fps, tipo in un gioco che non li sfrutta come: "Batman Arkham Asylum, Resident evil 2 remake ecc", allora potrai utilizzare quelle performance in eccesso per utilizzare il dsr ed ottenere un immagine ancora più definita, invece, nel caso in cui a stento fai 60fps, eviterei di appesantire il carico di lavoro sulla gpu.
Se hai altri dubbi o domande non farti problemi a chiedere, magari non ho colto esattamente il tuo dubbio in merito alla questione.
 
Ultima modifica:
Dunque se faccio un downscaling sto forzando il mio monitor ha contenere "più pixel" diciamo. ma comunque non sarà mai come con un video a dimensione più grande, che non ha bisogno di scalare, perché essendo più grande contiene più pixel detto in maniera rozzissima.
Il "pixel" del monitor è un oggetto fisico (se ti avvicini moltissimo allo schermo vedi proprio tanti puntini)
Il "pixel" renderizzato dalla gpu è virtuale

Il tuo monitor contiene sempre e solo 1920x1080 pixel perché solo quelli sono presenti nella sua struttura e non sono modificabili in alcun modo

Se la risoluzione di render è identica ad ogni pixel fisico corrisponde univocamente un pixel virtuale, se la risoluzione è diversa il software (DSR/VSR o altro) o un hardware dedicato (scaler integrato al monitor) usano degli algoritmi per adattare l'immagine virtuale ai pixel reali, aggiungendo o rimuovendo alcune informazioni

Esempio sciocco, immagine renderizzata a 720p riprodotta su un monitor 1440p senza uso di software tipo DLSS (che sfruttano un sistema apposito per integrare le informazioni mancanti e comunque esula dal tema del topic) può venire scalata semplicemente gestendo i pixel del monitor a gruppi di 4 avendo a disposizione il doppio dei pixel fisici su ogni direzione

Se invece fai il viceversa, ossia render a 1440p su monitor a 720p ciò che si occupa di scalare la risoluzione deve decidere per ogni gruppo di 4 pixel renderizzati dalla gpu che colore assegnare al corrispondente pixel fisico del monitor, sfruttando magari anche le informazioni dei pixel virtuali vicini
Questo è ad esempio ciò che fa il DSR a risoluzione "2X" (ho usato questo per gli esempi perché è più facile fare i raffronti, con altri valori userà gruppi differenti di pixel, ma il concetto è il medesimo)

Come ti hanno detto il DSR consideralo come se fosse un antialiasing, di fatto molto simile al SSAA
 
Il "pixel" del monitor è un oggetto fisico (se ti avvicini moltissimo allo schermo vedi proprio tanti puntini)
Il "pixel" renderizzato dalla gpu è virtuale

Il tuo monitor contiene sempre e solo 1920x1080 pixel perché solo quelli sono presenti nella sua struttura e non sono modificabili in alcun modo

Se la risoluzione di render è identica ad ogni pixel fisico corrisponde univocamente un pixel virtuale, se la risoluzione è diversa il software (DSR/VSR o altro) o un hardware dedicato (scaler integrato al monitor) usano degli algoritmi per adattare l'immagine virtuale ai pixel reali, aggiungendo o rimuovendo alcune informazioni

Esempio sciocco, immagine renderizzata a 720p riprodotta su un monitor 1440p senza uso di software tipo DLSS (che sfruttano un sistema apposito per integrare le informazioni mancanti e comunque esula dal tema del topic) può venire scalata semplicemente gestendo i pixel del monitor a gruppi di 4 avendo a disposizione il doppio dei pixel fisici su ogni direzione

Se invece fai il viceversa, ossia render a 1440p su monitor a 720p ciò che si occupa di scalare la risoluzione deve decidere per ogni gruppo di 4 pixel renderizzati dalla gpu che colore assegnare al corrispondente pixel fisico del monitor, sfruttando magari anche le informazioni dei pixel virtuali vicini
Questo è ad esempio ciò che fa il DSR a risoluzione "2X" (ho usato questo per gli esempi perché è più facile fare i raffronti, con altri valori userà gruppi differenti di pixel, ma il concetto è il medesimo)

Come ti hanno detto il DSR consideralo come se fosse un antialiasing, di fatto molto simile al SSAA
Descrizione molto più professionale della mia, @Ruttolo meglio di cosi non si può spiegare.
 
E io finalmente ho capito :) Tom's sempre il meglio!
Grazie mille ragazzi per la vostra pazienza contro la mia ottusità :) ho capito grazie mille.
 
Pubblicità
Pubblicità
Indietro
Top