Ciao a tutti, sono Andrea, uno studente del corso magistrale di ingegneria delle telecomunicazioni nonché appassionato di videogames.
Ho notato che il monitor da me acquistato (MSI Optix G271) non riproduce i colori accuratamente quando imposto la modalità a 144Hz come quando impostato a 60Hz: sembrano essere presenti delle lievi bande orizzontali più chiare. Queste bande vengono fuori anche a frequenze di aggiornamento intermedie (119 e 120 Hz), anche se in maniera più tenue. Pensando fosse il cavo HDMI in dotazione, l'ho sostituito con un cavo DisplayPort, ottenendo lo stesso risultato (anzi, con il DisplayPort sono presenti dei disturbi nelle immagini grigio chiaro anche quando ferme). Ho deciso di indagare un po' su questo problema, ed ho notato, scattando una foto con il telefono un po' più da vicino, che quando imposto la modalità a maggiore frequenza di aggiornamento alcuni pixel "luminosi" spariscono. Mentre a 60HZ ho un pixel più chiaro per ogni riga con una disposizione complessiva a "rombo", quando imposto la modalità a 144Hz i pixel in questione vengono come eliminati dal 50% delle righe, restituendo quel fastidioso effetto a bande.
Quale fenomeno può, secondo voi, causare questo effetto così odioso?
Attualmente ho fatto una mia supposizione: il monitor per evitare la gestione di un'eccessiva larghezza di banda opera il sottocampionamento della componente di colore, aumentando il refresh rate, ma diminuendo la qualità generale. Qualcuno ha altre idee? Perché a 60Hz i colori sembrano molto accurati, quindi non credo sia difettoso il mio dispositivo.
Allego le foto dello schermo:
Foto 1: schermo impostato a 60 Hz
foto 2: schermo impostato a 144Hz
Ho notato che il monitor da me acquistato (MSI Optix G271) non riproduce i colori accuratamente quando imposto la modalità a 144Hz come quando impostato a 60Hz: sembrano essere presenti delle lievi bande orizzontali più chiare. Queste bande vengono fuori anche a frequenze di aggiornamento intermedie (119 e 120 Hz), anche se in maniera più tenue. Pensando fosse il cavo HDMI in dotazione, l'ho sostituito con un cavo DisplayPort, ottenendo lo stesso risultato (anzi, con il DisplayPort sono presenti dei disturbi nelle immagini grigio chiaro anche quando ferme). Ho deciso di indagare un po' su questo problema, ed ho notato, scattando una foto con il telefono un po' più da vicino, che quando imposto la modalità a maggiore frequenza di aggiornamento alcuni pixel "luminosi" spariscono. Mentre a 60HZ ho un pixel più chiaro per ogni riga con una disposizione complessiva a "rombo", quando imposto la modalità a 144Hz i pixel in questione vengono come eliminati dal 50% delle righe, restituendo quel fastidioso effetto a bande.
Quale fenomeno può, secondo voi, causare questo effetto così odioso?
Attualmente ho fatto una mia supposizione: il monitor per evitare la gestione di un'eccessiva larghezza di banda opera il sottocampionamento della componente di colore, aumentando il refresh rate, ma diminuendo la qualità generale. Qualcuno ha altre idee? Perché a 60Hz i colori sembrano molto accurati, quindi non credo sia difettoso il mio dispositivo.
Allego le foto dello schermo:
Foto 1: schermo impostato a 60 Hz
foto 2: schermo impostato a 144Hz