DOMANDA Risoluzione e Frequenza di aggiornamento.

Pubblicità

mercurio31

Utente Attivo
Messaggi
203
Reazioni
13
Punteggio
44
Ciao a tutti,
perdonatemi per la domanda da semi-analfabeta :blush: : collegando, ad esempio, il pc ad un monitor esterno (o comunque in generale) è meglio avere una risoluzione alta ma una frequenza di aggiornamento bassa, o viceversa?
 
Ciao
Sinceramente non ho capito molto bene la tua domanda, bisogna trovare un compromesso, per esempio io uso in gaming il 2k con una frequenza di aggiornamento a 144hz, comunque nessuno "imposta" il monitor per avere una frequenza di aggiornamento altissima e una bassa qualità immagine o viceversa, se non hai ancora comprato il pc dimmi il budget che hai a disposizione e facciamo una build come si deve:)
 
Grazie mille per la risposta,
e scusa se non mi sono spiegato bene! :blush:
Sì ti faccio un esempio pratico: uso ogni tanto il mio portatile, HP EliteBook 8440p, scheda grafica NVIDIA NVS 3100M con DisplayPort 1.4, collegandolo alla mia TV che è una Panasonic TX-40EX603.
La risoluzione massima che posso impostare è 4k x 2k, 3840 x 2160 (nativo) a 30 Mhz, mentre se volessi aumentare la frequenza di aggiornamento, devo scendere a 1080p, 1920 x 1080 a 60 Mhz.
Ora, secondo le mie conoscenze, è meglio avere una frequenza di aggiornamento alta per una visione migliore di film, ad esempio, sbaglio?
 
Io personalmente andrei di 4k visto che hai una tv da 40 pollici e vedere da vicino una tv con una risoluzione 1080 sarebbe bruttissimo (come qualità immagine)
 
Grazie a entrambi!
Mi chiedevo, appunto, se ci fosse una "regola" per trovare la giusta combinazione di questi due fattiri.
 
Se la frequenza alta non è solo refresh, ma corrisponde anche a piu frames (da riprese high frame rate hfr, rendering nei giochi, o da interpolazione di fotogramma nella riproduzione video) si percepisce anche piu definizione temporale, piu informazione che giunge agli occhi in un secondo, risultando più fluidità perlomeno in scene di movimento dove altrimenti in low frame rate lfr si perderebbe continuità. Si percepisce di più in film d'azione e documentari panoramici 2d e 3d, e ancora più in videogiochi d'azione. Per questo con contenuti simili molti preferiscono piuttosto, se si deve scegliere, una definizione minore ma con più fotogrammi al secondo (per i film l'uso di frame interpolation o riprese hfr è controverso per altre ragioni stilistiche) ma appunto questo vale se son fotogrammi reali, non solo refresh. Se poi si possono avere entrambe le cose tanto meglio!
 
Se la frequenza alta non è solo refresh, ma corrisponde anche a piu frames (da riprese high frame rate hfr, rendering nei giochi, o da interpolazione di fotogramma nella riproduzione video) si percepisce anche piu definizione temporale, piu informazione che giunge agli occhi in un secondo, risultando più fluidità perlomeno in scene di movimento dove altrimenti in low frame rate lfr si perderebbe continuità. Si percepisce di più in film d'azione e documentari panoramici 2d e 3d, e ancora più in videogiochi d'azione. Per questo con contenuti simili molti preferiscono piuttosto, se si deve scegliere, una definizione minore ma con più fotogrammi al secondo (per i film l'uso di frame interpolation o riprese hfr è controverso per altre ragioni stilistiche) ma appunto questo vale se son fotogrammi reali, non solo refresh. Se poi si possono avere entrambe le cose tanto meglio!

Grazie mille per la risposta!
Quindi, se non ho capito male, per guardare film ad esempio, è meglio puntura ad un refresh alto?
 
Solo se il filmato stesso ha altrettanti fotogrammi, o perché HFR nativo, o artificiale con frame interpolation (fatto da editing del video prima, o in tempo reale dalla tv stessa) altrimenti il solo refresh elevato non aggiunge niente alla qualità, salvo la stabilita e meno sfarfallio, per quel poco che si nota sugli schermi di oggi.
 
Pubblicità
Pubblicità
Indietro
Top