DOMANDA Tv 4k Con Sorgente 1080p: Funzionamento Algoritmo Di Conversione

Ottoore

Utente Èlite
26,346
13,252
CPU
I7 2700K @4.7
Dissipatore
Noctua NH-D14
Scheda Madre
GA-Z77X-UD5H
HDD
Samsung 840 Pro 256 Gb+ Raid 0 WD RE4 500gb
RAM
Crucial Ballistix Tactical 2133 @9-9-9-27
GPU
Gtx 1060
Audio
Asus Essence ST+ Beyerdynamic 990pro
PSU
Evga g2 750w
Case
Cooler Master Haf XM
Periferiche
Varmilo Va87m + Razer DA
Net
Vdsl 200 Mbps
OS
Windows 7 64 bit
Ciao Ottoore, come mai il secondo funzionamento risulta sbagliato? Se ad esempio ho un'immagine o video fhd (1920*1080) e riproduco su tv 4k (3840*2160, quindi matrice dei pixel esattamente il quadruplo del fhd), utilizzando il metodo di replicare ogni pixel dell'immagine su 4 pixel della tv, avrei esattamente la stessa qualità, come se stessi guardando una tv fhd. Giusto?

Capisco che questo metodo non permette di migliorare l'immagine, che invece si può face come dici tu con algoritmi di intelligenza artificiale che usa la tv, ma per mantenere la stessa qualità perchè questo sistema non funziona??

Grazie mille!

Perché l' integer scaling, ossia la moltiplicazione del pixel per 4 in modo da coprire esattamente i pixel che compongono la risoluzione finale, non è usato dalle tv. Negli ultimi 6 mesi è stato introdotto dalle gpu nvidia e amd e può essere impostato: noto ora che il thread è del 2017, ti rispondo ora ma mi fermo qui perché stiamo commentendo necroposting, e a quell' epoca nemmeno se ne parlava.
 

Ci sono discussioni simili a riguardo, dai un'occhiata!

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!

Discussioni Simili