Ottoore
Utente Èlite
- 26,346
- 13,252
- CPU
- I7 2700K @4.7
- Dissipatore
- Noctua NH-D14
- Scheda Madre
- GA-Z77X-UD5H
- HDD
- Samsung 840 Pro 256 Gb+ Raid 0 WD RE4 500gb
- RAM
- Crucial Ballistix Tactical 2133 @9-9-9-27
- GPU
- Gtx 1060
- Audio
- Asus Essence ST+ Beyerdynamic 990pro
- PSU
- Evga g2 750w
- Case
- Cooler Master Haf XM
- Periferiche
- Varmilo Va87m + Razer DA
- Net
- Vdsl 200 Mbps
- OS
- Windows 7 64 bit
Ciao Ottoore, come mai il secondo funzionamento risulta sbagliato? Se ad esempio ho un'immagine o video fhd (1920*1080) e riproduco su tv 4k (3840*2160, quindi matrice dei pixel esattamente il quadruplo del fhd), utilizzando il metodo di replicare ogni pixel dell'immagine su 4 pixel della tv, avrei esattamente la stessa qualità, come se stessi guardando una tv fhd. Giusto?
Capisco che questo metodo non permette di migliorare l'immagine, che invece si può face come dici tu con algoritmi di intelligenza artificiale che usa la tv, ma per mantenere la stessa qualità perchè questo sistema non funziona??
Grazie mille!
Perché l' integer scaling, ossia la moltiplicazione del pixel per 4 in modo da coprire esattamente i pixel che compongono la risoluzione finale, non è usato dalle tv. Negli ultimi 6 mesi è stato introdotto dalle gpu nvidia e amd e può essere impostato: noto ora che il thread è del 2017, ti rispondo ora ma mi fermo qui perché stiamo commentendo necroposting, e a quell' epoca nemmeno se ne parlava.