collegamento a tv lcd ati 5870

Pubblicità

simonecarissimi

Nuovo Utente
Messaggi
1
Reazioni
0
Punteggio
24
Ciao a tutti .
Ho un dubbio su come collegare la scheda video al tv lcd .
Ho provato a collegarla alla tv lcd samsung 32" hd ready con l'hdmi ma , si vede malissimo , windows 7 mi setta il monitor a 1360 x 768 a 30 35 herz.
Mentre se lo colego alla tv lcd samsung 40" full hd non ho nessun problema 1090x1200 60 herz e si vede benissimo.
Purtroppo il pc deve essere collegato al 32".
Ora l'ho collegato con un cavo vga , con un adattarore dvi vga sulla scheda video e ingresso diretto vga nella tv , "vi vede bene" .
Ma se io compro un cavo dvi , e lo collego alla scheda video diretto dvi e con un adattatore dvi-vga alla tv , migliora qualcosa ?

grazie
 
Vorrei sapere anch'io la risposta perché con un adattatore+cavo vga vedo leggermente male sul mio LCD LG 23" FullHD, come una specie di moiré.

Però il caso è strano: avevo una nvidia 8800 GTS e vedevo benissimo e le immagini erano molto nitide; oggi ho comprato una ATI RADEON 5870 ed improvvisamente è comparso questo brutto effetto moiré. Ho spulciato internet in cerca di una soluzione, ma ho solo trovato tantissima altra gente con lo stesso problema e nessuna soluzione.

Forse usare un cavo puramente HDMI senza adattatore può aiutare.
 
Vorrei sapere anch'io la risposta perché con un adattatore+cavo vga vedo leggermente male sul mio LCD LG 23" FullHD, come una specie di moiré.

Però il caso è strano: avevo una nvidia 8800 GTS e vedevo benissimo e le immagini erano molto nitide; oggi ho comprato una ATI RADEON 5870 ed improvvisamente è comparso questo brutto effetto moiré. Ho spulciato internet in cerca di una soluzione, ma ho solo trovato tantissima altra gente con lo stesso problema e nessuna soluzione.

Forse usare un cavo puramente HDMI senza adattatore può aiutare.
Avete già provato queste strade?

1) Pannello di controllo\Tutti gli elementi del Pannello di controllo\Schermo\Risoluzione dello schermo\Impostazioni Avanzate\Monitor ---> E da qui modificare la frequenza di aggiornamento.

2)Catalyst Control Center\Desktop & Displays\Tasto DX sul monitor a basso\Configura\HDTV Support\Qua aggiungete l'opzione che si adatta al vostro monitor (presumo "Add 1080p60 to the Display Manager (NTSC)")
Poi, aggiunto quello, andate in SCALING OPTIONS (in alto) e variate quel cursore... ;)

Spero di esservi stato d'aiuto!
 
Grazie Paralex, la frenquenza l'avevo già controllata ed è a posto (60Hz), e anche se non sono riuscito a trovare quella voce "HDTV Support" ho smanettato un pò con la config. Mi sono reso conto che cambiando le impostazioni di dimensione (non la risoluzione, ma la dimensione e la posizione dell'area visualizzata) si interagiva anche con questo effetto moiré, aumentandolo o diminuendolo.

Purtroppo non c'è stato verso di farlo scomparire, e, ripeto, con la scheda nvidia non avevo questo problema e non ho mai avuto bisogno di toccare tali settaggi. Tanto per evitare di perdere tempo inutilmente, comprerò un cavo puramente DVI per vedere se è la "vera" soluzione senza compromessi.

Per rispondere a Simone, da quanto ho avuto modo di capire un cavo DVI non ti cambia niente, il fatto è che useresti comunque una porta DVI della tua GPU per finire nella VGA dell'LCD. Correggetemi se sbaglio.
 
Grazie Paralex, la frenquenza l'avevo già controllata ed è a posto (60Hz), e anche se non sono riuscito a trovare quella voce "HDTV Support" ho smanettato un pò con la config. Mi sono reso conto che cambiando le impostazioni di dimensione (non la risoluzione, ma la dimensione e la posizione dell'area visualizzata) si interagiva anche con questo effetto moiré, aumentandolo o diminuendolo.

Purtroppo non c'è stato verso di farlo scomparire, e, ripeto, con la scheda nvidia non avevo questo problema e non ho mai avuto bisogno di toccare tali settaggi. Tanto per evitare di perdere tempo inutilmente, comprerò un cavo puramente DVI per vedere se è la "vera" soluzione senza compromessi.

Per rispondere a Simone, da quanto ho avuto modo di capire un cavo DVI non ti cambia niente, il fatto è che useresti comunque una porta DVI della tua GPU per finire nella VGA dell'LCD. Correggetemi se sbaglio.
Esatto! Io uso DVI perchè è la stessa cosa. Anzi ti dirò... non ti dà quel problema dello "scaling"... Alla fine HDMI vuol dire High Definition Multimedia Interface... ovvero trasporta sia video che audio. Dato che presumo tu non abbia bisogno dell'audio direttamente al monitor, collegalo con DVI. Il risultato è lo stesso identico! Perchè anche DVI è alta definizione! :ok:

PS: anche altri utenti hanno avuto problemi come il tuo... seguendo il punto 2 che ti ho scritto, hanno risolto! :) Riprovaci! Non lasciare che la macchina abbia il sopravvento! :lol::lol::lol:
 
...
Non lasciare che la macchina abbia il sopravvento! :lol::lol::lol:

Mai! :asd:

E' dai tempi di Win95 che ormai ogni sera se voglio usare il PC devo avvantaggiarmi di un ora per poter "risolvere problemi" :asd:

Ho risolto in una maniera barbina: spippolando sulle opzioni dello schermo ho trovato una voce nel menù immagine che si chiama "Fase". Aggiustando quel valore ho tolto l'effetto moiré...

Che niubbo che sono :cav:
 
Esatto! Io uso DVI perchè è la stessa cosa. Anzi ti dirò... non ti dà quel problema dello "scaling"... Alla fine HDMI vuol dire High Definition Multimedia Interface... ovvero trasporta sia video che audio. Dato che presumo tu non abbia bisogno dell'audio direttamente al monitor, collegalo con DVI. Il risultato è lo stesso identico! Perchè anche DVI è alta definizione! :ok:

PS: anche altri utenti hanno avuto problemi come il tuo... seguendo il punto 2 che ti ho scritto, hanno risolto! :) Riprovaci! Non lasciare che la macchina abbia il sopravvento! :lol::lol::lol:

mi permetto di dissentire :asd: HDMI oltre ad esser segnale audio e video insieme, è segnale digitale PURO senza conversione, mentre tra VGA e DVI c'è il cambio da analogico a digitale ma i guadagni marginali nel passaggio da VGA a DVI sono si e no del 15% :)
 
mi permetto di dissentire :asd: HDMI oltre ad esser segnale audio e video insieme, è segnale digitale PURO senza conversione, mentre tra VGA e DVI c'è il cambio da analogico a digitale ma i guadagni marginali nel passaggio da VGA a DVI sono si e no del 15% :)
No be ma è ovvio! Io intendevo DVI (scheda video) - DVI (monitor) senza convertitori o adattatori... :)
 
Per dovere di cronaca riporto la soluzione: utilizzare il cavo DVI. Semplice.
Probabilmente la nuova generazione di schede ATI, essendo ottimizzata per l'HD, crea dei disguidi utilizzando i vecchi protocolli VGA. Ora funziona tutto benissimo senza bisogno di cercare overscan o impostazioni particolari nel CCC.
:ok:
 
Pubblicità
Pubblicità
Indietro
Top