DOMANDA Passaggio da 16 a 32 DDR4

Pubblicità

Gin Lemon

Utente Attivo
Messaggi
682
Reazioni
29
Ciao,

chiedo consigli in merito al passaggio da 16 a 32 RAM di memoria
E' un passaggio che mi puo' dare benefici, soprattutto affiancato alla VGA ?
Se si, che modello, frequenza?
Grazie


Di seguito la macchina:

CPU
Intel Core i7-6700 Skylake 3.4GHz

Disspatore
Raijintek Themis

Scheda Madre
Gigabyte GA-Z170-HD3P ATX

Hard disk
Samsung SSD m.2 970 EVO 250GB
Crucial SSD MX500 1 TB

Ram
16GB - 4 x DDR4 Corsair 4GB DDR4 2400MHz CL14 Red

Scheda video
Gigabyte GeForce GTX 1080 Ti Gaming X 11GB

Sistema audio
Asus Xonar DGX

Alimentatore
EVGA SuperNOVA G2 550 W

Case
Corsair Carbide Series 300R ATX

Monitor
Samsung Monitor U32J592 Monitor UHD/4K 32''
 
nessun beneficio. i giochi oggi vanno da 10 a 12 giga. quindi a meno che non hai programmi di lavoro che hanno necessità di ram nessun beneficio
 
allora con 32 giga aumenteresti un pochino i minimi nei giochi e stabilizzi bene il frametime

Non servono chissà cosa,.
Con un 6700k per me stai ancora bene hai una signotra build, ma più che sul 4k io andrei su un monitor milgiore con una risoluzioen più bassa e refresh più alto.

Non ti sto dicendo di farlo, ma io avrei fatto così anche se la 1080ti è un mostro di scheda
 
Ultima modifica:
allora con 32 giga aumenteresti un pochino i minimi nei giochi e stabilizzi bene il frametime

Non servono chissà cosa,.
Con un 6700k per me stai ancora bene hai una signotra build, ma più che sul 4k io andrei su un monitor milgiore con una risoluzioen più bassa e refresh più alto.

Non ti sto dicendo di farlo, ma io avrei fatot così anche se la 1080ti è un mostro di scheda

il 6700 non è k. il monitor lo tengo con risoluzione 2560x1440 e i giochi uguale.
piu che altro che le attuali RAM non le utilizzerei piu, perche sono moduli da 4
 
il 6700 non è k. il monitor lo tengo con risoluzione 2560x1440 e i giochi uguale.
piu che altro che le attuali RAM non le utilizzerei piu, perche sono moduli da 4
sbalgi e ti stai perdento molto al livello qualitativo perchè scalare dal 4k al 2k non è una buona idea

Le immagini vengono davvero pessime non è uno scaling adeguato, peggio poi se hai un monitor a bassa frequenza che non puoi sfruttare nemmeno il g-sync v-sync

Se c'è da migliroare qualcosa è sicuramente nel monitor, e capisco che magari a te dal 4k al 2k @ 144 potrebbe anche sembrare un peggiornamento, ma io credo che non lo sia

Per uno scaling guisto devi scalare sul full HD dal 4k o avrai le immaginio davvero pessime
 
sbalgi e ti stai perdento molto al livello qualitativo perchè scalare dal 4k al 2k non è una buona idea

Le immagini vengono davvero pessime non è uno scaling adeguato, peggio poi se hai un monitor a bassa frequenza che non puoi sfruttare nemmeno il g-sync v-sync

Se c'è da migliroare qualcosa è sicuramente nel monitor, e capisco che magari a te dal 4k al 2k @ 144 potrebbe anche sembrare un peggiornamento, ma io credo che non lo sia

Per uno scaling guisto devi scalare sul full HD dal 4k o avrai le immaginio davvero pessime

A me non sembra di vedere male abbassando la risoluzione a 2560
Dici che é meglio in FullHd?
 
allora ti spiego in parolo povere che succede.

Quando hai la risoluzioen antiva (esempio 3840x2160 ad esempio) ad un immagine la scheda assocuia ogni pixel che poi ovviamente viene riprodo0tta ul monitor con un rapporto.

Nel caso in cui la risoluzione è nativa questo sarà 1:1 ovvero per ogni pixel di un immagine prodotto dalla vGa corrisponde un determinato pixel sul montior quindi nessun problema>

Cosa succede se scalo?

Se scali da 4k a full HS ogni pixel della sceda corrisponde un sottomultimpo. Nerl caso di 1920x1080 ad un pixel corrispondranno esattamente 2 pixel quindi anche qui límmagine viene ripordotta fedelmente.....

Ma nel caso sdi 2560x1440?

Non va più bene perchè sono viene più un numero intero, ma circa 2.5 ed un pixel non lo puoi "smezzare" quidni alcune zone saranno riprodotte con 2 pixel altre con 3 danno un imamgine poco uniforme.

E' un peccato mettere un moniotopr 4 k con la 1080ti, capisco che fino alla generazione scorsa era sicuramente considerata una scheda "da 4k" secondo molte testate, ma se volessi milgiroare la situazione sarebbe quella di prendere eun monitor che ti consenta suia di sfruttare melgio la scheda che di provare anche la differenza sui 144hz di frequezna

La 1080ti è una splendida scheda per il 2k 144 hz, ci puoi avviamente giocare anche in 4k @ 60, con qualche compromesso però sui titoli più recenti



Però

Devi collegarlo al dispaly port ed attiavre il g-sync compatibile e rinuinciare un pò ai dettagli e puoi gicoare in 4k con la 1080ti
non è il massimo ma è melgio di scalare in 2k
 
Ultima modifica:
allora ti spiego in parolo povere che succede.

Quando hai la risoluzioen antiva (esempio 3840x2160 ad esempio) ad un immagine la scheda assocuia ogni pixel che poi ovviamente viene riprodo0tta ul monitor con un rapporto.

Nel caso in cui la risoluzione è nativa questo sarà 1:1 ovvero per ogni pixel di un immagine prodotto dalla vGa corrisponde un determinato pixel sul montior quindi nessun problema>

Cosa succede se scalo?

Se scali da 4k a full HS ogni pixel della sceda corrisponde un sottomultimpo. Nerl caso di 1920x1080 ad un pixel corrispondranno esattamente 2 pixel quindi anche qui límmagine viene ripordotta fedelmente.....

Ma nel caso sdi 2560x1440?

Non va più bene perchè sono viene più un numero intero, ma circa 2.5 ed un pixel non lo puoi "smezzare" quidni alcune zone saranno riprodotte con 2 pixel altre con 3 danno un imamgine poco uniforme.

E' un peccato mettere un moniotopr 4 k con la 1080ti, capisco che fino alla generazione scorsa era sicuramente considerata una scheda "da 4k" secondo molte testate, ma se volessi milgiroare la situazione sarebbe quella di prendere eun monitor che ti consenta suia di sfruttare melgio la scheda che di provare anche la differenza sui 144hz di frequezna

La 1080ti è una splendida scheda per il 2k 144 hz, ci puoi avviamente giocare anche in 4k @ 60, con qualche compromesso però sui titoli più recenti



Però

Devi collegarlo al dispaly port ed attiavre il g-sync compatibile e rinuinciare un pò ai dettagli e puoi gicoare in 4k con la 1080ti
non è il massimo ma è melgio di scalare in 2k

per ora non ho intenzione di cambiare monitor.
Quindi acquisto un cavo dispaly port - HDMI e collego il dispaly port alla vga e HDMI al monitor.
Poi per attivare il g-sync?
Tengo ovviamente anche questo collegamento per l'utilizzo normale del pc?
Grazie
 
nio non ci vuole un adattatore, se il moniotro non ha il display port di suo non è compatibile...purtroppo.
Non sono andato a vedere le specifiche se il tuo montior avesse il DP convinto che lo avesse, ma se non ce l'ha hai sbagliato decisamente monitor
 
nio non ci vuole un adattatore, se il moniotro non ha il display port di suo non è compatibile...purtroppo.
Non sono andato a vedere le specifiche se il tuo montior avesse il DP convinto che lo avesse, ma se non ce l'ha hai sbagliato decisamente monitor
Si c'è. Quindi cavo DP - DP
Poi per attivare il g-sync?
 
per attuvare il g-sync devi andare nel pannello di controllo nvidia e attivarlo, ma la voce appare soloq aundo colleghi il montiro attraverso il display port ed attivi al funzione freesync dal pannello OBS del monitor
 
per attuvare il g-sync devi andare nel pannello di controllo nvidia e attivarlo, ma la voce appare soloq aundo colleghi il montiro attraverso il display port ed attivi al funzione freesync dal pannello OBS del monitor
ok perfetto, acquisto il cavo.
Ho letto nelle specifiche del monitor che non è compatibile con il g-sinc ma con il freesync.
Se è come dici te allora il g-sinc posso attivarlo comunque?
 
esatto. il mio schermo è nato non gsync ma nvidia poi lo ha reso possibile. ma solo tramite cavo dp. apri il pannello nvidia e spunti la casella. ed è subito attivo. nel mio caso dava un problema che ho risolto semplicemente spegnendo e riaccendendo il solo schermo
 
ok perfetto, acquisto il cavo.
Ho letto nelle specifiche del monitor che non è compatibile con il g-sinc ma con il freesync.
Se è come dici te allora il g-sinc posso attivarlo comunque?
La compatibilità fereesync g-sync è stata annunciata a Gennaio 2019, inizialmente per pochi modelli, poi è stata resa la possibilità di attivare il g-sync compatibile su tutti i monitor.
 
Pubblicità
Pubblicità

Discussioni Simili

Indietro
Top