DOMANDA 6700 xt vs 3070 vs 3070 ti

1440p - valutazione prezzo/qualità/futuro/prezzi attuali cosa scegliereste oggi

  • 6700xt

  • 3070

  • 3070 ti

  • 3060 ti

  • 3060


I risultati saranno visibili solamente dopo aver votato.
Pubblicità
si ma tu hai detto di non avere il 4k quidni 8GB sono adeguati pe il QHD e avanzano pure la 3070/ti non sono schede da 4k

sine so capt (scusate ragazzi siamo entrambi della stessa provincia io e crimescene ? ) ma se facciamo un discorso future proof allora lo vedi che la v-ram assume importanza? ci diciamo subito chiaramente che se poi tra 2 anni voglio passare a un monitor 4k (fatto bene stavolta non quella pippa che avevo) devo per forza di cose ricomprare la gpu perchè satura una v-ram da 8gb

a questo punto mi risponderesti "si, ma tanto anche se prendi una 6700 xt, vram maggiore o meno, a 4k non ci puoi giocare lo stesso per altre motivazioni di clock e altro"

quindi niente sto discorso della v-ram non porta da nessuna parte a meno che non alzo il tiro verso 6800xt o 3080ti
 
Ah ok chiaro thx


1) ma della v-ram mi rendo davvero conto che nessuno se ne sbatte minimamente...come mai?
perché 8 Gb possono diventare un limite solo in 4K, e qui non parliamo di schede per il 4K

2) esulando un secondo dai discorsi prettamente tecnici faccio una precisazione per quanto riguarda strettamente la mia situazione...io ho amd da parecchi anni

avevo una SapphireNitroRadeon.R9.380.4Gb e l'ho avuta 4 anni
da 2 mesi ho preso una Asus strix rx 480 08g

non gioco molto ma voglio finire questa cavolo di build che mi sembra sempre zoppa... la fase estetica conta perchè ho fatto una roba particolare...
Visualizza allegato 415348
no , ma metticele due ventole... ???
adesso ho preso un LG 32GP850 UltraGear Gaming Monitor 32" QHD NanoIPS 1ms HDR 10, 2560x1440, G-Sync Compatible e AMD FreeSync Premium 180Hz, HDMI 2.0 (HDCP 2.2) e vorrei farlo lavorare al meglio
pessima scelta il 32" ... sarebbe stato meglio un 27" a quella risoluzione.

e calcolate che poi dovrò anche comprare un riser cable pci.e 4.0 che al momento non so per quale motivo costa uno sproposito
https://www.amazon.it/gp/product/B08YZ5WRLK/?tag=tomsforum-21&linkCode=ogi
se eviti il riser cable del tutto è meglio.
Oltre ad essere potenzialmente pericoloso (vedasi i disastri NZXT), rischia di creare incompatibilità.
 
il rastering è una tecnica di rendering...
Si usa per i giochi.
AMD in rastering è superiore nei giochi (e non in tutti) ma quando si parla di applicazioni professionali il discorso è diverso ed i drivers Nvidia hanno una maturità differenti.



Control.
Non è che sia un gioco "pro Nvidia". È che ha usato, tra i primi e molto bene, RT + DLSS che è proprietario Nvidia così è stato citato più volte come la dimostrazione palese del vantaggio tecnologico Nvidia.



Tutto ciò che è marchiato ROG mediamente costa un 15% più di quanto dovrebbe costare. A volte giustificato dalla qualità, ma spesso assolutamente non giustificato.
1) ok chiarissimo
2) chiarissimo
3) ecco qua mi devi spiegare meglio se ti va, perchè anche a me ad un certo punto sembrava fosse tutta una fuffa... ma poi ho visto proprio i bench sia di gpu che di dissipatori e anche di mobo...e alla fine una certa qualità alta, molto alta, come standard la mantengono
 
perché 8 Gb possono diventare un limite solo in 4K, e qui non parliamo di schede per il 4K


no , ma metticele due ventole... ???

pessima scelta il 32" ... sarebbe stato meglio un 27" a quella risoluzione.


se eviti il riser cable del tutto è meglio.
Oltre ad essere potenzialmente pericoloso (vedasi i disastri NZXT), rischia di creare incompatibilità.
ahahaha... e manco raffreddano bene...senza le frontali che arirflow vuoi fare..


il riser cable a me ha già fatto un disastro completo

... ma ci riproverò...tutto per l'estetica
 
tornando fortemente in topic sto aspettando ilprimo che mi dica..."bravo fai bene a valutare anche la v-ram!!" ?
--- i due messaggi sono stati uniti ---
ok qui approfondiscono... ma a dispetto di una buona comprensione della lingua non sono riuscito a tirare le somme

--- i due messaggi sono stati uniti ---
qui sono più chiari e centrano il discorso commerciale in poche risposte...che sapevo anche io ma fa sempre bene


e cerchi le risposte su un sub-reddit AMD ? ?
Guarda, i tifosi AMD sono gli unici a battere quelli di Apple per fanatismo (e te lo dico da grande utente AMD, se vedi la mia firma).

La scelta di AMD è stata più economica: bus più tradizionale, GDDR6 normale ma quantità maggiori, compensando la larghezza di banda con una cache generosa.
Nvidia come sempre ha avuto le braccina corte: dimensioni del frame buffer al minimo indispensabile, anche sui modelli più costosi come le 3080.

Due approcci diversi per risultati simili.
La verità è che a 1440P più di 8 Gb di VRAM non fanno la differenza, quindi in questa classe di prodotto per quanto non facciano piacere, non creano reali problemi.
In 4K discorso diverso, ma a quella risoluzione anche AMD inizia ad avere noie (questa volta per via della banda, visto che la cache non basta).
 
sine so capt (scusate ragazzi siamo entrambi della stessa provincia io e crimescene ? ) ma se facciamo un discorso future proof allora lo vedi che la v-ram assume importanza? ci diciamo subito chiaramente che se poi tra 2 anni voglio passare a un monitor 4k (fatto bene stavolta non quella pippa che avevo) devo per forza di cose ricomprare la gpu perchè satura una v-ram da 8gb

a questo punto mi risponderesti "si, ma tanto anche se prendi una 6700 xt, vram maggiore o meno, a 4k non ci puoi giocare lo stesso per altre motivazioni di clock e altro"

quindi niente sto discorso della v-ram non porta da nessuna parte a meno che non alzo il tiro verso 6800xt o 3080ti
se prendi una 6700XT per il 4K, il tuo problema non sarà la VRAM ma la mancanza di potenza della GPU...
 
ti prego non mi nominare apple che mi si benda la tastiera

e cerchi le risposte su un sub-reddit AMD ? ?
Guarda, i tifosi AMD sono gli unici a battere quelli di Apple per fanatismo (e te lo dico da grande utente AMD, se vedi la mia firma).

La scelta di AMD è stata più economica: bus più tradizionale, GDDR6 normale ma quantità maggiori, compensando la larghezza di banda con una cache generosa.
Nvidia come sempre ha avuto le braccina corte: dimensioni del frame buffer al minimo indispensabile, anche sui modelli più costosi come le 3080.

Due approcci diversi per risultati simili.
La verità è che a 1440P più di 8 Gb di VRAM non fanno la differenza, quindi in questa classe di prodotto per quanto non facciano piacere, non creano reali problemi.
In 4K discorso diverso, ma a quella risoluzione anche AMD inizia ad avere noie (questa volta per via della banda, visto che la cache non basta).


si devo dire che non fa una piega quello che dici.. adesso il concetto mi è chiaro


e questo quasi peggiora la situazione perchè quelle 200 euro di differenza a questo punto sono più che giustificate, il che mi riporta da capo... a meno che non faccia decidere al monitor... devo capire chi vince tra freesync premium e g-sync compatible
 
3) ecco qua mi devi spiegare meglio se ti va, perchè anche a me ad un certo punto sembrava fosse tutta una fuffa... ma poi ho visto proprio i bench sia di gpu che di dissipatori e anche di mobo...e alla fine una certa qualità alta, molto alta, come standard la mantengono

non è così.
In diversi prodotti paghi solo il marchio ROG senza motivo.
Case, mobo, accessori... ci sono diversi modelli in inutile ed ingiustificato sovrapprezzo.
Sulle schede video almeno in questa generazione la linea Asus ROG si è dimostrata valida, ma a caro prezzo rispetto al resto.
 
non è così.
In diversi prodotti paghi solo il marchio ROG senza motivo.
Case, mobo, accessori... ci sono diversi modelli in inutile ed ingiustificato sovrapprezzo.
Sulle schede video almeno in questa generazione la linea Asus ROG si è dimostrata valida, ma a caro prezzo rispetto al resto.

se leggi le mie spec puoi capire quanto ho pagato la mobo

e leggendo la tua firma mi pare che anche tu ci sei cascato

sui case cmq hai ragione pienamente...ma anche su mouse e tastiere rog ...tappetini... hanno spinto un po' troppo
--- i due messaggi sono stati uniti ---
All'atto pratico non cambia nulla a parte il cavo usato, il freesync ti permette di collegare il montior anche sotto HDMI per il g-sync devi usare per forza il DP
Ma veramente? Quindi poi non potrei attaccare le casse al monitor, il segnale audio non lo porta l' hdmi al monitor o dico una cavolata?


no vabbè m'hai rovinato tutto...g-sync solo con DP...ma porca trota salmonata
 
Pubblicità
Pubblicità
Indietro
Top