RTX 4070 liscia o 7800 XT ?

Pubblicità
no vfa letteralmente pena


e considera che pù aumenta il ray tracing più le AMd vanno peggio e senza DLSS3 ghai questo



con il dlss hai invece questo

Beh non è che in 4k la 4070 ci esca molto meglio eh ....
Lui gioca 4k 60hz. Cerchiamo di stare sul caso specifico.
29 FPS o 37 FPS che cambia? Fanno pena entrambi. 95 o 112 che cambia? Tanto lui va al massimo a 60. Su alcuni giochi va addirittura di più la rossa.
Che Nvidia sia più avanti nelle tecnologie ok ma in questo caso che se ne fa? Se nel suo caso vuole più FPS deve spendere il doppio. Lui ha quella disponibilità o 4070 o 7800xt. Ancora non ho capito bene perché dovrebbe andare a spendere di più per la 4070. Spero che per lui sia più chiaro. Il portafoglio è il suo.

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk
 
Per una build con:
- I5-13600K (perché ero indeciso e c'era stata una follia sui costi delle due schede) quindi mi sono fatto la GPU integrata... in attesa del crollo dei prezzi...
- DDR5 2x16 CL30 - 6000 Mt/sec
- NVME Kingston Fury 2TB
- Thermalright assassin 120 SE
- Case GROSSO ATX ... c'entra tutto con 4 ventole integrate
- Alimentatore (temporaneo e forse definitivo...) da 650W

ora manca la scheda grafica e andiamo al dilemma meglio la RTX 4070 liscia o la RX 7800 XT ?
Allora diciamo meglio ho un monitor (che non vorrei cambiare) 60Hz 4K.
 
Beh non è che in 4k la 4070 ci esca molto meglio eh ....
Lui gioca 4k 60hz. Cerchiamo di stare sul caso specifico.
29 FPS o 37 FPS che cambia? Fanno pena entrambi. 95 o 112 che cambia? Tanto lui va al massimo a 60. Su alcuni giochi va addirittura di più la rossa.
Che Nvidia sia più avanti nelle tecnologie ok ma in questo caso che se ne fa? Se nel suo caso vuole più FPS deve spendere il doppio. Lui ha quella disponibilità o 4070 o 7800xt. Ancora non ho capito bene perché dovrebbe andare a spendere di più per la 4070. Spero che per lui sia più chiaro. Il portafoglio è il suo.

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk
se la 4070 e`inadeguyata in 4k figuriamoci una 7800xt che va peggio
 
Allora innanzitutto ringrazio coloro che mi hanno dato i numeri... o almeno mi hanno detto dove guardare.
Da malato mi sono fatto una tabella ragionando così: il mio monitor è un 60Hz, quindi io trovo per ogni gioco alla qualità massima o RT quale delle due schede va sopra i 60 fps a quella risoluzione.

Link 1: https://www.techpowerup.com/review/sapphire-radeon-rx-7800-xt-nitro/34.html
Link 2: https://www.techspot.com/review/2736-geforce-rtx-4070-vs-radeon-7700-xt/#:~:text=At 4K, the Radeon 7800 XT achieves its largest lead,the competition almost a tie.

A quel punto mi prendo i dati e vedo chi va meglio, mi dico beh dovrebbe funzionare :D ... (illuso) magari scelgo.

Quindi mi faccio una tabella in cui indico:
V++ se una sola delle due schede va oltre i 60 fps a quella risoluzione.
V+ se una delle due è più veloce, ma l'altra è comunque sopra i 60 fps
V se è la perdente, ma comunque va sopra i 60 fps

AHHHRGHHH sono uguali... :D
Entrambe hanno 2 titoli che sono a risoluzione più alta (starfield a 1440p e resident evil a 4K per la 7800, mentre Cyberpunk a 1080p e a plague tale per la RTX 4070).

Il totale in cui competono alla pari ed è 21 per AMD e 20 per NVIDIA !!!

In generale, come c'era da aspettarsi, la 4070 vince quando la risoluzione è più bassa (1080p 4-3) mentre sopra vince di un pelo la 7800xt quando la risoluzione minima è maggiore o uguale a 1440p (9-8).

Da notare che su altri test ho visto che Assetto corsa e F1 (due giochi di guida in cui una parte dello schermo cambia poco) vince la 4070 (e questo è un PLUS, che ci dice come giustamente dice qualcuno che la 4070 comprime lo schermo in memoria) mentre negli sfondi che variano con tanti elementi sembra meglio la 7800.

Vuoi vedere che alla fine di questo mal di testa mi faccio la RTX4080 e chiudo il discorso ? :D :D

Grazie a tutti, ora vado a nanna, sennò domattina al lavoro (per pagare la scheda) chi ci va ?
 

Allegati

  • analisi.webp
    analisi.webp
    120 KB · Visualizzazioni: 22
Allora innanzitutto ringrazio coloro che mi hanno dato i numeri... o almeno mi hanno detto dove guardare.
Da malato mi sono fatto una tabella ragionando così: il mio monitor è un 60Hz, quindi io trovo per ogni gioco alla qualità massima o RT quale delle due schede va sopra i 60 fps a quella risoluzione.

Link 1: https://www.techpowerup.com/review/sapphire-radeon-rx-7800-xt-nitro/34.html
Link 2: https://www.techspot.com/review/2736-geforce-rtx-4070-vs-radeon-7700-xt/#:~:text=At 4K, the Radeon 7800 XT achieves its largest lead,the competition almost a tie.

A quel punto mi prendo i dati e vedo chi va meglio, mi dico beh dovrebbe funzionare :D ... (illuso) magari scelgo.

Quindi mi faccio una tabella in cui indico:
V++ se una sola delle due schede va oltre i 60 fps a quella risoluzione.
V+ se una delle due è più veloce, ma l'altra è comunque sopra i 60 fps
V se è la perdente, ma comunque va sopra i 60 fps

AHHHRGHHH sono uguali... :D
Entrambe hanno 2 titoli che sono a risoluzione più alta (starfield a 1440p e resident evil a 4K per la 7800, mentre Cyberpunk a 1080p e a plague tale per la RTX 4070).

Il totale in cui competono alla pari ed è 21 per AMD e 20 per NVIDIA !!!

In generale, come c'era da aspettarsi, la 4070 vince quando la risoluzione è più bassa (1080p 4-3) mentre sopra vince di un pelo la 7800xt quando la risoluzione minima è maggiore o uguale a 1440p (9-8).

Da notare che su altri test ho visto che Assetto corsa e F1 (due giochi di guida in cui una parte dello schermo cambia poco) vince la 4070 (e questo è un PLUS, che ci dice come giustamente dice qualcuno che la 4070 comprime lo schermo in memoria) mentre negli sfondi che variano con tanti elementi sembra meglio la 7800.

Vuoi vedere che alla fine di questo mal di testa mi faccio la RTX4080 e chiudo il discorso ? :D :D

Grazie a tutti, ora vado a nanna, sennò domattina al lavoro (per pagare la scheda) chi ci va ?
Conosci tutto il discorso degli upscalers, spero.

Ok, ma è prevedibile che cambierai prima il monitor che la GPU che comprerai, no? Anche se magari si parla di 2 anni, ha senso fare queste previsioni
Non hai neanche risposto, bene così.
 
Seguo con interesse, ho postato una domanda simile qualche settimana fa.
Vero e' che in 4k la 7800 va meglio e tolte quelle 4 opzioni fps killer riesce diciamo a garantire i 60fps in quasi tutti i giochi ,ma in un futuro moolto vicino ,quando i 60fps te li scordi in nativa, credo che il dlss aiutera' parecchio e ,paradossalmente, la scheda piu' lenta oggi in raster (la 4070) andra' meglio in futuro grazie al DLSS.
AAAARGHHHHH sto impazzendo per lo stesso motivo , e' da mesi che devo sostiture la gpu
 
Seguo con interesse, ho postato una domanda simile qualche settimana fa.
Vero e' che in 4k la 7800 va meglio e tolte quelle 4 opzioni fps killer riesce diciamo a garantire i 60fps in quasi tutti i giochi ,ma in un futuro moolto vicino ,quando i 60fps te li scordi in nativa, credo che il dlss aiutera' parecchio e ,paradossalmente, la scheda piu' lenta oggi in raster (la 4070) andra' meglio in futuro grazie al DLSS.
AAAARGHHHHH sto impazzendo per lo stesso motivo , e' da mesi che devo sostiture la gpu
se la scelta fosse tra 4060 ti e 7800xt probabilmente sarebbe preferibile quest'ultima, ma non esiste preferirla alla 4070

come già detto AMD è parecchio indietro in tutte le tecnologie che contano
 
Allora innanzitutto ringrazio coloro che mi hanno dato i numeri... o almeno mi hanno detto dove guardare.
Da malato mi sono fatto una tabella ragionando così: il mio monitor è un 60Hz, quindi io trovo per ogni gioco alla qualità massima o RT quale delle due schede va sopra i 60 fps a quella risoluzione.

Link 1: https://www.techpowerup.com/review/sapphire-radeon-rx-7800-xt-nitro/34.html
Link 2: https://www.techspot.com/review/2736-geforce-rtx-4070-vs-radeon-7700-xt/#:~:text=At 4K, the Radeon 7800 XT achieves its largest lead,the competition almost a tie.

A quel punto mi prendo i dati e vedo chi va meglio, mi dico beh dovrebbe funzionare :D ... (illuso) magari scelgo.

Quindi mi faccio una tabella in cui indico:
V++ se una sola delle due schede va oltre i 60 fps a quella risoluzione.
V+ se una delle due è più veloce, ma l'altra è comunque sopra i 60 fps
V se è la perdente, ma comunque va sopra i 60 fps

AHHHRGHHH sono uguali... :D
Entrambe hanno 2 titoli che sono a risoluzione più alta (starfield a 1440p e resident evil a 4K per la 7800, mentre Cyberpunk a 1080p e a plague tale per la RTX 4070).

Il totale in cui competono alla pari ed è 21 per AMD e 20 per NVIDIA !!!

In generale, come c'era da aspettarsi, la 4070 vince quando la risoluzione è più bassa (1080p 4-3) mentre sopra vince di un pelo la 7800xt quando la risoluzione minima è maggiore o uguale a 1440p (9-8).

Da notare che su altri test ho visto che Assetto corsa e F1 (due giochi di guida in cui una parte dello schermo cambia poco) vince la 4070 (e questo è un PLUS, che ci dice come giustamente dice qualcuno che la 4070 comprime lo schermo in memoria) mentre negli sfondi che variano con tanti elementi sembra meglio la 7800.

Vuoi vedere che alla fine di questo mal di testa mi faccio la RTX4080 e chiudo il discorso ? :D :D

Grazie a tutti, ora vado a nanna, sennò domattina al lavoro (per pagare la scheda) chi ci va ?
Tu prendi erroneamente come riferimento dei siti partner di AMD! techspot/hwunboxed (sono le stesse persone), kitguru, linustech tips fanno tutti articoli pro AMD evidenziando solo le caratteristiche positive delle radeon. Tuttavia omettono tutti i test in cui le GeForce vanno meglio. Se tu prendi techpowerup che è totalmente neutrale e fa una miriade di test a differenza dei fanboy amd, noterai non solo che tra una 4070 ed una 7800xt c'è uno scarto del 15% circa in RT, ma sussiste il divario tra DLSS ed FSR che rende obsoleta qualsiasi radeon tu voglia acquistare. Ragazzi sveglia, il mondo videoludico è improntato sul RT e questo è un fatto! I devs svilupperanno sempre più i loro prodotti basandosi sul RT + upscaler, che vi piaccia o no, perchè è una tecnica di rendering di ombre luci e riflessi nettamente più semplice ed intuitiva da implementare (che infatti il raytracing non fa altro che emulare ciò che avviene nella realtà); sviluppare un gioco totalmente i raster è solo un dispendio di tempo inutile per un devs dato che il motore di gioco deve renderizzare tutto "manualmente" anzichè derivato come il raytracing. Oltretutto tu hai un monitor 4k amico mio, non va bene nè una rtx 4070 e nè tantomeno una rx 7800xt se ti interessano i titoli tripla A e te lo dice un possessore di una rtx 4070 il quale fa test tutti i giorni. Poi se vuoi giocare in 4k a prato fiorito di cosa vogliamo parlare? Ci va bene anche geforce 2! Ma ripeto, se tu vuoi stare al passo con i tempi parlando di tech grafiche e godere dei nuovi titoli AAA, sicuramente AMD non offre soluzioni adeguate con le GPU. Ti dico solo questo: spider man 2, che uscirà a breve su PS5 in esclusiva (quindi titolo pienamente nextgen), per poi arrivare su pc tra qualche mese, implementerà il raytracing su TUTTE e 3 le modalità di visualizzazione, non vi sarà diaponibile una modalità senza raytracing. Questo cosa vuol dire secondo te? Che sarà un gioco pienamente programmato in raytracing! Poi magari su pc ci sarà la possibilità di disattivarlo, certo, per venire incontro a tutti quei fermacarte di radeon... ma sai che schifo.... hai visto che roba alan wake 2? Hai visto cosa è ratchet & clank su pc? CP2077? Spierman remastered? Valli a giocare con una 7800xt questi giochi, dirai "quando mai"

Discorso diverso invece per le cpu, ad oggi entrambe le soluzioni sono ottime ed entrambe hanno sia pregi che difetti, quindi qualsiasi sia la piattaforma che prenderai cadi in piedi. ATTENZIONE però, io mi sto riferendo ad lga1700 ed AM5, i vecchi socket non vanno MINIMAMENTE presi in considerazione su una nuova build
 
Ultima modifica:
Guarda ti assicuro che nessun upscaling di video a basse definizione può mantenere i contorni nitidi e perfetti. Aumenti FPS ma perdi in nitidezza: è inevitabile specialmente a bassi frame rate.
falso, è proprio questa la rivoluzione DLE DLSS che è uno scaler basato su IA


Si vede che non hai ben chiaro le differenze tra l'approccio software (usato da amd) e molto diverso da quello usato da nvidia

Per questo il DLSS è rivoluzionario a differenza di un approccio software un approccio basato su hardware e IA riesce a "creare" informazioni anche dove non ci sono in quanto la stessa Ia riconosce le parti mancanti sostituendole con soluzioni pertinenti

Come sunaiozn il DLSS?

Immagina una faccia, cui cancelliamo bocca e naso, una soluzione come FSR non sarà in grado di sostituire gli oggetti mancanti, limitandosi a riprodurre il colore dominante, mentre uno scaler basato su una IA riconoscerà che è uan faccia e nelle zone dove mancano le sostituirà con uina bocca e un naso, anche se non erano rpesenti nell'immagine originale


Questo per farti capire che uno scalera basato su una IA è in grado perfettamente di riconoscere tutti i pattern di un gioco e non si limita a "copiare" ma "ricorstruisce" proprio l'immagine



La differenza tra Nvidia e AMD si può descrivere in un modo abbastanza chiaro, Nvidia ha le idee chiare, sviluppa il suo hardware in base alle tecnologie che vuole adottare, AMD invece non lo fa mettendoci una pezza al livello software che risulta sempre inferiore e tenta di "rincorrere" cò che nvidia decide

Il DLSS nè è una prova non è solo un qualcosa di software ma si basa su un architettura hardware fatta di tensor core, che viene "addestrata" attravero il driver.

Il DLSS 3.5 è un evoluzione ulteriore di come il DLSS riesca a milgiorare sempre di più man mano che passi il tempo arrivando a sostituire i metodi classici di denoising con un sistema del tutto nuovo.

La sfida del futuro non è più fare tanti frame in rasterizzazione, ma farli con un illuminazioen completamente in PTX, e questo sarà possibile solo con tecniche di scaling avanzate ed in grado di riprodurre fedelmente la qualità delle immagini, diove FSR ha parecchi limiti non lo dico io lo dicono tutte le analisi comparative anche quelle più a favore di AMD

1695206224520.webp
 
Ultima modifica:
Guarda ti assicuro che nessun upscaling di video a basse definizione può mantenere i contorni nitidi e perfetti. Aumenti FPS ma perdi in nitidezza: è inevitabile specialmente a bassi frame rate.
A bassi frame rate?? Ma vedi che parlate di cose di cui non conoscete minimamente nulla?? Ecco dove sta la disinformazione! Il DLSS non ti fa perdere di qualità, anzi certe volte fa vedere meglio del notivo aumentando gli fps, a differenza di FSR. Anche il XeSS è superiore a quello scempio di FSR. Ma questo non lo sapevi vero??

P.s. al discorso di prima aggiunge che pure la switch 2 avrà le unità RT e supporterà il DLSS in quanto avrà una GPU Nvidia Ampere. Fatti 2 conti...
 
Ultima modifica:
A bassi frame rate?? Ma vedi che parlate di cose di cui non conoscete minimamente nulla?? Ecco dove sta la disinformazione! Il DLSS non ti fa perdere di qualità, anzi certe volte fa vedere meglio del notivo aumentando gli fps, a differenza di FSR. Anche il XeSS è superiore a quello scempio di FSR. Ma questo non lo sapevi vero??
all'inizio ero abbastanza scettico sul dlss 3.0 ma nvidia ha mantenuto le promesse dando una qualità assurda

In giochi dove RTX è dominante il DLSS + dlss 3.0 riesce a QUADRUPLICARE il frame rate di base questo non si trova in nessuna comparazione perchè FSR 3 ancora non esiste

E con una perdita di qualità nulla
 
all'inizio ero abbastanza scettico sul dlss 3.0 ma nvidia ha mantenuto le promesse dando una qualità assurda

In giochi dove RTX è dominante il DLSS + dlss 3.0 riesce a QUADRUPLICARE il frame rate di base questo non si trova in nessuna comparazione perchè FSR 3 ancora non esiste

E con una perdita di qualità nulla
Esatto, queste persone è proprio questo che non hanno capito, che le RTX con il DLSS offrono prestazioni superiori senza perdita di qualità, mantenendo comunque prestazioni più alte in RT. Però "uuuh a me non interessa del RT", "Uh voglio uan scheda che veda forte in raster", "uuuh 192 bit di bus e poca vurrammmm".. si 😖😩
 
Pubblicità
Pubblicità
Indietro
Top