UFFICIALE AMD Big NAVI RDNA2

Pubblicità
rimane solo il dubbio ray tracing , ma la 6800xt fa veramente paura
DX12Ultimate

Certo che sono dei ritardati a volte, in Godfall ci sono degli scorci pazzeschi tipo quelli che ho messi prima, e mi mettono sti 2 screen on off dove a stento si percepiscono le ombre migliori e il riflesso sul casco... mah

Poi c'è Dirt che anche li si ripercuote sulle ombre migliori, i riflessi c'erano anche senza RT, del resto come spesso accade se il motore è buono di base le differenze sono difficili da vedere (vedi hitman2).

FC6 non c'è, ma esce a nel 2021 inoltrato, se non ricordo male c'erano altri giochi con RT.

No a quel punto aspetto anche per la CPU: fare il doppio cambio è sempre uno spreco di soldi.
Il punto è che i miei vecchi componenti mi servirebbero per assemblare un altro PC ed idealmente l'avrei fatto entro Natale, ma se non posso pace: non cambio un 6700k per un 3600.



Chissà se la RX6800 avrà lo stesso potenzale della XT in overclock oppure limiteranno artificialmente la sua frequenza massima mettendo un limite più basso sulla tensione (come tra 5700XT e 5700)
Penso che al più la limitazione sia nel fatto che essendo un chip di scarto ha un binning peggiore e quindi meno clock e tensioni peggiori al salire della frequenza.
--- i due messaggi sono stati uniti ---
FidelityFX
 
Ultima modifica da un moderatore:
Penso che al più la limitazione sia nel fatto che essendo un chip di scarto ha un binning peggiore e quindi meno clock e tensioni peggiori al salire della frequenza.
--- i due messaggi sono stati uniti ---
FidelityFX

Quello sì, ma se è solo questione di binning tra le due cambierà poco a livello di frequenze, se invece fanno come con la RX5700 non ci saranno chanche di avvicinare i clock della XT.
Ma sulla RX5700 si può sbloccare il voltaggio in qualche modo? Magari moddando il BIOS? Non sono sul pezzo al 100% per quanto riguarda il "tweaking" su AMD

P.S Visto che il prezzo della RX6800 non è particolarmente buono rispetto alla 6800XT (stavo guardando i grafici di AMD, la XT è sempre sopra nel fps\$) potrebbero almeno lasciare la possibilità di overcloccare liberamente.
 
Ultima modifica:
Quello sì, ma se è solo questione di binning tra le due cambierà poco a livello di frequenze, se invece fanno come con la RX5700 non ci saranno chanche di avvicinare i clock della XT.
Ma sulla RX5700 si può sbloccare il voltaggio in qualche modo? Magari moddando il BIOS? Non sono sul pezzo al 100% per quanto riguarda il "tweaking" su AMD

P.S Visto che il prezzo della RX6800 non è particolarmente buono rispetto alla 6800XT (stavo guardando i grafici di AMD, la XT è sempre sopra nel fps\$) potrebbero almeno lasciare la possibilità di overcloccare liberamente.
qui dovresti trovare ciò che cerchi per la rx5700
 
qui dovresti trovare ciò che cerchi per la rx5700

Oh sì, avevo appena letto qualcosa del genere. Si può anche usare morepowertool.
Resta da vedere se si potrà fare lo stesso con queste nuove schede: ad esempio con Nvidia fino a Maxwell si poteva moddare il BIOS come si voleva, da Pascal in poi è diventato impossibile, perchè è criptato

Ma adesso che ci penso, erano già usciti degli screen di morepowertool riguardanti le specifiche delle nuove schede prima della presentazione ufficiale, quindi sono fiducioso che potrà funzionare.
 
non posso aiutarti, sono più arrugginito di te. l'ultima volta che l'ho fatto ho fatto oc a un celeron 1300 fino a 1500 e una ati 7500 con 350 mhz di frequenza in più.... è passato tanto tempo. meno male che per la mia cpu c'è il PBO ?
 
non posso aiutarti, sono più arrugginito di te. l'ultima volta che l'ho fatto ho fatto oc a un celeron 1300 fino a 1500 e una ati 7500 con 350 mhz di frequenza in più.... è passato tanto tempo. meno male che per la mia cpu c'è il PBO ?

Io credo di aver overcloccato più o meno qualsiasi cosa mi sia capitata a tiro.
Magari in modo soft, non mi piace andare a intaccare troppo l'efficienza se non è necessario, ma se c'è del margine perchè non sfruttarlo?

Però sì, con i Ryzen è quasi inutile. Si guadagna di più con l'overclock delle RAM se non sono già a 3600-3800MHz.
 
Io credo di aver overcloccato più o meno qualsiasi cosa mi sia capitata a tiro.
Magari in modo soft, non mi piace andare a intaccare troppo l'efficienza se non è necessario, ma se c'è del margine perchè non sfruttarlo?

Però sì, con i Ryzen è quasi inutile. Si guadagna di più con l'overclock delle RAM se non sono già a 3600-3800MHz.
Si le Vega a stock facevano un po' pena, ma coi tweak sono alla fine ottime schede, ti ci diverti pure come con l'hardware di un tempo ?

con la Vega56 che ho ci ho tirato fuori quasi il +15% di performance a pari TBP e senza flashare il bios, usando quello stock della Pulse, ho le Samsung come ram.
 
Si le Vega a stock facevano un po' pena, ma coi tweak sono alla fine ottime schede, ti ci diverti pure come con l'hardware di un tempo ?

con la Vega56 che ho ci ho tirato fuori quasi il +15% di performance a pari TBP e senza flashare il bios, usando quello stock della Pulse, ho le Samsung come ram.

Ma sì anche le vecchie Nvidia erano così: le GTX780 salivano un sacco e così tutte le Maxwell. Anche con la mia GTX970 facevo +15% facile rispetto alle frequenze di fabbrica e a sua volta era overcloccata rispetto alla founders.
Da Pascal in poi l'OC ha perso potenza (comunque la mia GTX1070 un po' guadagna, soprattutto overcloccando le memorie), fino ad arrivare a queste Ampere che sono già tirate quasi alla morte e praticamente guadagni solo dall'overclock delle memorie (oppure aumentano il power limit, per stabilizzare la frequenza).

Ormai è una tendenza comune vendere hardware già ottimizzato, con prestazioni vicine alle massime ottenibili: però questa RX6800, partendo più bassa della XT, potrebbe essere un po' in controtendenza.
 
Comunque 15TF per la 6800 liscia, 12TF per la XBox X, anche qua mesi fa dicevo che la console avrebbe avuto prestazioni Raster come la 2080ti e non ci credevate, oggi ve lo hanno dimostrato!
Se 6800 fa +18% , la Xbox è praticamente allineata alla 2080ti, in RT sarà ai livelli di 2080 o 2080super.

Che roba ragazzi, un capolavoro di ingegneria.
La 6800 ha 60 CU a 2.1 ghz. (126)
X BOX serie X ha 52 CU a 1.825 ghz (95)

Differenza del 33% in potenza effettiva. In linea con una 2080/2080S. Cmq tantissima potenza per una console.
 
Comunque era passato sotto traccia, o per lo meno io me ne sono accorto ora, che tra RX6800XT e RX6800 oltre al numero di CU (72 vs 60) cambia anche il numero di ROPs (128 vs 96)
Io continuo a essere perplesso dalla poca differenza di prezzo tra 6800 e 6800XT rispetto a quanto effettivamente hanno castrato la prima rispetto alla seconda: per me a 549 dollari la 6800 sarebbe stata più a fuoco.
 
E' fondamentale che si inventino qualcosa o non potranno competere senza una cosa simile al dlss
 
DX12Ultimate

Certo che sono dei ritardati a volte, in Godfall ci sono degli scorci pazzeschi tipo quelli che ho messi prima, e mi mettono sti 2 screen on off dove a stento si percepiscono le ombre migliori e il riflesso sul casco... mah

Poi c'è Dirt che anche li si ripercuote sulle ombre migliori, i riflessi c'erano anche senza RT, del resto come spesso accade se il motore è buono di base le differenze sono difficili da vedere (vedi hitman2).
--- i due messaggi sono stati uniti ---
FidelityFX

Le differenze le noto. Forse sarò io particolarmente sensibile, ma la naturalezza dell'illuminazione data dal Ray Tracing mi aggrada molto di più, la scena ha un non so che di "vivo".
Ha fatto molto bene AMD a buttarsi anche lei subito in questo "mondo", potendo contare su un supporto software più ampio grazie alle console.
Nella suite Fidelity FX dovrebbe essere presente la futura risposta al DLSS a cui sembra stiano ancora lavorando. Il che paradossalmente la renderebbe una feature molto più completa, perché laddove non è implementato, si può andare di Fidelity CAS.
Dobbiamo solo aspettare che tutto questo si tramuti in qualcosa di concreto, ma se abbiamo dato fiducia alle 2000, nonostante supporto inesistente e prezzi stellari, non vedo perché non si debba fare lo stesso con le Radeon.
Tanto le RTX non si trovano...
 
La 6800 ha 60 CU a 2.1 ghz. (126)
X BOX serie X ha 52 CU a 1.825 ghz (95)

Differenza del 33% in potenza effettiva. In linea con una 2080/2080S. Cmq tantissima potenza per una console.
Non consideri il fatto che il sistema è chiuso e i giochi sono ottimizzati per girare su quella macchina e non su milioni di dispositivi diversi, ad esempio penso al sistema SAM mostrato da AMD su desktop, figurati se non funziona una cosa così anche in una console dove oltretutto condivide tutto e CPU GPU e RAM sono in sinergia continua, se la 6800 supera del 20% la 2080ti, un SoC come quello della XBOX ci è praticamente appaiata considerando potenza e ottimizzazione, il VSR da una grossa mano guardate WD Legions gira su XBOX serie X a 4k nativi a 30fps con RT attivo, è mostruoso fa praticamente quanto la 2080ti su desktop e con DLSS ATTIVO ci sono i bench! senza DLSS la 2080ti fa 21 fps, VENTUNO...
Questo su una macchina che costa 500€ finita, e il SoC è la metà della 3090, la Turing 2080ti viene tecnicamente DEMOLITA da RDNA2.
1604137892748.webp


Comunque era passato sotto traccia, o per lo meno io me ne sono accorto ora, che tra RX6800XT e RX6800 oltre al numero di CU (72 vs 60) cambia anche il numero di ROPs (128 vs 96)
Io continuo a essere perplesso dalla poca differenza di prezzo tra 6800 e 6800XT rispetto a quanto effettivamente hanno castrato la prima rispetto alla seconda: per me a 549 dollari la 6800 sarebbe stata più a fuoco.
si si che lo sapevo, ma non conta questo conta quanto va, e come ti dicevo la 6800 ha apposta un perf/cost di pochissimo più alto per invogliare l'utente a comprare la 6800XT e a non creare shortage sulla 6800, di quei chip così tanto tagliati ce ne saranno pochissimi, inoltre sono convinto che su strada avrà lo stesso prezzo della 3070 demolendola.
Pare intanto che Amd stia seriamente lavorando su un'alternativa al DLSS di Nvidia , nonostante nella conferenza non abbiano detto nulla a riguardo.
Secondo me è una buona notizia , è un qualcosa che manca per colmare il gap con la controparte. Sarà qualcosa che sicuramente aiuterà le prestazioni in RT delle nuove schede basate su Rdna2 .
Ma questo si sa da mesi, il DirectML è usato da Microsoft allo scopo assieme al VSR.
E' fondamentale che si inventino qualcosa o non potranno competere senza una cosa simile al dlss
Io capisco tecniche di questo tipo su console, che sono macchine per la massa e dove ci giochi a 3 metri di distanza, su PC sta roba è tirare al ribasso la qualità visiva, su macchine che paghi una schioppettata, potete dire quello che volete, fate più FPS, ma la QUALITA' E' INFERIORE ALLA RISOLUZIONE NATIVA.
Paghi 800 e passa € una scheda video e poi si vede come su console?
è la morte della Masterrace il DLSS, così come una controparte AMD, i Pcisti si sono sempre vantati di avercelo più lungo delle console sulla grafica, e adesso l'utenza PC si riduce a fare la stessa cosa.
che brutta fine sta facendo la Masterrace, lol.
--- i due messaggi sono stati uniti ---
Le differenze le noto. Forse sarò io particolarmente sensibile, ma la naturalezza dell'illuminazione data dal Ray Tracing mi aggrada molto di più, la scena ha un non so che di "vivo".
Ha fatto molto bene AMD a buttarsi anche lei subito in questo "mondo", potendo contare su un supporto software più ampio grazie alle console.
Nella suite Fidelity FX dovrebbe essere presente la futura risposta al DLSS a cui sembra stiano ancora lavorando. Il che paradossalmente la renderebbe una feature molto più completa, perché laddove non è implementato, si può andare di Fidelity CAS.
Dobbiamo solo aspettare che tutto questo si tramuti in qualcosa di concreto, ma se abbiamo dato fiducia alle 2000, nonostante supporto inesistente e prezzi stellari, non vedo perché non si debba fare lo stesso con le Radeon.
Tanto le RTX non si trovano...
Si si non dico che l'immagine sia più realistica e naturale, dico solo che per pubblicizzarlo poteva scegliere screen migliori ?
sul DLSS et simila AMD mi sono espresso, sono abbastanza integralista quanto meno su PC.
 
ma la QUALITA' E' INFERIORE ALLA RISOLUZIONE NATIVA

no il dlss non è di qualiotà inferiore alla risoluzione nativa è addirittura superiore, qui ti sbalgi di grosso.

E su watch dogs possiamo stendere un velo piretoso su come è stato ottimizzato da ubisoft il DLSS è la chiave se vuoi che i giochi in RT vadano bene altrimenti si avrà un frame sempre pietoso

Il VSR invedce è peggiorativo e non può esser usato su tutto i titoli

In questo esatto momento le persone sui stanno lamentando di come watch dogs crashi alla grande sulle comesole e di come NON riesca a sfruttare le GPU (non importa che hardware hai in DX 12 ubisoft colpisce ancora e fa qualcosa di indecente al livello qualitativo)

AMD DEVE fare qualcosa di simile al DLSS come ha detto bene @Nathan Schiffer o non sarà competitiva in RT il che significa che pui fare anche 10.000 frame in rasetring non avrà alcuna importanza
 
Pubblicità
Pubblicità
Indietro
Top