UFFICIALE AMD Big NAVI RDNA2

Pubblicità
Sono dati oggettivi.

Dimmi cosa non avrei azzeccato sentiamo?

In sintesi ho sempre detto:
- Pareggio nelle performance Raster
- Efficienza +10% su ampere
- Ray Tracing inferiore
- Dissipazione ottima da custom

Basta che ti vai a cercare tutti i messaggi eh, sono 110 pagine non sono tante fai uno sforzo.

In sostanza e come paragone, RDNA2 è come Zen+ eh, paro paro, guarda come siamo finiti oggi con Zen3
Dicono tutti che nVidia deve stare molto attenta o rischia davvero grosso di perdere la corona, non è difficile da capire, è solo l'inizio.

Voi vedete solo che in ray tracing va meno e quindi fa schifo, ma lo ripeto mooolto meglio così se la percezione è questa vorrà dire che non ci sarà penuria di schede prossimamente.
Scusa per il mio intervento...non voglio mancarti di rispetto anche perché non ho più 20 anni e sono un padre di famiglia.

Non è questione di cosa hai azzeccato o no...se hai ragione o torto ecc...è questione che stai iniziando ad annoiare...ogni intervento che fa qualcuno che non condivide il tuo pensiero, arrivi tu a ripetere fiumi e fiumi di parole sentite e risentite e voler far passare gli altri come "nessuno" e tu come "dio sceso in terra per farci comprare AMD".

Tutto qua...vivi e lascia vivere ??
 
Vorrei precisare due cose però. nVidia non è Intel. Non ha mai rallentato, e se non vediamo il numerino degli fps salire a dismisura gen. dopo gen. è perché il vantaggio che ha accumulato è stato utilizzato per creare questa nuova strada, che è il RT.
Ed hanno sfruttato il nodo a 8nm per avere prezzi decenti e competere con RDNA2 anche su quel fronte. Chiaramente questo è andato ad incidere negativamente sui consumi.
Ora, se con Zen e Zen+ le prestazioni erano inferiori agli Intel a parità di core/thread, avevano dalla loro un netto vantaggio nel rapporto qualità/prezzo.
Ma in questo caso, per me, le RTX 3000 rimangono le schede migliori a tutto tondo, proprio perché il rapporto qualità prezzo non è poi così scarso rispetto a Big Navi. E come ho già detto in precedenza, io non posso che essere contento di questa concorrenza serrata, e ancora, non si può fare altro che elogiare il lavoro di AMD, perché se è vero che nel lato CPU si deve ringraziare Intel (in parte) per il sorpasso avvenuto in soli 3-4 anni, in ambito GPU improvvisamente AMD si è svegliata e si è messo in pari con un treno che non vuole proprio rallentare.
Ma tutte le battute sulla disponibilità, sui consumi, e chi più ne ha e più ne metta, sono sempre state ridicole.
Lo dissi fin dall'inizio che l'efficienza non è qualcosa di assoluto, ma è valutata in rapporto a quanto fa la concorrenza, e che la catena produttiva è quasi ferma, dovendoci quindi aspettare carenza di disponibilità relativamente a qualsiasi aggeggio elettronico.
 
Sicuramente avete detto cose giuste ma nel modo sbagliato, poi dite di essere oggettivi ma quasi ogni messaggio sembra dire Nvidia è meglio, non dite di no.

Perché il ray tracing è meglio su Nvidia? Certo, chi dice il contrario mente sapendo di mentire ma diamo il tempo essendo al primo approccio di ottimizzare un poco, I risultati veri si vedranno tra qualche mese almeno, inoltre il rt è si un bell'effetto ma è quello che fa il gioco? Direi di no, abbiamo giocato senza fino ad ora, averlo a livello basso su riflessi, ombre e illuminazione non stravolge il gioco, lo abbellisce sicuramente ma siamo ben lontani da una vera implementazione globale.

Il consumo fino alla scorsa generazione di schede era importantissimo e guai a chi consumava di più andando meno o uguale, ora stare sui 300w o più va bene, non penso ma questo passa il convento.

Driver sicuramente Nvidia è sotto, con la serie 5000 soprattutto ha creato un gap importante ma sta sistemando le cose se non del tutto quasi, basta leggere in giro, ci ha messo tanto? Certo ma almeno ha sistemato.
Nvidia non ha mai fatto cappelle? Magari non così grandi ma non ci credo sia perfetta.

Chiudo dicendo poi che son pagine e pagine che si dicono le stesse cose e dopo un po ci si stufa di leggerle, parliamo solo delle 6000 e relative performance con qualche confronto con le 3000 (ricordo siamo pur sempre nel topic amd), senza sfociare ogni volta nel "è meglio quella" perché queste schede vanno tutte forte e come detto uno le prende on base ai soldi, magari anche al monitor se freesync o gsync e anche a simpatia può essere ma si casca sempre in piedi.
 
Sicuramente avete detto cose giuste ma nel modo sbagliato, poi dite di essere oggettivi ma quasi ogni messaggio sembra dire Nvidia è meglio, non dite di no.

Beh, è quello che ho detto nel mio post in realtà. Per me sì, le 3000 come GPU a tutto tondo sono una spanna sopra.
Poi ognuno ha le sue esigenze, e si cade in piedi anche con una Radeon.
Ma il mio, francamente, sembra tutto meno che un discorso fuori dal mondo.
 
Il mio non vuole essere un attacco nei confronti di nessuno, sia chiaro, manco ho letto chi scriveva cosa, mi son limitato a leggere i messaggi e scrivere di conseguenza.
 
Sono dati oggettivi.

Dimmi cosa non avrei azzeccato sentiamo?

In sintesi ho sempre detto:
- Pareggio nelle performance Raster
- Efficienza +10% su ampere
- Ray Tracing inferiore
- Dissipazione ottima da custom

Basta che ti vai a cercare tutti i messaggi eh, sono 110 pagine non sono tante fai uno sforzo.

In sostanza e come paragone, RDNA2 è come Zen+ eh, paro paro, guarda come siamo finiti oggi con Zen3
Dicono tutti che nVidia deve stare molto attenta o rischia davvero grosso di perdere la corona, non è difficile da capire, è solo l'inizio.

Voi vedete solo che in ray tracing va meno e quindi fa schifo, ma lo ripeto mooolto meglio così se la percezione è questa vorrà dire che non ci sarà penuria di schede prossimamente.
Grid io non so dove hai letto che le GPU AMD facciano schifo. Nessuno l'ha detto, anzi abbiamo tutti elogiato amd per questi prodotti. E siamo tutti d'accordo nel dire che sono valide tanto quanto le Nvidia, se si escludono alcuni scenari..perché è oggettivo che amd debba lavorare su RT e soprattutto DLSS, non è giusto sminuire questi aspetti
 
da quello che vedo in rete dicono tutti la stessa cosa, elogiano il lavoro di AMD in raster ma sono delusi dalla resa con in giochi in RT

Ripeto non è un presa di posizione, e che queste schede non sarebbero state competitive in RT c'era da aspettarselo, AMd ha diversi fronti da ottimizzare e come dice Nathan sono più schede a 360 gradi.

Ad esempio anche in streaming non si sa granchè
 
Grid io non so dove hai letto che le GPU AMD facciano schifo. Nessuno l'ha detto, anzi abbiamo tutti elogiato amd per questi prodotti. E siamo tutti d'accordo nel dire che sono valide tanto quanto le Nvidia, se si escludono alcuni scenari..perché è oggettivo che amd debba lavorare su RT e soprattutto DLSS, non è giusto sminuire questi aspetti
Quello che attualmente interessa sapere, è quali margini di miglioramento ci sono con le varie tecnologie ancora in sviluppo, e se finalmente con ROCm c'è qualche possibilità sul lungo periodo di svincolarsi da CUDA.
Inoltre vorrei sapere se con RDNA3 possa arrivare qualcosa di simile ai Tensor Core, sarebbe utile sempre per spingere ROCm.
 
E' che voi partite prevenuti guardate l'avatar e quindi settate il vostro cervello su "fanboy allert" e quindi tutto quello che scrivo e sterco, ma ho detto esattamente le stesse cose eh, e sono cose che dico da mesi e prima delle review che sarebbe andata così.

Ho solo fatto una disanima finale in chiave RT sul fatto che quello AMD è appena iniziato e che grazie alle console lo sviluppo sarà congiunto e ottimizzato anche e soprattutto per loro, quindi non ci può basare solo e soltanto su "guarda control e minecraft fanno schifo", perchè in altri giochi con RT non va affatto così, e che hanno detto che arriverà l'alternativa al DLSS chiamato SR e forse già tra un mese.

Tanto ora il problema è soprattutto un altro, le reference sono già finite, tra 2 settimane escono le custom.
 
Dai raga state valutando schede in Ray Tracing su giochi creati quando le uniche schede ad usare il Ray Tracing erano le nvidia. Ovvio che nvidia sia avvantaggiata, anzi su alcuni giochi non mi aspettavo AMD così competitiva, vedi COD e SOTR.

Ora vediamo quando gli sviluppatori inizieranno a cacciare titoli full DX12 Ultimate per quanto riguarda il RayTracing, dato che le consolle usano quello e quindi quello userà il mercato (a meno che nvidia non cacci una vagonata di soldi per fare i titoli con le sue api proprietarie). Poi vediamo quanto AMD si distanzia da nvidia. Ad oggi state confrontando solo dati parziali, di giochi usciti quando le AMD neanche esistevano. Già è troppo che vadano così bene (tranne su Control che vabbé stendiamo un velo pietoso)
 
Dai raga state valutando schede in Ray Tracing su giochi creati quando le uniche schede ad usare il Ray Tracing erano le nvidia. Ovvio che nvidia sia avvantaggiata, anzi su alcuni giochi non mi aspettavo AMD così competitiva, vedi COD e SOTR.

Ora vediamo quando gli sviluppatori inizieranno a cacciare titoli full DX12 Ultimate per quanto riguarda il RayTracing, dato che le consolle usano quello e quindi quello userà il mercato (a meno che nvidia non cacci una vagonata di soldi per fare i titoli con le sue api proprietarie). Poi vediamo quanto AMD si distanzia da nvidia. Ad oggi state confrontando solo dati parziali, di giochi usciti quando le AMD neanche esistevano. Già è troppo che vadano così bene (tranne su Control che vabbé stendiamo un velo pietoso)
Ma proprio perché avevano tutto il tempo di progettare delle buone schede che andassero bene in raytracing nei "vecchi" giochi mi aspettavo di meglio, ed invece... ?
 
@Nathan Schiffer @pribolo
@Skonvolt2015
Ditemi cosa ne pensate.
--- i due messaggi sono stati uniti ---
Infine, penso anche che l'importante era che finalmente AMD tornasse competitiva in fascia Top dopo che negli ultimi 5 anni ha latitato, anche perché in fascia media si è sempre difesa bene, questo quindi va soprattutto visto come un ottimo punto di partenza per il futuro e l'evoluzione di RDNA che dimostra di essere un architettura solida e di facile sviluppo.
Il 99% delle persone fino a 1 mese fa non avrebbe scommesso 1 centesimo di quello che abbiamo visto oggi.

Guarda, come prima impressione, considerando gli ultimi rumors, mi aspettavo qualcosa in più: diciamo che vanno più o meno quanto mi aspettavo un mese fa, quindi RX6800XT leggermente sotto alla RTX3080 in 4k e RX6800 più vicina alla RTX3070 che alla 3080.
E anche in ray tracing pensavo un po' meglio, anche se come giustamente sottolineato in più messaggi, andrà rivalutato con i giochi next gen: diciamo che per ora non ci sono segnali particolarmente incoraggianti da questo punto di vista.

Detto questo le schede, pur non distruggendo Nvidia e non rivoluzionando il mercato, sono competitive: finalmente abbiamo un alternativa a Nvidia anche nella fascia alta e come dici tu è questo l'importante.
Le reference sono molto belle: quei dissipatori funzionano veramente bene, anche più di quanto mi aspettassi. E in overclock hanno più margine delle Nvidia: anche qui mi aspettavo qualcosa in più come incremento prestazionale, ma semplicemente perchè a default clocckano più alte di quanto pensassi. E onestamente non capisco: cosa dichiarano a fare base clock, game clock e boost clock tutti diversi quando poi le schede stanno sempre intorno o sopra alla frequenza di boost? Vabbè, poco importa.
Comunque in fin dei conti RX6800XT in OC e con SAM va quanto la RTX3080 anche in 4k: rimane il "problema ray tracing".

Per quanto riguarda me, ieri ho tentato di prendere la RX6800 perchè a 590€ di questi tempi era un affare: purtoppo, come mi aspettavo, era praticamente impossibile riuscirci.
Ora dovrò valutare un attimo il da farsi, perchè temo che come le RTX3070 partono da 600€ a salire, le RX6800 partiranno dai 700€ a salire e onestamente 700€ per una RX6800 non li spendo, anche perchè personalmente ho un occhio di riguardo per le prestazioni in Flight Simulator, ma lì le nuove RX non vanno particolarmente bene: la RX6800 ha prestazioni inferiori alla RTX3070 in 4k, anche se quest'ultima con 8GB di VRAM è al limite per quella risoluzione.

E' che voi partite prevenuti guardate l'avatar e quindi settate il vostro cervello su "fanboy allert" e quindi tutto quello che scrivo e sterco, ma ho detto esattamente le stesse cose eh, e sono cose che dico da mesi e prima delle review che sarebbe andata così.

Ho solo fatto una disanima finale in chiave RT sul fatto che quello AMD è appena iniziato e che grazie alle console lo sviluppo sarà congiunto e ottimizzato anche e soprattutto per loro, quindi non ci può basare solo e soltanto su "guarda control e minecraft fanno schifo", perchè in altri giochi con RT non va affatto così, e che hanno detto che arriverà l'alternativa al DLSS chiamato SR e forse già tra un mese.

Tanto ora il problema è soprattutto un altro, le reference sono già finite, tra 2 settimane escono le custom.

Piccolo approfondimento in chiave ray tracing.
Al momento le prestazioni in ray tracing vanno valutate sui giochi di oggi perchè quelli abbiamo. Ciò detto, è vero che con i porting dalle nuove console con hardware AMD potrebbero esserci risultati diversi da ora, ma per adesso il condizionale è d'obbligo.

Tra l'altro, i giochi a cui ti riferisci penso siano principalmente Dirt5 e Watch Dogs Legion dove effettivamente le nuove AMD hanno prestazioni convincenti, ma:
1) Dirt5 ha un ray tracing molto leggero, quindi ha senso che AMD mostri prestazioni buone, partendo da una performance in rastering decisamente forte in quel particolare titolo
2) Su WD Legion effettivamente vanno bene, ma c'è qualche dubbio sul fatto che renderizzino a schermo le stesse cose che renderizza Nvidia. Vedi gli screen nella recensione di Tom's US: https://www.tomshardware.com/news/the-amd-radeon-rx-6800-xt-and-rx-6800-review
Altri giochi dove vanno davvero bene a memoria non ne ricordo: sì forse giusto in Tomb Raider si difendono bene, però rimane un caso isolato ed è difficile considerarlo una statistica attendibile.

La situazione andrà rivalutata, ma al momento non si può dire che AMD convinca appieno dal punto di vista RT.
--- i due messaggi sono stati uniti ---
Aggiungo che sto notanto risultati strani per quanto riguarda lo scaling con la risoluzione delle nuove Radeon: ci sono giochi, la maggior parte direi, dove mostrano le prestazioni migliori in FHD, pagando pegno in 4k, anche rispetto a Nvidia.
In altri titoli invece mostrano prestazioni forti anche in 4k, magari più in 4k che alle risoluzioni inferiori.
Onestamente non ho una spiegazione per questo, ma sembra quasi che l'infinity cache sia molto efficace in alcuni titoli e meno in altri, non so esattamente con che criterio.
 
Ultima modifica:
Ma proprio perché avevano tutto il tempo di progettare delle buone schede che andassero bene in raytracing nei "vecchi" giochi mi aspettavo di meglio, ed invece... ?
è errato come pensiero, il ray tracing non spunta dal nulla, quelle di nvidia sono proprietarie e i titoli che vedi con ray tracing sono per la maggior parte volute da nvidia o pagate dagli sviluppatori, prima di due anni fa non se ne parlava anche se esiste da anni
perchè AMD doveva puntare su una tecnologia che non usava nessuno? doveva anche pensare a crearsi le sue librerie e non è detto che gli sviluppatori le avrebbero utilizzate
ripeto per l'ennesima volta, le librerie offerte da directX sono gratuite e aperte a fix e modifiche (open source), quelle di nvidia o te le da lei o devi pagarle, secondo voi su che strada andranno gli sviluppatori? questo non significa che fra un paio di mesi AMD andrà il doppio, ma significa che nvidia deve rivedere le sue librerie per renderle compatibili e in quel caso potrebbero perdere prestazioni

per quanto mi riguarda, a me non interessa il ray tracing, gioco gli e-sports in fullHD (quel paio di giochi) se mettono una scheda sulla fascia delle 3060 che va meglio e costa meno la prendo, se dovessi scegliere fra 3070 e 6800, prenderei l'ultima, e se volessi anche streammare, prenderei nvidia

Ad esempio anche in streaming non si sa granchè
dicono che hanno migliorato di molto la situazione, io sto aspettando la recensione dal mio professore di fiducia
 
Pubblicità
Pubblicità
Indietro
Top