UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
Il 28 ottobre non è lontano ?
Era la 290x, con Fury X invece andavano uguale ma si era capito che oramai GCN era alla frutta e stava per non reggere più il passo, inoltre erano gli anni del minimo storico in borsa a 2$, Azienda che a detta loro se non avessero tirato fuori Zen sarebbero falliti, l'hanno dichiarato poco tempo fa.
Insomma, non era possibile fare tutto e subito, ci vuole tempo.
Speriamo anche che Intel faccia sul serio sulle GPU con i progetti modulari MCM, nVidia e AMD dovrebbero arrivare nel 2022 con i progetti MCM, Intel si dice nella seconda metà del 2021.


Giusto perchè ne hai parlato, sono andato a spulciare nei database guardando qualche vecchia recensione, per curiosità.
La R9 290x e la FuryX effettivamente riuscirono a fare concorrenza alle top di gamma Nvidia del loro periodo.

In particolare, la R9 290x a ottobre 2014 effettivamente riuscì a prendersi (di misura) lo scettro di GPU più veloce davanti alla 780 e alla Titan, almeno guardando ai modelli standard: il confronto con le 780 custom era in realtà molto serrato e overcloccando le 780 si ottenevano risultati leggermente migliori rispetto alla 290x reference OC (le custom di AMD uscirono solo dopo).
In ogni caso, Nvidia rispose due settimane dopo immettendo sul mercato la 780ti, riprendendosi lo scettro di GPU più veloce: le R9 290\290x continuavano ad avere dalla loro i prezzi più favorevoli, almeno quando arrivarono le custom all'inizio dell'anno seguente, perchè le reference erano francamente inutilizzabili tra temperature e rumore.

La FuryX invece, uscita in giugno 2015, pur dando battaglia alla 980ti founders e avvicinandola notevolmente in 4k (almeno finchè i giochi non iniziarono a chiedere più di 4GB), non ebbe mai lo scettro di GPU più veloce: anzi, confrontandola con le 980ti custom perdeva anche del 20-30%, gap che si allargava ulteriormente se si effettuava anche un oc manuale perchè le Nvidia avevano più margine (la FuryX non consentiva l'overclock alle memorie).

Poi l'anno seguente Nvidia mise sul mercato le Pascal e da allora non ci fu più partita nella fascia alta: vedremo se tornerà ad esserci adesso...
 
Tutto Ultra (è inutile tenerlo a quelle impostazioni, non c'è molta differenza da tutto ad Alto + qualcosa ad Ultra) sta tra i 55 e i 65 fps, in 4k.
Se scendi con un buon mix tra Alto/Ultra, sfondi tranquillamente i 70-80 fps.

Per chi invece,come me e molti altri, lo re-installeranno per giocarci tutto Ultra in 1440p, si parla di 95/100+ fps su tutta la linea anche in scene molto concitate.
perfetto allora. nel gaming la prova del nove è superata.
 
Non so se arriveranno a pari prestazioni, ma dire che AMD non avrà/non sarà ottimizzata per il Ray Tracing mi pare un eresia dato che stanno puntando fortissimo anche loro perché hanno capito che il mercato andrà in quel verso.

faccio una scommessa qui e adesso
--- i due messaggi sono stati uniti ---
Giusto perchè ne hai parlato, sono andato a spulciare nei database guardando qualche vecchia recensione, per curiosità.
La R9 290x e la FuryX effettivamente riuscirono a fare concorrenza alle top di gamma Nvidia del loro periodo.

In particolare, la R9 290x a ottobre 2014 effettivamente riuscì a prendersi (di misura) lo scettro di GPU più veloce davanti alla 780 e alla Titan, almeno guardando ai modelli standard: il confronto con le 780 custom era in realtà molto serrato e overcloccando le 780 si ottenevano risultati leggermente migliori rispetto alla 290x reference OC (le custom di AMD uscirono solo dopo).
In ogni caso, Nvidia rispose due settimane dopo immettendo sul mercato la 780ti, riprendendosi lo scettro di GPU più veloce: le R9 290\290x continuavano ad avere dalla loro i prezzi più favorevoli, almeno quando arrivarono le custom all'inizio dell'anno seguente, perchè le reference erano francamente inutilizzabili tra temperature e rumore.

La FuryX invece, uscita in giugno 2015, pur dando battaglia alla 980ti founders e avvicinandola notevolmente in 4k (almeno finchè i giochi non iniziarono a chiedere più di 4GB), non ebbe mai lo scettro di GPU più veloce: anzi, confrontandola con le 980ti custom perdeva anche del 20-30%, gap che si allargava ulteriormente se si effettuava anche un oc manuale perchè le Nvidia avevano più margine (la FuryX non consentiva l'overclock alle memorie).

Poi l'anno seguente Nvidia mise sul mercato le Pascal e da allora non ci fu più partita nella fascia alta: vedremo se tornerà ad esserci adesso...

Non è per fare polemica, ma pure un orologio rotto fa l'ora esatta 2 volte al giorno.

Il problema di amd non è nelle prestazioni ma nell'affidabilità se mi regalassero una scheda di fascia alta domani comprerei una 3080, chiamatemi fan o quello che volete, ma non volgio rivivere l'esperienza che che nel 50% dei giochi il pc va in crash ogni 3x2
 
Secondo me basta avere l'idea giusta, come con Ryzen. Il punto di forza è che non è monolitica, al contrario delle CPU Intel, e questo le ha permesso di competere con un'azienda anni luce avanti (come prestazioni e risorse economiche) e ad oggi impantanata coi 10 nm.
Siamo tutti consapevoli che in ambito GPU sarà diverso, ma nVidia ha speso il suo vantaggio per cambiare paradigma, e con gli 8 nm AMD conserva un po' di vantaggio sul pp.
Io prevedo che RDNA2 sarà come era Zen 1, ossia Intel era complessivamente superiore, ma il suo top di gamma era un quad core vs un octa core che per i professionisti era una manna dal cielo.
AMD farebbe bene a puntare prima nei settori remunerativi, e poi man mano le cose belle arriveranno anche nel settore mainstream. Ovviamente con la consapevolezza che nVidia non si è impantanata con nulla, quindi dobbiamo come minimo raddoppiare i tempi.
 
Secondo me basta avere l'idea giusta, come con Ryzen. Il punto di forza è che non è monolitica, al contrario delle CPU Intel, e questo le ha permesso di competere con un'azienda anni luce avanti (come prestazioni e risorse economiche) e ad oggi impantanata coi 10 nm.
Siamo tutti consapevoli che in ambito GPU sarà diverso, ma nVidia ha speso il suo vantaggio per cambiare paradigma, e con gli 8 nm AMD conserva un po' di vantaggio sul pp.
Io prevedo che RDNA2 sarà come era Zen 1, ossia Intel era complessivamente superiore, ma il suo top di gamma era un quad core vs un octa core che per i professionisti era una manna dal cielo.
AMD farebbe bene a puntare prima nei settori remunerativi, e poi man mano le cose belle arriveranno anche nel settore mainstream. Ovviamente con la consapevolezza che nVidia non si è impantanata con nulla, quindi dobbiamo come minimo raddoppiare i tempi.
Quindi almeno 4 anni per raggiungere Nvidia?
 
Quindi almeno 4 anni per raggiungere Nvidia?


In effetti visto cosi il pronostico del buon Nathan non e' molto carino.??

Comunque a parte gli scherzi, bisogna vedere anche sul campo del ray tracing, per me, sara' un RT molto limitato anche perche' e' lo stesso che avranno le console o qualcosa di simile, customizzato appunto.
Pero' c'e' da dire che il DLSS e' un bel vantaggio, vediamo.
Io rimango della stessa idea di Crimescene, delle buone schede, prezzo abbassato, ma che avranno problemi su problemi, DETTO QUESTO, non parto prevenuto, aspetto Novembre. ?

Che poi lo potete vedere tranquillamente dalla mia config, sono full AMD, non mi dispiacerebbe mettere una bella Red Devil con prestazioni da 3080 a 100 sacchi di meno, pero' che non si porti dietro i problemi delle 5700xt. ?
 
Anche se ci fosse in raster, conterà poco perchè è in Ray tracing che si giocherà la sfida della next gen, in tutti i giochi e nvidia ha già tecnologie come il DLSS che danno potenziali raddoppi di frame sempre!

Già soplo quella è una tecnologia che si è perfezionata ed ha avuto un evoluzione notevole.

Su questi frangenti in AMD non si sa nulla e non è un caso secondo me
Ci fossero 9 giochi su 10 in RT ti darei ragione, ma c'è l'1% dei giochi in RT e se prendiamo solo i tripla A non arriviamo al 10%, inoltre a quanto pare gli sviluppatori nei primi anni di next gen console non adotteranno come base la programmazione con RT, non credo che nei prossimi almeno 2 anni avremo tutti questi giochi con RT, è il futuro e anche AMD ci sta puntando ma è lunga la strada soprattutto per gli sviluppatori che fino a ieri programmavano in un modo, e sappiamo tutti che 99 giochi su 100 sono prima pensati per le console e poi portati su PC.
--- i due messaggi sono stati uniti ---
perfetto allora. nel gaming la prova del nove è superata.
Si esatto, molti oggi dicono che Fury X era competitiva, io dico che era la GPU peggiore di AMD, anche peggio di Vega.
Hawaii oltre a pareggiare Kepler gk100 aveva pure un prezzo inferiore dato che il Die Size era più piccolo, se posso fare un parallelismo potrebbe essere quello che accadrà tra un mese all'incirca, ma sulle reference un dissipatore decente perché il blower sulle 290x non si poteva vedere, anzi sentire ?
--- i due messaggi sono stati uniti ---
faccio una scommessa qui e adesso
--- i due messaggi sono stati uniti ---


Non è per fare polemica, ma pure un orologio rotto fa l'ora esatta 2 volte al giorno.

Il problema di amd non è nelle prestazioni ma nell'affidabilità se mi regalassero una scheda di fascia alta domani comprerei una 3080, chiamatemi fan o quello che volete, ma non volgio rivivere l'esperienza che che nel 50% dei giochi il pc va in crash ogni 3x2
Io e molti di quelli che conosco e ho conosciuto in questi anni nei vari forum non abbiamo mai avuto problemi gravi, c'è chi addirittura non ha mai avuto problemi di alcun tipo, addirittura il 50% dei giochi che non vanno è una cosa che non sta né in cielo né in terra ?.
Magari non te lo ricordi, ma 10 anni fa c'erano dei driver nVidia che facevano letteralmente friggere le schede perché all'improvviso a pieno carico si spegnevano le ventole!
Turing i primi 3 mesi ci sono state valanghe di rma a causa delle memorie che partivano con tanto di sfottò su internet dello space invaders.
Questo per dire nessun hardware o software e privo di difetti.
 
Ultima modifica da un moderatore:
La FuryX invece, uscita in giugno 2015, pur dando battaglia alla 980ti founders e avvicinandola notevolmente in 4k (almeno finchè i giochi non iniziarono a chiedere più di 4GB), non ebbe mai lo scettro di GPU più veloce: anzi, confrontandola con le 980ti custom perdeva anche del 20-30%, gap che si allargava ulteriormente se si effettuava anche un oc manuale perchè le Nvidia avevano più margine (la FuryX non consentiva l'overclock alle memorie).
Fury X fu lanciata con memorie HBM2 che furono la sua benedizione/limitazione. Le hanno piú utlizzate?
 
Si parla di AMD come se fosse la salvatrice del mondo. Nvidia ha fatto uscire delle schede davvero eccezionali ad un prezzo che nessuno si sarebbe aspettato, con tutte le features del caso, ma perché dovrei aspettare AMD? Lato schede video sicuramente non riuscirà a fare meglio, con RT e DLSS che boh, ed anche costasse 50 o 100 euro (che costare meno di quello che fatto Nvidia adesso è dura) in meno rischierei di avere un sistema non stabile? Ho avuto troppi problemi con loro, quindi comprando queste 3000 si è apposto fino alle prossime 4000.
 
Si parla di AMD come se fosse la salvatrice del mondo. Nvidia ha fatto uscire delle schede davvero eccezionali ad un prezzo che nessuno si sarebbe aspettato, con tutte le features del caso, ma perché dovrei aspettare AMD? Lato schede video sicuramente non riuscirà a fare meglio, con RT e DLSS che boh, ed anche costasse 50 o 100 euro (che costare meno di quello che fatto Nvidia adesso è dura) in meno rischierei di avere un sistema non stabile? Ho avuto troppi problemi con loro, quindi comprando queste 3000 si è apposto fino alle prossime 4000.
La aspetto perché se dovesse essere competitiva abbasserebbe i prezzi della competizione. Inoltre mi pare difficile al momento comprare nvidia dato che sul mercato sono introvabili, quindi probabilmente bisognerà aspettare lo stesso ?
 
In effetti visto cosi il pronostico del buon Nathan non e' molto carino.??

Voglio essere realista, recuperare 1-2 generazioni di features significa dover colmare un gap che equivale ad ere geologiche, ma io credo sia nelle corde di AMD, ma ci vuole tempo, e non è detto che arrivi a superare nVidia.
In ambito CPU invece propone cose che effettivamente la concorrenza non integra oppure fatica a farlo (a partire dal processo produttivo, che non è cosa banale).

Ci fossero 9 giochi su 10 in RT ti darei ragione, ma c'è l'1% dei giochi in RT e se prendiamo solo i tripla A non arriviamo al 10%, inoltre a quanto pare gli sviluppatori nei primi anni di next gen console non adotteranno come base la programmazione con RT, non credo che nei prossimi almeno 2 anni avremo tutti questi giochi con RT, è il futuro e anche AMD ci sta puntando ma è lunga la strada soprattutto per gli sviluppatori che fino a ieri programmavano in un modo, e sappiamo tutti che 99 giochi su 100 sono prima pensati per le console e poi portati su PC.

Invece io penso che dal momento che ci sta appuntando anche AMD e quindi Sony e Microsoft (hai detto niente, la comandano loro!), possiamo star certi che diventerà la normalità anche prima del previsto.
Per ora le uscite più importanti sembrano integrarlo, ed anch'io sono interessato, quindi questo potrebbe far pendere l'ago della bilancia per i consumatori.
 
Ci fossero 9 giochi su 10 in RT ti darei ragione, ma c'è l'1% dei giochi in RT e se prendiamo solo i tripla A non arriviamo al 10%, inoltre a quanto pare gli sviluppatori nei primi anni di next gen console non adotteranno come base la programmazione con RT, non credo che nei prossimi almeno 2 anni avremo tutti questi giochi con RT, è il futuro e anche AMD ci sta puntando ma è lunga la strada soprattutto per gli sviluppatori che fino a ieri programmavano in un modo, e sappiamo tutti che 99 giochi su 100 sono prima pensati per le console e poi portati su PC.

Il ray tracing nonostante non sia in tantissimi giochi ha dimostrato di essere la tecnologia del futuro a cui tutti puntano.

MA non solo quello tutte le tecnologia che vi sono accessorie

Il discorso non`e quello è che chi compra una scheda top gamma vuole anche feature uniche che sia uno o 3 giochi non ha alcuna importanza feature che AMD non ha e che è costretta ad inseguire


I
o e molti di quelli che conosco e ho conosciuto in questi anni nei vari forum non abbiamo mai avuto problemi gravi, c'è chi addirittura non ha mai avuto problemi di alcun tipo, addirittura il 50% dei giochi che non vanno è una cosa che non sta né in cielo né in terra ?.
Puoi crederci o meno ne ho avuto esperirenza diretta non solo io ma tutta una linea di VGA. Ho ancora 1000 crash documentati e chiedi a chiunque ja avuto una 5700xt i pruimi 6 mesi per capire quello che ha passato
Io non ho più proprio fiducia in AMD, e peggio ancora è che si difende amd inq uesto settore come se non avesse colpe, non è colpa mia se un mucchio di schede amd ha dato problemi agli utenti, me compreso

Qualcuno ha fatto male il proprio lavoro.

Ti p-osso linakre 3d dove difendevo AMD in questo forum succedeva 5 anni fa credevo esattametne come voi che AMD potesse in qualche modo fare concorrenza, oggi prefersco spendere anche centinaia di euro in più sdenza proprio battere ciglio e non`e questione che ripeto un azienda non possa sbalgiare ma si tratta di un "modus operandi" che se non cambiano rimarrà tale e quale possono fare schede potentissime.

Fai una ricerca con "black screen of death amd"e ti si aprirà un mondo...e vedrai che è un problema che AMD sui porta dietro dalle 280x è un eternità

Io non intendo pagare una scheda oltre 400 euro per poi fare da beta tester mi spiace.

Ti dirò di più diversi anni fa facevo come secondo lavoro l'assemblatore, ho smesso di montare schede AMD, per quanti problemi hanno dato agli utenti, puoi credermi o no ma il passato è questo, quando fai prendere ad un tuente una scheda e poi hai problemi di instabilità non è una cosa solo personale, è professionale io a chi mi chiedeva scheda amd preferivo non fare il lavoro.

Adesso io personalmente voglio stabilità amd non`e semplicemente in grado di offrirlo, non serve essere veggenti per capire che AMD si comporterà esattamente come si è comprata in questi ultimi anni cacciando schede sulla carta molto potenti e a prima vista anche con un pttimo rapporto qualità prezzo ma per avere dei drievr decenti si dovrà aspettare mesi e mesi

Eccoti alcuni riscontri oggettivi


Qui ancora difendo amd



Si può continuare all'infinito
 
Ultima modifica:
Cmq queste schede hanno più di qualcosa che non va, consumo spropositato quando il solo chip della 3080 ha consumi pari a quelli della 2080. Quindi gli altri 100/150W se li ciuccia il pcb, con le memorie gddr6 che a quanto pare in load sfiorano i 100°
C'è decisamente qualcosa che non va, altro che miracoli
 
Pubblicità
Pubblicità
Indietro
Top