UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
però magari a sto giro sul RT AMD si porta alla pari con Nvidia, chi può dirlo ? 🤷‍♂️

Io non ci credo nemmeno un pochino però tutto può succedere, staremo a vedere.

Spesso ho la sensazione che Nvidia si comporti in maniera cosi sciatta e fa scivoloni talmente palesi perchè sa che ha dei concorrenti che non possono competere

E' ovviamente una mia sensazione ma bu

intanto 4090 sempre disponibile 2499 ( vendute e spedite da amazon)

ALmeno in una delle mie previsioni ci ho beccato non sarà un problema comprarle
 
Attenzione Amd sta per tirare il rigore.
Per me la manda in tribuna😂
Dubito fortemente che qualcuno in questo forum ti spingerebbe ad acquistare la rtx 4090.
Se vuoi conosco un forum dove dicono che é il miglior prodotto Nvidia da 15 anni. Ci fanno pure overclock di frequenza e memoria 😉
--- i due messaggi sono stati uniti ---
Il remake del primo uscito su ps5 poco tempo fa sta per arrivare su pc, mentre il secondo potrebbe arrivare nel 2023/2024.
Su instant gaming il primo lo danno esaurito🤔
 
Ora non ricordo come era andata. Credo ci sia ancora la discussione da qualche parte. Comunque funzionò. Mi consigliò di salire leggermente perché in termini di prestazioni su bench aveva notato che lacscheda era un pò altalenante. Dopo il setting di Prinolo è andata ottimamente. Adesso sono sceso per via dei nuovi driver che spingono di più le 3000. Ho diminuito undervolt e lasciato le stesse frequenze. Riportato a 100 pl. Time spray ottimo.

Sì, te l'avevo suggerito perchè la tua scheda taglia: evidentemente raggiunge il power limit massimo impostato, ci sbatte contro e la frequenza scende. Si vede anche nei grafici che hai postato prima.
Comunque se le prestazioni sono ok per te, va bene anche così.

però magari a sto giro sul RT AMD si porta alla pari con Nvidia, chi può dirlo ? 🤷‍♂️

Magari sì. Io penso rimaranno ancora dietro, magari con gap ridotto, mentre forse, con la RX 7900 XT, si prenderanno la leadership a livello di prestazioni rastering.
Però non sono un indovino, posso sbagliare.
 
a me AMD fa paura solo in un senso nella straordinaria instabilità dei driver e della loro capacità intrinseca di mandare tutto a puttane
sulla stabilità dei driver hanno fatto passi avanti notevoli, negli ultimi due anni.
Non dimentichiamoci che all'epoca i Catalyst erano più stabili dei Detonator, per chi sa di cosa sto parlando, quindi non è che le situazioni restano statiche nel tempo...
Nvidia ha preso una brutta deriva, e non è detto che resti al top per sempre.

Sì, te l'avevo suggerito perchè la tua scheda taglia: evidentemente raggiunge il power limit massimo impostato, ci sbatte contro e la frequenza scende. Si vede anche nei grafici che hai postato prima.
Comunque se le prestazioni sono ok per te, va bene anche così.

che vada a muro sul power limit in undervolt è strano però 🤔
Magari sì. Io penso rimaranno ancora dietro, magari con gap ridotto, mentre forse, con la RX 7900 XT, si prenderanno la leadership a livello di prestazioni rastering.
Però non sono un indovino, posso sbagliare.
beh, AMD non ha fatto trapelare molto su RDNA3 come prestazioni. Pochi giorni fa un analista, non so quanto affidabile, diceva che non saranno in grado di competere con la 4090, ma che daranno battaglia sulle altre classi.
Il che a me andrebbe anche benissimo perché ritengo la 4090 sostanzialmente inutile.
 
Sì, te l'avevo suggerito perchè la tua scheda taglia: evidentemente raggiunge il power limit massimo impostato, ci sbatte contro e la frequenza scende. Si vede anche nei grafici che hai postato prima.
Comunque se le prestazioni sono ok per te, va bene anche così.



Magari sì. Io penso rimaranno ancora dietro, magari con gap ridotto, mentre forse, con la RX 7900 XT, si prenderanno la leadership a livello di prestazioni rastering.
Però non sono un indovino, posso sbagliare.
In termini di prestazioni va come prima. Se noto che scende un pò, aumento il PL come mi avevi consigliato. Adesso che ho compreso posso farlo in autonomia. Comunque , anzi, le prestazioni sono migliorate come puoi vedere dal primo time spy
 
su quello che dice @Avets sul RT lo dico senza offesa ci vedo dei commenti di parte ed una crociata senza alcuna senso solo per il fatto che è Nvidia ad aver "spinto"verso il ray tracing epr prima e non è stata AMD.

Scommettiamo che se AMd un giorno diventa "leader"nelgi effetti in RTX ( cosa improbabile ma non impossibile) tutti quelli che adesso criticano il RT questo diventa assolutamente fondamentale per la vita?( Un tempo da giovane ero anche io un fan AMD e non ci sta nulla di male ad essere fan se non che non ti fa vedere le cose in maniera obiettiva)

Sono perfettamente d'accordo che anche in rasterizzazione si possono avere grafiche bellissime se fatta bene ma come ben sai il RT era inevitabile prima o poi che arrivasse così come prima o poi arriverà il path tracing non si pu]o assolutamente negare per quanto un effetto in raster risoluti ben fatto che alla fin fine con effetti in RT io in path tracing diventa tutto "migliore"in maniera proprio oggettiva.

A chi dice che "ammazza le prestazioni"io rispondo che qualsiasi applicazione grafica che dia un impatto significativo verso il realismo lo fa, ray tracing o non ray tracing, tutto sta nell'investimento "lavorativo"che si impiega per raggiungere quell'effetto.

Tornado all'immagine "buia" che ho postato, haio ben detto "gli sviluppatori hanno ritenuto di non lavorarci per uno scorcio così breve" ma ci sta da domandarsi quanti scorci "così brevi" ci saranno in un gioco AAA e quanto tempo costerebbe a far risultare in raster questi scorci più realistici?
Si nota lontano un miglio l'idiosincrasia di @Avets per il colore "verde": so che se potesse dipingerebbe anche i prati in rosso 😁 (detto con ironia, ma col sommo rispetto che nutro per la persona cui e').
E la penso esattamente come te: anche per me le scene in raster risultano innaturali, proprio perche' si e' abituati a percepire il "reale" diversamente: il nostro cervello lo e'... (proprio come hai detto tu: forse prima mi sono espresso male).

Volevo solo dire che l'unica spiegazione che riesco a darmi, del perche' alcune persone continuano a non "vedere" tutti i miglioramneti/benefici del RT (ma solo la pesantezza che porta) e' che ormai si e' abituata a una certa artificiosita' delle scene nei giochi... e si sa che le abitudini sono difficili a morire.
Ma son anche convinto che, con l'andar del tempo, questa evidenza la percepiranno da se'.
Ed infine che ce ne facciamo di schede potentissime se non si alza l'asticella del realismo ad un passo successivo"( Ed ovviamente a quello altro ancora?)

Io sono uno di quello che pensa che il realismo grafico non ha brand è assolutamente neutro ed a chi riesce ad alzare l'asticella verso quel senso ci vuole tanto di cappello 😃 ( che sia AMD Nvidia o Intel o quialsiais altro)
Assolutamente d'accordo.
Sviluppo con NVidia (3080, attualmente), perche' oggettivamente mi mette a disposizione "strumenti di sviluppo" piu' completi (ed imparagonabile documentazione), ma ho anche AMD (6700xt, su altro PC) per fare test e debug.... e prendero' anche un ARC Intel, appena possibile.
"Tifo" da sempre AMD, nella speranza che tali "strumenti" non diventino chiusi e legati solo ad un brand unico (i.e. CUDA): amo la protabilita' del software.
Purtroppo AMD (lato software) si e' svegliata sono negli ultimi 3/4 anni, e spero non si riaddormenti come ha gi'a fatto piu' volte, dato che in passato (lato sviluppatori) ha alternato periodi di impegno a (troppo!) LUNGHI periodi di silenzio totale.
 
Ultima modifica:
Questa tua teoria funzionerebbe solo se l'utente di questo forum è un idiota. Ti posso garantire che io come tante altre persone qui, che compriamo da una vita Nvidia, saremo disposti a cambiare senza problemi se solo l'offerta ci fosse.
Non hai capito.

Intendevo che la gente come noi qui nel forum che si tiene informata prenderebbe AMD a quel punto, mentre tutti gli altri (quindi escludendo noi del forum) che si informano magari sulle recensioni markettare di youtube o manco quelle, si prenderebbero ancora nvidia.

E' lo stesso motivo per cui tanti prendono ancora iphone o apple in generale.

Non che siano scelte sbagliate a prescindere ma se vai a chiedere all'untente medio apple o nvidia il perché della loro scelta, ti diranno in sintesi che è solo per il nome del marchio.
--- i due messaggi sono stati uniti ---
Però, in questo momento storico, c'è anche più attenzione ai prezzi e se AMD si piazza a prezzi decisamente più competitivi di Nvidia non penso che avrà difficoltà a rubare market share.
Si, ma rubare quanto ? un 10% ? Sarebbe già tanto secondo me.

Neanche i ryzen all'inizio, seppure oggettivamente migliori, non sbaragliarono intel. Ci volle più di una generazione, e nvidia ha una marchio più forte di intel (almeno per quanto riguarda il gaming, chiaro).
--- i due messaggi sono stati uniti ---
Non è detto, con le cpu i primi ryzen hanno riportato concorrenza e smosso la stagnazione che si era creata, ma oggettivamente non erano avanti a tutto tondo
La prima serie che è stata davvero competitiva è la 3000 ed ha fatto da subito i grandi numeri
Esatto, pure qui, batteranno nvidia in raster ma poi ci sarà il rt.

Gli ci vorranno almeno 3 serie vincenti per confermarsi "migliore" nella testa degli utenti "comuni".
--- i due messaggi sono stati uniti ---
Il punto è che AMD per me è come andare a mangiare in trattoria, mentre nvidia è come se vai a mangiare in un ristorante stellato, sono 2 cose diverse 😃
Sono d'accordo.

AMD -> grigliata di carne e vino rosso - fatta da toni il macellaio - buona - 30euro
nvidia -> piattino di roba colorata e bella da vedere con vino del 1200 - preparato da chef stellati - gusto incomprensibile per i poveri umani - 200euro + mancia al cameriere
 
Ultima modifica:
Intendevo che la gente come noi qui nel forum che si tiene informata prenderebbe AMD a quel punto, mentre tutti gli altri (quindi escludendo noi del forum) che si informano magari sulle recensioni markettare di youtube o manco quelle, si prenderebbero ancora nvidia.
Ok, allora non avevo capito. Si la massa sicuramente compra il marchio più famoso, quello con un Marketing più aggressivo e funzionante.
Io come tanta altra gente informata ho comprato da Nvidia poiché non c'è un alternativa valida, purtroppo.

Quello che però ci tengo a precisare è che non voglio essere offensivo quando dico che Nvidia attualmente vende prodotti superiori, la tua rx 6800 è un ottima gpu che in raster è veloce quanto una rtx 3070ti ma che non era una valida alternativa, almeno per me, poiché in ray tracing non mi avrebbe potuto soddisfare, mettici anche la mancanza del dlss/G-sync e la brutta esperienza passata con i driver amd che ad oggi saranno sicuramente stati risolti.
Spero per te che in futuro se Nvidia dovesse vendere prodotti superiori e a prezzi super competitivi rispetto ad amd ( come sarebbe dovuta essere la serie rtx 3000 con i suoi prezzi msrp ) tu non ti precludi un ottima gpu nvidia solo perché ami il marchio rivale, faresti del danno solo a te stesso.
 
Tornado all'immagine "buia" che ho postato, haio ben detto "gli sviluppatori hanno ritenuto di non lavorarci per uno scorcio così breve" ma ci sta da domandarsi quanti scorci "così brevi" ci saranno in un gioco AAA e quanto tempo costerebbe a far risultare in raster questi scorci più realistici?
Ma sono d'accordissimo ed infatti lo avevo detto anche prima questo.

Col RT semplicemente noi paghiamo di più e gli sviluppatori devono programmare meno.
Non lo dico per screditare per principio.
Oggettivamente uno dei vantaggi del RT è che diventa molto più facile gestire l'illuminazione senza sbattersi dietro a 20 diversi effetti raster per renderle realistiche.
E sempre oggettivamente uno dei contro è stato che nvidia ha sfruttato la cosa per alzare tutti i prezzi, dalla serie 2000 in poi.
--- i due messaggi sono stati uniti ---
Spero per te che in futuro se Nvidia dovesse vendere prodotti superiori e a prezzi super competitivi rispetto ad amd ( come sarebbe dovuta essere la serie rtx 3000 con i suoi prezzi msrp ) tu non ti precludi un ottima gpu nvidia solo perché ami il marchio rivale, faresti del danno solo a te stesso.

Figurati, è ovvio che in quel caso... aspetterei la generazione successiva ! 😁

O magari valuterei intel, se nvidia può diventare conveniente allora intel può fare schede valide 🤔
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top