Stai usando un browser non aggiornato. Potresti non visualizzare correttamente questo o altri siti web. Dovreste aggiornare o usare un browser alternativo.
queste sono le stime della RX 7090xtx in rasterizzazione e in Raytracing....se i numeri sono veramente questi prendo di sicuro una 7090xtx e scarto la rtx 4080 in questo giro... e se cercate in giro ci stanno altri nuovi benchmark della 4080 e si riconferma di solo il 15% più veloce della 3090ti, quindi ancor più convinto di prendere la gpu AMD ;)
ecco il link
Questo è svincolato dalle speculazioni che le Case (specie Nvidia) stanno facendo. Quello è un gioco sporco che non apprezzo, ma che non mi fa certo apprezzare meno il RT.
Come fa a svincolarsi "gioco sporco" se per avere il rt sino ad oggi sei stato obbligato a pagare la "tassa nvidia" nata con la serie 2000.
Ovvio che l'effetto è migliorativo, ma se per averlo devo spendere il doppio per una gpu allora forse non vale la pena.
--- i due messaggi sono stati uniti ---
ió tuoi ripeto nei tuoi commenti leggo sempre una lotta contro il ray tracing non perchè non ti piace l'; effetto ma semplicemente perchè è stata nvidia ad implementarlo per primo ed amd sta indietro
E allora seguendo la tua logica tu sei a favore perché ti piace nvidia... Mi sembrano ragionamenti che lasciano il tempo che trovano
--- i due messaggi sono stati uniti ---
Ma tornando al mondo videogiochi Nvidia è troppo avanti in questo campo , per adesso AMD è dietro di almeno 10 anni così come Intel, ed è per questo che se la menano con la storia del rastering …
no io sono a favore perchè sono dotato di vista, un render in RT è molto più fotorealistico di un render in raster e te lo abbiamo dimostrato tante volte
solo se non si è obbiettivi si può affermare che un render in raster è meglio di un render in RT o che "ti accontenti"del raster perchè esistono giochi che in raster sono fatti abbastazna bene.
Per una scheda video ci vuole 1k oggi sia che parliamo di AMd che di nvidia quindi uno dovrebbe spendere 1k di scheda ed accontentarsi della rasterizzazione?
Ah ok quindi tu sei a favore perché dotato di vista, io sono a sfavore perché fanboy di AMD.
Vabbè caso chiuso. Mi arrendo.
Fammi sapere come va la 4090 in RT sono sicuro sarà molto più fotorealistica e pertanto valida sopra ogni possibile dubbio.
Dopo tutto il RT è il futuro, ogni risorsa spesa in quella direzione è un valido investimento che non va minimamente ponderato.
tu affermi che il mondo grafico deve fermarsi alla rasterizzazione cosa che non sta nè in cielo nè in terra, visto che la tecnologia avanza e la grafica non ha "sponsor"
Fammi sapere come va la 4090 in RT sono sicuro sarà molto più fotorealistica e pertanto valida sopra ogni possibile dubbio.
Guarda che AMD spinge il RT allo stesso identico modo anzi forse pure peggio la tua è una crociata contro i mulini a vento
Mi ricorda tanto l'epoca della transizione dal 2d al 3d in cui vi erano persone che snobbano il 3d perchè "troppo pesante" e vi erano decine di persone che non volevano ammettere che il 3d era oggettivament eil futuro...
No, dico che era meglio quando c'era solo la rasterizzazione e le schede di fascia media andavano dai 180 ai 300 euro!
Ed è iniziato tutto proprio con l aumento di prezzi della serie 2000 perché aveva il rt che era il futuro! (e quindi una serie 60 poteva costare 400 euro).
E già allora c'erano i paladini del rt a dire quanto convenisse la serie 2000 perché ormai tutto sarebbe stato in rt.
Due serie dopo "il futuro" e abbiamo la serie 4000 con la 80 che parte da 1200 e qualcuno ancora dice "eh però in rt va molto bene...".
Ma chissenefrega del rt se devo pagarlo mille euro in più di prima!
Smettetela di farvi prendere in giro e di pensare che il rt valga qualsiasi cosa.
Oppure continuate, tanto il portafogli è vostro e io ho pure perso interesse nel gaming visto che costa più una scheda video che il resto del pc ormai, quindi non mi cambia nulla.
No, dico che era meglio quando c'era solo la rasterizzazione e le schede di fascia media andavano dai 180 ai 300 euro!
Ed è iniziato tutto proprio con l aumento di prezzi della serie 2000 perché aveva il rt che era il futuro! (e quindi una serie 60 poteva costare 400 euro).
E già allora c'erano i paladini del rt a dire quanto convenisse la serie 2000 perché ormai tutto sarebbe stato in rt.
Due serie dopo "il futuro" e abbiamo la serie 4000 con la 80 che parte da 1200 e qualcuno ancora dice "eh però in rt va molto bene...".
Ma chissenefrega del rt se devo pagarlo mille euro in più di prima!
Smettetela di farvi prendere in giro e di pensare che il rt valga qualsiasi cosa.
Oppure continuate, tanto il portafogli è vostro e io ho pure perso interesse nel gaming visto che costa più una scheda video che il resto del pc ormai, quindi non mi cambia nulla.
quidni che una 7900xtx costa q1200 euro per te va benone
il prezzo di un prodotto è relativo e soggettivo, im prezzi si sono alzati per una serie di ragioni che non hanno nulla a che fare con l'avvento del RT.
Dare la colpa al RT per l'aumento dei prezzi e a nvidia perchè lo ha introdotto è semplicemente un analisi sbalgiata!
E'come fissare il dito quando uno ti indica la luna
Smettetela di farvi prendere in giro e di pensare che il rt valga qualsiasi cosa.
Oppure continuate, tanto il portafogli è vostro e io ho pure perso interesse nel gaming visto che costa più una scheda video che il resto del pc ormai, quindi non mi cambia nulla.
Ma se eri tu uno di quelli che diceva che la serie 2000 aveva il rt che era il futuro e quindi valeva di più!
Ripeto, vendevanoe 2060 a 350-400euro solo perché avevano scritto RTX davanti. E li giustificavate.
Mai detto una cosa dle genere fortse te lo sei sognato dire che il Rt è il futuro della grafica è PALESE
io sono stato molto critico sul lancio delle schede RTX 2000 tanto che non l'ho nemmeno comprata e consigliammo le 1080 per lungo tempo che avevano un maggior valore
Cosa diversa quando hanno introdotto LE SUPER che avevano un vantaggio al livello prestazionale in raster ed in più introducevano anche il RT CON PREZZI TAGLIATI, tutto questo mentre AMD arrancava ancora con i driver buggati delle sue rx 5000
Tu confondi l'entusiasmo per una tecnologia col giustificare qualsiasi cosa si chieda in cambio.
io non giustifico nulla se posso permettermi una scheda a mi garba me la compro, altrimenti la lascio sullo scaffale indipendentemente dalla marca, ma non nego l'evidenza ed i vantaggi tecnologici grafici derivanti dal Ray Tracing che è uns ettore totalmente a parte
Chiunque conosce l'ABC della grafica ti può dire che il ray tracing è la naturale evoluzione ed è successo prima in altri settori, cosi come nel cinema e nell'animazione, prima o poi doveva accadere anche nel mondo ludico dei videogiochi
Il discorso AMD ed NVIDIA mi ricorda un po’ il mercato delle auto di adesso , se devo spendere tanto allora tanto vale che punto in alto , se mi metti una Fiat 500 a 30000 euro all’ora né spendo 32000 e prendo un’altra auto superiore.
Se devo spendere 1200 euro all’ora punto in alto e vado su Nvidia perché è garanzia sul lato software ed su lato hardware è ok.
Comunque è inutile scansarsi adesso perché ci sono troppe situazioni da considerare, se AMD tira fuori una scheda dalle buone prestazioni e prezzo decente ( che so una buona 7800xt) all’ora cambio idea e passo di la..
Con i se e con i ma non si va da nessuna parte, ora come ora il best buy è la 3080 da 10 gb tra le 700-800 euro oppure al prezzo più basso
Inviato dal mio iPhone utilizzando Toms Hardware Italia Forum
Il discorso AMD ed NVIDIA mi ricorda un po’ il mercato delle auto di adesso , se devo spendere tanto allora tanto vale che punto in alto , se mi metti una Fiat 500 a 30000 euro all’ora né spendo 32000 e prendo un’altra auto superiore.
Se devo spendere 1200 euro all’ora punto in alto e vado su Nvidia perché è garanzia sul lato software ed su lato hardware è ok.
Comunque è inutile scansarsi adesso perché ci sono troppe situazioni da considerare, se AMD tira fuori una scheda dalle buone prestazioni e prezzo decente ( che so una buona 7800xt) all’ora cambio idea e passo di la..
Con i se e con i ma non si va da nessuna parte, ora come ora il best buy è la 3080 da 10 gb tra le 700-800 euro oppure al prezzo più basso
Inviato dal mio iPhone utilizzando Toms Hardware Italia Forum
(perdonami, ma non riesco a considerare best buy una 3080 10GB a 700/800, che e' il prezzo a cui l'acquistai 2 anni fa... ossia l'MSRP di piu' di 2 anni fa)
Sul lato ricerca e sviluppo software AMD ha decisamente cambiato rotta negli ultimi 3/4 anni:
Sviluppo con GPU NVidia, ma ho anche AMD (per ovvi motivi) e sebbene AMD abbia ancora un gap da recuperare (in quanto a supporto sviluppatorei e software), non e' piu' la landa desolata di 5 anni fa.
Ed anche lato drivers adesso la cosa e' totalmente diversa e non son solo io a dirlo (avevo postato un video che parlava proprio di questo):
(perdonami, ma non riesco a considerare best buy una 3080 10GB a 700/800, che e' il prezzo a cui l'acquistai 2 anni fa... ossia l'MSRP di piu' di 2 anni fa)
Sul lato ricerca e sviluppo software AMD ha decisamente cambiato rotta negli ultimi 3/4 anni:
Sviluppo con GPU NVidia, ma ho anche AMD (per ovvi motivi) e sebbene AMD abbia ancora un gap da recuperare (in quanto a supporto sviluppatorei e software), non e' piu' la landa desolata di 5 anni fa.
Ed anche lato drivers adesso la cosa e' totalmente diversa e non son solo io a dirlo (avevo postato un video che parlava proprio di questo):
una 6800xt a 570€ è da prendere subito! top best price!! anche perchè ha prestazioni ottime, non è una scheda di fascia media ma di fascia alta per me..
Ed è iniziato tutto proprio con l aumento di prezzi della serie 2000 perché aveva il rt che era il futuro! (e quindi una serie 60 poteva costare 400 euro).
E' iniziato con la serie 2000 perché Turing, restando sostanzialmente sullo stesso nodo, aveva dei chip che erano pizze rispetto alla serie precedente:
GP 104 --> 314 mmq --> TU104 --> 545 mmq (+73% di area)
GP 102 --> 471 mmq --> TU102 --> 754 mmq (+60% di area ed una delle gpu più grandi realizzate in ambito consumer)
Lo stesso TU 106 è ben 445 mmq, quasi come il vecchio GP102!
E' ovvio che con queste dimensioni o alzavano i prezzi o accettavano di ridurre il margine di profitto, trovandosi in una situazione dove AMD con le VEGA a fatica riusciva a competere con le 1080 lisce (NAVI è uscito ben 6 mesi dopo, quindi hanno potuto correggere il tiro facendo uscire le "Super") per nVidia era un momento propizio a far uscire un qualcosa di diverso dal solito
Altrimenti avrebbero potuto riproporti un "Pascal 2.0", magari con core INT ma privo sia di tensor che di RT core che di sicuro avrebbe avuto die ben più piccoli e quindi più economici (ma non avendo una vera concorrente all'epoca di certo non era così importante vincere sul rapporto prezzo prestazioni)
NVidia nel 2018 ha quindi puntato a realizzare un cambiamento di tutta l'industria videoludica (@crimescene che lo paragona al passaggio 2D/3D ha perfettamente ragione)
E' ovvio che la prima serie diventa costosa, anche perché tale mercato diventa quasi "monopolista" visto che l'altra non offre le stesse funzionalità
E visto che la prima serie Navi non è che fosse poi particolarmente economica (perché seppur con die piccoli era realizzata su un pp più avanzato e costoso) è stato ancora più facile far affermare le proprie RTX
Quello che poi è successo degli ulti due anni non era prevedibile ed ha creato il disastro in cui siamo ora con i prezzi (cosa in cui in effetti nVidia ci ha sguazzato e continua a farlo, ma non è che AMD sia stata da meno)
L'RT è il futuro, di questo ne sono certo anche io, tuttavia ad oggi non lo considererei come ago della bilancia per scegliere la gpu (personalmente prioritizzerei l'efficienza energetica ad esempio)
Tanto se si va sulla fascia "bassa" (RX 6600 fino a RTX 3060Ti) di fatto attivare RT ti mette praticamente le schede in ginocchio per entrambe le soluzioni, mentre sulla fascia alta (RX6800XT fino a RTX 3090Ti) entrambe consentono risultati "giocabili" anche se una è palesemente più prestante dell'altra (per le nuove serie mi riserbo di avere recensioni prima di emettere giudizi)
Nel mezzo ci sono soluzioni che da un lato danno un'esperienza giocabile e dall'altro no, ma sarà l'utente a fare le sue valutazioni e scegliere (siamo in una fase di transizione quindi è normale che alcuni vogliano provare la novità a tutti i costi e che altri la vedano troppo costosa)
Ovviamente dico questo perché entrambe (tutte e tre in realtà, visto che anche intel lo ha e con buonissimi risultati*) propongono soluzioni in grado di attivare tale funzionalità, perché se uno non offrisse alcun supporto all'RTRT oggi sì che sarebbe fuori mercato
Dico che ha buoni risultati in RT perché i cali in percentuale che hanno mostrato sono simili a quelli che mostrano le nVidia, poi è chiaro che si parla di fascia "bassa" e quindi i risultati in termini di pure prestazioni sono quelli che sono
Ma tuttavia significa che l'hw sotto è buono altrimenti il calo prestazionale sarebbe dovuto essere più ampio tra RT off ed on https://www.techpowerup.com/review/intel-arc-a770/34.html
(perdonami, ma non riesco a considerare best buy una 3080 10GB a 700/800, che e' il prezzo a cui l'acquistai 2 anni fa... ossia l'MSRP di piu' di 2 anni fa)
Sul lato ricerca e sviluppo software AMD ha decisamente cambiato rotta negli ultimi 3/4 anni:
Sviluppo con GPU NVidia, ma ho anche AMD (per ovvi motivi) e sebbene AMD abbia ancora un gap da recuperare (in quanto a supporto sviluppatorei e software), non e' piu' la landa desolata di 5 anni fa.
Ed anche lato drivers adesso la cosa e' totalmente diversa e non son solo io a dirlo (avevo postato un video che parlava proprio di questo):
AMD non possiede lato software come Nvidia, il DLSS 3 si può avere anche sulle serie 2000 , poi per questioni di marketing hanno deciso solo sulle 4000 , ma il DLSS 3 è un algoritmo strabiliante riesce a creare fps dove non ci sono , ipoteticamente una rtx 2080 con DLSS 3 attivo ti porta un cyberpunk 2077 in 4K a oltre 60 fps
AMD non possiede lato software come Nvidia, il DLSS 3 si può avere anche sulle serie 2000 , poi per questioni di marketing hanno deciso solo sulle 4000 , ma il DLSS 3 è un algoritmo strabiliante riesce a creare fps dove non ci sono
E lo vieni a dire proprio a me che lo scrissi praticamente il giorno della presentazione che NON poteva essere una tecnologia esclusiva delle serie 4000?
Ma in pratica stai parlando di qualcosa che non c'e'... e di cui nemmeno si sa (al momento) se ci sara'!
Ovviamente a meno di non comprare una serie 4000 o che NVidia decida di renderlo disponibile anche alle generazioni precedenti.
Se proprio dobbiamo parlare di qualcosa che non c'e', ma che almeno si sa che ci sara', parliamo dell'FSR 3.0 With Fluid Motion Tecnnology, che sara' disponile nel 2023.
Anch'esso basato sulla "tecnologia" intraframe e sara' OpenSource, (e si sa che) sara' utilizzabile sulle generazioni precedenti (almeno serie 6000), ma anche trasversalmente tra i vari brands (intel/NVIdia/AMD/etc).
AMD has officially announced its next-generation FiedlityFX Super Resolution technology known as FSR 3 with Fluid Motion Frame Tech.
wccftech.com
So bene che NVidia e' avanti lato software, anche se non piu' come 4 anni fa, ma dato che avevi parlato di "best buy", e' impensabile prendere in considerazione una 3080 che oggi costa 850 euro (fonte trovaprezzi... la pagai 768 euro a settembre 2020) ... che e' quasi 300 euro in piu' di una 6800XT, piu' del 50% in piu' rispetto al prezzo della 6800XT.
Permettimi, ma non puo' essere considerata una best buy: e' una scheda sovraprezzata (di almeno di 200 euro) e questo (oggi) e' dovuto solo alla politica di NVidia di voler tenere i prezzi alti (e continuare a vendere serie 3000), con il posizionamento alle stelle della serie 4000 ed il vincolo del DLSS3.
Pero' se la gente la pensa cosi'... evidentemente il marketing NVidia funziona e sono io che sbaglio.