UFFICIALE AMD RDNA3

Pubblicità
Sentite io ho cambiato ordine solo perchè non mi ero accorto della presenza nello stesso store di una rtx 4070 Super a buon prezzo, quindi ho lasciato la 7900 GRE ed ho preso al 4070 super, solo perchè in raster vanno simili ma in RT la Super va meglio.
Ma non avrei mai mollato la 7900 GRE per una 4070, non perchè la 4070 non sia buona, ma perchè la 7900 GRE va molto meglio in raster e anche se va meno in RT , ha comunque SFR che per me andava comunque benissimo.
LA mia scelta ricade sempre su ciò che appendo quando spendo. Tra 7900 e 4070 avrei preso la 7900 a parità di prezzo. Una 4070 Super a 70 euro in più invece è preferibile per ciò che mi da.
 
Sentite io ho cambiato ordine solo perchè non mi ero accorto della presenza nello stesso store di una rtx 4070 Super a buon prezzo, quindi ho lasciato la 7900 GRE ed ho preso al 4070 super, solo perchè in raster vanno simili ma in RT la Super va meglio.
Ma non avrei mai mollato la 7900 GRE per una 4070, non perchè la 4070 non sia buona, ma perchè la 7900 GRE va molto meglio in raster e anche se va meno in RT , ha comunque SFR che per me andava comunque benissimo.
LA mia scelta ricade sempre su ciò che appendo quando spendo. Tra 7900 e 4070 avrei preso la 7900 a parità di prezzo. Una 4070 Super a 70 euro in più invece è preferibile per ciò che mi da.
Assolutamente, non sto discutendo il tuo punto di vista con il post770, stavo solo aggiungendo quell'informazione, dato ancora che nel 2024, dopo 6 anni da quando sono uscite le prime RTX, i pc gamers nel mondo spesso si fermano a guardare il numerino senza considerare il DLSS, perchè il RT è inteso a tutti gli effetti di essere utilizzato con il DLSS, che non è solo un banale upscaler come FSR

Per quanto riguarda l'upscaler Sony PSSR, ad ogni modo, non sappiamo in alcun modo quanto c'entri o meno AMD stessa, anche perché mi riesce difficile pensare che non collaborino, visto che gioverebbe assai per una futura versione di FSR.
Perdonami, prima mi sono dimenticato di rispondere in merito a questo paragrafo, che secondo me è un tema di rilievo. PSSR non contempla in alcun modo la presenza di codice AMD, parliamo di un brevetto di sony stessa, di un upscaler + denoiser che gira su un modello LLM addestrato per l'AI. FSR, per com'è adesso, non ha nulla a che vedere con tutto ciò. Ps5 pro metterà a disposizione degli sviluppatori questo chip onbard, ripeto proprietario di sony, che permetterà l'utilizzo dell'upscaler PSSR; poi sta agli sviluppatori stessi utilizzarlo o meno, ma sono sempre liberi di rilasciare le proprie produzioni con l'ausilio di FSR o banalmente il semplice checkboard, ma non viene più utilizzato quasi da nessuna parte; un pò come avviene su pc che abbiamo DLSS, FSR ed XeSS, oltre ai vari upscaler degli engine proprietari dei giochi, vedi TSR di unreal engine, di epic. Ma sicuramente, ritornando sulle console, PSSR sarà la scelta migliore, perchè sarà di fatto come un DLSS, magari agli inizi più acerbo, ma con una resa molto simile! Grazie ai tensor core, spesso e volentieri, soprattutto con le ultime versioni del DLSS, si vede meglio che in nativo. È una cosa da vedere con i propri occhi a schermo.

Non solo PSSR, ps5 pro avrà un focus importante sull'impiego del Ray Tracing, si parla di prestazioni triplicate rispetto all'attuale APU per ps5/xbsx; ovvio, non ci voleva molto, le prestazioni dell'attuale APU sono pressochè nulle, il RT su console esiste SOLO in maniera emulata ad oggi, casi sporadici in hardware, ma si parla di effetti minimi e poco definiti, come ratchet&clank, dove su console la modalità RT attiva solo i riflessi rispetto alla versione pc che attiva riflessi, ombre ed occlusione ambientale, ma in maniera enormemente più definita; tuttavia rispetto ad ora sarà un bel salto per ps5 pro parlando di ray tracing! Grazie anche a PSSR sarà in grado di gestire titoli veramente next gen come cp2077 in full RT!

Ecco, sony va in questa direzione

P.s. con questo mi riallaccio con il discorso nextgen fatto al post769
 
Ultima modifica:
Dico la mia...
Finché non finisce questa generazione di console non ci sarà alcuna "rivoluzione", ne riparliamo tra qualche anno e probabilmente le schede di queste ultime generazioni saranno tutte obsolete, salvo forse quasi top/top di gamma Nvidia 😅.
Secondo me ti sbagli. Le console non centrano nulla.
Crysis 2007 rivoluziono il mondo del gaming con la sua spaventosa grafica e fisica, Half life 2 lo fece qualche anno prima, Halo Combat evolved rivoluziono il genere fps come molti anni prima lo fece DOOM creando quel genere e potrei continuare cosi all'infinito.

Che si tratti di rivoluzione grafica o di rivoluzione del gameplay ecc in ogni caso non è per forza legato all'hardware ma agli sviluppatori/software house.

Crytek all'epoca non era limitata dalla xbox 360 o ps3. Avevano a disposizione l'hardware PC che era più potente, avevano un obbiettivo che era di stupire il mondo videoludico (per mettere sul mercato il loro motore grafico), avevano soprattutto le capacità e infatti nel 2007 usci Crysis.

La tua affermazione non ha nessun senso logico per me, guarda per esempio Alan Wake 2 o Baldurs Gate 3, entrambi giochi pensati e sviluppati per PC e solo in un secondo momento per console. Il primo ha sfruttato tutto il potenziale hardware e tecnologico di Nvidia, andando a portare gli effetti ray tracing/path tracing ad un nuovo livello che le console potranno solo sognare di fare, mentre il secondo gioco ha portato un mondo di gioco pieno di vita e I.A. avanzata, tanto da mettere a dura prova le console.
Le console non sono un fattore limitante, il limite se lo impongono ( o viene imposto da finanziatori ) le software house.
 
Ogni giorno leggo su reddit sul forum degli sviluppatori gente che si lamenta che non trova lavoro, con la crisi che c'è adesso nel settore sentir dire che RTX deve essere messo di default in ON è un suicidio per chi lo vuol fare, già i AAA faticano a vendere figuriamoci con RTX sempre On.

Il futuro di AMD e nella fascia medio bassa , fa bene con RDNA4 ad abbandonare le schede di fascia alta, per me AMD domina il mercato delle schede economiche, se ricorreranno il gap con Nvidia allora potranno tentare di sfidare le 4080,4090.

Le " console next gen frenano il mercato" si e no ossia dipende, se parliamo di grosse case tipo Rockstar, take two, naughty dog per loro non è un problema ottimizzare per console, cosa diversa per le piccole realtà dove non hanno mezzi e personale per fare titoli dalla grafica/fisica irreale su console, dovranno per forza scendere a compromessi oppure focalizzarsi su PC
 
Ogni giorno leggo su reddit sul forum degli sviluppatori gente che si lamenta che non trova lavoro, con la crisi che c'è adesso nel settore sentir dire che RTX deve essere messo di default in ON è un suicidio per chi lo vuol fare, già i AAA faticano a vendere figuriamoci con RTX sempre On.

Il futuro di AMD e nella fascia medio bassa , fa bene con RDNA4 ad abbandonare le schede di fascia alta, per me AMD domina il mercato delle schede economiche, se ricorreranno il gap con Nvidia allora potranno tentare di sfidare le 4080,4090.
Veramente RTX è un pacchetto SDK oppure il nome delle nvidia. Il ray tracing (RT/PT) invece è un metodo di rendering. Non c'entra nulla con gli sviluppatori in precedenza licenziati e che ora non trovano lavoro. Quelli rimasti assunti hanno a disposizione, ad oggi 2024, degli strumenti che gli permettono di tirare fuori produzioni vaste come se fossero il doppio degli impiegati, questi strumenti sono AI e ray tracing. È un fatto questo. La 4090 per AMD è semplicemente un sogno bagnato da raggiungere, almeno per questa gen. Vedremo per la prossima. Comunque queste sono solo speculazioni, prendiamo tutto con la dovuta cautela!
 
Ultima modifica:
Veramente RTX è un pacchetto SDK oppure il nome delle nvidia. Il ray tracing (RT/PT) invece è un metodo di rendering. Non c'entra nulla con gli sviluppatori che non trovano lavoro. Quelli rimasti assunti hanno a disposizione, ad oggi 2024, degli strumenti che gli permettono di tirare fuori produzioni vaste come se fossero il doppio degli impiegati, questi strumenti sono AI e ray tracing. È un fatto questo. La 4090 per AMD è semplicemente un sogno bagnato da raggiungere, almeno per questa gen. Vedremo per la prossima. Comunque queste sono solo speculazioni, prendiamo tutto con la dovuta cautela!
Onestamente mi stupirei e non poco se con le nuove rx 8000, amd si avvicini soltanto alle performance raster e rt della rtx 4090, figuriamoci alla prossima xx90 di Nvidia.
 
Onestamente mi stupirei e non poco se con le nuove rx 8000, amd si avvicini soltanto alle performance raster e rt della rtx 4090, figuriamoci alla prossima xx90 di Nvidia.
Rileggendomi infatti mi sono espresso male drad, intendevo proprio quello che hai detto tu, che la 4090 rimane un sogno bagnato per le rx 8000, vedremo per la prossima gen intendevo le rx 9000 😆 si infatti... senza menzionare lo scandaloso divario di performance che ci sarà con la rtx 5090 😵‍💫
 
Ultima modifica:
Rileggendomi infatti mi sono espresso male drad, intendevo proprio quello che hai detto tu, che la 4090 rimane un sogno bagnato per le rx 8000, vedremo per la prossima gen intendevo le rx 9000 😆 si infatti... senza menzionare lo scandaloso divario di performance che ci sarà con la rtx 5090 😵‍💫
Non so se è una stupida idea, ma se io fossi AMD, tornerei a fare ciò che ha fatto con la rx 570/rx580 nel 2017, cioè occupare quel segmento di mercato dove risiede il budget della maggior parte dell'utenza pc gamers.
Creare una line up per il 1080p e il 1440p ad un prezzo estremamente competitivo, perché io non capisco a cosa serva rincorrere Nvidia.
Sarò esagerato, ma io trovo le gpu AMD al limite dell'inutile. Non riesco a trovare una ragione che sia una per preferire una gpu di AMD piuttosto che una Nvidia. Una volta almeno, il prezzo ti faceva puntare ad AMD, caspita una rx 580 a 160 euro era tanta roba, certo la gtx 1070 8GB gli dava 3 piste ma costava anche più del doppio e poi con la rx 580 8GB avevi abbastanza vram per tutti i giochi e ci giocavi anche dignitosamente sia di frame che di qualità grafica ( tralasciando i driver orridi ).
Poi il nulla, AMD mette sul mercato la rx 5700 che andava quanto una rtx 2060 ma non aveva il supporto al ray tracing ne a tecnologie come il dlss e la cosa assurda che costavano uguali. Infatti anni dopo, la rtx 2060 si è dimostrata una gpu superiore dato che supporta il mesh shaders e può continuare a fare affidamento sul dlss.
Cosa che poi ha ripetuto con le rx 6000 e rx 7000, certo ad oggi una rx 6600 si trova ad un buon prezzo, ma ci sono voluti anni prima che accadesse e ad oggi non ha più senso optare per tale gpu.
Magari mi sbaglio, come detto, potrebbe essere una idea stupida ma io farei cosi.

Io se penso alla potenza della futura rtx 5090 o anche solo di una rtx 5080, mi vengono i brividi. Poi tutta quella pressione e focus sulla I.A. mi fa pensare a nuove tecnologie che porteranno il gaming su pc ad un altro step, cioè AMD "va curcati!"

 
Non so se è una stupida idea, ma se io fossi AMD, tornerei a fare ciò che ha fatto con la rx 570/rx580 nel 2017, cioè occupare quel segmento di mercato dove risiede il budget della maggior parte dell'utenza pc gamers.
Creare una line up per il 1080p e il 1440p ad un prezzo estremamente competitivo, perché io non capisco a cosa serva rincorrere Nvidia.
Sarò esagerato, ma io trovo le gpu AMD al limite dell'inutile. Non riesco a trovare una ragione che sia una per preferire una gpu di AMD piuttosto che una Nvidia. Una volta almeno, il prezzo ti faceva puntare ad AMD, caspita una rx 580 a 160 euro era tanta roba, certo la gtx 1070 8GB gli dava 3 piste ma costava anche più del doppio e poi con la rx 580 8GB avevi abbastanza vram per tutti i giochi e ci giocavi anche dignitosamente sia di frame che di qualità grafica ( tralasciando i driver orridi ).
Poi il nulla, AMD mette sul mercato la rx 5700 che andava quanto una rtx 2060 ma non aveva il supporto al ray tracing ne a tecnologie come il dlss e la cosa assurda che costavano uguali. Infatti anni dopo, la rtx 2060 si è dimostrata una gpu superiore dato che supporta il mesh shaders e può continuare a fare affidamento sul dlss.
Cosa che poi ha ripetuto con le rx 6000 e rx 7000, certo ad oggi una rx 6600 si trova ad un buon prezzo, ma ci sono voluti anni prima che accadesse e ad oggi non ha più senso optare per tale gpu.
Magari mi sbaglio, come detto, potrebbe essere una idea stupida ma io farei cosi.

Io se penso alla potenza della futura rtx 5090 o anche solo di una rtx 5080, mi vengono i brividi. Poi tutta quella pressione e focus sulla I.A. mi fa pensare a nuove tecnologie che porteranno il gaming su pc ad un altro step, cioè AMD "va curcati!"


Guarda, giocare a CP2077 in QHD con pacchetto texture 4k in raster con una 7900xtx 24gb pagata al tempo 1000€ contro i 1400€ di una 4080 16gb è un supplizio, non lo auguro davvero a nessuno.
Conscio anche del fatto che le AMD sono note per invecchiare davvero male al prossimo giro una bella 5070 16 gb di vram a 1700 € e passa la paura.
 
Guarda, giocare a CP2077 in QHD con pacchetto texture 4k in raster con una 7900xtx 24gb pagata al tempo 1000€ contro i 1400€ di una 4080 16gb è un supplizio, non lo auguro davvero a nessuno.
Spiegati meglio perchè è un supplizio?
 
Guarda, giocare a CP2077 in QHD con pacchetto texture 4k in raster con una 7900xtx 24gb pagata al tempo 1000€ contro i 1400€ di una 4080 16gb è un supplizio, non lo auguro davvero a nessuno.
Conscio anche del fatto che le AMD sono note per invecchiare davvero male al prossimo giro una bella 5070 16 gb di vram a 1700 € e passa la paura.
Ti ricordo che in questo forum trollare va contro al regolamento. Puoi dire qualsiasi cosa ed esprimere qualsiasi tuo pensiero purchè non sia votato alla presa per il c... o trolling e rispetti la community, tutta! Chiaro? Questo passa, al prossimo messaggio del genere sanziono, dovresti essere un utente modello tu dato che sei qui dal 2009
 
Spiegati meglio perchè è un supplizio?

ero ironico
--- i due messaggi sono stati uniti ---
Ti ricordo che in questo forum trollare va contro al regolamento. Puoi dire qualsiasi cosa ed esprimere qualsiasi tuo pensiero purchè non sia votato alla presa per il c... o trolling e rispetti la community, tutta! Chiaro? Questo passa, al prossimo messaggio del genere sanziono, dovresti essere un utente modello tu dato che sei qui dal 2009

Tranquillo BWD87 mi eclisso da solo 🫥
 
Ultima modifica:
Non so se è una stupida idea, ma se io fossi AMD, tornerei a fare ciò che ha fatto con la rx 570/rx580 nel 2017, cioè occupare quel segmento di mercato dove risiede il budget della maggior parte dell'utenza pc gamers.
Il problema è che questo approccio non pagò all'epoca e non pagherebbe ora
Una "top di gamma" competitiva da immagine all'azienda e per fare i numeri di vendita è importante

Dico che non pagò all'epoca perché rispetto alle GTX1060 ne vendettero una frazione (e questo nonostante la bolla di mining dove all'epoca le AMD erano più redditizie)
Eppure le 580 andavano qualcosina in più e costavano meno

Inoltre bisogna considerare che per le aziende quello che porta guadagno non è il fatturato in se, ma il margine, e vendere prodotti a prezzo basso, se non hanno anche costi di produzione e spese di distribuzione basse più che farti fare guadagno ti fa solo "tenere in circolo il denaro"
Per assurdo potrei fare fatturati da capogiro, con marketshare elevato e tuttavia rischiare il fallimento se per fare ciò "svendo" i miei prodotti

Io credo che AMD, ora che è più che competitiva sul mercato cpu, abbia degli obbiettivi ben chiari, proprio volti a fare profitto (ed infatti mi sembra che come azienda ora vada decisamente meglio rispetto al 2016-2018)
Se poi le scelte che fa non "aiutano" il gamer medio ad ottenere una gpu a buon prezzo, beh perché dovrebbe essere un loro problema fintanto che l'azienda fa buoni numeri in termini di guadagni?
 
Guarda, giocare a CP2077 in QHD con pacchetto texture 4k in raster con una 7900xtx 24gb pagata al tempo 1000€ contro i 1400€ di una 4080 16gb è un supplizio, non lo auguro davvero a nessuno.
Conscio anche del fatto che le AMD sono note per invecchiare davvero male al prossimo giro una bella 5070 16 gb di vram a 1700 € e passa la paura.
Ti fa onore, aver ammesso di aver sbagliato acquisto. Qui ci sono utenti che pur di difendere il proprio acquisto non ammettono la verità o fanno finta di non vedere.
Nonostante io abbia una gpu nvidia, anche io sono pentito dell'acquisto, poiché risale in un periodo storico in cui tra crisi di semi-conduttori e covid, l'ho pagata quasi x2 rispetto al suo prezzo originale.
Il primo passo verso la "guarigione" è ammettere i propri errori 🤣
--- i due messaggi sono stati uniti ---
Bene, ci sono cascato. Stava trollando 😅
--- i due messaggi sono stati uniti ---
Il problema è che questo approccio non pagò all'epoca e non pagherebbe ora
Una "top di gamma" competitiva da immagine all'azienda e per fare i numeri di vendita è importante

Dico che non pagò all'epoca perché rispetto alle GTX1060 ne vendettero una frazione (e questo nonostante la bolla di mining dove all'epoca le AMD erano più redditizie)
Eppure le 580 andavano qualcosina in più e costavano meno

Inoltre bisogna considerare che per le aziende quello che porta guadagno non è il fatturato in se, ma il margine, e vendere prodotti a prezzo basso, se non hanno anche costi di produzione e spese di distribuzione basse più che farti fare guadagno ti fa solo "tenere in circolo il denaro"
Per assurdo potrei fare fatturati da capogiro, con marketshare elevato e tuttavia rischiare il fallimento se per fare ciò "svendo" i miei prodotti

Io credo che AMD, ora che è più che competitiva sul mercato cpu, abbia degli obbiettivi ben chiari, proprio volti a fare profitto (ed infatti mi sembra che come azienda ora vada decisamente meglio rispetto al 2016-2018)
Se poi le scelte che fa non "aiutano" il gamer medio ad ottenere una gpu a buon prezzo, beh perché dovrebbe essere un loro problema fintanto che l'azienda fa buoni numeri in termini di guadagni?
Ottima osservazione.
 
Pubblicità
Pubblicità
Indietro
Top