Il ray tracing, tranne quando nvidia paga per metterlo, è sempre molto leggero come effetti. Io l'ho visto su warsone e cambia pochissimo se non nulla. L'unico gioco dove cambia davvero è minecraft. Sarà anche il futuro ma secondo me al momento se fatto bene pesa ancora troppo sulle prestazioni e allora a quel punto preferisco giocare fluido perché con una 3070 non so quanto si riesca a fare...
Per il dlss adesso c'è anche quello di amd che è all'inizio ma se pensi che verrà aggiunto alle console, allora vorrà dire che tutti i giochi lo avranno in pratica mentre il dlss è più molto complicato da inserire nei titoli e anche la è sempre nvidia a pagare gli sviluppatori per aggiungerlo perche poi hanno comunque un ritorno in pubblicità.
Per lo streaming non saprei ma penso che hai ragione tu e nvidia sia meglio anche perche lo dicono tutti.
Io non faccio streaming e al massimo uso la funzione della applicazione radeon che mi permette di salvare gli ultimi 20 secondi di gioco premendo una combinazione di tasti (volendo si può mettere anche più tempo) e con quella mi trovo bene le poche volte che la uso.
Un altra cosa bella delle nvidia è il software per l'audio... Potrebbero aggiungerlo anche su amd, non penso ci voglia chissà cosa...
Beh diciamo che Warzone non è il titolo più indicato per analizzare l’utilità del Ray Tracing. In quel titolo anche 10 FPS in più sono utili, e riflessi ed ombre più dettagliati considerando la dinamica di gioco non ti cambiano l’esperienza (e manco li noti).
ma se mi parli di Cyberpunk 2077 ad esempio, o Metro Exodus rivisto, beh in quel caso il RT assume un altro peso, e purtroppo in questa generazione AMD paga il colpevole ritardo con il quale è entrata nel settore (avrebbe dovuto farlo con le 5700). Vedrai che già dalla prossima generazione si riavvicinerà ad Nvidia nelle prestazioni RT.
quanto al confronto FSR e DLSS, beh tecnicamente non sono la stessa cosa e deve essere chiaro. Il DLSS è decisamente più complesso e si appoggia su hardware dedicato. Ma FSR è una novità benvenuta, che tra l’altro funziona con tutto l’hardware anche vecchio di un paio di generazioni, che potenzialmente allunga la vita alle schede video.
sono curioso di vedere in futuro una comparazione sullo stesso titolo tra FSR e DLSS per giudicarne la qualità, perché se la differenza dovesse essere sottile allora non avrebbe più senso investire nel DLSS per sviluppatori e produttori di hardware.
ma io temo che la differenza sarà visibile… vedremo.
Sulla 3080 e 3090 (che hanno le gddr6x) non mi stupisce che le ventole dei dissipatori debbano girare molto velocemente, quelle schede sono delle stufette elettriche da bagno ?
E non scherzo, una 3080 consuma circa 100 watt in idle che è una enormità. Cioè non puoi lasciare il pc acceso d'estate perché ti scalda la stanza in un paio d'ore...
In gaming poi possono avere picchi anche oltre i 500w se non ricordo male. Quelle schede consumano tantissimo, non si può pretendere chissà cosa dai dissipatori credo.
Io non so chi ti abbia detto questa assurdità ma non è vera:
questa è la Suprim X, 3080 Ti, che è una delle schede che consumano di più. 17W in idle.
le Radeon consumano quasi il doppio.
questa la mia scheda in idle: