UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
Aggiungo a cio' che ha mostrato @crimescene ...

La differenza risulta evidente proprio nei "bordi": col rendering visualizzi solo il cono d'ombra principale, col RayTracyng hai l'ombra e la penombra:


Visualizza allegato 399736

Col rendering, usi degli artifici successivi, come il blur, o lo scattering, e/o l'ingrandimento (2x, 4x) del framebuffer (per la sola ombra) per smussarne i bordi ed ottenere un minimo effetto "penombra"... ma non ci si puo' spingere molto in la' anche per questioni tecniche (questione di compromessi)

Ora, lasciando perdere l'eclisse, nella "realta'" l'illuminazione solare questo cono e' poco accentuato (data la gran distanza del punto luce), e la zona di penombra e' molto ridotta per gli oggetti vicini (base tronco, piedi di Lara), e risulta piu' evidente per gli oggetti piu' lontani dal punto di proiezione (foglie)... ma nell'illuminazione artificiale (lampade, lampioni, insegne etc), dove il punto luce e' piu' vicino (e il "cono" di luce e piu' marcato), questo effetto risulta ancora piu' evidente.

Secondo problema nel calcolo delle ombre e' che, se la luce e' troppo inclinata, o l'oggetto e' troppo distante da dove porietta l'ombra, i bordi risultano "seghettati" (perche' le ombre si allungano/ingrandiscono a dismisura)... per questo solitamente (quasi sempre) si tende ad usare una proiezione ortogonale (senza prospettiuva: eliminazione di allungamento e ingrandimento) per fare il rendering (solo) delle ombre (che poi vengono applicate sul rendering poirspettico delle scene)... cosi' da risultare abbastannza "realistiche", ma sono sicuramente meno "naturali" (come per l'ombra delle foglie, che sembra siano alla stessa distanza della base del tronco).

Molte "mancanze" (come quella della penombra), nei i giochi AAA, vengono comunque sopperite (piu' o meno egregiamente) da algoritmi che approssimano la realta'... ma e' appunto un'approssimazione... si percepisce questa innaturalezza.
E queste approssimazioni non vanno bene in tutte le circostanze: alcune volte calzano alla perfezione, altre volte l'innaturalezza risulta piu' evidente (i compromessi di cui parlavo prima).

Non voglio convincere che l'uno sia "piu' bello" dell'altro (per. es. a qualcuno possono piacere le ombre piu' nette), pero' e' fuori di dubbio che cio' risulti innaturale.

Ora la qualita' del RT dipende anche dal numero di "bounces" (rimbalzi) che il programmatore decide di far fare al fotone (raggio)... e come puoi immaginare piu' rimbalzi ci sono, migliore e' l'effetto, ma e' anche maggiore il calcolo da fare.
In 3DMark c'e' (a pagamento) il test "RayTracing feature test" dove si percepisce fino a che punto puo' spingersi il RT (sebbene si possa anche andar oltre), in cui ogni "fermo immagine" e' calcolato col tipico metodo Montecarlo (che puo' essere sintetizzato come: affinamento progressivo del singoplo pixel, attraverso sub-pixels)... ma oggi come oggi una resa del genere non e' applicabile ai giochi, sebbene lo si usi gia' nei programmi di rendering tradizionali (via Optix per. es).
Ti ringrazio per la spiegazione tecnica che a me non annoia, io imparo sempre molto dai tuoi interventi , sei uno dei pochi a farli.

Aldilà appunto dei tecnicismi che non discuto minimamente , stai dicendo una cosa importante , che ho provato a spiegare anche io e cioè che la tecnica del ray tracing applicata ai videogiochi è decisamente ancora in fase sperimentale se vogliamo , e per come viene attualmente implementato presenta ancora diversi limiti. Certo è un risultato apprezzabile , e come hai spiegato non è una cosa semplice da fare soprattutto perchè le risorse di calcolo necessarie sono enormi , ma sei d'accordo sul fatto che sia ancora acerbo in questo campo e ci vorra del tempo per vedere dei grandi miglioramenti sia a livello visivo complessivo che come rapporto qualita/prestazioni ?

Credo che qualcosa tu l'abbia fraintesa ...Non credere che abbia criticato il ray tracing in generale anzi ho detto nei post precedenti che è una tecnica molto interessante, ho detto soltanto che per me e molte altre persone che ho sentito si nota poco se non in determinate scene e che spesso in tanti casi rimane d'importanza marginale considerando il calo di prestazioni..e mi riferivo esclusivamente all'applicazione nei videogiochi, e si parlava di Cyberpunk nel.l dettaglio. Io non ho MAI detto che qui non ci sono utenti preparati , ma penso che non lo siano tutti...cosi come in altri lidi ci possono essere utenti esperti e non esperti proprio come qua...quindi non capisco perché il discorso vale solo al contrario. Quello che cito io è tutto inaffidabile, quello che viene detto qui va sempre bene a priori . E cmq qui non è stata fatta nessuna crociata, ma se mi citano rispondo per cortesia e sostengo la mia tesi anche portando prove ed altre esperienze, tutto qui. Se no possiamo anche stare tutti zitti ed ascoltare sempre le 3 stesse persone senza possibilità di replica , ma così viene meno lo spirito del forum.
 
Ultima modifica da un moderatore:
Ti ringrazio per la spiegazione tecnica che a me non annoia, io imparo sempre molto dai tuoi interventi , sei uno dei pochi a farli.

Aldilà appunto dei tecnicismi che non discuto minimamente , stai dicendo una cosa importante , che ho provato a spiegare anche io e cioè che la tecnica del ray tracing applicata ai videogiochi è decisamente ancora in fase sperimentale se vogliamo , e per come viene attualmente implementato presenta ancora diversi limiti. Certo è un risultato apprezzabile , e come hai spiegato non è una cosa semplice da fare soprattutto perchè le risorse di calcolo necessarie sono enormi , ma sei d'accordo sul fatto che sia ancora acerbo in questo campo e ci vorra del tempo per vedere dei grandi miglioramenti sia a livello visivo complessivo che come rapporto qualita/prestazioni ?

Credo che qualcosa tu l'abbia fraintesa ...Non credere che abbia criticato il ray tracing in generale anzi ho detto nei post precedenti che è una tecnica molto interessante, ho detto soltanto che per me e molte altre persone che ho sentito si nota poco se non in determinate scene e che spesso in tanti casi rimane d'importanza marginale considerando il calo di prestazioni..e mi riferivo esclusivamente all'applicazione nei videogiochi, e si parlava di Cyberpunk nel.l dettaglio. Io non ho MAI detto che qui non ci sono utenti preparati , ma penso che non lo siano tutti...cosi come in altri lidi ci possono essere utenti esperti e non esperti proprio come qua...quindi non capisco perché il discorso vale solo al contrario. Quello che cito io è tutto inaffidabile, quello che viene detto qui va sempre bene. Tutto qui.


Ma se vuoi i frame c'`e il DLSS che in moltissimi casi puoi attivare senza bisogno di attivare gli effetti, voglio che sia chiaro

Se tu parli di frame e non li vuoi il DLSS ti fa RADDOPPIARE anche il frame con una perdita di qualità minima e pure gli stessi effetti sono disattivabili.....

Non ti obbliga nessuno ad attivarli se a te sembra che ti fregano troppe risorse ma se il tuo discorso è sul frame rate NULLA può aumentarti le prestazioni come il DLSS copn una perdita di qualità che se esiste è minima o nuila o addirittura anche migliorativa.

Quindi proprio non capisco il tuo discorso

Sono pesanti per te? disattivali

Le schede nvidia non hanno vvalore per il Tracing che è una tecnica nota da anni nell'ambioente grafico e che qualunque grafico ti dirà che un immagine in RT è migliore che a te piaccia o lo noti o meno, ma per il DLSS.

Poi la grafica di CP senza RT è 5
te lo dico proprio chiaro e chiunque dice il contrario è cieco

Con gli effetti applicati diventa 9
 
Ultima modifica:
Aggiungo a cio' che ha mostrato @crimescene ...

La differenza risulta evidente proprio nei "bordi": col rendering visualizzi solo il cono d'ombra principale, col RayTracyng hai l'ombra e la penombra:


Visualizza allegato 399736

Col rendering, usi degli artifici successivi, come il blur, o lo scattering, e/o l'ingrandimento (2x, 4x) del framebuffer (per la sola ombra) per smussarne i bordi ed ottenere un minimo effetto "penombra"... ma non ci si puo' spingere molto in la' anche per questioni tecniche (questione di compromessi)

Ora, lasciando perdere l'eclisse, nella "realta'" l'illuminazione solare questo cono e' poco accentuato (data la gran distanza del punto luce), e la zona di penombra e' molto ridotta per gli oggetti vicini (base tronco, piedi di Lara), e risulta piu' evidente per gli oggetti piu' lontani dal punto di proiezione (foglie)... ma nell'illuminazione artificiale (lampade, lampioni, insegne etc), dove il punto luce e' piu' vicino (e il "cono" di luce e piu' marcato), questo effetto risulta ancora piu' evidente.

Secondo problema nel calcolo delle ombre e' che, se la luce e' troppo inclinata, o l'oggetto e' troppo distante da dove porietta l'ombra, i bordi risultano "seghettati" (perche' le ombre si allungano/ingrandiscono a dismisura)... per questo solitamente (quasi sempre) si tende ad usare una proiezione ortogonale (senza prospettiuva: eliminazione di allungamento e ingrandimento) per fare il rendering (solo) delle ombre (che poi vengono applicate sul rendering poirspettico delle scene)... cosi' da risultare abbastannza "realistiche", ma sono sicuramente meno "naturali" (come per l'ombra delle foglie, che sembra siano alla stessa distanza della base del tronco).

Molte "mancanze" (come quella della penombra), nei i giochi AAA, vengono comunque sopperite (piu' o meno egregiamente) da algoritmi che approssimano la realta'... ma e' appunto un'approssimazione... si percepisce questa innaturalezza.
E queste approssimazioni non vanno bene in tutte le circostanze: alcune volte calzano alla perfezione, altre volte l'innaturalezza risulta piu' evidente (i compromessi di cui parlavo prima).

Non voglio convincere che l'uno sia "piu' bello" dell'altro (per. es. a qualcuno possono piacere le ombre piu' nette), pero' e' fuori di dubbio che cio' risulti innaturale.

Ora la qualita' del RT dipende anche dal numero di "bounces" (rimbalzi) che il programmatore decide di far fare al fotone (raggio)... e come puoi immaginare piu' rimbalzi ci sono, migliore e' l'effetto, ma e' anche maggiore il calcolo da fare.
In 3DMark c'e' (a pagamento) il test "RayTracing feature test" dove si percepisce fino a che punto puo' spingersi il RT (sebbene si possa anche andar oltre), in cui ogni "fermo immagine" e' calcolato col tipico metodo Montecarlo (che puo' essere sintetizzato come: affinamento progressivo del singoplo pixel, attraverso sub-pixels)... ma oggi come oggi una resa del genere non e' applicabile ai giochi, sebbene lo si usi gia' nei programmi di rendering tradizionali (via Optix per. es).
Ti ringrazio per la spiegazione tecnica che a me non annoia, io imparo sempre molto dai tuoi interventi , sei uno dei pochi a farli.

Aldilà appunto dei tecnicismi che non discuto minimamente , stai dicendo una cosa importante , che ho provato a spiegare anche io e cioè che la tecnica del ray tracing applicata ai videogiochi è decisamente ancora in fase sperimentale se vogliamo , e per come viene attualmente implementato presenta ancora diversi limiti. Certo è un risultato apprezzabile , e come hai spiegato non è una cosa semplice da fare soprattutto perchè le risorse di calcolo necessarie sono enormi , ma sei d'accordo sul fatto che sia ancora acerbo in questo campo e ci vorra del tempo per vedere dei grandi miglioramenti sia a livello visivo complessivo che come rapporto qualita/prestazioni ?

Credo che qualcosa tu l'abbia fraintesa ...Non credere che abbia criticato il ray tracing in generale anzi ho detto nei post precedenti che è una tecnica molto interessante, ho detto soltanto che per me e molte altre persone che ho sentito si nota poco se non in determinate scene e che spesso in tanti casi rimane d'importanza marginale considerando il calo di prestazioni..e mi riferivo esclusivamente all'applicazione nei videogiochi, e si parlava di Cyberpunk nel.l dettaglio. Io non ho MAI detto che qui non ci sono utenti preparati , ma penso che non lo siano tutti...cosi come in altri lidi ci possono essere utenti esperti e non esperti proprio come qua...quindi non capisco perché il discorso vale solo al contrario. Quello ce cito io è tutto inaffidabile, quello che viene detto qui va sempre bene. Tutto qui.
Ma se vuoi i frame c'`e il DLSS che in moltissimi casi puoi attivare senza bisogno di attivare gli effetti, voglio che sia chiaro

Se tu parli di frame e non li vuoi il DLSS ti fa RADDOPPIARE anche il frame con una perdita di qualità minima e pure gli stessi effetti sono disattivabili.....

Non ti obbliga nessuno ad attivarli se a te sembra che ti fregano troppe risorse ma se il tuo discorso è sul frame rate NULLA può aumentarti le prestazioni come il DLSS copn una perdita di qualità che se esiste è minima o nuila o addirittura anche migliorativa.

Quindi proprio non capisco il tuo discorso

Sono pesanti per te? disattivali

Le schede nvidia non hanno vvalore per il Tracing che è una tecnica nota da anni nell'ambioente grafico e che qualunque grafico ti dirà che un immagine in RT è migliore che a te piaccia o lo noti o meno, ma per il DLSS.

Poi la grafica di CP senza RT è 5
te lo dico proprio chiaro e chiunque dice il contrario è cieco

Con gli effetti applicati diventa 9
Non fare il finto tonto , sai bene che il discorso DLSS non l'ho toccato ne ho dato un giudizio su di esso , l'ho nominato quando hai detto che in Sotr sulle 30xx non serve nemmeno attivarlo e la perdita di prestazioni era del 10% , cosa poi che si è rivelata non vera e anche quello l'ho dimostrato..e quella sulla perdita di prestazioni é un considerazione giusta che mi viene spontanea fare , ma non è il succo del discorso. Il punto è che la discussione è iniziata parlando dell'effetto migliorativo degli effetti rtx in cyberpunk , hai detto che senza Rtx la grafica è discreta in pratica e non è niente di che , cosa che io ho visto smentire praticamente ovunque. Quindi si tratta solo di un tuo punto di vista , ho dimostrato che moltissime persone la pensano più o meno al contrario l'ho ribadito più volte con tanto di prove. Ora finiamola pure qua che è inutile continuare .
 
Ti ringrazio per la spiegazione tecnica che a me non annoia, io imparo sempre molto dai tuoi interventi , sei uno dei pochi a farli.

Aldilà appunto dei tecnicismi che non discuto minimamente , stai dicendo una cosa importante , che ho provato a spiegare anche io e cioè che la tecnica del ray tracing applicata ai videogiochi è decisamente ancora in fase sperimentale se vogliamo , e per come viene attualmente implementato presenta ancora diversi limiti. Certo è un risultato apprezzabile , e come hai spiegato non è una cosa semplice da fare soprattutto perchè le risorse di calcolo necessarie sono enormi , ma sei d'accordo sul fatto che sia ancora acerbo in questo campo e ci vorra del tempo per vedere dei grandi miglioramenti sia a livello visivo complessivo che come rapporto qualita/prestazioni ?

Credo che qualcosa tu l'abbia fraintesa ...Non credere che abbia criticato il ray tracing in generale anzi ho detto nei post precedenti che è una tecnica molto interessante, ho detto soltanto che per me e molte altre persone che ho sentito si nota poco se non in determinate scene e che spesso in tanti casi rimane d'importanza marginale considerando il calo di prestazioni..e mi riferivo esclusivamente all'applicazione nei videogiochi, e si parlava di Cyberpunk nel.l dettaglio. Io non ho MAI detto che qui non ci sono utenti preparati , ma penso che non lo siano tutti...cosi come in altri lidi ci possono essere utenti esperti e non esperti proprio come qua...quindi non capisco perché il discorso vale solo al contrario. Quello ce cito io è tutto inaffidabile, quello che viene detto qui va sempre bene. Tutto qui.

Non fare il finto tonto , sai bene che il discorso DLSS non l'ho toccato ne ho dato un giudizio su di esso , l'ho nominato quando hai detto che in Sotr sulle 30xx non serve nemmeno attivarlo e la perdita di prestazioni era del 10% , cosa poi che si è rivelata non vera e anche quello l'ho dimostrato..e quella sulla perdita di prestazioni é un considerazione giusta che mi viene spontanea fare , ma non è il succo del discorso. Il punto è che la discussione è iniziata parlando dell'effetto migliorativo degli effetti rtx in cyberpunk , hai detto che senza Rtx la grafica è discreta in pratica e non è niente di che , cosa che io ho visto smentire praticamente ovunque. Quindi si tratta solo di un tuo punto di vista , ho dimostrato che moltissime persone la pensano più o meno al contrario l'ho ribadito più volte con tanto di prove. Ora finiamola pure qua che è inutile continuare .
infatti non serve nemmeno attivarlo, con le 3000 hai SEMRE sopra i 60 frame

E te lo ripeto come e lo hanno ripetuto chiunque ha giocato a CP la grafica di CP senza RT fa pena

Io cyberpunk senza RT lo avrei reso

ioo non faccio il finto tonto, ma se ti parli di "predita sdi prtestazioni "io ti dico allo stessio modo che il DLSS te li fa guadagnare

E non ho detto mai del 10% ma e il 20% e ti ho messo anche gli screen per farlelo vedere in SOTR

anche se fosse il 30% che tu hai ombre perfette nella foresta che è pieno zeppo di foglie in RT è nulla! E parliamo di un gioco che per giocare non servono 200 frame ma 60




Ne vuoi tanti frame il RTnon lo attivi attivi il DLSS c'è una scelta è quello che ti voglio far capire non te piacciono non te devono piacere per forza ma un gioco in RT ha pure il DLSS non ti da solo le prestazioni che ti lamenti di perdere, te ne da il doppio

LA cosa è vista al contrario!

CP Ecco cosa è senza RT e con




Le macchine di GTA 5 sono fatte meglio

E indovinate quale è la foto senza RT? allora gioca a trova le differenze e vedrai che in una foro ci sono almeno 5 cose sbagliate
 
Ultima modifica:
scusa ma mi ricordi che schermo hai?

Quello si chiama stuttering ed è comune in alcune siotuazioni con il v-sync il coil whine è un problema diverso e slegato adesso a te lo fa in quella situazione ma lo stutter dovuto al v-sync se il montior non è g-sync e non è settato bene è comune

Ecco CP


i m on one album

aLemo il mio sistema a 500w non ci arriva mai
Ma Crime è naturale che non ti ci arrivi in game ! Hai la CPU al 60% di carico...
Cerca una situazione in cui hai CPU e GPU sopra al 90%.

Si bhe parlo della Strix 3080 in OC serio e ryzen 5900 con PBO abilitato. lettura dal wattometro serio mi legge in hitman3 una media dai 618 ai 660 :)

Ovvio non terro così ma un leggero OC sulla Strix lo tengo come l'ho sempre tenuto su tutte le gpu che ho avuto. e a 380/400 la Strix 3080 ci arriva tranquillamente.
A me 660W sembrano una valore fuori dal mondo...
Sei sicuro della “serietà” del wattometro ? ?

Su SOTR i programmatori hanno implementato il ray tracing praticamente solo sulle ombre che oltretutto a volte risultano addirittura peggiori di quelle normali o presentano dei glitch , e cmq sconsigliano di attivare il RTX nella maggior parte delle situazioni , perchè il tutto risulta privo di significative differenze ... niente a che vedere ad esempio con CB2077 da questo punto di vista. Vero che è percezione soggettiva , ma in questo caso non so come fai a dire che si nota la differenza , probabilmente sei suggestionato. Ne parlano qui , una testata del settore e non i commenti degli inesperti



Scusa ma non mi pare una giusta riflessione , se gli effetti RTX sono davvero così sorprendenti e cambiano di molto la grafica nei giochi in maniera radicale , allora devono essere facilmente percepibili assolutamente da tutti i tipi di utenza , dai meno esperti ai più preparati. Non ha senso dire che vengono percepiti solo da chi ha le competenze per farlo. Altrimenti automaticamente equivale a dire che non sono così evidenti a colpo d'occhio , e quindi la loro importanza rimane marginale.
Quando i tuoi “professionisti del settore” hanno iniziato a scrivere, io probabilmente ero nel campo da oltre 10 anni ...
In SOTR il RT si vede ed in diversi ambienti è evidente la differenza (foresta e grotte... quindi un buon 70% del gioco).
Ma io vorrei capire se tutte queste riflessioni ti vengono da un uso reale (ne dubito) o dall’aver visto qualche video compresso su YouTube...

Allora, dopo 3 ore continuative di gioco a cyberpunk non ho più avuto alcun crash, a quanto pare era un problema di bios della motherboard(quello che avevo non era però tanto più vecchio, risaliva a gennaio 2020 mentre quello che ho messo oggi era di ottobre)o di settaggio della ram, se cercate tramite Google 3080 tuf crash si trova una pagina reddit dove un utente suggeriva di fare così, ovvero disattivare l'xmb impostando manualmente la frequenza della ram e così ho fatto. .
Da quel momento non ho avuto più alcun problema, molto strano ma l'importante è avere risolto, così pare, mantengo però cauto ottimismo e mi riservo di fare un'altra sessione di gioco intensiva prima di dichiarare risolto il problema.
Beh un bios di gennaio 2020 è DECISAMENTE vecchio, altroché!
lieto che tu abbia risolto.

17502 (Strix 3080OC@Stock)
le FE fanno 17800

Ho provato anche vecchi driver ma non cambia niente.

In giro la Strix3080 in default fa oltre 18.000
Ma tu avrai visto una prova a 17800 (quella di Guru3D) ma non vuole dire nulla...
anche la mia 3080 a stock faceva 17500 (in undervolt sono a 18000).
il punteggio è influenzato da diversi fattori e non bisogna perderci troppo tempo. 17500 sono un punteggio adeguato...
io invece di overclockare, che secondo me serve a poco sulle 3080, penserei ad un undervolt.

Perdonami è , ma se porto commenti di utenti e addirittura articoli che sostengono il contrario dite che sono inesperti e non affidabili, invece poi tu mi dici che ci sono commenti di 4 utenti qui sopra che hanno valore...ahah interessante....meno obiettivi di così non si può , in pratica un fiume di contraddizioni. Visto che ignorate qualsiasi fonte non confermi ciò che pensate voi , meglio lasciar perdere che tanto non si arriva a nulla , ognuno ha le sue idee ?
Si ma prima di “avere le tue idee”, dovresti provare...
perché a me risulta tu abbia una 5600XT, ed ho seri dubbi tu possa attivare il RT con quella ??

E secondo te questa unica differenza (che tra l'altro a me dice poco) vale un dimezzamento delle prestazioni?....secondo me , come secondo centinaia e centinaia di persone assolutamente no. Sono molti che pensano che il RT sia ancora"overrated " nei titoli attuali...siamo decisamente lontani dalla condizione di resa grafica spettacolare a basso impatto sulle performance e costi contenuti...ne riparliamo tra qualche anno. Non è che lo dico io e mi invento cose. Quando ho tempo ti linko un po' di materiale
Si si... soprattutto quelli che non possono attivarlo immagino...

comunque per rispondere alla tua domanda: SI, per me quell’immagine postata vale una spesa per una scheda che supporta il RT, con conseguente calo di prestazioni (e qui entra il DLSS + RT).
altro esempio ? Gioca a Control con e senza RT...

Ecco a te


Quello che dici non è esatto , SOTR con una 3080 (quindi serie 30) in 1440p setting Ultra RT Shadow OFF e DLSS OFF genera circa 120 fps avg , mentre attivando il RT Shadow ma mantenendo il DLSS OFF scende a 75 avg. Un 40% circa di perdita di prestazioni. Mantenendo le impostazioni Ultra , Il RT ON e attivando il DLSS gli fps diventano 85 Avg. Circa il 30% di perdita di perfomance , il DLSS compensa quindi un 10% di prestazioni. Menomale che lo mostrano nel video , meglio chiuderla qua non c'è peggior sordo di chi non vuol sentire. ?
Io ho capito che qui si parla della vecchia storia della volpe e l’uva...
anche fossero 85 FPS, in SOTR sono un valore ECCELLENTE, ben più di quanto serve per renderlo fluido.
 
Ultima modifica:
Poi dicono di non bestemmiare! 15 min Dopo aver rimesso la pacca frontale

Visualizza allegato 399733
Al di la del case, tu hai dei consumi paurosi lì dentro...
le temperature sono legate a quello.
a mio modesto parere dovresti pensare ad un undervolt di cpu e gpu, più che ad overclock e PBO.
La 3080 come il 5900X finiscono per perdere prestazioni se si scaldano a vicenda, quindi rischi un autogol.
con i moderni dynamic boost, meglio rinunciare a qualche MHz “teorico” per avere risultati pratici migliori.
my two cents
 
Al di la del case, tu hai dei consumi paurosi lì dentro...
le temperature sono legate a quello.
a mio modesto parere dovresti pensare ad un undervolt di cpu e gpu, più che ad overclock e PBO.
La 3080 come il 5900X finiscono per perdere prestazioni se si scaldano a vicenda, quindi rischi un autogol.
con i moderni dynamic boost, meglio rinunciare a qualche MHz “teorico” per avere risultati pratici migliori.
my two cents
Quindi se lascio tutto di default e il 5900 senza PBO ho piu prestazioni alla fine?
 
O il case fa veramente schifo o la gpu ha qualche problema! Mi viene voglia di dar fuoco a tutto dopo la stenta tra soldi tempo e pazienza che ci ho messo.
Senti, cominciamo a dare un'occhiata al case? Prendi un bel case con frontale che accolga più aria possibile. Ce ne sono di buoni anche a prezzo decente come thermaltake commander C35 o Cooler master h500P MAsh
 
Quindi se lascio tutto di default e il 5900 senza PBO ho piu prestazioni alla fine?
Visto che il 5900X mi sembra avere temperature sotto controllo, io proverei un undervolt “intelligente” della 3080 per vedere che succede. Io ho avuto un aumento di prestazioni.

Senti, cominciamo a dare un'occhiata al case? Che case hai? Dove hai posiizonato le ventole? Fai una prova molto semplice, gioca con il case aperto e vedi di quanto calano le temperature, se calano di parecchio stai sicuro che è il case.
Le ha già fatte queste prove... a case aperto scendono di 10°.
Il punto è che ha un sistema che spara 650W di picco, che per me mettono alla frusta qualsiasi case...
Io lavorerei su quello.
 
Quindi se lascio tutto di default e il 5900 senza PBO ho piu prestazioni alla fine?
Che dissipatore hai per il 5900x? Tieni presente che serve un buon dissipatore
--- i due messaggi sono stati uniti ---
Visto che il 5900X mi sembra avere temperature sotto controllo, io proverei un undervolt “intelligente” della 3080 per vedere che succede. Io ho avuto un aumento di prestazioni.


Le ha già fatte queste prove... a case aperto scendono di 10°.
Il punto è che ha un sistema che spara 650W di picco, che per me mettono alla frusta qualsiasi case...
Io lavorerei su quello.
Perchè così tanto?
--- i due messaggi sono stati uniti ---
Quindi se lascio tutto di default e il 5900 senza PBO ho piu prestazioni alla fine?
 
ragazzi ma consigliate un ryzen 5600x o un 10700k per una build con 3080?
Bella domanda.
A rigor di logica ti direi che il 5600X è una soluzione più moderna, ma poi vedi che costa anche più del 10700K ed ha solo 6C/12T ed a quella cifra ti rode non poco.
Come prestazioni siamo vicini...

PERSONALMENTE ti dico che per me la CPU da scegliere è il 5800X, ma se come budget non ci arrivi (ed è comprensibile perché quasi 500€ per un 8C sono assurdi) io prenderei il 10700K.
Il 6C nel 2021 non lo digerisco proprio (a meno che non costasse sui 260/280€).
 
Cmq ho letto su altre testate che non si venderanno più FE in Europa per lasciare i chip ai partners per le custom...

Ancora più fake quel MSRP!
 
Pubblicità
Pubblicità
Indietro
Top