UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Farò un undervolt mantenendo i 2670 mhz stabili che ho visto su time spy. Scendo con il voltaggio vediamo quanto. La scheda è davvero silenziosa, ma le luci son terribili.... la FE ha ben altro stile. Però è bella salda e resto impressionato della silenziosità
950mV@2670MHz, dovrebbe tenerli, se ha problemi(ma non credo) alza a 975mV, se invece va bene, prova 925mV@2670MHz, ma quest’ultimo non ti assicuro che tiene.
 
Aggiornamento... Smontato 3080, pulita, ripastata, rimontato dissi originale ma niente, il bip maledetto continua a farsi sentire.
Tra l'altro mi ha appena risposto Asus (che avevo aperto un rma dietro indicazioni di Amazon), dicendomi che per i primi 2 anni di garanzia devo rivolgermi al venditore (giustamente). Sono già d'accordo con la tipa di Amazon che mi richiama giovedì e mi ha detto testuali parole: "se Asus non fa niente, procediamo con la sostituzione o il rimborso". Spero il rimborso (1100) che ci scappa la 4080 se trovo bene se no 4070Ti.
Se la monti come secondaria assieme alla 3060 (primo slot PCI-EX e secondaria 3080 ) puoi provare a vedere se la vede in gestione dispositivi...mi capitò una volta quando avevo la EVGA gtx 670 che una volta vista in windows con errore 43 le riflashai il vbios e resuscitò (morta definitavamente dopo 3 anni)
 
giusto per capirci questo secondo voi è bottleneck?




160 frame non ci sta un core al 100% la 4080 al 62% in QHD frametime PIATTO

ragazzi se qualcuno considera questo un bottleneck è pazzo!

Qui però al di là del dibattito su cosa sia o non sia bottleneck c'è anche una questione tecnica da precisare.
La CPU, per limitare le prestazioni, non deve stare per forza al 100% (penso saremo tutti d'accordo su questo) ma, aggiungo, non deve nemmeno avere necessariamente un core al 100% (nella telemetria...), perchè lo scheduler di windows fa ruotare i processi tra un core e l'altro.
La dimostrazione semplice di questo fatto lo si ha, come scrivevo qualche giorno fa (quindi più o meno 200 pagine indietro 😂), ossservando l'utilizzo dei core (o thread) durante un carico single thread come Cinebench.

Quindi da uno screen del genere non si può capire nulla... O meglio, si capisce che non c'è stuttering e fai fps a manetta, ma per capire se una CPU più veloce migliora o meno le prestazioni (ed eventualmente l'utilizzo della GPU) l'unico modo è provare una CPU più veloce nelle stesse identiche condizioni. Guardate che non è scontato: ci saranno giochi che rispondono alla CPU più veloci e giochi che non rispondono. Dipende, giustamente, anche da come è programmato il gioco. Però se non c'è un vero e proprio frame cap, imposto dal gioco oppure dall'utente (vsync, gsync o simile) di sicuro c'è sempre un pezzo hardware che limita le prestazioni nel sistema: la GPU se è usata al 100%, oppure altro (e quell' "altro" è molto probabilmente la CPU, ma non sempre).


Ma mi spieghi dove ho parlato di Jedi io, sto facendo ESEMPI NUMERICI, per spiegare cosa sia realmente il bottleneck, ragazzi, a questo punto mi chiedo, ma comprendete ciò che uno scrive? ma veramente??? è grave è!
--- i due messaggi sono stati uniti ---

Sono esempi numerici per spiegare una situazione CPU LIMITED, ovvero di bottleneck indotto dalla cpu.
E
S
E
M
P
I
Così forse vi è più chiaro, ripeto, E S E M P I .

* Esempi ipotetici più che numerici, che rende meglio l'idea
Comunque io, sarò strano, ma il discorso che facevi l'ho capito subito. Poi bisogna vedere se le ipotesi si traducono in realtà o meno e questo in generale non lo si può dire: serve un'analisi caso per caso.

Ma certo, la poca differenza riscontrata a 1440p in alcuni giochi fra 4080 e 4090, è data esclusivamente dalle limitazioni imposte dalla CPU, mentre in altri, soprattutto quelli in partnership nVidia, anche a 1440p la differenza è marcata.
Aspettiamo le nuove soluzioni Intel, perché di AMD in realtà sono un po' stanco ed il 7800X3D anche se lo metterò con Ram 6000cl30, e quindi il VSoc tramite EXPO sarà ad 1.25v (del tutto sicuro), io non mi fido, la VCache è molto sensibile alle tensione, chi mi garantisce che dopo un anno a 1.25v(tensione standard con ram da 6000CL30), non mi muore la CPU?

E' vero che il V-SOC a quanto pare viene portato anche ad alcuni componenti del CCD, al contrario di quanto si potrebbe pensare a intuito, però la cache (qualsiasi cache, anche quella 3D aggiuntiva) mi risulta che sia alimentata dal V-CORE, quindi la tensione V-SOC non ha un impatto diretto sulla sua longevità.
Comunque che il V-SOC venga impostato sicuramente sotto gli 1.3V con l'EXPO a 6000MHz non te lo garantisce nessuno: o meglio, adesso sì, dopo che sono saltate per aria un po' di CPU, ma prima di tutto sto casino Asus impostava allegramente 1.35V, che diventavano circa 1.4V reali letti con il tester da un punto di misura (fonte: uno degli ultimi video di GamerNexus, quindi assolutamente affidabile).

La sto provando. Time spy classico. Mi pare boosta poco rispetto alka 4080. Sta fisdo a 2670... Il punteggio GPU è come quello della 4090 FE. circa 35000. PEr l'undervolt provo a lasciare 2670 e abbassare il voltaggio


Messa sotto spoiler e ridimensionata. La prossima volta se non cerchi di assassinarci il monitor ti saremo grati 🤣

Comunque sei CPU-Limited 😂
Non scherzo, TimeSpy sulle RTX4090 credo sia leggermente CPU-Limited anche per quanto riguarda il graphics score: servono test più duri per la RTX4090, è troppo veloce... TimeSpy Extreme già andrebbe bene.
 
Se la monti come secondaria assieme alla 3060 (primo slot PCI-EX e secondaria 3080 ) puoi provare a vedere se la vede in gestione dispositivi...mi capitò una volta quando avevo la EVGA gtx 670 che una volta vista in windows con errore 43 le riflashai il vbios e resuscitò (morta definitavamente dopo 3 anni)
Ieri sera avevo fatto il contrario: 3080 nel primo slot e 3060 nel secondo. Nel bios vedeva solo la 3060😥
 
Ieri sera avevo fatto il contrario: 3080 nel primo slot e 3060 nel secondo. Nel bios vedeva solo la 3060😥
daio che non tutti i mali vengono per nuocere se ti rimborsano ci esce pure una 4080

peccato che la mia scheda nell'ultima settimana sia aumentata
 
E' vero che il V-SOC a quanto pare viene portato anche ad alcuni componenti del CCD, al contrario di quanto si potrebbe pensare a intuito, però la cache (qualsiasi cache, anche quella 3D aggiuntiva) mi risulta che sia alimentata dal V-CORE, quindi la tensione V-SOC non ha un impatto diretto sulla sua longevità.
Comunque che il V-SOC venga impostato sicuramente sotto gli 1.3V con l'EXPO a 6000MHz non te lo garantisce nessuno: o meglio, adesso sì, dopo che sono saltate per aria un po' di CPU, ma prima di tutto sto casino Asus impostava allegramente 1.35V, che diventavano circa 1.4V reali letti con il tester da un punto di misura (fonte: uno degli ultimi video di GamerNexus, quindi assolutamente affidabile).
Esatto, quindi sono un pò dubbio, ora non dovrebbero esserci più problemi, ma non mi fido pienamente.
Comunque è atroce la situazione dei videogames di oggi, redfall senza dlss è in cpu limited in maniera impressionante, purtroppo quello che temevo si sta verificando, ovvero che i DEVS avendo tech come il dlss3 a disposizione non ottimizzano più, e questa cosa mi fa imbestialire!!!
 
Esatto, quindi sono un pò dubbio, ora non dovrebbero esserci più problemi, ma non mi fido pienamente.
Comunque è atroce la situazione dei videogames di oggi, redfall senza dlss è in cpu limited in maniera impressionante, purtroppo quello che temevo si sta verificando, ovvero che i DEVS avendo tech come il dlss3 a disposizione non ottimizzano più, e questa cosa mi fa imbestialire!!!
redfall è un giochino che graficamente fa pietà
 
redfall è un giochino che graficamente fa pietà
Fosse solamente quello il problema, è che è cpu limited in maniera assurda ma se attivi il dlss3 mitighi il tutto, su console va a 30fps mi sembra 920p? non ricordo.
Fortuna che c’è il dlss3, anzi, non so se è una fortuna o una sfortuna.
 
Fosse solamente quello il problema, è che è cpu limited in maniera assurda ma se attivi il dlss3 mitighi il tutto, su console va a 30fps mi sembra 920p? non ricordo.
Fortuna che c’è il dlss3, anzi, non so se è una fortuna o una sfortuna.
ma sembra un gioco di 5 anni fa, l'ho provato per poco ma non mi pace per nulla
 
@dany9107 riguardo a Jedi l'ho ricominciato per assicurarmi che avessero almeno in parte risolto i problemi dal primo mondo

E in effetti gira molto meglio, anche se ci no ancora dei problemini in alcuni punti ( brevi ) oltre al fatto che il ray tracing è per il momento ancora inutilizzabile.

E' giocabile adesso senza RT e fai mediamente 80/100 fps, a parte in quelle brevi zone che ho descritto, in alcuini punti è rimasrto un poco di stuttering ma generalmente adesso almeno è "gicoabile" ma non la schifezza totale di prima

Anche se devono migliorare ancora altri aspetti come il ray tracing FSR ecc
 
Ma questo undervolt mi risulta difficile. Devo aggiustare puntino per puntino. Poi una volta salvato profilo, dopo un test mi da nuovamente uno scalino sulbgrafico, cioè non è una linea di punti retta dal punto che ho scelto per l'undervolt. Avete avuto anche voi stesso problema?
 
Ma questo undervolt mi risulta difficile. Devo aggiustare puntino per puntino. Poi una volta salvato profilo, dopo un test mi da nuovamente uno scalino sulbgrafico, cioè non è una linea di punti retta dal punto che ho scelto per l'undervolt. Avete avuto anche voi stesso problema?

Se imposti un offset negativo sul clock prima di cominciare a modificare la curva non dovrebbe essere necessario spostare punto per punto, o almeno così era per le 3000.
Puoi postare uno screen della curva che ottieni? Perché non sono sicuro di aver capito il problema.
 
Se imposti un offset negativo sul clock prima di cominciare a modificare la curva non dovrebbe essere necessario spostare punto per punto, o almeno così era per le 3000.
Puoi postare uno screen della curva che ottieni? Perché non sono sicuro di aver capito il problema.
Ok, mi sa che hai ragione. Nelle 3000 scendevo il clock di circa 300 e poi undervoltavo, adesso con la 4090 non l'ho fatto.
 
Pubblicità
Pubblicità
Indietro
Top