UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Se imposti un offset negativo sul clock prima di cominciare a modificare la curva non dovrebbe essere necessario spostare punto per punto, o almeno così era per le 3000.
Puoi postare uno screen della curva che ottieni? Perché non sono sicuro di aver capito il problema.
E'cosi pure per le 4000 basta che gli dai -300 di clock

1683068340143.png


non so se per la 4090 va bene ma dovrebbe, prova 975 2.750, dovrebbe andare bene pure per te
 
prima però dovresti vedere a quanto ti boosta effettivamente la scheda, queste dovrebbero boostare intorno ai 2.8 ghz
 
E'cosi pure per le 4000 basta che gli dai -300 di clock

Visualizza allegato 458827


non so se per la 4090 va bene ma dovrebbe, prova 975 2.750, dovrebbe andare bene pure per te

Ma infatti ero abbastanza sicuro...
L'editor di curva è sempre quello che siamo abituati a conoscere ormai da Pascal (GTX1000).
Mi ricordo che all'epoca, qui su Tom's, ero stato uno dei primi a usarlo per l'undervolt 😂
Ha sostituito il metodo di modificare e riflashare il BIOS, che ha funzionato fino a Maxwell.
 
Ma infatti ero abbastanza sicuro...
L'editor di curva è sempre quello che siamo abituati a conoscere ormai da Pascal (GTX1000).
Mi ricordo che all'epoca, qui su Tom's, ero stato uno dei primi a usarlo per l'undervolt 😂
Ha sostituito il metodo di modificare e riflashare il BIOS, che ha funzionato fino a Maxwell.
si si si fa tuitto uguale solo che queste schede perdono un pochino rispetto al profilo stock

Inoltre ho notato che reggono un clock più leevato in situazione di rasterizzazione e più basso con ray tracing attivo

Cioè si potrebbero fare pure 2 profili diversi, uno da usare con i giochi che non sono in RT con il clock più "spinto" un altro profilo più basso da usare con i giochi in RT

Ad esempio la mia sono riuscito a portarla a 975/2890 senza crash con time spy, ma poi non riesce a finire bene speed way
 
sono abbastanza confuso su come hanno gestito la situazione in Jedi: survivor

Al d1 avevamo una situazione assurda gioco inchiodato a 40 fps nella maggior parte del tempo, stuttering più o meno random con situazioni di stuttering anche nelle cut-scene

Esce una patch correttiva il 1 Maggio (2 giorni dopo il lancio= e dopo che la maggior parte delle recensioni assolutamente negative sono uscite

La patch non risolve tutti i problemi ma rende il gioco tuttavia godibile e si passa dai 40 fps dichiarati sopra a questo


Adesso io mi domando ma lo fano a posta per far parlare male di loro e creare clamore?

Perché mi sembra assurdo che in 2 giorni si passi da condizioni piuttosto disastrose a condizioni che ovviamente non sono state risolutive per tutto, ma in ogni modo la critica se fosse uscito cosi sarebbe stata molto meno "cattiva"

Bo non capisco
 
Ok, mi sa che hai ragione. Nelle 3000 scendevo il clock di circa 300 e poi undervoltavo, adesso con la 4090 non l'ho fatto.
Domani se vuoi ti faccio una video guida, ora non sono al pc, ma è semplce.
Apri afterburner-spingi ctrl+f-metti -300 sul core clock e vedrai la curva abbassarsi in diretta-poi prendi il punto relativo ai 950mV(o 975mV,come vuoi) ed alzalo fino ad arrivare a 2670mhz- fatto ciò clicca sull’icona(applica)del visto in afterburner e vedrai la curva dopo il punto da te selezionato “appiattirsi”…
Se poi è stabile e vuoi salvare il profilo in memoria, clicchi sul dischetto e salvi in una delle 5 posizioni che hai a disposizione su afterburner.
Ma ricorda, sblocca sempre tutte le opzioni che ti ho detto sull’osd, in modo da controllare, in questo caso specifico che il voltaggio da te messo sia applicato.
 
prima però dovresti vedere a quanto ti boosta effettivamente la scheda, queste dovrebbero boostare intorno ai 2.8 ghz
Se non erro la 4090 boosta leggermente più basso della 4080 🤔
credo sui 2700… ma in effetti basta provare.

Ma questo undervolt mi risulta difficile. Devo aggiustare puntino per puntino. Poi una volta salvato profilo, dopo un test mi da nuovamente uno scalino sulbgrafico, cioè non è una linea di punti retta dal punto che ho scelto per l'undervolt. Avete avuto anche voi stesso problema?
No no stai sbagliando tu. Funziona allo stesso modo.
 
La cosa incredibile è il tasso di 4090 che c'è nel forum, poi se poco poco ti permetti di suggerire un SSD di prima classe che costa 15€ in più di uno DRAMless, succede un'insurrezione per spreco di soldi "tanto neanche te ne accorgi" 😖
@BAT basta leggere questo thread. Chi ne esce viene convinto che se non hai una 4090 per il 1080P con un 7800X3D o un 13900KS non puoi giocare: è un festival di lag ed uno slideshow 🤦🏻‍♂️
A me francamente dispiace che si passi questo (falso) messaggio solo perché si è esaltati e con più grana che saggezza. Perché magari ci sono appassionati che ci seguono e che ritengono, giustamente, che spendere 1800 euro di scheda video sia semplicemente folle. Certo poi ci sono casi particolari (tipo qualcuno che le schede non le paga, a cui fischieranno le orecchie … 😜).
Ci tengo a precisare che mio figlio gioca con una 3060 Ti a 1440P semplicemente usando “la testa” nei settaggi (ed ha 13 anni !).
Ha moooolto più senso spendere quei 15 euro per l’SSD migliore…
 
Ultima modifica:
Aggiornamento... Smontato 3080, pulita, ripastata, rimontato dissi originale ma niente, il bip maledetto continua a farsi sentire.
Tra l'altro mi ha appena risposto Asus (che avevo aperto un rma dietro indicazioni di Amazon), dicendomi che per i primi 2 anni di garanzia devo rivolgermi al venditore (giustamente). Sono già d'accordo con la tipa di Amazon che mi richiama giovedì e mi ha detto testuali parole: "se Asus non fa niente, procediamo con la sostituzione o il rimborso". Spero il rimborso (1100) che ci scappa la 4080 se trovo bene se no 4070Ti.
Ogni singolo evento che accade nell'universo vuole indicarci che acquistare una scheda video molto costosa rimane la scelta migliore! Visto?!?!?!? 🤔 In un istante il tuo investimento iniziale è incrementato del 200% che manco i Bitcoin ai tempi d'oro 😮 NVIDIA ha trasformato tutti i consumatori in broker finanziari "compra quando il prezzo è basso e c'è disponibilità, vendi quando il prezzo è alto e c'è carenza" ... grazie supremo Jensen ❤️

Mi ricorda quella volta che ho indossato una giacca dopo molto tempo e dentro una tasca ci ho ritrovato 5 euri ... beh QUASI dai 😅
--- i due messaggi sono stati uniti ---
Qui però al di là del dibattito su cosa sia o non sia bottleneck c'è anche una questione tecnica da precisare.
La CPU, per limitare le prestazioni, non deve stare per forza al 100% (penso saremo tutti d'accordo su questo) ma, aggiungo, non deve nemmeno avere necessariamente un core al 100% (nella telemetria...), perchè lo scheduler di windows fa ruotare i processi tra un core e l'altro.
La dimostrazione semplice di questo fatto lo si ha, come scrivevo qualche giorno fa (quindi più o meno 200 pagine indietro 😂), ossservando l'utilizzo dei core (o thread) durante un carico single thread come Cinebench.

Quindi da uno screen del genere non si può capire nulla... O meglio, si capisce che non c'è stuttering e fai fps a manetta, ma per capire se una CPU più veloce migliora o meno le prestazioni (ed eventualmente l'utilizzo della GPU) l'unico modo è provare una CPU più veloce nelle stesse identiche condizioni. Guardate che non è scontato: ci saranno giochi che rispondono alla CPU più veloci e giochi che non rispondono. Dipende, giustamente, anche da come è programmato il gioco. Però se non c'è un vero e proprio frame cap, imposto dal gioco oppure dall'utente (vsync, gsync o simile) di sicuro c'è sempre un pezzo hardware che limita le prestazioni nel sistema: la GPU se è usata al 100%, oppure altro (e quell' "altro" è molto probabilmente la CPU, ma non sempre).
Penso sia comunque fondamentalmente sbagliato dire semplicemente "bottleneck" o più specificatamente "CPU bottleneck", sarebbe molto molto più corretto dire "system-level bottleneck". In effetti quando non è la GPU, è qualcos'altro nel rimanente sistema (che potrebbe anche essere una periferica difettosa in loop, così per dire).
 
Ultima modifica:
speriamo che NVIDIA si sbrighi a buttare fuori una scheda in grado di gestire il 4K, qui siamo alla frutta già per visualizzare il desktop, non per nulla ma ci sono un sacco di "coyoti" come me che stanno a quella risoluzione da oltre 10 anni...

la 4090 non è all'altezza, provare per credere, non arriva a fare nemmeno 500FPS in TW3 Next, come si può sperare di essere competitivi in queste condizioni?

almeno un ritorno dello SLI se proprio non vogliono buttare fuori una scheda adatta, pare che i nostri soldi non li vogliono questi qui...
Ma infatti ! Vedo TimeSpy a 196 FPS: ma che porcheria è mai questa ! Lo sanno tutti che sotto i 360 FPS non si può giocare.
Con l’abbondanza di PSU da 1200W sul mercato, Nvidia poteva applicarsi di più e produrre schede 4 slot da 800W. Allora si che avremmo potuto giocare a Fortnite con soddisfazione.

Io tutti sti effetti grafici non li vedo, vedo solo giochi che a livello di grafica sono ciofeche programmate alla c.z di cane!
Inoltre non è ammissibile dire che la 4090 gira bene in qhd, è sprecata una 4080 figuriamoci la 90.. Teniamo i piedi per terra e non diamo informazioni fuorvianti
In pratica il messaggio che sta passando è: sui titoli fatti a cazzum, mettere le impostazioni tutte a destra senza motivo rende giustificabile, se non necessaria, la 4090 anche in 1440P 🤦🏻‍♂️
Naturalmente a quel punto se non hai le DDR5 9000 CL2 ed il 15900KSFTW non sei nessuno, quindi affrettarsi a gettare la piattaforma attuale dalla finestra è d’obbligo.
 
Ogni singolo evento che accade nell'universo vuole indicarci che acquistare una scheda video molto costosa rimane la scelta migliore! Visto?!?!?!?
Un piccolo giro qui dentro dimostra quanto funziona bene la macchina del marketing di Nvidia, AMD ed Intel. Lo dico senza ironia: dei veri geni.
Il tutto per far girare quale capolavoro next gen uscito ? NESSUNO… remake di titoli con anni sulle spalle o porting fatti con i piedi.

Il Tubo sono settimane che sull’onda modaiola del momento inonda di video in cui convincono gli utenti che la loro attuale scheda con 8 GB di VRAM va bene giusto per il Solitario. Quale pensi sia la reazione dell’utente generico medio a questa tempesta mediatica ?
”oddio la mia scheda fa schifo ! Devo correre a comprarne una nuova perché neppure ad aprire le finestre di Windows è adeguata!” (Scordandosi che fino alla sera prima stava giocando a tutto senza problemi).
Ed ora tu dimmi agli sviluppatori chi glielo fa fare di trovare ottimizzazioni, texture compresse meglio, geometrie “furbe” (chi fa rendering sa di cosa parlo… Doom Eternal docet) e così via.
Tanto sul tubo quello che scrive “oh ma quali problemi ? Io con la 4090 l’ho finito senza noie !” lo troveranno sempre.
 
Pubblicità
Pubblicità
Indietro
Top