UFFICIALE Raptor Lake: e Raptor Lake Refresh: 13th e 14th generazione Intel

Pubblicità
Il 2% di calo. Con una 3070Ti sarà lo 0.01%
Con la 3080 è meno del 1% (PCIE 16X 3.0 è come dire 8X 4.0 nel grafico qui sotto)
Infatti io la uso in 3.0 e non ho risultati troppo diversi da voi che avete il 4.0... Diciamo che é un po marketing dai. Sicuramente con le prossime generazioni sarà obbligatorio almeno il 4.0 ma per ora non c'è n'è bisogno mi pare
 
Si è normale, perché lo slot 1 usa le linee della CPU, non del chipset.
Ma 8 linee 4.0 sono più di quanto ti servirà mai… io lo tengo così senza problemi (con una 3080)
la Z790-E Asus ha 2 connettori che usano le linee della CPU... la M2_1 e la M2_2... poi ci sono altri 3 slot che usano linee della scheda madre... M2_3, M2_4 e M2_5.
E comunque, ho cambiato connettore perchè mi sembrava corretto... 10 minuti e via.
 
Infatti io la uso in 3.0 e non ho risultati troppo diversi da voi che avete il 4.0... Diciamo che é un po marketing dai. Sicuramente con le prossime generazioni sarà obbligatorio almeno il 4.0 ma per ora non c'è n'è bisogno mi pare
se hai PCIE 16X 3.0 è come avere PCIE 8X 4.0 ... nessun limite significativo neppure con una 4090.
per la 5090 vedremo 😅

la Z790-E Asus ha 2 connettori che usano le linee della CPU... la M2_1 e la M2_2... poi ci sono altri 3 slot che usano linee della scheda madre... M2_3, M2_4 e M2_5.
E comunque, ho cambiato connettore perchè mi sembrava corretto... 10 minuti e via.
io ho praticamente la stessa scheda madre (la Z690-E ) ed ha la stessa configurazione. Ho popolato gli slot M.2_1, M.2_2 ed un SATA, e la scheda video va a PCIE 4.0 X8 come è normale che sia. Nessun impatto sulle prestazioni.
 
Ultima modifica:
se hai PCIE 16X 3.0 è come avere PCIE 8X 4.0 ... nessun limite significativo neppure con una 4090.
per la 5090 vedremo 😅


io ho praticamente la stessa scheda madre (la Z690-E ) ed ha la stessa configurazione. Ho popolato gli slot M.2_1, M.2_2 ed un SATA, e la scheda video va a PCIE 4.0 X8 come è normale che sia. Nessun impatto sulle prestazioni.
si, oramai è acquisito che con le schede video attuali non c'è differenza tra 8x e 16x... il fatto era che mi dava fastidio, potendo usare il 2° slot con linee dirette dal processore, che la scheda non andasse a 16x... inutile?... si,... ma è aggratis... non costa nulla.
 
Interessante.
Forse nel tuo caso essendo lo slot M.2 PCIE 4.0 e non 5.0, non condivide le linee con la scheda video e resta X16
Io ho un nvme solo 3.0 però. Ho usato lo slot quello priorio sotto la CPU

PS ti ho taggato in un thread di un tizio che ha un Asus, e con offset -0,14 o -0,20 non cambia, c'è qualche impostazione che gli blocca l'undervolt
 
Io ho un nvme solo 3.0 però. Ho usato lo slot quello priorio sotto la CPU

Non cambia a seconda della gen del NVMe. basta popolare lo slot sulle Asus per avere la diversa spartizione delle linee. MSI nella tua scheda ha scelto di non fornire supporto PCIE 5.0 allo slot M.2 e quindi non deve condividere linee.

PS ti ho taggato in un thread di un tizio che ha un Asus, e con offset -0,14 o -0,20 non cambia, c'è qualche impostazione che gli blocca l'undervolt
Sono un pò incasinato in questi giorni. cerco di dargli un occhiata

si, oramai è acquisito che con le schede video attuali non c'è differenza tra 8x e 16x... il fatto era che mi dava fastidio, potendo usare il 2° slot con linee dirette dal processore, che la scheda non andasse a 16x... inutile?... si,... ma è aggratis... non costa nulla.

Si, si, capisco.
Effettivamente è una scelta strana di Asus (non so quanti altri produttori la facciano) ed andrebbe spiegata meglio sul manuale.
Anch’io quando l’ho scoperta ho un pochino smadonnato 😅, ma poi mi sono detto che non valeva la pena riaprire tutto per 0.5/1% di prestazioni.
Se mai in futuro dovessi cambiare scheda video magari sposterò l’ SSD dal 1 al 3° slot.
 
Io ho un nvme solo 3.0 però. Ho usato lo slot quello priorio sotto la CPU

PS ti ho taggato in un thread di un tizio che ha un Asus, e con offset -0,14 o -0,20 non cambia, c'è qualche impostazione che gli blocca l'undervolt

Secondo me succede che viene meno la monotonia della curva e per questo motivo le regole interne della CPU impediscono alla tensione di scendere ulteriormente.

Non sono sicurissimo di quello che sto dicendo, perchè su internet nessuno parla bene di come funziona davvero l'adaptive+offset e non avendo una piattaforma Intel moderna non posso provare.
Ma comunque credo che succeda una cosa di questo tipo: immaginiamo che la curva tensione-frequenza della CPU preveda 1.2V per 50x e 1.3V per 53x. 53x è la frequenza di turbo boost, mentre da 50x in giù è base clock (numeri inventati per far capire il concetto).

La modalità adaptive+offset riduce la tensione solo alla frequenza di boost (o alle frequenza di boost se ce ne sono più di una), quindi a un certo punto si arriva al paradosso in cui la tensione per la frequenza di boost è inferiore rispetto a quella del base clock, viene meno la monotonia della curva e per questo motivo il valore di tensione del base clock viene trascritto anche sul punto tensione-frequenza successivo.
Ovvero, nell'esempio, se si imposta -0.15V, la tensione di boost sarebbe 1.15V, ma in realtà rimane 1.2V, perchè 1.2V v è la tensione del base clock.

In realtà è tutto più complesso perchè la definizione della tensione prevede vari parametri che si aggiungono (VID, offset, AC Loadline, DC Loadline e forse dimentico pure qualcosa), però il concetto dovrebbe essere quanto esposto sopra.
Se è così, l'unico modo per abbassare ulteriormente la tensione è agire su altri parametri, tipo la Loadline Calibration oppure usare la modalità offset tradizionale che trasla tutta la curva.

Quest'ultima si dice non essere ottimale perchè ridurre la tensione quando la CPU è a frequenza bassa può ridurre la stabilità nei carichi transitori. E' vero, però in un sistema non troppo tirato immagino vada bene comunque. Ovvero, se sei proprio sul filo della stabilità magari dà problemi (mentre l'adaptive+offset no), ma se hai una ventina di mV di margine sulla tensione minima a cui sei stabile io personalmente non mi aspetto problemi.

Poi ripeto, dovrei provare, ma non posso 🤷‍♂️
 
Secondo me succede che viene meno la monotonia della curva e per questo motivo le regole interne della CPU impediscono alla tensione di scendere ulteriormente.

Non sono sicurissimo di quello che sto dicendo, perchè su internet nessuno parla bene di come funziona davvero l'adaptive+offset e non avendo una piattaforma Intel moderna non posso provare.
Ma comunque credo che succeda una cosa di questo tipo: immaginiamo che la curva tensione-frequenza della CPU preveda 1.2V per 50x e 1.3V per 53x. 53x è la frequenza di turbo boost, mentre da 50x in giù è base clock (numeri inventati per far capire il concetto).

La modalità adaptive+offset riduce la tensione solo alla frequenza di boost (o alle frequenza di boost se ce ne sono più di una), quindi a un certo punto si arriva al paradosso in cui la tensione per la frequenza di boost è inferiore rispetto a quella del base clock, viene meno la monotonia della curva e per questo motivo il valore di tensione del base clock viene trascritto anche sul punto tensione-frequenza successivo.
Ovvero, nell'esempio, se si imposta -0.15V, la tensione di boost sarebbe 1.15V, ma in realtà rimane 1.2V, perchè 1.2V v è la tensione del base clock.

In realtà è tutto più complesso perchè la definizione della tensione prevede vari parametri che si aggiungono (VID, offset, AC Loadline, DC Loadline e forse dimentico pure qualcosa), però il concetto dovrebbe essere quanto esposto sopra.
Se è così, l'unico modo per abbassare ulteriormente la tensione è agire su altri parametri, tipo la Loadline Calibration oppure usare la modalità offset tradizionale che trasla tutta la curva.

Quest'ultima si dice non essere ottimale perchè ridurre la tensione quando la CPU è a frequenza bassa può ridurre la stabilità nei carichi transitori. E' vero, però in un sistema non troppo tirato immagino vada bene comunque. Ovvero, se sei proprio sul filo della stabilità magari dà problemi (mentre l'adaptive+offset no), ma se hai una ventina di mV di margine sulla tensione minima a cui sei stabile io personalmente non mi aspetto problemi.

Poi ripeto, dovrei provare, ma non posso 🤷‍♂️
a me su bios gigabyte la quadra (sotto carico non oltre 1,24) pare che l'ho trovata settando acdc loadline su turbo (senza, in boost partono comimqie picchi a 1,32v). Sono ignorante di mio, il materiale interessante che trovo in rete è per lo più in inglese e inoltre ogni casa regola la cosa a modo suo.
Ad oggi hwinfo mi dice offset 0, ma l'esperienza empirica mi dice il contrario.
 
a me su bios gigabyte la quadra (sotto carico non oltre 1,24) pare che l'ho trovata settando acdc loadline su turbo (senza, in boost partono comimqie picchi a 1,32v). Sono ignorante di mio, il materiale interessante che trovo in rete è per lo più in inglese e inoltre ogni casa regola la cosa a modo suo.
Ad oggi hwinfo mi dice offset 0, ma l'esperienza empirica mi dice il contrario.
Sembra un problema noto con Gigabyte, quella mancata rilevazione del undervolt che in realtà c’è.
In realtà bisogna vedere che parametri legge Hwinfo64, per quella voce offset, quindi non è un vero problema nel momento in cui vedi un reale calo nel consumo della CPU.
 
Secondo me succede che viene meno la monotonia della curva e per questo motivo le regole interne della CPU impediscono alla tensione di scendere ulteriormente.

Non sono sicurissimo di quello che sto dicendo, perchè su internet nessuno parla bene di come funziona davvero l'adaptive+offset e non avendo una piattaforma Intel moderna non posso provare.
Ma comunque credo che succeda una cosa di questo tipo: immaginiamo che la curva tensione-frequenza della CPU preveda 1.2V per 50x e 1.3V per 53x. 53x è la frequenza di turbo boost, mentre da 50x in giù è base clock (numeri inventati per far capire il concetto).

La modalità adaptive+offset riduce la tensione solo alla frequenza di boost (o alle frequenza di boost se ce ne sono più di una), quindi a un certo punto si arriva al paradosso in cui la tensione per la frequenza di boost è inferiore rispetto a quella del base clock, viene meno la monotonia della curva e per questo motivo il valore di tensione del base clock viene trascritto anche sul punto tensione-frequenza successivo.
Ovvero, nell'esempio, se si imposta -0.15V, la tensione di boost sarebbe 1.15V, ma in realtà rimane 1.2V, perchè 1.2V v è la tensione del base clock.

In realtà è tutto più complesso perchè la definizione della tensione prevede vari parametri che si aggiungono (VID, offset, AC Loadline, DC Loadline e forse dimentico pure qualcosa), però il concetto dovrebbe essere quanto esposto sopra.
Se è così, l'unico modo per abbassare ulteriormente la tensione è agire su altri parametri, tipo la Loadline Calibration oppure usare la modalità offset tradizionale che trasla tutta la curva.

Quest'ultima si dice non essere ottimale perchè ridurre la tensione quando la CPU è a frequenza bassa può ridurre la stabilità nei carichi transitori. E' vero, però in un sistema non troppo tirato immagino vada bene comunque. Ovvero, se sei proprio sul filo della stabilità magari dà problemi (mentre l'adaptive+offset no), ma se hai una ventina di mV di margine sulla tensione minima a cui sei stabile io personalmente non mi aspetto problemi.

Poi ripeto, dovrei provare, ma non posso 🤷‍♂️
Eh infatti. A me per scendere ho dovuto toccare la CPU lite load.
Sennò per scendere sotto carico si usa la LLC classica
 
sulla Z790-E Asus sono 2 dirette alla CPU

Visualizza allegato 449590
si, ma se lo monti sul M.2_2 le linee GPU restano 16X, perché non è PCIE 5.0

si, ma è "solo" PCIE 4.0, quindi non ha bisogno di condividere linee.
Il problema è quando hai lo slot PCIE 16X e l'M.2 che sono entrambi PCIE 5.0. In quel caso condividi le linee della GPU ed in pratica diventano 8X e 4X rispettivamente.

La cosa abbastanza assurda è che la distribuzione delle linee non è "smart": basta che popoli lo slot, e le linee vengono condivise. Anche se stai usando un SSD NVMe 3.0 che quindi non ha affatto bisogno di 4X linee PCIE 5.0 ! 🤦‍♂️
 
Pubblicità
Pubblicità
Indietro
Top