intanto matematicamente la variazione non è lineare , bensì esponenziale.
Riprendendo questa discussione, ho fatto due conti molto banali, ipotizzando tutte le variabili costanti tranne la corrente e l'esponente n (arbitrariamente preso uguale a 2):
Ecco i "tempi di vita residua" calcolati ipotizzando che tutto il resto sia una costante uguale ad uno (ovviamente non sarà mai così ma è per vedere l'effetto delle diverse correnti).
50A: 1/(50^2)=0,00040 "secondi residui" = 40t
20A: 1/(20^2)=0,00250 "secondi residui" = 250t
80A: 1/(30^2)=0,00016 "secondi residui" = 16t
"t" è una ipotetica unità di misura, utile giusto a non portarsi dietro le virgole.
Tutto bene sembra, più è bassa la corrente e più il tempo residuo di vita sale.
Ora, se ipotizziamo di voler far passare a parità di tempo la stessa quantità di corrente che passa a 50A con due flussi di corrente da 20A ed 80A l'uno successivo all'altro, sarà necessario alternarli per intervalli di tempo uguali. Infatti la media pesata, dando peso uguale ad entrambe le intensità risulta: (20+80)/2=50A.
Bene, se si procede ad oltranza con questi intervalli equivalenti di corrente a 20A ed 80A la vita utile del componente sarà la media dei due valori di vita utile dei singoli flussi, quindi:
(250+16)/2=133t
Sembrerebbe quindi che, a parità di corrente trasmessa, convenga trasmetterla con una corrente che alterna flussi elevati a flussi bassi piuttosto che con una corrente costante.
Questo se i conti sono giusti ?
Non si considera però che correnti elevate aumentano la temperatura. E' vero che poi quelle basse la diminuiscono, ma essendo la temperatura ad esponente, il risultato penso che questa volta potrebbe peggiorare (difficile comunque pensare a come varia la temperatura).
Resta il fatto che nel test di calcolo fatto, il caso "con picchi" era 3 volte più longevo di quello "costante". Questo dipende però dall'esponente n, preso uguale a due per semplicità ma che non ho la minima idea di che valore possa avere. Fosse molto vicino ad uno cambierebbero meno le cose.
Comunque, se fosse corretto quanto detto, l'unico parametro da considerare per l'EDC sarebbe lo stress prodotto sui vrm, come avevo già sentito/letto da qualche parte.
--- i due messaggi sono stati uniti ---
.
-------> AGGIORNATA SEZ.7 NELLA PARTE SUI "TEST STABILITA'"
Aggiunto questo:
NOTA4: In riferimento ai primi due test (carichi molto pesanti e pesantissimi), si specifica che il carico generato da essi è irrealisticamente pesante e non andrebbero considerati.
Infatti il carico applicato da programmi multicore (come ad esempio quelli di video editing) si avvicina molto al test "carichi medi".
Il gaming si situa invece tra "carichi medi" e "carichi pesanti", appena possibile si inserirà un set di impostazioni utili a simularlo (in generale).
Aggiunto anche un "(Irrealistico!)" nel nome dello spoiler dei primi due test.
Ho guardato i dati che avevo registrato e nel test "carichi medi" (quindi con istruzioni avx2) la mia cpu boostava a 4,650 su tutti i cores, proprio come in cinebench.
Ps.
Per la simulazione del carico "gaming", ammesso che si possa simulare, pensavo a:
-avx2
-medium
-3/5 cores a rotazione
5 cores perché il gioco più pesante che conosco è warzone, che arriva ad usare l'80% circa (di picco) di un 5600x, che quindi dovrebbe corrispondere a 5 core su 6.
3 cores per testare un po' tutto il resto.
Non saprei però se possa essere utile un test del genere. Caricare un 5600x al 50% in gaming non è come attivare 3 cores per volta in occt... Però magari come test di stabilità per chi non vuole testare giocando può essere una opzione.