Io ho visto Archeo gameplay che fa il contrario con le 6000, a cui vi elimina completamente la variabile power limit, mettendo al massimo. In modo da non strozzarle. (però un conto è la tecnologia AMD che ha puntato a consumi bassi, un conto sono queste che sono capaci di arrivare anche a 420W da quello che ho visto - nelle varie recensioni)
le Radeon consumano in modo simile alle controparti Nvidia. Anzi la 6900XT è una delle schede con spike di potenza più alti (certo, togliendo la 3090 Ti che è insensata).
Gli YouTuber dovete prenderli con le pinze.
Non so esattamente chi sia questo a cui ti riferisci, ma anche alcuni molto competenti come Buildzoid fanno giochetti con l’hardware che tu utente comune non dvi ripetere. I loro sono interessanti esperimenti. Cercano di spremere e raggiungere nuove vette. Sono anche belli da vedere per rendersi conto di come reagisce l’hardware, ma la loro mentalità è “tanto tra 6 mesi questo lo butto”.
Insomma l’ottimizzazione di cui parliamo qui è per l’utente comune appassionato, che prende l’hw e lo vuole sfruttare al meglio per alcuni anni.
Se hai la fortuna di avere budget e volontà di spendere per cui cambi PC ogni anno, ci può anche stare di spremere al 100% quello che prendi.
Ma certo non stai facendo una favore a te stesso ed al pianeta, bisogna esserne consapevoli.
Per aggiungere una cosa legata all'usura che è il tema silenzioso dell'undervolting (che appunto ne ridurrebbe l'usura degli investimenti in GPU che facciamo): leggevo in un post su quora che con il passare degli anni c'è una transizione magnetica tra i vari chip e quindi può essere che la scheda anche se è sintetica "viva" perché non è certo legno, che vive davvero anche dopo averlo tagliato, ma di certo le condizioni in 3-4-5 anni di uso (a cui vista la situazione internazionale credo "faremo appello") possono variare, quindi un setting che vale per un po' di tempo può mutare.
Un po' come le PSU anche buone decadono negli anni, o HHD si smagnetizzano .. non voglio aggiungere drammaticità alla faccenda :)
Il discorso è più ampio e complesso.
Quello di cui probabilmente parlavano (quora non sempre è frequentato da gente competente) si chiama elettromigrazione. Un fenomeno, per fartela breve, per il quale un componente attraversato da corrente si “usura” (per passaggio fisico di atomi) nel tempo. Tale fenomeno è SEMPRE presente, da quando alimenti qualunque componente, ma è molto lento. Lentissimo. Ad accelerarlo sono due fattori principalmente: temperatura e corrente.
Quindi il componente diciamo, facendo un esempio con numeri assolutamente casuali, arriverebbe ad una rottura se alimentato per 15 anni. Se non correttamente dissipato (alta temperatura) si guasta dopo 10 anni. Se ha temperatura alta e viene applicato un overvolt (magari per supportare frequenze più alte), la rottura scende a 6 anni.
Questa scala è logaritmica, quindi aumentando relativamente di poco temp e volt sopra ad un certo limite, la vita utile diminuisce sensibilmente.
E la cosa brutta è che ogni singolo componente reagisce diversamente da uno teoricamente identico, per via di migliaia di piccole differenze. Quindi due GPU ad esempio, maltrattate allo stesso modo, una dura 7 anni senza problemi e l’altra dopo 3 anni saluta (motivo per cui online troverai sempre “il fenomeno” che ti dice “io ho fatto overclock per 10 anni senza problemi quindi sono sciocchezze”).
Quello che non molti sanno, e che credo trasparire dalle tue parole, è che anche prima, molto prima di arrivare alla rottura, il componente comunque degrada in maniera leggera ma costante. Quindi la CPU che funzionava a 1.35V (altro valore d’esempio casuale), dopo un anno di maltrattamento ti accorgi che serve tenerla a 1.37V per tenere la stessa frequenza. Dopo altri 6 mesi ti accorgi che ne servono 1.4V e così via…