Oltre alla questione degli alimentatori, è sintomo di GPU tirate per il collo, in entrambi i casi.
Non lo so, a me pare che la tecnologia stia andando in controtendenza. Cosa che non mi piace affatto.
Tra l'altro, indipendentemente dalla dissipazione, quello è calore in più da smaltire, e non è mai un bene.
Sì, è un mio pensiero. Sarà che mi ero abituato al fatto di avere maggiori performance ad un minor costo e consumo, ma vedo che questo non vale più per molti.
Guarda al lancio della 3080 ho messo alla luce questo aspetto, che Pascal con la 1080 superava del 30% la 980ti facendo 50~70watt meno, e non in più come adesso, stesso risultato in performance, +30% da 2080ti ma consumi aumentati, efficienza quasi simile, +10%... eh ma "sti caxxi" è stata la riposta.
Quindi si predica nel deserto.
Sennò facciamo che le 4080 andranno a 500watt ma tanto "è in proporzione alle prestazioni" e bisognera comprarsi il case ATX per la scheda da 40cm alta 4 slot e alimentatore da 1000watt, non ha senso questo!
La soglia dei 300watt non va superata, poche scuse e poche storie, nVidia lo ha fatto perchè sapeva che Navi21 a 300watt come visto avrebbe superato in performance delle ampere tarate ai classici TDP 250~280watt come la 1080ti/2080ti,
e non poteva perdere lo scettro delle prestazioni.
Le ampere hanno quei consumi perchè sono tirare di fabbrica di clock per superare rdna2, fregandosene dei consumi, tanto hanno venduto Fermi figurati se non vendono ampere...
Ma è sempre così, 2 pesi e 2 misure, 3 anni fa erano tutti fan di greanpeace, TUTTI, facevo le statiche mensili sul consumi della 480 vs 1060 per 20watt, oggi chissenefrega se fa a stock +50watt.
Okey, non a caso ho preso la Vega56 da 220watt, la Vega64 da 300 è un mezzo aborto per quello che offriva in performance in rapporto ovviamente con 1080ti.
Quindi non è fare il fanboy, è fare delle considerazioni TECNICHE.