mhhh no. ad entrambe le cose (mò spiego).
Alcuni test hanno dimostrato che (è un esempio) gli hard disk nelle server farm più grosse danno il meglio di sè e durano più a lungo se lavorano a temperature di circa 60/70° (non chiedermi dove l'avevo letto ma l'ho letto.)
le server farm sono dotate di impianti di refrigerazione proprio per tenere ai valori più bassi possibili le temperature soprattutto degli hard disk. Basta farsi un giro in rete per scoprire quanti danni pososno fare le alte temperature sui controller degli hard disk.
Seconda cosa il chip POTREBBE essere progettato per lavorare ad alte temperature come potrebbe (ok, che è il "potrebbe" più probabile, tuttavia resta ipotetico) essere che la nvidia cerchi solo di pararsi l'orifizio.
tutti (e ribadisco tutti) i chip possono lavorare a temperature molto più alte di quelle che raggiungono durante il normale funzionamento. Questo non significa che lavorare ad alte temperature faccia loro bene o sia una feature. Anzi è l'esatto contrario e, infatti, si satbiliscono dei valori limite (inferiori a quelli di tolleranza del chip) per poterne garantire il corretto funzionamento per un certo perpiodo di tempo. Ovvero, se ho un chip che può arrivare a 170°C te lo garantisco per 110°C, ad esempio, e faccio in modo che durante l'uso non superi questa temperatura (anzi ne rimanga piuttosto lontano). Questo per evitare che un uso prolungato a temperature elevate provochi danno irreversibili al chip stesso.
Terza non è questione di difendere una casa produttrice. E' questione di essere realisti.
Se uno dice "è la scheda video a singola gpu più potente", l'utente ati (non per forza fanboy, è solo che chi ha una scheda ati recente ha punti di vista "privilegiati" in quanto può e fa paragoni) solitamente risponde "è ma..." ed inizia ad elencare le temperature elevate, il wattaggio elevato, il costo elevato, il fatto che siano uscite sei mesi dopo, etc..
realisticamente parlando, temperature e consumi sono solo indice del fatto che questo chip, per poter andare poco di più della controparte ATi, è stato overclockato e, con ogni probabilità, overvoltato di fabbrica. In queste condizioni può anche essere il chip grafico più veloce ma il risultato è che, rispetto alla dual della passata generazione nVidia, a parità di transistor e nonostante i 40 nm, GF100 consume e scalda addirittura di più (mentre dovrebbe esserci una netta differenza a favore di fermi).
Questo è un esempio, diciamo che per ogni caratteristica positiva ci sono almeno 10 che fanno commenti negativi. Potrei parlare del rumore in full (io stesso ho postato una comparativa con altre schede video e, per quanto fosse una delle più rumorose a 50 db, non si distaccava poi tanto da una 5970 49db o anche una 5870 che mi pare si aggirasse sui 43db), del fatto che i chip POTREBBERO (scritto in grande perché malgrado tutto penso che puzzi un po' come teoria) essere progettati per lavorare a quelle temperature, e via dicendo.
Ad ogni modo si parla e si discute per avere più opinioni ;)
la scala dei decibel è logaritmica in base 10, quindi ogni 3 db si ha un raddoppio del rumore; per la cronaca, guarda questo link
http://www.phys.unsw.edu.au/jw/dB.html
prendi la seconda figura di quelle con barre verdi verticali (dove c'è na diminuzione di 1 db tra per step, clicka sull'icona del play sotto la figura (dopo aver attivato l'audio). Se, per ipotesi, fermi è il primo, conta, da quello, sette posti a ritroso fino ad arrivare da 50 a 43 e senti la differenza di rumore. Ovviamente il rumore non è quello per entrambe, ma la differenza di rumore si. Quindi questo esempio può essere utile a valutare le differenze di rumore più che il rumore in valore assoluto, al variare dei db