sicuramente la soglia massima di tolleranza termica dipende in primis dal p.p.
maxwell a 1.300 V come dici tu potrebbe semplicemente rompersi con maggiore probabilità, nonostante la medesima "litografia". GCN 1.3 invece a 1.3 va alla grande, é un mulo!
poi ricordiamoci che GCN riscalda di più perché parte della gpu é deputata al calcolo asincrono, cosa che non ha "Paxwell" : la mancanza degli ACE permette alle Geforce di essere più fresche (e di consumare meno), a prescindere che le librerie grafiche li sfruttino o meno.
poi é tutta questione di ottimizzazione software: la mia 390 e ancora di più la mia 480 sono leggermente più fresche sotto dx12, nonostante le dx12 si avvalgano del calcolo asincrono; GCN viene sfruttata in tutta la sua interezza, rispetto a quanto si vede sotto dx11 le quali non hanno mai sfruttato tutte le potenzialità e caratteristiche hardware di GCN, e nonostante un utilizzo più a "360 gradi", io le mie schede le vedo più fresche di un paio di gradi.
Vorrei proprio vedere quanto scalderebbe e consumerebbe Paxwell se fosse più simile a GCN con l'implementazione del calcolo asincrono in hardware. In questo AMD é stata fessa: in epoca dx11 non gli é mai servito, senza di esso le sue architetture sarebbero state più fresche.
Se non fosse per le temperature, AMD avrebbe detenuto lei il 70% di market share, avendo storicamente l'hardware migliore, più potente, e sempre a prezzo più conveniente.
ma se vediamo una 480 scaldare addirittura più di una 390, é chiaro che é un danno e uno svantaggio e ne va della reputazione di AMD, che colpe non ha... Ha fatto un ottima scheda dimezzando il TDP e quindi i consumi, non é colpa sua se ci sono partner balordi e superficiali come sapphire e gigabyte che vendono 480 dissipate ad capocchiam, poi l'utente ignorante dice "AMD forno" é normale.
Intendevo che si sarebbero rotte con maggiori probabilità se avessero sbloccato la tensione, non che sono più fragili delle rosse. Tra l'altro il limite di tensione sulle GTX970\980 è di 1.262 o 1.275v, quindi non siamo lontani dagli 1.3v di cui parli: c'è anche da dire che le Maxwell guadagnano veramente poco anche overvoltando, quindi probabilmente anche quello ha influito sulla decisione di limitarle. Le GCN sembrano rispondere un po' meglio agli aumenti di tensione.
Il carico termico imposto alla GPU dipende da come viene caricata dai giochi, quindi qualche grado di differenza tra un gioco e l'altro, anche se la GPU è sempre occupata al 99%, ci può stare, ma comunque in teoria in DX12 le GCN e in particolare le Hawaii vengono sfruttate meglio che in DX11.
Comunque non pensare che il gap di efficienza tra le attuali Nvidia e le AMD dipenda solo dallo scheduler hardware più snello che usano le verdi: tra l'altro anche le Pascal\Maxwell gestiscono l'asynch compute parzialmente in hardware (sebbene le Maxwell ne siano capaci solo in via teorica).
Ricordo che il GP104, GPU da 7.2 miliardi di transistor, cloccata a 1800MHz, consuma quanto Polaris, GPU da 5.6 miliardi di transistor, a 1250MHz (con vcore simile): è ovvio che uno scheduler più semplice, che impatta sulle dimensioni complessive (cioè sul numero di transistor) come sui consumi, non può spiegare una differenza così enorme. C'è anche il diverso pp di mezzo, ma le GTX1050 sembrano avere un efficienza simile alle altre e inoltre queste differenze risalgono alla generazione precedente, quindi non è il pp il punto. Io sono dell'idea che buona parte della differenza sia dovuto al GPU Boost e alla sua rapidità nel variare la tensione: il fatto che il GM204 consumi quanto il vecchio GK104, pur essendo più grosso e avendo clock\tensione maggiori, non si spiega se non tenendo conto del risparmio legato alla migliore gestione dinamica del vcore.
Inoltre anche il fatto di avere un architettura la cui potenza di calcolo è più facilmente sfruttabile al 100% aiuta perchè non sprecando cicli le prestazioni, a parità di consumo, crescono.
Sono d'accordo però sul fatto che alcuni partner dovevano lavorare meglio: non si può certo chiedere loro di usare gli stessi dissipatori delle R9 390\390x, che erano schede di fascia alta, su schede di fascia media come queste, ma non c'era nemmeno bisogno di farlo. Però effettivamente alcuni dissipatori sembrano un po' sottodimensionati anche per una GPU da "solo" 160\180 watt: non che ci siano molte schede che si comportano davvero male, ma ultimamente gli standard soprattutto a livello di rumorosità si sono alzati talmente tanto che alcune proposte sfigurano un po'.
Forse io non riesco ad essere lungimirante su certi aspetti, ma, se mi chiamo Gigabyte e produco per entrambi i brand ( Amd e nVidia ), come faccio bene per nVidia, non ho motivo di fare male su AMD, anzi il vantaggio sarebbe doppio in quanto accontenterei di pari passo sia i fanboy AMD che i fanboy nVidia....
Almeno che....tra i due brand, allo stato attuale dei fatti, Gigabyte è più facilitata nello sviluppo su nVidia perché quest'ultima gli rende lo sviluppo più facile.
Però ripeto che senso ha fare bene su un brand e fare schifo su un altro? (estremizzo un pò).
Allora meglio fare come Palit che si dedica solo ad nVidia e basta.
Inviato da SM-G903F tramite
App ufficiale di Tom\\\'s Hardware Italia Forum
Ma guarda che in generale Gigabyte fa abbastanza bene anche su AMD: le R9 290\290x e 390\390x erano buone, non a livello delle migliori (Sapphire), ma comunque buone e le Hawaii non erano per niente facili da dissipare, sopratutto sui VRM.
Questa RX480 effettivamente gli è uscita un po' male, ma anche alcune Gigabyte Pascal non sono granchè (la 1070 G1 è rumorosa): più che lavorare male per AMD, a me sembra che abbiano fatto una gen un po' al risparmio, probabilmente per sfruttare l'onda delle famose G1 della generazione precedente (la 970 G1 era ottima).