GPU per applicazioni di number crunching

Pubblicità
sono 2 schede uguali ( ma anche diverse) le quali si collegano con un ponticello e praticamente le 2 schede si sommano per avere più potenza.
detto in parole povere, poverissime
Ah. Ma comunicano e scambiano dati tra di loro senza passare dalla RAM? E la comunicazione e' efficiente o puo' rappresentare un collo di bottiglia (calcoli velocissimo e scambio di dati lento)?

copy.png
favicon.ico
 
forse hai bisogno di questa gpu per fare i calcoli
Eh, bella! pero' non ho capito, come si colloca questa scheda rispetto ai Fermi che devono arrivare? La programmazione e' limitata a C for Cuda, vedo.

In ambito nVidia i Fermi promettono alcune cose che per noi sono importanti, tipo i calcoli in doppia precisione (64 bit). Anche le schede attuali come questa possono farli, pero' sembra che si perda molto in performance rispetto alla singola precisione

copy.png
favicon.ico
 
monticelli, io ti consiglio di aspettare le gpu fermi nel campo a cui sei interessato.
Ma più o meno cosa utilizzate ora come sistema per calcolare??
Le tesla equipaggiate con chip fermi sapranno macinare circa 630GigaFlops in doppia precisione.
 
monticelli, io ti consiglio di aspettare le gpu fermi nel campo a cui sei interessato.
Ma più o meno cosa utilizzate ora come sistema per calcolare??
Le tesla equipaggiate con chip fermi sapranno macinare circa 630GigaFlops in doppia precisione.

Anch'io mi sto convincendo della stessa cosa: anche perche' mi sembra di capire che non ci sara' nel breve un prodotto di ATI con le stesse caratteristiche (correggetemi se sbaglio)

Ora con la Geforce riusciamo a spuntare un misero 6 Gigaflop/s, ma siamo proprio all'inizio e probabilmente non stiamo ottimizzando.

Di default usiamo il cluster del centro dove lavoro, di cui non trovo i dati recenti. Quelli di un anno fa parlavano di 400 nodi dual cpu quadcore, per un totale di 3200 unità di calcolo, con Dual cpu Intel E5440 quad core a 2,8GHz e RAM 16 GB e 32 GB DDR2 FBD 667MHz.

Poi magari scopriamo che con poche migliaia di euro di Tesla si va piu' veloce... :cav: :inchino:
 
Se l'idea è quella di usare il Fermi che ha una capacità di calcolo in doppia precisione decisamente superiore al processore G200 che state usando ora, allora l'unico consiglio è quello per ora di valutare il sistema di sviluppo e la facilità di programmazione dell'algoritmo su GPU, non le prestazioni. Il salto prestazionale da G200 a Fermi sulla carta dovrebbe essere enorme, soprattutto per i calcoli in doppia precisione. Lo SLI (o analogo CrossFire) è un sistema di comunicazione tra GPU che viene però usato per dividere il lavoro del rendering 3D. Non ha capacità di distribuire il calcolo GP tra 2 GPU. Infatti sono noti tutti i problemi di supporto a schede SLI da parte di molte applicazioni di calcolo che vengono fatte girare sulle schede di tipo "gaming". Le schede Tesla non hanno neanche il connettore SLI. Direi che questo metodo di comunicazione non è da prendere in considerazione. Bisogna valutare quanto il sistema (inteso come CUDA e relativi driver) riesce a distribuire il carico di lavoro su più schede, ma in questo caso credo servano le Tesla (basate su G200 già acquistabili oggi o più avanti su Fermi).

A quanto è dato sapere oggi ATI non ha intenzione di fare nulla di simile alle schede Tesla di nvidia. Almeno non a breve. Entrare in tale mercato richiede uno sforzo per la creazione di un framework stabile e consolidato che ATI non ha. Un suo ingresso, ammesso che la tecnologia che ha ora in mano possa competere con il Fermi, richiederebbe comunque qualche hanno (2 o 3) di preparazione ovvero gli anni che nvidia ha investito in CUDA.
A quel punto però si parla già di un paio di generazioni oltre a quelle che vediamo oggi, per cui non è dato sapere a noi mortali come le cose evolveranno. Il mercato GPGPU è praticamente appena nato e le variabili in gioco sono molte. Ecco perchè credo che uno studio più sul metodo di sviluppo che sulle prestazioni attuali possa essere più indicativo.

Tieni presente che la velocità con cui si stanno sviluppando le GPU è oltre il doppio rispetto a quella delle CPU, per cui se oggi non ritenete l'implementazione si GPU conveniente è possibile che in non meno di un paio di anni la questione possa invertirsi. Se i tempi di sviluppo dell'applicazione, come credo, sono più lunghi di un anno, allora la valutazione sulle prestazioni e i benefici va fatta sulle potenzialità future, tenendo conto del tipo di calcoli effettuati, non certo su quello che si ha per mano oggi (il G200 che usate oggi è il rudimento del GPGPU, che migliorerà decisamente con Fermi che a sua volta migliorerà ancora secondo le dichiarazioni di nvidia prima della fine dell'anno).
 
Il chip GT200 di Nvidia è un chip fretta e fuggi, nel senso che se nvidia avrebbe lavorato alla revisione e alla gestioni di una maggiore e migliore gestione della cache nella propria architettura le prestazioni in ambito di calcolo sarebbero circa 8-9 volte maggiori di quelle offerte ora dal chip GT200.

Fermi invece trae i punti di forza del "vecchio" chip GT200, con una attenta revisione alla cache e alla gestione della dram, oltre alle tantissime migliorie apportate.


Se usavate un cluster di ben 400 nodi di 2 cpu quad-core è impossibile eguagliare tali prestazioni con alcune nvidia tesla.
Bisogna sapere il budget, le risorse disponibili.
Per tali compiti come la fluidodinamica computazionale, nella nostra sede dell' università possediamo per le ricerche alcuni cluster composti da circa una trentina di sistemi U1 equipaggiati ognuno con 4 gpu tesla, forniti dalla stessa Nvidia circa 6-7 mesi fa.

Secondo me se siete abbastanza avanti nelle ricerche potreste chiedere esigenti richieste prestazionali direttamente ad nvidia, come ha fatto al politecnico di milano se finanziate ingenti progetti e sviluppi nvidia vi fornirà il materiale necessario per le ricerche e per lo sviluppo di nuove "idee".
Nvidia al politecnico di milano ha stanziato circa 3 milioni di € per concepire nuovi progetti e fornire il materiale occorrente, come in questo caso i server necessari.


Se ti può interessare posso consigliarti anche l' acquisto di alcune workstation:

http://www.e4company.com/nvidia/tesla_spc.htm
 
Snurf...snurff.. no... non resist.. non restistooooooooooooo...
Fall4 ha detto:
nel senso che se nvidia avrebbe lavorato alla revisione
Ma nel budget di 3 milioni di euro, non ci stava un abecedario? ;)

Scusate... ma non ho resistito...
 
da perfetto ignorante in materia ti dico di puntare sulle fermi-tesla.

Snurf...snurff.. no... non resist.. non restistooooooooooooo...

Ma nel budget di 3 milioni di euro, non ci stava un abecedario? ;)

Scusate... ma non ho resistito...

occhio perchè dopo questa ti terremo d'occhio:sisi: sarai costretto a scrivere come Grazia Deledda ai tempi d'oro:asd:
 
No, non volevo fare il bacchettone, ma ad un ricercatore universitario non gliela si può far passare liscia
Dopo tutti quegli anni chino sui libri e con i costi in parte finanziati anche dalle mie tasse.... :asd:

Va bene, mi autopunisco: faccio la domanda di rito a Fall4... ma come ci gira Crysis sulle 30 unità x4GPU tesla?
 
Va bene, mi autopunisco: faccio la domanda di rito a Fall4... ma come ci gira Crysis sulle 30 unità x4GPU tesla?
Da schifo! :lol: I driver sono ottimizzati al 100% con le applicazioni professionali, nel gaming i risultati sarebbero pessimi :sisi: (considerando le unità impiegate)
 
vero, io ho sempre avuto 6 in italiano, mai di più, nel resto delle materie 8-9 e in informatica 10+ ma in italiano sempre 6.

Monticelli ci devi fornire più dati a riguardo!
 
Pubblicità
Pubblicità
Indietro
Top