monticelli
Utente Attivo
- Messaggi
- 71
- Reazioni
- 10
- Punteggio
- 38
Perfetto, e' esattamente quello che abbiamo in mente. In effetti il nostro rapporto con la tecnologia e' un po' come quello del contadino con la frutta: non devi raccoglierla quando e' acerba, ma neanche aspettare che sia perfettamente matura, altrimenti e' troppo tardi. L'idea sarebbe di fare i porting di tutti i codici sulla Geforce, poi fare girare tutto sui Fermi quando arriveranno, sperando che ci sia compatibilta'.Se l'idea è quella di usare il Fermi che ha una capacità di calcolo in doppia precisione decisamente superiore al processore G200 che state usando ora, allora l'unico consiglio è quello per ora di valutare il sistema di sviluppo e la facilità di programmazione dell'algoritmo su GPU, non le prestazioni. Il salto prestazionale da G200 a Fermi sulla carta dovrebbe essere enorme, soprattutto per i calcoli in doppia precisione.
Grazie, mi confermi quanto sospettavo. In effetti un gruppo di nostri colleghi che si occupa di grafica ha un cluster di 8x2 Geforce, e quando ho chiesto come facevano la comunicazione mi hanno risposto che per loro non e' critica, in quanto le Geforce gestiscono porzioni di schermo inipendeti e devono fare poca o nulla comunicazione. Ora credo di capire che usino appunto SLI, che per noi invece non va bene.(Lo SLI (o analogo CrossFire) è un sistema di comunicazione tra GPU che viene però usato per dividere il lavoro del rendering 3D. Non ha capacità di distribuire il calcolo GP tra 2 GPU. Infatti sono noti tutti i problemi di supporto a schede SLI da parte di molte applicazioni di calcolo che vengono fatte girare sulle schede di tipo "gaming". Le schede Tesla non hanno neanche il connettore SLI. Direi che questo metodo di comunicazione non è da prendere in considerazione. Bisogna valutare quanto il sistema (inteso come CUDA e relativi driver) riesce a distribuire il carico di lavoro su più schede, ma in questo caso credo servano le Tesla (basate su G200 già acquistabili oggi o più avanti su Fermi).
Grazie, questa info e' preziosa per me. Mi sembra che nVidia con i Tesla voglia provare l'assalto al mercato delle "cpu" prestazionali, intese come chip non pensati per applicazioni grafiche ma per il calcolo intensivo. Ho letto che hanno fatto un accordo con il Portland Group, che produce compilatori C# e Fortran# molto noti in ambito scientiico, per sviluppare compilatori GPU-oriented. Questa sarebbe una bella rivoluzione nel campo del calcolo scientifico. Mi chiedo se ATI possa/voglia fare la stessa cosa, visto che dipende da AMD, che forse non vuole costruire la concorrenza in casa ai propri chip.A quanto è dato sapere oggi ATI non ha intenzione di fare nulla di simile alle schede Tesla di nvidia. Almeno non a breve. Entrare in tale mercato richiede uno sforzo per la creazione di un framework stabile e consolidato che ATI non ha. Un suo ingresso, ammesso che la tecnologia che ha ora in mano possa competere con il Fermi, richiederebbe comunque qualche hanno (2 o 3) di preparazione ovvero gli anni che nvidia ha investito in CUDA.
A quel punto però si parla già di un paio di generazioni oltre a quelle che vediamo oggi, per cui non è dato sapere a noi mortali come le cose evolveranno. Il mercato GPGPU è praticamente appena nato e le variabili in gioco sono molte. Ecco perchè credo che uno studio più sul metodo di sviluppo che sulle prestazioni attuali possa essere più indicativo.
Ottimo punto da tenere ben presente, grazie.Tieni presente che la velocità con cui si stanno sviluppando le GPU è oltre il doppio rispetto a quella delle CPU, per cui se oggi non ritenete l'implementazione si GPU conveniente è possibile che in non meno di un paio di anni la questione possa invertirsi. Se i tempi di sviluppo dell'applicazione, come credo, sono più lunghi di un anno, allora la valutazione sulle prestazioni e i benefici va fatta sulle potenzialità future, tenendo conto del tipo di calcoli effettuati, non certo su quello che si ha per mano oggi (il G200 che usate oggi è il rudimento del GPGPU, che migliorerà decisamente con Fermi che a sua volta migliorerà ancora secondo le dichiarazioni di nvidia prima della fine dell'anno).
ciao, monticelli