Io se una dual Vega ottimizzata con infinite fabric quindi uno scaling dall' 80% minimo a salire andasse anche un 10% piú di una top volta io lo farei l.acquisto però questo è sognare ad occhi aperti. A me fotte sega del marchio acquisto quella che va di più
Inviato da MotoG3 tramite App ufficiale di Tom\\\'s Hardware Italia Forum
mha... tempo fà si parlava di una tecnologia che avrebbe permesso di far vedere al sistema piu' cluster come uno soltanto (tutto via software... come se avessi una GPU virtuale e usassi due risorse reali distinte), ma implicava un buon processo di astrazione e, soprattutto, una bella banda passante, oltre che un i "soliti accessori" (buffer da paura).
qui:
https://www.google.it/patents/EP3060979A1?cl=en&dq=inassignee:"Advanced+Micro+Devices"
hai l'estratto di astrazione di un brevetto per la compressione dei dati sul bus di comunicazione tra CPU e tra GPU.
contando che infinite fabric tra due CPU (e anche tra le GPU), indicato nei paper come 4-XGMI (4 dovrebbe essere l'estensione del link e la sigla dovrebbe indicare eXternal Global Memory Interconnect), puo' avere una bidirezionalità da 100GB/s, con una buona compressione e la replica di alcuni set di memoria su entrambe le schede, passando solo le istruzioni base, la limitazione maggiore che un CF possa avere credo sia parecchio ridimensionata...
purtroppo nulla c'e' dato di sapere di piu' ad oggi...
io credo che questa tecnologia sia pero' piu' adatta a mGPU DX12, nel momento in cui non vengono operati un frame a GPU, ma che un frame sia diviso per quante GPU si usino...
credo che questi "messaggi" siano dovuti piu' che altro alla distribuzione di carico.
faccio un esempio per spiegarmi meglio:
ho un frame da 3840x2160 x 3 schede (abbondiamo).
lo divido non i tre spezzoni da 1280x2160x3, ma in 3 da, diciamo 1600x2160 pixel. mi trovo nella condizione per cui la prima scheda calcola la prima frazione di 1600 (in larghezza), la seconda scheda dal pixel 1120 al pixel 2720, l'ultima da 2240 a 3840, quindi parte della prima sezione e parte dell'ultima sezione sono in parte coperte da quella di mezzo, per cui si accavallano per una striscia di 480 pixel.
le schede lavorano, ma se la scheda 1 ha carico elevato per i suoi 1120 suoi esclusivi pixel, mentre quella che si occupa della sezione di mezzo è piu' scarica, non processera la striscia da 240 pixel (metà dell'accavallamento), ma sarà la scheda 2 a farlo... e cosi' per quanto riguarda la terza.
in questo modo hai la proprietà di poter variare dinamicamente il carico delle CPU senza doverle caricare di memoria inutile...
quella condivisa sarà solo relativa ai 480 pixel di accavallamento delle due strisce...
ora, per gestire la dinamica, devi comunque dare nozione alle schede interessate... un bel trafico.
in piu' si potrebbe optare direttamente per il travaso di calcolo, per cui un graphics engine puo' comandare graphics processor dell'altra scheda, ma solo per la parte per cui si accavallano, quindi con un carico decisamente inferiore rispetto a quello che dovrebbe fare per l'intero frame...
purtroppo mGPU è a carico degli sviluppatori, ed in ultimo ai motori grafici, quindi... io son ignorante sulle dinamiche logiche dei motori in uso oggi, figurarsi su quelli che non ci sono e no si possono ricavare esempi...