Consigli per Build Deep Learning

Lorder

Nuovo Utente
55
5
Ciao a tutti,
sto pensando di fare una build per lavorare principalmente su applicazioni in ambito DeepLearning/Computer Vision e vorrei dei consigli e chiarire alcuni dubbi.

Posto sotto le due configurazioni (Intel vs Amd) che sto attualmente prendendo in considerazione:

CPUi9 10850k
388​
Ryzen 3900X
415​
MotherboardASUS Prime Z490-A
211​
Gigabyte X570 AORUS Master
328​
RamCorsair Vengeance LPX 2x16 GB
150​
Corsair Vengeance LPX 2x16 GB
150​
AlimentatoreCorsair RM750x
132​
Corsair RM750x
132​
CaseCorsair 4000D Case ATX
80​
Corsair 4000D Case ATX
80​
SSDSamsung MZ-V7S1T0BW 970 EVO Plus 1 TB
139​
Sabrent 1TB Rocket Nvme PCIe 4.0 M.2 2280
160​
DissipatoreCooler Master Dissipatore a Liquido lite240
54​
Cooler Master Dissipatore a Liquido lite240
54​

Prezzi senza GPU
Tot Intel: 1154 €
Tot Amd: 1319 €

Entrambe le configurazioni dovrebbero essere sufficientemente performanti rispetto all'utilizzo che ne farò.
L'obiettivo sarebbe quello di acquistare (sperando che i prezzi tornino alla normalità) una rtx 3080 ed in futuro fare un eventuale upgrade a 2 rtx 3080, per poter fare uno SLI in 8x,8x.
In linea di massima sarei più orientato verso la config AMD, un pò per i 2core in più sulla cpu, un pò per la velocità degli ssd in pcie 4.0, mentre il vantaggio di Intel sarebbe quello di poter iniziare ad acquistare tutto senza GPU sfruttando temporaneamente l'integrata.

Dunque i dubbi sono i seguenti:
  • Con le configurazioni postate su, avrò la possibilità di collegare le due GPU in x8,x8 e contemporanemente avere l'ssd collegato alla m.2 in x4 ? (Dalle linee esposte da cpu e chipset sembrerebbe di si ma preferisco chiedere conferma)
  • C'è qualcosa su cui si può risparmiare mantenendo le specifiche richieste su?
  • C'è qualche miglioria che posso apportare?
Ogni consiglio è ben accetto!
Grazie in anticipo?
 
Ultima modifica:

BAT

Moderatore
Staff Forum
Utente Èlite
22,668
11,452
CPU
1-Neurone
Dissipatore
Ventaglio
RAM
Scarsa
Net
Segnali di fumo
OS
Windows 10000 BUG
Con le configurazioni postate su, avrò la possibilità di collegare le due GPU in x8,x8 e contemporanemente avere l'ssd collegato alla m.2 in x4 ?
si, il chipset X570 permette di usare 24 linee di PCIe v4.0, quindi 16 (8+8) per SLI delle 3080 +4 per 1 SSD x4, +4 per il collegamento con il chipset.
C'è qualcosa su cui si può risparmiare mantenendo le specifiche richieste su?
no il contrario, semmai devi spendere di più:
C'è qualche miglioria che posso apportare?
AMD Ryzen 9 5900X
Sei proprio sicuro che ti bastino 32 GiB per applicazioni di Deep Learning? io ne metterei 64
 
  • Mi piace
Reazioni: Lorder

Lorder

Nuovo Utente
55
5
Innanzitutto grazie per la risposta!

Mi è sembrato di capire che, anche se non lo hai fatto esplicitamente, mi consigli la config AMD.
no il contrario, semmai devi spendere di più:
Perfetto, sicuramente seguirò il consiglio sul dissipatore...per il psu non so se acquistarlo subito già maggiorato o magari aspettare prima l'acquisto della seconda GPU.

AMD Ryzen 9 5900X
Su questo ci stavo già riflettendo un pò...ma credo che per l'uso che ne farò non ne trarrei troppo beneficio in termini di spesa/resa. Pensavo in alternativa al 3950x che arriva a 16core, ma anche lui costa più o meno il doppio del 3900x.

Sei proprio sicuro che ti bastino 32 GiB per applicazioni di Deep Learning? io ne metterei 64
Esatto! Non lo avevo scritto esplicitamente ma l'idea era quella di partire con 32 per poi arrivare ad un max di 64 nel caso mi sarà necessario.

Ne approfitto per chiederti un parere su un altro ssd WD_BLACK SN850 1 TB. Da alcuni benchmark ho visto che raggiunge velocità superiori al sabrent che ho inserito in configurazione, ed ha anche lo stesso prezzo.

Una curiosità, ho notato che la MB (Aorus Master) oltre a supportare il 2-way SLI (che è quello che più mi interessava) supporta anche il Quad-GPU SLI.
  • Se ho capito bene per il 2-way è sufficiente collegare le schede alle due interfacce pcie ed occorre un NV-LINK ?
  • Il Quad-GPU SLI invece come funziona? La MB ha solo 3 pcie (x16,x8,x4) per cui non ho ben capito come faccia a supportarlo.
 
Ultima modifica:
U

Utente 125751

Ospite
L'obiettivo sarebbe quello di acquistare (sperando che i prezzi tornino alla normalità) una rtx 3080 ed in futuro fare un eventuale upgrade a 2 rtx 3080, per poter fare uno SLI in 8x,8x.

Salve a te.
Ma non puoi fare uno SLI con 2 (o più) RTX 3080 dato che non lo supportano mica. Ti sei confuso con le RTX 3090. Nvidia ha deciso così. Fonte:





C'è qualcosa su cui si può risparmiare mantenendo le specifiche richieste su?

Manca il budget in euro ed il modello del tuo monitor.

No, anzi è l' opposto. Quel dissipatore va sostituito perchè è pessimo ed inaffidabile. In quella fascia l' unica opzione sono quelli ad aria.

Se vorrai mettere due schede video (non le RTX 3080 in SLI) bisogna per forza cambiare quell' alimentatore che è da 750w effettivi.

Che ram Corsair Vengeance LPX 2x16 GB, hai messo?

Se ho capito bene per il 2-way è sufficiente collegare le schede, che lo supportano, alle due interfacce pcie ed occorre un NV-LINK ?

Si.
 
  • Mi piace
Reazioni: Lorder

BAT

Moderatore
Staff Forum
Utente Èlite
22,668
11,452
CPU
1-Neurone
Dissipatore
Ventaglio
RAM
Scarsa
Net
Segnali di fumo
OS
Windows 10000 BUG
anche se non lo hai fatto esplicitamente, mi consigli la config AMD.
in questo particolare momento storico è un'indicazione di buon senso: le attuali CPU Intel sono più lente e consumamo sensibilmente di più. I sistemi Deep Learning richiedono molte risorse, non so se tutti e 16 i core del 5900X verranno sfruttati fino in fondo, dipende dai software usati, ma quello che è sicuro è che prima o poi tali core torneranno utili, e sarebbe imperdonabile "limitarsi" al pur ottimo 5800X per scoprire dopo qualche mese che l'altro sarebbe stato meglio. Se al momento il 5900X è costoso, allora andrei sul 5800X.
l'idea era quella di partire con 32 per poi arrivare ad un max di 64 nel caso mi sarà necessario.
meglio direttamente 64 con una coppia di banchi
per il psu non so se acquistarlo subito già maggiorato o magari aspettare prima l'acquisto della seconda GPU
si, però tieni conto che così facendo compri l'alimentatore 2 volte, se non hai modo di riciclare/rivendere l'ottimo RM750x potrebbe essere antieconomico. Prima di decidere , leggi la fine di questo post perché ho dimenticato di dirti una cosa su SLI ed è estremamente importante perché può condizionare la scelta sia della GPU che dell'alimentatore di conseguenza.
parere su un altro ssd WD_BLACK SN850 1 TB.
Parere semplice: Samsung 980 Pro e WD Black SN850 1TB (entrambi PCIe v4) sono gli SSD più veloci sul mercato, al momento non puoi acquistare di meglio.

IMPORTANTE
2-way SLI (che è quello che più mi interessava) supporta anche il Quad-GPU SLI.
NVidia ha cessato il supporto driver a implementazioni SLI per le proprie schede di fascia consumer. Questo significa che un eventuale supporto a SLI è totalmente a carico dei software che le useranno. In particolare, ad oggi l'unica scheda con un connettore NVlink che permette di collegare 2 schede in parallelo è la RTX 3090 (sulla serie 3000 lo SLI è permesso per 2 schede); le RTX 3070/3080 non hanno il connettore.
La motherboard quindi può supportare n-SLI (N=2,3,4 o più) ma esso funzionerà solo con schede che lo supportano.
Per quanto ne so, non dovresti acquistare una coppia di RTX 3080 ma una singola (e costosa) RTX 3090, l'unica della nuova serie che potrà essere "raddoppiata". Una coppia di RTX 3090 consuma a pieno carico quasi 1000W (vedi il terzo articolo che ti linko sotto), per cui devi ponderare bene cosa acquistare sin da subito.
Approfondimenti:
https://www.tomshardware.com/news/the-end-of-sli-as-we-know-it-nvidia-reveals-new-model
https://www.tomshw.it/hardware/perche-nvidia-ha-ucciso-la-tecnologia-sli/
https://www.hdblog.it/hardware/articoli/n527409/geforce-rtx-3090-benchmark-sli-test/
https://www.hwupgrade.it/news/skvid...-lo-uccidono-quasi-definitivamente_91739.html
 
  • Mi piace
Reazioni: Lorder

Lorder

Nuovo Utente
55
5
Grazie di nuovo ad entrambi, anche per gli approfondimenti.

In realtà ho fatto un pò di confusione, informandomi meglio sullo SLI tramite connettore NV-LINK, nel mio caso non vi è una reale necessità di farne uso, in quanto le librerie che utilizzo (ad es. Tensorflow) supportano nativamente funzioni per accedere alle VRAM di tutte le GPU collegate, dunque non dovei avere problemi ad utilizzare una combo di 2 Rtx3080 e di parallelizzare i calcoli via software.
Che ram Corsair Vengeance LPX 2x16 GB, hai messo?
Queste: Corsair Vengeance LPX 2x16 (La frequenza dovrebbe essere sufficiente, non dovrebbe fare da collo per l'utilizzo che ne farò).
meglio direttamente 64 con una coppia di banchi
Vero ma siccome penso di non andare oltre i 64GB dovrebbe essere sufficiente anche 4x16GB.
I sistemi Deep Learning richiedono molte risorse, non so se tutti e 16 i core del 5900X verranno sfruttati fino in fondo
In realtà il 5900x ha 12core come il 3900x, per questo prima citavo il 3950x (16 core) come alternativa migliore (nel mio caso più core ho meglio è), ma essendo i task di cui mi occupo principalmente di tipo GPU-intensive potrebbe non valere la pena spendere il doppio per avere risorse sottoutilizzate.

Diciamo che le modifiche rispetto alla configurazione inizale saranno sicuramente il dissi ed eventualmente partire già con un psu che possa supportare entrambe le GPU.

Intanto allego anche due articoli che possono essere utili a chi sta sviluppando build simili:
x16 vs x8 GPUs for Machine learning (Mostra che non ci sono grosse differenze tra x8 e x16)
Best GPUs for Deep Learning (Altre info utili)
 
Ultima modifica:

BAT

Moderatore
Staff Forum
Utente Èlite
22,668
11,452
CPU
1-Neurone
Dissipatore
Ventaglio
RAM
Scarsa
Net
Segnali di fumo
OS
Windows 10000 BUG
Queste: Corsair Vengeance LPX 2x16 (La frequenza dovrebbe essere sufficiente, non dovrebbe fare da collo per l'utilizzo che ne farò).
In realtà ne fa, i Ryzen lavorano meglio con RAM ad alta frequenza, inoltre le serie Ryzen 3000 e 5000 hanno il controller di memoria a 3200MHz, il che non significa che non funzioni con memorie inferiori ma che lo azzoppi. Ti suggerisco le Crucial Ballistix 3600MHz CL16
In realtà il 5900x ha 12core come il 3900x,
in realtà avevo in mente il 5950X ? si è vero ha 12 core il 5900X
Intanto allego anche due articoli che possono essere utili a chi sta sviluppando build simili:
x16 vs x8 GPUs for Machine learning (Mostra che non ci sono grosse differenze tra x8 e x16)
Best GPUs for Deep Learning (Altre info utili)
ottimo
 

BAT

Moderatore
Staff Forum
Utente Èlite
22,668
11,452
CPU
1-Neurone
Dissipatore
Ventaglio
RAM
Scarsa
Net
Segnali di fumo
OS
Windows 10000 BUG
  • Mi piace
Reazioni: Lorder

BAT

Moderatore
Staff Forum
Utente Èlite
22,668
11,452
CPU
1-Neurone
Dissipatore
Ventaglio
RAM
Scarsa
Net
Segnali di fumo
OS
Windows 10000 BUG
Nel 4000D il 360mm deve essere montato sul frontale del case,
una soluzione migliore è il nuovo 5000D Airflow Mesh oppure la versione 5000D Tempered glass che è l'evoluzione di quello che hai linkato tu. Hanno molto più spazio internamente perché sono un po' più alti e più larghi, di conseguenza hai molti più modi di montare la componentistica interna. Guarda il sito ufficiale, dalle immagini interne si vede molto bene che quello nuovo e tutta un'altra cosa, tra l'altro l'ha appena preso il nostro @Max(IT) che può confermartelo:
Versione Airflow Mesh: https://www.corsair.com/ww/en/Categ...d-Glass-Mid-Tower-ATX-PC-Case/p/CC-9011210-WW
Versione "classica": https://www.corsair.com/us/en/Categ...d-Glass-Mid-Tower-ATX-PC-Case/p/CC-9011208-WW
qui trovi il confronto delle dimensioni, il 5000 è superiore in tutto, non solo per dimensioni ma anche come airflow, flessibilità d'uso ecc. Se monterai 2 GPU meglio se hai più spazio: https://www.corsair.com/us/en/blog/4000-5000-series-case-comparison
 

Max(IT)

Moderatore
Staff Forum
Utente Èlite
26,757
14,507
CPU
Intel i7 13900K
Dissipatore
Arctic Freezer II 360
Scheda Madre
Asus ROG Strix Z690-E Gaming WiFi
HDD
Samsung 970EVO + 970 EVO Plus + 870 SSD
RAM
Kingston Fury Renegade 6400 CL32 32 GB
GPU
PNY RTX 4080 XLR8 OC
Monitor
Asus TUF VG27AQ1A + Samsung 24RG50
PSU
EVGA G6 850W
Case
Corsair 5000D Airflow
OS
WIndows 11
Confermo che il 5000D Airflow è nettamente più grande del 4000D.
Il look “minimal” piace molto anche a me, ed il cable management è fatto meglio. Non è solo un 4000D più grande. È meglio rifinito.
 

Lorder

Nuovo Utente
55
5
Perfetto, credo che opterò anche io per il 5000D, non so se la versione airflow o "classica".

possibilità di collegare le due GPU in x8,x8 e contemporanemente avere l'ssd collegato alla m.2 in x4

Per cercare di contenere i costi stavo guardando anche la X570 Aorus PRO e mi pare abbia tutte le caratteristiche necessarie.
Vedete controindicazioni per caso?
 

BAT

Moderatore
Staff Forum
Utente Èlite
22,668
11,452
CPU
1-Neurone
Dissipatore
Ventaglio
RAM
Scarsa
Net
Segnali di fumo
OS
Windows 10000 BUG
mmmh, mi sa che non è una buona idea, chiedo supporto ulteriore
@pribolo
stiamo parlando di un sistema dove presumibilmente andrà un Ryzen 3900X/5900X e, a regime, una coppia di RTX 3080 in parallelo. L'utente è indeciso tra Aorus Master X570 e Aorus Pro X570. Queste le informazioni in mio possesso (se sai diversamente, per favore correggimi):
  • Aorus Master X570: VRM 12+2 fasi Vcore+Vsoc (no doubler, sono reali), capacità VRM 600A+100A, niente connettore GPU-AUX
  • Aorus Pro X570: VRM (6+6)+2 fasi (Vcore)+Vsoc con doubler, capacità VRM 480A, niente connettore GPU-AUX
Per "connettore GPU-AUX" intendo il connettore ausiliario di alimentazione per la GPU utile quando si è in SLI, connessioni NVlink e multi-GPU in generale.
La sezione VRM fa senz'altro preferire la Master, la domanda è: il GPU-AUX è necessario tenendo conto che ci andranno 2 RTX 3080?
Perché l'unica mobo che ce l'ha di cui abbia notizia è la Gigabyte X570 AORUS Extreme (14+2 fasi reali, 980A+140A e GPU-AUX a 6 pin) ma costa una tombola.
Tu che ne pensi?
 

pribolo

Moderatore
Staff Forum
Utente Èlite
38,393
13,798
CPU
i5 13600KF @5.4/4.3 GHz
Dissipatore
Endorfy Navis F280
Scheda Madre
MSI Z690 Tomahawk Wifi DDR4
HDD
Samsung 990 Pro 2TB e Crucial MX500 2TB
RAM
Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
GPU
Asus TUF RTX 4070 Ti Super
Monitor
LG 27UL650 UHD
PSU
Seasonic Prime TX-750
Case
Sharkoon CA200M
OS
Windows 11 Pro
Oddio non sentivo parlare di SLI da anni ? Però ho letto che serve per deep learning, quindi mi taccio.

Il connettore ausiliario per la scheda madre secondo me non è necessario: più che altro si è sempre fatto SLI, con schede madri meno sofisticate di quelle attuali e non se n'è mai sentito il bisogno. E' vero che le schede video attuali consumano tanto, ma dallo slot PCI-E prendono al massimo 75 watt (e spesso neanche ci arrivano): per il resto si affidano ai loro connettori ausiliari. Quindi la scheda madre non deve farsi carico di tanta corrente.

Anche lato VRM non mi sembra che ci sia nessun problema: la Aorus Master indubbiamente ha VRM più "potenti" ma la current capacity della Pro è più che sufficiente per un 3900x\5900x anche eventualmente in overclock.
Queste sono temperature ottenute dopo 1 ora di rendering con un 3900x in overclock a 4.3GHz 1.4v in un banchetto aperto senza flusso d'aria:


In condizioni di lavoro estreme (in un case c'è sempre un po' di flusso d'aria e 1.4v è già troppo per utilizzo giornaliero) la Aorus Pro fa 71-75 gradi che sono temperature perfettamente sicure per dei mosfet.
Quindi secondo me, se vuole può risparmiare: l'importante è che la scheda madre supporti lo SLI in modalità 8x 8x e ho visto che lo supporta.

Piuttosto serve un alimentatore con i cosiddetti: minimo minimo 1000 watt, ma anche un 1200 non lo vedrei male. Solo le due RTX3080 a pieno carico consumano 700 watt (circa... dipende dalla custom scelta).
Tra l'altro la scheda più in alto tra le due, a prescindere dal case scelto, si beccherà delle botte di calore pazzesche: per raffreddarle bene servirebbe un impianto a liquido custom... Ad aria non saranno inutilizzabili, ma anche prendendo delle custom buone la scheda superiore sarà sempre sopra gli 80 gradi se viene caricata sul serio (non so quanto stressi le GPU il deep learning, credo più o meno come un gioco, sbaglio?).
L'alternativa è undervoltarle e undercloccarle leggermente in modo di perdere qualcosa in potenza, ma avendo temperature e consumi più sotto controllo.

A parte che al momento le 3080 non ci sono quindi parliamo del nulla?


P.S Come alimentatore per due RTX3080 in SLI questo è il minimo sindacale: Corsair HX1000i
Non so dove compri tu, ma 236€ è un buon prezzo.
Ma personalmente mi sentirei più sicuro con questo: Corsair AX1000
Che è sempre un 1000 watt sulla carta, ma in realtà ha l'OPP settata più in alto (1400 watt contro i 1200 dell'HX). Oltre al discorso potenza l'AX, che è basato sui "micidiali" Seasonic Prime Titanium, è migliore proprio a livello di prestazioni elettriche, soprattutto come efficienza (ai bassi carichi in particolar modo): non per nulla è classificato Titanium.
Ti sembrerà un prezzo fuor da ogni logica ma per due 3080 in SLI servono cose estreme? Del resto sono 2000€ di schede video, se andrà bene...
 
Ultima modifica:
  • Mi piace
Reazioni: BAT

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!

Discussioni Simili