Frantoietto19
Nuovo Utente
- Messaggi
- 9
- Reazioni
- 2
- Punteggio
- 2
Grazie per l'input, ma ti assicuro che per quello che facevo io a livello amatoriale una 2070 andava bene, proprio per quello vorrei sostituirla con un modello economico che abbia delle prestazioni simili.ma ci vuole una GPU di livello top xx90
per il preprocessing dei dati da inviare una CPU veloce è un desiderata, nei data center usano gli Intel Xeon (o equivalenti AMD)
altri usano direttamente FPGA e ASIC dedicati che, sebbene meno flessibili, sono le soluzioni con le prestazioni più elevate
a quanto mi risulta eh, confesso di non essere addentro questo tema
Qui c'è un'articolo (proprio di tomshw) che fa un benchmark su stable diffusion (anche se non è l'unico algoritmo che uso, scrivo anche delle cose mie):

Stable Diffusion Benchmarks: 45 Nvidia, AMD, and Intel GPUs Compared
Which graphics card offers the fastest AI performance?
La 2070 da quello che ho capito performa in maniera simile a una 3060ti, mentre la 3060 è di poco più lenta. Però la VRAM aggiuntiva come dicevo potrebbe tornare utile perchè spesso alcune cose richiedono più di 8 GB, come per esempio il training di modelli dreambooth o lora, o ancora runnare dei LLM tipo llama eccetera, e spesso se vai su github non parlano di requirements in termini di cuda cores, ma mettono proprio la VRAM, perchè il modello deve essere caricato per intero.
Per quanto riguarda la CPU è completamente trascurabile. Il modello viene caricato sulla VRAM una volta e rimane lì fino a quando lo usi, quindi è veramente ininfluente. Queste cose le impari quando li usi questi algoritmi.
Spero che tu non ti offenda, grazie comunque per l'input!