Io deve ancora iniziare con Stable diffusion, però leggendo un pò in giro ho letto diversi articoli e anche su reddit e tutti dicono la stessa cosa e cioè che almeno servono 12gb di Vram.. in sostanza conta di più la Vram che la velocità della scheda in se, ovviamente basandosi sempre su schede recenti.
Specification RTX 5060 Ti RTX 4060 Ti GPU Architecture Blackwell (GB206) Ada Lovelace (AD106) Board PG152 (16GB), PG152 (8GB) PG190 (16GB), PG190 (8GB) AI TOPS 759 353 Tensor Cores 5th Generation 4th Generation Base Clock 2.407 GHz 2.310 GHz Boost Clock 2.572 GHz 2.535 GHz Memory Options 16 GB / 8 GB GDDR7 8 GB / 16 GB GDDR6 Memory Interface 128-bit 128-bit Memory Bandwidth 448 GB/s 288 GB/s RT Cores 72 TFLOPS 34 Total Tensor Cores 144 136 TGP (Power Draw) 180W 160W PCIe Interface PCIe 5.0 x16 PCIe 4.0 x8
è una tabella di comparazione tra le Ti, ma rende bene l'idea delle differenze sostanziali, i core dedicati all'AI sono aumentati insieme agli RT core, la generazione dei core anche, si è passati dalle ram GDDR6 alle GDDR7 con conseguente aumento della banda
hai meno VRAM per caricare i modelli più pesanti, ma hai una qualità maggiore e più velocità nel risolvere le operazioni e può comunque appoggiarsi sulla memoria di sistema
questo l'ho fatto con flux-dev con un low memory model
guarda qui:
Le Migliori GPU Per AI: Le Scelte Ideali Per Stable Diffusion E Flux1 - TUTORIAL3D.IT
L' era dell'intelligenza artificiale generativa è ormai realtà e modelli come Stable Diffusion e Flux1 offrono infinite possibilità creative direttamente dal
www.tutorial3d.it
Ultima modifica: