techsaskia
Utente Èlite
- Messaggi
- 2,754
- Reazioni
- 978
- Punteggio
- 128
Io quello sto usando, riformulo perché forse il dubbio deriva dal mio "non da fare niente", intendevo dire che io che uso di continuo sta roba, non vedo nessun motivo per usare questo in locale perché nel 99% dei casi produce un risultato peggiore. Ok il vantaggio del locale, macosì serve a poco.Se non gli carichi il modello giusto non sa fare nulla
Devio caricare il modello per poter usarlo bene esattamenrte come ollama
Ormai openai ci ha abituato a modelli con 2 trillioni+ di parametri, che ci fai con qualche billion di quel robo.
È un giochillo inutile.
Su una 5090 non ci gira nemmeno gpt3 figuriamoci i multi modello attuali.
Ultima modifica: