PC ufficio per programmazione/codice, virtualizzazione, elaborazione dati e AI

Pubblicità
la via da remoto mi ispira ma non saprei come implementarla, mi dovrei dotare di uno switch per accendere il pc quando mi serve? inoltre non vorrei rischiare di rendere il flusso troppo macchinoso specialmente lato sviluppo
se non sai dove mettere mani, la via migliore è un notebook da portarti dietro, anche solo una 5060 ti permette di far girare qualche modello più leggero, altrimenti ci metti il tuo 7950x3D alla build di sopra e aggiungi una gpu
 
ma la soluzione tramite desktop remoto è proprio inutile? ho fatto un test veloce qui in ufficio da un portatile al mini pc e a parte un minimo di input lag su alcune operazioni non sembrava male
 
ma la soluzione tramite desktop remoto è proprio inutile? ho fatto un test veloce qui in ufficio da un portatile al mini pc e a parte un minimo di input lag su alcune operazioni non sembrava male
per la soluzione da remoto devi sapere dove mettere mani, se ti si blocca qualcosa, resti senza niente, altro problema è il budget, per il tuo utilizzo devi pompare sia la cpu che la gpu

che notebook aveva e su cosa girava l'IA?
 
intendo che ho provato a connettermi in “remoto” dal portatile scrausino dell’azienda al mini pc (nel senso che ho utilizzato la funzionalità desktop remoto, anche se le due macchine erano fisicamente in ufficio), quindi le specifiche sono quelle del link di ieri, sembrava di usare esattamente il mini pc a parte un discreto lag su un documento csv.

ho pensato che appunto potrei sfruttare la potenza del pc che ho a casa, al momento monta una rtx 3080, processore di ieri e 32gb di ram.

sono consapevole che dovrei imparare tutta la parte smanettosa, ma potrei rendere questo mini pc e magari prenderne uno molto più economico… o renderlo e basta, anche se vorrei mantenere la possibilità di usare tutti gli schermi senza splitter, cosa che dovevo per forza fare con il portatile, però non so se è una buona soluzione, banalmente potrei investire i soldi in una nuova gpu che tanto comunque ci guadagno anche lato gaming
 
intendo che ho provato a connettermi in “remoto” dal portatile scrausino dell’azienda al mini pc (nel senso che ho utilizzato la funzionalità desktop remoto, anche se le due macchine erano fisicamente in ufficio), quindi le specifiche sono quelle del link di ieri, sembrava di usare esattamente il mini pc a parte un discreto lag su un documento csv.

ho pensato che appunto potrei sfruttare la potenza del pc che ho a casa, al momento monta una rtx 3080, processore di ieri e 32gb di ram.

sono consapevole che dovrei imparare tutta la parte smanettosa, ma potrei rendere questo mini pc e magari prenderne uno molto più economico… o renderlo e basta, anche se vorrei mantenere la possibilità di usare tutti gli schermi senza splitter, cosa che dovevo per forza fare con il portatile, però non so se è una buona soluzione, banalmente potrei investire i soldi in una nuova gpu che tanto comunque ci guadagno anche lato gaming
non intendo lavorare da desktop remoto, ma di creare un server con ollama a casa e tramite VPN avere accesso sul tuo pc in ufficio
 
perfetto, non sarebbe meglio una 5070 o una 5060ti che ha 16gb?
certo, li dipende dal budget restante

ti lascio anche il link di ollama per metterlo su docker e su vscode dovrai utilizzare l'estensione codeGPT e selezionare il modello che hai scaricato, ci sono molte guide sul tubo in lingua inglese
 
certo, li dipende dal budget restante
a questo punto finisco con la cosa migliore, quali delle due è meglio? forse la 5060 che ha più vram?
ti lascio anche il link di ollama per metterlo su docker e su vscode dovrai utilizzare l'estensione codeGPT e selezionare il modello che hai scaricato, ci sono molte guide sul tubo in lingua inglese
io stavo usando l’estensione continue con lm studio, meglio il metodo che hai linkato?
 
a questo punto finisco con la cosa migliore, quali delle due è meglio? forse la 5060 che ha più vram?
la 5060Ti ha più VRAM, la 5070 ha prestazioni maggiori, guarda cosa richiede il modello che stai usando
io stavo usando l’estensione continue con lm studio, meglio il metodo che hai linkato?
va bene anche lui, semplifica le cose per il coding, con ollama puoi affiancarli una gui per usarla come IA sul pc e ti gira su docker senza installare roba sul pc
 
la 5060Ti ha più VRAM, la 5070 ha prestazioni maggiori, guarda cosa richiede il modello che stai usando

va bene anche lui, semplifica le cose per il coding, con ollama puoi affiancarli una gui per usarla come IA sul pc e ti gira su docker senza installare roba sul pc
interessante, se dovessi usare questo approccio + ai che sfrutta il contesto della mia codebase secondo te cosa sarebbe meglio? perché non so ancora di preciso che modello utilizzare, ma vorrei poter avere contesto a sufficienza da dare prompt precisi in pasto all’ai
 
Pubblicità
Pubblicità
Indietro
Top