la risposta c'`e gia stata e non sono solo 20€ purtroppo e non ho la fortuna di lavorare 8 ore dipendente ma putroppose ti fai problemi per 20€ al mese di corrente e compri una rtx5090 da oltre 3000€ mi sembra assai incoerente come discorso
dico 20 per stare larghi, non credo la mandi in full load 7-8 ore al giorno tutti i giorni...
se ti fai problemi per 20€ al mese di corrente e compri una rtx5090 da oltre 3000€ mi sembra assai incoerente come discorso
dico 20 per stare larghi, non credo la mandi in full load 7-8 ore al giorno tutti i giorni...
Il problema non è il costo una tantum della scheda video, ma la spesa ricorrente sulla bolletta. E tra l’altro, non si tratta di 20€ al mese, come abbiamo già visto, ma di una cifra ben più alta anche rimanendo prudenti. Inoltre, non ho la fortuna di lavorare solo 8 ore al giorno come un dipendente, ma molte di più, senza giorni liberi.
Se investissi 3.000€ in una GPU, cosa che farò molto difficilmente, lo farei perché è uno strumento essenziale per il mio lavoro, non perché posso permettermi di ignorare i costi ricorrenti. Investire in hardware non significa automaticamente poter spendere senza criterio su tutto il resto
Paragonare l'acquisto di una GPU alla spesa continua per la corrente è un errore di logica: una cosa è una spesa programmata che faccio ogni tot anni per migliorare la produttività, un'altra è un costo mensile che incide nel tempo.
Dire 'se puoi spendere 3.000€, puoi spendere anche 50€ al mese in più di corrente' è come dire che chi compra un'auto da 50.000€ dovrebbe fregarsene se la benzina costa il doppio o come in questo caso se la macchina consuma il doppio. Il punto non è poterselo permettere, ma ottimizzare i costi e gestire un investimento in modo sostenibile sul lungo termine.
Poi certo, se l’uso massimo che fai di una GPU è aprire Discord e giocare a qualche indie, capisco che la prospettiva sia diversa.
Il problema del tuo paragone è che stai confrontando due periodi completamente diversi con esigenze tecniche diverse.ricordo nel 2013-2014 circa che sul forum consigliavano spassionatamente nvidia perché consumava 50w in meno della controparte amd
50w in meno, tipo 200 invece di 250 e ora si comprano schede video da 600w![]()
![]()
![]()
Nel 2013-2014, il settore dell'animazione, del rendering e dei giochi aveva standard molto più bassi: risoluzioni più basse, meno complessità nei modelli e nei materiali, meno simulazioni avanzate. Oggi il livello richiesto è molto più alto, quindi è normale che le GPU consumino di più.
Paragonare il consumo di una scheda video di oggi a una di 10 anni fa senza considerare che i software e i progetti sono diventati più esigenti è come dire che nel 2013 si facevano le stesse cose di oggi con meno potenza. Non è così: oggi il carico di lavoro è molto più pesante, quindi serve più energia per gestirlo.
Se nel 2013 avessimo avuto gli stessi standard odierni in animazione e rendering, le schede di allora sarebbero semplicemente esplose nel tentativo di starci dietro.


