DOMANDA usare gpu primaria e secondaria

Pubblicità
Chi ha i denti non ha il pane, e chi ha il pane non ha i denti.
ma cosa centra
Sui giochi non so se si può fare. Con applicativi come cad 3d et simila, è possibile usare la potenza della scheda video senza usarne l'output, questo perchè quei software usano la potenza per il calcolo, ma poi è l'altra gpu a visualizzarne il risultato.. In gaming dove tutto è "dinamico" penso che no si possa fare
già
A parte tutta l'assurdità del contesto, no non puoi veicolare il segnale su una gpu a cui NON è attaccato il cavo hdmi. Se il cavo è attaccato ad una gtx 750 allora usi la gtx 750, se è attaccato alla 3080ti allora sfrutti la 3080ti, fine
dopo tutti i rosiconi finalmente uno che ha dato una risposta... (tra l'altro cosa che immaginavo)

a tutti gli altri, io la scheda l'ho presa per giocare in 4k 144hz ma il pc non lo uso solo per giocare anzi, facendo una domanda mi aspetto una risposta, non una massa di gente che rosica perchè gelosa o chissà cos'altro
--- i due messaggi sono stati uniti ---
perchè dai test la 3080ti consuma 16w in idle, non 40w
come lo stai misurando in consumo?
ho le prese smart in casa e lo vedo anche da hwinfo
--- i due messaggi sono stati uniti ---
È come chi si compra la ferrari e ci mette il metano per risparmiare
paragone che non centra nulla, quello corretto poteva essere: mi compro la ferrari per andare a 300 ma poi non vado sempre a 300
--- i due messaggi sono stati uniti ---
Davvero ogni volta ti sbatti a fare l'attacca e stacca?
avendo il pc acceso 14 ore al giorno nelle 2 ore che gioco si, switcho scheda
 
Ultima modifica:
Start --> cmd

cd C:\Program Files\NVIDIA Corporation\NVSMI\

poi

nvidia-smi -i 0 --loop-ms=1000 --format=csv,noheader --query-gpu=power.draw

ed hai il consumo in realtime della scheda video.
 
Purtroppo ad oggi il PC da "lavoro" e quello da "gaming" sono spesso inconciliabili perchè richiedono caratteristiche oggettivamente differenti. Anche riguardo al monitor, potresti avere difficoltà a trovare un jack-of-all-trades, cioè quello che potrai usare per tutto, perchè nel monitor da "lavoro" conta di più la qualità dell'immagine e gli accessori in dotazione, mentre nel "gaming" si predilige la velocità di aggiornamento e la stabilità dell'immagine. Nel PC da "lavoro" la GPU discreta si potrebbe togliere del tutto e sfruttare quella integrata, che è più che sufficiente per usare tutte le funzionalità non-gaming (ad esempio guardare film).

Forse la soluzione del stacca & attacca potrebbe rivelarsi negativa anche per il rischio di danneggiare quella bellissima scheda video che hai! Personalmente, se avessi una 3080 TI, ogni sera prima di andare a dormire gli canterei la ninna nanna e la coprirei con una copertina per non fargli prendere troppo freddo...
 
Sulla fattibilita' ti hanno gia' esaudientemente risposto...

Se il motivo e' quello di avere una piattaforma che consuma poco in alcune circostanze, perche' non prendi un Raspberry PI 4, che rispetto alla 750 ha anche il decoder H265 4K?

E lo puoi usare per tutte quelle attivita' poco impegnative, dal punto di vista CPU/GPU (come leggere pagine web, guarare video, scrivere etc) ... cosi' non solo risparmi i Watt di differenza tra 3080Ti attiva/disattiva, ma anche i 50 e piu' Watt (immagino) di tutto il resto del sistema...

... e un Raspberry consuma si e no 5/7W (non in idle)

Oltretutto lo attacchi allo stesso monitor, che immagino abbia piu' di un ingresso video e lo smart-switch, cosi' quando poni l'uno in "sleep" si passa automaticamente al segnale video dell'altro e vice versa...
In questo modo avresti sia la Ferrari (non convertita a metano) che l'utilitaria (per risparmiare in citta')... e smetteresti anche di fare il cable-jokey.

Se non lo conoscessi e' questo:
 
Ultima modifica:
dopo tutti i rosiconi finalmente uno che ha dato una risposta... (tra l'altro cosa che immaginavo)

a tutti gli altri, io la scheda l'ho presa per giocare in 4k 144hz ma il pc non lo uso solo per giocare anzi, facendo una domanda mi aspetto una risposta, non una massa di gente che rosica perchè gelosa o chissà cos'altro
avendo il pc acceso 14 ore al giorno nelle 2 ore che gioco si, switcho scheda

? ma no dai, stai confondendo la rosicata da INVIDIA
(non gelosia che è: Sentimento tormentoso provocato dal timore, dal sospetto o dalla certezza di perdere la persona amata ad opera di altri.)
con una pura e semplice presa per i fondelli!!! ?

Qui su questo forum credo che non ci sia nessuno che stia "rosicando" per i tuoi possedimenti, a grandi linee siamo tutti persone grandi, vaccinate, con potere decisionale ed una minima possibilità di permettersi quello che tu stai sbandierando (ed anche molto di più)!

Diciamo che ci siamo permessi di bollare la tua richiesta come una grande fesseria perchè assurda...
Spendere 2000€ tra Svga e monitor più tutto il resto e poi preoccuparsi di spendere come ha detto @Ottoore 35 / 40 o pure 60€ annui di corrente, sbattendosi ogni volta per swappare il cavo (ed occhio perchè di solito i cavi di questo genere andrebbero collegati a devices spenti!!!) strappa veramente un sorriso ed anche un bel "facepalm"! ?‍♂️

E no, il paragone non è come dici tu "compro la Ferrari che va a 300 e poi non ci vado a 300 sempre" MA è proprio come dice @BWD87 "compro la Ferrari che costa 200.000 e poi mi accorgo che la benzina sta a 2€ al litro e quindi metto il metano!!!"
Nelle mie zone si dice che "stai a fa la figura del pulciaro!" ?

Poi come accennato da @Lorenzo Lanas e @BrutPitt, la tua scelta di coniugare Gaming e Lavoro in un'unica macchina non è proprio felice e se la potenza GPU per il lavoro non è essenziale, era molto più razionale crearsi il cosiddetto "muletto" con pezzi avanzati (compresa la tua gtx 750) per il solo lavoro, web surfing o altro, risparmiandoti lo sbattimento e potendolo tenere acceso pure 24 ore acceso, senza un costo ulteriore o eventualmente minimo ... (ah dimenticavo che non puoi sprecare 40€?)
Io infatti, ma credo che quasi tutti qui, ho/abbiano appunto una soluzione simile con Gaming e muletto indipendente senza sbattimenti e con soluzioni multiple per la macchina che non deve giocare....

Fortunatamente siamo in una società libera e democratica e tutti quindi siamo liberi di fare quello che vogliamo ma anche di scherzare su queste cose!!!?

Asta la vista!!! ☺️

P.s. E quando non giochi non dimenticarti di staccare gli SSD da gaming, togliere almeno 16 gb di ram, e se li possiedi, spegnere il backlight di tastiera e mouse... vedrai che rientri di parecchio sulla corrente!!!?
 
e un Raspberry consuma si e no 5/7W (non in idle)
si conosco il raspberry, ma non ho un problema di consumo in generale ma mi sta sulle balle che la scheda senza far nulla consumi cosi' tanto
Forse la soluzione del stacca & attacca potrebbe rivelarsi negativa anche per il rischio di danneggiare quella bellissima scheda video che hai!
ci sto attento ahaha, volendo posso collegare 2 cavi allo stesso monitor che partono dalle 2 schede video diverse e switchare semplicemente sorgente
Diciamo che ci siamo permessi di bollare la tua richiesta come una grande fesseria perchè assurda...
Spendere 2000€ tra Svga e monitor più tutto il resto e poi preoccuparsi di spendere come ha detto @Ottoore 35 / 40 o pure 60€ annui di corrente, sbattendosi ogni volta per swappare il cavo (ed occhio perchè di solito i cavi di questo genere andrebbero collegati a devices spenti!!!) strappa veramente un sorriso ed anche un bel "facepalm"! ?‍♂️
ma cosa centra quanto ho pagato la scheda, se posso risparmiare lo faccio, anche perchè la corrente non la pago io
P.s. E quando non giochi non dimenticarti di staccare gli SSD da gaming, togliere almeno 16 gb di ram, e se li possiedi, spegnere il backlight di tastiera e mouse... vedrai che rientri di parecchio sulla corrente!!!?
la smetti di sfottere? sei davvero fastidioso
 
ma cosa centra quanto ho pagato la scheda, se posso risparmiare lo faccio, anche perchè la corrente non la pago io
Paradossalmente potresti aver ottenuto l'effetto contrario, non sono del tutto convinto del consumo della GTX 750. Se vuoi sviscerare la questione devi prendere una presa misura consumi dal cinesino, misurare i watt assorbiti dell'intero PC con la 750, poi con la 3080 e infine con entrambe ma collegando solo la 750. Solo allora potrai stabilire se davvero la tua scelta fa risparmiare...
 
@fabio1999ita e @fuffolazzo tagliate corto!, primo e ultimo avvertimento altrimenti vi beccate la sanzione.
grazie della collaborazione!
cioè io creo un post per una richiesta, la gente mi sfotte a caso ed è colpa mia?
--- i due messaggi sono stati uniti ---
Paradossalmente potresti aver ottenuto l'effetto contrario, non sono del tutto convinto del consumo della GTX 750. Se vuoi sviscerare la questione devi prendere una presa misura consumi dal cinesino, misurare i watt assorbiti dell'intero PC con la 750, poi con la 3080 e infine con entrambe ma collegando solo la 750. Solo allora potrai stabilire se davvero la tua scelta fa risparmiare...
come ho scritto in un post precedente io ho collegato al pc una spresa smart che mi dice il consumo e risparmio quasi 30watt solo a schermo acceso con questo giochetto
 
cioè io creo un post per una richiesta, la gente mi sfotte a caso ed è colpa mia?
--- i due messaggi sono stati uniti ---

come ho scritto in un post precedente io ho collegato al pc una spresa smart che mi dice il consumo e risparmio quasi 30watt solo a schermo acceso con questo giochetto
In ogni caso i driver non sono fatti per gestire due gpu discrete in modo indipendente, quindi o usi una o l' altra.
 
Pubblicità
Pubblicità
Indietro
Top