DOMANDA Aiuto per acquisto Scheda Video

Reverser

Utente Attivo
333
251
Non seguo troppo il mercato, quindi confido in qualche suggerimento dai i più esperti.

Allora... sistema Win 7, CPU I9 9980Xe con tutti i 18 core tirati a 4800GHz, 32GB RAM, innumerevoli SSD sata e NVME (mi pare 5 NVME e 3 SATA) e GPU NVIDIA GTX 1070.

Utilizzo professionale. Sviluppo sistemi embedded con tools non particolarmente esosi in termini di risorse, ma usati parallelamente. Quindi ho anche 10 applicazioni aperte contemporaneamente e tutte che frullano in qualche modo. A questo, causa mia idiosincrasia verso Windows 10, lo utilizzo solo per test compatibilità ma all'interno di macchine virtuali, quindi alle 10 applicazioni va aggiunta almeno una VM (VMWare) aperta, con tutto il suo carretto di risorse utilizzate. Poi innumerevoli pagine web aperte, documenti Word, datasheet in PDF, ecc. ecc.

1) fatevi i czz vostri e non suggeritemi di abbandonare Windows 7

2) Vorrei sostituire la vecchia GTX 1070 con qualcosa di più performante, più che altro per i CAD che utilizzo per disegnare i contenitori, a volte di dimensioni e forme astruse, che devono ospitare le piattaforme che sviluppo. Spesso ho più istanze di questi CAD aperte, inoltre, contestualmente, ho anche aperte sessioni di Altium Designer per la progettazione di PCB con vista 3D renderizzata (piuttosto pesante) del PCB completo che ruoto e giro per capire eventuali occlusioni o collisioni con il contenitore che sto disegnando sull'altro CAD.
A volte, su 8GB di RAM video, ne ho più di 6 occupati

Il Budget non è una cifra vincolante, valuto il rapporto qualità-prezzo, ma francamente confesso che tra il nuovo costa troppo (e poi sarebbe sprecato per le mie applicazioni), e usato con cifre poco congruenti, non riesco a capire cosa prendere.

Mi hanno proposto una TITAN X (Pascal) per 600e, ma non riesco a capire se sia un salto significativo rispetto alla 1070, poi ci sono le 1080TI, poi le 2080 (magari è la volta buona che mi metto a giocare a qualche giochetto), poi le 6600 nuove, poi boh? Ditemi voi cosa posso prendere in considerazione e a che prezzo.

Thanks
 

Max(IT)

Moderatore
Staff Forum
Utente Èlite
26,765
14,513
CPU
Intel i7 13900K
Dissipatore
Arctic Freezer II 360
Scheda Madre
Asus ROG Strix Z690-E Gaming WiFi
HDD
Samsung 970EVO + 970 EVO Plus + 870 SSD
RAM
Kingston Fury Renegade 6400 CL32 32 GB
GPU
PNY RTX 4080 XLR8 OC
Monitor
Asus TUF VG27AQ1A + Samsung 24RG50
PSU
EVGA G6 850W
Case
Corsair 5000D Airflow
OS
WIndows 11
Io non mi faccio i cazzi miei e ti dico che usare Windows 7 nel 2021 non ha davvero senso.

Aperta e chiusa questa parentesi, il settore delle VGA è in uno stato drammatico, ed il rapporto qualità/prezzo è un parametro che NON devi valutare, altrimenti non acquisti nulla e basta.
Il tuo impiego specifico prevede una scheda grafica con prestazioni decenti ed almeno 8 Gb di VRAM: la risposta logica sarebbe una RTX 3080, ma il prezzo per una simile soluzione, che comunque sarebbe eccessiva a livello di prestazioni pure, è superiore a 1500 euro.
Le Radeon le sconsiglierei in campo professionale: il supporto driver è carente da quel punto di vista.
Potresti considerare una RTX 3060 liscia per assurdo: ha il vantaggio di 12 Gb di VRAM, che a te servono più delle prestazioni di calcolo vere e proprie (che comunque non sono male e sono senza dubbio superiori alla tua GTX 1070 in modo abbastanza netto).
prezzo ? Purtroppo sugli 800 euro, se la trovi.

L’usato sulle schede video a me personalmente non piace: non sai quanto resta da vivere al prodotto che compri, ed oggi paghi tanto anche per schede vecchiotte.
 

Reverser

Utente Attivo
333
251
Mi sembra che hai inquadrato bene il problema. RAM più che prestazioni assolute. Cmq 800e sono ancora spendibili dal mio punto di vista, quindi prenderò in esame anche la 3060.

Quanto a Windows 7 vs Win 10 potrei farti vedere dei benchmark specifici che ho sviluppato con appositi script per l'uso delle mie applicazioni (qualcosa di simile ai benchmark per suite da ufficio) e potresti sorprenderti delle prestazioni del vecchio 7 vs "nuovo"!

Ma la TITAN X che ha 12GB di RAM a 600e no eh?
 

Max(IT)

Moderatore
Staff Forum
Utente Èlite
26,765
14,513
CPU
Intel i7 13900K
Dissipatore
Arctic Freezer II 360
Scheda Madre
Asus ROG Strix Z690-E Gaming WiFi
HDD
Samsung 970EVO + 970 EVO Plus + 870 SSD
RAM
Kingston Fury Renegade 6400 CL32 32 GB
GPU
PNY RTX 4080 XLR8 OC
Monitor
Asus TUF VG27AQ1A + Samsung 24RG50
PSU
EVGA G6 850W
Case
Corsair 5000D Airflow
OS
WIndows 11
Mi sembra che hai inquadrato bene il problema. RAM più che prestazioni assolute. Cmq 800e sono ancora spendibili dal mio punto di vista, quindi prenderò in esame anche la 3060.

Quanto a Windows 7 vs Win 10 potrei farti vedere dei benchmark specifici che ho sviluppato con appositi script per l'uso delle mie applicazioni (qualcosa di simile ai benchmark per suite da ufficio) e potresti sorprenderti delle prestazioni del vecchio 7 vs "nuovo"!

Ma la TITAN X che ha 12GB di RAM a 600e no eh?
Non ho dubbi sulle prestazioni, Win7 è più leggero, ma la sua leggerezza è a scapito di tante altre cosette, tra cui la sicurezza.
Anch’io sono rimasto legato al 7 più a lungo che ho potuto, evitando del tutto 8 ed 8.1, ma ad un certo punto diventa “accanimento terapeutico”: oggi Windows 7 semplicemente non è più adeguato.

Sulla Titan X certo, sarebbe una scheda idonea al tuo compito, ma qui torniamo al discorso sull’usato: quanto è stata utilizzata ? Quanta vita utile ha ancora ? È una Pascal del 2015, che tra l’altro in termini di prestazioni non si discosta molto dalla tua 1070.
 
  • Mi piace
Reazioni: Moffetta88

Reverser

Utente Attivo
333
251
Alla fine ho ristretto il campo su 3060 non ti ma 12GB di VRAM nuova o la TITAN X Pascal sempre 12GB usata

Le prestazioni sono circa simili.

Quanto al possibile uso in mining dell'usato, sono Ingegnere elettronico con tesi su "Fisica dei semiconduttori e principi di elettromigrazione "(oggi purtroppo le tesi di Ingegneria elettronica si fanno con Arduino... ) quindi so di cosa parlo. Avevo scritto un "documento tecnico" molto articolato, in una discussione sotto un articolo del portale principale, in cui regnavano le peggio fesserie.
Adesso non è il posto per ripetermi ma, brevemente, a meno che i semiconduttori non vengano fatti lavorare oltre le specifiche previste, i fenomeni di cui tutti hanno paura, sebbene reali, hanno tempi di manifestazione lunghissimi. Nello specifico, parliamo di decine di anni di mininig continuo.

Io stesso ho progettato sistemi industriali "tirati per il collo" che sono ancora adesso funzionanti dopo 12 anni di impiego più che gravoso.
Questo detto per capire cosa può incidere uno o due anni di mining. Poi se uno ha paura perchè... ha paura, è comprensibile, ma la paura non ha un forte supporto tecnico.
Insomma, un usato che abbia fatto mining, non mi preoccupa minimamente.

Altre soluzioni a 12 GB sono 1080TI, e le Radeon dalla 6700 in su. Peccato che la serie RTX 20xx sia tutta a 8GB.
 

Max(IT)

Moderatore
Staff Forum
Utente Èlite
26,765
14,513
CPU
Intel i7 13900K
Dissipatore
Arctic Freezer II 360
Scheda Madre
Asus ROG Strix Z690-E Gaming WiFi
HDD
Samsung 970EVO + 970 EVO Plus + 870 SSD
RAM
Kingston Fury Renegade 6400 CL32 32 GB
GPU
PNY RTX 4080 XLR8 OC
Monitor
Asus TUF VG27AQ1A + Samsung 24RG50
PSU
EVGA G6 850W
Case
Corsair 5000D Airflow
OS
WIndows 11
sono un ingegnere informatico, e la tesi l'ho data quasi una trentina di anni fa... e non concordo affatto con la tua idea (non è solo l'elettromigrazione a rovinare un componente).
Di schede video che in utilizzo normale sono morte dopo meno di 5 anni di vita ne ho viste a decine, per via del mio lavoro, e senza neppure essere usate per mining (sinceramente nel mio campo di impiego si fa ben altro). Peraltro non è quasi mai la GPU a morire...

Se poi tu te la senti di prenderti una VGA a 600 euro a cui parte un cap dopo 1 anno, chiaramente sei naturalmente libero di farlo. Io preferisco non rischiare, specie se è un componente che andrò ad utilizzare a scopo professionale per alcuni anni.

Sulle Radeon come ho detto incide il fatto che i drivers sono fatti con i piedi e forniscono supporto carente alle applicazioni professionali, il che vanifica l'ampia disponibilità di VRAM.

Per la tua esigenza al momento io penserei proprio ad una RTX 3060 12 GB, per quanto non mi entusiasmi l'idea di pagare 7/800 euro una scheda che ne dovrebbe costare 400 (in un mercato che purtroppo non esiste più).
 

Reverser

Utente Attivo
333
251
Grazie per il supporto, allora vada per una 3060, magari in versione Ti che ho visto essere discretamente più performante.

Quanto al discorso del mining (o qualsiasi altro uso intensivo), il discorso che fai tu sulle schede guaste è ancora diverso. Si tratta di obsolescenza programmata e, ti assicurò, è una piaga anche nel mio lavoro.
Nessun progettista te lo dirà mai esplicitamente (e nemmeno io), ma nei microcontrollori main, o di gestione servizi, si inseriscono timer, conti alla rovescia, numero di cicli accensione specifici, o più verosimilmente un incrocio di diverse tipologie in modo da produrre risultati randomici, i quali, giunti al loro "compimento" cominciano ad inserire routine secondarie che comportano malfunzionamenti "strani" più o meno marcati, quando non addirittura il cessare di ogni funzione (leggi guasto).

Poi se vogliamo parlare di fisica dei semiconduttori e cosa accade, possiamo aprire un thread apposito.
 

Max(IT)

Moderatore
Staff Forum
Utente Èlite
26,765
14,513
CPU
Intel i7 13900K
Dissipatore
Arctic Freezer II 360
Scheda Madre
Asus ROG Strix Z690-E Gaming WiFi
HDD
Samsung 970EVO + 970 EVO Plus + 870 SSD
RAM
Kingston Fury Renegade 6400 CL32 32 GB
GPU
PNY RTX 4080 XLR8 OC
Monitor
Asus TUF VG27AQ1A + Samsung 24RG50
PSU
EVGA G6 850W
Case
Corsair 5000D Airflow
OS
WIndows 11
Grazie per il supporto, allora vada per una 3060, magari in versione Ti che ho visto essere discretamente più performante.

Quanto al discorso del mining (o qualsiasi altro uso intensivo), il discorso che fai tu sulle schede guaste è ancora diverso. Si tratta di obsolescenza programmata e, ti assicurò, è una piaga anche nel mio lavoro.
Nessun progettista te lo dirà mai esplicitamente (e nemmeno io), ma nei microcontrollori main, o di gestione servizi, si inseriscono timer, conti alla rovescia, numero di cicli accensione specifici, o più verosimilmente un incrocio di diverse tipologie in modo da produrre risultati randomici, i quali, giunti al loro "compimento" cominciano ad inserire routine secondarie che comportano malfunzionamenti "strani" più o meno marcati, quando non addirittura il cessare di ogni funzione (leggi guasto).

Poi se vogliamo parlare di fisica dei semiconduttori e cosa accade, possiamo aprire un thread apposito.
liberissimo di pensarla come vuoi, ma questa per me è fantascienza.
Qualcosa di simile sarebbe stata scoperta e rivelata da tempo, con conseguenze gravissime per chi commette un simile abuso...

L'obsolescenza programmata in un certo senso esiste, ma non certo con timers o simili. Semplicemente la scelta della componentistica di supporto (caps, VRM, etc.) è sempre fatta al massimo risparmio. Si lasciano margini quantitativi e qualitativi ridotti all'osso, il che implica che davvero la GPU o il chip di GDDR6 (se non overclockato) potrebbe durare 10+ anni, ma a rompersi è altro. Del resto alla Casa quello che davvero importa è che sia assicurato il funzionamento del componente completo per il periodo di garanzia (mediamente variabile da 2 a 5 anni), ma che la scheda continui a funzionare dopo quel periodo per loro è solo una noia, non un vantaggio (il cliente deve comprarne un altra perché loro guadagnino), quindi grossi sforzi in tal senso non vengono mai fatti.
 

Reverser

Utente Attivo
333
251
Purtroppo non posso espormi in una piazza pubblica ma, lavorando nel mondo della progettazione di sistemi elettronici da ormai 20 anni, ti assicuro che è così. Quanto allo scoprire il come ed il perchè su prodotti consummer, lasciamo perdere...
Se non ti sembra verosimile, sei un ingenuo.

Poi la componentistica di bassa qualità ha una sua influenza, ma in un oggetto venduto per essere un top gamma? L'obsolescenza programmata esiste anche in oggetti di fascia alta.

Per ora solo la Francia ha una legge esplicita che vieta queste pratiche (molto comuni nel mercato del "bianco") ma per il resto è terra di nessuno ed anche i Grandi fanno un pò quello che vogliono.

In un bar davanti ad una birra potrei raccontarti aneddoti molto interessanti.
 

Max(IT)

Moderatore
Staff Forum
Utente Èlite
26,765
14,513
CPU
Intel i7 13900K
Dissipatore
Arctic Freezer II 360
Scheda Madre
Asus ROG Strix Z690-E Gaming WiFi
HDD
Samsung 970EVO + 970 EVO Plus + 870 SSD
RAM
Kingston Fury Renegade 6400 CL32 32 GB
GPU
PNY RTX 4080 XLR8 OC
Monitor
Asus TUF VG27AQ1A + Samsung 24RG50
PSU
EVGA G6 850W
Case
Corsair 5000D Airflow
OS
WIndows 11
Anche i componenti top di gamma rimangono nella categoria “consumer”. Qualità un po’ migliore, dimensionamento delle componentistiche di supporto più adeguato, ma si tratta comunque di prodotti destinati alla vendita al dettaglio. Nessuno ha interesse che durino 10/15 anni, e nessuno li costruisce perché questo accada. Poi se sei fortunato succede comunque, ma il produttore preferisce che tu sia comunque costretto a cambiarlo prima.

Mi spiace ma non credo al “contatore” inserito neppure per sbaglio ?
Apple è stata massacrata per un artificio software che limitava le prestazioni del device al scendere della capacità della batteria. Figurati cosa accadrebbe se il produttore X infila un timer che dopo 20.000 accensioni uccide una VGA…
 

Reverser

Utente Attivo
333
251
Tu stesso ammetti che Apple l'ha fatto ma l'artificio è stato riconosciuto e biasimato.

Se ti ricordi anche Nvidia fu accusata di inserire, nei driver più aggiornati, componenti software che rallentavano le prestazioni GPU più vecchie, in modo da invogliare l'upgrade alle nuove.

Ora ti faccio una domanda: se esistono due situazioni simili, te la senti di mettere la mano sul fuoco che siano gli unici due casi al mondo, e che tutt'ora non esistano "in Run" situazioni simili in nessuno di tutti i devices del pianeta??

Se non ci credi posso farti vedere, in separata sede, il reverse engineering dei firmware dei microcontrollori di alcuni elettrodomenstici (il mercato del "bianco") con i famosi timer & C., e vediamo se ridi ancora. Poi se non credi all'evidenza di un professionista del settore, siamo a livello di fanatismo sulle proprie convinzioni, e non so più cosa dire.
 

Max(IT)

Moderatore
Staff Forum
Utente Èlite
26,765
14,513
CPU
Intel i7 13900K
Dissipatore
Arctic Freezer II 360
Scheda Madre
Asus ROG Strix Z690-E Gaming WiFi
HDD
Samsung 970EVO + 970 EVO Plus + 870 SSD
RAM
Kingston Fury Renegade 6400 CL32 32 GB
GPU
PNY RTX 4080 XLR8 OC
Monitor
Asus TUF VG27AQ1A + Samsung 24RG50
PSU
EVGA G6 850W
Case
Corsair 5000D Airflow
OS
WIndows 11
Tu stesso ammetti che Apple l'ha fatto ma l'artificio è stato riconosciuto e biasimato.

Se ti ricordi anche Nvidia fu accusata di inserire, nei driver più aggiornati, componenti software che rallentavano le prestazioni GPU più vecchie, in modo da invogliare l'upgrade alle nuove.

Ora ti faccio una domanda: se esistono due situazioni simili, te la senti di mettere la mano sul fuoco che siano gli unici due casi al mondo, e che tutt'ora non esistano "in Run" situazioni simili in nessuno di tutti i devices del pianeta??

Se non ci credi posso farti vedere, in separata sede, il reverse engineering dei firmware dei microcontrollori di alcuni elettrodomenstici (il mercato del "bianco") con i famosi timer & C., e vediamo se ridi ancora. Poi se non credi all'evidenza di un professionista del settore, siamo a livello di fanatismo sulle proprie convinzioni, e non so più cosa dire.
continui a dare per assunto che tu sia un professionista ed io non lo sia (da una decina d'anni prima di te probabilmente) ?‍♂️

Quelli di Nvidia ed Apple sono stati artifici software, peraltro non così diretti come si pensa, e come tali rilevati. Se mi parli di timer inseriti nell'hardware della scheda video continuo a pensare a fantascienza. Perché se tu davvero avessi l'evidenza di una cosa simile, potresti farci un mare di soldi anche solo vendendo la notizia...
 

dagon888

Utente Attivo
112
9
CPU
Ryzen 5900x
Dissipatore
Kraken x63 240mm
Scheda Madre
Asus Rog Strix-F b550
HDD
M.2 PRO 980 500gb - Crucial p3 1tb - EVO 500gb - Hdd WD 1tb - Hdd Seagate 500gb - Hdd esterno WD 2tb
RAM
Crucial Ballistix 32gb 2x16 3600mhz CL16
GPU
zotac rtx 3070 holo
Audio
Edifier Prisma Encore 2.1
Monitor
Asus vg289q
PSU
NZXT C750 gold
Case
Phanteks Eclipse P400 Tempered Glass
Periferiche
Lanq dock pro Bt 5.0, wifi 6
OS
Windows10 64bit
questa discussione è interessantissima! :)
 

Reverser

Utente Attivo
333
251
Non ho parlato di timer nelle schede video, ma più genericamente "...nei microcontrollori main, o di gestione servizi" di molti dispositivi elettronici.
Io non progetto schede video, ma altri dispositivi, e l'assunto che posso fare è che: se in moltissime, se non in tutte le categorie di dispositivi elettronici si usano queste pratiche scorrette, posso fortemente sospettare che si faccia anche in categorie parallele, e per fare questo assunto non mi serve metterci direttamente mano.

Poi, se non ti piacciono i timer, può essere una semplice routine che inizia sovrascrivere ad alta velocità, fino "a consumare" tutta la memoria EEPROM interna (quale ha limiti di cicli di scrittura dettati dalla fisica dell'architettura peculiare), poco importa. Gli artefici applicabili in questo senso sono pressochè infiniti.

Lavoro in questo campo da oltre 20 anni e ne ho viste di tutti i colori, da tecniche di offuscamento del codice, di criptazione ben fatti e malfatti, per generare guasti o malfunzionamenti programmati (questi ultimamente, sempre), con pezzi di codice palesemente rubati alla concorrenza, ecc. ecc.

Tutti, in un modo o nell'altro, applicano queste politiche, "altrimenti il mercato si ferma". Tutti tranne me, ovviamente!

Ora un aneddoto così per ridere.
Nel firmware di una centralina di un famoso produttore di dispositivi elettronici, ho trovato una barzelletta in caratteri ASCII....
In un'altra, nell'intestazione prima del main ho trovato questo "aforisma"...
WHEN I WROTE THIS CODE,
ONLY GOD AND ME KNEW HOW IT WORKED.
NOW, ONLY GOD KNOWS IT!
Post unito automaticamente:

Dimenticavo... non metto assolutamente in dubbio che tu sia un professionista, ma pi pare di capire che hai fatto Informatica, e non Elettronica, e diciamo che non è esattamente la stessa cosa.
Io non mi metterei a sindacare un software scritto in C++ per la gestione di database aziendali, scritto da un ingegnere informatico, perchè avrei competenze deboli per poterlo fare. E questo anche se conosco bene il C++
 
  • Mi piace
Reazioni: dagon888

Ci sono discussioni simili a riguardo, dai un'occhiata!

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!

Discussioni Simili