Monitor per Medical Imaging

Radexprt

Nuovo Utente
7
3
Mi riferisco al fatto che il monitor appunto decade. Il decadimento è principalmente sul parametro della luminosità. Magari un monitor da nuovo riesci a tirarlo a 300cd/mq, ma lavorerai impiccato e il monitor di lì a poco non potrà più mantenere quel valore soprattutto se usato in modo continuativo. Per esperienza posso dirti che quando i produttori dichiarano una certa luminosità massima, questa è misurata ad una certa temperatura colore e con altri parametri impostati per massimizzarne il valore, quindi non è affatto detto che, anche con un monitor nuovo, poi ritrovi il valore dichiarato quando lo misuri in condizioni reali. Inoltre è un valore "tipico", cioè medio, su un certo numero di campioni. Questo decadimento è vero per tutti i monitor, anche per quelli radiologici che non a caso per mantenere dopo anni di uso intensivo una luminosità di lavoro di 300 o più cd/mq hanno appunto luminosità massime non limitate a qualche candela in più, ma oltre al doppio di quel valore e cioè dalle 800 a salire, facilmente fino alle 1200 e pure oltre.

Ti preciso un altro aspetto. Quella che fin qui abbiamo chiamato calibrazione, in realtà è, nella pratica, una semplice misura di verifica (lo avevo accennato nel post #10). Poi, se la verifica fallisce, cioè se il monitor non soddisfa i target impostati, si procede alla sua ricalibrazione. Dico questo perchè per sapere se stai lavorando con uno strumento dalle prestazioni corrette, la verifica la devi comunque fare con una certa frequenza, altrimenti proprio non sai la condizione di lavoro, al di là di dover poi fare la calibrazione o meno. Detto questo si capisce che la funzione automatica di misura (ed eventuale calibrazione) è comunque utile. Una struttura sanitaria potrebbe essere chiamata a rendere conto delle politiche di controllo qualità che utilizza, in quel caso deve dimostrare di avere posto cura anche nella frequenza delle verifiche effettuate e sarebbe problematico dire che le verifiche non vengono fatte in modo sistematico.

Sulla differenza tra calibrazione con SW di terze parti o meno, la differenza principale è quanto detto al post #14 e cioè che calibrando con SW di terze parti riduci il numero di livelli di grigio rappresentabili. Questo oltre al fatto che i SW nativi hanno già preimpostati i protocolli completi di test incluse le immagini campione e mantengono a database i risultati in formato specifico per l'ambito applicativo in questione.
 
Ultima modifica:

castorr

Nuovo Utente
15
0
Mi riferisco al fatto che il monitor appunto decade. Il decadimento è principalmente sul parametro della luminosità. Magari un monitor da nuovo riesci a tirarlo a 300cd/mq, ma lavorerai impiccato e il monitor di lì a poco non potrà più mantenere quel valore soprattutto se usato in modo continuativo. Per esperienza posso dirti che quando i produttori dichiarano una certa luminosità massima, questa è misurata ad una certa temperatura colore e con altri parametri impostati per massimizzarne il valore, quindi non è affatto detto che, anche con un monitor nuovo, poi ritrovi il valore dichiarato quando lo misuri in condizioni reali. Inoltre è un valore "tipico", cioè medio, su un certo numero di campioni. Questo decadimento è vero per tutti i monitor, anche per quelli radiologici che non a caso per mantenere dopo anni di uso intensivo una luminosità di lavoro di 300 o più cd/mq hanno appunto luminosità massime non limitate a qualche candela in più, ma oltre al doppio di quel valore e cioè dalle 800 a salire, facilmente fino alle 1200 e pure oltre.

Ti preciso un altro aspetto. Quella che fin qui abbiamo chiamato calibrazione, in realtà è, nella pratica, una semplice misura di verifica (lo avevo accennato nel post #10). Poi, se la verifica fallisce, cioè se il monitor non soddisfa i target impostati, si procede alla sua ricalibrazione. Dico questo perchè per sapere se stai lavorando con uno strumento dalle prestazioni corrette, la verifica la devi comunque fare con una certa frequenza, altrimenti proprio non sai la condizione di lavoro, al di là di dover poi fare la calibrazione o meno. Detto questo si capisce che la funzione automatica di misura (ed eventuale calibrazione) è comunque utile. Una struttura sanitaria potrebbe essere chiamata a rendere conto delle politiche di controllo qualità che utilizza, in quel caso deve dimostrare di avere posto cura anche nella frequenza delle verifiche effettuate e sarebbe problematico dire che le verifiche non vengono fatte in modo sistematico.

Sulla differenza tra calibrazione con SW di terze parti o meno, la differenza principale è quanto detto al post #14 e cioè che calibrando con SW di terze parti riduci il numero di livelli di grigio rappresentabili. Questo oltre al fatto che i SW nativi hanno già preimpostati i protocolli completi di test incluse le immagini campione e mantengono a database i risultati in formato specifico per l'ambito applicativo in questione.
ok ti aggiorno allora sulla ricerca
 

castorr

Nuovo Utente
15
0
Mi riferisco al fatto che il monitor appunto decade. Il decadimento è principalmente sul parametro della luminosità. Magari un monitor da nuovo riesci a tirarlo a 300cd/mq, ma lavorerai impiccato e il monitor di lì a poco non potrà più mantenere quel valore soprattutto se usato in modo continuativo. Per esperienza posso dirti che quando i produttori dichiarano una certa luminosità massima, questa è misurata ad una certa temperatura colore e con altri parametri impostati per massimizzarne il valore, quindi non è affatto detto che, anche con un monitor nuovo, poi ritrovi il valore dichiarato quando lo misuri in condizioni reali. Inoltre è un valore "tipico", cioè medio, su un certo numero di campioni. Questo decadimento è vero per tutti i monitor, anche per quelli radiologici che non a caso per mantenere dopo anni di uso intensivo una luminosità di lavoro di 300 o più cd/mq hanno appunto luminosità massime non limitate a qualche candela in più, ma oltre al doppio di quel valore e cioè dalle 800 a salire, facilmente fino alle 1200 e pure oltre.

Ti preciso un altro aspetto. Quella che fin qui abbiamo chiamato calibrazione, in realtà è, nella pratica, una semplice misura di verifica (lo avevo accennato nel post #10). Poi, se la verifica fallisce, cioè se il monitor non soddisfa i target impostati, si procede alla sua ricalibrazione. Dico questo perchè per sapere se stai lavorando con uno strumento dalle prestazioni corrette, la verifica la devi comunque fare con una certa frequenza, altrimenti proprio non sai la condizione di lavoro, al di là di dover poi fare la calibrazione o meno. Detto questo si capisce che la funzione automatica di misura (ed eventuale calibrazione) è comunque utile. Una struttura sanitaria potrebbe essere chiamata a rendere conto delle politiche di controllo qualità che utilizza, in quel caso deve dimostrare di avere posto cura anche nella frequenza delle verifiche effettuate e sarebbe problematico dire che le verifiche non vengono fatte in modo sistematico.

Sulla differenza tra calibrazione con SW di terze parti o meno, la differenza principale è quanto detto al post #14 e cioè che calibrando con SW di terze parti riduci il numero di livelli di grigio rappresentabili. Questo oltre al fatto che i SW nativi hanno già preimpostati i protocolli completi di test incluse le immagini campione e mantengono a database i risultati in formato specifico per l'ambito applicativo in questione.

Dopo mesi e mesi di ricerca e di confronto effettivo con mio padre, abbiamo raggiunto un compromesso utile che ha snaturato completamente le proposte prese in considerazione prima. Verso aprile avevamo compreso che una postazione fissa sarebbe stata inutile vista e considerata una nuova necessità presentatasi, la mobilità. Quindi abbiamo scartato completamente l'idea di una configurazione fissa e per tanto monitor fissi. Non avendo dove andare a cercare un portatile con monitor medicale, mi sono messo alla ricerca di un portatile che effettivamente avesse una buona componentistica e un buon schermo. Reduce da un iMac che utilizzò mio padre per 4 anni e a suo dire un'ottimo schermo ma diventato troppo lento nel tempo, decisi di non optare per un portatile Apple. Sebbene sarei andato sul sicuro in quanto a schermo, non sono tanto sicuro sarebbe andata bene sul lungo termine vista la precedente avventura. A luglio quindi ho avuto la possibilità di vedere il nuovo XPS da 15 pollici, e non vi fu dubbio. Ne ho prenotato uno a luglio stesso dal sito della Dell, dove cambiando qualche componentistica interna (ultimo processore i7 Intel di decima generazione, 16 gb di ram, 1 tb ssd, scheda grafica dedicata 4 gb, schermo 4k da 15 pollici) è risultato ai suoi occhi un ottimo viewer quasi al pari con quelli che trova in struttura ( non è al pari solo perchè i monitor in struttura sono più grandi di qualche pollice e quindi più facili da osservare).
In generale, l'immagine dopo 2 mesi e mezzo di lavoro è ottima, l'utilizzo a casa e al lavoro è possibile e soprattutto ha una immagine ben visibile come quella del iMac a cui era abituato da tempo senza necessariamente avere la componentistica e l'OS che montano le macchine di Cupertino.
La batteria dura una giornata e mezza di lavoro intenso. Lui si trova pienamente soddisfatto di questa scelta e non tornerebbe indietro, sebbene prima fosse molto scettico sia di cambiare sistema operativo sia di provare un prodotto che effettivamente non conosceva.
 

Entra

oppure Accedi utilizzando

Hot: Quale crypto per il futuro?

  • Bitcoin

    Voti: 65 48.9%
  • Ethereum

    Voti: 52 39.1%
  • Cardano

    Voti: 17 12.8%
  • Polkadot

    Voti: 6 4.5%
  • Monero

    Voti: 12 9.0%
  • XRP

    Voti: 12 9.0%
  • Uniswap

    Voti: 3 2.3%
  • Litecoin

    Voti: 10 7.5%
  • Stellar

    Voti: 8 6.0%
  • Altro (Specifica)

    Voti: 19 14.3%

Discussioni Simili