Mi riferisco al fatto che il monitor appunto decade. Il decadimento è principalmente sul parametro della luminosità. Magari un monitor da nuovo riesci a tirarlo a 300cd/mq, ma lavorerai impiccato e il monitor di lì a poco non potrà più mantenere quel valore soprattutto se usato in modo continuativo. Per esperienza posso dirti che quando i produttori dichiarano una certa luminosità massima, questa è misurata ad una certa temperatura colore e con altri parametri impostati per massimizzarne il valore, quindi non è affatto detto che, anche con un monitor nuovo, poi ritrovi il valore dichiarato quando lo misuri in condizioni reali. Inoltre è un valore "tipico", cioè medio, su un certo numero di campioni. Questo decadimento è vero per tutti i monitor, anche per quelli radiologici che non a caso per mantenere dopo anni di uso intensivo una luminosità di lavoro di 300 o più cd/mq hanno appunto luminosità massime non limitate a qualche candela in più, ma oltre al doppio di quel valore e cioè dalle 800 a salire, facilmente fino alle 1200 e pure oltre.
Ti preciso un altro aspetto. Quella che fin qui abbiamo chiamato calibrazione, in realtà è, nella pratica, una semplice misura di verifica (lo avevo accennato nel post #10). Poi, se la verifica fallisce, cioè se il monitor non soddisfa i target impostati, si procede alla sua ricalibrazione. Dico questo perchè per sapere se stai lavorando con uno strumento dalle prestazioni corrette, la verifica la devi comunque fare con una certa frequenza, altrimenti proprio non sai la condizione di lavoro, al di là di dover poi fare la calibrazione o meno. Detto questo si capisce che la funzione automatica di misura (ed eventuale calibrazione) è comunque utile. Una struttura sanitaria potrebbe essere chiamata a rendere conto delle politiche di controllo qualità che utilizza, in quel caso deve dimostrare di avere posto cura anche nella frequenza delle verifiche effettuate e sarebbe problematico dire che le verifiche non vengono fatte in modo sistematico.
Sulla differenza tra calibrazione con SW di terze parti o meno, la differenza principale è quanto detto al post #14 e cioè che calibrando con SW di terze parti riduci il numero di livelli di grigio rappresentabili. Questo oltre al fatto che i SW nativi hanno già preimpostati i protocolli completi di test incluse le immagini campione e mantengono a database i risultati in formato specifico per l'ambito applicativo in questione.
Ti preciso un altro aspetto. Quella che fin qui abbiamo chiamato calibrazione, in realtà è, nella pratica, una semplice misura di verifica (lo avevo accennato nel post #10). Poi, se la verifica fallisce, cioè se il monitor non soddisfa i target impostati, si procede alla sua ricalibrazione. Dico questo perchè per sapere se stai lavorando con uno strumento dalle prestazioni corrette, la verifica la devi comunque fare con una certa frequenza, altrimenti proprio non sai la condizione di lavoro, al di là di dover poi fare la calibrazione o meno. Detto questo si capisce che la funzione automatica di misura (ed eventuale calibrazione) è comunque utile. Una struttura sanitaria potrebbe essere chiamata a rendere conto delle politiche di controllo qualità che utilizza, in quel caso deve dimostrare di avere posto cura anche nella frequenza delle verifiche effettuate e sarebbe problematico dire che le verifiche non vengono fatte in modo sistematico.
Sulla differenza tra calibrazione con SW di terze parti o meno, la differenza principale è quanto detto al post #14 e cioè che calibrando con SW di terze parti riduci il numero di livelli di grigio rappresentabili. Questo oltre al fatto che i SW nativi hanno già preimpostati i protocolli completi di test incluse le immagini campione e mantengono a database i risultati in formato specifico per l'ambito applicativo in questione.
Ultima modifica: