colore digitale blog

Il blog di Mauro Boscarol sulla gestione digitale del colore dal 1998

Risultati per la parola ‘risposta’

Colore in fotografia digitale

Risposta del sensore

I photosite non hanno una capacità infinita di assorbimento dell’irradianza, cioè dei fotoni, che ricevono. Durante il tempo di esposizione il photosite assorbe fotoni fino ad un livello di saturazione oltre il quale i fotoni non vengono più assorbiti.

In funzione dei fotoni assorbiti, ogni photosite risponde con l’accumulo di elettroni, un elettrone per ogni fotone catturato. Dopo l’esposizione, i foto-elettroni accumulati sono convertiti in un segnale elettrico in proporzione al loro numero.

La risposta del photosite è lineare rispetto ai fotoni assorbiti (cioè il numero di elettroni emessi è proporzionale al numero di fotoni assorbiti) fino a circa 80% della sua saturazione. La charge capacity è il massimo livello di carica in cui la risposta del sensore è ancora lineare.

D’altra parte il photosite è sensibile non solo alla radiazione visibile ma anche a radiazione extra e dunque emette un debole segnale anche quando non assorbe nessun fotone. Questo segnale è detto dark current.

Il rapporto tra il massimo e il minimo segnale emesso dal photosite è il suo range dinamico. Nelle moderne fotocamere digitali reflex (DSLR) il range dinamico è di circa 8000 a 1 equivalente a circa 12 stop (213 = 8192).

Può darsi che l’intervallo dinamico della scena da catturare sia inferiore a quello della fotocamera, e allora c’è solo il problema di calcolare l’esatta esposizione. Se invece l’intervallo dinamico della scena è superiore a quello della fotocamera, c’è anche il problema di decidere quale parte o “finestra” dell’intervallo dinamico della scena catturare.

Per esempio questa è una scena ad alto intervallo dinamico di cui sono stati catturati quattro sottointervalli (immagini tratte dal sito Cambridge in Colour):

Reference -1 Stops -2 Stops -3 Stops

In questo caso per catturare tutta la scena sono necessarie tecniche di bracketing e multiesposizione oppure HDR (High Dynamic Range).

Il segnale elettrico emesso da ogni photosite viene convertito in un valore digitale con queste operazioni:

  • gli elettroni vengono trasferiti ad un “amplificatore” (in realtà un condensatore) nel chip stesso; il segnale elettrico è amplificato di una quantità proporzionale al guadagno ISO impostato in fotocamera; unità di misura è il Coulomb; è in questa operazione che viene introdotto il readout noise;
  • viene misurata la differenza di potenziale indotta da queste cariche, unità di misura è il Volt;
  • la differenza di potenziale viene convertita da un convertitore ADC (analog to digital converter) in una differenza di potenziale a livelli discreti; in questa operazione interviene una funzione di conversione optoelettronica (OECF, opto-electronic conversion function) che introduce una non linearità;
  • la differenza di potenziale viene convertita  in un numero digitale che l’hardware passa al software e che viene registrato come valore fornito dal photosite.

I numeri digitali risultanti sono i numeri Raw, un numero per ogni photosite. Il minimo e massimo valore che ogni numero Raw può assumere dipende dal numero di bit assegnati ad ogni photosite. Per esempio se il numero di bit è 12 i valori digitali possono andare da 0 a 212 – 1 = 4095.

A questo punto, dunque, ogni photosite ha generato un numero che va da un minimo a un massimo (nel caso di profondità 12 bit va da 0 a 4095), per esempio come indicato in questo schema:

Questi sono i dati Raw CFA (Color Filter Array): un numero digitale per ogni photosite, ottenuto dall’esposizione del sensore e con la conversione in digitale del segnale analogico generato.

In alcune fotocamere ci sono dei photosite ai bordi del sensore che vengono coperti in modo che non siano esposti. Questo viene fatto per ragioni tecniche, per esempio per il controllo del rumore. Altri photosite, sempre sui bordi, che invece vengono esposti possono non essere inseriti nell’immagine, sempre per ragioni tecniche (processi che si basano sui photosite vicini e ragioni di rapporto di forma (3:2, 4:3) o fotocamere con diversi rapporti di forma). Dal sito Luminous Landscape si può scaricare una utilità che si chiama DNG Recover Edge scritta da Thomas Knoll che recupera tutti i pixel del sensore per ogni fotocamera supportata.

Una immagine Raw non è ancora un’immagine “visibile”, per molti motivi. Il principale motivo è che pur trattandosi di una immagine con pixel a tre canali (R, G e B), in ogni pixel due canali hanno valore uguale a zero e solo un canale può avere valore diverso da 0. Se si dovesse vedere l’immagine a questo punto, apparirebbe in una caratteristica configurazione “a mosaico”, come appare per esempio l’immagine qui sotto che rappresenta il capitello di una colonna.

Per questo motivo si dice che i dati Raw sono “mosaicizzati”, e una delle operazioni di compensazione dei dati Raw sarà proprio la cosiddetta “demosaicizzazione”.

Una curiosità: per scattare in bianco e nero (cioè a scala di grigi) basterebbe togliere i filtri colorati dal sensore. Per ora questo non è possibile (chissà in futuro) e dunque per ottenere uno scatto in bianco e nero occorre scattare a colori e applicare qualche elaborazione di desaturazione nel Raw converter. La fotocamera, da parte sua, può inserire un metadato per indicare al software di elaborazione che l’immagine deve uscire in bianco e nero (ma di solito questo metadato funziona solo con il Raw converter proprietario).

I dati Raw hanno queste caratteristiche:

  • sono dati a 10, 12, 14 bit (mentre i dati di un JPEG finale sono a 8 bit);
  • sono dati proporzionali alla luminanza della scena (cioè, come si dice, lineari mentre i dati di un JPEG finale non sono lineari rispetto alla luminanza);
  • essendo dati lineari consentono di correggere l’esposizione e di bilanciare il bianco in uno spazio adeguato, con matematica lineare, senza introdurre degradazione dell’immagine;
  • non sono ancora convertiti in uno spazio RGB di output, quindi non sono clippati.

Dal punto di vista del colore i dati Raw sono device dependent, cioè dipendono dal sensore, è la codifica fatta da quel sensore. Un sensore diverso avrebbe generato altri dati Raw per la stessa scena. L’immagine codificata in dati Raw (un numero per pixel) è codificata, come si dice, nello spazio colore del sensore.

Più precisamente i dati Raw di una immagine dipendono:

  • dalla illuminazione della scena;
  • dal sensore e dai suoi filtri;
  • dalla esposizione e dalla sensibilità impostata dal fotografo nel menù della fotocamera (apertura + tempo + ISO).

Nessuna impostazione dei menù della fotocamera influisce sui dati Raw di una immagine, escluse le impostazioni appena indicate: apertura, tempo e sensibilità ISO.

Una eccezione si ha quando l’elettronica della fotocamera applica un bilanciamento del bianco analogico oppure digitale, prima di scrivere i dati digitali in memoria. In tal caso i dati Raw dipendono anche dalla impostazione di bilanciamento del bianco impostata nella fotocamera (tag White Balance di Exif). Ma ad oggi nessuna fotocamera one-shot applica il bilanciamento analogico, ed una sola (Nikon D1) applica il bilanciamento digitale. Ci sono invece alcuni dorsi digitali (Better Light) che applicano il bilanciamento analogico.

Pixel difettosi

Bisogna anche tener conto del fatto che alcuni photosite del sensore possono essere difettosi. Si distingue tra hot pixel, un photosite che risponde sempre alla luce, e dead pixel, un photosite che non risponde mai.

 

Mauro Boscarol

20/8/2008 alle 23:27