Le dimensioni contano
Questo è stato l’anno delle doppie fotocamere sugli smartphone. In tanti sono rimasti colpiti dalla qualità delle foto ricostruite dai software a partire da più immagini catturate contemporaneamente. Alcuni addirittura hanno osannato questi smartphone a killer delle fotocamere. La realtà è ben diversa e per comprenderlo bisogna andare a vedere il perché ci si sia inventati questa scappatoia di mettere più fotocamere. La risposta è una sola: lo spazio. Una fotografia non è altro che un insieme di informazioni catturate da un dispositivo studiato per questo scopo. Ne consegue che maggiore sarà la quantità di informazione catturata, tanto più accurato sarà il risultato. Nel nostro caso l’informazione è la luce. Un sensore più grande sarà in grado di catturare più luce, ma per farlo avrà bisogno di obiettivi di una certa dimensione e posti a una certa distanza da esso. Poiché gli smartphone hanno ovvi limiti di dimensione, non è possibile mettere sulla loro cover una lente da 500 grammi capace di supportare un sensore da 35 millimetri. Pertanto, il modo che si sono inventati per catturare più luce è stato quello di affiancare più fotocamere, in modo da non dover “sforare” in termini di spessore. La controparte è che le due immagini devono essere combinate algoritmicamente per far sì che il risultato sia simile (ma mai equivalente) a quello di un sensore grande il doppio. Certamente la possibilità di introdurre algoritmi e immagini riprese con lenti di millimetraggio differente ha dato anche vita a ingegnosi meccanismi per alterare la forma finale, permettendo di simulare (si ho proprio scritto “simulare”, con ottimi risultati ma sempre di simulazione si tratta) aperture fantastiche, bokeh e messa a fuoco selettiva. Tuttavia in termini di qualità finale dell’immagine, per esempio di resistenza al rumore e alla perdita di gamma dinamica in condizione di luce scarsa, oppure di movimenti rapidi o di scene ad alto contrasto, ciò che accade è che non è sufficiente mettere N sensori poiché il problema sta nel fatto che ogni singolo sensore non riesce a catturare alcune parti di informazione che possono essere catturate solo da sensori più grandi.
Per capire meglio questo concetto, proverò a fare un esempio metaforico. Supponiamo di avere un dipinto su di una parete fatto con la ASCII art, quell’arte che permette di riprodurre disegni usando i caratteri del computer. Supponiamo che le lettere usate per comporre il disegno siano fatte di tre colori, rosso, verde e blu e che tre diversi osservatori posti a una ragionevole distanza siano stati dotati di occhiali con filtri colorati che gli permettono di vedere solo uno dei tre colori. Ciascuno degli osservatori vedrà una parte del dipinto e solo combinando le tre osservazioni sarà possibile ricostruire il dipinto. Tuttavia nessuno dei tre sarà in grado di distinguere le lettere usate per comporre il dipinto a meno di avvicinarsi e guardarlo nel dettaglio. Ebbene questo è quanto accade con le fotocamere multisensore: esse sono dotate di tanti osservatori, ciascuno con caratteristiche diverse dagli altri che è in grado di dare una parte di informazione, ma nessuno di loro, per limiti fisici, è in grado di cogliere quel dettaglio che invece un sensore molto più grande (l’omino che si avvicina al dipinto e lo guarda nel dettaglio), possa fare. Insomma, ancora oggi, in fotografia (tecnologicamente parlando) le dimensioni contano in quanto sensori più grandi saranno in grado, a parità di tempo e condizioni, di catturare molta più informazione.
Per quanto sia vero che gli smartphone continueranno a migliorare, la legge fisica che sta dietro a queste tecnologie e le limitazioni fisiche dettate, banalmente, dalle nostre tasche e dalle nostre mani e che hanno impatto sulla forma e sulla dimensione dei telefoni, rimarranno uguali e quindi, a parità di momento storico, un sensore più grande sarà comunque migliore di un sensore più piccolo.
0 commenti