Glossario della Fotografia


Fotocamera

Autofocus

L’autofocus o AF è un automatismo che se applicato ai sistemi ottici, in genere gli obiettivi fotografici, permette di ottenere e mantenere automaticamente la messa a fuoco del soggetto in questione. I sistemi di autofocus più semplici si basano solo su un unico sensore di messa a fuoco. Per quanto riguarda quelli avanzati consistono in un gruppo di sensori. Ad esempio il sistema Nikon D300s dispone di ben 51 sensori, ognuno con il suo corrispettivo controllo da parte del fotografo, in modo da poter mettere a fuoco il soggetto fotografato. Le fotocamere più all’avanguardia Reflex utilizzano i dati dell’autofocus anche per la misurazione della luce.

La velocità e l’accuratezza del sistema autofocus è generalmente migliore rispetto a quella che può essere raggiunta solo manualmente. Queste fotocamere moderne possono misurare più aree dell’immagine e decidere dove si trova il soggetto. Altre sono perfino in grado di capire se il soggetto si sta allontanando dall’obiettivo, decretarne la velocità e l’accelerazione e successivamente seguirlo mentre attraversa l’immagine.

Auto Focus Assist Lamp

Certi produttori dotano le loro macchine fotografiche digitali con una lampada, che di solito può essere trovata sopra o accanto all’obiettivo. Questa serve quindi ad illuminare l’oggetto che la fotocamera mette a fuoco quando si scattano foto in condizioni di poca o nessuna luce .

In casi di luce scarsa, l’autofocus sulla maggior parte delle fotocamere digitali non funzionano benissimo, quindi questa lampada sarà in grado di dare alla stanza abbastanza luce per permettere alla messa a fuoco automatica di fare il suo lavoro. Poiché queste lampade funzionano solo entro brevi distanze, è necessario essere all’interno di un intervallo di circa 3 metri per avere una resa ottimale. In caso di bisogno, queste lampade possono essere acquistate, per permettere un range di illuminazione molto più a lungo.

Autofocus Servo

Autofocus Servo si riferisce alla capacità della fotocamere di concentrarsi costantemente su un soggetto in movimento, caratteristica riscontrata fino ad adesso solo su reflex digitali. Tale strumento è utilizzato generalmente in ambito sportivo o dai fotografi di fauna selvatica, per poter mantenere un soggetto in movimento sempre a fuoco.

Buffer

Se tradotto in italiano Buffer sta a significare letteralmente tampone, memoria tampone/memoria di transito o anche memoria intermediaria. In linguaggio informatico rappresenta una zona di memoria usata temporaneamente per l’ingresso o fuori uscita di dati, oppure per velocizzare l’esecuzione di operazioni specifiche.

Dopo che il sensore è stato esposto, i dati dell’immagine verranno trattati nella fotocamere per poi essere scritti su scheda di memoria. Un Buffer all’interno di una fotocamera digitale è costituito da memoria RAM la quale detiene temporaneamente tutte le informazioni dell’immagine prima che venga salvata sulla scheda di memoria. Questo potrà diminuire il tempo di attesa tra uno scatto e l’altro. Le prime fotocamere digitali non disponevano di alcun Buffer, quindi dopo il primo scatto era obbligatorio attendere che l’immagine venisse salvata nella scheda di memoria e poi riprendere con lo scatto successivo. Attualmente la maggior parte delle fotocamere in commercio dispongono di Buffer e quindi essere in grado di operare rapidamente come una fotocamera a pellicola, azzerando l’attesa di scrittura dei dati su scheda di memoria.

Burst (raffica)

Rappresenta il numero di immagini che una fotocamera riesce a scattare in rapida sequenza prima di doversi fermare per processare i file. Un tempo d’attesa “Burst” breve è utilissimo per i fotografi che amano scattare immagini di azioni veloci come ad esempio negli sport.

Il numero di fotogrammi al secondo (fps) e il numero totale di fotogrammi che possono essere scattati in modalità burst è in continuo miglioramento e sale spostandosi da fotocamere consumer e prosumer compatte digitali a prosumer e reflex digitali professionali. Le compatte digitali tipicamente consentono 1-3 fps fino a circa 10 immagini, mentre le reflex digitali fino a 7 fps o più e possono scattare decine di fotogrammi in formato JPEG e RAW.

CMOS

È l’acronimo di Complimentary Metal-Oxide Semiconducto e anch’esso, come il CCD, è composto da milioni di Pixel (megapixel), ma interlacciati tra loro con un’archittetura differente. Ciò fa si che il CMOS è generalmente meno efficace nella riduzione dei disturbi causati dal flusso della corrente, ma anche più veloce e dai consumi contenuti rispetto ai sensori CCD.

Connettività

La connettività su una fotocamera digitale definisce come può essere collegata ad altri dispositivi per il trasferimento, la visualizzazione o la stampa di immagini ed utilizzare la fotocamera per l’acquisizione remota.

Convertitore A/D

Analog to Digital Converter (ADC), in italiano convertitore analogico-digitale, è un circuito elettronico in grado di convertire un segnale Analogico con andamento continuo (ad es. una tensione) in una serie di valori discreti (vedi teoria sulla conversione analogico-digitale). Il convertitore digitale-analogico o DAC compie l’operazione inversa.

L’ADC classifica (campioni) le tensioni analogiche dei pixel in un determinato numero di livelli di luminosità ed assegna ad ogni livello un’etichetta binaria composta da 0 e 1. La maggior parte delle fotocamere utilizzate usano 8 bit ADC, consentendo fino a 256 (2^8) valori distinti per la luminosità di ogni singolo pixel.

Il minimo bit rate (risoluzione) di un convertitore è determinato dalla gamma dinamica (precisione) del sensore.

EXIF

Exchangeable image file format (abbreviazione ufficiale Exif, non EXIF) è una specifica per il formato di file immagine utilizzato dalle fotocamere digitali. La specifica utilizza i formati esistenti JPEG, TIFF Rev. 6.0, e RIFF, con l’aggiunta di specifiche etichette (tag) di metadati. Non è supportato in JPEG 2000, PNG e GIF.

Exif è stato creato dalla Japan Electronic Industries Development Association (JEIDA). La versione 2.1 delle specifiche è datata 12 giugno 1998, e la versione 2.2 è dell’aprile 2002 ed è anche conosciuta come Exif Print. Exif ad oggi non è supportata da aziende od organizzazioni che seguono gli standard, tuttavia è il formato utilizzato da tutti i produttori di fotocamere.

La struttura dei tag Exif è ripresa da quella dei file TIFF. C’è una grossa sovrapposizione fra i tags definiti negli standard TIFF, Exif, TIFF/EP e DCF.

I tag di metadati definiti nello standard Exif coprono un vasto spettro includendo:

  • Informazioni di date ed ora. Le fotocamere digitali registrano la date e l’orario corrente in questi metadati.
  • Impostazioni della fotocamera. Queste includono informazioni statiche come il modello ed il produttore della fotocamera, ed informazioni varie per ciascuna immagine come l’orientamento, l’apertura, la velocità dello scatto, la lunghezza focale, il bilanciamento del bianco, e le informazioni di velocità ISO impostate.
  • Una miniatura per visualizzare un’anteprima sul display LCD della fotocamera, nei file manager, oppure nei software di fotoritocco.
  • Descrizioni ed informazioni di copyright.

Filtri

In ambito fotografico e cinematografico un filtro ottico è un accessorio volto a modificare l’immagine, alterando le condizioni di ripresa originarie dell’obiettivo.

In base alle applicazioni esistono diversi tipi di filtri: filtri da ripresa, montati su fotocamere e apparecchi da ripresa in genere; filtri per elaborazione o post-produzione, adottati in camera oscura o nella trasformazione di immagini o video. Esistono, inoltre, filtri per l’illuminazione delle scene e degli ambienti, che si applicano direttamente sugli illuminatori dell’ambiente e consentono di proiettare fasci di luci colorate o cromaticamente corretti secondo le esigenze di ripresa.

Ancora possiamo suddividere i filtri in base al materiale di cui sono costituiti, i primi filtri fotografici erano realizzati in gelatina, poi sono comparsi filtri stratificati (coated), costituiti da uno strato applicato su un supporto vetroso, attualmente i filtri sono realizzati per la maggior parte in vetro ottico o materie plastiche e dotati di supporti e montature differenziati a seconda degli apparecchi di ripresa adottati.

Firmware

Il firmware è un programma (ovvero una sequenza di istruzioni) integrato direttamente in un componente elettronico nel senso più vasto del termine (integrati, schede elettroniche,periferiche). Il suo scopo è quello di avviare il componente stesso e consentirgli di interagire con altri componenti hardware tramite l’implementazione di protocolli di comunicazione o interfacce di programmazione.

Il termine tecnico ha origini dall’unione di firm (stabile) e ware (componente) ed indica che il programma non è immediatamente modificabile dall’utente finale perché risiede stabilmente nell’hardware integrato in esso.

Focus manuale

La messa a fuoco manuale disattiva il sistema di messa a fuoco automatica incorporato nella fotocamera permettendoti di mettere a fuoco a mano. La messa a fuoco manuale è utile per la fotografia a bassa luce, macro o effetti speciali.

Indice Thumbnail

In modalità preview, la maggior parte delle fotocamere digitali consentono di accedere alle immagini e clip video sulla scheda di memoria tramite un indice di miniature (thumbnail) sul display LCD. Principalmente viene utilizzato una griglia di immagini 2 x 2 o 3 x 3, e a volte questo può essere specificato dall’utente. I pulsanti sulla fotocamera consentono di navigare attraverso le miniature o selezionarle e, a seconda della fotocamera, eseguire operazioni di base come la cancellazione,  la riorganizzazione in cartelle, visualizzarle come presentazione, ecc.

Lag Time (ritardo)

Lag Time, in italiano tempo di ritardo, è il tempo che intercorre tra l’azione fisica della pressione del bottone per lo scatto e l’esecuzione dello scatto effettivo da parte della fotocamera. Questo ritardo varia un po’ tra i modelli di fotocamera e si presenta come uno dei più grandi svantaggi della fotografia digitale. Le fotocamere digitali più recenti, soprattutto le prosumer e le professionali SLR, sembrano aver risolto i tempi di ritardo e reagiscono allo stesso modo come le convenzionali, anche in modalità burst.

LCD

Lo schermo a cristalli liquidi, in sigla LCD dalla corrispondente espressione inglese liquid crystal display, è una tipologia di display a schermo piatto utilizzata nei più svariati ambiti, con dimensioni dello schermo che variano da poche decine di millimetri a oltre 100 pollici.

Mirino

Il mirino di una fotocamera è il dispositivo che permette di scegliere e comporre l’inquadratura. All’interno del mirino, oltre alla visualizzazione della scena inquadrata, sono frequentemente posti gli strumenti per valutare la messa a fuoco e l’esposizione del soggetto. Nel mirino galileano trova posto il telemetro, mentre nel mirino a pozzetto e nel sistema a pentaprisma è possibile trovare il vetro smerigliato, lo stigmometro, la corona di microprismi e l’esposimetro. Le moderne fotocamere digitali mettono a disposizione all’interno del mirino ulteriori strumenti che assistono il fotografo nella fase di scatto.

Pixel

Il termine pixel deriva dalla lingua inglese e potrebbe essere definita come la contrazione dalla locuzione picture element. Nella computer grafica si indica ogni singolo elemento puntiforme che compone la rappresentazione di una immagine digitale. Nelle immagini rappresenta i dati informatici, di solito i punti riprodotti sono così piccoli e numerosi da non essere riconoscibili ad occhio nudo, apparendo un tuttuno appena l’immagine viene stampata o visualizzata sul monitor. Ogni pixel è caratterizzato dalla propria posizione da valori come “colore” e “intensità”, variabili in funzione del sistema di rappresentazione utilizzato.

Pixel Effettivi

Dovrebbe essere fatta una distinzione tra il numero di pixel in un’immagine digitale e il numero di misurazioni di pixel che sono stati utilizzati per produrre quell’immagine. Nei sensori convenzionali, ogni pixel ha un fotodiodo che corrisponde ad un pixel nell’immagine. Un sensore convenzionale, per esempio una fotocamera da 5 megapixel che genera immagini di 2.560 x 1.920, ha un numero uguale di pixel “effettivi”, 4,9 milioni per essere precisi.

Ulteriori pixel che circondano l’area effettiva sono utilizzati per “demosaicizzare” i pixel dei bordi, per determinare i neri, ecc. Talvolta non tutti i pixel del sensore vengono utilizzati. Un esempio classico era la DSC-F505V di Sony che utilizzava solo 2,6 megapixel (1.856 x 1.392) dei 3,34 disponibili sul sensore. Questo era perché Sony aveva montato il sensore 3,34 nel corpo del modello precedente e siccome il sensore era leggermente più grande, l’obiettivo non era in grado di coprire l’intero sensore. In questo modo, il numero totale di pixel sul sensore risulta  più grande del numero effettivo di pixel utilizzati per creare l’immagine. Spesso questo numero superiore è preferito per specificare la risoluzione della fotocamera per scopi di marketing.

Pixel Densità

La densità di pixel è il calcolo del numero di pixel su un sensore, diviso per l’area di esposizione del sensore stesso. La densità di pixel non deve essere usata come indicatore per la qualità dell’immagine ma invece come parametro per capire il sensore.

Pixel Qualità

La corsa del marketing al “maggior numero di megapixel” vorrebbe farci credere che “più è meglio”. In realtà, non è così semplice. Il numero di pixel è solo uno dei tanti fattori che influenzano la qualità dell’immagine e una maggiore quantità di pixel non è sempre indicazione di maggior qualità.

La qualità di un valore di pixel può essere descritta in termini di precisione geometrica, precisione del colore, gamma dinamica, rumore, ecc. La qualità di un valore di pixel dipende dal numero di fotorivelatori utilizzati per determinarlo, la qualità della combinazione obiettivo – sensore, la dimensione del/dei fotodiodo/i, la qualità dei componenti della fotocamera, il livello di sofisticazione dei software di elaborazione delle immagini nella fotocamera, il formato di file immagine utilizzato per memorizzare, ecc.

Sensore

Un sensore di immagini o sensore ottico è un dispositivo che converte una immagine ottica in un segnale elettrico. Questi componenti vengono utilizzati soprattutto nelle fotocamere digitali, nelle telecamere, nelle videocamere e in altri dispositivi che trattano elettronicamente immagini.

Esistono molti tipi di sensori di immagini, la prima suddivisione da fare è tra quelli che riprendono a colori e quelli che riprendono in bianco e nero – anche se ormai questi ultimi sono presenti solo in campi ristretti di utilizzo (visione notturna) – poi altre suddivisioni sono fatte in base a caratteristiche come metodo di rilevamento dei colori, tecnologia, sensibilità alla luce, risoluzione ecc.

Il principio base di funzionamento (al di là di tutte le caratteristiche) è il seguente: l’immagine viene focalizzata su una griglia composta da una miriade di piccoli sensori puntiformi i quali convertono singolarmente la luminosità rilevata. Il sensore che riprende in bianco e nero è quello più semplice ed è anche il primo nato, successivamente si è arrivati a rilevare anche il colore.

Scheda di Memoria

Una scheda di memoria (in inglese memory card), è un dispositivo elettronico portatile di ridotte dimensioni in grado di immagazzinare dati in forma digitale e di mantenerli in memoria anche in assenza di alimentazione elettrica. A tale scopo utilizza una memoria flash (memoria non volatile) contenuta al suo interno.

Digital Imaging

Alias

Fenomeno che si verifica quando un’immagine ad alta risoluzione viene scalata ad una risoluzione troppo bassa. Per contrastarlo, si adottano apposite tecniche di anti-aliasing

Anti-Aliasing (AA)

L’antialiasing (delle volte abbreviato con AA) è una tecnica per ridurre l’effetto aliasing (in italiano, scalettatura, gradinaturao scalettamento) quando un segnale a bassa risoluzione viene mostrato ad alta risoluzione. L’antialiasing ammorbidisce le linee smussandone i bordi e migliorando l’immagine.

Bilanciamento del bianco

Si tratta di un’operazione che permette la restituzione ai colori le loro tonalità naturali, compensando le dominanti ricavate dalla luce. L’intensità della luce e il colore variano in base al momento della giornata o alle fonti di illuminazione presenti sulla scena del servizio fotografico. Negli ambienti al chiuso si ottengono foto tendenti al verde se la luce che illumina è al neon o all’arancione se la fonte di illuminazione è una lampadina. Grazie al bilanciamento del bianco e nero questo gap viene ridotto o addirittura risolto. Quindi come si fa a bilanciare il bianco? Occorre inserire, se non ancora presente, un elemento bianco ( ad esempio un semplice foglio di carta) ed inquadrarlo in primo piano per poter segnalare al software della fotocamera il valore del bianco a cui riferirsi. In alcune fotocamere il bilanciamento è solo automatico, mentre in altre è possibile gestirlo anche manualmente, selezionando dal menù il tipo di sorgente luminosa necessaria per la scena.

Il più delle volte i problemi si presentano quando la scena è illuminata a fonti miste, con temperature diverse tra loro. In queste situazioni l’unica soluzione possibile per poter ripristinare l’immagine in modo omogeneo è intervenire in seguito (fotoritocco) attraverso una correzione selettiva dei colori. In genere utilizzare i formati RAW e software professionali per il fotoritocco rendono “meno importante” questa impostazione proprio in fase di scatto.

Bit

La parola bit, in informatica e in teoria dell’informazione, ha tre significati molto diversi, a seconda del contesto in cui rispettivamente la si usi.

Significato

  • un bit è l’unità di misura dell’informazione (dall’inglese “binary information unit“), definita come la quantità minima di informazione che serve a discernere tra due possibili eventi equiprobabili.
  • un bit è una cifra binaria, (in inglese “binary digit“) ovvero uno dei due simboli del sistema numerico binario, classicamente chiamati zero (0) e uno (1).
  • il bit è l’ espressione della qualità del colore di un apparecchio elettronico. In questo campo la misura raddoppia sempre (ad esempio 8 bit → 16 bit → 32 bit → 64 bit e così via)

La differenza di significato tra le tre definizioni può riassumersi con una frase come: “la ricezione degli ultimi 100 bit (simboli binari) di messaggio ha aumentato la nostra informazione di 40 bit (quantità di informazione)” (la quantità di informazione portata da un simbolo dipende dalla probabilità a priori che si ha di riceverlo).

Blooming

È il difetto dell’immagine causato da una sovraesposizione in zone di luce molto alta e da un’incapacità della gestione di luminosità da parte della fotocamera. Il Blooming si manifesta attraverso una compressione tonale tonale con relativa mancanza di dettaglio e iridiscenze più o meno marcate nelle parti più chiare della scena.

Compressione

In linguaggio informatico e di telecomunicazioni la compressione dell’immagine è il nome ufficiale per raggruppare tutti gli algoritmi e tecniche di elaborazione digitale delle immagini che appartengono alle varie tecniche di compressione dati, le quali vengono utilizzate per la riduzione delle dimensioni in byte di tutte le immagini digitali. L’immagine in formate digitale è rappresentata da una serie di punti (pixel) disposti a modi scacchiera o matrice. Ogni singolo punto può utilizzare uno o più bit per riuscire ad identificare il colore del punto; maggiore è il rumore di colori presenti e maggiore sarà il numero di bit necessari per la codificazione dei colori dell’immagine in questione. Tutte le tecniche di compressione utilizzano la singolarità delle immagini per poter ridurre l’entropia locale dei file in modo tale da renderlo più piccolo.

Compressione senza perdita

Inizialmente le prime tecniche di compressione risultavano molto semplici anche perché la potenza dei primi PC era certamente limitata. All’epoca una tecnica molto diffusa e semplice nel suo utilizzo era la Run-lenght encoding e permetteva la memorizzazione di zone di colore uniforme attraverso delle stringhe speciali. Se ad esempio  in un immagine si trovavano mille punti dello stesso colore, il programma riusciva a salvare il colore in carattere speciale e successivamente memorizzava i punti da colorare con lo stesso colore.

Inizialmente le immagini possedevano un numero limitato di colori e quindi venivano utilizzate tecniche a vantaggio di questa caratteristica, molti formati usufruivano di tecniche di compressione a dizionario come la LZW. Gli algoritmi di riferimento costruivano dei dizionari contenenti un gruppo di punti che si ripetevano frequentamene e poi memorizzavano l’immagine con il dizionario appena creato.

Tra i vari formati lossless è giusto ricordare:

  • Png (alcune consentono la scrittura di file Png non compressi)
  • Tga
  • Tiff (formato che permette diversi tipi di compressione)
  • Gif (adatto ad immagini fino a 256 colori)

Compressione con perdita

Con il passare del tempo e dell’aumento di potenza, i computer sono stati in grado di gestire immagini composte da migliaia o addirittura milioni di colori. I metodi classici di compressione non potevano più gestire immagini con così tanti colori e vennero sviluppate quindi delle nuove tecniche di compressione a perdita di informazione. Infatti queste nuove tecniche hanno permesso compressioni anche del 50%, mantenendo sempre una qualità più che accettabile.

Tra i metodi più diffusi come non citare JPEG, il quale utilizzava varie tecniche di compressione combinandole tra loro per poi ottenerne altre di più elevate. Tra le varie tecniche che sono state utilizzate, la responsabile della maggiore compressione è stata la trasformazione del coseno che converte i punti dello schermo nella loro rappresentazione nel dominio della frequenza. Il segnale risultante è composto da segnali a frequenza bassa e segnali a frequenza alta: i segnali a bassa frequenza stanno a rappresentare le zone di colore uniformi dell’immagine, mentre i segnali ad alta frequenza ritraggono i particolari dell’immagine e i relativi disturbi di quantizzazione.

La compressione di tipo JPEG salva le componenti a frequenza bassa e una parte di quelle ad alta.  Più si incrementa la qualità più componenti vengono salvati e nel frattempo il file aumenta di dimensione. Il grande successo degli standard JPEG coinvolse molte società a compiere sforzi nel sviluppare soluzioni basate sulla perdita di compressione, ma anche con fattori di compressioni maggiori del JPEG a parità di qualità ottenuta.

Tra i vari formati è giusto ricordare:

  • Jpeg
  • Gif (riservato ad immagini con più di 256 colori e si ottiene una compressione lossy in quanto vengono eliminate la maggior parte delle sfumature di colore)

Gamma

Gamma racchiude tutti i colori che si possono visualizzare o stampare su un particolare sistema a colori. Per Gamma si intende anche il rapporto tra i dati di input di un immagine elettronica e i dati di output che inviano informazioni al monitor su come visualizzare l’immagine.

Intervallo dinamico

Si definisce intervallo dinamico il rapporto tra il valore massimo possibile e quello minimo di una grandezza variabile. È un’unita di misura che viene utilizzata in diversi campi, dall’elettronica alla musica fino alla chimica. In ambito fotografico rappresenta invece l’intervallo tra il livello minimo e quello massimo di luminosità che il sensore riesce a catturare.

Istogramma

L’istogramma di un immagine rappresenta in modo grafico la distribuzione tonale di un immagine digitale. La persona che osserverà l’istogramma di un immagina sarà in grado di poter giudicare a prima vista l’intera distribuzione tonale. Gli istogrammi sono presente su quasi tutte le macchine fotografiche digitali ed i fotografi ne usufruiscono come supporto per visualizzare la distribuzione tonale di cattura.

Quando si visualizza il grafico, l’asse orizzontale rappresenta le variazioni tonali, mentre l’asse verticale il numero di pixel quel particolare tono. Il lato sinistro dell’asse orizzontale simboleggia le aree scure e nere, la parte in mezzo le aree grigie la destra quelle bianche o pù chiare. L’istogramma di un’immagine molto luminosa e quasi priva di aree scure o ombre avrà più punti verso le destra e il centro, a differenza di un’immagine poco luminosa.

Interpolazione

Consiste nel calcolo matematico utile a stimare i valori intermedi tra due valori già esistenti. Per quanto riguarda le immagini digitali, quando vengono ingrandite o modificate, il procedimento, quasi sempre, fa uso dell’interpolazione di colori, luminosità e del contrasto dei pixel per poter creare dei nuovi pixel intermedi che servono a riempire i vuoti presenti tra i pixel originali.

La qualità dell’immagine risulterà inaccettabile quando viene richiesto un ingradimento esagerato. Il programma utilizzato per la foto elaborazione offre una scelta tra l’interpolazione più prossima, la bilineare e la bicubica.

JPEG

JPEG (acronimo di Joint Photographic Experts Group) è un comitato ISO/CCITT che ha definito per primo lo standard internazionale di compressione dell’immagine digitale a tono chiuso, sia nei vari livelli di grigio sia per i colori. JPEG indica inoltre il diffuso formato di compressione a perdita di informazione ed è anche un formato aperto e ad implementazione gratuita. Ad oggi JPEG è lo standard di compressione immagini più utilizzato dagli addetti ai lavori e non.

Caratteristiche del formato Jpeg

JPEG determina come un’immagine può essere mutata in una sequenza di byte, ma non come questo processo può essere incastonato in un formato di file, anche se il termine JPEG viene utilizzato, erroneamente, come sinonimo di “file contenente un’immagine compressa con JPEG”. Bisogna dire invece che JPEG definisce due metodi di compressione di base: uno è basato sull’uso della trasformata discreta del coseno (DCT) con una compressione di tipo “lossy” ovvero con perdita di informazione, l’atro invece si basa sull’utilizzo di un metodo predittivo con compressione “lossless” cioè senza perdere alcuna informazione. L’algoritmo base JPEG di tipo “lossy” viene chiamato “baseline” e sono state spiegate delle estensioni opzionali del metodo “lossy” riservate alla compressione di tipo gerarchico e progressivo.

Moirè

L’effetto moirè vuole segnalare una figura di interferenza, generata ad esempio da due griglie uguali e sovrapposto con un’angolatura diversa, oppure da griglie parallele con maglie distanziate sempre diversamente. E’ facilmente intuibile la provenienza del termine, infatti ha origine dal francese ed è un tipo di tessuto tradizionalmente in seta dall’effetto ottico cangiante e ricorda le onde o l’acqua. E’ un termine scelto anche in linguaggio tipografico, infatti rappresenta l’effetto che si ottiene quando le varie separazioni in quadricromia non vengono stampate a registro e quindi può capitare che le retinature offrano una percezione visiva dell’effetto moirè, detto anche non a registro. Questa reazione indesiderata avviene quando si riproduce, attraverso retinatura, un’immagine già retinata. Per evitare tale problematica si deve dare una diversa inclinazione della retinatura o cambiare la densità del retino.

Range Dinamico (o Gamma Dinamica)

Il Range Dinamico rappresenta la differenza che c’è tra le parti più luminose, come ad esempio il sole, e la parti più scure, ad empio le semplici zone d’ombra. Se la foto in questione presenta zone molto contrastate ed allo stesso tempo zone ricche di sfumature, avrà una gamma dinamica molto ampia. Una tipica giornata nuvolosa genererà una foto con un contrasto scarso e una gamma dinamica molto bassa. La cattura di immagini digitali in formato RAW, con un’alta profondità di bit, permette di catturare una rilevante gamma dinamica, anche maggiore di quella che si può catturare da una tradizionale pellicola per diapositive.

Comunque solo i sensori migliori riescono a catturare la complessità di immagini ricche di un’ampia gamma dinamica. C’è da dire che la gamma dinamica di una fotocamera dipende da diversi fattori: la gamma dinamica registrabile da un sensore è differente a seconda che si tratti di una reflex o di una compatta. Le reflex digitali hanno sensori più grandi delle compatte e anche i singoli fotodiodi che li compongono sono di dimensioni più notevoli e permettono quindi una gamma dinamica superiore.

Rumore

In ambito fotografico il Rumore corrisponde al difetto dell’immagine e si manifesta sotto forma di granulosità monocromatica (luminance noise) o anche come tanti puntini colorati (chroma noise), specialmente nelle aree uniformi e a tonalità continue della foto. L’effetto visivo è simile a quello della “grana” delle pellicole ad una sensibilità molto alta. Il Rumore può essere influenzato da diversi motivi: aumenta con l’incrementare della temperatura del sensore, della sensibilità ISO utilizzata o dalla diminuzione del sensore. Non solo, il rumore può essere evocato anche dalla forte compressione utilizzata e dai diversi tempi di posa ( se i tempi sono superiori al secondo possono generare rumore cromatico). D’altro canto il rumore digitale può essere sistemato grazie al fotoritocco, ma è possibile prevenire il tutto anche dallo scatto, scegliendo il valore ISO più basso possibile, magari utlizzando un treppiede per ridurre i tempi di “apertura”, e mantenere la fotocamera spenta e al fresco fino a qualche istante prima della ripresa, scegliendo di salvare l’immagine in un formato troppo compresso.

Posterizzazione

Dall’inglese posterization, si associa a quell’effetto applicabile ad un’immagine per il quale l’immagine viene compressa, diminuendo così il numero dei livelli di colore ed incrementandone il contrasto. L’immagine appena posterizzata risulterà di peso inferiore, ma anche in termini di qualità, con un numero ridotto di toni di colore si presenteranno meno sfumature. L’immagine apparirà più “piatta” o con uno stile che ricorda quello del fumetto o ad un poster, da quest’ultimo effetto ecco l’origine del nome posterizzazione.

RAW (formato)

È una tecnica utile per la memorizzazione dei dati descrittori di un immagine. Raw viene utilizzato per non accusare perdite di qualità di registrazione su un qualsiasi supporto di memoria rispetto ai segnali catturati dal sensore ed in seguito composti per interpolazione dal preocessore d’immagine della fotocamera nelle sue tre componenti frontali RGB.

Attraverso questa tecnica, quasi tutte le aziende produttrici di fotocamere digitali formattano dati dei file RAW in formati proprietari. Questi dati possono risultare diversi anche fra modelli della stessa casa produttrice. Tale accortezza consente l’identificazione del formato specifico e, oltre a dare una riconoscibilità al marchio, autorizza ai programmi di elaborazione dei file RAW l’attivazione di processi di demosaicizzazione più consoni per quel formato in fase di caricamento dei file. Il termine RAW (crudo in inglese) può assumere diversi significati. In questo caso interessano gli aggettivi che richiamano il concetto di “grezzo, non raffinato e non elaborato”. Nel mondo della fotografia sta a significare che l’immagine catturata dai sensori CCD o CMOS della fotocamera viene registrata nella sua forma originaria, numerica, senza ulteriori elaborazioni da pare delle fotocamera stessa.

Nei formati RAW vengono registrati i dati monocromatici grezzi, i quali indicano l’informazione di intensità luminosa incidente su tutti i photodetector R, G e B. Tale descrizione ha valenza solo nel caso di un sensore con CFA (Color Filter Array) di tipologia bayer RGB. Se invece il CFA è di tipo diverso, il file RAW che si forma racchiuderà le quattro indicazioni cromatiche separate.

Per queste varie ragioni, la registrazione in RAW offre la possibilità di catturare le immagini anche in presenza di una regolazione non ottimale di alcune impostazioni ( esposizione, bilanciamento del bianco, ecc). E’ doveroso prestare attenzione al fatto che la profondità di campo e la messa a fuoco devono risultare ideali nella fase di ripresa, in quanto la metodica in fase di registrazione RAW non permette di riedificare dettagli di immagini andate perse dall’ottica della fotocamera a causa, per esempio, della mancata messa a fuoco della scena ripresa o dei suoi elementi.

Risoluzione

Indica i diversi gradi di qualità di un immagine e generalmente è un termine utilizzato per immagini digitali. Per quanto riguarda le immagini su carta, la risoluzione sta ad indicare la densità dei punti dot elementari presenti, i quali costituiscono l’immagine rapportata ad una dimensione lineare. Lo schermo di un PC non è in grado di mostrare linee o disegni, ma soltanto punti. Se tali punti sono sufficientemente piccoli, oltremodo la percezione dell’occhio umano, l’osservatore avrà la sensazione di visualizzare linee anziché tantissimi punti allineati e disegni, oltre ad un numero esponenziale di punti distinti. La risoluzione si misura dunque in punti per unità di lunghezza, quest’ultima di solito è il pollice.

Scalettatura

Termine che sta ad indicare l’aliasing, ovvero l’aspetto a “scalini” delle linee curve presenti nelle immagini digitali. Questo difetto viene anche nominato “pixelatura”, essendo generato proprio dalla conformazione particolare delle varie immagini digitali, composte appunto da pixel. La scalettatura si manifesta in ogni linea non esattamente orizzontale o verticale delle immagini digitali, ma aumentando il numero dei pixel il difetto risulterà meno accentuato.

Sensibilità (ISO)

In fotografia il termine Sensibilità o Rapidità, vuole indicare la sensibilità di una pellicola fotografica alla luce. Uno scatto in presenza di pellicola a bassa sensibilità richiederà un tempo notevolmente maggiore, si definirà quindi pellicola lenta, viceversa se una pellicola ad alta sensibilità necessiterà tempi di esposizione più corti si nominerà pellicola veloce.

La velocità è misurata in numeri ISO e/o ASA. Più sarà alto il numero, più sarà sensibile alla luce la pellicola o il sensore e quindi, a pari condizioni, tanto più breve sarà l’esposizione. Tutte le pellicole con una rapidità ISO/ASA da 25 a 64 (15-20 DIN) risulteranno sempre lente. Da 125 a 400 (22-27 DIN) saranno di velocità moderata, mentre tutte quelle superiori a 500 (28 DIN) saranno rapide. Lo standard ISO 5800:1987 vuole definire due scale, le quali servono a misurare la velocità della pellicola: scala Lineare e scala DIN. I numeri vengono calcolati in modo che la pellicola con un numero ISO/ASA doppio di un altro avrà una sensibilità doppia e quindi richiederà la metà di tempo di esposizione.

All’interno della scala DIN la rapidità della pellicola raddoppia ogni tre valori, indi per cui una pellicola 18 DIN è rapida due volte in più rispetto a una 15 DIN. Anche per gli ISO/ASA il passaggio da un numero all’altro si indicherà in gergo stop ed aumentando o diminuendo di uno stop la velocità della pellicola si raddoppierà/dimezzerà la quantità di luce. Il valore della rapidità è necessario impostarlo sulla scala di senbilità della fotocamera, in modo che l’esposimetro interno riesca ad indicare i dati di esposizione esatti.

Sharpening

Sharpening significa incrementare il contrasto ai bordi delle immagini ed inoltre serve per recuperare o aumentare la nitidezza di un’immagine. La qualità della nitidezza dipende da valori oggettivi e soggettivi. I valori oggettivi si riferiscono alla qualità dell’ottica, i megapixerl del sensore, elettronica di elaborazione della fotocamere, ecc. Mentre i valori soggettivi possono essere favoriti grazie all’aumento dell’acutanza, la quale una volta si realizzava con sviluppi riservati in camera oscura. L’obiettivo principale dello Sharping è di generare dei micro-aloni chari e scuri lungo i bordi, in modo da trasmettere alla vista dell’osservatore un’immagine più nitida. Con l’utilizzo della pellicola la tecnica consisteva nel fotografare il negativo, sfocarlo leggermente e conseguentemente metterlo a registro con l’originale, sfalsando di molto poco in orizzontale e verticale. Questo procedimento faceva in modo che la luce dell’ingranditore filtrasse solamente lungo i bordi dell’immagine e l’effetto ottenuto fosse quello di ripassare con la luce i bordi dell’immagine.

Spazio Colori

Si definisce Spazio in ambito fotografico un modello tridimensionale all’interno del quale è consentito rappresentare i tre attributi del colore, ovvero sfumatura, saturazione e luminosità (es CIE). Per Spazio Colori si intende la combinazione di un modello di colore e la sua appropriata funzione di mappatura. È inteso quindi come un modello matematico “astratto”, il quale vuole descrivere un modo specifico di rappresentare i colori come una combinazione di numeri. Questo modello è una rappresentazione astratta e quindi viene completato da regole ben precise adatte all’utilizzo che se ne andrà a fare, creando uno spazio di colori. Ad esempio, spazi di colore come Adobe RGB e sRGB sono diversi tra loro, pur basandosi sullo medesimo modello di coloro RGB.

TIFF

Tagged Image Format ovvero  TIFF è un formato dell’immagine di tipologia raster, sviluppato da Aldus ed è alquanto diffuso. Le specifiche TIFF offrono una notevole flessibilità. Ovviamente questo è un vantaggio, ma purtroppo non risulta facile scrivere un interprete pienamente conforme alle specifiche. Questo comporta che una stessa immagine venga visualizzata con colori diversi a seconda dell’interprete che si decide di utilizzare. TIFF è molto utilizzato per lo scambio di immagini raster fra stampanti e scanner perché consente di specificare diverse indicazioni aggiunte come ad esempio le tabelle di gamuto informazioni sulla calibratura del colore. TIFF è usato anche per far comunicare più macchine all’interno del medesimo studio fotografico o di editing che hanno però la stessa calibratura.

TIFF autorizza la rappresentazione di immagini con diversi spazi di colore:

  • Scale di grigio
  • RGB
  • CMYK
  • CIELab

Sono previste anche diversi formati di compressione:

  • LZW e ZIP sono di tipo lossless, ovvero senza perdita di informazione
  • JPEG di tipo “lossy”, ovvero con perdita di informazione

Le vari immagini vengono memorizzate, oltre come linee di scansione, anche in riquadri e ciò permette di avere un rapido accesso ad immagini di grosse dimensioni. Un file TFF riesce a contenere immagini suddivise su più “pagine”, ad esempio è possibile inserire in un unico file tutte le pagine che compongono un fax.

Zoom digitale

È l’ingrandimento di immagini o video senza utilizzare lenti ottiche, ma esclusivamente in modo digitale. Naturalmente la dilatazione di un particolare dell’immagine scelta o del fotogramma causa inevitabilmente una perdità di qualità. Un esempio pratico potrebbe essere l’ingrandimento di un’immagine su un computer, l’aumento delle dimensioni di una qualsiasi pagina web o la variazione dell’aspetc ratio di un video. Quasi tutte le fotocamere di fascia bassa integrano la potenza dello zoom ottico con lo zoom digitale.

Esposizione

AE (esposizione automatica)

Abbreviazione che sta a significare Automatic Exposure, in italiano esposizione automatica. AE è un sistema attraverso il quale la fotocamera può impostare in modo automatico l’apertura del diaframma e/o il tempo di esposizione per permettere al sensore il raggiungimento di una quantità di luce adeguata.

APERTURA

In fotografia il termine Apertura può essere accostato a due significati: l’apertura di un obiettivo e l’apertura del diaframma. L’apertura dell’obiettivo, detta anche apertura effettiva, è direttamente correlata al diametro del fascio dei raggi di luce che lo attraversano e non al diametro delle sue lenti. L’apertura determina inoltre la luminosità dell’immagine creata sul piano focale. Per quanto riguarda l’apertura del diaframma, si riferisce al rapporto tra il diametro del diaframma e la relativa lunghezza focale dell’obiettivo e permette, ad esempio, di ispezionare la profondità del campo. Con l’apertura e chiusura del diaframma si potrà regolare il diametro del fascio luminoso che attraversa l’obiettivo.

BRACKETING AUTOMATICO (o esposizione a forcella)

Ci sono alcune fotocamere che possono scattare in automatico più fotografie ( di solito dalle 3 alle 5 fotografie) dello stesso soggetto e con differenti valori di esposizione. Di solito lo scatto centrale viene realizzato sulla base delle indicazioni offerte dall’esposimetro, mentre gli  altri scatti sono sottoesposti o sovraesposti. In questo modo si potrà scegliere la foto migliore e con un’esposizione sufficientemente equilibrata.

COMPENSAZIONE DELL’ESPOSIZIONE

Sta a significare la correzione manuale del valore automatico determinato dall’esposimetro  alla volta di ottenere una corretta esposizione di ripresa difficoltosa. L’espositometro di ogni fotocamera cerca la soluzione più ottimale per le regolazioni ma spesso anche il più piccolo intervento umano  facilità a migliorare l’immagine finale. Ogni sistema di misurazione della luce ha appunto delle limitazioni, sia nella loro modalità di misurazione e sia perché alcune situazioni di ripresa ( ad esempio la neve o soggetti in controluce) possono falsare la misurazione causando delle immagini sotto o sovraesposte.  Grazie però alla compensazione dell’esposizione, ovvero la modifica della quantità di luce che arriva al sensore, si è in grado di rimediare a tali errori. L’unità di misura utilizzata per misurare questa compensazione è l’EV (Exposure Value).

ESPOSIZIONE

L’esposizione è il tempo necessario per la cattura della luce da parte del sensore o della pellicola. L’esposizione può essere curata manualmente (M) nelle fotocamere di medio/alto e solitamente si regola automaticamente (A) dall’esposimetro delle fotocamere stesse. Altre  modalità di esposizione possibili sono di tipo programmata (P), priorità di diaframma (AV o AP) e a priorità di tempo (TV o SP). In alcune fotocamere è anche consentito utilizzare l’esposizione a forcella, detta anche bracketing automatico. Nel caso l’esposizione non fosse corretta, si otterrà un immagine definita “sottoesposta” ovvero scura, se invece risulterà troppo chiara, l’immagine verrà definita “sovraesposta”. La sovresposizione dell’immagine causa l’effetto Blooming, cioè un’intera area di immagini apparirà completamente bianca e i dati contenuti in quella foto saranno irrecuperabili. La Sovraesposizione e Sottoesposizione sono entrambi difetti gravi per la foto, ma di solito la Sottoesposizione viene tranquillamente corretta con risultati decisamente migliori, proprio perché le parti scure della foto contengono comunque ancora informazioni.

MODALITA’ MACRO

Particolarità costitutiva nelle fotocamere digitali, riferito al rapporto gruppo ottico-sensore, il quale ottimizza la possibilità di metterà a fuoco soggetti tanto vicini, ottenendo un effetto di ingrandimento. I risultati conseguiti con la modalità macro non sono assolutamente paragonabili a quelli nettamente migliori della macro fotografia.

MODALITA’ MANUALE

È una particolarità presente specialmente nelle fotocamere di livello medio alto e si rivolge a chi vuole intervenire creativamente o con consapevolezza alla realizzazione di un immagine. Con il controllo manuale dell’otturatore e del diaframma il fotografo è abilitato di riprendersi il controllo su ogni singolo fattore che può influenzare la resa finale della foto, non consentendo alla macchina di decidere per lui.

OTTURATORE

L’otturatore è un meccanismo che, posizionato tra l’obiettivo ed il sensore o la pellicola, si apre e quindi permette il passaggio della luce e si richiude totalmente dopo un lasso di tempo prestabilito detto tempo di esposizione. Gli otturatori per fotocamere si dividono in due categorie: meccanici ed elettronici. Negli otturatori meccanici rientrano gli otturatori centrali, con un meccanismo ad iride e questi tipi di otturatori si chiudono dall’esterno verso l’interno, ma ormai non sono quasi più utilizzati. Ci sono anche, sempre nel gruppo degli otturatori meccanici, i così detti otturatori a tendina ovvero otturatori composti da due tendine, gommate o metalliche, i quali scorrono in due diverse direzioni. L’altra tipologia di otturatori, quelli elettronici, è molto utilizzata nelle fotocamere e videocamere digitali. Sono degli otturatori “virtuali” che funzionano attivando e disattivando il CCD, un meccanismo elettronico interno, in modo non si registri la luce anche se questa lo colpisce.

PRIORITA’ DI DIAFRAMMA (esposizione a)

Si riferisce all’automatismo dell’esposizione ( indicato anche con la sigla AV o AP e presente in tutte le fotocamere provviste di otturatore e controllo elettronico dei tempi) che consente di determinare un valore preciso di diaframma ed affidare all’esposimetro della fotocamera la funzione di calcolo del tempo di esposizione più adeguato. Utilizzando questo automatismo è possibile controllare quanto profondo è il campo.

PRIORITA’ DI TEMPO (esposizione a)

Automatismo dell’esposizione ( indicato con la sigla TV o SP e utilizzabile nelle fotocamere che adottano un otturatore a controllo elettronico dei tempi) e consente di impostare un valore di tempo di esposizione  e lasciare all’esposimetro della fotocamera il dovere di calcolare il diaframma più giusto. Grazie a questo automatismo si è in grado di controllare il “congelamento” dell’immagine o al contrario l’impressione dello scorrere dell’azione.

TIME LAPSE

La traduzione letterale all’italiano: “time” = tempo e “lapse” = intervallo e nel gergo fotografico sarebbe intervallo di tempo. È una tecnica cinematografica nella quale la frequenza di cattura di ogni fotogramma è nettamente inferiore a quella di riproduzione. Per colpa di questa discrepanza, la proiezione di un frame rate standard di 24 fps fa sì che la durata del filmato sembri scorrere più velocemente del normale. Il filmato time-lapse può essere conseguito processando una serie di fotografie scattate in sequenza e opportunamente montate. Questi filmati di livello certamente professionale, vengono riprodotti  grazie all’ausilio di videocamere e fotocamere fornite di intervallometri, ovvero dispositivi di regolazione del frame rate di cattura o della frequenza degli scatti fotografici riferiti ad uno specifico intervallo temporale. Ci sono alcuni intervallometri connessi al sistema di controllo del movimento della telecamera per poter così ottenere effetti di movimento, com ad esempio panning e carrellate.

Il time-lapse riscuote un largo impiego nel campo dei documentari naturalistici. Infatti grazie a questa tecnica è possibile documentare eventi non visibili ad occhio nudo o per l’evoluzione nel tempo che è poco percettibile dall’uomo, come il movimento del sole o delle stelle.

Ottica

ABERRAZIONE CROMATICA

È la reazione che crea luce solare che penetra all’interno di un prisma scomponendosi e ricreando lo spettro dell’arcobaleno. Questo è dovuto perché le lunghezze d’onda della luce si deviano in punti diversi all’interno dello stesso prisma. L’aberrazione cromatica è un difetto dell’immagine dovuto proprio dal differente valore di rigrazione dei raggi luminosi che invadono l’obiettivo. L’aberrazione cromatica è lampante quando la luce proviene da dietro i soggetti fotografati o quando si ingrandiscono i dettagli dell’immagine.

Tutti i sistemi ottici, chi più e chi meno, subiscono questo difetto, ma esistono particolari accortezze per limitarla, come ad esempio gli obiettivi apocromatici, dotati di lenti costruite con materiali a bassa dispersione come la fluorite, minerale composto da floruro di calcio.

Negli ormai lontani anni Sessanta, Canon riprodusse artificialmente la fluorite in cristalli, realizzando così i primi obiettivi reflex intercambiabili con elementi alla fluorite. Per segnalare il potere dispersivo del vetro si utilizza un numero detto di Abbe.

ANGOLO DI CAMPO

Corrisponde alla porzione di spazio inquadrata da un obiettivo di una certa lunghezza focale in relazione alle dimensioni del sensore o della pellicola impressionata. Viene anche detto angolo di vista e viene normalmente espresso in gradi in relazione alla diagonale del fotogramma. Sono invece chiamati Teleobiettivi gli obiettivi che coprono un angolo di campo ristretto, mentre gli obiettivi grandangolari (in particolare il Fish-Eye) catturano un angolo di campo incredibilmente ampio.

CIRCOLI DI CONFUSIONE

Vengono chiamati Circoli di Confusione i puntini di luce che si dispongono a circolo sull’immagine, più la loro dimensione è ridotta e tanto più la foto risulta nitida. Se invece la dimensione dei circoli cresce a causa del posizionamento del soggetto più distante dal piano di messa a fuoco, il risultato sarà maggiormente sfumato. Tra i vari parametri che influenzano i valori dei circoli di confusione ci sono sicuramente il fattore di ingrandimento e la distanza di visione.

DISTANZA IPERFOCALE

È la distanza che separa l’obiettivo regolato su infinito dal soggetto più vicino che risulta nitido. Regolando l’obiettivo su questa distanza la zona nitida si svilupperà  dalla metà della distanza iperfocale all’infinito.

DISTANZA MINIMA

Si vuole intendere la distanza minima possibile di ripresa di un piano perfettamente a fuoco concessa dall’obiettivo in uso. Si misura a partire dal piano focale della fotocamera.

DISTORSIONE

La distorsione è una delle principali aberrazioni dell’obiettivo dove le linee rette ai bordi dell’immagine vengono riprodotte come curvate verso il centro del fotogramma (distorsione a cuscinetto), oppure verso i suoi margini (distorsione a barilotto). La distorsione genera il degradamento della forma dell’immagine, ma non intacca la nitidezza. La distorsione ottica può essere limitata grazie all’utilizzo di obiettivi dotati di lenti antisferiche o riducendo il valore del diaframma. Molto spesso anche il foto ritocco si rivela molto utile per la correzione del difetto.

LUNGHEZZA FOCALE

La lunghezza focale in un dispositivo ottico corrisponde alla misura del potere di messa a fuoco di una lente. La lunghezza focale coincide con la distanza fra la lente convergente e il piano focale quando il soggetto da mettere a fuoco è all’infinito.  In fotografia corrisponde alla distanza, misurata in millimetri, tra il centro ottico dell’obiettivo e il piano pellicola o il sensore in caso fosse una fotocamera digitale, alla quale viene messa fuoco l’immagine di un punto posto all’infinito. Da specificare che si tratta di centro ottico, il quale non sempre coincide con il centro dell’obiettivo. Un obiettivo che è composto da più lenti si comporta come un’unica lente la cui lunghezza può risultare considerevolmente diversa rispetto la lunghezza fisica dell’obiettivo.

Tutto questo è particolarmente evidente negli obiettivi a focali variabile, i cosiddetti zoom. L’angolo di campo dell’obiettivo è dipeso dalla lunghezza focale e dalle dimensioni della superficie sensibile e a parità di dimensioni del sensore, più la focale è lunga e più è stretto il campo inquadrato. Di solito, in via convenzionale, si considera “normale” un obiettivo la cui lunghezza focale è praticamente uguale alla diagonale della pellicola del sensore. Per quanto riguarda il formato 135 (o 35 mm) è definito normale l’obiettivo da 50 mm che è quello che si avvicina maggiormente alla visione umana. Gli obiettivi più corti sono chiamati grandangoli e quelli più lunghi teleobiettivi.

Gli obiettivi di lunghezza focale uguale utilizzati su superfici di formato diverso hanno l’angolo di campo diverso. Nello specifico gli obiettivi usati su sensori più piccoli hanno un angolo di campo inferiore e questo diventa rilevante nel passaggio al digitale, in quanto le fotocamere digitali hanno generalmente un sensore più piccolo del 35 mm.  Se si dovesse montare un 50 mm su una reflex digitale con sensore di formato APS, si otterrà un angolo di campo uguale a quello di un obiettivo da 75 mm su pellicola. Questo viene comunicato da un fattore di moltiplicazione che si ottiene dal rapporto tra la diagonale del 35 mm e quella del sensore, in questo caso 15.

MOLTIPLICATORE DI FOCALE

Accessorio installato tra il corpo macchina e l’obiettivo, il quale permette di accrescere la lunghezza focale di quest’ultimo da 1.4 a 2 volte. Ad esempio, un obiettivo da 200mm dotato di moltiplicatore 1.4x può raggiungere una lunghezza effettiva di 280 mm. Se invece si considera un moltiplicatore 2x la lunghezza arriva a 400mm. I moltiplicatori riescono a tradurre in maniera più o meno considerevole la luminosità dell’obiettivo adoperato.

OBIETTIVO

Si associa il termine tecnico Obiettivo alla lente o gruppo di lenti costruite per catturare la luce ed inviarla alla pellicola o al sensore. Le caratteristiche imprescendibili di ogni obiettivo sono la lunghezza focale, l’apertura o luminosità,la profondità di campo, la messa a fuoco e la capacità di catturare dettagli. Inoltre ogni obiettivo è caratterizzato da aberrazioni cromatiche e aberrazioni sferiche e agli obiettivi reflex, ma anche in alcune fotocamere compatte, possono essere applicati vari accessori, come ad esempio il paraluce, filtro e moltiplicatore di focale

OBIETTIVI APOCROMATICI

Detti anche più semplicemente “APO”, sono obiettivi in grado di eliminare quasi totalmente le aberrazioni cromatiche. Sono dotati di lenti speciali costruite con l’aggiunta di elementi come il boro, il bario, fosforo e nell’ultimo periodo soprattutto il lantanio, tutti materiali a bassa dispersione che consentono a questi gruppi ottici di avere un minor indice di rifrazione della luce: la capacità delle lenti di rifrangere in maniere affine tutti i colori dello spettro visibile permette di ottenere immagini di qualità eccellente.

OBIETTIVI A FOCALE FISSA

La focale fissa è la lunghezza focale di cui sono provvisti gli obiettivi a ingrandimento fisso, ovvero privi d zoom. Gli obiettivi con lunghezza focale fissa, detti anche focus free, hanno generalmente un’apertura massima di diaframma maggiore agli obiettivi zoom.

OBIETTIVI DECENTRABILI

Sono sofisticati obiettivi che, grazie ai loro movimenti di basculamento e di decentramento, permettono di ampliare le possibilità fotografiche. Il movimento del decentramento incrementa la profondità di campo, anche con un’apertura massima del diaframma e consente di metter a fuoco l’intero soggetto. Da aggiungere anche che i movimenti di basculamento correggono la distorsione trapezoidale col fine di non far risultare il soggetto distorto.

Le deformazioni prospettiche vengono generata di solito da un punto di ripresa “errato”, come ad esempio la fotografia di un palazzo scattata dal basso verso l’alto. Grazie a questi obiettivi è tranquillamente possibile effettuare correzioni prospettiche delle foto direttamente nella fase di ripresa e non a posteriori con programmi di foto ritocco.

OBIETTIVI MACRO

Gli obiettivi macro sono dedicati alla macrofotografia in modo da catturare dettagli apparentemente impossibili da individuare ad occhio nudo. Di solito un obiettivo fotografico ha la capacità di mettere a fuoco ad una distanza che varia tra il metro fino ad una cinquantina di centimetri. Gli obiettivi macro, invece, consentono di mettere a fuoco anche da molto più vicino, a pochissimi centimetri, offrendo così la ripresa di splendidi ingrandimenti anche dei soggetti più piccoli.

OBIETTIVI GRANDANGOLARI

Obiettivi provvisti di una lunghezza focale più corta del normale, in genere al di sotto dei 35 mm, di conseguenza con un campo visivo più ampio ( pari o maggiore a 60°, in base alla lunghezza focale). Rispetto alle ottiche con il focale superiore, i grandangolari hanno una maggior profondità di campo e concedono una prospettiva alterata che induce ad esagerare la proporzione dei soggetti in primo piano facendoli apparire molto più grandi di quelli in secondo piano.

Visto le sue caratteristiche, il grandangolo è impiegato specialmente per la ripresa di soggetti molto grandi ( panorami, edifici, ecc.) i quali non rientrerebbero nell’angolo di ripresa di ottiche con una focale superiore, anche se uno dei principali effetti di questi obiettivi è la distorsione dell’immagine. Nel caso in cui l’angolo si avvicini o superi i 180°,  si parla di obiettivo Fish-eye.

OBIETTIVI STABILIZZANTI

Ci sono alcuni obiettivi di alta gamma, generalmente costosi, che dispongono di uno stabilizzatore di immagine incorporato, il quale riduce le probabilità che una foto risulti mossa a causa delle vibrazioni della fotocamera ( termine utilizzato è micromosso).

Il funzionamento di un obiettivo stabilizzato è basato su un complesso schema ottico dotato di sensori giroscopici che monitorizzano i movimenti repentini e da micromotori che correggono meccanicamente la posizione delle lenti, avendo un effetto uguale e contrario che neutralizza le vibrazioni. Lo stabilizzatore risulta piuttosto utile nel caso di foto in primo piano e in tutte quelle situazioni in cui non è possibile l’utilizzo del treppiede. Oltre a garantire riprese nitide fino a tre stop in meno rispetto ai modelli tradizionali, gli obiettivi stabilizzati possono essere utili anche quando l’uso del flash non è consentito o desiderato.

OBIETTIVI ZOOM

Sono l’equivalente di due o più obiettivi con una lunghezza focale fissa contenuti in una sola unità. Grazie alla possibilità di inquadrare porzioni di spazio variabili gli zoom risultano molto utili e versatili, anche se alcune volte sono meno luminosi e più ingombranti degli altri obiettivi. In base al range di lunghezze focali che raggiunge, uno zoom si può situare nella fascia delle lunghezze focali dei teleobiettivi (sopra i 50mm) , dei grandangoli (sotto i 35mm) o in una fascia mista (da 28 a 80 mm)

PROFONDITA’ DI CAMPO

La profondità di campo nitido o più semplicemente profondità di campo, dall’inglese Depth of Field, è la distanza davanti e dietro al soggetto messo a fuoco la quale appare nitida. Per ogni impostazione dell’obiettivo si deve rispettare un’unica distanza a cui gli oggetti risultano nitidi; la nitidezza diminuisce gradualmente in avanti verso il fotografo o dietro il soggetto messo a fuoco.

Il “campo nitido” corrisponde a quell’intervallo di distanze davanti e dietro al soggetto in cui la sfocatura sembra impercettibile o comunque accettabile. La PdC (profondità di campo) è maggiore se questo intervallo è ampio e viene definita minore se è ridotto. Per una serie di motivi legati all’angolo di incidenza dei raggi luminosi, il campo nitido risulta sempre più esteso dietro al soggetto piuttosto che davanti. Più precisamente la distanza per mettere perfettamente a fuoco è situata a grosso modo a un terzo del campo nitido, verso il fotografo.

STABILIZZATORE DI IMMAGINE

Lo stabilizzatore d’immagine è un sistema che consente l’acquisizione di immagini e video evitando il tremolio causato dalla mano o dalla respirazione, specialmente quando si utilizzano zoom tanto potenti e tempi di apertura dell’otturatore alquanto lunghi, regalando alle immagini una maggiore nitidezza rispetto ad una fotografia o ripresa video eseguita senza lo stabilizzatore. Questo sistema è adottato sia nelle fotocamere che nelle videocamere di ultimissima generazione, può essere ottico o digitale e si può trovare all’interno del dispositivo o abbinato ad un altro obiettivo supplementare.

VIGNETTATURA

La vignettatura è la progressiva riduzione della luminosità dell’immagine verso i bordi che si presenta sotto la forma di una sfumatura tendente al nero presenti negli angoli della foto. I fattori che determinano la vignettatura possono essere diversi, ma tendenzialmente dipende dalle caratteristiche ottiche dell’obiettivo e generalmente è più esplicito sui grandangolari.

Un’altra causa della vignettatura potrebbe essere il filtro o il paraluce inadeguato applicato all’obiettivo. La vignettatura può comunque essere eliminata con un intervento di foto ritocco oppure eliminando direttamente la causa esterna che la genera.