L’analisi della qualità dell’immagine rappresenta attualmente un ambito di ricerca estremamente
interessante ed innovativo per quanto riguarda molteplici settori di applicazione, dal multimediale,
al biomedico, al forense. Trattare l’argomento in modo esaustivo si presenta quindi particolarmente
complesso poiché, a seconda della particolare tipologia di applicazione, possono essere definiti di
conseguenza diversi criteri per esprimere la qualità dell’immagine in analisi e diverse categorie di
algoritmi per la determinazione di criteri di valutazione.
Nel presente lavoro di tesi, si vuole cercare di dare un quadro sufficientemente ampio ed originale
di quali possano essere stime efficaci della qualità di un’immagine, in particolare all’interno di una
sequenza video ed in fase di studio di nuovi sistemi multimediali ad alta qualità, e con tale termine
intendendo la qualità percepita dall’utente finale del sistema: parliamo quindi di qualità soggettiva,
argomento ancora più circostanziato nel campo di studio individuato.
Frequentemente, in tale ambito, le analisi di qualità, o più specificatamente di artefatti
riconducibili a stime effettuate, vengono implementate in relazione a codifiche video proprie di
standard avanzati: esempio tipico è rappresentato dalle applicazioni di algoritmi di qualità a
possibili configurazioni di codifica previste dallo standard H264. Determinati tipi di codifiche,
comprendono già nella catena di elaborazione del video la presenza di specifici stadi atti a ridurre
determinati artefatti da codifica, fra cui citiamo la blochettatura, che in qualche modo è possibile
prevedere soprattutto in caso di “bit rate” di trasmissione particolarmente bassi e corrispondenti ad
una maggiore perdita di informazione, almeno nella maggior parte dei casi. Proprio per questo
motivo decidiamo di rivolgerci allo studio di una seconda tipologia di artefatto, estremamente
rilevante dal punto di vista percettivo ma non ancora così analizzato, ovvero la sfocatura: questa
non è facilmente riconducibile ad una singola causa, come appunto la codifica, ed è per questo che
misurazioni in tal senso vanno effettuate su più caratteristiche dell’immagine in analisi.
La misurazione di sfocatura che proponiamo in questo lavoro è costituita infatti da differenti
componenti, in modo da poter ricondurre a ciascun tipo di analisi sfocature dalle caratteristiche
diverse ed imputabili a cause di natura differente.
Una prima misurazione a livello globale riguarda in particolare una stima in percentuale dell'area
dell'immagine in esame interessata da un basso indice di contrasto, calcolato secondo formule note
e nel rispetto di quanto percepito da un osservatore. Una seconda misurazione di tipo globale rileva
invece il deterioramento o addirittura l'assenza di dettaglio fine, imputabile ad es. ad artefatto da
codifica in modo abbastanza tipico.
Alle misurazioni di sfocatura precedentemente illustrate, diviene necessario affiancare altre
considerazioni di tipo percettivo, riconducibili a modelli del sistema visivo umano, proprio per
raggiungere una valutazione soggettivamente coerente anche in assenza di immagini di riferimento
per effettuare la stima di qualità. È necessario infatti valutare diversamente l’entità dell’artefatto a
seconda delle caratteristiche a livello locale della zona dell’immagine in cui si manifesta.
All’interno dell’immagine in analisi, grazie a modelli già accettati dalla comunità scientifica, è
possibile determinare, quale sia la regione e/o gli oggetti focalizzati immediatamente dall’attenzione
di un osservatore umano. Si decide quindi di abbinare procedure di determinazione di aree di “spot
of attention” a procedure di estrazione degli oggetti presenti in una scena, in modo da distinguerne
quelli così detti “in primo piano”. Ciò comporta in particolare l’integrazione di modelli del sistema
visivo umano con un opportuno algoritmo di segmentazione, sperimentalmente coerente con quanto
percepito a livello della scena in termini di regioni estratte.
Il frame viene segmentato in regioni dalle caratteristiche omogenee e coerenti con la cognizione
dell’osservatore ed in un secondo momento, vengono selezionate fra le regioni individuate quelle
che soddisfano i criteri scelti di rilevanza percettiva.
A valle di tutte queste considerazioni, sintetizziamo le misurazioni e le informazioni percettive
rilevate per identificare la presenza e classificare la tipologia di sfocatura presente in una
determinata immagine. Vengono descritte le caratteristiche delle diverse tipologie di sfocatura di
interesse per il presente lavoro e in quale modo possono essere riconosciute e quantificate seguendo
la traccia di analisi finora descritta: in particolare, vengono riconosciute la sfocatura nativa, estesa
in ampie zone dell’immagine e prodotta da cattiva acquisizione o volutamente introdotta
dall’operatore, e quella da codifica.
In presenza di sfocatura da codifica, vediamo come ne siano particolarmente affetti i bordi degli
oggetti presenti nella scena e non particolarmente netti, così come le tessiture ed altri dettagli fini.
Tessiture e dettaglio fine corrispondono infatti a rapide variazioni di intensità ma di ampiezza
contenuta, per questo la trasformata DCT e la quantizzazione successiva propria della codifica
penalizzano soprattutto tali frequenze più elevate. Basandoci su queste osservazioni, viene proposta
una tecnica per la stima locale della sfocatura grazie all’analisi dei bordi e del dettaglio nella
componente di luminanza dell’immagine. Questo è possibile ricorrendo all’utilizzo di un operatore,
ovvero la diffusione anisotropa, che si rivela particolarmente adatto a simulare gli effetti della
sfocatura da identificare, in modo da capire se questa ha già avuto effetto sull’immagine di test o
meno.
L’efficacia della metrica proposta nella stima della sfocatura viene quindi sperimentalmente
analizzata. Per prima cosa i “frame” vengono raggruppati secondo criteri oggettivi, come ad
esempio la presenza di sfocatura e la sua origine, esaminando la corrispondenza fra il valore
calcolato della metrica e la categoria oggettiva del “frame” in esame. Successivamente, viene
studiata la relazione fra metrica e stima complessiva di qualità, confrontata con giudizi di
osservatori umani, sempre in relazione alla tipologia di sfocatura corrispondente. Si procede
quindi con una seconda fase sperimentale atta a verificare la validità soggettiva delle
considerazioni fatte in caso di sfocatura da codifica analizzata a livello locale e confrontata con
valutazioni percettive. Diversi risultati sperimentalmente ottenuti vengono presentati nel capitolo
dedicato.
Per completare lo studio proposto, infine, si analizza brevemente altre possibili applicazioni di
algoritmi di analisi della qualità dell’immagine, diversi dal principale ambito di analisi
riguardante la multimedialità.
In particolare, uno dei settori che maggiormente sta acquisendo importanza in termini di ricerca
riguarda proprio le applicazioni alle scienze forensi, con le problematiche ad essa relative e
prevalentemente inerenti il miglioramento della qualità dell’immagine finalizzata e/o preventiva
al riconoscimento di volti e tracce contenute nell’immagine in esame, da sottoporre ad un
operatore esperto o ad un algoritmo di riconoscimento automatico.
Una prima analisi di qualità dell’immagine da sottoporre a riconoscimento può rappresentare
quindi un importante passo da eseguire preventivamente ad altri tipi di operazioni, anche per
ottenere una stima di attendibilità di quanto poi effettuabile in termini di miglioramento e
riconoscimento: in corrispondenza ad un basso livello di qualità, corrispondente a tracce
realmente rilevate sulla scena del crimine, viene proposto infine un algoritmo di riconoscimento
rivolto a un tipo di tracce molto specifico, ovvero quelle di calzatura, che si dimostra
particolarmente robusto al rumore e particolarmente adatto a lavorare sul caso reale, come
metodologia indipendente o in combinazione con algoritmi già esistenti nello stato dell’arte.