Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Presentazione Valutazione di descrittori per il rilevamento automatico di nuclei cellulari in immagini di microscopia a fluorescenza
1. UNIVERSITA’ DEGLI STUDI DI TRIESTE
FACOLTA’ DI INGEGNERIA
CORSO DI LAURE SPECIALISTICA IN INGEGNERIA
INFORMATICA
Tesi di laurea
“VALUTAZIONE DI DESCRITTORI PER IL RILEVAMENTE
AUTOMATICO DI NUCLEI CELLULARI IN IMMAGINI DI
MICROSCOPIA A FLUORESCENZA”
Laureando Relatore
Paolo Fabris Felice Andrea Pellegrino
Correlatore
Walter Vanzella
4. Introduzione: obbiettivi del progetto
Obbiettivi:
• Automatizzare la ricerca di nuclei cellulari in immagini
di microscopia a flurescenza
Vantaggi:
• Riduzione del tempo richiesto per portare a termine
le indagini
• Oggettività dei criteri (ripetibilità dei risultati)
8. Introduzione: problemi da affrontare
Classificazione:
• Oggetti molto diversi fra loro (per nuclei cellulari e
non)
• Elevata soggettività nella classificazione manuale
(10.2273% di scostamento tra le classificazioni
manuali)
10. Algoritmo: strategia di fondo
Passi di elaborazione:
• Rimozione della luminosità non uniforme
• Estrazione delle ROI
• Calcolo delle feature
• Algoritmo d’apprendimento
Implementazione:
• Ambiente MATLAB
• mex libsvm (elaborazione parallela su CPU)
• mex CUDA C (elaborazione parallela su GPU)
14. Algoritmo: estrazione dei punti d’interesse
Strategia:
• Filtraggio DOG
• Sogliatura globale sull’immagine filtrata
• Individuazione dei massimi locali
Vantaggi rispetto al filtro LOG:
• Semplicità d’implementazione
• Velocità di computazione
• Buona approssimazione del filtro LOG per
16. Algoritmo: estrazione delle ROI
Strategia:
• Segmentazione (con procedura watershed) che
associa a ogni punto d’interesse un blob
• Genera ROI quadrata centrata nel punto d’interesse
• Trasla il contenuto in modo che il centro di massa (del
blob associato) coincide con il centro della ROI
• Rimuove oggetti indesiderati con la funzione
sigmoidale
17. Algoritmo: feature
Prorpietà da garantire per le feature:
• Invarianza alla traslazione (centro di massa)
• Invarianza alla rotazione
• Varianza per scala
Vantaggi:
• Definizione accurata del modella della macchina
d’apprendimento dopo la fase di addestramento e
minimizzazione dell’errore per separare
opportunamente le osservazioni
18. Algoritmo: feature, invarianza per rotazione
Strategia:
• Filtraggio gaussiano
• Calcolo del vettore gradiente nel centro della ROI
• Individuazione dell’orientazione dell’oggetto (in base
all’orientazione del vettore gradiente)
• Rotazione del contenuto della ROI per portare
l’oggetto a orientazione zero
Vantaggi:
• Semplice da implementare
• Veloce da computare
• Molto efficace per individuare l’orientazione
dell’oggetto da analizzare nella ROI
19. Algoritmo: feature
Tipi di feature:
• ShapeIntensity
• Zernike
• AFMT (approssimazioni discrete con FAFMT e DAFMT)
• DCT
20. Algoritmo: macchina d’apprendimento SVM
Vantaggi:
• Costo computazionale ridotto e nessun problema di
convergenza
• Compatta l’informazione nei vettori di supporto
• Gestisce dati con molte caratteristiche descrittive
• Complessità del classificatore binario legata ai vettori
di supporto (no allo spazio delle feature) e ridotto
overfitting
SVM:
• Mappa le osservazioni in uno spazio multidimensionale
• Individua l’iperpiano di separazione che massimizza il
margine (ridotto overfitting)
21. Algoritmo: macchina d’apprendimento SVM,
valutazione delle prestazioni con curve ROC
Vantaggi:
• Indipendenza delle curve alla variazione delle
proporzioni tra le distribuzioni delle due classi
(osservazioni positive e negative) se le prestazioni
effettive della macchina non cambiano
Matrice di confusione
Golden test
Test Classe 1 (ROI positiva) Classe 2 (ROI
negativa)
Y TP FP
N FN TN
22. ;
;
Algoritmo: macchina d’apprendimento SVM,
; valutazione delle prestazioni con curve ROC
.
Metriche comuni:
24. ;
;
Algoritmo: macchina d’apprendimento SVM,
; valutazione delle prestazioni con curve ROC
.
AUC, capacità discriminante in un test (Swets):
• AUC = 0.5 test non informativo
• 0.5 < AUC <= 0.7 test poco accurato
• 0.7 < AUC <= 0.9 test moderatamente accurato
• 0.9 < AUC < 1.0 test altamente accurato
• AUC = 1.0 test perfetto
26. Benchmark: considerazione
• Si ha a disposizione un insieme di 132 immagini su cui
calibrare il filtro DOG e addestrare la macchina
d’apprendimento (4704 nuclei cellulari classificati
manualmente)
• Differenza nel caso di classificazione manuale tra gli
esperti del 10.2273%
• Nella calibrazione del filtro DOG si ha che con i
parametri migliori non si rivelano 2.5751% landmark
• Nei grafici seguenti si comparano le macchina
d’apprendimento addestrate sul training set con i
migliori parametri rilevati dall’algoritmo (AUC
massima)
32. Conclusioni: osservazioni
• Con feature FAFMT e kernel RBF si hanno le
prestazioni migliori nel rilevamento di nuclei cellulari
• ShapeIntensity migliore per kernel polinomiale e
sigmoidale; quasi migliore per RBF a dimostrazione
del fatto che i descrittori impiegati mettono in risalto
gli aspetti salienti degli oggetti
• Nel caso peggiore si ha un errore nel conteggio di -
7.5026 (causa immagini troppo rumorose)
• L’errore medio nel conteggio è di 4.1834% (buon
comportamento dell’algoritmo nonostante il termine
soggettivo non trascurabile in classificazione
manuale)
33. Conclusioni: sviluppi futuri
• Testare nuove feature, in particolare aggiungere nuovi
descrittori alla ShapeIntensity
• Impiegare una tecnica più efficace della funzione
sigmoidale per rimuove gli oggetti indesiderati in una
ROI
• Libreria MKLAB che implementa libsvm per kernel RBF
in CUDA C
• Riscrivere eventualmente le mex CUDA C in OpenCL
per rendere l’applicazione indipendente dal
produttore della GPU (NVIDIA)