cvprlab

 
Home Teaching

Riconoscimento e classificazione di forme

E-mail Print PDF

Docente: Alfredo Petrosino


Obiettivi del Corso

II corso ha lo scopo di fornire all'allievo la conoscenza dei principali metodi del "pattern recognition" e dei suoi settori di applicazione. Verranno illustrati i principali metodi ed algoritmi dell'approccio statistico e le Reti Neurali, e le metodiche di base per la progettazione e valutazione delle prestazioni di un sistema di "pattern recognition". L’attività di laboratorio prevede l’implementare e sperimentazione di algoritmi di riconoscimento di forme di media complessità su dati provenienti da diversi campi applicativi (biometria, sicurezza su rete, ambiente, etc.).


Programma del corso

Introduzione: Esempi di problemi di classificazione. Estrazione di feature e classificatore. Feature numeriche (discrete o continue), simboliche e qualitative. Esempi di estrazione di feature. Funzione discriminante. Approcci intuitivi: linea di separazione, superficie di separazione, caratterizzazione statistica della distribuzione. Classificazione su dati statici e dinamici. Richiamo di elementi di statistica multivariata. La Normale multivariata.

Apprendimento Supervisionato: Teoria Bayesiana delle decisioni Teorema di Bayes. Rischio Bayesiano, probabilita' di errore, equal error rate. Classificazione: 2-classi vs c-classi. Superfici di separazione. Funzioni discriminanti: il caso notevole della Normale: template matching, classificatori a minima distanza, discriminante lineare.

Stimatori parametrici: Apprendimento supervisionato. Nozione di stimatore parametrico nel caso supervisionato. Stima a massima verosimiglianza (ML). Stima ML per i parametri della Normale. Validazione e generalizzazione: error rate e equal error rate; training, validation e test set; leave-1-out; many-fold crossvalidation; Bootstrap.

Stimatori nonparametrici: Elementi su density estimation. Metodo della Parzen Window e Kn-nearest neighbor. Algoritmi nearest neighbor (NN) e k-NN. Discriminante lineare di Fisher. Discriminanti lineari (superfici di separazione 2-class/c-class; funzioni discriminanti lineari generalizzate; separabilita' e non-separabilita'; algoritmo di Widrow-Hoff; relazione con i Simple Perceptron); reti neurali artificiali (ANN); MLP e backpropagation; funzioni a base radiale (RBF);universalita'; interpretazioni probabilistichedelle reti neurali; relazioni tra MLP e classificatori Bayesiani; elementi di generalizzazione e regolarizzazione.

Apprendimento Non Supervisionato: Misture di densita', identificabilita', stima ML unsupervised. Stima ML per misture di componenti Gaussiane. Approccio algoritmico iterativo: algoritmo k-means. Clustering: misure di similarita', ottimizzazione iterativa, clustering partitivo, clustering gerarchico (agglomerativo, divisivo). ANN competitive e loro relazione con k-means; ANN a ML per stima di densità di probabilità.


Materiale didattico

Le presentazioni multimediali (formato .pdf) di tutte le lezioni sono disponibili on line attraverso la piattaforma di e-learning della Facoltà di Scienze e Tecnologie


Testi

DUDA O., HART P. E., STORK D. G., “Pattern Classification - Second Edition". J. Wiley, 2001. BISHOP C., "Neural Networks for Pattern Recognition". Oxford University Press.


Modalità d'esame

L'esame consiste nello svolgimento di un progetto, nella sua discussione e di una prova orale.

 


 

Per informazioni:

Prof. Alfredo Petrosino This e-mail address is being protected from spambots. You need JavaScript enabled to view it

 
 

ICIAP 2013

17th International Conference on
Image Analysis and Processing
September 11-13, 2013 Naples, Italy
 

PhD Studentship in Machine Learning for Computer Vision

 

 

Events & Announcements