Machine learning

Docente: Giorgio Gambosi

Comunicazioni

Appello sessione invernale

29-01-2017 17:52

L'appello di esame della sessione invernale avrà luogo martedì 28-2-2017 alle ore 14 nello studio del docente.


11-06-2016 14:39

I materiali messi a disposizione degli studenti saranno accessibili alla seguente cartella dropbox (aprire il link in una diversa finestra)


Date esami sessione estiva

24-05-2016 22:11

I due appelli di esame della sessione estiva avranno luogo, rispettivamente, venerdì 24-6 e lunedì 25-7, in entrambi i casi alle ore 10 nello studio del docente.


26-03-2016 11:25

Si comunica che, successivamente alla pausa per la Pasqua, le lezioni riprenderanno venerdì 1 Aprile.


21-03-2016 14:17

Per motivi di salute, la lezione di martedì 22 marzo è rimandata a data da definire. Le lezioni riprenderanno dopo le vacanze pasquali.


09-03-2016 18:33

Nella cartella 'Libri', all'interno della cartella dropbox condivisa, sono disponibili alcuni testi di Machine learning e di programmazione Python liberamente disponibili su Internet


09-03-2016 18:30

All'indirizzo http://pybrain.org/ è disponibile la documentazione di PyBrain, package Python per la definizione di reti neurali


09-03-2016 18:29

All'indirizzo http://scikit-learn.org/stable/ è disponibile la documentazione di scikit-learn, package Python di machine learning


09-03-2016 18:27

All'indirizzo http://www.scipy-lectures.org/ sono disponibili tutorial sui package Numpy, Scipy, Matplotlib


09-03-2016 18:25

All'indirizzo https://www.continuum.io/downloads è disponibile l'ambiente di programmazione Python Anaconda: include l'editor Spyder


09-03-2016 18:23

All'indirizzo https://store.enthought.com/downloads è disponibile l'ambiente Enthought Canopy di programmazione Python: è prevista una academic license per docenti e studenti. 


09-03-2016 18:18

Al seguente indirizzo, documentazione sui package Pyhton Numpy, Scipy, Matplotlib, Pandas e sull'ambiente IPython


Lezioni

315-03-2016

Cenni di statistica bayesiana. Distribuzioni coniugate. Esempi. Model fitting: maximum likelihood, maximum a posteriori. Modelli di previsione: approccio fully bayesian.

209-03-2016

Esempio di regressione polinomiale. Overfitting. Utilizzo di funzioni di penalità. Richiami di probabilità.

108-03-2016

Aspetti organizzativi del corso. Introduzione all'apprendimento automatico. Supervised e unsupervised learning.


Materiale didattico

Informazioni

Anno accademico2015-2016
Crediti9
SettoreINF/01
Anno2
Semestre2
PropedeuticitàNessuna

Programma

Pattern recognition e machine learning. Schema generale di un sistema di ML. Inferenza. Apprendimento supervisionato e non supervisionato. Regressione lineare. Funzioni base e regressione. Overfitting e funzioni di penalizzazione. Model selection. Introduzione alla teoria delle decisioni. Classificazione: approcci (funzioni di discriminazione, modelli probabilistici discriminativi, modelli probabilistici generativi). Riduzione di dimensionalità e feature selection. Il modello connessionistico. Reti neurali a più strati. Apprendimento di reti neurali. Optimal margin classifiers e support vector machines. Funzioni kernel. Metodi non parametrici per la stima di probabilità: applicazione alla classificazione. Apprendimento non supervisionato. Clustering. Algoritmo k-means. Modelli di mistura di distribuzioni. Modelli a variabili latenti e algoritmo EM. Modello probabilistico di PCA. Factor analysis. Ensemble methods. Modelli statistici del testo. LSA, PLSA, Topic models. Utilizzo di strumenti in ambiente Python per l'analisi e l'apprendimento da dataset reali.


Testi di riferimento

C. M. Bishop "Pattern recognition and machine learning", Springer


Ricevimento studenti

Al termine delle lezioni. E' possibile inoltre richiedere un appuntamento via mail.


Modalità di esame

Colloquio orale. E' previsto un progetto di applicazione di metodi di ML ad uno specifico problema e la redazione della relativa relazione. Per l'iscrizione all'esame è richiesta la prenotazione sul sito delphi.uniroma2.it