ComunicazioniAppello sessione invernale29-01-2017 17:52
L'appello di esame della sessione invernale avrà luogo martedì 28-2-2017 alle ore 14 nello studio del docente.
| 11-06-2016 14:39
I materiali messi a disposizione degli studenti saranno accessibili alla seguente cartella dropbox (aprire il link in una diversa finestra)
| Date esami sessione estiva24-05-2016 22:11
I due appelli di esame della sessione estiva avranno luogo, rispettivamente, venerdì 24-6 e lunedì 25-7, in entrambi i casi alle ore 10 nello studio del docente.
| 26-03-2016 11:25
Si comunica che, successivamente alla pausa per la Pasqua, le lezioni riprenderanno venerdì 1 Aprile.
| 21-03-2016 14:17
Per motivi di salute, la lezione di martedì 22 marzo è rimandata a data da definire. Le lezioni riprenderanno dopo le vacanze pasquali.
| 09-03-2016 18:33
Nella cartella 'Libri', all'interno della cartella dropbox condivisa, sono disponibili alcuni testi di Machine learning e di programmazione Python liberamente disponibili su Internet
| 09-03-2016 18:30
All'indirizzo http://pybrain.org/ è disponibile la documentazione di PyBrain, package Python per la definizione di reti neurali
| 09-03-2016 18:29
All'indirizzo http://scikit-learn.org/stable/ è disponibile la documentazione di scikit-learn, package Python di machine learning
| 09-03-2016 18:27
All'indirizzo http://www.scipy-lectures.org/ sono disponibili tutorial sui package Numpy, Scipy, Matplotlib
| 09-03-2016 18:25
All'indirizzo https://www.continuum.io/downloads è disponibile l'ambiente di programmazione Python Anaconda: include l'editor Spyder
| 09-03-2016 18:23
All'indirizzo https://store.enthought.com/downloads è disponibile l'ambiente Enthought Canopy di programmazione Python: è prevista una academic license per docenti e studenti.
| 09-03-2016 18:18
Al seguente indirizzo, documentazione sui package Pyhton Numpy, Scipy, Matplotlib, Pandas e sull'ambiente IPython |
Lezioni3 | 15-03-2016
Cenni di statistica bayesiana. Distribuzioni coniugate. Esempi. Model fitting: maximum likelihood, maximum a posteriori. Modelli di previsione: approccio fully bayesian. | 2 | 09-03-2016
Esempio di regressione polinomiale. Overfitting. Utilizzo di funzioni di penalità. Richiami di probabilità. | 1 | 08-03-2016
Aspetti organizzativi del corso. Introduzione all'apprendimento automatico. Supervised e unsupervised learning. |
Materiale didattico | InformazioniAnno accademico | 2015-2016 |
---|
Crediti | 9 |
---|
Settore | INF/01 |
---|
Anno | 2 |
---|
Semestre | 2 |
---|
Propedeuticità | Nessuna |
---|
ProgrammaPattern recognition e machine learning. Schema generale di un sistema di ML. Inferenza. Apprendimento supervisionato e non supervisionato. Regressione lineare. Funzioni base e regressione. Overfitting e funzioni di penalizzazione. Model selection. Introduzione alla teoria delle decisioni. Classificazione: approcci (funzioni di discriminazione, modelli probabilistici discriminativi, modelli probabilistici generativi). Riduzione di dimensionalità e feature selection. Il modello connessionistico. Reti neurali a più strati. Apprendimento di reti neurali. Optimal margin classifiers e support vector machines. Funzioni kernel. Metodi non parametrici per la stima di probabilità: applicazione alla classificazione. Apprendimento non supervisionato. Clustering. Algoritmo k-means. Modelli di mistura di distribuzioni. Modelli a variabili latenti e algoritmo EM. Modello probabilistico di PCA. Factor analysis. Ensemble methods. Modelli statistici del testo. LSA, PLSA, Topic models. Utilizzo di strumenti in ambiente Python per l'analisi e l'apprendimento da dataset reali. |
Testi di riferimentoC. M. Bishop "Pattern recognition and machine learning", Springer |
Ricevimento studentiAl termine delle lezioni. E' possibile inoltre richiedere un appuntamento via mail. |
Modalità di esameColloquio orale. E' previsto un progetto di applicazione di metodi di ML ad uno specifico problema e la redazione della relativa relazione. Per l'iscrizione all'esame è richiesta la prenotazione sul sito delphi.uniroma2.it |
|