Machine learning

Docente: Giorgio Gambosi

Comunicazioni

15-01-2018 16:42

Gli appelli per la sessione invernale avranno luogo martedì 13-2-2018 e martedì 27-2-2018, in entrambi i casi alle ore 10 nello studio del docente


Esami sessione autunnale

10-07-2017 11:22

Gli appelli per la sessione estiva avranno luogo giovedì 14-9-2017 e giovedì 28-9-2017, in entrambi i casi alle ore 10 nello studio del docente


Esami sessione estiva

29-05-2017 15:24

Gli appelli per la sessione estiva avranno luogo venerdì 23-6-2017 e giovedì 20-7-2017, in entrambi i casi alle ore 10 nello studio del docente


15-05-2017 12:34

Le lezioni previste per la settimana dal 15-5-2017 al 19-5-2017 sono annullate. La prossima lezione sarà tenuta martedì 23-5-2017


12-04-2017 14:41

La lezione prevista per domani, 13-4-2017, è rimandata a data successiva da definire.


10-04-2017 17:06

La lezione prevista per domani, 11-4-2017, è rimandata a data successiva da definire.


23-03-2017 11:03

La lezione prevista per oggi, 23-3-2017, è rimandata a data successiva da definire.


17-03-2017 00:15

Una serie di tutorial su scikit-learn è disponibile all'indirizzo http://www.datasciencecentral.com/profiles/blogs/scikit-learn-tutorial-series


16-03-2017 20:51

Per chi fosse interessato a testi a carattere non tecnico, inerenti le tematiche del corso, si suggeriscono:

  • P. Domingos “L’Algoritmo Definitivo: La macchina che impara da sola e il futuro del nostro mondo” Bollati  Boringhieri 2016
  • C. O’Neil “Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy”  Allen Lane 2016
  • S. Bertsch McGrayne “The Theory That Would Not Die: How Bayes' Rule Cracked the Enigma Code, Hunted Down Russian Submarines, and Emerged Triumphant from Two Centuries” Yale Univ. Press 2012

14-03-2017 23:15

Le lezioni del corso, a partire dal 16-3-2017, avranno luogo il martedì alle 11.30 in aula G2A e il giovedì alle 14.30 in aula 7.


06-03-2017 15:05

Nella cartella 'Libri', all'interno della cartella dropbox condivisa, sono disponibili alcuni testi di Machine learning e di programmazione Python liberamente disponibili su Internet


06-03-2017 15:00

All'indirizzo http://jupyter.org/ sono disponibili informazioni sull'ambiente Jupyter Notebook


06-03-2017 14:58

I materiali messi a disposizione degli studenti saranno resi man mano accessibili alla seguente cartella dropbox (aprire il link in una diversa finestra)


06-03-2017 14:43

All'indirizzo http://www.scipy-lectures.org/ sono disponibili tutorial sui package Python Numpy, Scipy, Matplotlib


06-03-2017 14:42

All'indirizzo https://www.continuum.io/downloads è disponibile l'ambiente di programmazione Python Anaconda: include l'editor Spyder


06-03-2017 14:41

All'indirizzo https://store.enthought.com/downloads è disponibile l'ambiente Enthought Canopy di programmazione Python: è prevista una academic license per docenti e studenti. 


06-03-2017 14:40

All'indirizzo http://scikit-learn.org/stable/documentation.html sono disponibili documnetazione e tutorial del framework scikit-learn


06-03-2017 14:38

Al seguente indirizzo è accessibile documentazione sui package Pyhton Numpy, Scipy, Matplotlib, Pandas e sull'ambiente IPython


Lezioni

1018-04-2017

Linear discriminant analysis. Perceptron 

906-04-2017

Classificazione lineare. Tipi di approcci al problema. Classificazione mediante regressione lineare.

804-04-2017

Soluzioni fully bayesian per le regressione lineare. Kernel equivalente

730-03-2017

Approcci bayesiani alla regressione lineare. MAP

628-03-2017

Modello probabilistico della regressione lineare. Massima verosimiglianza per RL. Decomposizione errore sistematico - varianza

523-03-2017

Cenni di teoria dell'informazione. Utilizzo dell'informazione mutua per la selezione di feature. Regressione lineare. Funzioni base. Regolarizzazione.

421-03-2017

Bayesian learning: Maximum a posteriori (MAP) e metodi fully bayesian. Esempi: i modelli Beta-Bernoulli e Dirichlet-multinomiale. Applicazione ai modelli di linguaggio. Classificatori Naive-Bayes di documenti.

316-03-2017

Richiami di probabilità e statistica bayesiana. Applicazione della formula di Bayes al learning. Distribuzioni coniugate.

214-03-2017

Introduzione al machine learning. Modelli parametrici. Funzioni di costo. Esempio: regressione polinomiale. Minimi quadrati. Overfitting e regolarizzazione. Un modello probabilistico per la regressione. Massimizzazione della verosimiglianza.

109-03-2017

Esempio di progetto

006-03-2017

Introduzione al corso


Materiale didattico

Informazioni

Anno accademico2016-2017
Crediti9
SettoreINF/01
Anno2
Semestre2
PropedeuticitàNessuna

Programma

Pattern recognition e machine learning. Schema generale di un sistema di ML. Inferenza. Apprendimento supervisionato e non supervisionato. Regressione lineare. Funzioni base e regressione. Overfitting e funzioni di penalizzazione. Model selection. Introduzione alla teoria delle decisioni. Classificazione: approcci (funzioni di discriminazione, modelli probabilistici discriminativi, modelli probabilistici generativi). Riduzione di dimensionalità e feature selection. Il modello connessionistico. Reti neurali a più strati. Apprendimento di reti neurali. Optimal margin classifiers e support vector machines. Funzioni kernel. Metodi non parametrici per la stima di probabilità: applicazione alla classificazione. Apprendimento non supervisionato. Clustering. Algoritmo k-means. Modelli di mistura di distribuzioni. Modelli a variabili latenti e algoritmo EM. Modello probabilistico di PCA. Factor analysis. Ensemble methods. Modelli statistici del testo. LSA, PLSA, Topic models. Utilizzo di strumenti in ambiente Python per l'analisi e l'apprendimento da dataset reali.


Testi di riferimento

C. M. Bishop "Pattern recognition and machine learning", Springer


Ricevimento studenti

Al termine delle lezioni. E' possibile inoltre richiedere un appuntamento via mail.


Modalità di esame

Colloquio orale. E' previsto un progetto di applicazione di metodi di ML ad uno specifico problema e la redazione della relativa relazione. Per l'iscrizione all'esame è richiesta la prenotazione sul sito delphi.uniroma2.it