Metodos actuales en machine learning

Pablo Granitto y Lucas C. Uzal, CIFASIS, Rosario, Argentina.

Descripción:

De acuerdo a Andrew Ng, Machine Learning es la ciencia de lograr que las computadoras realicen tareas sin programarlas explícitamamente para eso. La importancia actual de Machine Learning es muy conocida, y sus logros en los últimos años muy destacados, desde autos que se manejan solos en una ciudad a las aplicaciones de reconocimiento de voz presentes en todos los smartphones.

En este curso se discutirán algunas de las técnicas introducidas en los últimos tiempos en este área, las que más impacto han tenido, y las que están actualmente liderando el desarrollo tecnológico.

Contenidos:

1. Introducción. Repaso de métodos tradicionales: Arboles de decisión, k-vecinos, Metodos estadísticos.
2. Métodos de ensamble: Introducción. Filosofía y taxonomía de los ensambles. Modelos promediados: Bagging y Random Forest. Modelos aditivos: Boosting. Modelos jerárquicos: Cascadas.
3. Métodos de kernel: Introducción. Modelos lineales. Kernels. Support Vector Machines. Extensiones.
4. Redes Neuronales. Historia. Primera ola: el perceptrón. Segunda ola: Redes de dos capas, back-propagation.
5. Tercera Ola: Redes profundas, redes convolucionales. Pre-entrenamiento no supervisado. Dropout. Aplicaciones.

Bibliografía:

N. Jones. Computer science: The learning machines. Nature 505, 146–148, 2014.
Y. Bengio, A. Courville y P. Vincent. Representation Learning: A Review and New Perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35.8, 1798-1828, 2013.
J. Schmidhuber. Deep Learning in Neural Networks: An Overview. arXiv preprint arXiv:1404.7828. 2014.
A. Krizhevsky, I. Sutskever y G.E. Hinton. ImageNet Classification with Deep Convolutional Neural Networks. Proceedings NIPS. 2012.
R. O. Duda, P. E. Hart y D. G. Stork. Pattern Classification, Second Edition. John Wiley & Sons, 2000.
T. Hastie, R. Tibshirani y J. Friedman. The Elements of Statistical Learning, Second Edition. Springer, New York, 2011.
N. Cristianini y J. Shawe-Taylor. An introduction to support vector machines and other kernel-based learning methods. Cambridge university press, 2000.
L. Breiman. Random forests. Machine learning, 45.1 (2001): 5-32.
Y. Freund y R.E. Schapire. A decision-theoretic generalization of on-line learning and an application to boosting. Journal of computer and system sciences 55.1 (1997): 119-139.

 pie-paginas.jpg