Deep Learning

Una tecnología clave para el futuro

Cada año la cantidad de datos que generamos crece exponencialmente. Ese aumento vertiginoso de información es el insumo para mejorar y refinar los algoritmos que utilizamos a diario y hacer más eficientes los procesos de análisis de datos.

La Certificación Avanzada en Deep Learning de la Escuela de Innovación del ITBA te permitirá obtener una comprensión clara de los algoritmos más eficientes del ámbito del Machine Learning y el Deep Learning. Obtendrás herramientas para tomar decisiones basadas en datos y resolver problemas específicos y de relevancia para las industrias, a través de la Inteligencia Artificial.

Las habilidades que desarrollarás:

  1. Manejo de técnicas de aprendizaje automático y de modelos probabilísticos.
  2. Entendimiento de puesta en producción y técnicas de medición de performance.
  3. Clasificación de datos para realizar predicciones.
  4. Diseño de arquitecturas para implementar soluciones modernas a problemas de AI.
  5. Aplicación de herramientas de python a machine learning.

Para recibir más información, contactanos a través del formulario de consulta

Inicio mail de bienvenida: consultar

Fin: 
consultar

Cursada:
martes de 18:00 a 21:00 hs (UTC-3)

Duración: 40 semanas (180 hs.)
Modalidad: Virtual

Precio: consultar

Medios de Pago: Paypal o Bitso

PERFIL DEL PARTICIPANTE

L
Profesionales que quieran desarrollar proyectos de investigación en computer vision, natural Language processing, recommender systems, algoritmos de búsqueda y reinforced learning aplicado a resolver juegos y filtros de kalman y localización, entre otras.
L
Profesionales que quieran obtener herramientas de machine learning para mejorar procesos de toma de decisiones.
L
Entre los antiguos participantes ha habido consultores, profesionales de las áreas de sistemas, ingeniería y economía.
L
No hay prerequisitos para este programa, aunque se recomienda contar con nivel básico de inglés para entender material técnico.

Plan de estudios

Módulo 1: Laboratorio de Probabilidad y Estadística en Python.

1. 

a.Anaconda
b.Introducción a pandas, matplotlib, python, jupyter y numpy.
c.Jupyter notebooks. Ejemplos. Edición de scripts de python.
d.Python: Introducción, ejemplos básicos
e.GIT: Utilización de repositorios
f.Python: Listas, Diccionarios, Loops, Funciones, Condicionales, Glob.
g.Ejercitación

2. 
a.Uso avanzado de listas y diccionarios
b.Clases y objetos
c.Análisis de datos básico con numpy, matplotlib y pandas
d.Ejercitación

3.

a.Probabilidad: Espacio muestral, distribución de probabilidades, frecuencia, frecuencia relativa, propiedades. eventos mutuamente excluyentes, probabilidad marginal, eventos independientes, probabilidad condicional.
b.Teorema de Bayes
c.Ejercitación y ejemplos en Python de probabilidad

4.

a.Aplicación de probabilidad en Python: Naive Bayes. Detección de SPAM
b.Distribuciones continuas, distribución gaussiana
c.Naive Bayes Gaussiano
d.Ejercitación sobre Naive Bayes

5.

a.Algebra Vectorial
b.Topic Análisis con Numpy:
c.Vectorizers en Python
d.Numpy, Matplotlib y Pandas avanzado

Módulo 2: Laboratorio de Machine Learning.

 

<strong>1. Introducción del curso:
</strong>a.Descripción general de la materia y objetivos
b.Mostrar ejemplos como motivación
i.Ejemplo de proyectos
ii.Aplicaciones para la industria
1.Discusión de propuestas de los alumnos
c.Kaggle
d.Análisis de datos con Python
i.Pandas
ii.Numpy
iii.Scipy
iv.Matplotlib (Holoviews)
v.Jupyter Notebook
e.Git<strong>
</strong>

 

<strong>2. Repaso de probabilidad</strong>

 

<strong>3. Introducción a Machine Learning
</strong>a. Aprendizaje supervisado
i. Ejemplos con técnicas a utilizar en el curso
b. Aprendizaje no supervisado
i. Ejemplos con técnicas a utilizar en el curso
c. Reinforce learning
i. Ejemplos<strong>
</strong>

 

<strong>4. Aprendizaje supervisado</strong>
a. Regresión Lineal
b. Gradient descent
c. Regresión Logística
d. Redes neuronales
i. Percepción simple
ii. Backpropagation
e. SVM
f. Matrix Factorization
i. SVD
ii. NMF
iii. Topic Modeling
iv. Language Models

 

<strong>5. Técnicas de regularización</strong>
a. Overfitting
b. Generalización
c. LASSO and Ridge, early stop
d. BIC, DIC, CV K-fold

 

<strong>6. Aprendizaje no supervisado</strong>
a. K-means
b. PCA
c. Redes neuronales
i. SOM
ii. Regla de Oja
iii. T-SNE

 

<strong>7. Sistemas de recomendación</strong>
a. Content-Based filtering
b. Collaborative filtering
i. User – User
ii. Item – Item
c. Evaluación y métricas
Módulo 3: Laboratorio de Computer Vision.

1. Convolución:
a. Fundamento teórico. Ejemplos en la vida diaria.
b. Convolución en audio.
c. Convolución en imágenes.
d. nterpretación.

2. Redes Neuronales Convolucionales (CNN)
a. Invariancia a la traslación
b. Arquitectura de una CNN
c. Convolución de imágenes 3-D
d. Conecciones residuales
e. Transfer learning, modelos preentrenados
f. Interpretación de las capas convolucionales

3. Detección de objetos en imágenes y videos
a. Arquitecturas
b. Generadores
c. Sliding Windows usando CNN
d. Anchor Boxes
e. YOLO v1, v2 y v3
f. Métodos de entrenamiento

4. Segmentación de imágenes
a. Planteamiento del problema
b. U-NET
c. U-NET con conecciones residuales

Módulo 4: Laboratorio de Natural Language Processing.

1. Redes Neuronales Recurrentes (RNN)
a. Topologías: Many to One, One to Many, Many to Many, Seq2Seq
b. Stateless y Statefull RNN
c. Simple RNN
d. Exploding y Vanishing Gradient
e. Ejemplos

2. Long Short Term Memory y Gated Recurrent Unit
a. Estructura interna
b. Clasificación de texto
c. Sentiment Analysis
d. Neural Translation Machines (Traductores)

3. Word Embeddings
a. Glove
b. Word2Vec
c. Aplicaciones

4. Bidirectional RNNs
a. Clasificación de Imágenes
b. NTM con WordEmbeddings
c. Attention
5. Image Captioning

Módulo 5: Laboratorio de Reinforcement Learning.

1. Introducción
a. Modelo, Estado, Acción y Recompensa

2. Markov Decision Process
a. Política
b. Funciones de Valor (V y Q)
c. Optimización

3. Programación Dinámica

4. Método de Montecarlo

5. Temporal Difference Learning

6. Métodos de Aproximación

7. TD Lambda

8. Policy Gradient

9. Deep Q Learning

10. A3C

Conocé los coordinadores académicos

Julián Ganzabal

Ingeniero Electrónico (ITBA) desarrollando tareas en el área de machine learning en la industria tales como sistemas de recomendación, ‘computer vision’ y ‘topic modeling’.

Más de 10 años de experiencia docente en el ITBA y la UBA en materias relacionadas con procesos estocásticos, telecomunicaciones y networking.

Carlos Selmo

Ingeniero Electrónico (ITBA) desarrollando tareas en el área de procesamiento de señales y machine learning en el Grupo de Electrónica Digital Aplicada (GEDA). Profesor adjunto de materias en el área de procesamiento de señales, bio-electrónica y sistemas digitales. Entre ellas Redes Neuronales y Redes Neuronales en Bioingeniería.

Para recibir más información, contactanos a través del formulario de consulta