Logo UPV

Todas las actividades del curso académico 2019/2020 que indican horas presenciales se realizarán por medios telemáticos en aulas virtuales. Os seguimos atendiendo online y a través de nuestro teléfono. #QuédateEnCasa

Curso

DEEP LEARNING APLICADO AL ANÁLISIS DE SEÑALES E IMÁGENES

  • Desde: 7/02/20
  • hasta: 29/02/20*
  • Campus de Valencia
  • Presencial

Preinscripción desde el 14/10/19

Horario:

Viernes 7 Febrero: 15:00-20:00
Sábado 8 Febrero: 09:00-14:00
Viernes 14 Febrero: 15:00-20:00
Sábado 15 Febrero: 09:00-14:00
Viernes 21 Febrero: 15:00-20:00
Sábado 22 Febrero: 09:00-14:00
Viernes 28 Febrero: 15:00-20:00
Sábado 29 Febrero: 09:00-14:00

(*) Hasta el para la finalización de trabajos.

Promovido por:
DPTO. DE COMUNICACIONES

Responsable de la actividad:
Valeriana Naranjo Ornedo


Precio Colectivo Plazos Desde Hasta
300,00 € Alumno UPV 1 plazo - -
300,00 € Alumni UPV PLUS o AAA UPV 1 plazo - -
300,00 € Personal UPV 1 plazo - -
500,00 € Público en general 1 plazo - -
500,00 € - Público en general
300,00 € - Alumno UPV
300,00 € - Personal UPV
300,00 € - Alumni UPV PLUS o AAA UPV

Objetivos

Son varios los objetivos que pretende abordar el curso:
1. Dar a conocer al alumno los fundamentos teóricos de la técnica de aprendizaje profundo (Deep Learning en inglés) para la creación de potentes modelos predictivos que aprendan automáticamente los patrones más representativos de los datos.
2. Resolución práctica de casos de estudio típicos enmarcados en el campo de la inteligencia artificial mediante el paradigma del deep learning.
3. Dar a conocer una de las herramientas más intuitivas y accesibles para poner en práctica el entrenamiento de modelos basados en redes neuronales profundas empleando GPUs como es Google Colab en combinación con los frameworks Keras y TensorFlow.

Acción formativa dirigida a

- Estudiantes de grado o recién titulados que estén interesados en la técnica de deep Learning tanto para la creación de modelos predictivos a partir de datos 1D como para el desarrollo de soluciones de clasificación/segmentación en el ámbito de la visión por computador empleando imágenes o vídeos.

- Profesionales del sector de las TIC que necesiten adquirir conocimientos acerca de los fundamentos básicos del aprendizaje profundo y llevarlos a la práctica con el objetivo de automatizar procesos a partir de grandes volúmenes de datos, generando valor para las compañías a las que pertenecen.

- Cualquier otra persona interesada en la programación y en la creación de modelos automáticos destinados a cualquier aplicación dentro de la inteligencia artificial.


Profesores

  • Adrian Colomer Granero Técnico Superior Grado Doctor
  • Valeriana Naranjo Ornedo Catedrático/a de Universidad

Metodología didáctica

Curso teórico-práctico en el que al principio de la sesión se introducen los conceptos teóricos pertinentes al tema a cubrir. Posteriormente dichos conocimientos teóricos se llevan a la práctica por medio de ejemplos y/o casos de estudio empleando la plataforma Google Colab. Finalmente, el alumno debe ser capaz de poner dichos conceptos en práctica por él mismo mediante un micro-proyecto/trabajo final durante las dos últimas sesiones del curso.
El lenguaje de programación empleado será Python y se hará uso de las librerías Keras y TensorFlow para poner en práctica la técnica de aprendizaje profundo.

Temas a desarrollar

Sesión 1
Teoría 1. Fundamentos de redes neuronales (2h30)
- Introducción a las redes neuronales
- Descenso por gradiente
- Algoritmo perceptrón
- Fordward and backward propagation
Práctica 1. Fordward & backpropagation: Evaluando el perceptrón con funciones lógicas (2h30)
o Introducción a Python
o Entorno de trabajo: Google Colaboratory
o Funciones lógicas

Sesión 2
Teoría 2. Introducción a TensorFlow (5h)
- ¿Qué es TensorFlow?
- Tensores y grafos
- Variables vs Placeholders
Práctica 2. Introducción a TF: Problemas de optimización y regresión lineal.
o Optimización y regresión empleando TF
o Boston dataset

Sesión 3
Teoría 3. Aprendizaje y evaluación en redes neuronales (3h)
- División y pre-procesado de los datos
- Parámetros e hiper-parámetros
- Métodos de optimización
- Métodos de regularización
- Inicialización de pesos
Práctica 3. Redes neuronales empleando TF y MNIST: Estudio de hiper-parámetros I (2h)
o MNIST dataset
o Categorical vs one-hot encoding

Sesión 4
Práctica 3. Redes neuronales empleando TF y MNIST: Estudio de hiper-parámetros II (3h)
Teoría 4. Fundamentos de las redes neuronales convolucionales (2h)
- Introducción a las CNNs
- Operación convolución
- Extracción automática de características
- Arquitectura y capas de una CNN

Sesión 5. Introducción a Keras (1h)
- ¿Qué es Keras?
- Capas básicas en Keras
- API secuencial vs API funcional
- Compilación y entrenamiento en Keras
- Predicción y evaluación en Keras
Práctica 4. CNNs con Keras para la clasificación de imágenes (4h)
o CIFAR-10 dataset
o Comunicación Google Drive – Google Colab
o Instalación de paquetes y almacenamiento de datos en la máquina Colab

Sesión 6
Teoría 6. Arquitecturas CNN existentes y transferencia del conocimiento (2h)
- Transferencia del conocimiento y Fine-tuning
- Challenge ImageNet
- CNNs existentes
- Data augmentation
Práctica 5. Transferencia del conocimiento, data augmentation y visualización interna de una CNN (3h)

Sesión 7
Teoría 7. CNNs para la resolución de tareas típicas en visión artificial (2h30)
- Tareas a resolver en problemas de visión artificial
- Detección de objetos: R-CNN, Fast R-CNN, Faster R-CNN y SSD
- Segmentación semántica y de instancia: FCNN-SS, U-net, FCNN-SI, Mask R-CNN.
- Tracking de objetos: YOLO y RetinaNet
Práctica final. Resolución de un µProyecto en clase I (2h30)

Sesión 8
Teoría 8. Hardware/software necesario para Deep Learning (1h)
- Hardware necesario para DL
- Software necesario para DL
- Integración y entorno de desarrollo
Práctica final. Resolución de un µProyecto en clase II (4h)

Certificación

Asistencia

Modalidad

PRESENCIAL

Curso

2019-2020

ECTS

0

40 h

Presenciales

0 h

A distancia

Lugar de impartición

Aula Policonecta del CFP a definir

Quiero recibir información sobre esta actividad.

@