Cursos de Introducción a Aprendizaje Profundo y Redes Neuronales Ingeniería

Algunos de nuestros clientes

Código del Curso

intrdplrngrsneuing

Duración

21 horas (usualmente 3 días, incluidas las pausas)

Requerimientos

Ingeniero de nivel

Destinatarios: Ingenieros, Data-científicos que deseen aprender el neuronal redes / aprendizaje profundo

Descripción General

La inteligencia artificial, después de haber molestó a muchos campos científicos, comenzó a revolucionar una amplia gama de sectores económicos (industria, la medicina, comunicaciones, etc.). Sin embargo, su presentación en los principales medios de comunicación a menudo es una fantasía, muy lejos de lo que realmente son las áreas de aprendizaje automático y Deep aprendizaje. El objetivo de esta formación es proporcionar a los ingenieros con conocimientos de computación (incluyendo la programación de software basado en) una introducción al aprendizaje profundo y sus diferentes áreas de especialización y por lo tanto las principales arquitecturas de red existentes Hoy. Si los fundamentos matemáticos se recuerdan durante el curso, se recomienda un tipo de nivel de alcoholemia matemática + 2 para una mayor comodidad. Es posible en absoluto ignorar el eje matemático para mantener sólo una visión "sistema", pero este enfoque limita en gran medida su comprensión del tema.

Programa del Curso

El curso se divide en tres días distintos, siendo el tercero opcional.

Día 1 - Machine Learning y Aprendizaje Profundo: conceptos teóricos

1. Introducción AI, Machine Learning y Aprendizaje Profundo

- Historia, conceptos básicos y aplicaciones comunes de la inteligencia artificial lejanos

fantasías transportadas por esta zona

Inteligencia Colectiva agregando las compartida por muchos agentes virtuales -

- Algoritmos genéticos: evolucionar una población de agentes virtuales de selección

- Máquina de aprendizaje habitual: definición.

- Los tipos de tareas: aprendizaje supervisado, no supervisado de aprendizaje, aprendizaje por refuerzo

- Tipo de acciones: clasificación, regresión, clustering, estimación de la densidad, la reducción

dimensionalidad

- Ejemplos de algoritmos de aprendizaje automático: regresión lineal, Naive Bayes, Árbol aleatoria

- Aprendizaje automático VS profundo de aprendizaje: los problemas que el resto de la máquina de aprendizaje

Hoy en día el estado de la técnica (por azar Bosques y XGBoosts)

2. Fundamentos de una red neural (Aplicación: Multi-Capa Perceptron)

- bases matemáticas recordatorio.

- Definición de una red neuronal: la arquitectura clásica, y la activación de funciones

ponderación activaciones precedentes profundidad de una red

- Definición de entrenamiento de una red neuronal: las funciones de costo, de back-propagación,

descenso de gradiente estocástico, de máxima verosimilitud.

- Modelado de una red neuronal: el modelado de datos de entrada y de salida de acuerdo

el tipo de problema (regresión, clasificación ...). La maldición de la dimensionalidad. distintiva

dado múltiples características y señales. La elección de una función de costos de acuerdo a los datos.

- Función aproximado por una red neuronal: presentación y ejemplos

- Distribución aproximada por una red neuronal: presentación y ejemplos

- Aumento de datos: cómo equilibrar un conjunto de datos

- La generalización de los resultados de una red neuronal.

- Inicialización y acumulaciones de una red neural: L1 / L2 regularización, Batch

La normalización ...

- optimizaciones y algoritmos de convergencia.

3. Herramientas de Standard ML / DL

está prevista una simple presentación con ventajas, desventajas, la posición en el ecosistema y el uso.

- Herramientas de Gestión de Datos: Spark Apache, Apache Hadoop

- Máquinas herramientas de aprendizaje habitual: Numpy, Scipy, Sci-kit

- Marcos DL alto: PyTorch, Keras, lasaña

- Marcos DL Bajo: Teano, la antorcha, Caffe, Tensorflow

Día 2 - Convolucionales y Recurrentes Redes

4. Redes Neuronales Convolucionales (CNN).

- Presentación de la CNN: principios y aplicaciones básicas

- operación fundamental de una capa convolucional CNN, el uso de un núcleo,

acolchado y zancada, mapas de características de generación, la puesta en común de tipo capas. Extensiones de 1D, 2D y

3D.

- Presentación de las diferentes arquitecturas con CNN llevó el estado de la técnica en la clasificación

Image: Lenet ACV Red de Redes en Red, Origen, Resnet. presentación de

innovaciones de cada arquitectura y aplicaciones más amplias (convolución

1x1 o conexiones residuales)

- El uso de un modelo de atención.

- Aplicación a un caso de la figura de clasificación habitual (texto o imagen)

- CNN para la generación de super-resolución, pixel para la segmentación de píxeles. presentación de

principales estrategias de característica cada vez más mapas para generar una imagen.

5. Las redes neuronales recurrentes (RNN).

- Presentación de RNNs: principios básicos y aplicaciones.

- Operación fundamental de la NNI: la activación oculta, de vuelta de propagación a través del tiempo,

Versión desplegó.

- Cambios en el GRU (Unidades recurrente cerrada) y MTSA (memoria a largo Corto Plazo).

Presentación de los diferentes estados y los cambios realizados por estas arquitecturas

- problemas de convergencia y vanising gradiente

- Tipos de arquitecturas convencionales: Serie de tiempo de predicción, clasificación ...

- Tipo de Arquitectura RNN Encoder Decoder. El uso de un modelo de atención.

- aplicaciones de PNL: Palabra / codificación de caracteres, de traducción.

- aplicaciones de vídeo: la predicción de la siguiente imagen generada a partir de una película.

Día 3 - Modelos Generacionales y Aprendizaje por Refuerzo

6. Modelos Generacionales: variacional AutoEncoder (VAE) y Generativos Acusatorios Networks (GAN).

- Presentación de los patrones generacionales, vínculos con la CNN ha visto el día 2

- Auto-codificación: reducción de la dimensionalidad y la generación limitada

- variacional Auto-encode: modelo generacional y aproximación de la distribución de una

dado. Definición y uso del espacio latente. truco reparametrización. y aplicaciones

límites observados

- Redes generativo Acusatorios: principios fundamentales. Arquitectura en dos redes

(Generador y discriminador) con el aprendizaje alternativo, funciones de coste.

- Convergencia de GAN y dificultades.

- Mejora de la Convergencia: Wasserstein GAN comenzó. Movimiento de tierras distancia.

- aplicaciones de generación de imágenes o fotografías, la generación de textos, super-
resolución.

7. profundo aprendizaje por refuerzo.

- Presentación de aprendizaje por refuerzo: un agente de control en un entorno definido

por las acciones del Estado y las posibles

- El uso de una red neural a la aproximación de la función de estado

- Deep Q-learning: la experiencia de reproducción, y la aplicación para controlar un videojuego.

- Optimización de la política de aprendizaje. Una política && fuera de la política. crítico Actor

la arquitectura. A3C.

- Aplicaciones: control de un videojuego simple o sistema digital.

Testimonios

★★★★★
★★★★★

Promociones

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas.
En cualquier momento puede cambiar sus preferencias o cancelar su suscripción por completo.

is growing fast!

We are looking to expand our presence in Costa Rica!

As a Business Development Manager you will:

  • expand business in Costa Rica
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!