Programa del Curso

Introducción

Instalación y configuración de Dataiku Data Science Studio (DSS)

  • Requisitos del sistema para Dataiku DSS
  • Configuración de integraciones de Apache Hadoop y Apache Spark
  • Configuración de Dataiku DSS con proxies web
  • Migración de otras plataformas a Dataiku DSS

Descripción general de las características y la arquitectura de Dataiku DSS

  • Objetos y gráficos principales fundamentales para Dataiku DSS
  • ¿Qué es una receta en Dataiku DSS?
  • Tipos de conjuntos de datos admitidos por Dataiku DSS

Creación de un proyecto Dataiku DSS

Definición de conjuntos de datos para conectarse a recursos de datos en Dataiku DSS

  • Trabajar con conectores DSS y formatos de archivo
  • Formatos DSS estándar frente a formatos específicos Hadoop
  • Carga de archivos para un proyecto Dataiku DSS

Descripción general del sistema de archivos del servidor en Dataiku DSS

Creación y uso de carpetas administradas

  • Receta de Dataiku DSS para la carpeta de combinación
  • Carpetas administradas locales frente a carpetas administradas no locales

Construcción de un conjunto de datos del sistema de archivos mediante el contenido de la carpeta administrada

  • Realización de limpiezas con una receta de código DSS

Trabajar con el conjunto de datos de métricas y el conjunto de datos de estadísticas internas

Implementación de la receta de descarga de DSS para el conjunto de datos HTTP

Reubicación SQL de conjuntos de datos y conjuntos de datos HDFS mediante DSS

Ordenar conjuntos de datos en Dataiku DSS

  • Orden del escritor frente al orden del tiempo de lectura

Exploración y preparación de objetos visuales de datos para un proyecto Dataiku DSS

Descripción general de los esquemas, tipos de almacenamiento y significados de Dataiku

Realización de scripts de limpieza, normalización y enriquecimiento de datos en Dataiku DSS

Trabajar con la interfaz de gráficos DSS de Dataiku y los tipos de agregaciones visuales

Utilización de la función interactiva Statistics de DSS

  • Análisis univariante vs. análisis bivariado
  • Hacer uso de la herramienta DSS de Análisis de Componentes Principales (PCA)

Descripción general de Machine Learning con Dataiku DSS

  • ML supervisado vs. ML no supervisado
  • Referencias para el control de características y algoritmos de aprendizaje automático de DSS
  • Deep Learning con Dataiku DSS

Descripción general del flujo derivado de conjuntos de datos y recetas de DSS

Transformación de conjuntos de datos existentes en DSS con recetas visuales

Utilización de recetas DSS basadas en código definido por el usuario

Optimización de la exploración y experimentación de código con cuadernos de código DSS

Escritura de visualizaciones DSS avanzadas y funciones de frontend personalizadas con aplicaciones web

Trabajar con la función de informes de código DSS de Dataiku

Compartir proyectos de datos Elements y familiarizarse con el panel de control de DSS

Diseño y empaquetado de un proyecto Dataiku DSS como una aplicación reutilizable

Descripción general de los métodos avanzados en Dataiku DSS

  • Implementación de particiones de conjuntos de datos optimizados mediante DSS
  • Ejecución de partes de procesamiento DSS específicas a través de cálculos en Kubernetes contenedores

Descripción general de Collaboration y el control de versiones en Dataiku DSS

Implementación de escenarios, métricas y comprobaciones de automatización para las pruebas de proyectos de DSS

Implementación y actualización de un proyecto con el nodo y los paquetes de automatización de DSS

Trabajar con APIs en tiempo real en Dataiku DSS

  • API adicionales y API REST en DSS

Análisis y Forecasting Dataiku DSS Time Series

Asegurar un proyecto en Dataiku DSS

  • Administración de permisos de proyectos y autorizaciones de paneles
  • Implementación de opciones de seguridad avanzadas

Integración de Dataiku DSS con la nube

Solución de problemas

Resumen y conclusión

Requerimientos

  • Experiencia con los lenguajes de programación Python, SQL y R
  • Conocimientos básicos de procesamiento de datos con Apache, Hadoop y Spark
  • Comprensión de conceptos de aprendizaje automático y modelos de datos
  • Experiencia en análisis estadístico y conceptos de ciencia de datos
  • Experiencia con la visualización y comunicación de datos

Audiencia

  • ingenieros
  • Científicos de datos
  • Analistas de datos
 21 horas

Número de participantes



Precio por participante

Cursos Relacionados

H2O AutoML

14 horas

AutoML con Auto-sklearn

14 horas

AutoML con Auto-Keras

14 horas

Avanzado Stable Diffusion: Aprendizaje profundo para la generación de texto a imagen

21 horas

Introducción a Stable Diffusion para la generación de texto a imagen

21 horas

AlphaFold

7 horas

TensorFlow Lite for Embedded Linux

21 horas

TensorFlow Lite for Android

21 horas

TensorFlow Lite for iOS

21 horas

Tensorflow Lite for Microcontrollers

21 horas

Deep Learning Neural Networks with Chainer

14 horas

Distributed Deep Learning with Horovod

7 horas

Accelerating Deep Learning with FPGA and OpenVINO

35 horas

Building Deep Learning Models with Apache MXNet

21 horas

Deep Learning with Keras

21 horas

Categorías Relacionadas

1