Programa del Curso

Introducción

Instalación y configuración de Dataiku Data Science Studio (DSS)

  • Requisitos del sistema para Dataiku DSS
  • Configuración de integraciones de Apache Hadoop y Apache Spark
  • Configuración de Dataiku DSS con proxies web
  • Migración de otras plataformas a Dataiku DSS

Descripción general de las características y la arquitectura de Dataiku DSS

  • Objetos y gráficos principales fundamentales para Dataiku DSS
  • ¿Qué es una receta en Dataiku DSS?
  • Tipos de conjuntos de datos admitidos por Dataiku DSS

Creación de un proyecto Dataiku DSS

Definición de conjuntos de datos para conectarse a recursos de datos en Dataiku DSS

  • Trabajar con conectores DSS y formatos de archivo
  • Formatos DSS estándar frente a formatos específicos Hadoop
  • Carga de archivos para un proyecto Dataiku DSS

Descripción general del sistema de archivos del servidor en Dataiku DSS

Creación y uso de carpetas administradas

  • Receta de Dataiku DSS para la carpeta de combinación
  • Carpetas administradas locales frente a carpetas administradas no locales

Construcción de un conjunto de datos del sistema de archivos mediante el contenido de la carpeta administrada

  • Realización de limpiezas con una receta de código DSS

Trabajar con el conjunto de datos de métricas y el conjunto de datos de estadísticas internas

Implementación de la receta de descarga de DSS para el conjunto de datos HTTP

Reubicación SQL de conjuntos de datos y conjuntos de datos HDFS mediante DSS

Ordenar conjuntos de datos en Dataiku DSS

  • Orden del escritor frente al orden del tiempo de lectura

Exploración y preparación de objetos visuales de datos para un proyecto Dataiku DSS

Descripción general de los esquemas, tipos de almacenamiento y significados de Dataiku

Realización de scripts de limpieza, normalización y enriquecimiento de datos en Dataiku DSS

Trabajar con la interfaz de gráficos DSS de Dataiku y los tipos de agregaciones visuales

Utilización de la función interactiva Statistics de DSS

  • Análisis univariante vs. análisis bivariado
  • Hacer uso de la herramienta DSS de Análisis de Componentes Principales (PCA)

Descripción general de Machine Learning con Dataiku DSS

  • ML supervisado vs. ML no supervisado
  • Referencias para el control de características y algoritmos de aprendizaje automático de DSS
  • Deep Learning con Dataiku DSS

Descripción general del flujo derivado de conjuntos de datos y recetas de DSS

Transformación de conjuntos de datos existentes en DSS con recetas visuales

Utilización de recetas DSS basadas en código definido por el usuario

Optimización de la exploración y experimentación de código con cuadernos de código DSS

Escritura de visualizaciones DSS avanzadas y funciones de frontend personalizadas con aplicaciones web

Trabajar con la función de informes de código DSS de Dataiku

Compartir proyectos de datos Elements y familiarizarse con el panel de control de DSS

Diseño y empaquetado de un proyecto Dataiku DSS como una aplicación reutilizable

Descripción general de los métodos avanzados en Dataiku DSS

  • Implementación de particiones de conjuntos de datos optimizados mediante DSS
  • Ejecución de partes de procesamiento DSS específicas a través de cálculos en Kubernetes contenedores

Descripción general de Collaboration y el control de versiones en Dataiku DSS

Implementación de escenarios, métricas y comprobaciones de automatización para las pruebas de proyectos de DSS

Implementación y actualización de un proyecto con el nodo y los paquetes de automatización de DSS

Trabajar con APIs en tiempo real en Dataiku DSS

  • API adicionales y API REST en DSS

Análisis y Forecasting Dataiku DSS Time Series

Asegurar un proyecto en Dataiku DSS

  • Administración de permisos de proyectos y autorizaciones de paneles
  • Implementación de opciones de seguridad avanzadas

Integración de Dataiku DSS con la nube

Solución de problemas

Resumen y conclusión

Requerimientos

  • Experiencia con los lenguajes de programación Python, SQL y R
  • Conocimientos básicos de procesamiento de datos con Apache, Hadoop y Spark
  • Comprensión de conceptos de aprendizaje automático y modelos de datos
  • Experiencia en análisis estadístico y conceptos de ciencia de datos
  • Experiencia con la visualización y comunicación de datos

Audiencia

  • ingenieros
  • Científicos de datos
  • Analistas de datos
 21 horas

Número de participantes



Precio por participante

Cursos Relacionados

Categorías Relacionadas