Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Programa del Curso
Introducción
- Redes neuronales artificiales frente a algoritmos basados en árboles de decisión
Descripción general de las características de XGBoost
- Elements de un algoritmo de aumento de gradiente
- Céntrese en la velocidad computacional y el rendimiento del modelo
- XGBoost vs Regresión Logística, Random Forest, y Aumento de Gradiente estándar
La evolución de los algoritmos basados en árboles
- Árboles de decisión, embolsado, Random Forest, boosting, aumento de gradiente
- Optimización del sistema
- Mejoras algorítmicas
Preparación del entorno
- Instalación SciPy y scikit-learn
Creación de un modelo XGBoost
- Descarga de un conjunto de datos
- Resolver un problema de clasificación común
- Entrenamiento del modelo XGBoost para la clasificación
- Resolver una tarea de regresión común
Supervisión del rendimiento
- Evaluación e informes de rendimiento
- Parada temprana
Trazar características por importancia
- Cálculo de la importancia de la característica
- Decidir qué variables de entrada mantener o descartar
Configuración del aumento de gradiente
- Revisión de las curvas de aprendizaje de los conjuntos de datos de entrenamiento y validación
- Ajuste de la tasa de aprendizaje
- Ajustar el número de árboles
Ajuste de hiperparámetros
- Mejorar el rendimiento de un modelo XGBoost
- Diseño de un experimento controlado para ajustar los hiperparámetros
- Búsqueda de combinaciones de parámetros
Creación de una canalización
- Incorporación de un modelo XGBoost en una canalización de aprendizaje automático de extremo a extremo
- Ajuste de hiperparámetros dentro de la canalización
- Técnicas avanzadas de preprocesamiento
Solución de problemas
Resumen y conclusión
Requerimientos
- Experiencia en la escritura de modelos de aprendizaje automático
Audiencia
- Científicos de datos
- Ingenieros de aprendizaje automático
14 horas