Curso de AI Inference and Deployment with CloudMatrix
CloudMatrix es la plataforma unificada de desarrollo y despliegue de IA de Huawei diseñada para apoyar tuberías de inferencia escalables y de grado de producción.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a profesionales de AI de nivel principiante a intermedio que desean implementar y monitorear modelos de IA utilizando la plataforma CloudMatrix con integración de CANN y MindSpore.
Al finalizar esta formación, los participantes podrán:
- Usar CloudMatrix para empaquetar, implementar y servir modelos.
- Convertir y optimizar modelos para chipsets Ascend.
- Configurar tuberías para tareas de inferencia en tiempo real y por lotes.
- Monitorear implementaciones y ajustar el rendimiento en entornos de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Uso práctico de CloudMatrix con escenarios de implementación reales.
- Ejercicios guiados enfocados en conversión, optimización y escalabilidad.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso basada en su infraestructura de IA o entorno en la nube, contáctenos para coordinar.
Programa del Curso
Introducción a Huawei CloudMatrix
- Ecosistema de CloudMatrix y flujo de implementación
- Modelos, formatos y modos de implementación compatibles
- Casos de uso típicos y conjuntos de chips compatibles
Preparando modelos para la implementación
- Exportación de modelos desde herramientas de entrenamiento (MindSpore, TensorFlow, PyTorch)
- Uso del ATC (Ascend Tensor Compiler) para la conversión de formatos
- Modelos con forma estática vs dinámica
Implementación en CloudMatrix
- Creador de servicios y registro de modelos
- Implementación de servicios de inferencia mediante interfaz gráfica o línea de comandos
- Enrutamiento, autenticación y control de acceso
Servicio de solicitudes de inferencia
- Flujos de inferencia por lotes vs en tiempo real
- Pipelines de preprocesamiento y postprocesamiento de datos
- Llamada a servicios CloudMatrix desde aplicaciones externas
Supervisión y ajuste de rendimiento
- Registros de implementación y seguimiento de solicitudes
- Escalar recursos y balanceo de carga
- Ajustar latencia y optimizar a través del paso
Integración con herramientas empresariales
- Conexión de CloudMatrix con OBS y ModelArts
- Uso de flujos de trabajo y versionado de modelos
- CI/CD para implementación y reversión de modelos
Pipeline de inferencia desde el principio hasta el final
- Implementar una pipeline completa de clasificación de imágenes
- Benchmarking y validación de precisión
- Simular transición y alertas del sistema
Resumen y próximos pasos
Requerimientos
- Comprensión de los flujos de trabajo para el entrenamiento de modelos AI
- Experiencia con marcos ML basados en Python
- Familiaridad básica con conceptos de implementación en la nube
Público objetivo
- Equipos de operaciones AI
- Ingenieros de aprendizaje automático
- Especialistas en implementación en la nube que trabajan con infraestructura Huawei
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de AI Inference and Deployment with CloudMatrix - Booking
Curso de AI Inference and Deployment with CloudMatrix - Enquiry
AI Inference and Deployment with CloudMatrix - Consulta de consultoría
Consulta de consultoría
Testimonios (1)
Entrenamiento paso a paso con muchos ejercicios. Fue como un taller y estoy muy contento por eso.
Ireneusz - Inter Cars S.A.
Curso - Intelligent Applications Fundamentals
Traducción Automática
Próximos cursos
Cursos Relacionados
Developing AI Applications with Huawei Ascend and CANN
21 HorasHuawei Ascend es una familia de procesadores de IA diseñados para inferencia y entrenamiento de alto rendimiento.
Este curso dirigido por un instructor (en línea o presencial) está destinado a ingenieros de AI intermedios y científicos de datos que desean desarrollar y optimizar modelos de redes neuronales utilizando la plataforma Ascend de Huawei y el kit de herramientas CANN.
Al final de este entrenamiento, los participantes podrán:
- Configurar y configurar el entorno de desarrollo CANN.
- Desarrollar aplicaciones AI usando MindSpore y flujos de trabajo CloudMatrix.
- Optimizar el rendimiento en Ascend NPUs utilizando operadores personalizados y tiling.
- Implementar modelos en entornos edge o cloud.
Formato del Curso
- Conferencia interactiva y discusión.
- Uso práctico de Huawei Ascend y el kit de herramientas CANN en aplicaciones de muestra.
- Ejercicios guiados enfocados en la construcción, entrenamiento e implementación del modelo.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso basado en su infraestructura o conjuntos de datos, contáctenos para organizarlo.
Deploying AI Models with CANN and Ascend AI Processors
14 HorasCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Engineering Fundamentals
14 HorasEsta capacitación en vivo dirigida por un instructor en Peru (en línea o presencial) está dirigida a ingenieros de IA y desarrolladores de software de nivel principiante a intermedio que deseen obtener una comprensión fundamental de los principios y prácticas de ingeniería de IA.
Al final de esta formación, los participantes serán capaces de:
- Comprender los conceptos y tecnologías básicos detrás de la IA y el aprendizaje automático.
- Implemente modelos básicos de aprendizaje automático con TensorFlow y PyTorch.
- Aplicar técnicas de IA para resolver problemas prácticos en el desarrollo de software.
- Gestione y mantenga proyectos de IA utilizando las mejores prácticas en ingeniería de IA.
- Reconocer las implicaciones éticas y las responsabilidades involucradas en el desarrollo de sistemas de IA.
GPU Programming on Biren AI Accelerators
21 HorasLos aceleradores AI de Biren son GPU de alto rendimiento diseñados para cargas de trabajo de IA y HPC, con soporte para entrenamiento y inferencia a gran escala.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a desarrolladores de nivel intermedio a avanzado que desean programar y optimizar aplicaciones utilizando la pila propietaria GPU de Biren, con comparaciones prácticas con entornos basados en CUDA.
Al final de esta formación, los participantes podrán:
- Comprender la arquitectura y jerarquía de memoria de Biren GPU.
- Configurar el entorno de desarrollo e implementar el modelo de programación de Biren.
- Traducir y optimizar código estilo CUDA para plataformas Biren.
- Aplicar técnicas de ajuste de rendimiento y depuración.
Formato del Curso
- Conferencia interactiva y discusión.
- Uso práctico del SDK Biren en cargas de trabajo de muestra GPU.
- Ejercicios guiados enfocados en el porting y ajuste de rendimiento.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso basada en su pila de aplicaciones o necesidades de integración, por favor contáctenos para organizarlo.
Building Intelligent Applications with AI and ML
28 HorasEsta formación en directo dirigida por instructores en Peru (online u onsite) está dirigida a profesionales de IA de nivel intermedio a avanzado y
desarrolladores de software que deseen construir aplicaciones inteligentes utilizando AI y ML.
Al finalizar esta capacitación, los participantes podrán:
- Comprender los conceptos y tecnologías avanzados detrás de AI y ML.
- Analizar y visualizar datos para informar el desarrollo de modelos AI/ML.
- Construir, entrenar y desplegar modelos AI/ML de manera efectiva.
- Crear aplicaciones inteligentes que puedan resolver problemas del mundo real.
- Evaluar las implicaciones éticas de las aplicaciones de IA en diversas industrias.
Introduction to CANN for AI Framework Developers
7 HorasCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 HorasHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 HorasHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 HorasCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 HorasThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 HorasCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Migrating CUDA Applications to Chinese GPU Architectures
21 HorasLas arquitecturas GPU chinas, como Huawei Ascend, Biren y Cambricon MLUs, ofrecen alternativas a CUDA adaptadas para los mercados de IA y HPC locales.
Este entrenamiento en vivo (en línea u onsite) dirigido por un instructor está destinado a programadores avanzados de GPU y especialistas en infraestructura que desean migrar y optimizar aplicaciones existentes de CUDA para su implementación en plataformas de hardware chinas.
Al finalizar este entrenamiento, los participantes podrán:
- Evaluando la compatibilidad de las cargas de trabajo existentes de CUDA con alternativas de chips chinos.
- Migrar bases de código de CUDA a entornos Huawei CANN, Biren SDK y Cambricon BANGPy.
- Comparar el rendimiento e identificar puntos de optimización en distintas plataformas.
- Abordar desafíos prácticos en el soporte y la implementación entre arquitecturas.
Formato del Curso
- Charlas interactivas y discusiones.
- Laboratorios de traducción de código y comparaciones de rendimiento prácticos.
- Ejercicios guiados enfocados en estrategias de adaptación multi-GPU.
Opciones para la Personalización del Curso
- Para solicitar una capacitación personalizada basada en su plataforma o proyecto CUDA, contáctenos para organizarlo.
Intelligent Applications Fundamentals
14 HorasEsta capacitación en vivo dirigida por un instructor en Peru (en línea o en el sitio) está dirigida a profesionales de TI de nivel principiante que desean obtener una comprensión fundamental de las aplicaciones inteligentes y cómo se pueden aplicar en diversas industrias.
Al final de esta capacitación, los participantes serán capaces de:
- Comprender la historia, los principios y el impacto de la inteligencia artificial.
- Identificar y aplicar diferentes algoritmos de aprendizaje automático.
- Gestione y analice los datos de forma eficaz para las aplicaciones de IA.
- Reconocer las aplicaciones prácticas y las limitaciones de la IA en diferentes sectores.
- Discutir las consideraciones éticas y las implicaciones sociales de la tecnología de IA.
Intelligent Applications Advanced
21 HorasEsta capacitación en vivo dirigida por un instructor en Peru (en línea o en el sitio) está dirigida a científicos de datos, ingenieros y profesionales de IA de nivel intermedio a avanzado que deseen dominar las complejidades de las aplicaciones inteligentes y aprovecharlas para resolver problemas complejos del mundo real.
Al final de esta capacitación, los participantes serán capaces de:
- Implemente y analice arquitecturas de aprendizaje profundo.
- Aplique el aprendizaje automático a escala en un entorno informático distribuido.
- Diseñar y ejecutar modelos de aprendizaje por refuerzo para la toma de decisiones.
- Desarrollar sistemas sofisticados de PNL para la comprensión del lenguaje.
- Utilizar técnicas de visión artificial para el análisis de imágenes y vídeos.
- Abordar las consideraciones éticas en el desarrollo y la implementación de sistemas de IA.
Performance Optimization on Ascend, Biren, and Cambricon
21 HorasAscend, Biren y Cambricon son plataformas de hardware de IA líderes en China, cada una ofrece herramientas únicas de aceleración y perfilado para cargas de trabajo de IA a escala de producción.
Esta formación dirigida por instructores (en línea o presencial) está orientada a ingenieros avanzados de infraestructura e IA y rendimiento que desean optimizar flujos de trabajo de inferencia y entrenamiento de modelos en múltiples plataformas de chips AI chinos.
Al final de esta formación, los participantes podrán:
- Benchmarkear modelos en las plataformas Ascend, Biren y Cambricon.
- Identificar cuellos de botella del sistema e ineficiencias de memoria/cómputo.
- Aplicar optimizaciones a nivel de gráficos, núcleos y operadores.
- Ajustar pipelines de despliegue para mejorar el rendimiento y la latencia.
Formato del Curso
- Conferencias interactivas y discusiones.
- Uso práctico de herramientas de perfilado y optimización en cada plataforma.
- Ejercicios guiados enfocados en escenarios de ajuste prácticos.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso basada en su entorno de rendimiento o tipo de modelo, por favor contáctenos para organizarlo.