Gracias por enviar su consulta! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Gracias por enviar su reserva! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Temario del curso
Entorno de ML en iOS y configuración del desarrollo
- Arquitectura de ML en el dispositivo de Apple: CoreML, Vision, Speech, NaturalLanguage
- Configuración del entorno de desarrollo: Anaconda, Python, Xcode y Swift
- Introducción a coremltools y la cadena de conversión de ML para iOS
- Práctica 1: Validar el entorno macOS/Swift, configurar Python/Anaconda y verificar la integración de la línea de comandos de Xcode
Entrenamiento de modelos personalizados con Python y bibliotecas de ML populares
- Selección del modelo: cuándo usar Keras/TensorFlow frente a scikit-learn frente a libsvm
- Preprocesamiento de datos, bucles de entrenamiento y métricas de evaluación en Python
- Integración de Anaconda y Spyder para un desarrollo y depuración de modelos eficientes
- Manejo de modelos heredados: importación de redes Caffe mediante coremltools
- Práctica 2: Entrenar un modelo de clasificación/regresión personalizado en Python (Keras/scikit-learn) y exportarlo a .h5/.pkl
Conversión de modelos a CoreML e integración con iOS
- Uso de coremltools para convertir modelos de TensorFlow, Keras, scikit-learn, libsvm y Caffe a .mlmodel
- Inspección de modelos CoreML en Xcode: capas, entradas/salidas, precisión y niveles de optimización
- Carga de modelos CoreML en Swift: MLModel, MLFeatureProvider e inferencia asíncrona
- Práctica 3: Convertir un modelo entrenado en Python a CoreML, inspeccionarlo en Xcode y cargarlo en un playground de Swift
Construcción de inteligencia en iOS con CoreML y Vision
- Framework Vision: detección de rostros, detección de objetos, reconocimiento de texto y escaneo de códigos de barras
- Integración con CoreGraphics: preprocesamiento de imágenes, enmascaramiento de ROI y renderizado de superposiciones
- GameplayKit: aplicación de árboles de comportamiento de IA, búsqueda de caminos y lógica de juegos junto con el ML en la aplicación
- Optimización de la inferencia en tiempo real: pipelines de múltiples modelos, almacenamiento en caché y gestión de memoria
- Práctica 4: Implementar una característica de análisis de imágenes en tiempo real usando Vision + modelo CoreML personalizado + superposición de CoreGraphics
Reconocimiento de voz, PNL e integración con Siri
- Framework Speech: reconocimiento de voz a texto en tiempo real, vocabulario personalizado e inyección de modelos de lenguaje
- Framework NaturalLanguage: tokenización, análisis de sentimientos, NER (reconocimiento de entidades nombradas) e identificación de idioma
- SiriKit y Atajos: adición de comandos de voz, intenciones personalizadas y soporte de Siri en el dispositivo
- Privacidad y seguridad: aislamiento de CoreML, cifrado de datos y consideraciones entre la inferencia en el dispositivo frente a la nube
- Práctica 5: Agregar comandos de voz, análisis de texto y Atajos de Siri a la aplicación iOS
Proyecto final y despliegue de la aplicación
- Flujo de trabajo completo: entrenamiento en Python → conversión a CoreML → interfaz de usuario en Swift → despliegue en iOS
- Perfilado de rendimiento: Instruments, diagnósticos de CoreML y cuantización de modelos (FP16/INT8)
- Lineamientos de la App Store para aplicaciones con ML: límites de tamaño, manifiestos de privacidad y manejo de datos en el dispositivo
- Proyecto final: Desplegar una aplicación iOS completa con un modelo CoreML personalizado, procesamiento con Vision, características de voz/PNL e integración con Siri
- Revisión, preguntas y respuestas, y próximos pasos: Escalado a SwiftUI, multimodalidad de Core ML y MLOps para iOS
Para solicitar un temario personalizado para esta formación, contáctenos.
Requerimientos
- Experiencia comprobada programando en Swift (Xcode, SwiftUI/UIKit, async/await, closures)
- No se requiere experiencia previa en aprendizaje automático ni ciencia de datos
- Conocer los conceptos básicos de la línea de comandos y la sintaxis de Python resulta útil
Público objetivo
- Desarrolladores de iOS y aplicaciones móviles
- Ingenieros de software que transicionan hacia la inteligencia artificial en el dispositivo
- Líderes técnicos que evalúan estrategias de despliegue de ML en iOS
14 Horas
Testimonios (1)
La forma de transferir conocimiento y el conocimiento del formador.
Jakub Rekas - Bitcomp Sp. z o.o.
Curso - Machine Learning on iOS
Traducción Automática