Contacta con nosotros

Temario del curso

Ambiente de desarrollo iOS ML y configuración

  • Arquitectura de ML en dispositivo de Apple: CoreML, Vision, Speech, NaturalLanguage.
  • Configuración del entorno de desarrollo: Anaconda, Python, Xcode y Swift.
  • Introducción a coremltools y al flujo de trabajo de conversión de iOS ML.
  • Práctica 1: Validar el entorno macOS/Swift, configurar Python/Anaconda y verificar la integración de la línea de comandos de Xcode.

Entrenamiento de modelos personalizados con Python y bibliotecas populares de ML

  • Selección del modelo: cuándo usar Keras/TensorFlow versus scikit-learn versus libsvm.
  • Preprocesamiento de datos, bucles de entrenamiento y métricas de evaluación en Python.
  • Integrar Anaconda y Spyder para un desarrollo y depuración de modelos eficientes.
  • Manejo de modelos heredados: importar redes Caffe mediante coremltools.
  • Práctica 2: Entrenar un modelo de clasificación/regresión personalizado en Python (Keras/scikit-learn) y exportarlo a .h5/.pkl.

Conversión de modelos a CoreML e integración en iOS

  • Uso de coremltools para convertir modelos de TensorFlow, Keras, scikit-learn, libsvm y Caffe a .mlmodel.
  • Inspección de modelos CoreML en Xcode: capas, entradas/salidas, precisión y niveles de optimización.
  • Carga de modelos CoreML en Swift: MLModel, MLFeatureProvider e inferencia asíncrona.
  • Práctica 3: Convertir un modelo entrenado en Python a CoreML, inspeccionarlo en Xcode y cargarlo en un playground de Swift.

Construcción de inteligencia en iOS con CoreML y Vision

  • Marcos de Vision: detección facial, detección de objetos, reconocimiento de texto y escaneo de códigos de barras.
  • Integración de CoreGraphics: preprocesamiento de imágenes, enmascaramiento de región de interés y renderizado de superposiciones.
  • GameplayKit: aplicación de árboles de comportamiento de IA, búsqueda de caminos y lógica de juegos junto con ML en la aplicación.
  • Optimización de inferencia en tiempo real: pipelines multi-modelo, almacenamiento en caché y gestión de memoria.
  • Práctica 4: Implementar una función de análisis de imágenes en tiempo real usando Vision + modelo CoreML personalizado + superposición de CoreGraphics.

Reconocimiento de voz, PLN e integración de Siri

  • Marcos de Speech: transcripción de voz a texto en tiempo real, vocabulario personalizado e inyección de modelos de idioma.
  • Marcos de NaturalLanguage: tokenización, análisis de sentimiento, NER y detección de idioma.
  • SiriKit y Atajos: agregar comandos de voz, intenciones personalizadas y soporte de Siri en dispositivo.
  • Privacidad y seguridad: aislamiento de CoreML, cifrado de datos y权衡 entre inferencia en dispositivo y en la nube.
  • Práctica 5: Agregar comandos de voz, análisis de texto y Atajos de Siri a la aplicación iOS.

Proyecto final y despliegue de la aplicación

  • Flujo de trabajo extremo a extremo: entrenamiento en Python → conversión a CoreML → Swift UI → despliegue en iOS.
  • Perfilado de rendimiento: Instruments, diagnósticos de CoreML y cuantización de modelos (FP16/INT8).
  • Guías de la App Store para aplicaciones de ML: límites de tamaño, manifiestos de privacidad y manejo de datos en dispositivo.
  • Proyecto final: Desplegar una aplicación iOS completa con un modelo CoreML personalizado, procesamiento de Vision, funciones de voz/PLN e integración con Siri.
  • Revisión, preguntas y respuestas, y próximos pasos: Escalamiento a SwiftUI, Core ML multimodal y MLOps para iOS.

Para solicitar un plan de estudios personalizado para esta capacitación, contáctenos.

Requerimientos

  • Experiencia comprobada programando en Swift (Xcode, SwiftUI/UIKit, async/await, cierres).
  • No se requiere antecedentes previos en aprendizaje automático o ciencia de datos.
  • Es útil tener familiaridad con los conceptos básicos de la línea de comandos y la sintaxis de Python.

Público objetivo

  • Desarrolladores de iOS y móviles
  • Ingenieros de software que se están moviendo hacia la IA en el dispositivo.
  • Líderes técnicos que evalúan estrategias de implementación de ML en iOS.
 14 Horas

Número de participantes


Precio por participante

Testimonios (1)

Próximos cursos

Categorías Relacionadas