Gracias por enviar su consulta! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Gracias por enviar su reserva! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Programa del Curso
Introducción al Modelado de Amenazas en IA
- ¿Qué hace que los sistemas de IA sean vulnerables?
- Superficie de ataque de la IA vs sistemas tradicionales
- Vectores de ataque clave: datos, modelo, salida e interfaz
Ataques Adversarios en Modelos de IA
- Entendiendo ejemplos adversarios y técnicas de perturbación
- Ataques white-box vs black-box
- Métodos FGSM, PGD y DeepFool
- Visualización y creación de muestras adversarias
Inversión del Modelo y Fuga de Privacidad
- Infiriendo datos de entrenamiento a partir de la salida del modelo
- Ataques de inferencia de membresía
- Riesgos de privacidad en modelos de clasificación y generativos
Poisoning de Datos e Inyección de Puertas Traseras
- Cómo los datos envenenados influyen en el comportamiento del modelo
- Puertas traseras basadas en desencadenantes y ataques Troyanos
- Strategias de detección y saneamiento
Robustez y Técnicas Defensivas
- Entrenamiento adversario y aumento de datos
- Máscara de gradientes y preprocesamiento de entrada
- Técnicas de suavizado del modelo y regularización
Defensas de IA que Preservan la Privacidad
- Introducción a la privacidad diferencial
- Inyección de ruido y presupuestos de privacidad
- Aprendizaje federado y agregación segura
AI Security en Práctica
- Evaluación y despliegue del modelo consciente de amenazas
- Uso de ART (Adversarial Robustness Toolbox) en entornos aplicados
- Casos de estudio de la industria: fugas reales y mitigaciones
Resumen y Próximos Pasos
Requerimientos
- Una comprensión de los flujos de trabajo de aprendizaje automático y el entrenamiento del modelo
- Experiencia con Python y marcos comunes de ML como PyTorch o TensorFlow
- La familiaridad con conceptos básicos de seguridad u modelado de amenazas es útil
Audiencia
- Ingenieros de aprendizaje automático
- Analistas de ciberseguridad
- Investigadores de IA y equipos de validación del modelo
14 Horas