Programa del Curso

Introducción al Red Teaming de IA

  • Comprender el panorama de amenazas en la IA
  • Papeles de los equipos rojos en la seguridad de la IA
  • Consideraciones éticas y legales

Adversarial Machine Learning

  • Tipos de ataques: evasión, poisoning, extracción, inferencia
  • Generación de ejemplos adversarios (por ejemplo, FGSM, PGD)
  • Ataques dirigidos vs no dirigidos y métricas de éxito

Pruebas de Robustez del Modelo

  • Evaluación de la robustez ante perturbaciones
  • Explorar puntos ciegos y modos de fallo del modelo
  • Pruebas de estrés en modelos de clasificación, visión y NLP

Red Teaming de Pipelines de IA

  • Superficie de ataque de pipelines de IA: datos, modelo, implementación
  • Explotar APIs e endpoints de modelos inseguros
  • Ingeniería inversa del comportamiento y salidas del modelo

Simulación y Herramientas

  • Uso de la Adversarial Robustness Toolbox (ART)
  • Red teaming con herramientas como TextAttack e IBM ART
  • Herramientas de sandbox, monitoreo y observabilidad

Estrategia y Defensa del Equipo Rojo en IA Collaboration

  • Desarrollar ejercicios y objetivos de equipo rojo
  • Comunicar hallazgos a los equipos azules
  • Incorporar el red teaming en la gestión de riesgos de AI

Resumen y Próximos Pasos

Requerimientos

  • Una comprensión de las arquitecturas de aprendizaje automático y aprendizaje profundo
  • Experiencia con Python y marcos de ML (por ejemplo, TensorFlow, PyTorch)
  • Familiaridad con conceptos de ciberseguridad o técnicas de seguridad ofensiva

Público objetivo

  • Investigadores en seguridad
  • Equipos de seguridad ofensiva
  • Profesionales de aseguramiento de IA y red team
 14 Horas

Número de participantes


Precio por Participante​

Próximos cursos

Categorías Relacionadas