| 1 |
27-May |
IA Ofensiva: Landscape y Fundamentos |
Estado del arte IA en ciberseguridad, MITRE ATLAS, taxonomía de ataques a sistemas de IA |
| 2 |
29-May |
LLMs como Herramienta Ofensiva |
Generación de payloads, ofuscación, reconocimiento automatizado con GPT/Claude |
| 3 |
03-Jun |
Agentes Autónomos de Hacking |
LangChain, CrewAI, AutoGPT para pentesting; orquestación de cadenas ofensivas |
| 4 |
05-Jun |
Prompt Injection y Jailbreaking |
Direct/indirect injection, DAN, multi-turn attacks, defensa y detección |
| 5 |
10-Jun |
OWASP Top 10 para LLM Applications |
Las 10 vulnerabilidades críticas en aplicaciones LLM: análisis y explotación |
| 6 |
12-Jun |
AI Red Teaming: Metodología |
Framework de evaluación, métricas de robustez, reporting de hallazgos |
| 7 |
17-Jun |
Ataques Adversariales a Modelos ML |
Evasion, poisoning, model extraction, membership inference |
| 8 |
19-Jun |
Seguridad en RAG y Pipelines de IA |
Ataques a retrieval-augmented generation, data exfiltration, supply chain ML |
| 9 |
24-Jun |
Defensa de Sistemas de IA |
Guardrails, content filtering, monitoring de outputs, NIST AI RMF |
| 10 |
26-Jun |
Laboratorio Final: AI Red Team Exercise |
Ejercicio integral: atacar y defender un sistema basado en LLM |