HKAI-105 · CICLO 1
Hacking con Inteligencia Artificial
LLMs ofensivos, agentes autónomos, AI Red Teaming y defensa de sistemas de IA
$300.000 CLP
Precio Lanzamiento
$225.000 CLP
CÓDIGO: LANZAMIENTO_CURSOS 08F33808F338
Información General
Duración
10 sesiones × 2 horas (20 hrs)
Nivel
Intermedio – Avanzado
Modalidad
Online sincrónica / Presencial
Horario
19:00 – 21:00 hrs (Chile)
Días de clase
Miércoles / Viernes
Fechas
27 Mayo – 26 Junio 2026
Certificación
Certificación Propia 8DOT8 Academy + Badge Certifier.io
Temas Clave
OWASP Top 10 LLM
MITRE ATLAS
Prompt Injection
LangChain / CrewAI
AI Red Teaming
Adversarial ML
RAG Security
Dirigido a
- Pentesters y Red Teamers
- Investigadores de seguridad
- Desarrolladores de IA/ML
- SOC Analysts avanzados
- CTOs y líderes técnicos
Prerrequisitos
Fundamentos de pentesting, familiaridad con Python, conocimientos básicos de machine learning y LLMs.
Competencias a Desarrollar
- Utilizar LLMs para automatizar fases del ciclo ofensivo: reconocimiento, explotación y post-explotación
- Construir agentes autónomos de hacking con frameworks como LangChain y CrewAI
- Ejecutar AI Red Teaming contra sistemas basados en LLM (prompt injection, jailbreaking)
- Defender sistemas de IA contra ataques adversariales y data poisoning
- Evaluar riesgos de seguridad en implementaciones de IA generativa
Programa de Clases
| # |
Fecha |
Clase |
Descripción |
| 1 |
27-May |
IA Ofensiva: Landscape y Fundamentos |
Estado del arte IA en ciberseguridad, MITRE ATLAS, taxonomía de ataques a sistemas de IA |
| 2 |
29-May |
LLMs como Herramienta Ofensiva |
Generación de payloads, ofuscación, reconocimiento automatizado con GPT/Claude |
| 3 |
03-Jun |
Agentes Autónomos de Hacking |
LangChain, CrewAI, AutoGPT para pentesting; orquestación de cadenas ofensivas |
| 4 |
05-Jun |
Prompt Injection y Jailbreaking |
Direct/indirect injection, DAN, multi-turn attacks, defensa y detección |
| 5 |
10-Jun |
OWASP Top 10 para LLM Applications |
Las 10 vulnerabilidades críticas en aplicaciones LLM: análisis y explotación |
| 6 |
12-Jun |
AI Red Teaming: Metodología |
Framework de evaluación, métricas de robustez, reporting de hallazgos |
| 7 |
17-Jun |
Ataques Adversariales a Modelos ML |
Evasion, poisoning, model extraction, membership inference |
| 8 |
19-Jun |
Seguridad en RAG y Pipelines de IA |
Ataques a retrieval-augmented generation, data exfiltration, supply chain ML |
| 9 |
24-Jun |
Defensa de Sistemas de IA |
Guardrails, content filtering, monitoring de outputs, NIST AI RMF |
| 10 |
26-Jun |
Laboratorio Final: AI Red Team Exercise |
Ejercicio integral: atacar y defender un sistema basado en LLM |
Evaluación
| Instrumento |
Ponderación |
| Participación y labs prácticos |
20% |
| Desarrollo de agente ofensivo |
25% |
| AI Red Team Assessment |
25% |
| Informe de vulnerabilidades LLM |
20% |
| Ejercicio final integrador |
10% |
Al finalizar serás capaz de
- Construir un agente autónomo de pentesting usando LangChain o CrewAI
- Ejecutar un ejercicio de AI Red Teaming contra una aplicación basada en LLM
- Identificar y explotar las OWASP Top 10 vulnerabilidades en sistemas LLM
- Implementar defensas contra prompt injection y ataques adversariales
- Producir un reporte profesional de AI security assessment
Disclaimer: El curso se llevará a cabo con un mínimo de 16 personas.