8.8-HKAI-105 - Hacking con Inteligencia Artificial

$300.000 CLP

8.8-HKAI-105 - Hacking con Inteligencia Artificial

$300.000 CLP
35
HKAI-105 · CICLO 1

Hacking con Inteligencia Artificial

LLMs ofensivos, agentes autónomos, AI Red Teaming y defensa de sistemas de IA

$300.000 CLP
Precio Lanzamiento $225.000 CLP
CÓDIGO: LANZAMIENTO_CURSOS 08F33808F338
Información General
Duración 10 sesiones × 2 horas (20 hrs)
Nivel Intermedio – Avanzado
Modalidad Online sincrónica / Presencial
Horario 19:00 – 21:00 hrs (Chile)
Días de clase Miércoles / Viernes
Fechas 27 Mayo – 26 Junio 2026
Certificación Certificación Propia 8DOT8 Academy + Badge Certifier.io
Temas Clave
OWASP Top 10 LLM MITRE ATLAS Prompt Injection LangChain / CrewAI AI Red Teaming Adversarial ML RAG Security
Dirigido a
  • Pentesters y Red Teamers
  • Investigadores de seguridad
  • Desarrolladores de IA/ML
  • SOC Analysts avanzados
  • CTOs y líderes técnicos
Prerrequisitos
Fundamentos de pentesting, familiaridad con Python, conocimientos básicos de machine learning y LLMs.
Competencias a Desarrollar
  • Utilizar LLMs para automatizar fases del ciclo ofensivo: reconocimiento, explotación y post-explotación
  • Construir agentes autónomos de hacking con frameworks como LangChain y CrewAI
  • Ejecutar AI Red Teaming contra sistemas basados en LLM (prompt injection, jailbreaking)
  • Defender sistemas de IA contra ataques adversariales y data poisoning
  • Evaluar riesgos de seguridad en implementaciones de IA generativa
Programa de Clases
# Fecha Clase Descripción
1 27-May IA Ofensiva: Landscape y Fundamentos Estado del arte IA en ciberseguridad, MITRE ATLAS, taxonomía de ataques a sistemas de IA
2 29-May LLMs como Herramienta Ofensiva Generación de payloads, ofuscación, reconocimiento automatizado con GPT/Claude
3 03-Jun Agentes Autónomos de Hacking LangChain, CrewAI, AutoGPT para pentesting; orquestación de cadenas ofensivas
4 05-Jun Prompt Injection y Jailbreaking Direct/indirect injection, DAN, multi-turn attacks, defensa y detección
5 10-Jun OWASP Top 10 para LLM Applications Las 10 vulnerabilidades críticas en aplicaciones LLM: análisis y explotación
6 12-Jun AI Red Teaming: Metodología Framework de evaluación, métricas de robustez, reporting de hallazgos
7 17-Jun Ataques Adversariales a Modelos ML Evasion, poisoning, model extraction, membership inference
8 19-Jun Seguridad en RAG y Pipelines de IA Ataques a retrieval-augmented generation, data exfiltration, supply chain ML
9 24-Jun Defensa de Sistemas de IA Guardrails, content filtering, monitoring de outputs, NIST AI RMF
10 26-Jun Laboratorio Final: AI Red Team Exercise Ejercicio integral: atacar y defender un sistema basado en LLM
Evaluación
Instrumento Ponderación
Participación y labs prácticos 20%
Desarrollo de agente ofensivo 25%
AI Red Team Assessment 25%
Informe de vulnerabilidades LLM 20%
Ejercicio final integrador 10%
Al finalizar serás capaz de
  • Construir un agente autónomo de pentesting usando LangChain o CrewAI
  • Ejecutar un ejercicio de AI Red Teaming contra una aplicación basada en LLM
  • Identificar y explotar las OWASP Top 10 vulnerabilidades en sistemas LLM
  • Implementar defensas contra prompt injection y ataques adversariales
  • Producir un reporte profesional de AI security assessment
Solo quedan 35 unidades de este producto

También te puede interesar