Vías de aprendizaje para Profesionales técnicos
IA para pruebas de penetración y hackers éticos
Este recorrido de aprendizaje inicial presenta el hacking ético y las pruebas de penetración impulsados por IA y, con foco en el aprovechamiento de ChatGPT y los LLM para la ciberseguridad. Abarca la ingeniería de prompts, jailbreaking, phishing, ataques de fuerza bruta, pruebas de penetración específicas para LLM, marcos MITRE ATT&CK/ATLAS, las 10 principales vulnerabilidades de LLM según OWASP, red teaming y laboratorios prácticos para explotar y defender sistemas de IA generativa.
Objetivos de aprendizaje:
- Aplicar ChatGPT y LLM en el hacking ético: utilizar herramientas de IA para el análisis de vulnerabilidades, la ingeniería de prompts y la automatización de tareas de pruebas de penetración.
- Llevar a cabo pruebas de penetración en LLM: seguir metodologías estructuradas para identificar, explotar e informar vulnerabilidades únicas de los sistemas de IA generativa.
- Identificar y mitigar las amenazas de IA mediante los marcos MITRE: aprovecha MITRE ATT&CK y ATLAS para comprender, detectar y defenderte de las tácticas de IA de los adversarios.
- Llevar a cabo ejercicios de red teaming en LLM: simular ataques reales a la IA generativa, centrándose en los 10 riesgos principales según OWASP, incluidos la inyección de prompts, el envenenamiento de datos y la agencia excesiva.
- Utilizar herramientas y laboratorios especializados: obtener experiencia práctica con herramientas como Garak, Promptmap y MCP Scan y participar en desafíos CTF y exámenes simulados para reforzar las habilidades prácticas.
Público objetivo:
Este recorrido está diseñado para los profesionales de la seguridad, los técnicos en pruebas de penetración y hackers éticos que deseen ampliar su experiencia en la seguridad aplicada a la IA y los LLM. También es adecuado para los equipos de seguridad de TI, read teamers y estudiantes interesados en la intersección de la IA generativa y la seguridad ofensiva.