Trilhas de aprendizado para Profissionais técnicos
IA para testadores de intrusão e hackers éticos
Esta trilha de aprendizado para iniciantes apresenta testes de intrusão e hacking ético baseados em IA, com foco em utilizar ChatGPT e LLMs para cibersegurança. Ela aborda engenharia de prompt, jailbreaking, phishing, ataques de força bruta, testes de intrusão específicos para LLM, estruturas MITRE ATT&CK/ATLAS, 10 principais vulnerabilidades de LLM do OWASP, equipe vermelha e laboratórios práticos para explorar e defender sistemas de IA generativa.
Objetivos de aprendizado:
- Aplicar ChatGPT e LLMs em hacking ético: utilizar ferramentas de IA para análise de vulnerabilidade, engenharia de prompt e automação de tarefas de teste de intrusão.
- Conduzir testes de intrusão em LLMs: seguir metodologias estruturadas para identificar, explorar e reportar vulnerabilidades exclusivas de sistemas de IA generativa.
- Mapear e mitigar ameaças de IA usando estruturas MITRE: utilizar MITRE ATT&CK e ATLAS para entender, detectar e se defender contra táticas contenciosas de IA.
- Executar equipes vermelhas de LLM: simular ataques reais em IA generativa, com foco nos 10 principais riscos da OWASP, incluindo injeção de prompt, envenenamento de dados e agência excessiva.
- Utilizar ferramentas e laboratórios especializados: obter experiência prática com ferramentas como Garak, Promptmap e MCP scan, e participar em desafios de CTF e simulados para reforçar habilidades práticas.
Público-alvo:
Esta trilha foi criada para profissionais de cibersegurança, testadores de intrusão e hackers éticos que querem expandir seu conhecimento em segurança de IA e LLM. Também é adequada para equipes de segurança de TI, equipes vermelhas e alunos interessados na intersecção da IA generativa e segurança ofensiva.