Percorsi di apprendimento per Professionisti tecnici

IA per penetration tester e hacker etici

Questo percorso di apprendimento introduttivo presenta il penetration testing e l’hacking etico basati sull’intelligenza artificiale, con un focus sull’utilizzo di ChatGPT e modelli linguistici di grandi dimensioni (LLM) in ambito cybersecurity. Il percorso affronta tematiche quali prompt engineering, jailbreaking, phishing, attacchi brute-force, penetration testing specifico per LLM, i framework MITRE ATT&CK e ATLAS, le principali vulnerabilità LLM secondo OWASP Top 10, red teaming e laboratori pratici per sfruttare e difendere i sistemi di intelligenza artificiale generativa.

Competenze:

Penetration testing basato sull'IA

Prompt engineering per la sicurezza

Valutazione delle vulnerabilità dei LLM

Red teaming per l'IA generativa

Mappatura MITRE ATT&CK/ATLAS

Mitigazione dei rischi OWASP Top 10 per LLM

Phishing e ingegneria sociale con l'IA

Gestione impropria degli output

Laboratorio pratico e competenze nelle sfide CTF

Utilizzo di strumenti come Garak, Promptmap, Agentic Radar, MCP scan

Obiettivi di apprendimento:

  • Applicare ChatGPT e modelli linguistici di grandi dimensioni (LLM) nell’hacking etico: utilizzare strumenti di intelligenza artificiale per l’analisi delle vulnerabilità, il prompt engineering e l’automazione delle attività di penetration testing.
  • Eseguire penetration testing su LLM: seguire metodologie strutturate per identificare, sfruttare e segnalare le vulnerabilità specifiche dei sistemi di intelligenza artificiale generativa.
  • Mappare e mitigare le minacce IA utilizzando i framework MITRE: sfruttare MITRE ATT&CK e ATLAS per comprendere, rilevare e difendersi dalle tattiche avversarie basate sull’IA.
  • Effettuare attività di red teaming su LLM: simulare attacchi reali contro sistemi di AI generativa, concentrandosi sui rischi principali secondo OWASP Top 10, come prompt injection, data poisoning o excessive agency.
  • Utilizzare strumenti e laboratori specializzati: acquisire esperienza pratica con strumenti come Garak, Promptmap e MCP scan, partecipando a sfide CTF e simulazioni d’esame per consolidare le competenze.

Pubblico target:

Questo percorso è pensato per professionisti della cybersecurity, penetration tester e hacker etici che vogliono ampliare le proprie competenze nella sicurezza dell’IA e dei modelli linguistici di grandi dimensioni (LLM). È adatto anche a team di sicurezza IT, red teamer e chiunque sia interessato all’intersezione tra intelligenza artificiale generativa e sicurezza offensiva.

Rendi l'intelligenza artificiale una preziosa alleata con un percorso per iniziare sull'IA