Agentic AI Red Teaming Intermédiaire - 5 jours - 4800€ HT
Description
Le développement d'architectures agentiques marque une rupture technologique majeure, transformant les LLM passifs en systèmes proactifs capables d'orchestrer des workflows complexes là où l'algorithmique traditionnelle atteint ses limites. Cette évolution permet de concevoir des systèmes autonomes aptes à raisonner, à s'interfacer avec des outils tiers et des bases de données, tout en maintenant un cadre d'exécution maîtrisé et sécurisé.
Cette formation de cinq jours a pour objectif de transmettre les compétences nécessaires à la conception de ces agents de nouvelle génération. L'enseignement est structuré autour d'un fil rouge pratique : le développement complet d'un agent Red Team dédié à la reconnaissance et à l'identification de vulnérabilités. Les participants apprendront à manipuler les modèles à l'état de l'art, qu'ils soient distants (Anthropic, OpenAI) ou locaux (Ollama), et à les intégrer dans des architectures multi-agents robustes.
-
5 jours (35 heures)
-
Développement d'un agent de reconnaissance et identification de vulnérabilités
-
Utilisation avancée du protocole MCP (Model Context Protocol) et de smolagents
-
Environnement de développement Python et accès aux modèles fournis
Objectifs
-
Comprendre les principes de raisonnement des LLM et les architectures de boucles autonomes (Thought-Action-Observation)
-
Maîtriser l'intégration d'outils et de services via le protocole MCP pour étendre les capacités des agents
-
Concevoir et sécuriser une infrastructure multi-agents capable de gérer le contexte, la mémoire et l'exécution de code
Public et prérequis
Cette formation s'adresse aux profils techniques souhaitant monter en compétence sur l'ingénierie des systèmes autonomes basés sur l'IA. Elle nécessite une aisance particulière avec les environnements de développement modernes.
-
Développeurs logiciels (intermédiaires à expérimentés)
-
Pentesteurs et chercheurs en sécurité
-
Ingénieurs SecDevOps
Une expérience solide en programmation Python est indispensable. Les participants doivent être familiers avec la ligne de commande Linux et posséder des bases en réseaux (TCP/IP, HTTP). Bien qu'un intérêt pour l'écosystème LLM soit un plus, aucune connaissance préalable en IA n'est requise.
Contenu
Jour 1
Introduction au développement agentique : Concepts clés de l'inférence, état de l'art des modèles (API vs local), dimensionnement hardware et panorama des frameworks. Scripting de requêtes vers des moteurs d'inférence (online/offline) et programmation d'un premier agent simple.
Jour 2
Architecture Agentique et utilisation d'outils : Boucle "Thought-Action-Observation" et conditions d'arrêt. Appels de fonctions et typage. Architecture et spécialisation des agents. Développement d'outils python personnalisés (tool calling). Mise en place d'une architecture multi-agents avec orchestrateur, worker, analyzer. Mise en place de CodeAgent capable d'exécuter du code de façon cloisonnée.
Jour 3
Protocole MCP (Model Context Protocol) : Introduction à MCP. Composants : hôtes, clients et serveurs. Le protocole, ses couches de transport (JSON-RPC), fonctionnalités (outils, rersources, prompts), messages réseaux et sécurité (authentification, isolation). Présentation de python-mcp et fastMCP. Lister programmatiquement les outils, ressources et prompts exposés par un serveur MCP. Création d'un serveur MCP exposant un outil de scan réseau. Création d'un serveur MCP exposant des ressources dynamiques (logs). Intégration d'un client MCP et utilisation de MCP par l'agent.
Jour 4
Mémoire, RAG et injection de contexte : Notion de fenêtre de contexte, limites et optimisations (mémoire courte). RAG: Génération Augmentée par Récupération, théorie et librairies. Mémoire persistante via structures de données classiques. Implémentation d'une base de données (CVE) avec vectorDB. Ajout d'un agent "Sumarizer" pour optimiser la fenêtre de contexte. Implémentation d'un outil "remember" avec stockage persistant.
Jour 5
Qualification, observabilité, mise en production et sécurité : Focus sur les nombreux risques de sécurité liés au déploiement d'agents et bonnes pratiques (sandboxing, proxying, caching, hardening). Présentation des outils de monitoring et d'introspection. Présentation de stratégie de tests pour valider les workflows malgré le non-déterminisme inhérent lié aux LLMs. Implémentation de scénarios de tests fonctionnels et d’évaluation des performances. Isolation des outils et renforcement de sécurité. Finalisation de l'agent.
Toutes les modalités de déroulement de la formation sont détaillées sur cette page.