Formation AI Engineering for Ops (35h)
Prenez votre revanche sur l'IA. Cette formation transforme un profil technique (SysAdmin/DevOps) en AI Engineer capable de déployer, intégrer et maîtriser les modèles de langage modernes, loin des mathématiques abstraites.
Objectifs Pédagogiques
- 🚀 Comprendre l'écosystème GenAI (LLM, Embeddings, RAG).
- 🐍 Maîtriser le pilotage d'IA via Python (API OpenAI, LangChain).
- 💻 Héberger des modèles Open Source en local (Ollama, PrivateGPT).
- 🧠 Créer un assistant capable de lire votre documentation technique.
Public & Prérequis
- Public : SysOps, DevOps, Développeurs Backend.
- Prérequis : Bases de Python (fonctions, variables) et CLI Linux.
Programme Détaillé
Jour 1 : Les Fondations Modernes
- Matin : Histoire (rapide) et Concepts (Tokens, Température, Contexte).
- Après-midi : Python pour l'IA. Setup d'environnement virtuel, appels API simples, gestion des clés secrètes.
Jour 2 : Prompt Engineering & APIs
- Matin : L'art du Prompt (Zero-shot, Few-shot, Chain of Thought). Structurer les données de sortie (JSON).
- Après-midi : Automatisation. Créer un script de résumé de logs ou de génération de commits Git.
Jour 3 : Local AI & Ops
- Matin : Pourquoi le Local ? Confidentialité et Coûts. Découverte d'Ollama.
- Après-midi : Héberger un LLM sur un serveur Linux. Dockerisation. Gestion GPU vs CPU.
Jour 4 : RAG (Retrieval Augmented Generation)
- Matin : Le problème de la mémoire limitée. Concepts : Embeddings (Vecteurs) et Vector DB (ChromaDB, Qdrant).
- Après-midi : Coder un système qui "lit" un PDF ou un Markdown pour répondre aux questions.
Jour 5 : Projet Final - "Doc-Bot"
- Objectif : Créer un chatbot CLI qui répond aux questions techniques en se basant uniquement sur le contenu de ShellBook.
- Livrable : Un script Python et un Dockerfile.