Skip to content

Formation AI Engineering for Ops (35h)

Prenez votre revanche sur l'IA. Cette formation transforme un profil technique (SysAdmin/DevOps) en AI Engineer capable de déployer, intégrer et maîtriser les modèles de langage modernes, loin des mathématiques abstraites.

Objectifs Pédagogiques

  • 🚀 Comprendre l'écosystème GenAI (LLM, Embeddings, RAG).
  • 🐍 Maîtriser le pilotage d'IA via Python (API OpenAI, LangChain).
  • 💻 Héberger des modèles Open Source en local (Ollama, PrivateGPT).
  • 🧠 Créer un assistant capable de lire votre documentation technique.

Public & Prérequis

  • Public : SysOps, DevOps, Développeurs Backend.
  • Prérequis : Bases de Python (fonctions, variables) et CLI Linux.

Programme Détaillé

Jour 1 : Les Fondations Modernes

  • Matin : Histoire (rapide) et Concepts (Tokens, Température, Contexte).
  • Après-midi : Python pour l'IA. Setup d'environnement virtuel, appels API simples, gestion des clés secrètes.

Jour 2 : Prompt Engineering & APIs

  • Matin : L'art du Prompt (Zero-shot, Few-shot, Chain of Thought). Structurer les données de sortie (JSON).
  • Après-midi : Automatisation. Créer un script de résumé de logs ou de génération de commits Git.

Jour 3 : Local AI & Ops

  • Matin : Pourquoi le Local ? Confidentialité et Coûts. Découverte d'Ollama.
  • Après-midi : Héberger un LLM sur un serveur Linux. Dockerisation. Gestion GPU vs CPU.

Jour 4 : RAG (Retrieval Augmented Generation)

  • Matin : Le problème de la mémoire limitée. Concepts : Embeddings (Vecteurs) et Vector DB (ChromaDB, Qdrant).
  • Après-midi : Coder un système qui "lit" un PDF ou un Markdown pour répondre aux questions.

Jour 5 : Projet Final - "Doc-Bot"

  • Objectif : Créer un chatbot CLI qui répond aux questions techniques en se basant uniquement sur le contenu de ShellBook.
  • Livrable : Un script Python et un Dockerfile.

Ressources