- IA
- Université
- 2h00
MCP : Bienvenue dans la Matrice ! Connectez vos IA au monde réel avec le Model Context Protocol
Date mercredi
Horaire 11h30 à 13h30
Salle Amphi B
Description
Depuis fin 2024, le Model Context Protocol (MCP) s'est imposé comme LE standard ouvert pour connecter les modèles d'IA aux systèmes externes : bases de données, APIs, outils métier… Porté par Anthropic et adopté par OpenAI, Google, VS Code, JetBrains et bien d'autres, MCP transforme les chatbots en véritables agents capables d'agir sur le monde réel. Et depuis début 2026, MCP Apps pousse le concept encore plus loin : les serveurs MCP peuvent désormais renvoyer des interfaces interactives (dashboards, formulaires, visualisations) directement dans la conversation. Dans cette université de 2h, on vous propose de comprendre MCP de A à Z, puis de mettre les mains dans le cambouis.
Orateur·ices
Sébastien Prunier
Je suis développeur depuis 17 ans et travaille actuellement chez Serli à Poitiers. J'interviens ces dernières années sur plusieurs projets en tant que Tech Lead, sur des technos variées : Play Framework, Scala, Spring Boot, Java, Javascript, React, Postgresql, Elasticsearch, Redis, etc... J'interviens régulièrement dans divers meetup et conférences. Extrait de quelques expériences : - Construction d'APIs Géographiques à base d'Open Data, PostgreSQL & PostGIS (Université à Devoxx France 2022) - React Workshop (Hands-on à Devoxx, Devoxx France, Bdx.io et au BreizhCamp et aussi au LavaJug et au NormandyJug) - Minimum Viable Product in Action (Université à Devoxx France, conférence à Poitiers Web Nerds) - MongoDB Workshop (Hands-on à Devoxx France) - MongoDB Aggregation Framework (Jugsummercamp, Nantes MongoDB User Group) - Javascript du sol au plafond ! (Breizhcamp) - Animation de soirées Jeux Agiles (Poitiers Web Nerds) - Quickies réguliers aux Human Talks de Nantes et de Poitiers
Mathieu Ancelin
CTO & Co-Founder @ Cloud APIM, dev @Serli, Open source enthusiast, I created Otoroshi, an opensource http reverse proxy and API Management plateform.
Actions rapides
Les sessions futures sur le même thème
- IA
- Tool in action
S'augmenter sans se déposséder: la convivialité d'Illich face à l'IA
Je veux vous parler de convivialité dans son sens qui n'implique ni vin ni fromage: celui théorisé par le philosophe Ivan Illich, qui permet d'étudier le rapport de l'Homme à ses outils. Bien que mort en 2003, sa philosophie reste assez moderne pour l'appliquer à l'outil qui nous questionne toutes et tous: l'IA générative. On commencera par expliquer le concept de convivialité au sens d'Illich au travers de l'analyse de différents outils, avant de se pencher plus en détails sur l'IA générative pour finir sur des conseils pratiques.
Jeudi 15h00 à 15h25 - Amphi C
- IA
- Conférence
AI4IT : prendre la pilule rouge, déployer l'IA gén dans une DSI sans se perdre dans la matrice
REX complet du déploiement de l'IA générative à la DSI de SIPA/Ouest-France : gouvernance, RGPD, sécurité, choix d'outils, cadre d'usage, mesure des gains — et les erreurs qu'on ne referait pas. Sans bullshit, avec les cicatrices. --- Déployer l'IA générative dans une DSI ce n'est pas juste ouvrir un compte ChatGPT à tout le monde. C'est une démarche qui touche à la sécurité, au droit, à la culture d'entreprise, à l'architecture, et surtout… aux humains. À la DSI de SIPA/Ouest-France (groupe de presse, ~200 personnes dont 60 développeurs), nous avons construit de A à Z une démarche baptisée IA4IT : structurer l'adoption de l'IA générative par les équipes IT, de façon maîtrisée et mesurable. Ce qu'on va raconter Le contexte et l'histoire Comment on est passés d'un usage sauvage et dispersé à une stratégie cohérente. Les signaux faibles, les premiers accidents, le moment où on a décidé d'agir. Les problématiques qu'on n'avait pas anticipées RGPD : quelle donnée peut-on envoyer à quel modèle ? CLOUD Act et souveraineté : jusqu'où peut-on aller avec des outils US ? Responsabilité juridique sur le code généré SSI : surface d'attaque, prompt injection, exfiltration de données Les outils sélectionnés et pourquoi GitHub Copilot, Claude (Anthropic), Cursor — comment on a comparé, négocié les contrats, configuré les garde-fous. Et ce qu'on a refusé. Le cadre d'usage Le document qu'on a co-construit avec les équipes : données autorisées/interdites, règles de revue du code généré, niveaux de confiance par outil. Comment le faire vivre sans que ça reste lettre morte. Le déploiement à l'échelle Plus de 200 utilisateurs, gestion des coûts (spending caps, licences mixtes), onboarding, formation, résistances. Les gains mesurés Métriques DORA, retours qualitatifs. Ce qui a vraiment changé — et ce qui est plus compliqué à mesurer qu'on ne pensait. Les erreurs et ce qu'on referait différemment Les vraies : sur la gouvernance des coûts, sur la communication, sur le rythme d'adoption. Sans langue de bois. L'accompagnement et les bonnes pratiques Comment embarquer les tech leads, les managers, les réticents. Ce qui marche pour ancrer les usages dans la durée. Pour qui ? DSI, architectes, tech leads, engineering managers — toute personne qui doit prendre des décisions concrètes sur l'IA générative dans son organisation, pas juste en lire des articles.
Vendredi 9h30 à 10h25 - Amphi B
- IA
- Quicky
Context Engineering : pas des modèles plus malins, du contexte plus malin
"Trop de slop." "Usine à dette technique." "Ça marche pas sur les gros repos." On a tous vécu ça : on lance un agent IA sur un vrai projet, et le résultat est générique, inadapté, voire cassé. La réaction classique, c'est d'attendre des modèles plus intelligents. Mais le problème n'est pas l'intelligence du modèle, c'est ce qu'on lui donne à manger. Dans ce talk, je vous montre pourquoi le context engineering, la discipline de gérer ce qui entre dans la fenêtre de contexte d'un LLM, est la compétence la plus importante pour tirer parti des outils IA en développement. On verra : - Pourquoi les LLMs sont des fonctions stateless, et ce que ça implique concrètement - Ce qui bouffe le contexte avant même que l'agent commence à coder - La technique de compaction intentionnelle pour garder le savoir sans le bruit - Comment les micro-agents permettent de contrôler la qualité en isolant l'exploration - Le workflow Research → Plan → Implement qui garde chaque session dans la "smart zone" - Comment structurer un CLAUDE.md (ou équivalent) pour que l'agent démarre informé Ce talk s'appuie sur le travail de Dex Horthy (HumanLayer, 12-Factor Agents) et sur des exemples concrets tirés de mes propres expérience avec mon équipe. Pas de théorie abstraite : des techniques applicables dès lundi.
Vendredi 11h05 à 11h20 - Amphi D