- IA
- Tool in action
- 25 min
S'augmenter sans se déposséder: la convivialité d'Illich face à l'IA
Date jeudi
Horaire 15h00 à 15h25
Salle Amphi C
Description
Je veux vous parler de convivialité dans son sens qui n'implique ni vin ni fromage: celui théorisé par le philosophe Ivan Illich, qui permet d'étudier le rapport de l'Homme à ses outils. Bien que mort en 2003, sa philosophie reste assez moderne pour l'appliquer à l'outil qui nous questionne toutes et tous: l'IA générative. On commencera par expliquer le concept de convivialité au sens d'Illich au travers de l'analyse de différents outils, avant de se pencher plus en détails sur l'IA générative pour finir sur des conseils pratiques.
Orateur·ices
Nina Pétard
Étant passée par des postes de développeuse et de data scientist, et surtout beaucoup trop de powerpoint sur l'IA ces dernières années, l'utilisation d'un peu de philosophie a été un bon moyen pour ne pas complètement perdre le Nord.
Actions rapides
Les sessions futures sur le même thème
- IA
- Conférence
AI4IT : prendre la pilule rouge, déployer l'IA gén dans une DSI sans se perdre dans la matrice
REX complet du déploiement de l'IA générative à la DSI de SIPA/Ouest-France : gouvernance, RGPD, sécurité, choix d'outils, cadre d'usage, mesure des gains — et les erreurs qu'on ne referait pas. Sans bullshit, avec les cicatrices. --- Déployer l'IA générative dans une DSI ce n'est pas juste ouvrir un compte ChatGPT à tout le monde. C'est une démarche qui touche à la sécurité, au droit, à la culture d'entreprise, à l'architecture, et surtout… aux humains. À la DSI de SIPA/Ouest-France (groupe de presse, ~200 personnes dont 60 développeurs), nous avons construit de A à Z une démarche baptisée IA4IT : structurer l'adoption de l'IA générative par les équipes IT, de façon maîtrisée et mesurable. Ce qu'on va raconter Le contexte et l'histoire Comment on est passés d'un usage sauvage et dispersé à une stratégie cohérente. Les signaux faibles, les premiers accidents, le moment où on a décidé d'agir. Les problématiques qu'on n'avait pas anticipées RGPD : quelle donnée peut-on envoyer à quel modèle ? CLOUD Act et souveraineté : jusqu'où peut-on aller avec des outils US ? Responsabilité juridique sur le code généré SSI : surface d'attaque, prompt injection, exfiltration de données Les outils sélectionnés et pourquoi GitHub Copilot, Claude (Anthropic), Cursor — comment on a comparé, négocié les contrats, configuré les garde-fous. Et ce qu'on a refusé. Le cadre d'usage Le document qu'on a co-construit avec les équipes : données autorisées/interdites, règles de revue du code généré, niveaux de confiance par outil. Comment le faire vivre sans que ça reste lettre morte. Le déploiement à l'échelle Plus de 200 utilisateurs, gestion des coûts (spending caps, licences mixtes), onboarding, formation, résistances. Les gains mesurés Métriques DORA, retours qualitatifs. Ce qui a vraiment changé — et ce qui est plus compliqué à mesurer qu'on ne pensait. Les erreurs et ce qu'on referait différemment Les vraies : sur la gouvernance des coûts, sur la communication, sur le rythme d'adoption. Sans langue de bois. L'accompagnement et les bonnes pratiques Comment embarquer les tech leads, les managers, les réticents. Ce qui marche pour ancrer les usages dans la durée. Pour qui ? DSI, architectes, tech leads, engineering managers — toute personne qui doit prendre des décisions concrètes sur l'IA générative dans son organisation, pas juste en lire des articles.
Vendredi 9h30 à 10h25 - Amphi B
- IA
- Quicky
Context Engineering : pas des modèles plus malins, du contexte plus malin
"Trop de slop." "Usine à dette technique." "Ça marche pas sur les gros repos." On a tous vécu ça : on lance un agent IA sur un vrai projet, et le résultat est générique, inadapté, voire cassé. La réaction classique, c'est d'attendre des modèles plus intelligents. Mais le problème n'est pas l'intelligence du modèle, c'est ce qu'on lui donne à manger. Dans ce talk, je vous montre pourquoi le context engineering, la discipline de gérer ce qui entre dans la fenêtre de contexte d'un LLM, est la compétence la plus importante pour tirer parti des outils IA en développement. On verra : - Pourquoi les LLMs sont des fonctions stateless, et ce que ça implique concrètement - Ce qui bouffe le contexte avant même que l'agent commence à coder - La technique de compaction intentionnelle pour garder le savoir sans le bruit - Comment les micro-agents permettent de contrôler la qualité en isolant l'exploration - Le workflow Research → Plan → Implement qui garde chaque session dans la "smart zone" - Comment structurer un CLAUDE.md (ou équivalent) pour que l'agent démarre informé Ce talk s'appuie sur le travail de Dex Horthy (HumanLayer, 12-Factor Agents) et sur des exemples concrets tirés de mes propres expérience avec mon équipe. Pas de théorie abstraite : des techniques applicables dès lundi.
Vendredi 11h05 à 11h20 - Amphi D