Epitech Summit 2026
L’Epitech Summit 2026, c’est LE gros rendez-vous tech annuel organisé par l’école Epitech, réparti sur plusieurs campus à travers la France, et notamment sur le celui de Paris où se sont tenues deux journées complètes de conférences.
L’Epitech Summit 2026, c’est LE gros rendez-vous tech annuel organisé par l’école Epitech, réparti sur plusieurs campus à travers la France, et notamment sur celui de Paris où se sont tenues deux journées complètes de conférences.
Pendant ces deux jours, pas moins d’une vingtaine de talks ont été proposés, animés par des professionnels du secteur, abordant des sujets variés et complémentaires liés au web, à l’intelligence artificielle, à la cybersécurité, au cloud ou encore à la data, offrant ainsi une vision large et actuelle des enjeux techniques et des pratiques du monde numérique.
Je me suis déplacé sur place en représentant Takima, accompagné de mon EM Jonathan Hervieux lui en tant que speaker, afin d’assister à plusieurs conférences et d’analyser les sujets abordés, les retours d’expérience et les tendances mises en avant.
J'ai trouvé l’événement vraiment bien organisé, avec des salles de conférence suffisamment grandes et adaptées, et une ambiance dynamique tout au long des deux journées. La présence de nombreuses entreprises était également un vrai point positif, renforçant le lien entre le monde académique et le monde professionnel.
Le point un peu frustrant était que les conférences se déroulaient en parallèle, rendant impossible l’assistance à l’ensemble des talks, pourtant pour tous très attractifs. Cela confirme néanmoins l’intérêt et la densité du programme proposé.
Cet article a pour objectif de présenter les cinq conférences marquantes auxquelles j’ai assisté, en mettant en lumière les idées clés qui en ressortent, les réflexions qu’elles ont suscitées, ainsi que les enseignements concrets que l’on peut en tirer.
Dans un moment où l'IA est omniprésente dans les talks, je voulais mettre en avant au début les talks qui reparlent de choses plus concrètes :
📈 Performance Web 101
Jonathan HERVIEUX ~ Engineering Manager - TAKIMA
Ce talk a rappelé un point fondamental mais souvent sous-estimé : la performance d’une application web est cruciale pour l’expérience utilisateur. Un site trop lent, qui met du temps à charger ou qui réagit mal, entraîne rapidement de la frustration. La performance web n’est donc pas qu’un sujet technique, c’est aussi un enjeu business.
Pour la mesurer de manière objective, Jonathan s’est appuyé sur les Web Vitals, 3 métriques clés définies par Google. Le LCP (Largest Contentful Paint) mesure le temps nécessaire pour afficher l’élément principal de la page, le INP (Interaction to Next Paint) évalue la réactivité de l’application lors des interactions utilisateur, et le CLS (Cumulative Layout Shift) quantifie la stabilité visuelle de la page, en évitant les éléments qui bougent de manière imprévisible.
Pour suivre et analyser ces métriques, plusieurs outils ont été présentés. Lighthouse permet de générer des rapports détaillés sur les performances, mais aussi sur l’accessibilité ou les bonnes pratiques. Lighthouse-CI pousse l’analyse plus loin en l’intégrant directement dans la chaîne d’intégration continue, offrant une vision de l’évolution des performances au fil des commits. Enfin, la librairie web-vitals permet de collecter ces métriques en conditions réelles et en quasi temps réel, directement depuis les utilisateurs.
2 causes principales de mauvaises performances ont ensuite été identifiées : le réseau et l’exécution JS.
Côté réseau, l’objectif est simple : envoyer moins de contenu. Cela passe par l’optimisation des images en choisissant des formats modernes comme WebP ou AVIF, par une réflexion sur les dépendances JavaScript à l’aide d’outils comme vite-bundle-analyzer ou bundlephobia, mais aussi par la minification et le tree-shaking. Le CSS n’est pas en reste, avec des solutions comme postcss-purgecss ou Tailwind (v4), capables de supprimer le CSS inutilisé. Enfin, la compression du build avec gzip ou brotli via des plugins comme vite-plugin-compression permet de réduire encore la taille des fichiers envoyés.
Concernant l’exécution, plusieurs leviers existent pour améliorer la réactivité de l’application. Le code splitting et le lazy loading, via les imports dynamiques, permettent de ne charger que ce qui est réellement nécessaire. Les resource hints comme preload ou prefetch aident le navigateur à anticiper les besoins, tandis que le preconnect permet de maintenir une connexion active avec une API, évitant de répéter la résolution DNS et l’établissement de la connexion à chaque requête. Jonathan a toutefois insisté sur un point important : spliter son code n’est pas toujours la bonne solution. Tout dépend du chemin critique de l’utilisateur, et une mauvaise stratégie peut parfois dégrader l’expérience au lieu de l’améliorer.
En conclusion, le message principal était clair : il vaut mieux d’abord se concentrer sur la livraison des fonctionnalités, puis analyser les métriques grâce au monitoring afin d’optimiser de manière ciblée. L’optimisation des performances doit être progressive et réfléchie, en tenant compte du contexte réel de l’application. Et même si le talk aurait pu aller encore plus loin, notamment sur les stratégies de cache ou les optimisations spécifiques à chaque framework, il a posé des bases solides pour aborder la performance web de manière pragmatique et mesurable.
De mon point de vue, ce talk était particulièrement intéressant car il met en lumière un sujet que l’on aborde finalement assez peu au quotidien : la performance web. J’ai trouvé les exemples et les outils présentés très concrets et facilement transposables dans un contexte réel de projet, ce qui m’a permis de mieux comprendre comment mesurer et améliorer les performances de manière pragmatique.
🧠 Comment organiser un groupe pour prendre de meilleures décisions collectives ?
Mehdi MOUSSAID ~ Chercheur en intelligence collective - FOULOSCOPIE
Ce talk s’est intéressé à une question centrale dans le travail en équipe : comment un groupe peut-il prendre de meilleures décisions qu’un individu seul ? À travers le prisme de l’intelligence collective, le conférencier a montré qu’il n’existe pas une méthode universelle, mais une multitude d’approches possibles, chacune adaptée à des contextes bien précis :
- Le leadership, où un leader coordonne le groupe et tranche rapidement.
- La stigmergie, inspirée du monde des insectes sociaux, où chaque individu avance en fonction de l’état global du projet sans communication directe.
- Le vote majoritaire, simple et efficace mais parfois réducteur.
- La discussion libre, favorisant l’émergence d’idées par le débat.
- Le filtrage, qui consiste à ne faire appel qu'aux membres les plus compétents sur un sujet donné.
L’idée clé du talk est qu’aucune de ces méthodes n’est objectivement meilleure qu’une autre : elles ont toutes des avantages et des limites. Mehdi a d’ailleurs comparé ces approches à une boîte à outils, dans laquelle il faut savoir piocher la bonne méthode en fonction du problème à résoudre, plutôt que d’appliquer systématiquement la même façon de décider.
Ces principes d’intelligence collective trouvent d’ailleurs une application très concrète dans la gestion de projet en équipe, notamment à travers les méthodes agiles comme Scrum, avec le daily meeting, qui s’apparente à une forme de stigmergie, ou la retrospective qui illustre la discussion libre, favorisant la confrontation d’idées pour choisir la meilleure solution collective. Scrum devient ainsi une véritable mise en pratique de l’intelligence collective, en fournissant un cadre flexible où différentes méthodes de prise de décision peuvent coexister selon les besoins du projet.
Il ne faut donc pas hésiter à proposer à son équipe de tester différentes méthodes d’organisation, quitte à se tromper, pour mieux comprendre ce qui fonctionne réellement pour une équipe et un contexte donnés. L’essentiel reste d’apprendre de ses erreurs, d’ajuster ses pratiques et de continuer à expérimenter, car c’est souvent comme ça qu’on finit par trouver l’équilibre le plus efficace.
J’ai personnellement trouvé ce talk particulièrement intéressant, car il aborde un sujet assez peu mis en avant selon moi dans le monde professionnel : la manière dont les équipes prennent leurs décisions. À première vue, cela peut sembler éloigné du développement logiciel, pourtant, j'ai trouvé de nombreuses similitudes avec le quotidien d’un développeur, notamment dans la gestion de projet et le travail en équipe.
🏭 Let's Play Factorio
Julien WITTOUCK ~ Software, Solution & DevOps Architect
Ce talk original s’est entièrement appuyé sur Factorio, un jeu d’automatisation dans lequel le joueur, échoué sur une planète extraterrestre, doit exploiter des ressources, construire des usines de plus en plus complexes et optimiser ses chaînes de production pour, à terme, fabriquer une fusée et s’échapper. Derrière son apparence de jeu de gestion, Factorio est en réalité un terrain de jeu parfait pour illustrer de nombreux concepts clés de la tech et de l’architecture logicielle. L’intégralité de la présentation a d’ailleurs été réalisée directement dans le jeu, offrant une visualisation concrète et ludique, loin des classiques schémas d’architecture.
Le talk était structuré en trois grands chapitres, chacun faisant le parallèle entre les mécaniques du jeu et les problématiques que l’on rencontre dans nos systèmes informatiques.
Le premier chapitre portait sur l’architecture du code. En découpant une usine en plusieurs zones dédiées, chacune responsable de la fabrication d’un type de pièce, il devient très simple d’identifier l’origine d’une panne et d’intervenir localement sans impacter l’ensemble du système. Cette approche illustre parfaitement les architectures en couches, comme le modèle 3-tiers, avec des responsabilités bien séparées et des dépendances claires. Le fait de créer une usine dédiée à une seule ressource permet également d’être plus scalable et plus tolérant aux pannes, une analogie directe avec le découpage d’une application en microservices indépendants.
Le second chapitre était consacré à la scalabilité. Julien a montré qu’on pouvait améliorer une usine existante pour produire plus vite, mais avec des limites évidentes, représentant la scalabilité verticale. À l’inverse, ajouter plusieurs usines identiques produisant en parallèle illustre la scalabilité horizontale. La séparation des tapis roulants pour mieux répartir les flux fait écho au load balancing, tandis que l’ajout de tableaux affichant les débits de production, couplés à des alertes en cas d’anomalie, représente parfaitement les notions de monitoring et d’alerting.
Enfin, le dernier chapitre abordait la sécurité. Filtrer les ressources qui entrent dans une usine pour éviter la surcharge permet de visualiser le rôle d’un firewall, notamment face à des attaques de type DDoS. De la même manière, le tri automatique des pièces défectueuses fait directement penser à un WAF, chargé de bloquer les requêtes malveillantes ou exploitant des failles de sécurité avant qu’elles n’atteignent le cœur du système.
Ce talk a brillamment démontré que des concepts parfois abstraits comme l’architecture, la scalabilité ou la sécurité peuvent être compris de manière intuitive et visuelle, aussi bien par des débutants que par des profils plus expérimentés. Une approche pédagogique originale et efficace, qui rappelle que… The Factory Must Grow 🔥
Les notions abordées étaient plutôt classiques, mais les voir illustrées dans un jeu rend les concepts beaucoup plus visuels et accessibles. Pour des personnes moins techniques ou qui découvrent ces notions, ça peut être super pertinent et pédagogique, même si pour un dev, c’est surtout amusant et inspirant à regarder.
🎛️ Faire bosser une IA avec vos outils du quotidien
Antonin BRUGNOT ~ Technical Lead - ONE POINT
Ce talk avait pour objectif de montrer comment intégrer des agents IA dans des outils du quotidien, grâce à n8n, une plateforme d’automatisation visuelle. L’idée n’est pas juste de brancher une IA pour faire joli, mais de l’orchestrer intelligemment afin d’en faire un véritable assistant utile, contrôlé et adapté à des cas d’usage réels.
Antonin a d’abord posé les bases en présentant n8n et son fonctionnement. Un workflow n8n repose sur des triggers (ce qui déclenche le workflow), des nodes (les différentes actions), des variables pour faire circuler les données, et une exécution qui représente l’exécution complète du scénario. Cette approche visuelle permet de comprendre rapidement comment les données transitent et comment les différentes briques interagissent entre elles.
Il a ensuite clarifié ce qu’est réellement un agent IA. Un agent ne se résume pas à un simple modèle de langage : il est composé d’un modèle (LLM), d’un prompt qui définit son comportement, et d’un ensemble d’outils qu’il peut utiliser pour agir. C’est cette combinaison qui permet à l’IA de raisonner, de prendre des décisions et d’interagir avec des systèmes externes plutôt que de simplement générer du texte.
Une partie importante de la conférence portait sur la différence entre une IA locale et une IA distante. Les modèles locaux, notamment via Ollama, offrent une meilleure sécurité des données et un coût nul à l’usage, et une latence très faible, au prix de ressources matérielles plus importantes. À l’inverse, les modèles distants sont plus simples à mettre en place et souvent plus performants, mais impliquent des coûts d’utilisation et des questions de confidentialité. Le choix dépend donc directement des contraintes du projet et des usages attendus.
Enfin, Antonin a montré comment intégrer un ou plusieurs agents IA dans un workflow n8n. Cela passe par la configuration de prompts système pour cadrer le comportement global de l’agent, de prompts utilisateur pour gérer les entrées dynamiques, par le choix du modèle via un model selector, et par l’utilisation du protocole MCP pour connecter l’IA à différents outils. La possibilité de créer des sous-agents spécialisés a également été abordée, permettant de déléguer certaines tâches à des agents dédiés au sein d’un même workflow.
Ce talk a surtout mis en avant une approche pragmatique : plutôt que d’utiliser l’IA comme une boîte noire, il s’agit de la maîtriser, l’orchestrer et l’intégrer intelligemment dans des processus existants. Une vision très concrète de ce que peuvent devenir les assistants IA dans nos environnements de travail quotidiens.
J'ai trouvé intéressant de voir comment on peut intégrer des agents IA dans des workflows concrets, mais le talk restait assez simple et très centré sur l’utilisation de n8n. Pour un développeur comme moi, ça n’apporte pas forcément de nouveauté technique majeure, c’est surtout un bon exemple pratique d’orchestration d’IA, plutôt qu’une conférence très impactante sur le plan métier ou technique.
🔀 Révolutionner l'interconnexion et la collaboration des agents IA
Tony JARRIAULT ~ Architect, Applications & Cloud Technologies - SOGETI
Ce talk s’est concentré sur un sujet clé pour l’avenir des agents IA : leur interconnexion et leur capacité à collaborer efficacement, notamment grâce au protocole MCP (Model Context Protocol). MCP a été présenté comme un standard visant à structurer et sécuriser les échanges entre les modèles d’IA et les outils qu’ils utilisent, afin de sortir des intégrations bricolées et difficiles à maintenir.
Tony a d’abord détaillé la distinction entre MCP client et MCP server. Côté client, MCP permet de gérer des concepts comme les roots, qui définissent le contexte de départ de l’agent, le sampling, qui encadre la manière dont les réponses sont générées, ou encore l’élicitation, utilisée pour guider l’IA dans la formulation ou l’affinage de ses réponses. Côté serveur, MCP expose des prompts, des resources et des tools, offrant à l’agent un accès structuré et contrôlé aux capacités dont il a réellement besoin pour agir.
Une parenthèse a été faite sur la sécurité, notamment via le mécanisme d’authentification On-Behalf-Of. Ce principe permet à un agent d’agir au nom d’un utilisateur ou d’un autre service, tout en conservant des droits clairement définis et traçables. Cela limite les risques d’abus et garantit que chaque action effectuée par un agent respecte les règles de sécurité et de permissions établies.
La conférence a également abordé le concept d’A2A (Agent-to-Agent), qui permet à plusieurs agents IA de communiquer directement entre eux. Cette approche ouvre la voie à des systèmes plus complexes, où chaque agent est spécialisé sur une tâche précise et collabore avec les autres pour résoudre des problèmes plus larges, à la manière d’une équipe distribuée.
En conclusion, même si le domaine des agents IA évolue extrêmement vite et que de nouveaux outils émergent presque quotidiennement, Tony a souligné que MCP s’impose comme un standard solide et structurant. Il fournit un cadre clair pour l’interopérabilité, la sécurité et la collaboration entre agents, et constitue une base fiable sur laquelle construire des systèmes d’IA durables et maîtrisés.
Ce talk m’a permis de mieux comprendre MCP et l’A2A, et ça m’a fait réfléchir : si nos applications web doivent un jour interagir avec des IA ou intégrer des agents collaboratifs, ne faudra-t-il pas, en plus de nos API classiques, penser à exposer un MCP pour structurer ces échanges ? C’est un point de vue perso, mais ça ouvre clairement des perspectives intéressantes pour l’évolution du dev web.
Pour conclure...
L’Epitech Summit 2026 a proposé des conférences particulièrement riches et inspirantes, abordant des sujets variés et au cœur des enjeux actuels du monde de la tech. Les différents talks ont permis aussi bien de prendre du recul sur nos pratiques que de découvrir de nouvelles approches, des outils concrets et des visions d’avenir.
Pour moi, c’était vraiment top de pouvoir assister à ce genre d’événement, et c’est vraiment un super point pour une école de proposer ce type de conférences. C’est un vrai plus pour les étudiants, qui peuvent ainsi s’inspirer, découvrir des tendances et se confronter à des retours d’expérience concrets du monde pro.
Mon seul petit bémol, c’est que beaucoup de conférences tournaient autour de l’IA. Certes, c’est la grande tendance du moment et c’est passionnant, mais à force, certaines interventions pouvaient sembler un peu répétitives. Malgré ça, l’expérience globale reste très positive, autant pour le contenu que pour l’ambiance générale de l’événement.
Un grand merci à l’ensemble des speakers pour la qualité de leurs interventions, leur pédagogie et le temps consacré au partage de leurs connaissances. Cette expérience a été une vraie source d’apprentissage et de réflexion, et confirme l’intérêt de ce type d’événement pour continuer à progresser, s’informer et échanger autour de nos métiers.