Cloud Native Days France 2026 : DevOps n’a pas bougé… mais tout a changé, la plateforme a pris le pouvoir
- Laura Bernard
- il y a 12 minutes
- 5 min de lecture
J’ai assisté aux Cloud Native Days France 2026 avec une attente classique : prendre la température du cloud-native, voir ce qui a évolué, ce qui émerge, ce qui disparaît.
Le résultat est paradoxal. D’un côté, un discours DevOps figé depuis une décennie. De l’autre, des signaux très clairs indiquent que le centre de gravité s’est déplacé vers la plateforme, la data et l’IA.
Voici ce que je retiens de cette édition.
DevOps en 2026 : le même discours, un nouveau mot-clé peut-être ?
La keynote « Quels savoir-faire et technologies les équipes de développement doivent-elles acquérir pour l’ère Cloud Native ? » ressemblait fortement à une table ronde DevOps… de 2016.
Même typologie d’équipes, mêmes références, même livre cité.
Le seul vrai changement est lexical. J’ai appris que je fais partie d’une équipe qui pourrait désormais se nommer “enabling team”.
Sur scène, avec Shérine Khoury, Laurent Bernaille, Denis Germain, Victor Boissière et Sébastien Blanc, le constat était clair, même s’il n’a jamais été formulé explicitement : le DevOps est stabilisé.
Ce n’est plus un sujet de transformation, mais un acquis.
On ne cherche plus à convaincre, on cherche à normaliser.
On ne débat plus du “pourquoi”. On industrialise le “comment”.
Le sujet central n’est donc plus “faire du DevOps”.
Il est devenu la capacité à construire des plateformes capables de supporter développeurs, data scientists et workloads IA.
Autoscaling Kubernetes : la fin du scaling naïf
Ce sentiment de stagnation n’est pas un échec. C’est le signe que le modèle est arrivé à maturité.
Le débat n’est plus organisationnel, il est (redevenu?) structurel.
À côté de ça, une chose est sûre : le vibe-coding est bien là, même si le sujet est resté discret. Je crois avoir récupéré un sticker “vibe coder” dans le salon.
L’usage des assistants de code serait-il encore tabou dans la communauté ? hum-humm
Autoscaling Kubernetes : quand HPA, VPA et KEDA se battent entre eux
La conférence de Nicolas Vermande intitulée « Stop the Fight : doper et unifier HPA, VPA et KEDA avec des métriques avancées » faisait clairement partie des talks les plus techniques et les plus intéressants.
Le point de départ est simple et très concret.
HPA scale horizontalement.
VPA ajuste CPU et RAM.
KEDA agit sur les files et les événements.
Pris ensemble, ces mécanismes entrent fréquemment en conflit. Chaque boucle de décision perturbe les autres, ce qui entraîne des oscillations, une surconsommation de ressources et parfois une réelle instabilité des clusters.
La suite du talk change clairement de niveau. On ne parle plus de seuils ou de règles empiriques, mais de régression linéaire, de dérivées et de P99.
Le message implicite est fort : l’autoscaling devient un problème de contrôle et de modélisation, pas seulement de configuration Kubernetes.
Cela modifie en profondeur le rôle du platform engineer. L’observabilité avancée, les statistiques et la compréhension fine du comportement des systèmes deviennent centrales.
Multi-tenancy Kubernetes à la DINUM : Kubernetes comme PaaS interne
Le retour d’expérience de la DINUM sur une distribution Kubernetes multi-tenant basée sur Capsule illustre une tendance désormais bien établie.
Les grandes organisations cherchent à offrir Kubernetes à grande échelle sans multiplier les clusters. Elles veulent à la fois une isolation forte, de l’autonomie pour les équipes et une gouvernance centralisée.
Le multi-tenant Kubernetes répond précisément à ce besoin. Kubernetes n’est plus vu comme un simple cluster technique, mais comme une plateforme interne, presque un PaaS.
Ce type de retour d’expérience montre que l’Internal Developer Platform n’est plus un concept théorique. C’est une réalité opérationnelle, y compris dans le secteur public.
MLOps à l’INSEE : le retour du mur, version data
Le REX de l’INSEE sur le MLOps et la mise en place d’une plateforme interne basée sur Onyxia était particulièrement parlant.
Un constat s’impose.
Les équipes Dev et Ops ont appris à travailler ensemble.
Mais les data scientists et les équipes Ops peinent désormais à se comprendre.
L’histoire se répète presque à l’identique. Une nouvelle fracture apparaît, non plus entre Dev et Ops, mais entre Data et Plateforme.
Le MLOps est en train de rejouer la naissance du DevOps, avec les mêmes incompréhensions, les mêmes silos et les mêmes besoins de plateformes abstraites.
C’est probablement l’un des chantiers majeurs des prochaines années. Le Data Platform Engineering est en train d’émerger comme un domaine à part entière.
VictoriaLogs : la promesse d’une observabilité plus simple
La présentation de VictoriaLogs, animée par Diana Todea, a été l’une des bonnes surprises de la conférence.
Si vous appréciez déjà VictoriaMetrics, vous êtes immédiatement en terrain connu. Même ADN, mêmes choix assumés. Un binaire ultra-compact, une architecture volontairement simple et une obsession saine pour la performance et la scalabilité.
VictoriaLogs ne cherche pas à réinventer le log management à coups de couches et de dépendances. L’outil va droit au but : ingérer, stocker et interroger des logs efficacement, avec une conception pensée dès le départ pour des environnements cloud-native à grande échelle.
Voir l’écosystème Victoria s’étendre aux logs est une excellente nouvelle pour celles et ceux qui veulent une observabilité performante et pragmatique, sans empilement inutile.
On attend maintenant les “Traces”, qui ne sauraient tarder.
Mistral AI : quand les entreprises deviennent des cloud providers
Le retour d’expérience de Mistral AI, présenté par Léonard Suslian et Antoine Roy, était probablement le plus impressionnant.
Les chiffres donnent le vertige :
Des clusters Kubernetes de 4 500 nœuds.
Des pétaoctets de RAM.
Des entraînements de modèles mobilisant des milliers de GPU.
Du bare metal à grande échelle.
Et même plusieurs clusters ETCD pour un seul cluster Kubernetes (si si c'est énorme...).
Ce talk met en lumière une tendance lourde. Les entreprises spécialisées dans l’IA deviennent des fournisseurs de cloud à part entière. Pour des raisons de performance, de coût et de souveraineté, le retour au datacenter et au bare metal est pleinement assumé.
ClusterAPI, ou CAPI pour les intimes, n’est plus un outil périphérique. Il devient un composant critique de ces infrastructures géantes.
Le cloud-native dépasse désormais largement le cadre du cloud public.
Conclusion :
DevOps est stabilisé, la plateforme devient stratégique
Les Cloud Native Days France 2026 laissent une impression contrastée.
Le discours DevOps semble figé, mais l’écosystème, lui, évolue profondément.
La révolution DevOps est derrière nous.
La révolution des plateformes, de la data et des infrastructures IA est clairement engagée.
Les prochaines années ne porteront plus sur l’organisation des équipes, mais sur la capacité à concevoir et opérer des plateformes capables d’absorber la complexité croissante des workloads, en particulier ceux liés à la data et à l’IA.
Un événement réussi ! Bravo à toute l’équipe pour cette conférence de qualité ! Merci aux speakers et merci aux sponsors.
Auteur : François Berthault



Commentaires