KServe devient un projet CNCF : Kubernetes se prépare pour l'IA

Auteur : Mike Vizard Source : cloudnativenow.com Date de publication : 13.11.2025

Aperçu

Auteur : Mike Vizard
Source : CloudNativeNow.com
Date de publication : 13 novembre 2025
Temps de lecture : env. 4-5 minutes


Résumé

KServe, une plateforme open source pour les moteurs d'inférence IA, rejoint la Cloud Native Computing Foundation (CNCF) et y sera géré en tant que projet incubateur. L'annonce a été faite lors de KubeCon + CloudNativeCon 2025.

Les faits clés :

2019 développé par Google, IBM, Bloomberg, NVIDIA et Seldon dans le cadre du projet Kubeflow • Février 2022 : Transition vers la LF AI & Data Foundation
Novembre 2025 : Passage à la CNCF en tant que projet de niveau incubateur • Déjà intégré dans Red Hat OpenShift AI avec le moteur d'inférence vLLM • Objectif : Pont entre les applications cloud-natives et IA sur Kubernetes • Red Hat développe la plateforme "Red Hat AI 3" avec Model-as-a-Service (MaaS) • Support pour divers modèles IA : GPT-OSS, DeepSeek-R1, Whisper, Voxtral Mini


Opportunités & Risques

Opportunités

Meilleure intégration : Permet une collaboration plus étroite entre les projets CNCF • Mise à l'échelle : Utilisation plus efficace des ressources grâce à la montée et descente en charge dynamiques • Déploiement edge : Les applications IA peuvent également fonctionner dans des environnements edge plus petits

Risques

Pénurie de compétences : L'expertise pour les charges de travail IA sur Kubernetes est rare • Adoption incertaine : D'autres fournisseurs pourraient suivre leurs propres voies • Complexité : Kubernetes + IA = double défi pour les équipes IT


Vision d'avenir

Court terme (1 an) : Intégration renforcée de KServe dans les environnements Kubernetes existants, surtout chez les clients Red Hat.

Moyen terme (5 ans) : L'inférence IA sur Kubernetes pourrait devenir la norme si la communauté CNCF s'impose. Les déploiements edge-AI augmentent.

Long terme (10-20 ans) : Kubernetes comme standard de facto pour les applications IA distribuées – à condition que le problème de compétences soit résolu et que la complexité reste gérable.


Vérification des faits

Bien documenté : • L'historique du projet et les transitions entre fondations • Intégration dans Red Hat OpenShift AI
• Détails techniques sur vLLM et les modèles supportés

Encore à vérifier : • Taux d'adoption concrets de KServe [⚠️ Encore à vérifier] • Part de marché par rapport à d'autres plateformes d'inférence IA [⚠️ Encore à vérifier] • Améliorations de performance réelles grâce au passage à la CNCF [⚠️ Encore à vérifier]


Bilan succinct

KServe fait le pas stratégiquement logique vers la CNCF pour être plus proche de la communauté Kubernetes. C'est intelligent, car si les applications IA doivent vraiment fonctionner de manière standard sur Kubernetes, il faut une meilleure intégration. Le plus grand obstacle reste cependant le manque de personnel qualifié maîtrisant à la fois Kubernetes et les charges de travail IA. Red Hat se positionne habilement comme fournisseur de plateforme – la question est de savoir si d'autres suivront ou prendront leurs propres chemins.


Trois questions critiques

  1. Est-ce que cela favorise le vendor lock-in par la porte dérobée ? Red Hat est la force motrice derrière le passage à la CNCF et intègre déjà KServe profondément dans sa plateforme. Cela reste-t-il vraiment neutre vis-à-vis des fournisseurs ?

  2. Qui porte la responsabilité des modèles IA dans les environnements de production ? Avec les applications IA distribuées sur edge et cloud, la chaîne de responsabilité devient assez longue et opaque.

  3. Cela résout-il vraiment le problème de complexité ou en crée-t-il de nouveaux ? Kubernetes + inférence IA + déploiement edge – est-ce que cela reste gérable pour les équipes IT normales, ou aurons-nous bientôt besoin de spécialistes IA pour l'infrastructure IA ?