82% draait Kubernetes in productie. Toch stranden de meeste AI-projecten.
Kubernetes heeft gewonnen. Dat gesprek hoeven we niet meer te voeren.
Met een adoptiegraad van 82% in productie is het uitgegroeid tot de standaard onder vrijwel elke serieuze AI-workload. GPU-scheduling, dynamische resource-allocatie, training pipelines — Kubernetes regelt het. CNCF-CTO Chris Aniszczyk verwoordde het treffend: "Kubernetes is no longer a niche tool; it's a core infrastructure layer supporting scale, reliability, and increasingly AI systems."
De technologie is er dus. Waarom komen zoveel AI-projecten dan niet voorbij de pilotfase?
Uit het laatste CNCF-rapport blijkt wat wij bij onze eigen klanten al langer zien: de moeilijke problemen zijn niet meer technisch. Ze zitten in de organisatie.
Data scientists bouwen modellen in notebooks. Platform engineers beheren clusters. Security-reviews komen er achteraan. Die teams delen geen tooling, geen prioriteiten en vaak zelfs geen gemeenschappelijke taal. Het resultaat: AI-prototypes die briljant werken op een laptop, maar nooit in productie geraken.
De infrastructuur doet wat ze moet doen. De uitdaging zit in het samenwerken eromheen.
Volgens CNCF werkt 37% van de organisaties met meerdere cloudproviders. Voor Europese bedrijven die navigeren tussen GDPR, de EU Data Act en de groeiende druk rond digitale soevereiniteit zal dat percentage alleen maar stijgen.
Multi-cloud is een verstandige strategie — het beschermt tegen vendor lock-in en houdt data waar toezichthouders het verwachten. Maar het brengt ook complexiteit. AI-workloads draaien over AWS, een Europese sovereign cloud en on-premises infrastructuur heen? Dan heb je een platformteam nodig dat verder denkt dan één provider. Managed AI-diensten als SageMaker of Vertex AI zijn verleidelijk, maar binden je aan één ecosysteem. Voor Europese bedrijven verdient die afweging serieuze aandacht.
Kubernetes geeft je de abstractielaag om flexibel te blijven. Maar alleen als iemand die abstractie ook bewust beheert, in plaats van elk team zijn eigen eiland te laten bouwen.
Geen eenmalige workshop. Een structurele verandering. Als je data scientists een model niet in productie kunnen brengen zonder een ticket bij een andere afdeling, verlies je weken per iteratiecyclus. Gedeeld eigenaarschap van de AI-pipeline — van training tot inference — is de impactvolste verandering die de meeste organisaties kunnen doorvoeren.
Bij DPG Media's radiodivisie zagen we precies dit. Vijf merken, twee landen, en alle operationele kennis bij één persoon. De oplossing was geen extra infrastructuur — het was gedeeld eigenaarschap opbouwen, het team coachen op CI/CD en Kubernetes, en ervoor zorgen dat iedereen kon werken met wat er gebouwd werd. Bekijk hoe ze dat aanpakten →
Veel bedrijven noemen zichzelf multi-cloud, maar draaien 90% van hun workloads bij één provider. Dat is prima — tot het dat niet meer is. Breng in kaart waar je AI-trainingsdata staat, waar inference draait, en of je beide binnen 90 dagen zou kunnen verplaatsen. Als het antwoord "nee" is, blijft je multi-cloudstrategie bij theorie.
De uitdaging die Aniszczyk schetst — "decrease the difficulty of serving AI workloads" — is reëel. Je ML-engineers zouden geen Kubernetes-networking moeten doorgronden om een model te deployen. Bouw of adopteer een intern platform dat de infrastructuur abstraheert en datateams laat shippen. De teams die dit goed aanpakken, itereren sneller dan de rest.
Je cluster kan AI-workloads aan. De GPU-scheduling werkt. De autoscaling doet zijn ding. De vraag is of je organisatie snel genoeg kan schakelen om te benutten wat er al staat.
Dat antwoord ligt bij het leiderschap, niet bij een volgende infrastructuur-upgrade.
Krane Labs helpt Europese bedrijven bij het bouwen en optimaliseren van cloud-native platformen. AI-workloads op Kubernetes in de planning en wil je sparren over architectuur of teamstructuur? Neem contact op.