srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?quality=50&strip=all 5833w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Näher an der Kubernetes-Realität als das stilisierte Steuerrad.adolf martinez soler | shutterstock.com Kubernetes ist nach Linux das Open-Source-Projekt mit der zweitgrößten „Velocity“: Im Laufe der vergangenen Dekade haben Tausende von Unternehmen zu der Container-Orchestrierungsplattform beigetragen. Inzwischen ist Kubernetes zum Herzstück eines florierenden Cloud-Native-Ökosystems geworden und dient in vielen Bereichen als Grundlage – von CI/CD Pipelines über Machine-Learning-Trainings-Cluster bis hin zu (weltweit) verteilten Datenbanken. Im Alter von zehn Jahren zeigt sich Kubernetes dabei so flexibel wie noch nie: Die Plattform unterstützt inzwischen eine Vielzahl von Workload-Typen „out of the box“. Zudem ermöglichen benutzerdefinierte Ressourcendefinitionen und Operatoren zusätzliche Features wie beispielsweise: Observability, Networking, Backup und Recovery, oder Policy Management. Für die im Lauf der Jahre aufgetauchten Probleme mit Kubernetes steuerte die Community ebenfalls viele hilfreiche Tools bei, zum Beispiel: für Multi-Cluster-Management, um Legacy-VMs zu portieren, um Container in Edge- oder Bare-Metal-Umgebungen bereitzustellen, und um Kubernetes für die KI-Entwicklung zu nutzen. All diese Fortschritte rücken Kubernetes in den Mittelpunkt künftiger, unternehmensinterner Cloud-Infrastrukturen. Laut einer aktuellen Umfrage der Cloud Native Computing Foundation (CNCF) nutzen 84 Prozent der befragten Unternehmen Kubernetes entweder in der Produktion – oder erwägen das. Es stellt sich allerdings die Frage, ob die Orchestrierungsplattform jemals einfacher (nutzbar) werden kann, wenn sie immer mehr Funktionen und Workloads „absorbiert“. In diesem Artikel werfen wir gemeinsam mit diversen Fachexperten einen Blick darauf, wie die Chancen für weniger Kubernetes-Komplexität in der Zukunft stehen. Bemerkenswerter Fortschritt „Kubernetes zu nutzen, ist definitiv viel einfacher und stabiler geworden“, befindet Murli Thirumale, General Manager von Portworx, der Cloud-Native-Geschäftseinheit von Pure Storage. Das führt Thirumale darauf zurück, dass Kubernetes sich im Rahmen der Container-Scheduler-Kriege der 2010er Jahre gegen Herausforderer wie Docker Swarm und Apache Mesos durchgesetzt hat. Seitdem, so der Experte, habe sich die Branche darauf konzentriert, die Basisbereitstellung weiter zu optimieren und darauf aufbauende Lösungen zu entwickeln. Im Resultat sieht Thirumale eine stabilere Verteilung sowie eine Konsolidierung der Anbieter für Kernfunktionen. Peter Szczepaniak, Senior Product Manager bei Percona, nimmt bei Kubernetes ebenfalls bereits in diversen Bereichen eine verbesserte Usability wahr: „Insbesondere ist hervorzuheben, dass die Kubernetes-Betreiber vieles zugänglicher gestalten – beispielweise, wenn es darum geht, komplexe Workloads wie hochautomatisierte Datenbanken auszuführen.“ Weitere Fortschritte bei Kubernetes nimmt Szczepaniak wahr in Form von: Support für CSI-Treiber, Affinity- und Anti-Affinity-Konfigurationen, sowie Stateful Sets, die darauf abzielen, bestimmte Use Cases direkt zu adressieren. Speziell, wenn es um Backup und Disaster Recovery gehe, seien dank Enterprise-zentrischer Tools viele Usability-Hürden gefallen, meint Gaurav Rishi, Vice President bei Veeam. „Die Alternative besteht darin, dafür selbst mit verschiedenen, quelloffenen Code-Parts zu sorgen. Die Dinge sind wesentlich einfacher geworden, auch in Bezug auf die Sicherheit. Noch vor fünf Jahren haben Unternehmen keine Cluster in Produkte umgewandelt, weil Security ein Problem darstellte“, erläutert Rishi. Steigende Komplexität Dennoch gibt es nach wie vor einige Stolpersteine. In der Wahrnehmung vieler Benutzer sind weitere Abstraktionen notwendig, um den erheblichen Mehraufwand zu reduzieren, den Kubernetes verursacht. Zum Beispiel mit Blick auf: Bereitstellung, sichere Konfiguration und Monitoring-Anbindung. Und obwohl es für mittelgroße Unternehmen inzwischen attraktiver geworden ist, bleibt Kubernetes besonders für kleine Projekte und Organisationen, denen es an Fachwissen und Ressourcen mangelt, meist immer noch eine Nummer zu groß. Schuld daran seien Day-Two-Probleme, wie Ari Weil, Cloud-Evangelist bei Akamai, erklärt: „Kubernetes ist ausgereift, aber die meisten Unternehmen und Entwickler erkennen erst, wie komplex eine Umgebung sein kann, wenn sie tatsächlich skaliert werden muss.“ Es sind nicht die einzigen Fallstricke für Kubernetes-Anwender. Schon die schiere Anzahl verfügbarer Tools kann zum Hindernis werden – respektive zur „Analysis Paralysis“ führen: Aktuell beherbergt die Cloud Native Landscape der CNCF mehr als 200 Projekte mit knapp 900 Repositories. „Tools wie Helm und Argo CD unterstützen zwar dabei, Addons zu managen, aber das ist in Kubernetes-Umgebungen bekanntermaßen schwierig, weil dabei zusätzliche Komplexitäten eingeführt werden, die unterschiedliche Fachkenntnisse erfordern“, erklärt Itiel Shwartz, Mitbegründer und CTO des Kubernetes-Spezialisten Komodor. Er ergänzt: „Dazu kommt, dass jedes Tool eigene Konfigurationsanforderungen aufwirft, was zu Reibungsverlusten führen kann.“ Weitere, gängige Kubernetes-Bottlenecks sind laut dem Experten: Prüfpunkte einzurichten, um Health Checks bei Applikationen durchzuführen, die richtigen Requests und Limits zu definieren, sowie Netzwerkrichtlinien zu konfigurieren. „Falsch konfigurierte Ressourcenbeschränkungen können zu Problemen wie Pod Evictions, unausgewogenen Workloads und unerwarteten Anwendungsfehlern führen“, warnt Shwartz. Der Scope wächst… Gleichzeitig wird es für Devops-Teams immer schwieriger, Kubernetes zu widerstehen. Denn damit geht heute weit mehr als nur Containerorchestrierung – die Plattform wird inzwischen als das „Betriebssystem der Cloud“ betrachtet. Über Plugins, das Container Network Interface (CNI) und das Container Storage Interface (CSI) lässt sich der Anwendungsbereich von Kubernetes nun auch auf Network und Storage erweitern. „Dadurch wird Kubernetes zu einer Multi-Cloud-Steuerungsebene für die Infrastruktur“, konstatiert Thirumale. Aber Kubernetes wird inzwischen auch genutzt, um Legacy-Workloads zu händeln. Das aufstrebende Tool KubeVirt kann beispielsweise mit virtuellen Maschinen arbeiten, die häufig geschäftskritische Legacy-Anwendungen stützen. „Das ist ein großer Schritt nach vorne für Kubernetes“, meint Thirumale. Er ist fest davon überzeugt, dass das die Chancen erhöht, dass Kubernetes künftig zum Mainstream wird – auch für bestehende Applikationen mit hohem Transaktionsvolumen, wie sie im Automotive-Bereich, dem Bankenwesen und von traditionellen Industrieunternehmen eingesetzt werden. Dass Legacy-Workloads in die Cloud-Native-Infrastruktur Einzug halten, ist übrigens nicht nur aus Modernisierungsperspektive interessant, sondern auch mit Blick auf die durch die Broadcom-Konsolidierungen verursachten Preiserhöhungen bei VMware. Zur Wahrheit gehört aber auch, dass Legacy-Workloads unterschiedliche Anforderungen an Datenmigration, Backup, Disaster Recovery und Access Management aufwerfen, wie Thirumale erklärt: „Wenn dem Kubernetes-Datenmanagement neue Funktionen hinzugefügt werden, die nicht für Container, aber für virtuelle Maschinen erforderlich sind, birgt das für die Benutzer natürlich auch zusätzliche Komplexität.“ …und wächst Der Portworx-Manager sieht außerdem hohes Potenzial für Kubernetes, wenn es um KI-Modelltraining und Inferenz-Workloads geht: „Künstliche Intelligenz und Kubernetes überschneiden sich zu fast 90 Prozent – und KI erfordert naturgemäß eine elastische Infrastruktur.“ Kubernetes auf neue, KI-native Applikationen anzuwenden und die Skalierbarkeit von KI-Inferenzmodellen auf Kubernetes-Clustern zu managen, stellt jedoch eine massive Herausforderung dar – wie Kevin Cochrane, CMO beim Virtualisierungsspazilisten Vultr, weiß: „Die betriebliche Disziplin und die Playbooks, um containerisierte Anwendungen auf Kubernetes zu hosten, müssen überarbeitet werden. Im Bereich der Tools, die eine integrierte, vollumfängliche KI-Modell-Pipeline unterstützen, gab es bislang wenig Fortschritte.“ Kubeflow, ein in Entwicklung befindliches CNCF-Projekt, will es künftig erleichtern, Machine-Learning-Modelle auf Kubernetes bereitzustellen und zu managen. In Kombination mit Kserve (für Framework-unabhängige KI-Inferenz) hat das Tool das Potenzial, die Workflows von Datenwissenschaftlern zu vereinfachen. „Tools wie diese machen es deutlich einfacher, KI zu nutzen, weil sie die Infrastruktur abstrahieren. So können Modelle leichter erstellt werden, was guten Geschäftsergebnissen zuträglich ist“, hält Chase Christiansen, Staff Solutions Engineer bei TileDB, fest. Für KI-Inferenz und viele weitere Use Cases, bei denen die Nähe zu den Daten und die Latenz von Bedeutung sind, findet Kubernetes auch eine Rolle im Bereich Edge Computing – und bietet Optionen für kleinere Container-Implementierungen. „Die Anwendungsfälle von Kubernetes am Edge nehmen mit Sicherheit zu“, ist Rishi überzeugt. Der Veeam-Manager verweist auf abgespeckte Kubernetes-Varianten, die besonders leichtgewichtige Edge-Container-Distributionen ermöglichen: K3s, eine leichtgewichtige Kubernetes-Distribution für Umgebungen mit eingeschränkten Ressourcen, und Bottlerocket, ein portables, Linux-basiertes Betriebssystem, um Container auszuführen. „Am Edge müssen möglicherweise Zehntausende kleiner Cluster verwaltet werden. Das macht einen zentralisierten Mechanismus unabdingbar, um Container unter Verwendung einer heterogenen Laufzeitumgebung zu koordinieren und bereitzustellen“, gibt Raghu Vatte, Field CTO beim Edge-Spezialisten Zededa, zu bedenken. Er fügt hinzu: „Man möchte eine Anwendung nicht neu erstellen, nur weil man sie am Edge bereitstellt.“ Um Kubernetes-Workloads für verschiedene Clouds und Regionen portabel zu machen, empfiehlt Akamai-Evangelist Weil, proprietäre Wrapper zu vermeiden. Stattdessen hebt er den Wert von „Golden Path Templates“ hervor, die die Kompatibilität mit Kubernetes in seiner Open-Source-Form beibehielten und auf stabilen CNCF-Projekten wie OpenTelemetry, Argo, Prometheus oder Flatcar aufbauten: „Das kann die Back-End-Orchestrierung vereinfachen, die Anbieterabhängigkeit verringern und die nötige Flexibilität für Multi-Clouds ermöglichen.“ Besserung in Sicht! Auch nach zehn Jahren ist Kubernetes noch immer komplex – selbst als Managed Service. Es gibt jedoch diverse Bemühungen, Abstraktionen zu entwickeln, die die Entwicklererfahrung und Zugänglichkeit der Plattform verbessern. Und auch die Tools werden weiterentwickelt – in Zukunft könnte KI auch in diesen Bereich zum Einsatz kommen, um es zum Beispiel zu erleichtern, Kubernetes-Cluster zu monitoren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
Wird Kubernetes je einfacher?
srcset="https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?quality=50&strip=all 5833w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">Näher an der Kubernetes-Realität als das stilisierte Steuerrad.adolf martinez soler | shutterstock.com Kubernetes ist nach Linux das Open-Source-Projekt mit der zweitgrößten „Velocity“: Im Laufe der vergangenen Dekade haben Tausende von Unternehmen zu der Container-Orchestrierungsplattform beigetragen. Inzwischen ist Kubernetes zum Herzstück eines florierenden Cloud-Native-Ökosystems geworden und dient in vielen Bereichen als Grundlage – von CI/CD Pipelines über Machine-Learning-Trainings-Cluster bis hin zu (weltweit) verteilten Datenbanken. Im Alter von zehn Jahren zeigt sich Kubernetes dabei so flexibel wie noch nie: Die Plattform unterstützt inzwischen eine Vielzahl von Workload-Typen „out of the box“. Zudem ermöglichen benutzerdefinierte Ressourcendefinitionen und Operatoren zusätzliche Features wie beispielsweise: Observability, Networking, Backup und Recovery, oder Policy Management. Für die im Lauf der Jahre aufgetauchten Probleme mit Kubernetes steuerte die Community ebenfalls viele hilfreiche Tools bei, zum Beispiel: für Multi-Cluster-Management, um Legacy-VMs zu portieren, um Container in Edge- oder Bare-Metal-Umgebungen bereitzustellen, und um Kubernetes für die KI-Entwicklung zu nutzen. All diese Fortschritte rücken Kubernetes in den Mittelpunkt künftiger, unternehmensinterner Cloud-Infrastrukturen. Laut einer aktuellen Umfrage der Cloud Native Computing Foundation (CNCF) nutzen 84 Prozent der befragten Unternehmen Kubernetes entweder in der Produktion – oder erwägen das. Es stellt sich allerdings die Frage, ob die Orchestrierungsplattform jemals einfacher (nutzbar) werden kann, wenn sie immer mehr Funktionen und Workloads „absorbiert“. In diesem Artikel werfen wir gemeinsam mit diversen Fachexperten einen Blick darauf, wie die Chancen für weniger Kubernetes-Komplexität in der Zukunft stehen. Bemerkenswerter Fortschritt „Kubernetes zu nutzen, ist definitiv viel einfacher und stabiler geworden“, befindet Murli Thirumale, General Manager von Portworx, der Cloud-Native-Geschäftseinheit von Pure Storage. Das führt Thirumale darauf zurück, dass Kubernetes sich im Rahmen der Container-Scheduler-Kriege der 2010er Jahre gegen Herausforderer wie Docker Swarm und Apache Mesos durchgesetzt hat. Seitdem, so der Experte, habe sich die Branche darauf konzentriert, die Basisbereitstellung weiter zu optimieren und darauf aufbauende Lösungen zu entwickeln. Im Resultat sieht Thirumale eine stabilere Verteilung sowie eine Konsolidierung der Anbieter für Kernfunktionen. Peter Szczepaniak, Senior Product Manager bei Percona, nimmt bei Kubernetes ebenfalls bereits in diversen Bereichen eine verbesserte Usability wahr: „Insbesondere ist hervorzuheben, dass die Kubernetes-Betreiber vieles zugänglicher gestalten – beispielweise, wenn es darum geht, komplexe Workloads wie hochautomatisierte Datenbanken auszuführen.“ Weitere Fortschritte bei Kubernetes nimmt Szczepaniak wahr in Form von: Support für CSI-Treiber, Affinity- und Anti-Affinity-Konfigurationen, sowie Stateful Sets, die darauf abzielen, bestimmte Use Cases direkt zu adressieren. Speziell, wenn es um Backup und Disaster Recovery gehe, seien dank Enterprise-zentrischer Tools viele Usability-Hürden gefallen, meint Gaurav Rishi, Vice President bei Veeam. „Die Alternative besteht darin, dafür selbst mit verschiedenen, quelloffenen Code-Parts zu sorgen. Die Dinge sind wesentlich einfacher geworden, auch in Bezug auf die Sicherheit. Noch vor fünf Jahren haben Unternehmen keine Cluster in Produkte umgewandelt, weil Security ein Problem darstellte“, erläutert Rishi. Steigende Komplexität Dennoch gibt es nach wie vor einige Stolpersteine. In der Wahrnehmung vieler Benutzer sind weitere Abstraktionen notwendig, um den erheblichen Mehraufwand zu reduzieren, den Kubernetes verursacht. Zum Beispiel mit Blick auf: Bereitstellung, sichere Konfiguration und Monitoring-Anbindung. Und obwohl es für mittelgroße Unternehmen inzwischen attraktiver geworden ist, bleibt Kubernetes besonders für kleine Projekte und Organisationen, denen es an Fachwissen und Ressourcen mangelt, meist immer noch eine Nummer zu groß. Schuld daran seien Day-Two-Probleme, wie Ari Weil, Cloud-Evangelist bei Akamai, erklärt: „Kubernetes ist ausgereift, aber die meisten Unternehmen und Entwickler erkennen erst, wie komplex eine Umgebung sein kann, wenn sie tatsächlich skaliert werden muss.“ Es sind nicht die einzigen Fallstricke für Kubernetes-Anwender. Schon die schiere Anzahl verfügbarer Tools kann zum Hindernis werden – respektive zur „Analysis Paralysis“ führen: Aktuell beherbergt die Cloud Native Landscape der CNCF mehr als 200 Projekte mit knapp 900 Repositories. „Tools wie Helm und Argo CD unterstützen zwar dabei, Addons zu managen, aber das ist in Kubernetes-Umgebungen bekanntermaßen schwierig, weil dabei zusätzliche Komplexitäten eingeführt werden, die unterschiedliche Fachkenntnisse erfordern“, erklärt Itiel Shwartz, Mitbegründer und CTO des Kubernetes-Spezialisten Komodor. Er ergänzt: „Dazu kommt, dass jedes Tool eigene Konfigurationsanforderungen aufwirft, was zu Reibungsverlusten führen kann.“ Weitere, gängige Kubernetes-Bottlenecks sind laut dem Experten: Prüfpunkte einzurichten, um Health Checks bei Applikationen durchzuführen, die richtigen Requests und Limits zu definieren, sowie Netzwerkrichtlinien zu konfigurieren. „Falsch konfigurierte Ressourcenbeschränkungen können zu Problemen wie Pod Evictions, unausgewogenen Workloads und unerwarteten Anwendungsfehlern führen“, warnt Shwartz. Der Scope wächst… Gleichzeitig wird es für Devops-Teams immer schwieriger, Kubernetes zu widerstehen. Denn damit geht heute weit mehr als nur Containerorchestrierung – die Plattform wird inzwischen als das „Betriebssystem der Cloud“ betrachtet. Über Plugins, das Container Network Interface (CNI) und das Container Storage Interface (CSI) lässt sich der Anwendungsbereich von Kubernetes nun auch auf Network und Storage erweitern. „Dadurch wird Kubernetes zu einer Multi-Cloud-Steuerungsebene für die Infrastruktur“, konstatiert Thirumale. Aber Kubernetes wird inzwischen auch genutzt, um Legacy-Workloads zu händeln. Das aufstrebende Tool KubeVirt kann beispielsweise mit virtuellen Maschinen arbeiten, die häufig geschäftskritische Legacy-Anwendungen stützen. „Das ist ein großer Schritt nach vorne für Kubernetes“, meint Thirumale. Er ist fest davon überzeugt, dass das die Chancen erhöht, dass Kubernetes künftig zum Mainstream wird – auch für bestehende Applikationen mit hohem Transaktionsvolumen, wie sie im Automotive-Bereich, dem Bankenwesen und von traditionellen Industrieunternehmen eingesetzt werden. Dass Legacy-Workloads in die Cloud-Native-Infrastruktur Einzug halten, ist übrigens nicht nur aus Modernisierungsperspektive interessant, sondern auch mit Blick auf die durch die Broadcom-Konsolidierungen verursachten Preiserhöhungen bei VMware. Zur Wahrheit gehört aber auch, dass Legacy-Workloads unterschiedliche Anforderungen an Datenmigration, Backup, Disaster Recovery und Access Management aufwerfen, wie Thirumale erklärt: „Wenn dem Kubernetes-Datenmanagement neue Funktionen hinzugefügt werden, die nicht für Container, aber für virtuelle Maschinen erforderlich sind, birgt das für die Benutzer natürlich auch zusätzliche Komplexität.“ …und wächst Der Portworx-Manager sieht außerdem hohes Potenzial für Kubernetes, wenn es um KI-Modelltraining und Inferenz-Workloads geht: „Künstliche Intelligenz und Kubernetes überschneiden sich zu fast 90 Prozent – und KI erfordert naturgemäß eine elastische Infrastruktur.“ Kubernetes auf neue, KI-native Applikationen anzuwenden und die Skalierbarkeit von KI-Inferenzmodellen auf Kubernetes-Clustern zu managen, stellt jedoch eine massive Herausforderung dar – wie Kevin Cochrane, CMO beim Virtualisierungsspazilisten Vultr, weiß: „Die betriebliche Disziplin und die Playbooks, um containerisierte Anwendungen auf Kubernetes zu hosten, müssen überarbeitet werden. Im Bereich der Tools, die eine integrierte, vollumfängliche KI-Modell-Pipeline unterstützen, gab es bislang wenig Fortschritte.“ Kubeflow, ein in Entwicklung befindliches CNCF-Projekt, will es künftig erleichtern, Machine-Learning-Modelle auf Kubernetes bereitzustellen und zu managen. In Kombination mit Kserve (für Framework-unabhängige KI-Inferenz) hat das Tool das Potenzial, die Workflows von Datenwissenschaftlern zu vereinfachen. „Tools wie diese machen es deutlich einfacher, KI zu nutzen, weil sie die Infrastruktur abstrahieren. So können Modelle leichter erstellt werden, was guten Geschäftsergebnissen zuträglich ist“, hält Chase Christiansen, Staff Solutions Engineer bei TileDB, fest. Für KI-Inferenz und viele weitere Use Cases, bei denen die Nähe zu den Daten und die Latenz von Bedeutung sind, findet Kubernetes auch eine Rolle im Bereich Edge Computing – und bietet Optionen für kleinere Container-Implementierungen. „Die Anwendungsfälle von Kubernetes am Edge nehmen mit Sicherheit zu“, ist Rishi überzeugt. Der Veeam-Manager verweist auf abgespeckte Kubernetes-Varianten, die besonders leichtgewichtige Edge-Container-Distributionen ermöglichen: K3s, eine leichtgewichtige Kubernetes-Distribution für Umgebungen mit eingeschränkten Ressourcen, und Bottlerocket, ein portables, Linux-basiertes Betriebssystem, um Container auszuführen. „Am Edge müssen möglicherweise Zehntausende kleiner Cluster verwaltet werden. Das macht einen zentralisierten Mechanismus unabdingbar, um Container unter Verwendung einer heterogenen Laufzeitumgebung zu koordinieren und bereitzustellen“, gibt Raghu Vatte, Field CTO beim Edge-Spezialisten Zededa, zu bedenken. Er fügt hinzu: „Man möchte eine Anwendung nicht neu erstellen, nur weil man sie am Edge bereitstellt.“ Um Kubernetes-Workloads für verschiedene Clouds und Regionen portabel zu machen, empfiehlt Akamai-Evangelist Weil, proprietäre Wrapper zu vermeiden. Stattdessen hebt er den Wert von „Golden Path Templates“ hervor, die die Kompatibilität mit Kubernetes in seiner Open-Source-Form beibehielten und auf stabilen CNCF-Projekten wie OpenTelemetry, Argo, Prometheus oder Flatcar aufbauten: „Das kann die Back-End-Orchestrierung vereinfachen, die Anbieterabhängigkeit verringern und die nötige Flexibilität für Multi-Clouds ermöglichen.“ Besserung in Sicht! Auch nach zehn Jahren ist Kubernetes noch immer komplex – selbst als Managed Service. Es gibt jedoch diverse Bemühungen, Abstraktionen zu entwickeln, die die Entwicklererfahrung und Zugänglichkeit der Plattform verbessern. Und auch die Tools werden weiterentwickelt – in Zukunft könnte KI auch in diesen Bereich zum Einsatz kommen, um es zum Beispiel zu erleichtern, Kubernetes-Cluster zu monitoren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
Wird Kubernetes je einfacher? srcset="https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?quality=50&strip=all 5833w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/adolf-martinez-soler_shutterstock_2313371101_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">Näher an der Kubernetes-Realität als das stilisierte Steuerrad.adolf martinez soler | shutterstock.com Kubernetes ist nach Linux das Open-Source-Projekt mit der zweitgrößten „Velocity“: Im Laufe der vergangenen Dekade haben Tausende von Unternehmen zu der Container-Orchestrierungsplattform beigetragen. Inzwischen ist Kubernetes zum Herzstück eines florierenden Cloud-Native-Ökosystems geworden und dient in vielen Bereichen als Grundlage – von CI/CD Pipelines über Machine-Learning-Trainings-Cluster bis hin zu (weltweit) verteilten Datenbanken. Im Alter von zehn Jahren zeigt sich Kubernetes dabei so flexibel wie noch nie: Die Plattform unterstützt inzwischen eine Vielzahl von Workload-Typen „out of the box“. Zudem ermöglichen benutzerdefinierte Ressourcendefinitionen und Operatoren zusätzliche Features wie beispielsweise: Observability, Networking, Backup und Recovery, oder Policy Management. Für die im Lauf der Jahre aufgetauchten Probleme mit Kubernetes steuerte die Community ebenfalls viele hilfreiche Tools bei, zum Beispiel: für Multi-Cluster-Management, um Legacy-VMs zu portieren, um Container in Edge- oder Bare-Metal-Umgebungen bereitzustellen, und um Kubernetes für die KI-Entwicklung zu nutzen. All diese Fortschritte rücken Kubernetes in den Mittelpunkt künftiger, unternehmensinterner Cloud-Infrastrukturen. Laut einer aktuellen Umfrage der Cloud Native Computing Foundation (CNCF) nutzen 84 Prozent der befragten Unternehmen Kubernetes entweder in der Produktion – oder erwägen das. Es stellt sich allerdings die Frage, ob die Orchestrierungsplattform jemals einfacher (nutzbar) werden kann, wenn sie immer mehr Funktionen und Workloads „absorbiert“. In diesem Artikel werfen wir gemeinsam mit diversen Fachexperten einen Blick darauf, wie die Chancen für weniger Kubernetes-Komplexität in der Zukunft stehen. Bemerkenswerter Fortschritt „Kubernetes zu nutzen, ist definitiv viel einfacher und stabiler geworden“, befindet Murli Thirumale, General Manager von Portworx, der Cloud-Native-Geschäftseinheit von Pure Storage. Das führt Thirumale darauf zurück, dass Kubernetes sich im Rahmen der Container-Scheduler-Kriege der 2010er Jahre gegen Herausforderer wie Docker Swarm und Apache Mesos durchgesetzt hat. Seitdem, so der Experte, habe sich die Branche darauf konzentriert, die Basisbereitstellung weiter zu optimieren und darauf aufbauende Lösungen zu entwickeln. Im Resultat sieht Thirumale eine stabilere Verteilung sowie eine Konsolidierung der Anbieter für Kernfunktionen. Peter Szczepaniak, Senior Product Manager bei Percona, nimmt bei Kubernetes ebenfalls bereits in diversen Bereichen eine verbesserte Usability wahr: „Insbesondere ist hervorzuheben, dass die Kubernetes-Betreiber vieles zugänglicher gestalten – beispielweise, wenn es darum geht, komplexe Workloads wie hochautomatisierte Datenbanken auszuführen.“ Weitere Fortschritte bei Kubernetes nimmt Szczepaniak wahr in Form von: Support für CSI-Treiber, Affinity- und Anti-Affinity-Konfigurationen, sowie Stateful Sets, die darauf abzielen, bestimmte Use Cases direkt zu adressieren. Speziell, wenn es um Backup und Disaster Recovery gehe, seien dank Enterprise-zentrischer Tools viele Usability-Hürden gefallen, meint Gaurav Rishi, Vice President bei Veeam. „Die Alternative besteht darin, dafür selbst mit verschiedenen, quelloffenen Code-Parts zu sorgen. Die Dinge sind wesentlich einfacher geworden, auch in Bezug auf die Sicherheit. Noch vor fünf Jahren haben Unternehmen keine Cluster in Produkte umgewandelt, weil Security ein Problem darstellte“, erläutert Rishi. Steigende Komplexität Dennoch gibt es nach wie vor einige Stolpersteine. In der Wahrnehmung vieler Benutzer sind weitere Abstraktionen notwendig, um den erheblichen Mehraufwand zu reduzieren, den Kubernetes verursacht. Zum Beispiel mit Blick auf: Bereitstellung, sichere Konfiguration und Monitoring-Anbindung. Und obwohl es für mittelgroße Unternehmen inzwischen attraktiver geworden ist, bleibt Kubernetes besonders für kleine Projekte und Organisationen, denen es an Fachwissen und Ressourcen mangelt, meist immer noch eine Nummer zu groß. Schuld daran seien Day-Two-Probleme, wie Ari Weil, Cloud-Evangelist bei Akamai, erklärt: „Kubernetes ist ausgereift, aber die meisten Unternehmen und Entwickler erkennen erst, wie komplex eine Umgebung sein kann, wenn sie tatsächlich skaliert werden muss.“ Es sind nicht die einzigen Fallstricke für Kubernetes-Anwender. Schon die schiere Anzahl verfügbarer Tools kann zum Hindernis werden – respektive zur „Analysis Paralysis“ führen: Aktuell beherbergt die Cloud Native Landscape der CNCF mehr als 200 Projekte mit knapp 900 Repositories. „Tools wie Helm und Argo CD unterstützen zwar dabei, Addons zu managen, aber das ist in Kubernetes-Umgebungen bekanntermaßen schwierig, weil dabei zusätzliche Komplexitäten eingeführt werden, die unterschiedliche Fachkenntnisse erfordern“, erklärt Itiel Shwartz, Mitbegründer und CTO des Kubernetes-Spezialisten Komodor. Er ergänzt: „Dazu kommt, dass jedes Tool eigene Konfigurationsanforderungen aufwirft, was zu Reibungsverlusten führen kann.“ Weitere, gängige Kubernetes-Bottlenecks sind laut dem Experten: Prüfpunkte einzurichten, um Health Checks bei Applikationen durchzuführen, die richtigen Requests und Limits zu definieren, sowie Netzwerkrichtlinien zu konfigurieren. „Falsch konfigurierte Ressourcenbeschränkungen können zu Problemen wie Pod Evictions, unausgewogenen Workloads und unerwarteten Anwendungsfehlern führen“, warnt Shwartz. Der Scope wächst… Gleichzeitig wird es für Devops-Teams immer schwieriger, Kubernetes zu widerstehen. Denn damit geht heute weit mehr als nur Containerorchestrierung – die Plattform wird inzwischen als das „Betriebssystem der Cloud“ betrachtet. Über Plugins, das Container Network Interface (CNI) und das Container Storage Interface (CSI) lässt sich der Anwendungsbereich von Kubernetes nun auch auf Network und Storage erweitern. „Dadurch wird Kubernetes zu einer Multi-Cloud-Steuerungsebene für die Infrastruktur“, konstatiert Thirumale. Aber Kubernetes wird inzwischen auch genutzt, um Legacy-Workloads zu händeln. Das aufstrebende Tool KubeVirt kann beispielsweise mit virtuellen Maschinen arbeiten, die häufig geschäftskritische Legacy-Anwendungen stützen. „Das ist ein großer Schritt nach vorne für Kubernetes“, meint Thirumale. Er ist fest davon überzeugt, dass das die Chancen erhöht, dass Kubernetes künftig zum Mainstream wird – auch für bestehende Applikationen mit hohem Transaktionsvolumen, wie sie im Automotive-Bereich, dem Bankenwesen und von traditionellen Industrieunternehmen eingesetzt werden. Dass Legacy-Workloads in die Cloud-Native-Infrastruktur Einzug halten, ist übrigens nicht nur aus Modernisierungsperspektive interessant, sondern auch mit Blick auf die durch die Broadcom-Konsolidierungen verursachten Preiserhöhungen bei VMware. Zur Wahrheit gehört aber auch, dass Legacy-Workloads unterschiedliche Anforderungen an Datenmigration, Backup, Disaster Recovery und Access Management aufwerfen, wie Thirumale erklärt: „Wenn dem Kubernetes-Datenmanagement neue Funktionen hinzugefügt werden, die nicht für Container, aber für virtuelle Maschinen erforderlich sind, birgt das für die Benutzer natürlich auch zusätzliche Komplexität.“ …und wächst Der Portworx-Manager sieht außerdem hohes Potenzial für Kubernetes, wenn es um KI-Modelltraining und Inferenz-Workloads geht: „Künstliche Intelligenz und Kubernetes überschneiden sich zu fast 90 Prozent – und KI erfordert naturgemäß eine elastische Infrastruktur.“ Kubernetes auf neue, KI-native Applikationen anzuwenden und die Skalierbarkeit von KI-Inferenzmodellen auf Kubernetes-Clustern zu managen, stellt jedoch eine massive Herausforderung dar – wie Kevin Cochrane, CMO beim Virtualisierungsspazilisten Vultr, weiß: „Die betriebliche Disziplin und die Playbooks, um containerisierte Anwendungen auf Kubernetes zu hosten, müssen überarbeitet werden. Im Bereich der Tools, die eine integrierte, vollumfängliche KI-Modell-Pipeline unterstützen, gab es bislang wenig Fortschritte.“ Kubeflow, ein in Entwicklung befindliches CNCF-Projekt, will es künftig erleichtern, Machine-Learning-Modelle auf Kubernetes bereitzustellen und zu managen. In Kombination mit Kserve (für Framework-unabhängige KI-Inferenz) hat das Tool das Potenzial, die Workflows von Datenwissenschaftlern zu vereinfachen. „Tools wie diese machen es deutlich einfacher, KI zu nutzen, weil sie die Infrastruktur abstrahieren. So können Modelle leichter erstellt werden, was guten Geschäftsergebnissen zuträglich ist“, hält Chase Christiansen, Staff Solutions Engineer bei TileDB, fest. Für KI-Inferenz und viele weitere Use Cases, bei denen die Nähe zu den Daten und die Latenz von Bedeutung sind, findet Kubernetes auch eine Rolle im Bereich Edge Computing – und bietet Optionen für kleinere Container-Implementierungen. „Die Anwendungsfälle von Kubernetes am Edge nehmen mit Sicherheit zu“, ist Rishi überzeugt. Der Veeam-Manager verweist auf abgespeckte Kubernetes-Varianten, die besonders leichtgewichtige Edge-Container-Distributionen ermöglichen: K3s, eine leichtgewichtige Kubernetes-Distribution für Umgebungen mit eingeschränkten Ressourcen, und Bottlerocket, ein portables, Linux-basiertes Betriebssystem, um Container auszuführen. „Am Edge müssen möglicherweise Zehntausende kleiner Cluster verwaltet werden. Das macht einen zentralisierten Mechanismus unabdingbar, um Container unter Verwendung einer heterogenen Laufzeitumgebung zu koordinieren und bereitzustellen“, gibt Raghu Vatte, Field CTO beim Edge-Spezialisten Zededa, zu bedenken. Er fügt hinzu: „Man möchte eine Anwendung nicht neu erstellen, nur weil man sie am Edge bereitstellt.“ Um Kubernetes-Workloads für verschiedene Clouds und Regionen portabel zu machen, empfiehlt Akamai-Evangelist Weil, proprietäre Wrapper zu vermeiden. Stattdessen hebt er den Wert von „Golden Path Templates“ hervor, die die Kompatibilität mit Kubernetes in seiner Open-Source-Form beibehielten und auf stabilen CNCF-Projekten wie OpenTelemetry, Argo, Prometheus oder Flatcar aufbauten: „Das kann die Back-End-Orchestrierung vereinfachen, die Anbieterabhängigkeit verringern und die nötige Flexibilität für Multi-Clouds ermöglichen.“ Besserung in Sicht! Auch nach zehn Jahren ist Kubernetes noch immer komplex – selbst als Managed Service. Es gibt jedoch diverse Bemühungen, Abstraktionen zu entwickeln, die die Entwicklererfahrung und Zugänglichkeit der Plattform verbessern. Und auch die Tools werden weiterentwickelt – in Zukunft könnte KI auch in diesen Bereich zum Einsatz kommen, um es zum Beispiel zu erleichtern, Kubernetes-Cluster zu monitoren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!