Shawn Hempel / Shutterstock Moderne IT-Deployments beinhalten viele unterschiedliche Abstraktionen – zum Beispiel Virtualisierungen. Dabei werden (ganz allgemein) physische Hardware-Komponenten abstrahiert, um mehr Workloads zu ermöglichen – beispielsweise über virtuelle Maschinen (VMs). Das war bislang das Steckenpferd von VMware. Allerdings sinkt deren Technologie seit der Übernahme durch Broadcom in der Gunst der Kunden – unter anderem wegen einer neuen Lizenzpolitik. Das treibt wiederum das Interesse am Open-Source-Projekt KubeVirt. Dieses ermöglicht Anwendern, VM-Workloads direkt in Kubernetes-Implementierungen bereitzustellen und zu managen. In diesem Artikel lesen Sie: was KubeVirt ist und kann, wie seine Architektur aufgebaut ist, welche Vor- und Nachteile die Technologie bringt, und wie Sie KubeVirt für VMware-Migrationen nutzen. Was ist KubeVirt? Ins Leben gerufen wurde das KubeVirt-Projekt im Jahr 2016 vom Linux-Anbieter Red Hat. Seit 2019 läuft es unter dem Banner der Cloud Native Computing Foundation (CNCF) – und profitiert so auch von einem breiten Ökosystem und diversen Kontributoren. Zu letzteren zählen unter anderem: Apple, CloudFlare, IBM, NEC, Nvidia, SAP und SUSE. Gepflegt und gemanagt wird KubeVirt über sein primäres GitHub-Repository. Kommerzieller Support und Tools für KubeVirt sind von mehreren Anbietern erhältlich. Das quelloffene Projekt wird seiner Nomenklatur gerecht: Es kombiniert das Container-Orchestrierungssystem Kubernetes mit virtuellen Maschinen. Das ist bemerkenswert, weil Kubernetes standardmäßig nicht auf VMs, sondern auf Container-Virtualisierung setzt. Auf der anderen Seite arbeiten traditionelle Virtualisierungs-Plattformen (wie etwa VMware vSphere) unabhängig von Container-Orchestrierungssystemen und erfordern separate Management-Tools, Workflows und Expertise. Diese Lücke schließt KubeVirt: Die Lösung ermöglicht es, sowohl VMs als auch Container in derselben Kubernetes-Umgebung auszuführen. Dabei sorgt KubeVirt dafür, dass sich virtuelle Maschinen wie native Kubernetes-Ressourcen verhalten. Ops-Teams können also die gleichen Prinzipien, Muster und Tools auf VMs anwenden, die sie nutzen, um Container zu managen. Somit realisiert die Open-Source-Lösung ein konsistentes Betriebsmodell – sowohl für Workloads auf VM- als auch auf Container-Basis. Zusammengefasst können Sie mit KubeVirt: traditionelle VM-Workloads neben containerisierten Anwendungen in Kubernetes-Clustern ausführen. VMs und Container mit denselben Kubernetes-Tools und -Workflows managen. Legacy-Anwendungen ohne sofortige Containerisierung in Cloud-Native-Umgebungen migrieren. optimierte Ressourcennutzung, weil VMs und Container auf derselben Hardware laufen. VMs schrittweise in Microservices umwandeln, um die Plattformdichte zu erhöhen und Kosten zu sparen. Die KubeVirt-Architektur Aus funktionaler Sicht gibt es mit Blick auf die Architektur von KubeVirt mehrere Schlüsselkomponenten. Dazu gehören: KubeVirt erweitert die Kubernetes-API mit Customer Resource Definitions (CRDs). Diese befähigen Kubernetes, verschiedene Ressourcenarten auszuführen. Dabei ist die KubeVirt-CRD speziell dafür konfiguriert, VM-bezogene Objekte zu verarbeiten. So können die Benutzer VMs über Spezifikationen wie CPU, Memory und Netzwerkschnittstellen zu definieren. Der virt-api-server bildet den Einstiegspunkt für alle virtualisierungsbezogenen Prozesse. Er validiert und verarbeitet Virtual-Machine-Image- (VMI-) Ressourcen, bevor diese in das System einfließen. Der Kubernetes-Operator virt-controller ist für die clusterübergreifende Logik verantwortlich und managt den Lebenszyklus von VMs. Er reagiert auf neue VM-Objekte, die an den API-Server gesendet werden und erstellt die erforderlichen Kubernetes-Pods. Für jedes VMI-Objekt erstellt KubeVirt einen entsprechenden Pod, der die virt-launcher-Komponente ausführt. Diese nutzt libvirtd, um den eigentlichen VM-Prozess innerhalb der containerisierten Umgebung zu starten und zu managen. Bei virt-handlers handelt es sich um Kubernetes-System-Daemons, die auf jedem Knoten ausgeführt werden und für spezifische Prozesse zuständig sind – etwa dafür, virtuelle Maschinen zu starten und zu konfigurieren. Diese Komponenten stellen sicher, dass VMs mit dem gewünschten State in Einklang stehen. Weil VMs (dank CRD) nur ein weiterer Ressourcentyp sind, sind sie funktional in Kubernetes-Pods gekapselt. Als solche profitieren sie von Pod-Netzwerken und -Storage, die über Standard-Kubernetes-Tools wie kubectl gemanagt werden. Die Vor- & Nachteile von KubeVirt Wie jede andere Technologie bietet auch KubeVirt seinen Anwender(organisatione)n Vorteile – und stellt sie vor einige Herausforderungen. Auf der Benefit-Seite steht, dass KubeVirt: eine Plattform für VM- und Container-Workloads bereitstellt – und damit ein vereinheitlichtes Management. Das reduziert die Komplexität, die ansonsten durch separate Management-Umgebungen entstünde. die Ressourceneffizienz optimiert und damit potenziell Kosten senkt. Im Vergleich zu traditionellen VMs bietet KubeVirt zudem eine höhere Workload-Dichte. sich dank seiner Performanz schneller an sich verändernde CPU-Anforderungen und Speicherzuweisungen anpassen kann. Das führt im Vergleich zu herkömmlichen Virtualisierungslösungen zu einer geringeren Latenz. die Vorteile der nativen Sicherheit von Kubernetes nutzen kann. Das gewährleistet, dass Richtlinien in allen Umgebungen (inklusive VMs) konsistent angewendet werden. von allen großen Public-Cloud-Anbietern unterstützt wird. Mit Blick auf Deployment-Umgebungen für KubeVirt-Workloads sind also keine Probleme zu erwarten. Nachteile beziehungsweise Challenges können sich hingegen daraus ergeben, dass KubeVirt: in Teilen eine steile Lernkurve aufwirft. Um VMs in einer Kubernetes-Umgebung zu managen, müssen sich Teams möglicherweise an neue Tools und Prozesse gewöhnen. im Vergleich zu Bare-Metal-(Virtualisierungs-)Lösungen einen höheren Performance Overhead verursacht, wenn es darum geht VMs in Containern auszuführen. eine komplexe Migration nach sich ziehen kann, wenn bestehende VM-Workloads migriert werden sollen. Diese sollte für einen reibungslosen Übergang sorgfältig geplant werden. KubeVirt für VMware-Migrationen KubeVirt kann es erleichtern, VMware-basierte Workloads in eine Kubernetes-Umgebung zu migrieren. Das erreicht die Technologie durch zwei wesentliche Ansätze: Bei der Lift-and-Shift-Migration werden VMs von VMware mit minimalen Änderungen auf KubeVirt repliziert. Diese Migrationsform ist schneller und reduziert Risiken, erfordert jedoch möglicherweise diverse Änderungen an Legacy-Applikationen. Beim Rebuilding-Prozess für VMs werden neue virtuelle Maschinen in KubeVirt erstellt und Anwendung sowie Daten migriert. Dieser Ansatz ist zeitaufwendiger, bietet dafür aber Optimierungsmöglichkeiten. Der Migrationsprozess selbst umfasst in der Regel drei Schritte: wird die aktuelle VMware-Umgebung bewertet. ein Kubernetes-Cluster mit KubeVirt erstellt. VM-Disk-Images mithilfe von Tools wie virt-v2v oder virt-p2v übertragen. Forbes Guthrie, Director of Product Management bei SUSE, beobachtet, dass viele Unternehmen auf das „Migration Toolkit for Virtualization“ von Red Hat zurückgreifen, wenn es darum geht, Workloads auf KubeVirt zu migrieren. Dieses Toolkit basiert wiederum auf dem Community-Projekt Forklift, das Virtualisierungsumgebungen inventarisiert und VMs migriert. „Wenn es um größeren Umgebungen geht, arbeiten viele Kunden direkt mit uns zusammen, um die gesamte Virtualisierungsumgebung zu bewerten und einen schrittweisen Migrationsansatz zu entwickeln. Dieser kann diverse Faktoren einbeziehen, um das Risiko der Migration zu minimieren und Geschäftszyklen zu berücksichtigen – am Ende aber das angestrebte zeitliche Ziel für die Migration zu erreichen“, hält der SUSE-Mann fest. Das steigende Interesse an KubeVirt kann auch Sachin Mullick, Senior Manager bei Red Hat, bestätigen: „Die Technologie und ihr Ökosystem wurden im vergangenen Jahr um ein Vielfaches häufiger genutzt – und das Interesse hält sich auch 2025. Viele Anwender suchen derzeit nach Alternativen für ihren bisherigen Virtualisierungs-Hypervisor.“ (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
KubeVirt erklärt
Shawn Hempel / Shutterstock Moderne IT-Deployments beinhalten viele unterschiedliche Abstraktionen – zum Beispiel Virtualisierungen. Dabei werden (ganz allgemein) physische Hardware-Komponenten abstrahiert, um mehr Workloads zu ermöglichen – beispielsweise über virtuelle Maschinen (VMs). Das war bislang das Steckenpferd von VMware. Allerdings sinkt deren Technologie seit der Übernahme durch Broadcom in der Gunst der Kunden – unter anderem wegen einer neuen Lizenzpolitik. Das treibt wiederum das Interesse am Open-Source-Projekt KubeVirt. Dieses ermöglicht Anwendern, VM-Workloads direkt in Kubernetes-Implementierungen bereitzustellen und zu managen. In diesem Artikel lesen Sie: was KubeVirt ist und kann, wie seine Architektur aufgebaut ist, welche Vor- und Nachteile die Technologie bringt, und wie Sie KubeVirt für VMware-Migrationen nutzen. Was ist KubeVirt? Ins Leben gerufen wurde das KubeVirt-Projekt im Jahr 2016 vom Linux-Anbieter Red Hat. Seit 2019 läuft es unter dem Banner der Cloud Native Computing Foundation (CNCF) – und profitiert so auch von einem breiten Ökosystem und diversen Kontributoren. Zu letzteren zählen unter anderem: Apple, CloudFlare, IBM, NEC, Nvidia, SAP und SUSE. Gepflegt und gemanagt wird KubeVirt über sein primäres GitHub-Repository. Kommerzieller Support und Tools für KubeVirt sind von mehreren Anbietern erhältlich. Das quelloffene Projekt wird seiner Nomenklatur gerecht: Es kombiniert das Container-Orchestrierungssystem Kubernetes mit virtuellen Maschinen. Das ist bemerkenswert, weil Kubernetes standardmäßig nicht auf VMs, sondern auf Container-Virtualisierung setzt. Auf der anderen Seite arbeiten traditionelle Virtualisierungs-Plattformen (wie etwa VMware vSphere) unabhängig von Container-Orchestrierungssystemen und erfordern separate Management-Tools, Workflows und Expertise. Diese Lücke schließt KubeVirt: Die Lösung ermöglicht es, sowohl VMs als auch Container in derselben Kubernetes-Umgebung auszuführen. Dabei sorgt KubeVirt dafür, dass sich virtuelle Maschinen wie native Kubernetes-Ressourcen verhalten. Ops-Teams können also die gleichen Prinzipien, Muster und Tools auf VMs anwenden, die sie nutzen, um Container zu managen. Somit realisiert die Open-Source-Lösung ein konsistentes Betriebsmodell – sowohl für Workloads auf VM- als auch auf Container-Basis. Zusammengefasst können Sie mit KubeVirt: traditionelle VM-Workloads neben containerisierten Anwendungen in Kubernetes-Clustern ausführen. VMs und Container mit denselben Kubernetes-Tools und -Workflows managen. Legacy-Anwendungen ohne sofortige Containerisierung in Cloud-Native-Umgebungen migrieren. optimierte Ressourcennutzung, weil VMs und Container auf derselben Hardware laufen. VMs schrittweise in Microservices umwandeln, um die Plattformdichte zu erhöhen und Kosten zu sparen. Die KubeVirt-Architektur Aus funktionaler Sicht gibt es mit Blick auf die Architektur von KubeVirt mehrere Schlüsselkomponenten. Dazu gehören: KubeVirt erweitert die Kubernetes-API mit Customer Resource Definitions (CRDs). Diese befähigen Kubernetes, verschiedene Ressourcenarten auszuführen. Dabei ist die KubeVirt-CRD speziell dafür konfiguriert, VM-bezogene Objekte zu verarbeiten. So können die Benutzer VMs über Spezifikationen wie CPU, Memory und Netzwerkschnittstellen zu definieren. Der virt-api-server bildet den Einstiegspunkt für alle virtualisierungsbezogenen Prozesse. Er validiert und verarbeitet Virtual-Machine-Image- (VMI-) Ressourcen, bevor diese in das System einfließen. Der Kubernetes-Operator virt-controller ist für die clusterübergreifende Logik verantwortlich und managt den Lebenszyklus von VMs. Er reagiert auf neue VM-Objekte, die an den API-Server gesendet werden und erstellt die erforderlichen Kubernetes-Pods. Für jedes VMI-Objekt erstellt KubeVirt einen entsprechenden Pod, der die virt-launcher-Komponente ausführt. Diese nutzt libvirtd, um den eigentlichen VM-Prozess innerhalb der containerisierten Umgebung zu starten und zu managen. Bei virt-handlers handelt es sich um Kubernetes-System-Daemons, die auf jedem Knoten ausgeführt werden und für spezifische Prozesse zuständig sind – etwa dafür, virtuelle Maschinen zu starten und zu konfigurieren. Diese Komponenten stellen sicher, dass VMs mit dem gewünschten State in Einklang stehen. Weil VMs (dank CRD) nur ein weiterer Ressourcentyp sind, sind sie funktional in Kubernetes-Pods gekapselt. Als solche profitieren sie von Pod-Netzwerken und -Storage, die über Standard-Kubernetes-Tools wie kubectl gemanagt werden. Die Vor- & Nachteile von KubeVirt Wie jede andere Technologie bietet auch KubeVirt seinen Anwender(organisatione)n Vorteile – und stellt sie vor einige Herausforderungen. Auf der Benefit-Seite steht, dass KubeVirt: eine Plattform für VM- und Container-Workloads bereitstellt – und damit ein vereinheitlichtes Management. Das reduziert die Komplexität, die ansonsten durch separate Management-Umgebungen entstünde. die Ressourceneffizienz optimiert und damit potenziell Kosten senkt. Im Vergleich zu traditionellen VMs bietet KubeVirt zudem eine höhere Workload-Dichte. sich dank seiner Performanz schneller an sich verändernde CPU-Anforderungen und Speicherzuweisungen anpassen kann. Das führt im Vergleich zu herkömmlichen Virtualisierungslösungen zu einer geringeren Latenz. die Vorteile der nativen Sicherheit von Kubernetes nutzen kann. Das gewährleistet, dass Richtlinien in allen Umgebungen (inklusive VMs) konsistent angewendet werden. von allen großen Public-Cloud-Anbietern unterstützt wird. Mit Blick auf Deployment-Umgebungen für KubeVirt-Workloads sind also keine Probleme zu erwarten. Nachteile beziehungsweise Challenges können sich hingegen daraus ergeben, dass KubeVirt: in Teilen eine steile Lernkurve aufwirft. Um VMs in einer Kubernetes-Umgebung zu managen, müssen sich Teams möglicherweise an neue Tools und Prozesse gewöhnen. im Vergleich zu Bare-Metal-(Virtualisierungs-)Lösungen einen höheren Performance Overhead verursacht, wenn es darum geht VMs in Containern auszuführen. eine komplexe Migration nach sich ziehen kann, wenn bestehende VM-Workloads migriert werden sollen. Diese sollte für einen reibungslosen Übergang sorgfältig geplant werden. KubeVirt für VMware-Migrationen KubeVirt kann es erleichtern, VMware-basierte Workloads in eine Kubernetes-Umgebung zu migrieren. Das erreicht die Technologie durch zwei wesentliche Ansätze: Bei der Lift-and-Shift-Migration werden VMs von VMware mit minimalen Änderungen auf KubeVirt repliziert. Diese Migrationsform ist schneller und reduziert Risiken, erfordert jedoch möglicherweise diverse Änderungen an Legacy-Applikationen. Beim Rebuilding-Prozess für VMs werden neue virtuelle Maschinen in KubeVirt erstellt und Anwendung sowie Daten migriert. Dieser Ansatz ist zeitaufwendiger, bietet dafür aber Optimierungsmöglichkeiten. Der Migrationsprozess selbst umfasst in der Regel drei Schritte: wird die aktuelle VMware-Umgebung bewertet. ein Kubernetes-Cluster mit KubeVirt erstellt. VM-Disk-Images mithilfe von Tools wie virt-v2v oder virt-p2v übertragen. Forbes Guthrie, Director of Product Management bei SUSE, beobachtet, dass viele Unternehmen auf das „Migration Toolkit for Virtualization“ von Red Hat zurückgreifen, wenn es darum geht, Workloads auf KubeVirt zu migrieren. Dieses Toolkit basiert wiederum auf dem Community-Projekt Forklift, das Virtualisierungsumgebungen inventarisiert und VMs migriert. „Wenn es um größeren Umgebungen geht, arbeiten viele Kunden direkt mit uns zusammen, um die gesamte Virtualisierungsumgebung zu bewerten und einen schrittweisen Migrationsansatz zu entwickeln. Dieser kann diverse Faktoren einbeziehen, um das Risiko der Migration zu minimieren und Geschäftszyklen zu berücksichtigen – am Ende aber das angestrebte zeitliche Ziel für die Migration zu erreichen“, hält der SUSE-Mann fest. Das steigende Interesse an KubeVirt kann auch Sachin Mullick, Senior Manager bei Red Hat, bestätigen: „Die Technologie und ihr Ökosystem wurden im vergangenen Jahr um ein Vielfaches häufiger genutzt – und das Interesse hält sich auch 2025. Viele Anwender suchen derzeit nach Alternativen für ihren bisherigen Virtualisierungs-Hypervisor.“ (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
KubeVirt erklärt Shawn Hempel / Shutterstock Moderne IT-Deployments beinhalten viele unterschiedliche Abstraktionen – zum Beispiel Virtualisierungen. Dabei werden (ganz allgemein) physische Hardware-Komponenten abstrahiert, um mehr Workloads zu ermöglichen – beispielsweise über virtuelle Maschinen (VMs). Das war bislang das Steckenpferd von VMware. Allerdings sinkt deren Technologie seit der Übernahme durch Broadcom in der Gunst der Kunden – unter anderem wegen einer neuen Lizenzpolitik. Das treibt wiederum das Interesse am Open-Source-Projekt KubeVirt. Dieses ermöglicht Anwendern, VM-Workloads direkt in Kubernetes-Implementierungen bereitzustellen und zu managen. In diesem Artikel lesen Sie: was KubeVirt ist und kann, wie seine Architektur aufgebaut ist, welche Vor- und Nachteile die Technologie bringt, und wie Sie KubeVirt für VMware-Migrationen nutzen. Was ist KubeVirt? Ins Leben gerufen wurde das KubeVirt-Projekt im Jahr 2016 vom Linux-Anbieter Red Hat. Seit 2019 läuft es unter dem Banner der Cloud Native Computing Foundation (CNCF) – und profitiert so auch von einem breiten Ökosystem und diversen Kontributoren. Zu letzteren zählen unter anderem: Apple, CloudFlare, IBM, NEC, Nvidia, SAP und SUSE. Gepflegt und gemanagt wird KubeVirt über sein primäres GitHub-Repository. Kommerzieller Support und Tools für KubeVirt sind von mehreren Anbietern erhältlich. Das quelloffene Projekt wird seiner Nomenklatur gerecht: Es kombiniert das Container-Orchestrierungssystem Kubernetes mit virtuellen Maschinen. Das ist bemerkenswert, weil Kubernetes standardmäßig nicht auf VMs, sondern auf Container-Virtualisierung setzt. Auf der anderen Seite arbeiten traditionelle Virtualisierungs-Plattformen (wie etwa VMware vSphere) unabhängig von Container-Orchestrierungssystemen und erfordern separate Management-Tools, Workflows und Expertise. Diese Lücke schließt KubeVirt: Die Lösung ermöglicht es, sowohl VMs als auch Container in derselben Kubernetes-Umgebung auszuführen. Dabei sorgt KubeVirt dafür, dass sich virtuelle Maschinen wie native Kubernetes-Ressourcen verhalten. Ops-Teams können also die gleichen Prinzipien, Muster und Tools auf VMs anwenden, die sie nutzen, um Container zu managen. Somit realisiert die Open-Source-Lösung ein konsistentes Betriebsmodell – sowohl für Workloads auf VM- als auch auf Container-Basis. Zusammengefasst können Sie mit KubeVirt: traditionelle VM-Workloads neben containerisierten Anwendungen in Kubernetes-Clustern ausführen. VMs und Container mit denselben Kubernetes-Tools und -Workflows managen. Legacy-Anwendungen ohne sofortige Containerisierung in Cloud-Native-Umgebungen migrieren. optimierte Ressourcennutzung, weil VMs und Container auf derselben Hardware laufen. VMs schrittweise in Microservices umwandeln, um die Plattformdichte zu erhöhen und Kosten zu sparen. Die KubeVirt-Architektur Aus funktionaler Sicht gibt es mit Blick auf die Architektur von KubeVirt mehrere Schlüsselkomponenten. Dazu gehören: KubeVirt erweitert die Kubernetes-API mit Customer Resource Definitions (CRDs). Diese befähigen Kubernetes, verschiedene Ressourcenarten auszuführen. Dabei ist die KubeVirt-CRD speziell dafür konfiguriert, VM-bezogene Objekte zu verarbeiten. So können die Benutzer VMs über Spezifikationen wie CPU, Memory und Netzwerkschnittstellen zu definieren. Der virt-api-server bildet den Einstiegspunkt für alle virtualisierungsbezogenen Prozesse. Er validiert und verarbeitet Virtual-Machine-Image- (VMI-) Ressourcen, bevor diese in das System einfließen. Der Kubernetes-Operator virt-controller ist für die clusterübergreifende Logik verantwortlich und managt den Lebenszyklus von VMs. Er reagiert auf neue VM-Objekte, die an den API-Server gesendet werden und erstellt die erforderlichen Kubernetes-Pods. Für jedes VMI-Objekt erstellt KubeVirt einen entsprechenden Pod, der die virt-launcher-Komponente ausführt. Diese nutzt libvirtd, um den eigentlichen VM-Prozess innerhalb der containerisierten Umgebung zu starten und zu managen. Bei virt-handlers handelt es sich um Kubernetes-System-Daemons, die auf jedem Knoten ausgeführt werden und für spezifische Prozesse zuständig sind – etwa dafür, virtuelle Maschinen zu starten und zu konfigurieren. Diese Komponenten stellen sicher, dass VMs mit dem gewünschten State in Einklang stehen. Weil VMs (dank CRD) nur ein weiterer Ressourcentyp sind, sind sie funktional in Kubernetes-Pods gekapselt. Als solche profitieren sie von Pod-Netzwerken und -Storage, die über Standard-Kubernetes-Tools wie kubectl gemanagt werden. Die Vor- & Nachteile von KubeVirt Wie jede andere Technologie bietet auch KubeVirt seinen Anwender(organisatione)n Vorteile – und stellt sie vor einige Herausforderungen. Auf der Benefit-Seite steht, dass KubeVirt: eine Plattform für VM- und Container-Workloads bereitstellt – und damit ein vereinheitlichtes Management. Das reduziert die Komplexität, die ansonsten durch separate Management-Umgebungen entstünde. die Ressourceneffizienz optimiert und damit potenziell Kosten senkt. Im Vergleich zu traditionellen VMs bietet KubeVirt zudem eine höhere Workload-Dichte. sich dank seiner Performanz schneller an sich verändernde CPU-Anforderungen und Speicherzuweisungen anpassen kann. Das führt im Vergleich zu herkömmlichen Virtualisierungslösungen zu einer geringeren Latenz. die Vorteile der nativen Sicherheit von Kubernetes nutzen kann. Das gewährleistet, dass Richtlinien in allen Umgebungen (inklusive VMs) konsistent angewendet werden. von allen großen Public-Cloud-Anbietern unterstützt wird. Mit Blick auf Deployment-Umgebungen für KubeVirt-Workloads sind also keine Probleme zu erwarten. Nachteile beziehungsweise Challenges können sich hingegen daraus ergeben, dass KubeVirt: in Teilen eine steile Lernkurve aufwirft. Um VMs in einer Kubernetes-Umgebung zu managen, müssen sich Teams möglicherweise an neue Tools und Prozesse gewöhnen. im Vergleich zu Bare-Metal-(Virtualisierungs-)Lösungen einen höheren Performance Overhead verursacht, wenn es darum geht VMs in Containern auszuführen. eine komplexe Migration nach sich ziehen kann, wenn bestehende VM-Workloads migriert werden sollen. Diese sollte für einen reibungslosen Übergang sorgfältig geplant werden. KubeVirt für VMware-Migrationen KubeVirt kann es erleichtern, VMware-basierte Workloads in eine Kubernetes-Umgebung zu migrieren. Das erreicht die Technologie durch zwei wesentliche Ansätze: Bei der Lift-and-Shift-Migration werden VMs von VMware mit minimalen Änderungen auf KubeVirt repliziert. Diese Migrationsform ist schneller und reduziert Risiken, erfordert jedoch möglicherweise diverse Änderungen an Legacy-Applikationen. Beim Rebuilding-Prozess für VMs werden neue virtuelle Maschinen in KubeVirt erstellt und Anwendung sowie Daten migriert. Dieser Ansatz ist zeitaufwendiger, bietet dafür aber Optimierungsmöglichkeiten. Der Migrationsprozess selbst umfasst in der Regel drei Schritte: wird die aktuelle VMware-Umgebung bewertet. ein Kubernetes-Cluster mit KubeVirt erstellt. VM-Disk-Images mithilfe von Tools wie virt-v2v oder virt-p2v übertragen. Forbes Guthrie, Director of Product Management bei SUSE, beobachtet, dass viele Unternehmen auf das „Migration Toolkit for Virtualization“ von Red Hat zurückgreifen, wenn es darum geht, Workloads auf KubeVirt zu migrieren. Dieses Toolkit basiert wiederum auf dem Community-Projekt Forklift, das Virtualisierungsumgebungen inventarisiert und VMs migriert. „Wenn es um größeren Umgebungen geht, arbeiten viele Kunden direkt mit uns zusammen, um die gesamte Virtualisierungsumgebung zu bewerten und einen schrittweisen Migrationsansatz zu entwickeln. Dieser kann diverse Faktoren einbeziehen, um das Risiko der Migration zu minimieren und Geschäftszyklen zu berücksichtigen – am Ende aber das angestrebte zeitliche Ziel für die Migration zu erreichen“, hält der SUSE-Mann fest. Das steigende Interesse an KubeVirt kann auch Sachin Mullick, Senior Manager bei Red Hat, bestätigen: „Die Technologie und ihr Ökosystem wurden im vergangenen Jahr um ein Vielfaches häufiger genutzt – und das Interesse hält sich auch 2025. Viele Anwender suchen derzeit nach Alternativen für ihren bisherigen Virtualisierungs-Hypervisor.“ (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!