Computerhaus Quickborn

Wird Red Hat zum Betriebssystem für Enterprise-KI?​

Auch im Red-Hat-Universum ist KI Dreh- und Angelpunkt.Red Hat Red Hat hat auf seinem jährlichen Summit in Boston zwar eine ganze Reihe von Optimierungen für sein Enterprise-Linux-Produkt angekündigt – das eigentliche Thema des Open-Source-Großevents war jedoch, wie sollte es anders sein, künstliche Intelligenz (KI). Und das nicht ohne Grund: Schließlich benötigen Unternehmen, die sich nicht an einen Cloud- oder KI-Anbieter binden wollen, eine zentrale Plattform um die Technologie in sämtlichen Umgebungen zu operationalisieren – ein Betriebssystem für KI sozusagen. Und Red Hat könnte auf seinem Summit den Grundstein dafür gelegt haben, zu ebendieser Plattform zu werden – zumindest ist das das große Konferenz-“Takeaway” von Forrester-Analyst Devin Dickerson: “Red Hat bringt sich weiter als unternehmensgerechte Alternative in Position, wenn es darum geht, moderne Workloads bereitzustellen. Jetzt auch inklusive KI – und weit über die Grenzen der Public Cloud hinaus.” Dabei biete das Unternehmen einen Weg, KI offen und portabel ganz nach den Vorstellungen der Anwender einzusetzen. Das sei besonders in regulierten Branchen mit hohen Compliance-Anforderungen wichtig, so der Analyst. Red Hats große KI-Offensive Laut Dimitris Mavrakis, Senior Research Director bei ABI Research, etabliere Red Hat KI nun neben Linux, OpenShift und Ansible als weitere Säule seines Werteversprechens. Das demonstriere beispielsweise der Umstand, dass Red Hat Enterprise Linux (RHEL) 10 auf dem Summit als “KI-natives Betriebssystem” angekündigt worden sei, meint der Marktexperte: “KI wird jetzt als Kern-Workload-Klasse behandelt – und nicht mehr wie bisher als Add-on. Das ist auch ein klares Signal an Unternehmen, die KI On-Premises einsetzen möchten: Red Hat will dafür zum Wegbereiter werden.” Viele Unternehmen, insbesondere in stark regulierten Branchen, benötigten KI-Systeme, die in streng kontrollierten Umgebungen bereitgestellt werden, erklärt auch Mavrakis. Solche Systeme würden bislang jedoch nur unzureichend implementiert. “Dieser Markt wurde zuvor vor allem von VMware bedient, das inzwischen viele Kunden verprellt hat. Die suchen jetzt nach Alternativen und Red Hat ist diesbezüglich ein starker Anwärter”, konstatiert der ABI-Analyst.  Allerdings ist Red Hat weiterhin kein Generative-AI-Unternehmen im engeren Sinn: Zwar verfügt die Muttergesellschaft IBM auch über eine eigene LLM-Familie – Red Hat fokussiert sich aber darauf, KI zu managen statt zu entwickeln. Das verdeutlicht beispielsweise die Ankündigung des Red Hat AI Inference Server. Die Plattform unterstützt eine Vielzahl von KI-Hardware-Beschleunigern (etwa von Nvidia, AMD, Google, AWS, Intel) und -Modellen (zum Beispiel von IBM, Google Mistral Qwen, DeepSeek). Zudem verfügt Red Hat auch über eine Bibliothek mit validierten, quelloffenen KI-Modellen, die auf Hugging Face gehostet wird. Day 2 at #RHSummit was all about innovation in action! Attendees explore RHEL 10, @RedHat_AI, @OpenShift Virtualization & @Ansible. Catch the highlights ⬇️ pic.twitter.com/NuxRlsyldj— Red Hat Summit (@RedHatSummit) May 22, 2025 KI-Agenten sind derzeit in aller Munde und sollen Unternehmen künftig in Sachen Effizienz und Automatisierung auf ein neues Level hieven. Ein Agentic-AI-System bereitzustellen, ist allerdings äußerst komplex: Neben den Modellen, die die Agenten steuern, sind auch Security-, Orchestrierungs- und Monitoring-Layer erforderlich. Und: KI-Agenten müssen auch auf Tools, Daten und weitere Ressourcen zugreifen können. Um auch in diesem Bereich vorne mitzuspielen, setzt Red Hat auf zwei vergleichsweise neue Technologien. Die wurden zwar von kommerziellen Anbietern entwickelt, sind aber quelloffen – und haben in beiden Fällen das Potenzial, sich zu Branchenstandards zu entwickeln. Dabei handelt es sich zum einen um Model Context Protocol (MCP): Der offene Standard ermöglicht es KI-Systemen und Agenten, mit Ressourcen, Tools und Datenquellen zu kommunizieren. Seit Anthropic MCP Ende 2024 veröffentlicht hat, wurde der Standard von diversen großen Playern übernommen, etwa von Google, Microsoft und OpenAI.   Bei der zweiten Technologie handelt es sich um Llama Stack, eine Tool-Suite, die Meta im September 2024 veröffentlicht hat, um KI-Anwendungen und agentenbasierte Systeme zu erstellen, skalieren und bereitzustellen. Dazu gäbe es zwar mit LangChain auch eine populäre Alternative – aber eben ohne einen Tech-Giganten im Hintergrund. Laut Forrester-Analyst Dickerson sei es zwar zu früh, MCP und Llama Stack als neue Standards für Agentic AI zu bezeichnen: “Aber der Support durch Red Hat und andere Anbieter erzeugt Glaubwürdigkeit und Dynamik.” Von diesen Ankündigungen abgesehen, integriert Red Hat KI natürlich auch in seine eigenen Produkte. “Zu den wichtigsten Ankündigungen in diesem Bereich gehörten auf dem Summit KI-Assistenten und die Möglichkeit, IT-Umgebungen innerhalb von Linux-Betriebssystemen automatisiert auf KI-Basis aufzusetzen”, fasst Walid Negm, CTO bei Deloitte Consulting USA, zusammen. Jenseits von KI Was die Nicht-KI-Ankündigungen auf dem Red Hat Summit 2025 angeht, konnte den Deloitte-Manager nach eigener Aussage vor allem die Zertifizierung des In-Vehicle-Betriebssystems von Red Hat begeistern: “Dass Entwickler nun in der Lage sind, Prozesse entlang des gesamten Fahrzeugentwicklungszyklus sowohl in der Cloud als auch im Auto selbst zu vereinfachen, könnte für eine Linux-basierte Umwälzung in der Automobilindustrie sorgen”, so Negm. Für S&P-Analyst Hanselman war angesichts der sich teilweise überschneidenden Portfolios die größte Überraschung des Red Hat Summit 2025 hingegen die formelle Integration von HashiCorp und Red Hat: “Es gibt natürliche Verbindungen innerhalb des IBM-Portfolios, aber auch grundlegende Unterschiede zwischen den Automatisierungsprodukten Terraform und Ansible. HashiCorp verfügt jedoch auch über das Vault-Produkt für Authentifizierungszwecke. Angesichts der Herausforderungen, mit denen viele Anwender in Sachen Secrets Management konfrontiert sind, ist die Einbindung von Vault in die Red-Hat-Welt sehr sinnvoll”, hält Hanselman fest. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Wird Red Hat zum Betriebssystem für Enterprise-KI?​ Auch im Red-Hat-Universum ist KI Dreh- und Angelpunkt.Red Hat Red Hat hat auf seinem jährlichen Summit in Boston zwar eine ganze Reihe von Optimierungen für sein Enterprise-Linux-Produkt angekündigt – das eigentliche Thema des Open-Source-Großevents war jedoch, wie sollte es anders sein, künstliche Intelligenz (KI). Und das nicht ohne Grund: Schließlich benötigen Unternehmen, die sich nicht an einen Cloud- oder KI-Anbieter binden wollen, eine zentrale Plattform um die Technologie in sämtlichen Umgebungen zu operationalisieren – ein Betriebssystem für KI sozusagen. Und Red Hat könnte auf seinem Summit den Grundstein dafür gelegt haben, zu ebendieser Plattform zu werden – zumindest ist das das große Konferenz-“Takeaway” von Forrester-Analyst Devin Dickerson: “Red Hat bringt sich weiter als unternehmensgerechte Alternative in Position, wenn es darum geht, moderne Workloads bereitzustellen. Jetzt auch inklusive KI – und weit über die Grenzen der Public Cloud hinaus.” Dabei biete das Unternehmen einen Weg, KI offen und portabel ganz nach den Vorstellungen der Anwender einzusetzen. Das sei besonders in regulierten Branchen mit hohen Compliance-Anforderungen wichtig, so der Analyst. Red Hats große KI-Offensive Laut Dimitris Mavrakis, Senior Research Director bei ABI Research, etabliere Red Hat KI nun neben Linux, OpenShift und Ansible als weitere Säule seines Werteversprechens. Das demonstriere beispielsweise der Umstand, dass Red Hat Enterprise Linux (RHEL) 10 auf dem Summit als “KI-natives Betriebssystem” angekündigt worden sei, meint der Marktexperte: “KI wird jetzt als Kern-Workload-Klasse behandelt – und nicht mehr wie bisher als Add-on. Das ist auch ein klares Signal an Unternehmen, die KI On-Premises einsetzen möchten: Red Hat will dafür zum Wegbereiter werden.” Viele Unternehmen, insbesondere in stark regulierten Branchen, benötigten KI-Systeme, die in streng kontrollierten Umgebungen bereitgestellt werden, erklärt auch Mavrakis. Solche Systeme würden bislang jedoch nur unzureichend implementiert. “Dieser Markt wurde zuvor vor allem von VMware bedient, das inzwischen viele Kunden verprellt hat. Die suchen jetzt nach Alternativen und Red Hat ist diesbezüglich ein starker Anwärter”, konstatiert der ABI-Analyst.  Allerdings ist Red Hat weiterhin kein Generative-AI-Unternehmen im engeren Sinn: Zwar verfügt die Muttergesellschaft IBM auch über eine eigene LLM-Familie – Red Hat fokussiert sich aber darauf, KI zu managen statt zu entwickeln. Das verdeutlicht beispielsweise die Ankündigung des Red Hat AI Inference Server. Die Plattform unterstützt eine Vielzahl von KI-Hardware-Beschleunigern (etwa von Nvidia, AMD, Google, AWS, Intel) und -Modellen (zum Beispiel von IBM, Google Mistral Qwen, DeepSeek). Zudem verfügt Red Hat auch über eine Bibliothek mit validierten, quelloffenen KI-Modellen, die auf Hugging Face gehostet wird. Day 2 at #RHSummit was all about innovation in action! Attendees explore RHEL 10, @RedHat_AI, @OpenShift Virtualization & @Ansible. Catch the highlights ⬇️ pic.twitter.com/NuxRlsyldj— Red Hat Summit (@RedHatSummit) May 22, 2025 KI-Agenten sind derzeit in aller Munde und sollen Unternehmen künftig in Sachen Effizienz und Automatisierung auf ein neues Level hieven. Ein Agentic-AI-System bereitzustellen, ist allerdings äußerst komplex: Neben den Modellen, die die Agenten steuern, sind auch Security-, Orchestrierungs- und Monitoring-Layer erforderlich. Und: KI-Agenten müssen auch auf Tools, Daten und weitere Ressourcen zugreifen können. Um auch in diesem Bereich vorne mitzuspielen, setzt Red Hat auf zwei vergleichsweise neue Technologien. Die wurden zwar von kommerziellen Anbietern entwickelt, sind aber quelloffen – und haben in beiden Fällen das Potenzial, sich zu Branchenstandards zu entwickeln. Dabei handelt es sich zum einen um Model Context Protocol (MCP): Der offene Standard ermöglicht es KI-Systemen und Agenten, mit Ressourcen, Tools und Datenquellen zu kommunizieren. Seit Anthropic MCP Ende 2024 veröffentlicht hat, wurde der Standard von diversen großen Playern übernommen, etwa von Google, Microsoft und OpenAI.   Bei der zweiten Technologie handelt es sich um Llama Stack, eine Tool-Suite, die Meta im September 2024 veröffentlicht hat, um KI-Anwendungen und agentenbasierte Systeme zu erstellen, skalieren und bereitzustellen. Dazu gäbe es zwar mit LangChain auch eine populäre Alternative – aber eben ohne einen Tech-Giganten im Hintergrund. Laut Forrester-Analyst Dickerson sei es zwar zu früh, MCP und Llama Stack als neue Standards für Agentic AI zu bezeichnen: “Aber der Support durch Red Hat und andere Anbieter erzeugt Glaubwürdigkeit und Dynamik.” Von diesen Ankündigungen abgesehen, integriert Red Hat KI natürlich auch in seine eigenen Produkte. “Zu den wichtigsten Ankündigungen in diesem Bereich gehörten auf dem Summit KI-Assistenten und die Möglichkeit, IT-Umgebungen innerhalb von Linux-Betriebssystemen automatisiert auf KI-Basis aufzusetzen”, fasst Walid Negm, CTO bei Deloitte Consulting USA, zusammen. Jenseits von KI Was die Nicht-KI-Ankündigungen auf dem Red Hat Summit 2025 angeht, konnte den Deloitte-Manager nach eigener Aussage vor allem die Zertifizierung des In-Vehicle-Betriebssystems von Red Hat begeistern: “Dass Entwickler nun in der Lage sind, Prozesse entlang des gesamten Fahrzeugentwicklungszyklus sowohl in der Cloud als auch im Auto selbst zu vereinfachen, könnte für eine Linux-basierte Umwälzung in der Automobilindustrie sorgen”, so Negm. Für S&P-Analyst Hanselman war angesichts der sich teilweise überschneidenden Portfolios die größte Überraschung des Red Hat Summit 2025 hingegen die formelle Integration von HashiCorp und Red Hat: “Es gibt natürliche Verbindungen innerhalb des IBM-Portfolios, aber auch grundlegende Unterschiede zwischen den Automatisierungsprodukten Terraform und Ansible. HashiCorp verfügt jedoch auch über das Vault-Produkt für Authentifizierungszwecke. Angesichts der Herausforderungen, mit denen viele Anwender in Sachen Secrets Management konfrontiert sind, ist die Einbindung von Vault in die Red-Hat-Welt sehr sinnvoll”, hält Hanselman fest. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Auch im Red-Hat-Universum ist KI Dreh- und Angelpunkt.Red Hat Red Hat hat auf seinem jährlichen Summit in Boston zwar eine ganze Reihe von Optimierungen für sein Enterprise-Linux-Produkt angekündigt – das eigentliche Thema des Open-Source-Großevents war jedoch, wie sollte es anders sein, künstliche Intelligenz (KI). Und das nicht ohne Grund: Schließlich benötigen Unternehmen, die sich nicht an einen Cloud- oder KI-Anbieter binden wollen, eine zentrale Plattform um die Technologie in sämtlichen Umgebungen zu operationalisieren – ein Betriebssystem für KI sozusagen. Und Red Hat könnte auf seinem Summit den Grundstein dafür gelegt haben, zu ebendieser Plattform zu werden – zumindest ist das das große Konferenz-“Takeaway” von Forrester-Analyst Devin Dickerson: “Red Hat bringt sich weiter als unternehmensgerechte Alternative in Position, wenn es darum geht, moderne Workloads bereitzustellen. Jetzt auch inklusive KI – und weit über die Grenzen der Public Cloud hinaus.” Dabei biete das Unternehmen einen Weg, KI offen und portabel ganz nach den Vorstellungen der Anwender einzusetzen. Das sei besonders in regulierten Branchen mit hohen Compliance-Anforderungen wichtig, so der Analyst. Red Hats große KI-Offensive Laut Dimitris Mavrakis, Senior Research Director bei ABI Research, etabliere Red Hat KI nun neben Linux, OpenShift und Ansible als weitere Säule seines Werteversprechens. Das demonstriere beispielsweise der Umstand, dass Red Hat Enterprise Linux (RHEL) 10 auf dem Summit als “KI-natives Betriebssystem” angekündigt worden sei, meint der Marktexperte: “KI wird jetzt als Kern-Workload-Klasse behandelt – und nicht mehr wie bisher als Add-on. Das ist auch ein klares Signal an Unternehmen, die KI On-Premises einsetzen möchten: Red Hat will dafür zum Wegbereiter werden.” Viele Unternehmen, insbesondere in stark regulierten Branchen, benötigten KI-Systeme, die in streng kontrollierten Umgebungen bereitgestellt werden, erklärt auch Mavrakis. Solche Systeme würden bislang jedoch nur unzureichend implementiert. “Dieser Markt wurde zuvor vor allem von VMware bedient, das inzwischen viele Kunden verprellt hat. Die suchen jetzt nach Alternativen und Red Hat ist diesbezüglich ein starker Anwärter”, konstatiert der ABI-Analyst.  Allerdings ist Red Hat weiterhin kein Generative-AI-Unternehmen im engeren Sinn: Zwar verfügt die Muttergesellschaft IBM auch über eine eigene LLM-Familie – Red Hat fokussiert sich aber darauf, KI zu managen statt zu entwickeln. Das verdeutlicht beispielsweise die Ankündigung des Red Hat AI Inference Server. Die Plattform unterstützt eine Vielzahl von KI-Hardware-Beschleunigern (etwa von Nvidia, AMD, Google, AWS, Intel) und -Modellen (zum Beispiel von IBM, Google Mistral Qwen, DeepSeek). Zudem verfügt Red Hat auch über eine Bibliothek mit validierten, quelloffenen KI-Modellen, die auf Hugging Face gehostet wird. Day 2 at #RHSummit was all about innovation in action! Attendees explore RHEL 10, @RedHat_AI, @OpenShift Virtualization & @Ansible. Catch the highlights ⬇️ pic.twitter.com/NuxRlsyldj— Red Hat Summit (@RedHatSummit) May 22, 2025 KI-Agenten sind derzeit in aller Munde und sollen Unternehmen künftig in Sachen Effizienz und Automatisierung auf ein neues Level hieven. Ein Agentic-AI-System bereitzustellen, ist allerdings äußerst komplex: Neben den Modellen, die die Agenten steuern, sind auch Security-, Orchestrierungs- und Monitoring-Layer erforderlich. Und: KI-Agenten müssen auch auf Tools, Daten und weitere Ressourcen zugreifen können. Um auch in diesem Bereich vorne mitzuspielen, setzt Red Hat auf zwei vergleichsweise neue Technologien. Die wurden zwar von kommerziellen Anbietern entwickelt, sind aber quelloffen – und haben in beiden Fällen das Potenzial, sich zu Branchenstandards zu entwickeln. Dabei handelt es sich zum einen um Model Context Protocol (MCP): Der offene Standard ermöglicht es KI-Systemen und Agenten, mit Ressourcen, Tools und Datenquellen zu kommunizieren. Seit Anthropic MCP Ende 2024 veröffentlicht hat, wurde der Standard von diversen großen Playern übernommen, etwa von Google, Microsoft und OpenAI.   Bei der zweiten Technologie handelt es sich um Llama Stack, eine Tool-Suite, die Meta im September 2024 veröffentlicht hat, um KI-Anwendungen und agentenbasierte Systeme zu erstellen, skalieren und bereitzustellen. Dazu gäbe es zwar mit LangChain auch eine populäre Alternative – aber eben ohne einen Tech-Giganten im Hintergrund. Laut Forrester-Analyst Dickerson sei es zwar zu früh, MCP und Llama Stack als neue Standards für Agentic AI zu bezeichnen: “Aber der Support durch Red Hat und andere Anbieter erzeugt Glaubwürdigkeit und Dynamik.” Von diesen Ankündigungen abgesehen, integriert Red Hat KI natürlich auch in seine eigenen Produkte. “Zu den wichtigsten Ankündigungen in diesem Bereich gehörten auf dem Summit KI-Assistenten und die Möglichkeit, IT-Umgebungen innerhalb von Linux-Betriebssystemen automatisiert auf KI-Basis aufzusetzen”, fasst Walid Negm, CTO bei Deloitte Consulting USA, zusammen. Jenseits von KI Was die Nicht-KI-Ankündigungen auf dem Red Hat Summit 2025 angeht, konnte den Deloitte-Manager nach eigener Aussage vor allem die Zertifizierung des In-Vehicle-Betriebssystems von Red Hat begeistern: “Dass Entwickler nun in der Lage sind, Prozesse entlang des gesamten Fahrzeugentwicklungszyklus sowohl in der Cloud als auch im Auto selbst zu vereinfachen, könnte für eine Linux-basierte Umwälzung in der Automobilindustrie sorgen”, so Negm. Für S&P-Analyst Hanselman war angesichts der sich teilweise überschneidenden Portfolios die größte Überraschung des Red Hat Summit 2025 hingegen die formelle Integration von HashiCorp und Red Hat: “Es gibt natürliche Verbindungen innerhalb des IBM-Portfolios, aber auch grundlegende Unterschiede zwischen den Automatisierungsprodukten Terraform und Ansible. HashiCorp verfügt jedoch auch über das Vault-Produkt für Authentifizierungszwecke. Angesichts der Herausforderungen, mit denen viele Anwender in Sachen Secrets Management konfrontiert sind, ist die Einbindung von Vault in die Red-Hat-Welt sehr sinnvoll”, hält Hanselman fest. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Nach oben scrollen
×