Computerhaus Quickborn

Red Hat bringt KI-optimierte Linux-Plattform​

Seine Ankündigung, in den GenAI-Bereich einzusteigen, hat das Open-Source-Unternehmen Red Hat jetzt mit der Verfügbarkeit von Red Hat Enterprise Linux AI (RHEL AI) in die Tat umgesetzt. Damit will das Unternehmen Probleme adressieren, mit denen Unternehmen beim Aufbau und Einsatz von KI in hybriden Clouds konfrontiert sind. 50 Prozent niedrigere KI-Kosten? Zudem, so verspricht Tushar Katarki, Senior Director of Product Management für den Geschäftsbereich Hybridplattformen bei Red Hat, kann RHEL AI „bis zu 50 Prozent niedrigere Kosten bei ähnlicher oder sogar leicht besserer Leistung bieten“. Im Auge hat Katarki dabei vor allem die Kosten für Training und Inferenz. Allerdings machte er keine Angaben dazu, was RHEL AI für Unternehmenskunden kostet. Der Senior Director teilte lediglich mit, dass die Lösung zu einem attraktiven Preis erhältlich sei. Während Closed-Source-KI-Plattformen wie ChatGPT von OpenAI und Claude von Anthropic nur als SaaS-Modell angeboten werden, kann RHEL AI in verschiedenen Clouds und auf einer Vielzahl von OEM-Servern ausgeführt werden. Dabei unterstützt die Plattform mehrere Open-Source-Modelle wie Granite von IBM. KI auf Granite-Basis Zum Start bietet RHEL AI das Granite-Modell mit sieben Milliarden Parametern in englischer Sprache. Ein weiteres Granite-Modell, das über acht Milliarden Parameter verfügt, befindet sich in der Preview-Phase. Es soll Ende des Jahres oder Anfang 2025 allgemein verfügbar sein. RHEL AI wird zudem mit Instruct Lab ausgeliefert, einem Open-Source-Projekt, das Unternehmen dabei unterstützt, die Granite- oder andere Open-Source-KI-Modelle anzupassen und feinabzustimmen. Laut Katarki wird RHEL AI auch mit der gesamten zugrundeliegenden Plattforminfrastruktur geliefert. Derzeit wird dabei lediglich Nvidia-Hardware unterstützt. Support für AMD- und Intel-Hardware will Red Hat in den nächsten Wochen nachliefern. Plattform als Container Dem Red-Hat-Produktchef zufolge ist die Plattform als Container Image verpackt. Dadurch könnten Unternehmen ihre vorhandenen Container-Management-Tools  verwenden. Zusätzlich zur Software gebe es auch Support und eine rechtliche Absicherung – sowohl für die Open-Source-Software als auch für das Granite-Modell. Letztlich, so der Senior Director, könne RHEL AI als Appliance betrachtet werden. RHEL AI ermöglicht es Unternehmen nicht nur, GenAI auf ihrer eigenen Hardware auszuführen, sondern unterstützt auch ein „Bring your own subscription“-Modell für Public-Cloud-Nutzer. Zum Start gilt dies für AWS und die IBM-Cloud. Im vierten Quartal folgen dann nach der derzeitigen Planung Azure und GCP. Die RHEL-AI-Roadmap Als weitere Punkte stehen Guardrails und Agentic AI. auf der Roadmap Derzeit unterstützt die Plattform noch keine spezifischen Sicherheits-Frameworks. Hier will man in nächster Zeit einige Referenzarchitekturen veröffentlichen. Auch in Sachen agentenbasierte KI bietet RHEL AI derzeit keine fertigen Lösungen. Auch hier erwartet Katarki, dass in naher Zukunft Referenzarchitekturen veröffentlicht werden. Zumal für ihn die Zukunft in agentenbasierten Systemen liegt. Denn diese seien im Ansatz nichts anderes als Microservices. 

Red Hat bringt KI-optimierte Linux-Plattform​ Seine Ankündigung, in den GenAI-Bereich einzusteigen, hat das Open-Source-Unternehmen Red Hat jetzt mit der Verfügbarkeit von Red Hat Enterprise Linux AI (RHEL AI) in die Tat umgesetzt. Damit will das Unternehmen Probleme adressieren, mit denen Unternehmen beim Aufbau und Einsatz von KI in hybriden Clouds konfrontiert sind. 50 Prozent niedrigere KI-Kosten? Zudem, so verspricht Tushar Katarki, Senior Director of Product Management für den Geschäftsbereich Hybridplattformen bei Red Hat, kann RHEL AI „bis zu 50 Prozent niedrigere Kosten bei ähnlicher oder sogar leicht besserer Leistung bieten“. Im Auge hat Katarki dabei vor allem die Kosten für Training und Inferenz. Allerdings machte er keine Angaben dazu, was RHEL AI für Unternehmenskunden kostet. Der Senior Director teilte lediglich mit, dass die Lösung zu einem attraktiven Preis erhältlich sei. Während Closed-Source-KI-Plattformen wie ChatGPT von OpenAI und Claude von Anthropic nur als SaaS-Modell angeboten werden, kann RHEL AI in verschiedenen Clouds und auf einer Vielzahl von OEM-Servern ausgeführt werden. Dabei unterstützt die Plattform mehrere Open-Source-Modelle wie Granite von IBM. KI auf Granite-Basis Zum Start bietet RHEL AI das Granite-Modell mit sieben Milliarden Parametern in englischer Sprache. Ein weiteres Granite-Modell, das über acht Milliarden Parameter verfügt, befindet sich in der Preview-Phase. Es soll Ende des Jahres oder Anfang 2025 allgemein verfügbar sein. RHEL AI wird zudem mit Instruct Lab ausgeliefert, einem Open-Source-Projekt, das Unternehmen dabei unterstützt, die Granite- oder andere Open-Source-KI-Modelle anzupassen und feinabzustimmen. Laut Katarki wird RHEL AI auch mit der gesamten zugrundeliegenden Plattforminfrastruktur geliefert. Derzeit wird dabei lediglich Nvidia-Hardware unterstützt. Support für AMD- und Intel-Hardware will Red Hat in den nächsten Wochen nachliefern. Plattform als Container Dem Red-Hat-Produktchef zufolge ist die Plattform als Container Image verpackt. Dadurch könnten Unternehmen ihre vorhandenen Container-Management-Tools  verwenden. Zusätzlich zur Software gebe es auch Support und eine rechtliche Absicherung – sowohl für die Open-Source-Software als auch für das Granite-Modell. Letztlich, so der Senior Director, könne RHEL AI als Appliance betrachtet werden. RHEL AI ermöglicht es Unternehmen nicht nur, GenAI auf ihrer eigenen Hardware auszuführen, sondern unterstützt auch ein „Bring your own subscription“-Modell für Public-Cloud-Nutzer. Zum Start gilt dies für AWS und die IBM-Cloud. Im vierten Quartal folgen dann nach der derzeitigen Planung Azure und GCP. Die RHEL-AI-Roadmap Als weitere Punkte stehen Guardrails und Agentic AI. auf der Roadmap Derzeit unterstützt die Plattform noch keine spezifischen Sicherheits-Frameworks. Hier will man in nächster Zeit einige Referenzarchitekturen veröffentlichen. Auch in Sachen agentenbasierte KI bietet RHEL AI derzeit keine fertigen Lösungen. Auch hier erwartet Katarki, dass in naher Zukunft Referenzarchitekturen veröffentlicht werden. Zumal für ihn die Zukunft in agentenbasierten Systemen liegt. Denn diese seien im Ansatz nichts anderes als Microservices.

Red Hat bringt KI-optimierte Linux-Plattform​

Seine Ankündigung, in den GenAI-Bereich einzusteigen, hat das Open-Source-Unternehmen Red Hat jetzt mit der Verfügbarkeit von Red Hat Enterprise Linux AI (RHEL AI) in die Tat umgesetzt. Damit will das Unternehmen Probleme adressieren, mit denen Unternehmen beim Aufbau und Einsatz von KI in hybriden Clouds konfrontiert sind. 50 Prozent niedrigere KI-Kosten? Zudem, so verspricht Tushar Katarki, Senior Director of Product Management für den Geschäftsbereich Hybridplattformen bei Red Hat, kann RHEL AI „bis zu 50 Prozent niedrigere Kosten bei ähnlicher oder sogar leicht besserer Leistung bieten“. Im Auge hat Katarki dabei vor allem die Kosten für Training und Inferenz. Allerdings machte er keine Angaben dazu, was RHEL AI für Unternehmenskunden kostet. Der Senior Director teilte lediglich mit, dass die Lösung zu einem attraktiven Preis erhältlich sei. Während Closed-Source-KI-Plattformen wie ChatGPT von OpenAI und Claude von Anthropic nur als SaaS-Modell angeboten werden, kann RHEL AI in verschiedenen Clouds und auf einer Vielzahl von OEM-Servern ausgeführt werden. Dabei unterstützt die Plattform mehrere Open-Source-Modelle wie Granite von IBM. KI auf Granite-Basis Zum Start bietet RHEL AI das Granite-Modell mit sieben Milliarden Parametern in englischer Sprache. Ein weiteres Granite-Modell, das über acht Milliarden Parameter verfügt, befindet sich in der Preview-Phase. Es soll Ende des Jahres oder Anfang 2025 allgemein verfügbar sein. RHEL AI wird zudem mit Instruct Lab ausgeliefert, einem Open-Source-Projekt, das Unternehmen dabei unterstützt, die Granite- oder andere Open-Source-KI-Modelle anzupassen und feinabzustimmen. Laut Katarki wird RHEL AI auch mit der gesamten zugrundeliegenden Plattforminfrastruktur geliefert. Derzeit wird dabei lediglich Nvidia-Hardware unterstützt. Support für AMD- und Intel-Hardware will Red Hat in den nächsten Wochen nachliefern. Plattform als Container Dem Red-Hat-Produktchef zufolge ist die Plattform als Container Image verpackt. Dadurch könnten Unternehmen ihre vorhandenen Container-Management-Tools  verwenden. Zusätzlich zur Software gebe es auch Support und eine rechtliche Absicherung – sowohl für die Open-Source-Software als auch für das Granite-Modell. Letztlich, so der Senior Director, könne RHEL AI als Appliance betrachtet werden. RHEL AI ermöglicht es Unternehmen nicht nur, GenAI auf ihrer eigenen Hardware auszuführen, sondern unterstützt auch ein „Bring your own subscription“-Modell für Public-Cloud-Nutzer. Zum Start gilt dies für AWS und die IBM-Cloud. Im vierten Quartal folgen dann nach der derzeitigen Planung Azure und GCP. Die RHEL-AI-Roadmap Als weitere Punkte stehen Guardrails und Agentic AI. auf der Roadmap Derzeit unterstützt die Plattform noch keine spezifischen Sicherheits-Frameworks. Hier will man in nächster Zeit einige Referenzarchitekturen veröffentlichen. Auch in Sachen agentenbasierte KI bietet RHEL AI derzeit keine fertigen Lösungen. Auch hier erwartet Katarki, dass in naher Zukunft Referenzarchitekturen veröffentlicht werden. Zumal für ihn die Zukunft in agentenbasierten Systemen liegt. Denn diese seien im Ansatz nichts anderes als Microservices. 

Nach oben scrollen