Computerhaus Quickborn

März 2025

Wenn der Cloud-Anbieter offline geht​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?quality=50&strip=all 5184w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wenn Cloud-Anbieter sich kurzfristig dazu entschließen, ihre Services einzustellen, stehen unvorbereitete Anwenderunternehmen nicht nur vor einem Problem.Maderla / Shutterstock Zugegeben: Es kommt nicht allzu häufig vor, dass Cloud-Anbieter von „heute auf morgen“ ihre Services beerdigen. Aber es kommt vor, wie das Beispiel des chinesischen Internet- und Gaming-Riesen NetEase zeigt. Das in der Provinz Hangzhou ansässige Unternehmen hat angekündigt, seine Public-Cloud-Dienste zum 7. April 2025 dauerhaft einzustellen. Der Anbieter begründet diese Entscheidung mit „strategischen Anpassungen“. Davon abgesehen, dürfte jedoch auch der durch KI-Innovationen zunehmend wettbewerbsintensive Cloud-Markt seinen Teil dazu beigetragen haben. Künftig will sich NetEase wieder auf seine Kernkompetenzen fokussieren – Gaming und Big Data. Die Anzahl der vom Serviceende betroffenen Kunden ist in diesem konkreten Fall überschaubar – das Gros kommt aus der Volksrepublik. Und doch rückt der Vorgang die Frage in den Fokus, wie Anwenderunternehmen die Risiken minimieren können, sie sich daraus ergeben, wenn ihr Cloud-Anbieter plötzlich von der Bildfläche verschwindet.  “Sack Reis”? Sich dabei Illusionen hinzugeben, dass NetEase ein China-exklusiver Nischenfall ist, könnte auf den Holzweg führen. Denn KI sorgt weltweit für Umwälzungen auf dem Cloud-Computing-Markt.   Mehr als zehn Jahre nach der ersten, großen Konsolidierungsphase (zwischen 2010 und 2013) tauchen inzwischen wieder zunehmend kleinere Cloud-Player auf, die sich auf GPUs, Storage, Datenanalysen und viele andere Technologien in Zusammenhang mit KI spezialisiert haben. Eine neue Konsolidierungsphase könnte also in Aussicht stehen – getrieben durch Fusionen und Übernahmen. Es könnte also gar nicht so weit hergeholt sein, dass auch Sie demnächst damit konfrontiert sind, dass von Ihnen genutzte Cloud-Services abgeschaltet werden. Natürlich haben Anwender im Regelfall ausreichend Zeit, um auf so einen Fall zu reagieren. Die sollten sie aber auch sinnvoll nutzen, um einen reibungslosen Umstieg zu gewährleisten – was eine entsprechende Vorbereitung erfordert. Im Folgenden ein paar Tipps: Verlassen Sie sich nicht auf einen Anbieter. Indem sie Workloads auf mehrere Anbieter im Rahmen einer Multi-Cloud-Strategie verteilen, minimieren Anwender das Risiko von Geschäftsunterbrechungen. Informieren Sie sich über Ihren Anbieter. Provider, die ihreInvestitionen zurückfahren, sich auf Nischen außerhalb Ihres „Einzugsbereichs“ verlagern oder gegenüber ihren Wettbewerbern an Boden verlieren, sind kritisch zu betrachten. Eine Neubewertung der Partnerschaft könnte sich lohnen. Setzen Sie auf Backup- und Disaster-Recovery-Pläne. Wenn Ihr primärer Cloud-Dienst ausfällt, ist Business Continuity nur gewährleistet, wenn die Backups sich in alternativen Umgebungen befinden. Testen Sie Disaster-Recovery-Systeme regelmäßig, um zu gewährleisten, dass sie im Fall der Fälle einsatzbereit sind. Verankern Sie Migrations-Support in Ihren SLAs. Wenn ein Anbieter seine Türen schließt, sollte er auch einen Teil der „Migrations-Verantwortung“ übernehmen – so wie es NetEase mit Hilfe seiner dedizierten Kundensupport-Teams zu tun scheint. Erwägen Sie On-Premises für geschäftskritische Workloads. Das bietet bessere Kontrollmöglichkeiten und verringert die Abhängigkeit von potenziell instabilen Anbietern. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Wenn der Cloud-Anbieter offline geht​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?quality=50&strip=all 5184w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_1898487073.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wenn Cloud-Anbieter sich kurzfristig dazu entschließen, ihre Services einzustellen, stehen unvorbereitete Anwenderunternehmen nicht nur vor einem Problem.Maderla / Shutterstock

Zugegeben: Es kommt nicht allzu häufig vor, dass Cloud-Anbieter von „heute auf morgen“ ihre Services beerdigen. Aber es kommt vor, wie das Beispiel des chinesischen Internet- und Gaming-Riesen NetEase zeigt. Das in der Provinz Hangzhou ansässige Unternehmen hat angekündigt, seine Public-Cloud-Dienste zum 7. April 2025 dauerhaft einzustellen. Der Anbieter begründet diese Entscheidung mit „strategischen Anpassungen“. Davon abgesehen, dürfte jedoch auch der durch KI-Innovationen zunehmend wettbewerbsintensive Cloud-Markt seinen Teil dazu beigetragen haben. Künftig will sich NetEase wieder auf seine Kernkompetenzen fokussieren – Gaming und Big Data.

Die Anzahl der vom Serviceende betroffenen Kunden ist in diesem konkreten Fall überschaubar – das Gros kommt aus der Volksrepublik. Und doch rückt der Vorgang die Frage in den Fokus, wie Anwenderunternehmen die Risiken minimieren können, sie sich daraus ergeben, wenn ihr Cloud-Anbieter plötzlich von der Bildfläche verschwindet. 

“Sack Reis”?

Sich dabei Illusionen hinzugeben, dass NetEase ein China-exklusiver Nischenfall ist, könnte auf den Holzweg führen. Denn KI sorgt weltweit für Umwälzungen auf dem Cloud-Computing-Markt.  

Mehr als zehn Jahre nach der ersten, großen Konsolidierungsphase (zwischen 2010 und 2013) tauchen inzwischen wieder zunehmend kleinere Cloud-Player auf, die sich auf GPUs, Storage, Datenanalysen und viele andere Technologien in Zusammenhang mit KI spezialisiert haben. Eine neue Konsolidierungsphase könnte also in Aussicht stehen – getrieben durch Fusionen und Übernahmen. Es könnte also gar nicht so weit hergeholt sein, dass auch Sie demnächst damit konfrontiert sind, dass von Ihnen genutzte Cloud-Services abgeschaltet werden.

Natürlich haben Anwender im Regelfall ausreichend Zeit, um auf so einen Fall zu reagieren. Die sollten sie aber auch sinnvoll nutzen, um einen reibungslosen Umstieg zu gewährleisten – was eine entsprechende Vorbereitung erfordert. Im Folgenden ein paar Tipps:

Verlassen Sie sich nicht auf einen Anbieter. Indem sie Workloads auf mehrere Anbieter im Rahmen einer Multi-Cloud-Strategie verteilen, minimieren Anwender das Risiko von Geschäftsunterbrechungen.

Informieren Sie sich über Ihren Anbieter. Provider, die ihreInvestitionen zurückfahren, sich auf Nischen außerhalb Ihres „Einzugsbereichs“ verlagern oder gegenüber ihren Wettbewerbern an Boden verlieren, sind kritisch zu betrachten. Eine Neubewertung der Partnerschaft könnte sich lohnen.

Setzen Sie auf Backup- und Disaster-Recovery-Pläne. Wenn Ihr primärer Cloud-Dienst ausfällt, ist Business Continuity nur gewährleistet, wenn die Backups sich in alternativen Umgebungen befinden. Testen Sie Disaster-Recovery-Systeme regelmäßig, um zu gewährleisten, dass sie im Fall der Fälle einsatzbereit sind.

Verankern Sie Migrations-Support in Ihren SLAs. Wenn ein Anbieter seine Türen schließt, sollte er auch einen Teil der „Migrations-Verantwortung“ übernehmen – so wie es NetEase mit Hilfe seiner dedizierten Kundensupport-Teams zu tun scheint.

Erwägen Sie On-Premises für geschäftskritische Workloads. Das bietet bessere Kontrollmöglichkeiten und verringert die Abhängigkeit von potenziell instabilen Anbietern.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Wenn der Cloud-Anbieter offline geht​ Weiterlesen »

Mercedes setzt auf Humanoide und KI in der digitalen Fabrik​

Allgemein

Humanoide Roboter wie Apollo leiten in der Produktion den nächsten Schritt der Automatisierung ein. Mercedes-Benz Auf den ersten Blick wirkt das 1902 errichtete Backsteingebäude wie von Gestern – es strahlt die klassische Brownfield-Atmosphäre längst vergessener und teilweise bereits abgewickelter Industrien aus. Und das soll das globale Kompetenzzentrum für die Digitalisierung der Produktion von Mercedes-Benz sein – der Digital Factory Campus? Brownfield wird zu High-Tech: Der Digital Factory Campus in Berlin. Mercedes-Benz Doch der erste Eindruck täuscht. Im Inneren entpuppt sich das Gebäude als Epizentrum der Produktion der Zukunft. Roboter, soweit das Auge reicht. Und in der Mitte begrüßt der derzeitige Star unter den Robotern den Besucher: der Humanoide Apollo. Er soll in Berlin-Marienfelde lernen, künftig auch autonom zu agieren, um sich so zu einem flexiblen, intelligenten Assistenzsystem in der Produktion zu entwickeln. Tradition verknüpft mit Digital-First Indirekt ist das Innovationszentrum für die Digitalisierung, angesiedelt im ältesten Produktionsstandort des Konzerns, auch ein Statement an sich: Um eine effiziente und qualitativ hochwertige Automobilproduktion zu gewährleisten, setzt Mercedes-Benz darauf traditionelle Handwerksfähigkeiten mit der Moderne zu verbinden und fährt dabei einen Digital-First-Ansatz. Oder wie es Jörg Burzer, Vorstandsmitglied der Mercedes-Benz Group AG für Produktion, Qualität und Supply Chain Management MB, formuliert: „Mit dem Standort Berlin-Marienfelde bleibt Mercedes-Benz ein Vorreiter in der Automobilproduktion und trägt dazu bei, dass Deutschland als globales lnnovationszentrum wahrgenommen wird.“ Vorstandsmitglied Burzer erläutert den Digital-First-Ansatz bei der Produktion des neuen CLA.Mercedes-Benz Ein Beispiel hierfür ist die Einführung des neuen CLA, der im Werk Rastatt produziert wird. Die Produktionsplanung und -integration in Rastatt erfolgte mithilfe eines Digitalen Zwillings, der im Digital Factory Campus entwickelt wurde. Dieser virtuelle Nachbau der Produktionsanlagen ermöglicht es, die Anlaufphase des neuen Modells zu optimieren, ohne die laufende Serienproduktion nennenswert zu beeinträchtigen. MB.OS in der Produktion Ein weiterer wichtiger Aspekt ist dabei die Integration des neuen Mercedes-Benz-Betriebssystems (MB.OS) – nicht nur in das Fahrzeug, sondern auch in die Produktionsprozesse. In der Vergangenheit wurden die diversen im Fahrzeug verbauten Steuergeräte mit den jeweiligen, von den Zulieferern aufgespielten, Softwarerelease-Ständen montiert. Updates mussten nachträglich – teilweise in den Werkstätten – installiert werden. Mit MB.OS geht Mercedes-Benz hier jetzt neue Wege. Software-Updates können nun direkt in den Produktionslinien durchgeführt werden. Dazu hat die Company zwei zentrale Flash-Points in der Produktion eingeführt. Auch beim MB.OS des CLA geht Mercedes neue Wege. Die Software wird während der Produktion geflasht. Hill Im ersten Schritt wird dabei jedem Fahrzeug sein Kernbetriebssystem, in Form des MB.OS-Kernel aufgespielt. Später werden dann am zweiten Flash-Punkt die jeweils aktuellen – auch ausstattungsabhängigen – Softwarestände übertragen. Auf diese Weise will Mercedes künftig nicht nur Fahrzeuge mit einem konsistenten Softwarestand ausliefern, sondern sich auch von den Zulieferern unabhängiger machen. Eigene LLM Suite entwickelt Einen neuen, beziehungsweise anderen Weg beschreitet Mercedes-Benz auch in Sachen KI: Der Konzern hat mit MO360LLM seine eigene KI-Suite entwickelt. Damit will er gleich zwei Probleme klassischer LLMs wie ChatGPT umgehen: Ihre Neigung zu Halluzinationen und das fehlende Domänenwissen, wenn die Modelle mit allgemeinem Content aus dem Internet trainiert werden. Ein Blick auf die MO360LLM Suite. Hill Grundsätzlich nutzt Mercedes-Benz LLMs, um Aufgaben wie Analysen und Zusammenfassungen zu automatisieren. Dabei basiert die MO360LLM-Suite auf dem Fine-Tuning von Open-Source-Large-Language-Models (OSLLMs). Zum Einsatz kommen dabei Modelle wie DeepSeek, LLaMA, Mistral AI oder Molmo, um nur einige zu nennen. Diese Modelle trainiert Mercedes-Benz nun mit spezifischem Wissen über interne Daten, Prozesse und Produktions-Know-how. So ermöglicht die MO360LLM Suite diese Modelle anzupassen, um sie für unternehmensspezifische Anwendungsfälle nutzbar zu machen. Jörg Burzer, Vorstandsmitglied der Mercedes-Benz Group AG für Produktion, Qualität und Supply Chain Management MB, und Katrin Lehmann, Group CIO bei Mercedes-Benz. Mercedes-Benz Strategisch betrachtet der Konzern KI nicht als isolierte Technologie, sondern als Werkzeug, um die Kompetenzen der Produktionsmitarbeiter zu stärken und ihre Arbeitsprozesse zu optimieren. Denn KI in der Produktion ist, wie Katrin Lehmann, Group CIO bei Mercedes-Benz, unterstreicht, „kein Hype mehr, sondern wird bereits an den Produktionslinien genutzt.“ Ideenschmiede AI Factory Die Ideenfabrik für entsprechende KI-Werkzeuge ist dabei die MO360 AI Factory. Sie wurde mit dem Ziel gegründet, AI-Tools zu entwickeln, die die Mitarbeiter in der Produktion unterstützen, insbesondere: Maschinenbediener, Linieningenieure und Qualitätsingenieure. Die Philosophie: Diese Mitarbeiter wissen aufgrund ihrer täglichen Erfahrung am besten, wo Produktionsoptimierungen und der Einsatz von KI möglich und sinnvoll sind. Digital vernetzte Produktion per MO360. Mercedes-Benz Dementsprechend erfolgt die Entwicklung der KI-Tools in enger Zusammenarbeit mit den Mitarbeitern aus der Produktion. Von der ersten Idee über die Entwicklung einer technischen Lösung bis hin zur weltweiten Einführung arbeiten KI-Spezialisten und Produktionsmitarbeiter Hand in Hand. Mit diesem kollaborativen Ansatz will Mercedes-Benz sicherstellen, dass die entwickelten Tools intuitiv, zugänglich und vertrauenswürdig sind. Wissensmanagement per Chatbot Mit KI hat der Autobauer beispielsweise ein zentrales Wissensmanagement-Tool realisiert – das Digital Factory Chatbot Ecosystem. Es macht das gesamte Wissen der Produktion und Logistik von Mercedes-Benz verschiedenen Wissensdomänen zugänglich. Das Digital Factory Chatbot Ecosystem unterstützt als Wissensmanagement-Tool die Mitarbeiter. Mercedes-Benz Neue Mitarbeiter oder erfahrene Kollegen können dem Chatbot Fragen zu Wartungsarbeiten, Fehlern oder Bedienungsanleitungen einfach per Texteingabe stellen und erhalten umgehend die benötigten Informationen. Um den Digital Factory Chatbot global einsetzen zu können, haben die Mitarbeiter die Möglichkeit, die Fragen in ihrer bevorzugten Sprache zu stellen. Vertrauen durch Kontrolle Die Vertrauenswürdigkeit der Antworten gewährleistet Mercedes-Benz durch mehrere Mechanismen. So werden die Antworten mit Zitaten versehen, die direkt zu den relevanten Stellen in den Originaldokumenten führen. Dies ermöglicht den Nutzern, die Quelle der Information einfach zu überprüfen. Zusätzlich werden die Wissensdomänen von menschlichen Experten der jeweiligen Fachbereiche kuratiert und validiert. Inside Digital Factory Campus. Hill Multi-Agenten für komplexe Aufgaben Für schwierigere Aufgaben, die sich mit dem Digital Factory Chatbot Ecosystem nicht lösen lassen, ist das MO360 AI Multi-Agent System konzipiert. Hierbei arbeitet ein Team von KI-Agenten (beispielsweise Logistik-Agent, Montage-Agent, Programmier-Agent, Daten-Agent) zusammen, um komplexe Aufgaben zu lösen. Auf diese Weise kann etwa ein Qualitätsingenieur eine Problemstellung an das gesamte Team von KI-Agenten delegieren. Diese kommunizieren dann miteinander, um die Ursache zu finden und eine Lösung zu erarbeiten. Das Multi-Agent-System von Mercedes-Benz. Hill Dabei haben die Nutzer die Möglichkeit, die gesamte Kommunikation und die einzelnen Schritte der KI-Agenten im Detail zu verfolgen. Durch die Einsicht in den “Gruppenchat” der Agenten können die User nachvollziehen, wie die Lösung erarbeitet wurde. Dies soll das Vertrauen in die Ergebnisse gewährleisten. Ideen generieren Um neue KI-Anwendungsfälle in der Produktion zu fördern, hat Mercedes-Benz einen strukturierten Ideengenerierungsprozess eingeführt. Er basiert stark auf der aktiven Einbindung der Produktionsmitarbeiter. Durch Workshops und andere Formate werden diese direkt angesprochen, um ihre Ideen und Verbesserungsvorschläge einzubringen. Dieser “Human-First”-Ansatz, so der Autobauer, stellt sicher, dass die entwickelten KI-Lösungen die tatsächlichen Bedürfnisse und Herausforderungen in der Produktion adressieren. Ein Blick in den Digital Factory Campus. Hill Die Bedeutung der menschlichen Arbeitskräfte betont Mercedes-Benz auch bei einem anderen Thema: dem Einsatz von Robotern. Seit der Einführung der ersten Industrieroboter im Karosseriebau 1971 gehört es laut Produktionsvorstand Burzer zur Philosphie von Mercedes-Benz, dass Roboter keine menschlichen Arbeitskräfte ersetzen, sondern vielmehr eine Ergänzung darstellen, um Mitarbeiter von repetitiven oder gefährlichen Aufgaben zu entlasten und die Qualität und Effizienz der Produktion zu steigern. Die Humanoiden kommen Der humanoide Roboter Apollo. Hill Dieser Leitsatz gelte auch bei der jetzt anstehenden Einführung der neuen Generation humanoider Roboter. Mit dem humanoiden Roboter Apollo vom texanischen Hersteller Apptronik bringt Mercedes diesen Robotertyp nun in seine Produktionsstätten. Der Autobauer hofft, die Humanoiden flexibler einsetzen zu können als klassische Roboter. Sein Engagement für den Einsatz humanoider Roboter in der Automobilproduktion unterstreicht der Konzern durch ein Investment in Apptronik – im niedrigen zweistelligen Millionenbereich. Den Unterschied veranschaulicht Jeff Cardenas, Gründer und CEO von Apptronik, indem er die aktuelle Entwicklung in der Robotik mit dem Übergang von Mainframe-Computern zu Personal Computern in den frühen 1980er Jahren vergleicht. „Die aktuellen Industrieroboter sind wie Mainframes für spezifische Aufgaben programmiert, während die nächste Generation humanoider Roboter dank Fortschritten bei der Künstlichen Intelligenz, insbesondere im Bereich GenAI, lernfähig wird und sich an verschiedene Aufgaben anpassen kann“, so der CEO. Apollo bei der Arbeit. Mercedes-Benz Bis Apollo bei Mercedes-Benz wirklich autonom agiert und per KI dazu lernt, dürfte noch etwas Zeit vergehen. Im ersten Schritt übertrugen Mitarbeiter ihr Wissen mithilfe von Teleoperations-Prozessen und Augmented Reality auf Apollo. Zudem sammelten die Humanoiden in einer Produktionsumgebung Daten, um für spezifische Anwendungsfälle innerhalb von MO360 zu trainieren. Konkret werden laut Vorstandsmitglied Burzer zunächst Einsätze in der Qualitätsinspektion und der Logistik erprobt. Diese Bereiche könnten von der Anpassungsfähigkeit der humanoiden Roboter besonders profitieren. Der Schwerpunkt liegt zunächst auf sich wiederholenden Aufgaben. So soll Apollo etwa Komponenten oder Module zur Produktionslinie transportieren, wo sie von hochqualifizierten Mitarbeitern zusammengebaut werden. Fit für die Transformation Unter dem Strich erweitert Mercedes-Benz mithilfe von KI-gestützten Funktionen sowie humanoiden Robotern sein 2020 vorgestelltes digitales Produktions-Ökosystem Mercedes-Benz Cars Operations 360 (MO360). Mit der konsequenten Digitalisierung entlang der gesamten Wertschöpfungskette, vom digitalen Zwilling in der Produktionsplanung bis hin zur intelligenten Unterstützung der Mitarbeiter an der Linie, will das Unternehmen die anstehende Transformation der Automobilindustrie nicht nur bewältigen, sondern aktiv gestalten. 

Mercedes setzt auf Humanoide und KI in der digitalen Fabrik​ Humanoide Roboter wie Apollo leiten in der Produktion den nächsten Schritt der Automatisierung ein.
Mercedes-Benz

Auf den ersten Blick wirkt das 1902 errichtete Backsteingebäude wie von Gestern – es strahlt die klassische Brownfield-Atmosphäre längst vergessener und teilweise bereits abgewickelter Industrien aus. Und das soll das globale Kompetenzzentrum für die Digitalisierung der Produktion von Mercedes-Benz sein – der Digital Factory Campus?

Brownfield wird zu High-Tech: Der Digital Factory Campus in Berlin.
Mercedes-Benz

Doch der erste Eindruck täuscht. Im Inneren entpuppt sich das Gebäude als Epizentrum der Produktion der Zukunft. Roboter, soweit das Auge reicht. Und in der Mitte begrüßt der derzeitige Star unter den Robotern den Besucher: der Humanoide Apollo. Er soll in Berlin-Marienfelde lernen, künftig auch autonom zu agieren, um sich so zu einem flexiblen, intelligenten Assistenzsystem in der Produktion zu entwickeln.

Tradition verknüpft mit Digital-First

Indirekt ist das Innovationszentrum für die Digitalisierung, angesiedelt im ältesten Produktionsstandort des Konzerns, auch ein Statement an sich: Um eine effiziente und qualitativ hochwertige Automobilproduktion zu gewährleisten, setzt Mercedes-Benz darauf traditionelle Handwerksfähigkeiten mit der Moderne zu verbinden und fährt dabei einen Digital-First-Ansatz. Oder wie es Jörg Burzer, Vorstandsmitglied der Mercedes-Benz Group AG für Produktion, Qualität und Supply Chain Management MB, formuliert: „Mit dem Standort Berlin-Marienfelde bleibt Mercedes-Benz ein Vorreiter in der Automobilproduktion und trägt dazu bei, dass Deutschland als globales lnnovationszentrum wahrgenommen wird.“

Vorstandsmitglied Burzer erläutert den Digital-First-Ansatz bei der Produktion des neuen CLA.Mercedes-Benz

Ein Beispiel hierfür ist die Einführung des neuen CLA, der im Werk Rastatt produziert wird. Die Produktionsplanung und -integration in Rastatt erfolgte mithilfe eines Digitalen Zwillings, der im Digital Factory Campus entwickelt wurde. Dieser virtuelle Nachbau der Produktionsanlagen ermöglicht es, die Anlaufphase des neuen Modells zu optimieren, ohne die laufende Serienproduktion nennenswert zu beeinträchtigen.

MB.OS in der Produktion

Ein weiterer wichtiger Aspekt ist dabei die Integration des neuen Mercedes-Benz-Betriebssystems (MB.OS) – nicht nur in das Fahrzeug, sondern auch in die Produktionsprozesse. In der Vergangenheit wurden die diversen im Fahrzeug verbauten Steuergeräte mit den jeweiligen, von den Zulieferern aufgespielten, Softwarerelease-Ständen montiert. Updates mussten nachträglich – teilweise in den Werkstätten – installiert werden.

Mit MB.OS geht Mercedes-Benz hier jetzt neue Wege. Software-Updates können nun direkt in den Produktionslinien durchgeführt werden. Dazu hat die Company zwei zentrale Flash-Points in der Produktion eingeführt.

Auch beim MB.OS des CLA geht Mercedes neue Wege. Die Software wird während der Produktion geflasht.
Hill

Im ersten Schritt wird dabei jedem Fahrzeug sein Kernbetriebssystem, in Form des MB.OS-Kernel aufgespielt. Später werden dann am zweiten Flash-Punkt die jeweils aktuellen – auch ausstattungsabhängigen – Softwarestände übertragen. Auf diese Weise will Mercedes künftig nicht nur Fahrzeuge mit einem konsistenten Softwarestand ausliefern, sondern sich auch von den Zulieferern unabhängiger machen.

Eigene LLM Suite entwickelt

Einen neuen, beziehungsweise anderen Weg beschreitet Mercedes-Benz auch in Sachen KI: Der Konzern hat mit MO360LLM seine eigene KI-Suite entwickelt. Damit will er gleich zwei Probleme klassischer LLMs wie ChatGPT umgehen: Ihre Neigung zu Halluzinationen und das fehlende Domänenwissen, wenn die Modelle mit allgemeinem Content aus dem Internet trainiert werden.

Ein Blick auf die MO360LLM Suite.
Hill

Grundsätzlich nutzt Mercedes-Benz LLMs, um Aufgaben wie Analysen und Zusammenfassungen zu automatisieren. Dabei basiert die MO360LLM-Suite auf dem Fine-Tuning von Open-Source-Large-Language-Models (OSLLMs). Zum Einsatz kommen dabei Modelle wie DeepSeek, LLaMA, Mistral AI oder Molmo, um nur einige zu nennen.

Diese Modelle trainiert Mercedes-Benz nun mit spezifischem Wissen über interne Daten, Prozesse und Produktions-Know-how. So ermöglicht die MO360LLM Suite diese Modelle anzupassen, um sie für unternehmensspezifische Anwendungsfälle nutzbar zu machen.

Jörg Burzer, Vorstandsmitglied der Mercedes-Benz Group AG für Produktion, Qualität und Supply Chain Management MB, und Katrin Lehmann, Group CIO bei Mercedes-Benz.
Mercedes-Benz

Strategisch betrachtet der Konzern KI nicht als isolierte Technologie, sondern als Werkzeug, um die Kompetenzen der Produktionsmitarbeiter zu stärken und ihre Arbeitsprozesse zu optimieren. Denn KI in der Produktion ist, wie Katrin Lehmann, Group CIO bei Mercedes-Benz, unterstreicht, „kein Hype mehr, sondern wird bereits an den Produktionslinien genutzt.“

Ideenschmiede AI Factory

Die Ideenfabrik für entsprechende KI-Werkzeuge ist dabei die MO360 AI Factory. Sie wurde mit dem Ziel gegründet, AI-Tools zu entwickeln, die die Mitarbeiter in der Produktion unterstützen, insbesondere:

Maschinenbediener,

Linieningenieure und

Qualitätsingenieure.

Die Philosophie: Diese Mitarbeiter wissen aufgrund ihrer täglichen Erfahrung am besten, wo Produktionsoptimierungen und der Einsatz von KI möglich und sinnvoll sind.

Digital vernetzte Produktion per MO360.
Mercedes-Benz

Dementsprechend erfolgt die Entwicklung der KI-Tools in enger Zusammenarbeit mit den Mitarbeitern aus der Produktion. Von der ersten Idee über die Entwicklung einer technischen Lösung bis hin zur weltweiten Einführung arbeiten KI-Spezialisten und Produktionsmitarbeiter Hand in Hand. Mit diesem kollaborativen Ansatz will Mercedes-Benz sicherstellen, dass die entwickelten Tools intuitiv, zugänglich und vertrauenswürdig sind.

Wissensmanagement per Chatbot

Mit KI hat der Autobauer beispielsweise ein zentrales Wissensmanagement-Tool realisiert – das Digital Factory Chatbot Ecosystem. Es macht das gesamte Wissen der Produktion und Logistik von Mercedes-Benz verschiedenen Wissensdomänen zugänglich.

Das Digital Factory Chatbot Ecosystem unterstützt als Wissensmanagement-Tool die Mitarbeiter.
Mercedes-Benz

Neue Mitarbeiter oder erfahrene Kollegen können dem Chatbot Fragen zu Wartungsarbeiten, Fehlern oder Bedienungsanleitungen einfach per Texteingabe stellen und erhalten umgehend die benötigten Informationen. Um den Digital Factory Chatbot global einsetzen zu können, haben die Mitarbeiter die Möglichkeit, die Fragen in ihrer bevorzugten Sprache zu stellen.

Vertrauen durch Kontrolle

Die Vertrauenswürdigkeit der Antworten gewährleistet Mercedes-Benz durch mehrere Mechanismen. So werden die Antworten mit Zitaten versehen, die direkt zu den relevanten Stellen in den Originaldokumenten führen. Dies ermöglicht den Nutzern, die Quelle der Information einfach zu überprüfen. Zusätzlich werden die Wissensdomänen von menschlichen Experten der jeweiligen Fachbereiche kuratiert und validiert.

Inside Digital Factory Campus.
Hill

Multi-Agenten für komplexe Aufgaben

Für schwierigere Aufgaben, die sich mit dem Digital Factory Chatbot Ecosystem nicht lösen lassen, ist das MO360 AI Multi-Agent System konzipiert. Hierbei arbeitet ein Team von KI-Agenten (beispielsweise Logistik-Agent, Montage-Agent, Programmier-Agent, Daten-Agent) zusammen, um komplexe Aufgaben zu lösen.

Auf diese Weise kann etwa ein Qualitätsingenieur eine Problemstellung an das gesamte Team von KI-Agenten delegieren. Diese kommunizieren dann miteinander, um die Ursache zu finden und eine Lösung zu erarbeiten.

Das Multi-Agent-System von Mercedes-Benz.
Hill

Dabei haben die Nutzer die Möglichkeit, die gesamte Kommunikation und die einzelnen Schritte der KI-Agenten im Detail zu verfolgen. Durch die Einsicht in den “Gruppenchat” der Agenten können die User nachvollziehen, wie die Lösung erarbeitet wurde. Dies soll das Vertrauen in die Ergebnisse gewährleisten.

Ideen generieren

Um neue KI-Anwendungsfälle in der Produktion zu fördern, hat Mercedes-Benz einen strukturierten Ideengenerierungsprozess eingeführt. Er basiert stark auf der aktiven Einbindung der Produktionsmitarbeiter. Durch Workshops und andere Formate werden diese direkt angesprochen, um ihre Ideen und Verbesserungsvorschläge einzubringen. Dieser “Human-First”-Ansatz, so der Autobauer, stellt sicher, dass die entwickelten KI-Lösungen die tatsächlichen Bedürfnisse und Herausforderungen in der Produktion adressieren.

Ein Blick in den Digital Factory Campus.
Hill

Die Bedeutung der menschlichen Arbeitskräfte betont Mercedes-Benz auch bei einem anderen Thema: dem Einsatz von Robotern. Seit der Einführung der ersten Industrieroboter im Karosseriebau 1971 gehört es laut Produktionsvorstand Burzer zur Philosphie von Mercedes-Benz, dass Roboter keine menschlichen Arbeitskräfte ersetzen, sondern vielmehr eine Ergänzung darstellen, um Mitarbeiter von repetitiven oder gefährlichen Aufgaben zu entlasten und die Qualität und Effizienz der Produktion zu steigern.

Die Humanoiden kommen

Der humanoide Roboter Apollo.
Hill

Dieser Leitsatz gelte auch bei der jetzt anstehenden Einführung der neuen Generation humanoider Roboter. Mit dem humanoiden Roboter Apollo vom texanischen Hersteller Apptronik bringt Mercedes diesen Robotertyp nun in seine Produktionsstätten. Der Autobauer hofft, die Humanoiden flexibler einsetzen zu können als klassische Roboter. Sein Engagement für den Einsatz humanoider Roboter in der Automobilproduktion unterstreicht der Konzern durch ein Investment in Apptronik – im niedrigen zweistelligen Millionenbereich.

Den Unterschied veranschaulicht Jeff Cardenas, Gründer und CEO von Apptronik, indem er die aktuelle Entwicklung in der Robotik mit dem Übergang von Mainframe-Computern zu Personal Computern in den frühen 1980er Jahren vergleicht. „Die aktuellen Industrieroboter sind wie Mainframes für spezifische Aufgaben programmiert, während die nächste Generation humanoider Roboter dank Fortschritten bei der Künstlichen Intelligenz, insbesondere im Bereich GenAI, lernfähig wird und sich an verschiedene Aufgaben anpassen kann“, so der CEO.

Apollo bei der Arbeit.
Mercedes-Benz

Bis Apollo bei Mercedes-Benz wirklich autonom agiert und per KI dazu lernt, dürfte noch etwas Zeit vergehen. Im ersten Schritt übertrugen Mitarbeiter ihr Wissen mithilfe von Teleoperations-Prozessen und Augmented Reality auf Apollo. Zudem sammelten die Humanoiden in einer Produktionsumgebung Daten, um für spezifische Anwendungsfälle innerhalb von MO360 zu trainieren.

Konkret werden laut Vorstandsmitglied Burzer zunächst Einsätze in der Qualitätsinspektion und der Logistik erprobt. Diese Bereiche könnten von der Anpassungsfähigkeit der humanoiden Roboter besonders profitieren. Der Schwerpunkt liegt zunächst auf sich wiederholenden Aufgaben. So soll Apollo etwa Komponenten oder Module zur Produktionslinie transportieren, wo sie von hochqualifizierten Mitarbeitern zusammengebaut werden.

Fit für die Transformation

Unter dem Strich erweitert Mercedes-Benz mithilfe von KI-gestützten Funktionen sowie humanoiden Robotern sein 2020 vorgestelltes digitales Produktions-Ökosystem Mercedes-Benz Cars Operations 360 (MO360). Mit der konsequenten Digitalisierung entlang der gesamten Wertschöpfungskette, vom digitalen Zwilling in der Produktionsplanung bis hin zur intelligenten Unterstützung der Mitarbeiter an der Linie, will das Unternehmen die anstehende Transformation der Automobilindustrie nicht nur bewältigen, sondern aktiv gestalten.

Mercedes setzt auf Humanoide und KI in der digitalen Fabrik​ Weiterlesen »

7 Slack-Apps für Teamarbeiter​

Allgemein

Die Integrationsmöglichkeiten von Slack gestalten die (digitale) Zusammenarbeit im Team denkbar einfach und komfortabel.Howard Wen / Foundry Slack gehört wahrscheinlich auch für Sie zum Arbeitsalltag. Zum Beispiel, um: sich per Chat mit den Kollegen auszutauschen, Brainstorming-Sessions abzuhalten, oder Tasks zu managen. Die Salesforce-Plattform ermöglicht es jedoch auch, einige Drittanbieter-Apps zu integrieren – etwa um gemeinsam an Dokumenten in der Cloud zu arbeiten. Das macht es überflüssig, zwischen Slack und anderen Webanwendungen hin- und herzuwechseln und gestaltet die Arbeit so nahtloser und effizienter. In diesem Artikel stellen wir Ihnen sieben Apps für Slack vor, die in diese Kerbe schlagen. Box Es gibt zwei offizielle Box-Apps für Slack: Box wird vom Unternehmen selbst vertrieben und ist für zahlende Kunden verfügbar. Box File Picker wurde hingegen von Slack-Entwicklern auf die Beine gestellt und steht für alle Box-Konten zur Verfügung. Box Die Box-App für Slack ermöglicht es, einen Link zu einem innerhalb eines Box-Kontos gespeicherten Dokuments zu erzeugen und diesen anschließend in Slack zu teilen. Dabei werden auch Details wie der Dateiname, Informationen zum Autor und eine Miniaturansicht dargestellt. Um ein Dokument mit der Box-App zu teilen, öffnen Sie die Box-Web-App, wählen ein Dokument aus und klicken auf das Slack-Symbol in der Seitenleiste. Das generiert den Link, den Sie dann posten können. Darüber hinaus ist es auch möglich: Zugriffsberechtigungen für das Dokument über den Slack-Kanal (oder eine Direktnachricht) zu aktualisieren; Dokumente, die in einen Slack-Kanal oder eine Direktnachricht hochgeladen werden, automatisch in Box-Konten zu speichern; einen KI-Assistenten hinzuziehen; die Box-App nur für bestimmte Slack-Arbeitsplätze freizugeben. Box File Picker Auch die App Box File Picker für Slack, ermöglicht es, bei Box gespeicherte Dokumente in einen Slack-Channel oder -Chat zu importieren. Um ein Dokument mit Box File Picker zu teilen, öffnen Sie einen Slack-Channel oder eine Direktnachricht und geben /box in das Nachrichtenfenster ein. Es folgt ein Menü, über das Sie Dokumente und Ordner in Ihrem Box-Konto suchen und auswählen können. DocuSign Die DocuSign-App für Slack ermöglicht es, Dokumente zu erstellen und diese zu Zwecken einer elektronischen Signatur über Slack an Kollegen zu senden. Dabei lässt sich bei mehreren Unterzeichnern unter anderem auch eine definierte Reihenfolge festlegen. Die Slack-App hält Sie dabei über den Status des Dokuments stets auf dem Laufenden. Um ein Dokument für eine elektronische Signatur zu erstellen, geben Sie im Kanal /docusign ein. Anschließend können Sie eine Dokumentenvorlage auswählen – oder ein eigenes Dokument hochladen, das bereits auf dem Rechner liegt. Geht es darum, ein Dokument zu unterzeichnen, läuft der Prozess denkbar komfortabel ab: Die Teammitglieder auf Empfängerseite erhalten eine Slack-Benachrichtigung, dass sie ein Dokument überprüfen und elektronisch unterzeichnen können. Durch diesen Prozess werden die Benutzer geführt, ohne Slack verlassen zu müssen. Dropbox Auch im Fall von Dropbox gibt es zwei offizielle Apps für Slack: Dropbox ermöglicht es nicht nur, Dropbox-Dokumente über Slack zu teilen, sondern auch Dokumente über Slack in Dropbox zu speichern. Dropbox Paper ist hingegen speziell darauf konzipiert, über Slack gemeinsam an Paper-Dokumenten zu arbeiten. Dropbox Wenn Sie ein Dokument, das in Ihrem Dropbox-Konto gespeichert ist, über Slack freigeben, werden sowohl die Dropbox-URL als auch eine Miniaturansicht angezeigt. Um Dokumente in Dropbox für Slack freizugeben, wählen Sie in der Dropbox-Anwendung das entsprechende Dokument aus. Ein Klick auf das „Drei Punkte“-Symbol führt zur Option für Slack freigeben. Im nachfolgenden Fenster können Sie das Dokument nun in einem Kanal oder einer Direktnachricht freigeben. Um in Slack freigegebene Dokumente in Dropbox zu speichern, klicken Sie auf das „Drei Punke“-Symbol in der oberen rechten Ecke der Slack-Nachricht, während ein freigegebenes Dokument angezeigt wird. Im darauffolgenden Menü haben Sie nun die Möglichkeit in Dropbox zu speichern. Dropbox Paper Die Dropbox Paper-App unterstützt Teams dabei, über Slack gemeinsam an Dropbox-Paper-Dokumenten zu arbeiten. Dazu ist es möglich, neue Paper-Dokumente zu erstellen, nach vorhandenen zu suchen und ihre Vorschau in Slack anzuzeigen. Um ein neues Dropbox-Paper-Dokument zu erstellen, geben Sie in einem Nachrichtenfenster den Befehl /paper new Titel ein. Dabei ersetzen Sie Sie Titel durch den gewünschten Namen für das neue Paper-Dokument. Zusätzlich zu den Zugriffsanfragen erhalten alle Teammitglieder auch  Benachrichtigungen, wenn Dateien für sie freigegeben werden – oder neue Kommentare zu freigegebenen Dateien verfügbar sind. Google Drive Mit der Google Drive-App für Slack können Sie in Google Drive gespeicherte Dokumente über Slack-Channels und -Chats erstellen, freigeben und suchen. Das steht auch allen anderen Teammitgliedern frei, insofern diese ihre jeweiligen Google-Drive-Konten mit Slack verbinden. Um ein neues Google Drive-Dokument zu erstellen, geben Sie im Nachrichtenfenster /google oder /drive ein und wählen anschließend die gewünschte Option aus. Dann müssen Sie das neue Dokument nur noch mit einem Titel versehen – und definieren, mit welchem Slack-Kanal (oder Teamkollegen) dieses geteilt werden soll. Um ein Dokument zu teilen, das in Google Drive gespeichert ist, geben Sie ebenfalls /google oder /drive ein und wählen anschließend die Option aus Google Drive hinzufügen. Im darauffolgenden Fenster können Sie Dokumente und Ordner in Ihrem Google Drive-Konto durchsuchen und auswählen. Auch die Google-Drive-App für Slack „meldet sich“ mit Zugriffsanfragen und Benachrichtigungen über freigegebene Dateien und neue Kommentare. Microsoft OneDrive and SharePoint Natürlich darf auch Microsoft in dieser Übersicht nicht fehlen. Die Redmonder stellen für Slack ihre App OneDrive and SharePoint bereit, über die Sie Dateien, die auf den beiden Plattformen gespeichert sind, freigeben dürfen. Darüber hinaus ist es damit auch möglich, neue Dokumente, Tabellen und Präsentationen in OneDrive zu erstellen – über Slack. Wenn Sie ein Dokument in einem Slack-Kanal oder einer Direktnachricht freigeben, zeigt die App eine Vorschau des Inhalts an. Außerdem wird geprüft, ob alle Personen im Kanal (oder der Direktnachricht) über die erforderlichen Berechtigungen verfügen, um auf das freigegebene Dokument zuzugreifen. Ein Klick auf die jeweilige Datei, öffnet diese in der jeweiligen Webanwendung (Word, Excel oder PowerPoint). Um ein neues OneDrive-Dokument zu erstellen, geben Sie in einer neuen Nachricht /onedrive ein und wählen Sie anschließend, ob Sie ein Dokument, eine Präsentation oder eine Tabelle erstellen möchten. Anschließend braucht die Datei noch einen Namen und eine Destination – optional dürfen Sie auch eine Nachricht hinzufügen. Die Datei wird dann im Standardverzeichnis für OneDrive erstellt. Um ein in OneDrive oder SharePoint gespeichertes Dokument zu teilen, nutzen Sie in einem Slack-Kanal oder einem Chat den Befehl /onedrive. Im folgenden Fenster können Sie in OneDrive und SharePoint nach dem Dokument suchen, das Sie teilen möchten. Um ein in OneDrive oder SharePoint gespeichertes Dokument als Link zu teilen, wählen Sie in der OneDrive- oder SharePoint-Webanwendung das entsprechende Dokument aus und erstellen einen Shared Link dazu. Diesen können Sie anschließend für Slack nutzen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

7 Slack-Apps für Teamarbeiter​ Die Integrationsmöglichkeiten von Slack gestalten die (digitale) Zusammenarbeit im Team denkbar einfach und komfortabel.Howard Wen / Foundry

Slack gehört wahrscheinlich auch für Sie zum Arbeitsalltag. Zum Beispiel, um:

sich per Chat mit den Kollegen auszutauschen,

Brainstorming-Sessions abzuhalten, oder

Tasks zu managen.

Die Salesforce-Plattform ermöglicht es jedoch auch, einige Drittanbieter-Apps zu integrieren – etwa um gemeinsam an Dokumenten in der Cloud zu arbeiten. Das macht es überflüssig, zwischen Slack und anderen Webanwendungen hin- und herzuwechseln und gestaltet die Arbeit so nahtloser und effizienter.

In diesem Artikel stellen wir Ihnen sieben Apps für Slack vor, die in diese Kerbe schlagen.

Box

Es gibt zwei offizielle Box-Apps für Slack:

Box wird vom Unternehmen selbst vertrieben und ist für zahlende Kunden verfügbar.

Box File Picker wurde hingegen von Slack-Entwicklern auf die Beine gestellt und steht für alle Box-Konten zur Verfügung.

Box

Die Box-App für Slack ermöglicht es, einen Link zu einem innerhalb eines Box-Kontos gespeicherten Dokuments zu erzeugen und diesen anschließend in Slack zu teilen. Dabei werden auch Details wie der Dateiname, Informationen zum Autor und eine Miniaturansicht dargestellt.

Um ein Dokument mit der Box-App zu teilen, öffnen Sie die Box-Web-App, wählen ein Dokument aus und klicken auf das Slack-Symbol in der Seitenleiste. Das generiert den Link, den Sie dann posten können.

Darüber hinaus ist es auch möglich:

Zugriffsberechtigungen für das Dokument über den Slack-Kanal (oder eine Direktnachricht) zu aktualisieren;

Dokumente, die in einen Slack-Kanal oder eine Direktnachricht hochgeladen werden, automatisch in Box-Konten zu speichern;

einen KI-Assistenten hinzuziehen;

die Box-App nur für bestimmte Slack-Arbeitsplätze freizugeben.

Box File Picker

Auch die App Box File Picker für Slack, ermöglicht es, bei Box gespeicherte Dokumente in einen Slack-Channel oder -Chat zu importieren.

Um ein Dokument mit Box File Picker zu teilen, öffnen Sie einen Slack-Channel oder eine Direktnachricht und geben /box in das Nachrichtenfenster ein. Es folgt ein Menü, über das Sie Dokumente und Ordner in Ihrem Box-Konto suchen und auswählen können.

DocuSign

Die DocuSign-App für Slack ermöglicht es, Dokumente zu erstellen und diese zu Zwecken einer elektronischen Signatur über Slack an Kollegen zu senden. Dabei lässt sich bei mehreren Unterzeichnern unter anderem auch eine definierte Reihenfolge festlegen. Die Slack-App hält Sie dabei über den Status des Dokuments stets auf dem Laufenden.

Um ein Dokument für eine elektronische Signatur zu erstellen, geben Sie im Kanal /docusign ein. Anschließend können Sie eine Dokumentenvorlage auswählen – oder ein eigenes Dokument hochladen, das bereits auf dem Rechner liegt.

Geht es darum, ein Dokument zu unterzeichnen, läuft der Prozess denkbar komfortabel ab: Die Teammitglieder auf Empfängerseite erhalten eine Slack-Benachrichtigung, dass sie ein Dokument überprüfen und elektronisch unterzeichnen können. Durch diesen Prozess werden die Benutzer geführt, ohne Slack verlassen zu müssen.

Dropbox

Auch im Fall von Dropbox gibt es zwei offizielle Apps für Slack:

Dropbox ermöglicht es nicht nur, Dropbox-Dokumente über Slack zu teilen, sondern auch Dokumente über Slack in Dropbox zu speichern.

Dropbox Paper ist hingegen speziell darauf konzipiert, über Slack gemeinsam an Paper-Dokumenten zu arbeiten.

Dropbox

Wenn Sie ein Dokument, das in Ihrem Dropbox-Konto gespeichert ist, über Slack freigeben, werden sowohl die Dropbox-URL als auch eine Miniaturansicht angezeigt.

Um Dokumente in Dropbox für Slack freizugeben, wählen Sie in der Dropbox-Anwendung das entsprechende Dokument aus. Ein Klick auf das „Drei Punkte“-Symbol führt zur Option für Slack freigeben. Im nachfolgenden Fenster können Sie das Dokument nun in einem Kanal oder einer Direktnachricht freigeben.

Um in Slack freigegebene Dokumente in Dropbox zu speichern, klicken Sie auf das „Drei Punke“-Symbol in der oberen rechten Ecke der Slack-Nachricht, während ein freigegebenes Dokument angezeigt wird. Im darauffolgenden Menü haben Sie nun die Möglichkeit in Dropbox zu speichern.

Dropbox Paper

Die Dropbox Paper-App unterstützt Teams dabei, über Slack gemeinsam an Dropbox-Paper-Dokumenten zu arbeiten. Dazu ist es möglich, neue Paper-Dokumente zu erstellen, nach vorhandenen zu suchen und ihre Vorschau in Slack anzuzeigen.

Um ein neues Dropbox-Paper-Dokument zu erstellen, geben Sie in einem Nachrichtenfenster den Befehl /paper new Titel ein. Dabei ersetzen Sie Sie Titel durch den gewünschten Namen für das neue Paper-Dokument.

Zusätzlich zu den Zugriffsanfragen erhalten alle Teammitglieder auch  Benachrichtigungen, wenn Dateien für sie freigegeben werden – oder neue Kommentare zu freigegebenen Dateien verfügbar sind.

Google Drive

Mit der Google Drive-App für Slack können Sie in Google Drive gespeicherte Dokumente über Slack-Channels und -Chats erstellen, freigeben und suchen. Das steht auch allen anderen Teammitgliedern frei, insofern diese ihre jeweiligen Google-Drive-Konten mit Slack verbinden.

Um ein neues Google Drive-Dokument zu erstellen, geben Sie im Nachrichtenfenster /google oder /drive ein und wählen anschließend die gewünschte Option aus. Dann müssen Sie das neue Dokument nur noch mit einem Titel versehen – und definieren, mit welchem Slack-Kanal (oder Teamkollegen) dieses geteilt werden soll.

Um ein Dokument zu teilen, das in Google Drive gespeichert ist, geben Sie ebenfalls /google oder /drive ein und wählen anschließend die Option aus Google Drive hinzufügen. Im darauffolgenden Fenster können Sie Dokumente und Ordner in Ihrem Google Drive-Konto durchsuchen und auswählen.

Auch die Google-Drive-App für Slack „meldet sich“ mit Zugriffsanfragen und Benachrichtigungen über freigegebene Dateien und neue Kommentare.

Microsoft OneDrive and SharePoint

Natürlich darf auch Microsoft in dieser Übersicht nicht fehlen. Die Redmonder stellen für Slack ihre App OneDrive and SharePoint bereit, über die Sie Dateien, die auf den beiden Plattformen gespeichert sind, freigeben dürfen. Darüber hinaus ist es damit auch möglich, neue Dokumente, Tabellen und Präsentationen in OneDrive zu erstellen – über Slack.

Wenn Sie ein Dokument in einem Slack-Kanal oder einer Direktnachricht freigeben, zeigt die App eine Vorschau des Inhalts an. Außerdem wird geprüft, ob alle Personen im Kanal (oder der Direktnachricht) über die erforderlichen Berechtigungen verfügen, um auf das freigegebene Dokument zuzugreifen. Ein Klick auf die jeweilige Datei, öffnet diese in der jeweiligen Webanwendung (Word, Excel oder PowerPoint).

Um ein neues OneDrive-Dokument zu erstellen, geben Sie in einer neuen Nachricht /onedrive ein und wählen Sie anschließend, ob Sie ein Dokument, eine Präsentation oder eine Tabelle erstellen möchten. Anschließend braucht die Datei noch einen Namen und eine Destination – optional dürfen Sie auch eine Nachricht hinzufügen. Die Datei wird dann im Standardverzeichnis für OneDrive erstellt.

Um ein in OneDrive oder SharePoint gespeichertes Dokument zu teilen, nutzen Sie in einem Slack-Kanal oder einem Chat den Befehl /onedrive. Im folgenden Fenster können Sie in OneDrive und SharePoint nach dem Dokument suchen, das Sie teilen möchten.

Um ein in OneDrive oder SharePoint gespeichertes Dokument als Link zu teilen, wählen Sie in der OneDrive- oder SharePoint-Webanwendung das entsprechende Dokument aus und erstellen einen Shared Link dazu. Diesen können Sie anschließend für Slack nutzen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

7 Slack-Apps für Teamarbeiter​ Weiterlesen »

Nvidia GTC 2025 in a Nutshell​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Blackwell erobert den Desktop – nur eines von vielen Highlights der GTC 2025.Nvidia Den Überblick in der Ankündigungs- und Neuheitenflut zu wahren, die KI-Krösus Nvidia auf seiner Entwicklerkonferenz GTC in diesem Jahr entfacht hat, ist mitunter herausfordernd. Bereits die Keynote von CEO Jensen Huang sprengte mit über zwei Stunden Länge den üblichen Rahmen. In diesem Artikel geben wir einen stark komprimierten Überblick über die, aus Anwender- respektive Developer-Perspektive, wichtigsten Produktankündigungen von Nvidia. 1. Neue GPUs Im Rahmen seiner ausführlichen Keynote gab Nvidia-CEO Jensen Huang einen Ausblick auf die Grafikprozessoren-Roadmap für die kommenden Jahre: In der zweiten Jahreshälfte 2025 steht mit Blackwell Ultra eine neue, leistungsfähige(re) GPU zur Verfügung. Diese wird ab 2026 von der Rubin GPU-Familie abgelöst, die die dreifache Leistung der Blackwell Ultra GPU bieten – und ab 2027 in einer noch leistungsfähigeren Ultra-Version zur Verfügung stehen – soll. Für das Jahr 2028 kündigte der Nvidia-CEO mit der Feynman GPU eine weitere, neue Generation von Grafikprozessoren an. 2. Blackwell für den Schreibtisch Bislang war die derzeit aktuelle GPU-Plattform Blackwell (Ultra) – sieht man einmal von den RTX-50-Grafikkarten ab – Rechenzentren vorbehalten. Auf der GTC 2025 kündigte Nvidia nun an, sie in Form der neuen Desktop-Systeme DGX Spark und DGX Station auch auf den Schreibtisch zu bringen. Die Systeme sollen künftig Entwickler, Datenwissenschaftler und Studenten dazu befähigen, große Sprachmodelle (LLMs) auf ihrem Desktop zu testen, feinabzustimmen und zu inferenzieren. Die KI-Modelle, die daraus entspringen, können lokal oder über die DGX-Cloud bereitgestellt werden. Für die Blackwell-Architektur braucht man künftig nicht mehr unbedingt ein Data Center.Nvidia Für die Produktion der KI-Supercomputer für den Schreibtisch setzt Nvidia auf die Kooperation mit Hardware-Partnern. Zu diesen zählen unter anderem: Asus, Dell, HP und Lenovo. 3. Agentic-AI-Grundlagenarbeit Agentic AI ist sozusagen ein Trend im Trend: Autonom agierende KI-Instanzen könnten künftig auch komplexe Geschäftsprozesse automatisieren, wenn es nach Softwareanbietern – und auch Analysten – geht. Nvidia begegnet dieser Entwicklung mit der Ankündigung einer neuen KI-Modellfamilie: Llama Nemotron. Die offenen Reasoning-Modelle sind nachtrainiert (Post-Training) und sollen Unternehmen und Entwicklern künftig die Grundlage dafür liefern, eigene KI-Agenten(plattformen) aufzubauen. Dabei zeichnen sich die neuen Nemotron-Modelle laut Nvidia in erster Linie durch verbesserte Fähigkeiten aus, wenn es darum geht:   komplexe mathematische Berechnungen durchzuführen, Code zu schreiben, zu argumentieren, und komplexe Entscheidungen zu treffen. Die Llama-Nemotron-Modelle sind in drei verschiedenen „Größen“ erhältlich (Nano, Super und Ultra), was Anwendern ermöglicht, sie entsprechend ihrer Bedürfnisse einzusetzen. Nvidias CEO war auf der GTC 2025 auch virtuell präsent, um die neuesten Innovationen des KI-Unternehmens vorzustellen.Nvidia Die Modellfamilie ist Teil von Nvidias AI-Enterprise-Softwareplattform und ab sofort verfügbar – entweder über eine gehostete API oder Hugging Face. Mitglieder des Nvidia Developer Program dürfen zu Experimentier- und Forschungszwecken kostenlos auf die neuen Modelle zugreifen. 4. KI-Inferenz-Turbo Passend dazu präsentierte Nvidia mit Dynamo außerdem ein neues, quelloffenes KI-Inferenz-Framework, das sich durch hohen Durchsatz und niedrige Latenz auszeichnet. Laut CEO Huang ist es „das Betriebssystem für KI-Fabriken“. Es soll Anwender künftig dabei unterstützen, GenAI- und Reasoning-Modelle in besonders weitläufigen, verteilten Umgebungen bereitzustellen. Laut Nvidia soll das Framework die Anzahl der möglichen Requests im besten Fall um den Faktor 30 steigern können (wenn DeepSeek R1 auf Blackwell zum Einsatz kommt). Das KI-Framework ist mit diversen Open-Source-Werkzeugen kompatibel – etwa PyTorch. Nvidia Dynamo steht für Entwickler ab sofort über GitHub zur Verfügung. Unternehmen können auf das Framework im Rahmen der AI-Enterprise-Plattform zugreifen. 5. Humanoides Fundament Auch mit Blick auf einen weiteren KI-Zukunftstrend lieferte Nvidia auf seiner Entwicklerkonferenz ab, nämlich humanoide Robotik. Dabei sticht insbesondere eine Neuvorstellung heraus: Isaac GR00T N1 – das laut Nvidia erste, offene Foundation Model für humanoide Roboter. Es soll nur der Startpunkt sein: Nvidia plant für die Zukunft, Robotik-Spezialisten eine ganze Familie vortrainierter, vollständig anpassbarer Modelle um GR00T N1 herum zur Verfügung zu stellen. Trainingsdaten und Task-Evaluation-Szenarien für GR00T N1 stehen ab sofort über GitHub sowie Hugging Face zum Download zur Verfügung. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Nvidia GTC 2025 in a Nutshell​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/00_nvidia-dgx-spark_16z9_nvidia.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Blackwell erobert den Desktop – nur eines von vielen Highlights der GTC 2025.Nvidia

Den Überblick in der Ankündigungs- und Neuheitenflut zu wahren, die KI-Krösus Nvidia auf seiner Entwicklerkonferenz GTC in diesem Jahr entfacht hat, ist mitunter herausfordernd. Bereits die Keynote von CEO Jensen Huang sprengte mit über zwei Stunden Länge den üblichen Rahmen.

In diesem Artikel geben wir einen stark komprimierten Überblick über die, aus Anwender- respektive Developer-Perspektive, wichtigsten Produktankündigungen von Nvidia.

1. Neue GPUs

Im Rahmen seiner ausführlichen Keynote gab Nvidia-CEO Jensen Huang einen Ausblick auf die Grafikprozessoren-Roadmap für die kommenden Jahre:

In der zweiten Jahreshälfte 2025 steht mit Blackwell Ultra eine neue, leistungsfähige(re) GPU zur Verfügung.

Diese wird ab 2026 von der Rubin GPU-Familie abgelöst, die die dreifache Leistung der Blackwell Ultra GPU bieten – und ab 2027 in einer noch leistungsfähigeren Ultra-Version zur Verfügung stehen – soll.

Für das Jahr 2028 kündigte der Nvidia-CEO mit der Feynman GPU eine weitere, neue Generation von Grafikprozessoren an.

2. Blackwell für den Schreibtisch

Bislang war die derzeit aktuelle GPU-Plattform Blackwell (Ultra) – sieht man einmal von den RTX-50-Grafikkarten ab – Rechenzentren vorbehalten. Auf der GTC 2025 kündigte Nvidia nun an, sie in Form der neuen Desktop-Systeme DGX Spark und DGX Station auch auf den Schreibtisch zu bringen.

Die Systeme sollen künftig Entwickler, Datenwissenschaftler und Studenten dazu befähigen, große Sprachmodelle (LLMs) auf ihrem Desktop zu testen, feinabzustimmen und zu inferenzieren. Die KI-Modelle, die daraus entspringen, können lokal oder über die DGX-Cloud bereitgestellt werden.

Für die Blackwell-Architektur braucht man künftig nicht mehr unbedingt ein Data Center.Nvidia

Für die Produktion der KI-Supercomputer für den Schreibtisch setzt Nvidia auf die Kooperation mit Hardware-Partnern. Zu diesen zählen unter anderem:

Asus,

Dell,

HP und

Lenovo.

3. Agentic-AI-Grundlagenarbeit

Agentic AI ist sozusagen ein Trend im Trend: Autonom agierende KI-Instanzen könnten künftig auch komplexe Geschäftsprozesse automatisieren, wenn es nach Softwareanbietern – und auch Analysten – geht.

Nvidia begegnet dieser Entwicklung mit der Ankündigung einer neuen KI-Modellfamilie: Llama Nemotron. Die offenen Reasoning-Modelle sind nachtrainiert (Post-Training) und sollen Unternehmen und Entwicklern künftig die Grundlage dafür liefern, eigene KI-Agenten(plattformen) aufzubauen. Dabei zeichnen sich die neuen Nemotron-Modelle laut Nvidia in erster Linie durch verbesserte Fähigkeiten aus, wenn es darum geht:  

komplexe mathematische Berechnungen durchzuführen,

Code zu schreiben,

zu argumentieren, und

komplexe Entscheidungen zu treffen.

Die Llama-Nemotron-Modelle sind in drei verschiedenen „Größen“ erhältlich (Nano, Super und Ultra), was Anwendern ermöglicht, sie entsprechend ihrer Bedürfnisse einzusetzen.

Nvidias CEO war auf der GTC 2025 auch virtuell präsent, um die neuesten Innovationen des KI-Unternehmens vorzustellen.Nvidia

Die Modellfamilie ist Teil von Nvidias AI-Enterprise-Softwareplattform und ab sofort verfügbar – entweder über eine gehostete API oder Hugging Face. Mitglieder des Nvidia Developer Program dürfen zu Experimentier- und Forschungszwecken kostenlos auf die neuen Modelle zugreifen.

4. KI-Inferenz-Turbo

Passend dazu präsentierte Nvidia mit Dynamo außerdem ein neues, quelloffenes KI-Inferenz-Framework, das sich durch hohen Durchsatz und niedrige Latenz auszeichnet. Laut CEO Huang ist es „das Betriebssystem für KI-Fabriken“.

Es soll Anwender künftig dabei unterstützen, GenAI- und Reasoning-Modelle in besonders weitläufigen, verteilten Umgebungen bereitzustellen. Laut Nvidia soll das Framework die Anzahl der möglichen Requests im besten Fall um den Faktor 30 steigern können (wenn DeepSeek R1 auf Blackwell zum Einsatz kommt). Das KI-Framework ist mit diversen Open-Source-Werkzeugen kompatibel – etwa PyTorch.

Nvidia Dynamo steht für Entwickler ab sofort über GitHub zur Verfügung. Unternehmen können auf das Framework im Rahmen der AI-Enterprise-Plattform zugreifen.

5. Humanoides Fundament

Auch mit Blick auf einen weiteren KI-Zukunftstrend lieferte Nvidia auf seiner Entwicklerkonferenz ab, nämlich humanoide Robotik. Dabei sticht insbesondere eine Neuvorstellung heraus: Isaac GR00T N1 – das laut Nvidia erste, offene Foundation Model für humanoide Roboter.

Es soll nur der Startpunkt sein: Nvidia plant für die Zukunft, Robotik-Spezialisten eine ganze Familie vortrainierter, vollständig anpassbarer Modelle um GR00T N1 herum zur Verfügung zu stellen.

Trainingsdaten und Task-Evaluation-Szenarien für GR00T N1 stehen ab sofort über GitHub sowie Hugging Face zum Download zur Verfügung.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Nvidia GTC 2025 in a Nutshell​ Weiterlesen »

KI-fähige Infrastruktur: Warum Private Cloud die Antwort ist​

Allgemein

KI-Services lassen sich einfach, schnell und kostengünstig aus der Public Cloud beziehen? Das ist – jedenfalls auf den ersten Blick – richtig. Der Bezug von KI-Anwendungen aus der Public Cloud ist zugleich aber nicht ohne Risiko: Sensible Unternehmens- oder Kundendaten können in der Cloud nicht vollständig kontrolliert werden. Es entstehen Risiken durch unbefugten Zugriff, Datenlecks oder Compliance-Verstöße. Auch das KI-Modell selbst kann intransparent sein (Black-Box). Dies kann zu diskriminierenden oder gar fehlerhaften Entscheidungen durch unausgewogene Trainingsdaten führen. Und nicht zuletzt hängt die Verfügbarkeit der KI-gestützten Prozesse von der Cloud-Infrastruktur des Anbieters ab. Keine Frage: Künstliche Intelligenz ist ein zukunftsentscheidendes Thema. Wer jetzt nicht in die Entwicklung und Anwendung von KI investiert, wird im Wettbewerb zurückfallen. Doch, es lohnt sich darüber nachzudenken, welches die beste Strategie ist, die genannten Risiken beim Einsatz von KI maßgeblich zu reduzieren, denn die Folgen für die Compliance, Sicherheit und Wettbewerbsfähigkeit für Unternehmens können erheblich sein. Ein Computerwoche Webcast in Kooperation mit Equinix, HPE und NVIDIA zeigt auf, warum eine Private-Cloud-Umgebung einen nachhaltigeren und sichereren Weg für die Nutzung von KI darstellt. Sie erfahren von den Cloud-Experten Uschi Becker-Haug und Stephan Reimman von HPE sowie von Christof Jütte von Equinix,  was Sie beim Aufbau einer KI-fähigen Private Cloud beachten sollten und wie Sie das richtige Rechenzentrum für Ihre KI-Projekte finden. Der Fachjournalist Dr. Thomas Hafen wird den Webcast moderieren. Registrieren Sie sich jetzt 

KI-fähige Infrastruktur: Warum Private Cloud die Antwort ist​ KI-Services lassen sich einfach, schnell und kostengünstig aus der Public Cloud beziehen? Das ist – jedenfalls auf den ersten Blick – richtig. Der Bezug von KI-Anwendungen aus der Public Cloud ist zugleich aber nicht ohne Risiko: Sensible Unternehmens- oder Kundendaten können in der Cloud nicht vollständig kontrolliert werden. Es entstehen Risiken durch unbefugten Zugriff, Datenlecks oder Compliance-Verstöße. Auch das KI-Modell selbst kann intransparent sein (Black-Box). Dies kann zu diskriminierenden oder gar fehlerhaften Entscheidungen durch unausgewogene Trainingsdaten führen. Und nicht zuletzt hängt die Verfügbarkeit der KI-gestützten Prozesse von der Cloud-Infrastruktur des Anbieters ab.

Keine Frage: Künstliche Intelligenz ist ein zukunftsentscheidendes Thema. Wer jetzt nicht in die Entwicklung und Anwendung von KI investiert, wird im Wettbewerb zurückfallen. Doch, es lohnt sich darüber nachzudenken, welches die beste Strategie ist, die genannten Risiken beim Einsatz von KI maßgeblich zu reduzieren, denn die Folgen für die Compliance, Sicherheit und Wettbewerbsfähigkeit für Unternehmens können erheblich sein.

Ein Computerwoche Webcast in Kooperation mit Equinix, HPE und NVIDIA zeigt auf, warum eine Private-Cloud-Umgebung einen nachhaltigeren und sichereren Weg für die Nutzung von KI darstellt. Sie erfahren von den Cloud-Experten Uschi Becker-Haug und Stephan Reimman von HPE sowie von Christof Jütte von Equinix,  was Sie beim Aufbau einer KI-fähigen Private Cloud beachten sollten und wie Sie das richtige Rechenzentrum für Ihre KI-Projekte finden. Der Fachjournalist Dr. Thomas Hafen wird den Webcast moderieren.

Registrieren Sie sich jetzt

KI-fähige Infrastruktur: Warum Private Cloud die Antwort ist​ Weiterlesen »

Warum Java relevant bleibt​

Allgemein

“Java – bist Du´s?” Foto: Stefan Csontos | shutterstock.com Am 23. Mai 1995 erblickte Java offiziell das Licht der Welt – und entwickelte sich in der Folge zu einer essenziellen Grundlage für moderne Software, die nahezu überall zum Einsatz kommt. Trotz ihres Alters kann man jedoch nicht davon sprechen, dass Java zum alten Eisen gehört. Das liegt auch daran, dass Sun Microsystems und (ab 2010) Oracle bemerkenswerte Arbeit geleistet haben, um die Programmiersprache kontinuierlich mit neuen Funktionen auszustatten – ohne dabei die Kernfunktionen zu stark zu verändern. Das hat allerdings auch dazu geführt, dass sich Java seit seinen Anfangszeiten dramatisch verändert hat – im Wesentlichen zum Besseren. Im Folgenden haben wir elf Gründe zusammengetragen, die dafür sprechen, dass Java auch in Zukunft relevant bleibt. 1. Virtual Threads Die ursprüngliche Java-Version ermöglichte Entwicklern, ihre eigenen Thread-Objekte zu erstellen und zu steuern, wie der Code in Multithread- und Multicore-Umgebungen ausgeführt wird. Dabei stellten die Developer schnell fest, dass die Thread-Objekte ziemlich groß waren und es viel Zeit kostete, sie zu erstellen und wieder aufzulösen. Einen permanenten Thread-Pool zum Programmstart einzurichten, wurde so zu einem gängigen Workaround. Mit Java 19 und der Einführung von Virtual Threads war all das passé: Seitdem übernimmt die Java Virtual Machine (JVM) das Gros der Arbeit, wenn es darum geht, die Systemressourcen in Java-Programmen zu verteilen. Dazu geben die Programmierer einfach an, wenn Parallelität verfügbar ist – die JVM führt den Code zur Laufzeit aus, wo immer sie kann. Insbesondere für moderne IT-Architekturen wie Microservices sind virtuelle Threads ein Segen, weil sie einfacher zu entwickeln und zu supporten sind. 2. Structured Concurrency Doch damit nicht genug: Java verfügt inzwischen auch über ein abstraktes Modell für Parallelität, das Programmierern und JVM das Leben leichter macht, wenn es darum geht, Workloads zeitgleich zu verarbeiten. Das neue Structured-Concurrency-Modell ermöglicht Devs, einen Java Workload in verschiedene Tasks zu unterteilen, die wiederum in sogenannten Scopes gruppiert werden. Die Scopes werden in Fibers zusammengefasst, die im selben Thread zusammenarbeiten. Das Ziel dabei: Java-Entwicklern eine Blaupause an die Hand zu geben, um parallele Programme zu erstellen. Structured Concurrency erleichtert zudem der JVM, Möglichkeiten für eine gleichzeitige Execution zu identifizieren und diese den Prozessorkernen zuzuordnen. 3. Immutable Data In der Anfangszeit von Java waren Strings in Stein gemeißelt: Sobald sie erstellt waren, konnten sie nicht mehr verändert werden. Eine Funktion wie toLowerCase aufzurufen, erzeugte einen neuen String. Dieser Prozess erleichterte es der JVM, die Synchronisation über Threads hinweg sicherzustellen und abzusichern. Heute können Java-Entwickler die gleichen Regeln der Unveränderbarkeit für ihre eigenen Objekte festlegen – mit “Records“. Der Code listet die Namen und Typen der Felder auf und die JVM erledigt den Rest. Gängige Methoden wie equals, hashCode und toString werden dabei automatisch erstellt. Unterdessen sorgt die JVM für die Unveränderlichkeit der Records. Das vereinfacht viele Programmdetails und beschleunigt den laufenden Code. 4. Garbage Collection Speicherzuweisung und -rückgewinnung an die JVM zu delegieren, kommt den meisten Entwicklern gelegen. Dabei wirkte sich der ursprüngliche Garbage Collector (GC) von Java jedoch in manchen Fällen spürbar auf die Performance respektive User Experience aus. Inzwischen stehen Java-Programmierer vier verschiedene Garbage Collectors zur Auswahl, die unterschiedliche Algorithmen nutzen und auf spezifische Applikationen ausgelegt sind: Der Garbage First (G1) Garbage Collector ist die Default-Option, die einen optimierten Durchsatz mit kürzeren Pausen bietet. G1 baut auf Techniken auf, die aus früheren Iterationen der Java-Garbage-Collection entstanden sind. Der Z Garbage Collector ist auf sehr geringe Latenzzeiten ausgelegt – eine Voraussetzung für Webserver, Streaming-Dienste und andere Echtzeit-Szenarien. Weil er auf bis zu 16 TB RAM skaliert werden kann, kommt er auch mit einem sehr großen Heap zurecht. Der Concurrent Garbage Collector hält sich vollständig im Hintergrund, die Anwendung muss nicht unterbrochen werden. Dieser GC ist weniger effizient, ist jedoch ideal für interaktive Applikationen geeignet, die ununterbrochen laufen sollen. Der Parallel Collector nutzt mehrere Threads, um Daten schneller einzusammeln. Dafür sind die Unterbrechungen unberechenbar. Das macht es für Entwickler überflüssig, auf andere Lösungen zurückzugreifen – etwa das eigene Memory Management zu simulieren, indem Objekte wiederverwendet werden. Jede der vier GC-Optionen bietet zudem weitere Möglichkeiten zum Feintuning und für Experimente. 5. Pattern Matching mit Switch Die Java-Verantwortlichen haben die Sprache allerdings auch auf unterster syntaktischer Ebene optimiert, um Entwickler zu einer saubereren, ausdrucksstarken Logik zu führen. Dabei unterstützt das Keyword switch (mit dem Stacks von if-then-else-Konditionalen kreiert werden können) jetzt auch Pattern Matching. Das hat zur Folge, dass die Logik, um verschiedene Cases zu spezifizieren, nicht auf grundlegende Expressions wie equals beschränkt ist. Java-Code, der mit diesen Mustern geschrieben wurde, ist besonders prägnant und zudem in der Lage, nicht nur nach dem Value innerhalb der Daten, sondern auch nach Objekttyp zu differenzieren. Dazu können alle Referenztypen und der Null Pointer verwendet werden. Selbstverständlich wird die traditionelle Logik mit Fall-Through-Semantik weiterhin unterstützt – alter Code läuft also auch weiterhin reibungslos. 6. Vereinheitlichte Syntax Obwohl Java im Kern eine tiefe Verwandtschaft mit Lisp aufweist, unterschied sich die Programmierarbeit anfangs nicht wesentlich vom Vorgehen bei C oder C++. Geschweifte Klammern und Semikolons wirkten nahezu identisch, Loops wurden klassisch dreiteilig strukturiert. Inzwischen sind allerdings Ergänzungen neuerer Skriptsprachen wie Ruby und Python eingeflossen: For-Loops etwa müssen nicht mehr bis ins kleinste Detail beschrieben werden, weil der Compiler sie intuitiv erkennt, sobald sie eine Liste oder ein Array durchlaufen. Anonyme Funktionen und Lambda-Expressions sind weitere Wege für Developer, Tastenanschläge einzusparen. 7. Sealed Classes Die JVM war von Anfang an darauf ausgelegt, viele gängige Sicherheitslücken zu schließen, die Entwickler (versehentlich) in ihren Programmen hinterlassen könnten. Diese Fähigkeiten wurden inzwischen um zahlreiche weitere Features ergänzt – zum Beispiel Sealed Classes in Java 17. Damit lässt sich genau definieren, welche Klassen erweitert werden dürfen und somit verhindern, dass grundlegende Funktionen von Dritten überschrieben werden können. Sealed Classes bieten gegenüber herkömmlichen Klassen zudem Geschwindigkeitsvorteile und ermöglichen eine aggressivere Optimierung und Inlining. 8. Foreign Functions und Memory Die Java Virtual Machine war ursprünglich als “Walled Garden” oder “Typesafe Sandbox” konzipiert: Sie “bewacht” den Code und verhindert viele Angriffe, die möglich werden, wenn dieser nativ ausgeführt wird. Das ursprüngliche Java Native Interface (JNI) war für viele Entwickler, die auf Bibliotheken und Stacks zugreifen mussten, die in anderen Sprachen geschrieben waren, eine Art Hintertür. Inzwischen gibt es die Foreign Function & Memory API (derzeit in der dritten Preview). Diese Schnittstelle gestaltet es erheblich einfacher und sicherer, externe Verbindungen herzustellen. Dazu kommen verbesserte Schutzmechanismen wie Type Checking, um potenzielle Overflow-Angriffe zu verhindern. Diese API kann dafür sorgen, dass Java künftig auch vermehrt für Low-Level- und Data-Processing-Aufgaben zum Einsatz kommt. Und sie bietet Programmierern einen sichereren Weg, aus der Sandbox auszubrechen. 9. Vector API Die ursprüngliche Vector-Klasse war mehr eine Datenstruktur als ein mathematisches Tool – eine flexible und synchronisierte Lösung, um Objekte zu speichern, die sich nicht wesentlich von List unterschied. Ganz anders die neue Vector API: Sie ist ein Werkzeug für mathematische Datenverarbeitung, die im KI-Zeitalter immer häufiger relevant wird. Bei den einzelnen Elementen kann es sich um primitive Typen handeln. Viele grundlegende mathematische Operationen wie Dot Products werden unterstützt. Der Unterschied zwischen der Vectorwerden dabei automatisch erstellt. Unterdessen sorgt die JVM für die Unveränderlichkeit deradd-Methode: In der Original-Klasse wird einfach ein Objekt ans Ende der Datenstruktur angehängt, wie bei allen anderen Collections-Klassen auch. In der API wird sie verwendet, um die einzelnen Elemente mathematisch zu addieren. Die Vector API verspricht zudem, die enorme Rechenleistung einiger neuerer SIMD-Prozessoren zu erschließen und Java-Programmierer in die Lage zu versetzen, Code zu erstellen, der viele lange Vektoren durchlaufen kann. 10. Besseres Null Processing ist die Default-Option, die einen optimierten Durchsatz mit kürzeren Pausen bietet. G1 baut auf Techniken auf, die aus früheren Iterationen der Java-Garbage-Collection entstanden sind. Die Stream API kann beispielsweise lange Datenströme verarbeiten und bleibt nicht hängen, wenn gelegentlich ein Nullwert auftaucht. Devs die das prüfen wollen, nutzen den Null-Safe-Operator (?.), der das auf sehr prägnante Art und Weise erledigt. 11. Keine Kosten – zumindest für Devs Java war – zumindest für Softwareentwickler – schon immer kostenlos. Sun Microsystems wusste die Devs zu locken und unternahm 1997 den mutigen Schritt, Teile der Sprache und die JVM als quelloffene Software anzubieten. Seitdem Sun im Jahr 2010 von Oracle geschluckt wurde, gestaltet sich das Lizenzgebahren etwas undurchsichtiger. Viele Java-Versionen von Oracle sind kostenlos, einige erfordern aber Lizenzen mit bemerkenswerten Bedingungen. Scheinbar versucht das Unternehmen Programmierern weiterhin kostenlosen Zugang zu ermöglichen, während Unternehmen, die vom Einsatz von Java finanziell profitieren, zahlen sollen. In der Praxis bedeutet das, dass Oracle für die sogenannten “Subscription Features” Geld verlangt. Java ist also nur dann kostenlos, wenn Sie es nicht kommerziell nutzen wollen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Warum Java relevant bleibt​ “Java – bist Du´s?”
Foto: Stefan Csontos | shutterstock.com

Am 23. Mai 1995 erblickte Java offiziell das Licht der Welt – und entwickelte sich in der Folge zu einer essenziellen Grundlage für moderne Software, die nahezu überall zum Einsatz kommt. Trotz ihres Alters kann man jedoch nicht davon sprechen, dass Java zum alten Eisen gehört. Das liegt auch daran, dass Sun Microsystems und (ab 2010) Oracle bemerkenswerte Arbeit geleistet haben, um die Programmiersprache kontinuierlich mit neuen Funktionen auszustatten – ohne dabei die Kernfunktionen zu stark zu verändern.

Das hat allerdings auch dazu geführt, dass sich Java seit seinen Anfangszeiten dramatisch verändert hat – im Wesentlichen zum Besseren. Im Folgenden haben wir elf Gründe zusammengetragen, die dafür sprechen, dass Java auch in Zukunft relevant bleibt.

1. Virtual Threads

Die ursprüngliche Java-Version ermöglichte Entwicklern, ihre eigenen Thread-Objekte zu erstellen und zu steuern, wie der Code in Multithread- und Multicore-Umgebungen ausgeführt wird. Dabei stellten die Developer schnell fest, dass die Thread-Objekte ziemlich groß waren und es viel Zeit kostete, sie zu erstellen und wieder aufzulösen. Einen permanenten Thread-Pool zum Programmstart einzurichten, wurde so zu einem gängigen Workaround.

Mit Java 19 und der Einführung von Virtual Threads war all das passé: Seitdem übernimmt die Java Virtual Machine (JVM) das Gros der Arbeit, wenn es darum geht, die Systemressourcen in Java-Programmen zu verteilen. Dazu geben die Programmierer einfach an, wenn Parallelität verfügbar ist – die JVM führt den Code zur Laufzeit aus, wo immer sie kann. Insbesondere für moderne IT-Architekturen wie Microservices sind virtuelle Threads ein Segen, weil sie einfacher zu entwickeln und zu supporten sind.

2. Structured Concurrency

Doch damit nicht genug: Java verfügt inzwischen auch über ein abstraktes Modell für Parallelität, das Programmierern und JVM das Leben leichter macht, wenn es darum geht, Workloads zeitgleich zu verarbeiten. Das neue Structured-Concurrency-Modell ermöglicht Devs, einen Java Workload in verschiedene Tasks zu unterteilen, die wiederum in sogenannten Scopes gruppiert werden. Die Scopes werden in Fibers zusammengefasst, die im selben Thread zusammenarbeiten.

Das Ziel dabei: Java-Entwicklern eine Blaupause an die Hand zu geben, um parallele Programme zu erstellen. Structured Concurrency erleichtert zudem der JVM, Möglichkeiten für eine gleichzeitige Execution zu identifizieren und diese den Prozessorkernen zuzuordnen.

3. Immutable Data

In der Anfangszeit von Java waren Strings in Stein gemeißelt: Sobald sie erstellt waren, konnten sie nicht mehr verändert werden. Eine Funktion wie toLowerCase aufzurufen, erzeugte einen neuen String. Dieser Prozess erleichterte es der JVM, die Synchronisation über Threads hinweg sicherzustellen und abzusichern.

Heute können Java-Entwickler die gleichen Regeln der Unveränderbarkeit für ihre eigenen Objekte festlegen – mit “Records“. Der Code listet die Namen und Typen der Felder auf und die JVM erledigt den Rest. Gängige Methoden wie equals, hashCode und toString werden dabei automatisch erstellt. Unterdessen sorgt die JVM für die Unveränderlichkeit der Records. Das vereinfacht viele Programmdetails und beschleunigt den laufenden Code.

4. Garbage Collection

Speicherzuweisung und -rückgewinnung an die JVM zu delegieren, kommt den meisten Entwicklern gelegen. Dabei wirkte sich der ursprüngliche Garbage Collector (GC) von Java jedoch in manchen Fällen spürbar auf die Performance respektive User Experience aus. Inzwischen stehen Java-Programmierer vier verschiedene Garbage Collectors zur Auswahl, die unterschiedliche Algorithmen nutzen und auf spezifische Applikationen ausgelegt sind:

Der Garbage First (G1) Garbage Collector ist die Default-Option, die einen optimierten Durchsatz mit kürzeren Pausen bietet. G1 baut auf Techniken auf, die aus früheren Iterationen der Java-Garbage-Collection entstanden sind.

Der Z Garbage Collector ist auf sehr geringe Latenzzeiten ausgelegt – eine Voraussetzung für Webserver, Streaming-Dienste und andere Echtzeit-Szenarien. Weil er auf bis zu 16 TB RAM skaliert werden kann, kommt er auch mit einem sehr großen Heap zurecht.

Der Concurrent Garbage Collector hält sich vollständig im Hintergrund, die Anwendung muss nicht unterbrochen werden. Dieser GC ist weniger effizient, ist jedoch ideal für interaktive Applikationen geeignet, die ununterbrochen laufen sollen.

Der Parallel Collector nutzt mehrere Threads, um Daten schneller einzusammeln. Dafür sind die Unterbrechungen unberechenbar.

Das macht es für Entwickler überflüssig, auf andere Lösungen zurückzugreifen – etwa das eigene Memory Management zu simulieren, indem Objekte wiederverwendet werden. Jede der vier GC-Optionen bietet zudem weitere Möglichkeiten zum Feintuning und für Experimente.

5. Pattern Matching mit Switch

Die Java-Verantwortlichen haben die Sprache allerdings auch auf unterster syntaktischer Ebene optimiert, um Entwickler zu einer saubereren, ausdrucksstarken Logik zu führen. Dabei unterstützt das Keyword switch (mit dem Stacks von if-then-else-Konditionalen kreiert werden können) jetzt auch Pattern Matching. Das hat zur Folge, dass die Logik, um verschiedene Cases zu spezifizieren, nicht auf grundlegende Expressions wie equals beschränkt ist.

Java-Code, der mit diesen Mustern geschrieben wurde, ist besonders prägnant und zudem in der Lage, nicht nur nach dem Value innerhalb der Daten, sondern auch nach Objekttyp zu differenzieren. Dazu können alle Referenztypen und der Null Pointer verwendet werden. Selbstverständlich wird die traditionelle Logik mit Fall-Through-Semantik weiterhin unterstützt – alter Code läuft also auch weiterhin reibungslos.

6. Vereinheitlichte Syntax

Obwohl Java im Kern eine tiefe Verwandtschaft mit Lisp aufweist, unterschied sich die Programmierarbeit anfangs nicht wesentlich vom Vorgehen bei C oder C++. Geschweifte Klammern und Semikolons wirkten nahezu identisch, Loops wurden klassisch dreiteilig strukturiert.

Inzwischen sind allerdings Ergänzungen neuerer Skriptsprachen wie Ruby und Python eingeflossen: For-Loops etwa müssen nicht mehr bis ins kleinste Detail beschrieben werden, weil der Compiler sie intuitiv erkennt, sobald sie eine Liste oder ein Array durchlaufen. Anonyme Funktionen und Lambda-Expressions sind weitere Wege für Developer, Tastenanschläge einzusparen.

7. Sealed Classes

Die JVM war von Anfang an darauf ausgelegt, viele gängige Sicherheitslücken zu schließen, die Entwickler (versehentlich) in ihren Programmen hinterlassen könnten. Diese Fähigkeiten wurden inzwischen um zahlreiche weitere Features ergänzt – zum Beispiel Sealed Classes in Java 17. Damit lässt sich genau definieren, welche Klassen erweitert werden dürfen und somit verhindern, dass grundlegende Funktionen von Dritten überschrieben werden können.

Sealed Classes bieten gegenüber herkömmlichen Klassen zudem Geschwindigkeitsvorteile und ermöglichen eine aggressivere Optimierung und Inlining.

8. Foreign Functions und Memory

Die Java Virtual Machine war ursprünglich als “Walled Garden” oder “Typesafe Sandbox” konzipiert: Sie “bewacht” den Code und verhindert viele Angriffe, die möglich werden, wenn dieser nativ ausgeführt wird. Das ursprüngliche Java Native Interface (JNI) war für viele Entwickler, die auf Bibliotheken und Stacks zugreifen mussten, die in anderen Sprachen geschrieben waren, eine Art Hintertür.

Inzwischen gibt es die Foreign Function & Memory API (derzeit in der dritten Preview). Diese Schnittstelle gestaltet es erheblich einfacher und sicherer, externe Verbindungen herzustellen. Dazu kommen verbesserte Schutzmechanismen wie Type Checking, um potenzielle Overflow-Angriffe zu verhindern. Diese API kann dafür sorgen, dass Java künftig auch vermehrt für Low-Level- und Data-Processing-Aufgaben zum Einsatz kommt. Und sie bietet Programmierern einen sichereren Weg, aus der Sandbox auszubrechen.

9. Vector API

Die ursprüngliche Vector-Klasse war mehr eine Datenstruktur als ein mathematisches Tool – eine flexible und synchronisierte Lösung, um Objekte zu speichern, die sich nicht wesentlich von List unterschied. Ganz anders die neue Vector API: Sie ist ein Werkzeug für mathematische Datenverarbeitung, die im KI-Zeitalter immer häufiger relevant wird. Bei den einzelnen Elementen kann es sich um primitive Typen handeln. Viele grundlegende mathematische Operationen wie Dot Products werden unterstützt.

Der Unterschied zwischen der Vectorwerden dabei automatisch erstellt. Unterdessen sorgt die JVM für die Unveränderlichkeit deradd-Methode: In der Original-Klasse wird einfach ein Objekt ans Ende der Datenstruktur angehängt, wie bei allen anderen Collections-Klassen auch. In der API wird sie verwendet, um die einzelnen Elemente mathematisch zu addieren. Die Vector API verspricht zudem, die enorme Rechenleistung einiger neuerer SIMD-Prozessoren zu erschließen und Java-Programmierer in die Lage zu versetzen, Code zu erstellen, der viele lange Vektoren durchlaufen kann.

10. Besseres Null Processing

ist die Default-Option, die einen optimierten Durchsatz mit kürzeren Pausen bietet. G1 baut auf Techniken auf, die aus früheren Iterationen der Java-Garbage-Collection entstanden sind.

Die Stream API kann beispielsweise lange Datenströme verarbeiten und bleibt nicht hängen, wenn gelegentlich ein Nullwert auftaucht. Devs die das prüfen wollen, nutzen den Null-Safe-Operator (?.), der das auf sehr prägnante Art und Weise erledigt.

11. Keine Kosten – zumindest für Devs

Java war – zumindest für Softwareentwickler – schon immer kostenlos. Sun Microsystems wusste die Devs zu locken und unternahm 1997 den mutigen Schritt, Teile der Sprache und die JVM als quelloffene Software anzubieten.

Seitdem Sun im Jahr 2010 von Oracle geschluckt wurde, gestaltet sich das Lizenzgebahren etwas undurchsichtiger. Viele Java-Versionen von Oracle sind kostenlos, einige erfordern aber Lizenzen mit bemerkenswerten Bedingungen. Scheinbar versucht das Unternehmen Programmierern weiterhin kostenlosen Zugang zu ermöglichen, während Unternehmen, die vom Einsatz von Java finanziell profitieren, zahlen sollen. In der Praxis bedeutet das, dass Oracle für die sogenannten “Subscription Features” Geld verlangt. Java ist also nur dann kostenlos, wenn Sie es nicht kommerziell nutzen wollen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Warum Java relevant bleibt​ Weiterlesen »

Quantum Computing: Wie Quantencomputer funktionieren​

Allgemein

Quantencomputing ist ein grundlegend anderer Ansatz zu rechnen als die Art von Berechnungen, die heute Laptops, Workstations und Großrechner durchführen. Es wird diese Geräte zwar nicht ersetzen, aber durch die Nutzung der Prinzipien der Quantenphysik wird es spezifische, typischerweise sehr komplexe Probleme statistischer Art lösen, die für heutige Computer schwierig sind. Quantencomputer können im Gegensatz zu heutigen Computern mehrere Berechnungen mit mehreren Eingaben gleichzeitig vornehmen. Foto: Amin Van – shutterstock.com Quantum Computing – Funktionsweise Klassische Computer werden mit Bits als Dateneinheiten (Nullen und Einsen) programmiert. Quantencomputer verwenden dagegen so genannte Qubits, die eine Kombination aus Null und Eins gleichzeitig darstellen können, basierend auf einem Prinzip, das als Superposition bezeichnet wird. Dieser Unterschied verleiht Quantencomputern das Potenzial, exponenziell schneller zu sein als die heutigen Großrechner und Server. Quantencomputer können mehrere Berechnungen mit mehreren Eingaben gleichzeitig vornehmen. Heutige Computer können jeweils nur einen Satz von Eingaben und eine Berechnung gleichzeitig verarbeiten. Bei der Arbeit mit einer bestimmten Anzahl von Qubits – nehmen wir wir n als Beispiel – kann ein Quantencomputer Berechnungen mit bis zu 2n Eingaben gleichzeitig durchführen. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/4tgPAtbBoDbbMgQbQ6beWB?si=0HbOffj1SgmNyU4XH169vw&utm_source=oembed”> Das klingt einfach. Vertieft man sich aber in die Details der Funktionsweise eines Quantencomputers, beginnt man zu verstehen, dass viele Herausforderungen gelöst werden müssen, bevor Quantencomputer dieses Potenzial auch in der Praxis ausschöpfen können. (Siehe Kasten “Quantencomputer im Vergleich zu klassischen Rechnern”). Quantencomputer – technische Herausforderungen Einige dieser Herausforderungen sind technischer Natur. So sind Qubits beispielsweise volatil. Jedes Bit in den heutigen Computern muss sich in einem Zustand von Eins oder null befinden. Es wird viel Arbeit darauf verwendet sicherzustellen, dass ein Bit auf einem Computerchip kein anderes Bit stört. Qubits hingegen können jede beliebige Kombination von Null und Eins darstellen. Außerdem interagieren sie mit anderen Qubits. Tatsächlich sind es diese Interaktionen, die es ermöglichen, mehrere Berechnungen auf einmal durchzuführen. Quantenkünstliche Intelligenz soll in Zukunft mit besseren Algorithmen das maschinelle Lernen optimieren. Foto: nomading – shutterstock.com Die Steuerung dieser Interaktionen ist jedoch sehr kompliziert. Die Volatilität von Qubits kann dazu führen, dass Eingaben verloren gehen oder verändert werden, was die Genauigkeit der Ergebnisse beeinträchtigen kann. Und um nun einen leistungsfähigen Quantencomputer zu bauen, müssen Hunderttausende oder Millionen von Qubits kohärent miteinander verbunden werden. Software- und Hardwarefirmen – von unbekannten Start-ups, über Forschungsinstitute bis hin zu Unternehmen wie Amazon, Google, IBM, IQM Computers oder Microsoft – versuchen, diese Herausforderungen zu meistern. Sie arbeiten an Algorithmen, die den heute verwendeten kaum noch ähneln. Ebenso unterscheidet sich die Hardware sehr von den heutigen grauen Kästen. Zudem arbeiten sie an Software, die dabei hilft, vorhandene Daten in ein Qubit-fähiges Format zu übersetzen. Obwohl das Konzept des Quantencomputers seit den frühen 1980er Jahren existiert, gab es erst Ende 2019 den ersten wirklichen Beweis dafür, dass Quantencomputer mit Problemen umgehen können, die für klassische Computer zu kompliziert sind: Google gab bekannt, dass sein Quantencomputer eine solche Berechnung in nur 200 Sekunden gelöst hat. Aber dies war eher eine mathematische Übung als etwas Praktisches, das sich real in der Geschäftswelt anwenden ließ – das gelöste Problem hatte keinerlei realen Nutzen. Quantum Computing – Bereiche statt AntwortenDie Natur der Quantenmechanik stellt exponenziellen Geschwindigkeitszuwächsen auch durchaus Hindernisse in den Weg. Heutige Computer arbeiten auf eine einfache Weise: Sie manipulieren einen begrenzten Datensatz mit einem Algorithmus und geben dann ein Ergebnis aus. Quantencomputer sind dagegen komplizierter. Nachdem mehrere Dateneinheiten in Qubits eingegeben wurden, werden diese Qubits so manipuliert, dass sie mit anderen Qubits interagieren, so dass eine Reihe von Berechnungen gleichzeitig vorgenommen werden können. Darin sind Quantencomputer viel schneller als die heutigen Maschinen. Aber diese Performance-Gewinne werden dadurch relativiert, dass Quantencomputer keine klare Antwort liefern. Stattdessen erhalten die Benutzer eine eingeschränkte Bandbreite möglicher Antworten. Es kann sogar vorkommen, dass diverse Rechenläufe stattfinden müssen, um den Bereich noch weiter einzugrenzen. Die gleichzeitige Durchführung mehrerer Berechnungen kann aber dazu führen, dass die erhofften Geschwindigkeitsgewinne ausbleiben.Erhält man nun unscharfe oder mehrere Antworten, dann scheinen Quantencomputer weniger präzise als die heutigen Computer zu sein. Das stimmt auch für Berechnungen, die in ihrem Umfang begrenzt sind, was ein Grund dafür ist, dass Quantencomputer die heutigen Systeme nicht ersetzen werden. Stattdessen dürften sie für neue Arten von Problemen eingesetzt werden. Dabei handelt es sich um unglaublich komplexe Aufgabenstellungen, bei denen eine große Bandbreite von Möglichkeiten eingeschränkt wird, was eine enorme Zeitersparnis bedeutet. Womit letztlich auch Hybrid-Ansätze vorstellbar sind: Ein komplexes Problem wird zuerst per Quantencomputer auf wenige Möglichkeiten eingegrenzt und in einem letzten Schritt errechnet ein klassischer Computer ein Ergebnis. Das können QuantencomputerQuantencomputer verfügen über vier grundlegende Fähigkeiten, die sie von den heutigen klassischen Computern unterscheiden: Quantensimulation, bei der Quantencomputer komplexe Moleküle modellieren;Optimierung, also die Lösung multivariabler Probleme in beispielloser Geschwindigkeit;quantenkünstliche Intelligenz (KI) mit besseren Algorithmen, die das maschinelle Lernen optimieren unddie Primfaktorzerlegung, die die Verschlüsselung revolutionieren könnte. (hi)Quantencomputer im Vergleich zu klassischen RechnernBits vs. Qubits – das Konzept ist völlig andersEin Bit ist die wesentliche Informationseinheit heutiger Computer. Jedes Bit kann als Informationsinhalt entweder den Wert Null oder Eins annehmen.Ein Qubit ist die wesentliche Informationseinheit für Quantencomputer. Qubits können jede Kombination von Nullen und Einsen gleichzeitig speichern.Dementsprechend unterscheiden sich ihre Berechnungen: Ein einzelnes Ergebnis gegenüber einem eingegrenzten Bereich an Möglichkeiten.Die Einschränkungen der Bits zeigen sich, wenn klassische Computer ein Problem mit mehreren Variablen bearbeiten sollen. In solchen Szenarien muss der Computer bei jeder Änderung einer Variablen eine neue Berechnung durchführen. Jede Berechnung ist ein einzelner Pfad zu einem einzelnen Ergebnis.Quantencomputer haben dagegen dank der Natur der Qubits einen exponenziell größeren Arbeitsraum. Sie können eine gigantische Anzahl von Rechenpfaden gleichzeitig erforschen, was Quantencomputern das Potenzial verleiht, viel schneller zu sein. Sie liefern mehrere Ergebnisse in einem engen Bereich und nähern sich so der Antwort viel schneller an als klassische Computer.Der hybride AnsatzForscher erwarten, dass viele multivariable Probleme künftig durch eine Kombination aus Quanten- und klassischer Berechnung gelöst werden können. So könnte ein Unternehmen beispielsweise durch den Einsatz von aufkommenden Quantencomputern, die die Bandbreite möglicher Lösungen für ein Finanz- oder Logistikproblem eingrenzen, die optimale Lösung um zehn Prozent schneller erreichen. Diese Art von inkrementellem Fortschritt wird die Norm sein, bis die Quantencomputer reif genug sind, um massive Durchbrüche in Bereichen wie der Medikamentenentwicklung oder der Kryptographie zu erzielen. 

Quantum Computing: Wie Quantencomputer funktionieren​ Quantencomputing ist ein grundlegend anderer Ansatz zu rechnen als die Art von Berechnungen, die heute Laptops, Workstations und Großrechner durchführen. Es wird diese Geräte zwar nicht ersetzen, aber durch die Nutzung der Prinzipien der Quantenphysik wird es spezifische, typischerweise sehr komplexe Probleme statistischer Art lösen, die für heutige Computer schwierig sind.

Quantencomputer können im Gegensatz zu heutigen Computern mehrere Berechnungen mit mehreren Eingaben gleichzeitig vornehmen.
Foto: Amin Van – shutterstock.com

Quantum Computing – Funktionsweise

Klassische Computer werden mit Bits als Dateneinheiten (Nullen und Einsen) programmiert. Quantencomputer verwenden dagegen so genannte Qubits, die eine Kombination aus Null und Eins gleichzeitig darstellen können, basierend auf einem Prinzip, das als Superposition bezeichnet wird.

Dieser Unterschied verleiht Quantencomputern das Potenzial, exponenziell schneller zu sein als die heutigen Großrechner und Server. Quantencomputer können mehrere Berechnungen mit mehreren Eingaben gleichzeitig vornehmen. Heutige Computer können jeweils nur einen Satz von Eingaben und eine Berechnung gleichzeitig verarbeiten. Bei der Arbeit mit einer bestimmten Anzahl von Qubits – nehmen wir wir n als Beispiel – kann ein Quantencomputer Berechnungen mit bis zu 2n Eingaben gleichzeitig durchführen.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/4tgPAtbBoDbbMgQbQ6beWB?si=0HbOffj1SgmNyU4XH169vw&utm_source=oembed”>

Das klingt einfach. Vertieft man sich aber in die Details der Funktionsweise eines Quantencomputers, beginnt man zu verstehen, dass viele Herausforderungen gelöst werden müssen, bevor Quantencomputer dieses Potenzial auch in der Praxis ausschöpfen können. (Siehe Kasten “Quantencomputer im Vergleich zu klassischen Rechnern”).

Quantencomputer – technische Herausforderungen

Einige dieser Herausforderungen sind technischer Natur. So sind Qubits beispielsweise volatil. Jedes Bit in den heutigen Computern muss sich in einem Zustand von Eins oder null befinden. Es wird viel Arbeit darauf verwendet sicherzustellen, dass ein Bit auf einem Computerchip kein anderes Bit stört. Qubits hingegen können jede beliebige Kombination von Null und Eins darstellen. Außerdem interagieren sie mit anderen Qubits. Tatsächlich sind es diese Interaktionen, die es ermöglichen, mehrere Berechnungen auf einmal durchzuführen.

Quantenkünstliche Intelligenz soll in Zukunft mit besseren Algorithmen das maschinelle Lernen optimieren.
Foto: nomading – shutterstock.com

Die Steuerung dieser Interaktionen ist jedoch sehr kompliziert. Die Volatilität von Qubits kann dazu führen, dass Eingaben verloren gehen oder verändert werden, was die Genauigkeit der Ergebnisse beeinträchtigen kann. Und um nun einen leistungsfähigen Quantencomputer zu bauen, müssen Hunderttausende oder Millionen von Qubits kohärent miteinander verbunden werden.

Software- und Hardwarefirmen – von unbekannten Start-ups, über Forschungsinstitute bis hin zu Unternehmen wie Amazon, Google, IBM, IQM Computers oder Microsoft – versuchen, diese Herausforderungen zu meistern. Sie arbeiten an Algorithmen, die den heute verwendeten kaum noch ähneln. Ebenso unterscheidet sich die Hardware sehr von den heutigen grauen Kästen. Zudem arbeiten sie an Software, die dabei hilft, vorhandene Daten in ein Qubit-fähiges Format zu übersetzen.

Obwohl das Konzept des Quantencomputers seit den frühen 1980er Jahren existiert, gab es erst Ende 2019 den ersten wirklichen Beweis dafür, dass Quantencomputer mit Problemen umgehen können, die für klassische Computer zu kompliziert sind: Google gab bekannt, dass sein Quantencomputer eine solche Berechnung in nur 200 Sekunden gelöst hat. Aber dies war eher eine mathematische Übung als etwas Praktisches, das sich real in der Geschäftswelt anwenden ließ – das gelöste Problem hatte keinerlei realen Nutzen.

Quantum Computing – Bereiche statt AntwortenDie Natur der Quantenmechanik stellt exponenziellen Geschwindigkeitszuwächsen auch durchaus Hindernisse in den Weg. Heutige Computer arbeiten auf eine einfache Weise: Sie manipulieren einen begrenzten Datensatz mit einem Algorithmus und geben dann ein Ergebnis aus. Quantencomputer sind dagegen komplizierter. Nachdem mehrere Dateneinheiten in Qubits eingegeben wurden, werden diese Qubits so manipuliert, dass sie mit anderen Qubits interagieren, so dass eine Reihe von Berechnungen gleichzeitig vorgenommen werden können. Darin sind Quantencomputer viel schneller als die heutigen Maschinen. Aber diese Performance-Gewinne werden dadurch relativiert, dass Quantencomputer keine klare Antwort liefern. Stattdessen erhalten die Benutzer eine eingeschränkte Bandbreite möglicher Antworten. Es kann sogar vorkommen, dass diverse Rechenläufe stattfinden müssen, um den Bereich noch weiter einzugrenzen. Die gleichzeitige Durchführung mehrerer Berechnungen kann aber dazu führen, dass die erhofften Geschwindigkeitsgewinne ausbleiben.Erhält man nun unscharfe oder mehrere Antworten, dann scheinen Quantencomputer weniger präzise als die heutigen Computer zu sein. Das stimmt auch für Berechnungen, die in ihrem Umfang begrenzt sind, was ein Grund dafür ist, dass Quantencomputer die heutigen Systeme nicht ersetzen werden. Stattdessen dürften sie für neue Arten von Problemen eingesetzt werden. Dabei handelt es sich um unglaublich komplexe Aufgabenstellungen, bei denen eine große Bandbreite von Möglichkeiten eingeschränkt wird, was eine enorme Zeitersparnis bedeutet. Womit letztlich auch Hybrid-Ansätze vorstellbar sind: Ein komplexes Problem wird zuerst per Quantencomputer auf wenige Möglichkeiten eingegrenzt und in einem letzten Schritt errechnet ein klassischer Computer ein Ergebnis.

Das können QuantencomputerQuantencomputer verfügen über vier grundlegende Fähigkeiten, die sie von den heutigen klassischen Computern unterscheiden: Quantensimulation, bei der Quantencomputer komplexe Moleküle modellieren;Optimierung, also die Lösung multivariabler Probleme in beispielloser Geschwindigkeit;quantenkünstliche Intelligenz (KI) mit besseren Algorithmen, die das maschinelle Lernen optimieren unddie Primfaktorzerlegung, die die Verschlüsselung revolutionieren könnte. (hi)Quantencomputer im Vergleich zu klassischen RechnernBits vs. Qubits – das Konzept ist völlig andersEin Bit ist die wesentliche Informationseinheit heutiger Computer. Jedes Bit kann als Informationsinhalt entweder den Wert Null oder Eins annehmen.Ein Qubit ist die wesentliche Informationseinheit für Quantencomputer. Qubits können jede Kombination von Nullen und Einsen gleichzeitig speichern.Dementsprechend unterscheiden sich ihre Berechnungen: Ein einzelnes Ergebnis gegenüber einem eingegrenzten Bereich an Möglichkeiten.Die Einschränkungen der Bits zeigen sich, wenn klassische Computer ein Problem mit mehreren Variablen bearbeiten sollen. In solchen Szenarien muss der Computer bei jeder Änderung einer Variablen eine neue Berechnung durchführen. Jede Berechnung ist ein einzelner Pfad zu einem einzelnen Ergebnis.Quantencomputer haben dagegen dank der Natur der Qubits einen exponenziell größeren Arbeitsraum. Sie können eine gigantische Anzahl von Rechenpfaden gleichzeitig erforschen, was Quantencomputern das Potenzial verleiht, viel schneller zu sein. Sie liefern mehrere Ergebnisse in einem engen Bereich und nähern sich so der Antwort viel schneller an als klassische Computer.Der hybride AnsatzForscher erwarten, dass viele multivariable Probleme künftig durch eine Kombination aus Quanten- und klassischer Berechnung gelöst werden können. So könnte ein Unternehmen beispielsweise durch den Einsatz von aufkommenden Quantencomputern, die die Bandbreite möglicher Lösungen für ein Finanz- oder Logistikproblem eingrenzen, die optimale Lösung um zehn Prozent schneller erreichen. Diese Art von inkrementellem Fortschritt wird die Norm sein, bis die Quantencomputer reif genug sind, um massive Durchbrüche in Bereichen wie der Medikamentenentwicklung oder der Kryptographie zu erzielen.

Quantum Computing: Wie Quantencomputer funktionieren​ Weiterlesen »

Bare-Metal-Cloud – ein Ratgeber​

Allgemein

Bare-Metal-Cloud-Lösungen können erheblichen Mehrwert generieren – eine entsprechende Strategie vorausgesetzt.Robert Lowe | Flickr In einer typischen Public-Cloud-Umgebung interagieren die meisten Nutzer mit virtuellen Maschinen (VMs) – Betriebssysteminstanzen, die auf physischer Hardware aufsetzen. Damit mehrere User dieselbe Hardware sicher und effizient nutzen können, werden die VMs dabei durch einen Hypervisor voneinander getrennt. Diese Abstraktion führt allerdings zu Performance Overhead und limitiert die Kontrollmöglichkeiten der Benutzer mit Blick auf physische Serverressourcen. Im Gegensatz dazu bieten Bare-Metal-Cloud-Dienste exklusiven Zugriff auf die zugrundeliegende, physische Hardware – ganz ohne Hypervisor, VMs und zusätzliche Abstraktion. Bare-Metal-Lösungen verbinden die Flexibilität der Cloud mit der robusten Performance lokaler, dedizierter Server. Diese einzigartige Positionierung macht Bare-Metal-Cloud-Lösungen für Unternehmen zunehmend interessant, deren Workloads spezielle Hardware oder minimale Latenz erfordern. In diesem Kompakt-Ratgeber lesen Sie: für welche Use Cases sich Bare-Metal-Cloud-Lösungen eignen, welche Nachteile diese Art von Cloud-Ressourcen mit sich bringen, und welche Anbieter in diesem Bereich Rang und Namen haben. Bare-Metal-Anwendungsfälle Einige wichtige Use Cases, bei denen Bare-Metal-Cloud-Lösungen ihre Vorteile ausspielen können, sind beispielsweise: KI- und ML-Modelltraining erfordert enorme Rechenleistung. GPUs und andere spezialisierte Beschleuniger, die Bare-Metal-Clouds ohne Virtualisierungs-Aufwand bereitstellen können, sind oft unerlässlich, um solche Workloads effizient managen zu können. Weil viele Unternehmen regelmäßig KI-Modelle trainieren, ist es attraktiver, in Bare-Metal-Lösungen zu investieren, als in firmeneigene Hardware, die dann womöglich oft ungenutzt bleibt. HPC-Anwendungen, also Simulationen, Datenmodellierungen und komplexe Datenanalysen, sind ebenfalls ressourcenhungrig und gedeihen vor allem in Umgebungen mit niedriger Latenz. Der Virtualisierungs-Ansatz kann in diesem Fall zu Performance-Einschränkungen führen – im Gegensatz zu Bare-Metal-Servern, die für Performance-orientierte Workloads wie gemacht sind. Spezial-Workloads können von Hardwarearchitekturen profitieren, die über die Standard-x86-Prozessoren hinausgehen – beispielsweise die Z-Mainframe-Architektur von Arm oder IBM. Bare-Metal-Cloud-Lösungen ermöglichen ihren Benutzern, auf diese nicht standardmäßigen Architekturen zuzugreifen, um speziell entwickelte Workloads zu testen oder auszuführen. Auch in diesem Bereich greifen herkömmliche virtuelle Umgebungen zu kurz. In stark regulierten Branchen wie dem Regierungs-, Finanz- oder Gesundheitssektor müssen Organisationen möglicherweise dedizierte Server einsetzen, um Compliance-Vorgaben zu erfüllen. Bare-Metal-Clouds können an dieser Stelle die notwendige Isolierung bieten, gewährleisten jedoch parallel eine flexible Bereitstellung über die Cloud. Bare-Metal-Kompromisse Zur Wahrheit gehört auch, dass Bare-Metal-Optionen bislang eher ein Nischendasein fristen – und nicht ohne Grund. Folgende Kompromisse müssen Unternehmen eingehen, wenn sie sich für eine Bare-Metal-Architektur entscheiden: Bare-Metal-Ressourcen sind im Vergleich zu VM-basierten Cloud-Angeboten in der Regel mit höheren Kosten verbunden. Zwar bietet Bare-Metal auch eine optimierte Leistung. Das lohnt sich allerdings nur, wenn es um Applikationen geht, die diese Mehrleistung auch abrufen. Anwendungen, die für virtualisierte Umgebungen geschrieben oder auf die Funktionen bestimmter Public Clouds zugeschnitten sind, müssen möglicherweise mit erheblichem Aufwand überarbeitet werden, um optimal – und sicher – auf Bare-Metal-Clouds zu laufen. Darüber hinaus fehlen bei Bare-Metal-Hosting-Diensten auch die Skalierungs- und Load-Balancing-Funktionen, die in Services auf VM-Basis integriert sind. Bei bestimmten Bare-Metal-Anbietern mit weniger Rechenzentrumsstandorten können geografische Einschränkungen eine Rolle spielen, die sich unter Umständen negativ auf die Latenz auswirken. Geringere Flexibilität. Die Verwendung von Bare-Metal-Hardware zu nutzen, lässt oft wenig Spielraum, um Dinge bereitzustellen, die über das physisch Verfügbare hinausgehen. Das verhindert, zusätzliche Storage- oder Hardwareerweiterungen dynamisch einzubinden und ist damit der Flexibilität abträglich. Wie bei jeder bedeutsamen Technologieentscheidung gilt es auch mit Blick auf Bare-Metal-Cloud-Lösungen, die Infrastrukturanforderungen mit der Geschäftsstrategie in Einklang bringen. Bare-Metal-Anbieter Zwar bieten nicht alle Cloud-Anbieter Bare-Metal-Services an – dennoch stehen Unternehmen und Organisationen diverse Optionen zur Wahl. Im Folgenden einige wichtige Anbieter (in alphabetischer Reihenfolge): Amazon Web Services (AWS) bietet EC2 Bare-Metal-Instanzen, die ähnlich funktionieren wie normale EC2-VMs. Das erleichtert AWS-Benutzern den Übergang. Im Vergleich zu spezialisierteren Anbietern bietet Amazons Bare-Metal-Produkt allerdings etwas weniger Kontrollmöglichkeiten. DigitalOcean bietet Bare-Metal-Server, die mit GPUs ausgestattet sindundsich speziell ankleine und mittelgroße Unternehmen mit KI- und ML-Bedürfnissen richten. Equinix kann mitseiner globalen Präsenz und Rechenzentrumsinfrastruktur überzeugen, die eine breite geografische Abdeckung gewährleisten soll. Zu bedenken ist dabei allerdings, dass geplant ist, diesen Bare-Metal-Service 2026 einzustellen. IBM deckt mit seinen Bare-Metal-Services neben Standard-x86-Servern auch Architekturen wie Z-Mainframe und LinuxONE ab. Microsoft bietet mit Azure Bare Metal Infrastructure robuste Hardware und eine Vielzahl von Konfigurationsmöglichkeiten, wenn auch mit begrenzter Verfügbarkeit in den verschiedenen Regionen der Welt. OpenMetal ist auf Bare-Metal-Angebote spezialisiert und nutzt quelloffene OpenStack-Tools zu Management-Zwecken. Diese umfassenden Verwaltungsoptionen können überzeugen, auch wenn der Anbieter weltweit weniger Rechenzentrumsstandorte zu bieten hat. OVHcloud hat ebenfalls diverse Bare-Metal-Lösungen im Angebot, die für unterschiedliche Anwendungsfälle konzipiert sind. PhoenixNAP ist insbesondere für seine Infrastructure as Code (IaC)-Funktionen bekannt und bietet flexible Möglichkeiten, um Bare-Metal-Ressourcen zum Beispiel mit APIs oder CLI-Tools zu managen. Auch bei diesem Anbieter ist die geografische Reichweite eher begrenzt. Rackspace bietet als Cloud-Veteran auch Bare-Metal-Services mit umfangreichen Konfigurationsoptionen und starkem Support an. Das Angebot ist auf Enterprise-Kunden zugeschnitten sind. Vultr stellt eine erschwinglichere Bare-Metal-Option dar und bietet Server, die weltweit fast zwei Dutzend Rechenzentren verteilt sind. Allerdings lässt dieser Anbieter Optionen für GPU-fähige Varianten vermissen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Bare-Metal-Cloud – ein Ratgeber​ Bare-Metal-Cloud-Lösungen können erheblichen Mehrwert generieren – eine entsprechende Strategie vorausgesetzt.Robert Lowe | Flickr

In einer typischen Public-Cloud-Umgebung interagieren die meisten Nutzer mit virtuellen Maschinen (VMs) – Betriebssysteminstanzen, die auf physischer Hardware aufsetzen. Damit mehrere User dieselbe Hardware sicher und effizient nutzen können, werden die VMs dabei durch einen Hypervisor voneinander getrennt. Diese Abstraktion führt allerdings zu Performance Overhead und limitiert die Kontrollmöglichkeiten der Benutzer mit Blick auf physische Serverressourcen.

Im Gegensatz dazu bieten Bare-Metal-Cloud-Dienste exklusiven Zugriff auf die zugrundeliegende, physische Hardware – ganz ohne Hypervisor, VMs und zusätzliche Abstraktion. Bare-Metal-Lösungen verbinden die Flexibilität der Cloud mit der robusten Performance lokaler, dedizierter Server. Diese einzigartige Positionierung macht Bare-Metal-Cloud-Lösungen für Unternehmen zunehmend interessant, deren Workloads spezielle Hardware oder minimale Latenz erfordern.

In diesem Kompakt-Ratgeber lesen Sie:

für welche Use Cases sich Bare-Metal-Cloud-Lösungen eignen,

welche Nachteile diese Art von Cloud-Ressourcen mit sich bringen, und

welche Anbieter in diesem Bereich Rang und Namen haben.

Bare-Metal-Anwendungsfälle

Einige wichtige Use Cases, bei denen Bare-Metal-Cloud-Lösungen ihre Vorteile ausspielen können, sind beispielsweise:

KI- und ML-Modelltraining erfordert enorme Rechenleistung. GPUs und andere spezialisierte Beschleuniger, die Bare-Metal-Clouds ohne Virtualisierungs-Aufwand bereitstellen können, sind oft unerlässlich, um solche Workloads effizient managen zu können. Weil viele Unternehmen regelmäßig KI-Modelle trainieren, ist es attraktiver, in Bare-Metal-Lösungen zu investieren, als in firmeneigene Hardware, die dann womöglich oft ungenutzt bleibt.

HPC-Anwendungen, also Simulationen, Datenmodellierungen und komplexe Datenanalysen, sind ebenfalls ressourcenhungrig und gedeihen vor allem in Umgebungen mit niedriger Latenz. Der Virtualisierungs-Ansatz kann in diesem Fall zu Performance-Einschränkungen führen – im Gegensatz zu Bare-Metal-Servern, die für Performance-orientierte Workloads wie gemacht sind.

Spezial-Workloads können von Hardwarearchitekturen profitieren, die über die Standard-x86-Prozessoren hinausgehen – beispielsweise die Z-Mainframe-Architektur von Arm oder IBM. Bare-Metal-Cloud-Lösungen ermöglichen ihren Benutzern, auf diese nicht standardmäßigen Architekturen zuzugreifen, um speziell entwickelte Workloads zu testen oder auszuführen. Auch in diesem Bereich greifen herkömmliche virtuelle Umgebungen zu kurz.

In stark regulierten Branchen wie dem Regierungs-, Finanz- oder Gesundheitssektor müssen Organisationen möglicherweise dedizierte Server einsetzen, um Compliance-Vorgaben zu erfüllen. Bare-Metal-Clouds können an dieser Stelle die notwendige Isolierung bieten, gewährleisten jedoch parallel eine flexible Bereitstellung über die Cloud.

Bare-Metal-Kompromisse

Zur Wahrheit gehört auch, dass Bare-Metal-Optionen bislang eher ein Nischendasein fristen – und nicht ohne Grund. Folgende Kompromisse müssen Unternehmen eingehen, wenn sie sich für eine Bare-Metal-Architektur entscheiden:

Bare-Metal-Ressourcen sind im Vergleich zu VM-basierten Cloud-Angeboten in der Regel mit höheren Kosten verbunden. Zwar bietet Bare-Metal auch eine optimierte Leistung. Das lohnt sich allerdings nur, wenn es um Applikationen geht, die diese Mehrleistung auch abrufen.

Anwendungen, die für virtualisierte Umgebungen geschrieben oder auf die Funktionen bestimmter Public Clouds zugeschnitten sind, müssen möglicherweise mit erheblichem Aufwand überarbeitet werden, um optimal – und sicher – auf Bare-Metal-Clouds zu laufen. Darüber hinaus fehlen bei Bare-Metal-Hosting-Diensten auch die Skalierungs- und Load-Balancing-Funktionen, die in Services auf VM-Basis integriert sind.

Bei bestimmten Bare-Metal-Anbietern mit weniger Rechenzentrumsstandorten können geografische Einschränkungen eine Rolle spielen, die sich unter Umständen negativ auf die Latenz auswirken.

Geringere Flexibilität. Die Verwendung von

Bare-Metal-Hardware zu nutzen, lässt oft wenig Spielraum, um Dinge bereitzustellen, die über das physisch Verfügbare hinausgehen. Das verhindert, zusätzliche Storage- oder Hardwareerweiterungen dynamisch einzubinden und ist damit der Flexibilität abträglich.

Wie bei jeder bedeutsamen Technologieentscheidung gilt es auch mit Blick auf Bare-Metal-Cloud-Lösungen, die Infrastrukturanforderungen mit der Geschäftsstrategie in Einklang bringen.

Bare-Metal-Anbieter

Zwar bieten nicht alle Cloud-Anbieter Bare-Metal-Services an – dennoch stehen Unternehmen und Organisationen diverse Optionen zur Wahl. Im Folgenden einige wichtige Anbieter (in alphabetischer Reihenfolge):

Amazon Web Services (AWS) bietet EC2 Bare-Metal-Instanzen, die ähnlich funktionieren wie normale EC2-VMs. Das erleichtert AWS-Benutzern den Übergang. Im Vergleich zu spezialisierteren Anbietern bietet Amazons Bare-Metal-Produkt allerdings etwas weniger Kontrollmöglichkeiten.

DigitalOcean bietet Bare-Metal-Server, die mit GPUs ausgestattet sindundsich speziell ankleine und mittelgroße Unternehmen mit KI- und ML-Bedürfnissen richten.

Equinix kann mitseiner globalen Präsenz und Rechenzentrumsinfrastruktur überzeugen, die eine breite geografische Abdeckung gewährleisten soll. Zu bedenken ist dabei allerdings, dass geplant ist, diesen Bare-Metal-Service 2026 einzustellen.

IBM deckt mit seinen Bare-Metal-Services neben Standard-x86-Servern auch Architekturen wie Z-Mainframe und LinuxONE ab.

Microsoft bietet mit Azure Bare Metal Infrastructure robuste Hardware und eine Vielzahl von Konfigurationsmöglichkeiten, wenn auch mit begrenzter Verfügbarkeit in den verschiedenen Regionen der Welt.

OpenMetal ist auf Bare-Metal-Angebote spezialisiert und nutzt quelloffene OpenStack-Tools zu Management-Zwecken. Diese umfassenden Verwaltungsoptionen können überzeugen, auch wenn der Anbieter weltweit weniger Rechenzentrumsstandorte zu bieten hat.

OVHcloud hat ebenfalls diverse Bare-Metal-Lösungen im Angebot, die für unterschiedliche Anwendungsfälle konzipiert sind.

PhoenixNAP ist insbesondere für seine Infrastructure as Code (IaC)-Funktionen bekannt und bietet flexible Möglichkeiten, um Bare-Metal-Ressourcen zum Beispiel mit APIs oder CLI-Tools zu managen. Auch bei diesem Anbieter ist die geografische Reichweite eher begrenzt.

Rackspace bietet als Cloud-Veteran auch Bare-Metal-Services mit umfangreichen Konfigurationsoptionen und starkem Support an. Das Angebot ist auf Enterprise-Kunden zugeschnitten sind.

Vultr stellt eine erschwinglichere Bare-Metal-Option dar und bietet Server, die weltweit fast zwei Dutzend Rechenzentren verteilt sind. Allerdings lässt dieser Anbieter Optionen für GPU-fähige Varianten vermissen.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Bare-Metal-Cloud – ein Ratgeber​ Weiterlesen »

SAP stellt KI-Tool für Entwickler vor​

Allgemein

Mit Joule for Developers erweitert SAP die bestehenden KI-Funktionen in SAP Build Code und ABAP Cloud.Tada Images | shutterstock.com Die in dieser Woche auf der SAPInsider-Veranstaltung in Las Vegas angekündigte Neuerung „soll es Entwicklern ermöglichen, effizienter zu arbeiten, präzise, kontextbezogene Ergebnisse mit speziell entwickelten LLMs zu liefern und neue KI-Tools für eine nahtlose Entwicklung zu integrieren“, so das Unternehmen in einer Pressemitteilung.  Joule for Developers ist in SAP Build integriert, um Entwickler bei Projekten mit wenig Code, professionellem Code und Automatisierung zu unterstützen. Bharat Sandhu, SVP und Chief Marketing Officer für SAP Business Technology Platform (BTP), betont jedoch, dass die Lösung als Hilfe für Entwickler gedacht ist und diese nicht substituieren soll.  „Es deckt zwei Anwendungsfälle für Kunden ab“, erklärt Sandhu: „Es macht Entwickler effizienter, indem es mühsame Arbeiten wie das Erstellen von Unit-Tests und das Generieren von Testdaten übernimmt, und es befähigt neue Entwickler, die mit der Entwicklung von Business-Anwendungen oder der SAP-Entwicklung möglicherweise nicht vertraut sind.  Laut SAP umfasst Joule for Developers folgende Funktionen:  Erstellen von Anwendungen: Generierung von Code, Benutzeroberflächen, Datenmodellen und Beispieldaten in SAP-Programmiermodellen für Java, JavaScript und ABAP.  Codeoptimierung: Umstrukturierung von Code, Erstellung von Modultests und Generierung von Codeerläuterungen, Zusammenfassungen und mehr mit Abfragen in natürlicher Sprache und intuitiven Aktionen.  Prozess- und Workflow-Automatisierung: Generierung von Automatisierungs-Workflows und Geschäftsregeln mithilfe von Abfragen in natürlicher Sprache.  Joule for Developers wird von großen Sprachmodellen (LLMs) angetrieben, die auf SAP-Workloads wie ABAP von SAP zugeschnitten sind, und ermöglicht so eine vorausschauende Code-Vervollständigung auf der Grundlage von Kontext, Kommentaren und Projektheuristiken, die Generierung von Code-Erläuterungen, die Unterstützung bei der Erstellung von Dokumentationen, die Entwicklung von Workflows und vieles mehr.  „Es nutzt alle bewährten Verfahren und unsere Modelle für die SAP-Anwendungsprogrammierung, die speziell für die Erweiterung und den Aufbau von Business-Anwendungen entwickelt wurden“, erklärte Sandhu. „Ein Entwickler, der noch nie etwas auf SAP-Basis erstellt habe, kann Joule for Developers mit einem Prompt füttern und die Lösung erstellt das Backend-System, die Frontend-UX und das Datenmodell“. Entwickler-Teams könnten dann „buchstäblich in Minuten“ mit einer vollständigen Anwendung beginnen, die sie anpassen können. Und wenn eine der mehr als 400 vorgefertigten Branchenanwendungen die vom Entwickler gewünschte Funktionalität bietet, empfehle Joule diese.  Sandhu weist auch darauf hin, dass die KI interne Prüfungen durchführt, bevor sie ihre Output-Daten an den Benutzer weitergibt. Das dient dazu, deren Korrektheit zu überprüfen und die Wahrscheinlichkeit von Halluzinationen zu verringern.  Joule for Developers unterscheide sich von anderen KI-Codierungsassistenten, stellt Arnal Dayaratna, Research Vice President für Softwareentwicklung bei IDC, fest. Das sei  auf seine tiefe Spezialisierung auf ABAP und den besseren Zugang von SAP zu ABAP-spezifischen Trainingsdaten zurückzuführen, so der Analyst. Die Integration mit ABAP und SAP Build, so Dayaratna, verleihe dem Assistenten „eine einzigartige Fähigkeit“, sowohl professionelle als auch No-Code-Entwickler zu unterstützen.  „Diese Fähigkeiten machen ihn besonders wichtig für die SAP-Entwicklergemeinschaft und das damit verbundene Software-Ökosystem“, so Dayaratna.  Jason Andersen, Vizepräsident und leitender Analyst bei Moor Insights & Strategy, stimmt dem zu. „Insgesamt ist es eine großartige Nachricht für die SAP-Entwicklergemeinschaft, einen KI-Assistenten zu haben, der auf ihre Bedürfnisse zugeschnitten ist. Der Schlüssel dazu ist, das Modell, das der Assistent nutzen wird, auf spezifische SAP-Funktionen wie SAP-Workflows und ABAP zu trainieren.“ SAP verfüge über das Wissen, einen KI-Assistenten zu trainieren, der präziser ist als ein allgemeiner Code Assistant, so Anderson.    „Am spannendsten an einer solchen Lösung ist, dass sie bestehenden Nicht-SAP-Entwicklern beim Onboarding-Prozess hilft. Egal, ob sie neu sind oder von einem anderen Team gewechselt sind, ein solches Tool macht sie schneller produktiv.“  Scott Bickley, Advisory Fellow bei der Info-Tech Research Group, merkt hingegen an, dass die meisten Unternehmen nicht in mehrere KI-Plattformen investieren würden. Es käme daher darauf an, welche Lösung am besten dazu beitragen kann, ihre Ziele zu erreichen. SAP habe den Vorteil, dass ERP-Lösungen das System of Records sind und viele kritische Daten enthalten.  Gleichzeitig warnt er potenzielle Käufer, dass sich all diese KI-Lösungen noch in der Anfangsphase befänden. In dieser sei es entscheidend, Machbarkeitsstudien durchzuführen und gleichzeitig größere finanzielle Verpflichtungen zu vermeiden. „Die Lösung von SAP ist Teil der BTP-Suite“, so Bickley, „es handelt sich also um ein nutzungsbasiertes Lizenzmodell. Dies erfordert mehr Investitionen am Anfang des Evaluierungsprozesses, um sicherzustellen, dass die Anwendungsfälle solide sind und der Verbrauch vorhersehbar ist – andernfalls könnten CFOs von massiven, nicht vorhergesehenen Rechnungen überrascht werden.“  Vorerst besteht jedoch noch kein Grund, sich Sorgen um diese Rechnungen machen. Wie SAP-Manager Sandhu ausführt, ist Joule for Developers aktuell noch kostenlos. „Im Moment ist es unsere Mission, die Software so vielen Menschen wie möglich zur Verfügung zu stellen, eine gute Nutzung zu erreichen und gutes Feedback von den Kunden zu erhalten. Danach werden wir uns überlegen, wie wir die Preise gestalten wollen“. (mb) 

SAP stellt KI-Tool für Entwickler vor​ Mit Joule for Developers erweitert SAP die bestehenden KI-Funktionen in SAP Build Code und ABAP Cloud.Tada Images | shutterstock.com

Die in dieser Woche auf der SAPInsider-Veranstaltung in Las Vegas angekündigte Neuerung „soll es Entwicklern ermöglichen, effizienter zu arbeiten, präzise, kontextbezogene Ergebnisse mit speziell entwickelten LLMs zu liefern und neue KI-Tools für eine nahtlose Entwicklung zu integrieren“, so das Unternehmen in einer Pressemitteilung. 

Joule for Developers ist in SAP Build integriert, um Entwickler bei Projekten mit wenig Code, professionellem Code und Automatisierung zu unterstützen. Bharat Sandhu, SVP und Chief Marketing Officer für SAP Business Technology Platform (BTP), betont jedoch, dass die Lösung als Hilfe für Entwickler gedacht ist und diese nicht substituieren soll. 

„Es deckt zwei Anwendungsfälle für Kunden ab“, erklärt Sandhu: „Es macht Entwickler effizienter, indem es mühsame Arbeiten wie das Erstellen von Unit-Tests und das Generieren von Testdaten übernimmt, und es befähigt neue Entwickler, die mit der Entwicklung von Business-Anwendungen oder der SAP-Entwicklung möglicherweise nicht vertraut sind. 

Laut SAP umfasst Joule for Developers folgende Funktionen: 

Erstellen von Anwendungen: Generierung von Code, Benutzeroberflächen, Datenmodellen und Beispieldaten in SAP-Programmiermodellen für Java, JavaScript und ABAP. 

Codeoptimierung: Umstrukturierung von Code, Erstellung von Modultests und Generierung von Codeerläuterungen, Zusammenfassungen und mehr mit Abfragen in natürlicher Sprache und intuitiven Aktionen. 

Prozess- und Workflow-Automatisierung: Generierung von Automatisierungs-Workflows und Geschäftsregeln mithilfe von Abfragen in natürlicher Sprache. 

Joule for Developers wird von großen Sprachmodellen (LLMs) angetrieben, die auf SAP-Workloads wie ABAP von SAP zugeschnitten sind, und ermöglicht so eine vorausschauende Code-Vervollständigung auf der Grundlage von Kontext, Kommentaren und Projektheuristiken, die Generierung von Code-Erläuterungen, die Unterstützung bei der Erstellung von Dokumentationen, die Entwicklung von Workflows und vieles mehr. 

„Es nutzt alle bewährten Verfahren und unsere Modelle für die SAP-Anwendungsprogrammierung, die speziell für die Erweiterung und den Aufbau von Business-Anwendungen entwickelt wurden“, erklärte Sandhu. „Ein Entwickler, der noch nie etwas auf SAP-Basis erstellt habe, kann Joule for Developers mit einem Prompt füttern und die Lösung erstellt das Backend-System, die Frontend-UX und das Datenmodell“. Entwickler-Teams könnten dann „buchstäblich in Minuten“ mit einer vollständigen Anwendung beginnen, die sie anpassen können. Und wenn eine der mehr als 400 vorgefertigten Branchenanwendungen die vom Entwickler gewünschte Funktionalität bietet, empfehle Joule diese. 

Sandhu weist auch darauf hin, dass die KI interne Prüfungen durchführt, bevor sie ihre Output-Daten an den Benutzer weitergibt. Das dient dazu, deren Korrektheit zu überprüfen und die Wahrscheinlichkeit von Halluzinationen zu verringern. 

Joule for Developers unterscheide sich von anderen KI-Codierungsassistenten, stellt Arnal Dayaratna, Research Vice President für Softwareentwicklung bei IDC, fest. Das sei  auf seine tiefe Spezialisierung auf ABAP und den besseren Zugang von SAP zu ABAP-spezifischen Trainingsdaten zurückzuführen, so der Analyst. Die Integration mit ABAP und SAP Build, so Dayaratna, verleihe dem Assistenten „eine einzigartige Fähigkeit“, sowohl professionelle als auch No-Code-Entwickler zu unterstützen. 

„Diese Fähigkeiten machen ihn besonders wichtig für die SAP-Entwicklergemeinschaft und das damit verbundene Software-Ökosystem“, so Dayaratna. 

Jason Andersen, Vizepräsident und leitender Analyst bei Moor Insights & Strategy, stimmt dem zu. „Insgesamt ist es eine großartige Nachricht für die SAP-Entwicklergemeinschaft, einen KI-Assistenten zu haben, der auf ihre Bedürfnisse zugeschnitten ist. Der Schlüssel dazu ist, das Modell, das der Assistent nutzen wird, auf spezifische SAP-Funktionen wie SAP-Workflows und ABAP zu trainieren.“ SAP verfüge über das Wissen, einen KI-Assistenten zu trainieren, der präziser ist als ein allgemeiner Code Assistant, so Anderson.  

 „Am spannendsten an einer solchen Lösung ist, dass sie bestehenden Nicht-SAP-Entwicklern beim Onboarding-Prozess hilft. Egal, ob sie neu sind oder von einem anderen Team gewechselt sind, ein solches Tool macht sie schneller produktiv.“ 

Scott Bickley, Advisory Fellow bei der Info-Tech Research Group, merkt hingegen an, dass die meisten Unternehmen nicht in mehrere KI-Plattformen investieren würden. Es käme daher darauf an, welche Lösung am besten dazu beitragen kann, ihre Ziele zu erreichen. SAP habe den Vorteil, dass ERP-Lösungen das System of Records sind und viele kritische Daten enthalten. 

Gleichzeitig warnt er potenzielle Käufer, dass sich all diese KI-Lösungen noch in der Anfangsphase befänden. In dieser sei es entscheidend, Machbarkeitsstudien durchzuführen und gleichzeitig größere finanzielle Verpflichtungen zu vermeiden. „Die Lösung von SAP ist Teil der BTP-Suite“, so Bickley, „es handelt sich also um ein nutzungsbasiertes Lizenzmodell. Dies erfordert mehr Investitionen am Anfang des Evaluierungsprozesses, um sicherzustellen, dass die Anwendungsfälle solide sind und der Verbrauch vorhersehbar ist – andernfalls könnten CFOs von massiven, nicht vorhergesehenen Rechnungen überrascht werden.“ 

Vorerst besteht jedoch noch kein Grund, sich Sorgen um diese Rechnungen machen. Wie SAP-Manager Sandhu ausführt, ist Joule for Developers aktuell noch kostenlos. „Im Moment ist es unsere Mission, die Software so vielen Menschen wie möglich zur Verfügung zu stellen, eine gute Nutzung zu erreichen und gutes Feedback von den Kunden zu erhalten. Danach werden wir uns überlegen, wie wir die Preise gestalten wollen“. (mb)

SAP stellt KI-Tool für Entwickler vor​ Weiterlesen »

BSI und Schwarz Digits kooperieren bei Cloud-Sicherheit​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?quality=50&strip=all 8256w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Das BSI erarbeitet Security-Anforderungen an Cloud-Angebote für die öffentliche Hand.shutterstock – nitpicker Die Nutzung von Cloud-Angeboten ist für die öffentliche Verwaltung unumgänglich, hat aber auch ihre Tücken. Um den damit verbundenen Risiken sowie aktuellen geopolitischen Entwicklungen Rechnung zu tragen, hat das BSI eine Cloud-Strategie entwickelt. Diese sieht zum einen vor, nationale und europäische Cloud-Strukturen konkurrenzfähig zu gestalten. Zum andern will die Behörde herausfinden, inwieweit die Public Clouds der Hyperscaler aktiv und sicher in Deutschland nutzbar gemacht werden können.  Zu diesem Zweck hat das BSI nach eigenen Angaben bereits entsprechende Kooperationen mit den Cloud-Providern SAP, Oracle und Google Cloud vereinbart. Neben der Partnerschaft mit STACKIT, der Cloud-Sparte von Schwarz Digits, ist auch eine Kooperation mit Amazon Web Services (AWS) geplant.  “Kritisch für die Handlungsfähigkeit des Staates“  Die Kooperationen ermöglichten es der Sicherheitsbehörde, Risiko- und Bedrohungsanalysen zu fahren und daraus technische und strukturelle Sicherheitsanforderungen und -maßnahmen abzuleiten, die standortunabhängig für alle Cloud-Anbieter gelten sollen, hieß es seitens der Beteiligten. Unter anderem müsse sichergestellt werden, dass heute verschlüsselte Daten auch in Zukunft sicher sind, Stichwort Post-Quanten-Kryptographie.  Darüber hinaus könne eine geeignete Ausgestaltung der Sicherheitsarchitektur den Klartextzugriff durch den Cloud-Provider selbst unterbinden. In diesem Falle wären Daten beispielsweise auch gegenüber Anfragen auf Basis des CLOUD Act geschützt, da es dem Cloud-Provider rein technisch nicht möglich ist, sich Zugang zu den geforderten Daten zu verschaffen.   „Die Anforderungen des BSI geben Orientierung bei den strategischen und operativen Entscheidungen des Bundes – auch und gerade unter Abwägung aktueller politischer Entwicklungen“, erklärte BSI-Präsidentin Claudia Plattner. Die Anforderungen des BSI hätten aber auch unmittelbaren Einfluss auf die Entwicklung von Angeboten, so Plattner – indem die Behörde deren Umsetzung bei den Herstellern einfordere. „Mit STACKIT von Schwarz Digits haben wir einen Kooperationspartner an unserer Seite, der das Thema Souveränität schon lange erfolgreich und zuverlässig adressiert“, so Plattner.  width=”1600″ height=”900″ sizes=”(max-width: 1600px) 100vw, 1600px”>BSI-Präsidentin Claudia Plattner: “Um eine wirksame Absicherung kritischer Systeme in Deutschland und Europa zu ermöglichen, ist deren Kontrolle durch nationale und europäische Akteure von entscheidender Bedeutung.” Jan Waßmuth Wie das BSI betonte, werden mit den Kooperationsvereinbarungen keine Vergabe- oder Implementierungsentscheidungen getroffen. Ziel sei es, ein breites Spektrum an sicheren technologischen Angeboten zu prüfen, aus denen Bedarfsträger wählen können.  Dieses Spektrum muss aus Sicht des BSI so gestaltet sein, dass auch US-Angebote unter nationaler oder europäischer Kontrolle genutzt werden können – aber jederzeit auch ein Wechsel hin zu nationalen Lösungen möglich ist.   Darüber hinaus stellte die Behörde klar, dass Open-Source-Software eine tragende Säule der IT-Strategie des Bundes sei und bleibe. Parallel zur Zusammenarbeit mit Public-Cloud-Providern fördere das BSI gemeinsam mit relevanten Stakeholdern der Open Source Community kontinuierlich den Einsatz und die Sicherheit von Open-Source-Lösungen wie NextCloud oder OpenDesk. Dabei kooperiere das BSI eng mit dem Zentrum für Digitale Souveränität (ZenDiS) – insbesondere mit Blick auf die Plattform OpenCode. Die Einrichtung eines Open Source Program Office (OSPO) im BSI werde diese Aktivitäten bündeln und die Entwicklung und Umsetzung einheitlicher Sicherheitsstandards im Bereich Open Source beschleunigen.  “Die Digitalisierung der Verwaltung ist kritisch für die Handlungsfähigkeit des Staates, sie muss daher ein Erfolg werden“, erklärte BSI-Vizepräsident Thomas Caspers. Dabei sei es essentiell, die Digitalisierung auch zu beherrschen. Deshalb sei die Kontrolle über einen selbstbestimmten Betrieb Teil eines sicheren Einsatzes moderner digitaler Produkte wie Cloud Services. Diese Kontrolle müsse zu jeder Zeit in den Händen nationaler und europäischer Akteure liegen, ganz besonders bei neuralgischen Aspekten wie Verschlüsselung, Key Management sowie Zugriffskontrolle.  

BSI und Schwarz Digits kooperieren bei Cloud-Sicherheit​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?quality=50&strip=all 8256w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/BSI-veroffentlicht-neue-Sicherheitsanforderungen-fur-Datenbanksysteme.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Das BSI erarbeitet Security-Anforderungen an Cloud-Angebote für die öffentliche Hand.shutterstock – nitpicker

Die Nutzung von Cloud-Angeboten ist für die öffentliche Verwaltung unumgänglich, hat aber auch ihre Tücken. Um den damit verbundenen Risiken sowie aktuellen geopolitischen Entwicklungen Rechnung zu tragen, hat das BSI eine Cloud-Strategie entwickelt. Diese sieht zum einen vor, nationale und europäische Cloud-Strukturen konkurrenzfähig zu gestalten. Zum andern will die Behörde herausfinden, inwieweit die Public Clouds der Hyperscaler aktiv und sicher in Deutschland nutzbar gemacht werden können. 

Zu diesem Zweck hat das BSI nach eigenen Angaben bereits entsprechende Kooperationen mit den Cloud-Providern SAP, Oracle und Google Cloud vereinbart. Neben der Partnerschaft mit STACKIT, der Cloud-Sparte von Schwarz Digits, ist auch eine Kooperation mit Amazon Web Services (AWS) geplant. 

“Kritisch für die Handlungsfähigkeit des Staates“ 

Die Kooperationen ermöglichten es der Sicherheitsbehörde, Risiko- und Bedrohungsanalysen zu fahren und daraus technische und strukturelle Sicherheitsanforderungen und -maßnahmen abzuleiten, die standortunabhängig für alle Cloud-Anbieter gelten sollen, hieß es seitens der Beteiligten. Unter anderem müsse sichergestellt werden, dass heute verschlüsselte Daten auch in Zukunft sicher sind, Stichwort Post-Quanten-Kryptographie. 

Darüber hinaus könne eine geeignete Ausgestaltung der Sicherheitsarchitektur den Klartextzugriff durch den Cloud-Provider selbst unterbinden. In diesem Falle wären Daten beispielsweise auch gegenüber Anfragen auf Basis des CLOUD Act geschützt, da es dem Cloud-Provider rein technisch nicht möglich ist, sich Zugang zu den geforderten Daten zu verschaffen.  

„Die Anforderungen des BSI geben Orientierung bei den strategischen und operativen Entscheidungen des Bundes – auch und gerade unter Abwägung aktueller politischer Entwicklungen“, erklärte BSI-Präsidentin Claudia Plattner. Die Anforderungen des BSI hätten aber auch unmittelbaren Einfluss auf die Entwicklung von Angeboten, so Plattner – indem die Behörde deren Umsetzung bei den Herstellern einfordere. „Mit STACKIT von Schwarz Digits haben wir einen Kooperationspartner an unserer Seite, der das Thema Souveränität schon lange erfolgreich und zuverlässig adressiert“, so Plattner. 

width=”1600″ height=”900″ sizes=”(max-width: 1600px) 100vw, 1600px”>BSI-Präsidentin Claudia Plattner: “Um eine wirksame Absicherung kritischer Systeme in Deutschland und Europa zu ermöglichen, ist deren Kontrolle durch nationale und europäische Akteure von entscheidender Bedeutung.” Jan Waßmuth

Wie das BSI betonte, werden mit den Kooperationsvereinbarungen keine Vergabe- oder Implementierungsentscheidungen getroffen. Ziel sei es, ein breites Spektrum an sicheren technologischen Angeboten zu prüfen, aus denen Bedarfsträger wählen können.  Dieses Spektrum muss aus Sicht des BSI so gestaltet sein, dass auch US-Angebote unter nationaler oder europäischer Kontrolle genutzt werden können – aber jederzeit auch ein Wechsel hin zu nationalen Lösungen möglich ist.  

Darüber hinaus stellte die Behörde klar, dass Open-Source-Software eine tragende Säule der IT-Strategie des Bundes sei und bleibe. Parallel zur Zusammenarbeit mit Public-Cloud-Providern fördere das BSI gemeinsam mit relevanten Stakeholdern der Open Source Community kontinuierlich den Einsatz und die Sicherheit von Open-Source-Lösungen wie NextCloud oder OpenDesk. Dabei kooperiere das BSI eng mit dem Zentrum für Digitale Souveränität (ZenDiS) – insbesondere mit Blick auf die Plattform OpenCode. Die Einrichtung eines Open Source Program Office (OSPO) im BSI werde diese Aktivitäten bündeln und die Entwicklung und Umsetzung einheitlicher Sicherheitsstandards im Bereich Open Source beschleunigen. 

“Die Digitalisierung der Verwaltung ist kritisch für die Handlungsfähigkeit des Staates, sie muss daher ein Erfolg werden“, erklärte BSI-Vizepräsident Thomas Caspers. Dabei sei es essentiell, die Digitalisierung auch zu beherrschen. Deshalb sei die Kontrolle über einen selbstbestimmten Betrieb Teil eines sicheren Einsatzes moderner digitaler Produkte wie Cloud Services. Diese Kontrolle müsse zu jeder Zeit in den Händen nationaler und europäischer Akteure liegen, ganz besonders bei neuralgischen Aspekten wie Verschlüsselung, Key Management sowie Zugriffskontrolle. 

BSI und Schwarz Digits kooperieren bei Cloud-Sicherheit​ Weiterlesen »

Jetzt doch – Alphabet kauft Wiz​

Allgemein

Was lange währt…?Wiz Bereits im Sommer 2024 stand eine Übernahme des israelischen Cybersecurity-Startups Wiz durch den Google-Mutterkonzern Alphabet im Raum. Letztlich scheiterte der 23 Milliarden Dollar schwere Deal jedoch – auch aufgrund regulatorischer Bedenken. Wie Alphabet nun jedoch in einem Blogbeitrag verkündet, soll es mit der Übernahme des Cybersecurity-Unternehmens doch noch klappen. Dazu hat der Konzern sein Kaufangebot um rund ein Drittel auf 32 Milliarden Dollar erhöht. Sollte der Merger auch den kartellrechtlichen Prüfungen standhalten, wäre es für Alphabet die bislang größte Übernahme der Konzerngeschichte. “Wiz schließt eine kritische Lücke” Darüber hinaus könnte das Unternehmen mit der Übernahme des israelischen Startups seine Cloud-Security-Fähigkeiten wesentlich verstärken. Wiz bietet KI-gestützte Cloud-Sicherheitslösungen an, die die Anwender dabei unterstützen, Risiken plattformübergreifend zu erkennen und zu minimieren. Zum Kundenkreis des erst 2020 gegründeten Unternehmens zählen zahlreiche namhafte Kunden, darunter etwa Morgan Stanley und DocuSign. Außerdem kooperiert Wiz auch mit mehreren Hyperscalern, darunter Microsoft und Amazon Web Services (AWS). Die Technologie von Wiz soll künftig in die Cloud-Plattform von Google integriert werden – und neue, fortschrittliche Funktionen realisieren, parallel aber auch den Support für Hybrid- und Multi-Cloud-Umgebungen verbessern. Keith Prabhu, Gründer und CEO von Confidis, ist optimistisch, dass sich das Portfolio von Wiz nahtlos in Google Cloud integrieren lässt und erwartet dadurch Vorteile für Enterprise-Kunden: „Unternehmenskunden werden die Sicherheitsprodukte von Wiz bequem nutzen können, ohne nach zusätzlichen Lösungen suchen zu müssen“. Die Übernahme könne Alphabet einen Wettbewerbsvorteil in Sachen Cloud verschaffen und dazu beitragen, Boden auf die Wettbewerber Microsoft und AWS gutzumachen, meint der Manager. Prabhu Ram, Vice President bei Cybermedia Research, sieht die mögliche Übernahme von Wiz ebenfalls als durchweg positiv für den Alphabet-Konzern an: “Wiz bietet eine einheitliche Sichtbarkeit in AWS, Azure, GCP und anderen Cloud-Umgebungen und schließt damit eine kritische Lücke im aktuellen Google-Cloud-Angebot“. Allerdings bleibe abzuwarten, wie Google die technische Komplexität bewältigen werde, die damit verbunden ist, eine Cloud-agnostische Plattform zu integrieren, so der Analyst. Davon abgesehen, dürfte dem Deal nur noch wenig entgegenstehen: Zwar müssen die Behörden ihn noch prüfen, allerdings ist unter der Trump-Administration nicht damit zu rechnen, dass das am Ende dazu führen wird, dass der Deal ein weiteres Mal scheitert. Bei Wiz blickt man jedenfalls optimistisch in die Zukunft: „Teil von Google Cloud zu werden, schnallt uns effektiv eine Rakete auf den Rücken. Die Übernahme wird dazu beitragen, dass wir schneller innovieren können als wir es auf uns alleine gestellt könnten“, schreibt Wiz-Mitbegründer und CEO Assaf Rappaport in seinem Blogbeitrag zum angekündigten Merger. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Jetzt doch – Alphabet kauft Wiz​ Was lange währt…?Wiz

Bereits im Sommer 2024 stand eine Übernahme des israelischen Cybersecurity-Startups Wiz durch den Google-Mutterkonzern Alphabet im Raum. Letztlich scheiterte der 23 Milliarden Dollar schwere Deal jedoch – auch aufgrund regulatorischer Bedenken.

Wie Alphabet nun jedoch in einem Blogbeitrag verkündet, soll es mit der Übernahme des Cybersecurity-Unternehmens doch noch klappen. Dazu hat der Konzern sein Kaufangebot um rund ein Drittel auf 32 Milliarden Dollar erhöht. Sollte der Merger auch den kartellrechtlichen Prüfungen standhalten, wäre es für Alphabet die bislang größte Übernahme der Konzerngeschichte.

“Wiz schließt eine kritische Lücke”

Darüber hinaus könnte das Unternehmen mit der Übernahme des israelischen Startups seine Cloud-Security-Fähigkeiten wesentlich verstärken. Wiz bietet KI-gestützte Cloud-Sicherheitslösungen an, die die Anwender dabei unterstützen, Risiken plattformübergreifend zu erkennen und zu minimieren. Zum Kundenkreis des erst 2020 gegründeten Unternehmens zählen zahlreiche namhafte Kunden, darunter etwa Morgan Stanley und DocuSign. Außerdem kooperiert Wiz auch mit mehreren Hyperscalern, darunter Microsoft und Amazon Web Services (AWS).

Die Technologie von Wiz soll künftig in die Cloud-Plattform von Google integriert werden – und neue, fortschrittliche Funktionen realisieren, parallel aber auch den Support für Hybrid- und Multi-Cloud-Umgebungen verbessern. Keith Prabhu, Gründer und CEO von Confidis, ist optimistisch, dass sich das Portfolio von Wiz nahtlos in Google Cloud integrieren lässt und erwartet dadurch Vorteile für Enterprise-Kunden: „Unternehmenskunden werden die Sicherheitsprodukte von Wiz bequem nutzen können, ohne nach zusätzlichen Lösungen suchen zu müssen“. Die Übernahme könne Alphabet einen Wettbewerbsvorteil in Sachen Cloud verschaffen und dazu beitragen, Boden auf die Wettbewerber Microsoft und AWS gutzumachen, meint der Manager.

Prabhu Ram, Vice President bei Cybermedia Research, sieht die mögliche Übernahme von Wiz ebenfalls als durchweg positiv für den Alphabet-Konzern an: “Wiz bietet eine einheitliche Sichtbarkeit in AWS, Azure, GCP und anderen Cloud-Umgebungen und schließt damit eine kritische Lücke im aktuellen Google-Cloud-Angebot“. Allerdings bleibe abzuwarten, wie Google die technische Komplexität bewältigen werde, die damit verbunden ist, eine Cloud-agnostische Plattform zu integrieren, so der Analyst.

Davon abgesehen, dürfte dem Deal nur noch wenig entgegenstehen: Zwar müssen die Behörden ihn noch prüfen, allerdings ist unter der Trump-Administration nicht damit zu rechnen, dass das am Ende dazu führen wird, dass der Deal ein weiteres Mal scheitert. Bei Wiz blickt man jedenfalls optimistisch in die Zukunft: „Teil von Google Cloud zu werden, schnallt uns effektiv eine Rakete auf den Rücken. Die Übernahme wird dazu beitragen, dass wir schneller innovieren können als wir es auf uns alleine gestellt könnten“, schreibt Wiz-Mitbegründer und CEO Assaf Rappaport in seinem Blogbeitrag zum angekündigten Merger. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Jetzt doch – Alphabet kauft Wiz​ Weiterlesen »

11 Open-Source-Tools, die KI & ML transformieren​

Allgemein

Open Source und künstliche Intelligenz passen hervorragend zusammen, wie diese 13 quelloffenen Projekte zeigen. Foto: Pixels Hunter – shutterstock.com Open Source ist ein fruchtbarer Boden für transformative Software, insbesondere, wenn es dabei um Cutting-Edge-Bereiche wie künstliche Intelligenz (KI) beziehungsweise maschinelles Lernen (ML) geht. Open-Source-Ethos und Tools für die Zusammenarbeit machen es für Teams nämlich einfacher, Code und Daten gemeinsam zu nutzen – und auf dem Erfolg anderer aufzubauen. Dieser Artikel präsentiert Ihnen elf Open-Source-Projekte, die das Zeug dazu haben, die KI- und ML-Welt auf den Kopf zu stellen. Bei einigen Projekten handelt es sich um ausgefeilte Softwarepakete, die neuartige Algorithmen unterstützen – andere sind eher auf subtile Weise transformativ. Allen ist gemein: Sie sind einen Blick wert. TensorFlow & PyTorch Open-Source-Tools für KI und ML aufzulisten, ohne TensorFlow und PyTorch zu erwähnen, geht nicht. Einzeln und zusammen unterstützen diese Frameworks wichtige experimentelle Forschungsinitiativen im Bereich der Künstlichen Intelligenz. Einige der folgenden Open-Source-Projekte verwenden TensorFlow und PyTorch als Bausteine. FauxPilot Entwickler, die ein wenig Hilfe beim Programmieren benötigen, können sich an FauxPilot wenden. Das System trainiert sich selbst auf Grundlage von bestehendem Code, gibt strukturierte Kommentare und macht Vorschläge. Inspiriert wurde das Projekt von GitHub Copilot. Mit FauxPilot können Sie jedoch die Repositories auswählen, die Sie für Trainingszwecke verwenden wollen. Diese zusätzliche Kontrollebene verhindert, dass Codeschnipsel verwendet werden, deren Quellen das nicht zulassen. Wenn Sie diese Quellen auf diejenigen mit entsprechenden Berechtigungen und Lizenzen beschränken, ist die Wahrscheinlichkeit größer, dass die verwendete Codierungshilfe und die Code-Snippets sauber und vertrauenswürdig sind. YOLOv7 Ein besonders diffiziles Feld für künstliche Intelligenz ist es, in Echtzeit Objekte in Bildern zu identifizieren. Diese Technik treibt auch maßgeblich selbstfahrende Fahrzeuge, autonome Roboter und sämtliche anderen Devices an, die besonders genaue Umgebungsinformationen sammeln und verarbeiten müssen. Einer der schnellsten und genauesten quelloffenen Tools für diese Zwecke ist YOLOv7. Füttern Sie das Tool einfach mit einer Sammlung von Bildern und warten Sie ab, was passiert. DeepFaceLab Deepfakes sind Videos und Bilder, die mit Hilfe von Deep Learning erstellt, verändert/manipuliert oder synthetisiert werden. Häufig werden dabei beispielsweise die Gesichter von Prominenten und Politikern in bestehende Bilder und Videos eingefügt – oft aus Spaß, manchmal aber auch zu kriminellen Zwecken. Die quelloffene Software DeepFaceLab läuft auf Python und tauscht nicht nur ein Gesicht gegen ein anderes aus, sondern kann auch verwendet werden, um individuelle Merkmale wie Falten und Ähnliches zu verändern. PaddleNLP NLP-Engines können neuronale Suchen und Sentiment-Analysen durchführen und die Ergebnisse anschließend verständlich präsentieren – für Mensch und Maschine. Diese Technologie ist manchmal noch etwas unbeholfen, wird jedoch stets weiterentwickelt und kann bereits in einer Vielzahl von Anwendungen eingesetzt werden (Alexa ist nur ein Beispiel). PaddleNLP ist eine populäre, quelloffene NLP-Bibliothek, mit deren Hilfe Sie Suchabsichten ermitteln und wichtige Entitäten kennzeichnen können. MindsDB Der traditionelle Weg zum KI-Erfolg: Informationen in einer Datenbank zu speichern und dann zu extrahieren, um sie an einen separaten ML-Algorithmus zu senden. Bei MindsDB handelt es sich um einen SQL-Server, der die Algorithmen für maschinelles Lernen direkt in die Datenbank integriert. Die Daten dort zu analysieren, wo sie gespeichert sind, ist ein schneller und effizienter Weg, um Machine-Learning-Workflows zu beschleunigen. Image Super-Resolution Geht es um Fotos, sind mehr Details immer besser. Image Super-Resolution erhöht die Bildauflösung zusätzlich und macht so den Weg frei für noch mehr Bilddetails. Das Open-Source-Tool verwendet ein ML-Modell, das Sie darauf trainieren können, die Details in einem Bild mit niedriger Auflösung zu “erraten”. DeepPavlov Viele Unternehmen und Konzerne bestücken ihre vorderste Kundendienst-Front mit Chatbots. DeepPavlov kombiniert grundlegende Tools für Machine Learning wie TensorFlow, Keras und PyTorch, um Chatbots zu erstellen. Die Ergebnisse sind – je nach Training – schrullig, seltsam und manchmal nützlich. OpenCV Eine fruchtbare Grundlage, um sich mit Machine Vision zu beschäftigen, ist die quelloffene Bibliothek OpenCV. Sie enthält diverse gängige Algorithmen, um Objekte in Bildern identifizieren, sowie spezielle Routinen, beispielsweise, um Nummernschilder an Autos zu erkennen. Robocode Das Java-basierte Programmierspiel Robocode lässt Ihren Panzer gegen andere im Kampf um die Vorherrschaft antreten. Das ist nicht nur ein unterhaltsamer Zeitvertreib, sondern kann auch nützlich sein, um neue Strategien für autonome Fahrzeuge zu testen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

11 Open-Source-Tools, die KI & ML transformieren​ Open Source und künstliche Intelligenz passen hervorragend zusammen, wie diese 13 quelloffenen Projekte zeigen.
Foto: Pixels Hunter – shutterstock.com

Open Source ist ein fruchtbarer Boden für transformative Software, insbesondere, wenn es dabei um Cutting-Edge-Bereiche wie künstliche Intelligenz (KI) beziehungsweise maschinelles Lernen (ML) geht. Open-Source-Ethos und Tools für die Zusammenarbeit machen es für Teams nämlich einfacher, Code und Daten gemeinsam zu nutzen – und auf dem Erfolg anderer aufzubauen.

Dieser Artikel präsentiert Ihnen elf Open-Source-Projekte, die das Zeug dazu haben, die KI- und ML-Welt auf den Kopf zu stellen. Bei einigen Projekten handelt es sich um ausgefeilte Softwarepakete, die neuartige Algorithmen unterstützen – andere sind eher auf subtile Weise transformativ. Allen ist gemein: Sie sind einen Blick wert.

TensorFlow & PyTorch

Open-Source-Tools für KI und ML aufzulisten, ohne TensorFlow und PyTorch zu erwähnen, geht nicht. Einzeln und zusammen unterstützen diese Frameworks wichtige experimentelle Forschungsinitiativen im Bereich der Künstlichen Intelligenz. Einige der folgenden Open-Source-Projekte verwenden TensorFlow und PyTorch als Bausteine.

FauxPilot

Entwickler, die ein wenig Hilfe beim Programmieren benötigen, können sich an FauxPilot wenden. Das System trainiert sich selbst auf Grundlage von bestehendem Code, gibt strukturierte Kommentare und macht Vorschläge. Inspiriert wurde das Projekt von GitHub Copilot. Mit FauxPilot können Sie jedoch die Repositories auswählen, die Sie für Trainingszwecke verwenden wollen. Diese zusätzliche Kontrollebene verhindert, dass Codeschnipsel verwendet werden, deren Quellen das nicht zulassen. Wenn Sie diese Quellen auf diejenigen mit entsprechenden Berechtigungen und Lizenzen beschränken, ist die Wahrscheinlichkeit größer, dass die verwendete Codierungshilfe und die Code-Snippets sauber und vertrauenswürdig sind.

YOLOv7

Ein besonders diffiziles Feld für künstliche Intelligenz ist es, in Echtzeit Objekte in Bildern zu identifizieren. Diese Technik treibt auch maßgeblich selbstfahrende Fahrzeuge, autonome Roboter und sämtliche anderen Devices an, die besonders genaue Umgebungsinformationen sammeln und verarbeiten müssen. Einer der schnellsten und genauesten quelloffenen Tools für diese Zwecke ist YOLOv7. Füttern Sie das Tool einfach mit einer Sammlung von Bildern und warten Sie ab, was passiert.

DeepFaceLab

Deepfakes sind Videos und Bilder, die mit Hilfe von Deep Learning erstellt, verändert/manipuliert oder synthetisiert werden. Häufig werden dabei beispielsweise die Gesichter von Prominenten und Politikern in bestehende Bilder und Videos eingefügt – oft aus Spaß, manchmal aber auch zu kriminellen Zwecken. Die quelloffene Software DeepFaceLab läuft auf Python und tauscht nicht nur ein Gesicht gegen ein anderes aus, sondern kann auch verwendet werden, um individuelle Merkmale wie Falten und Ähnliches zu verändern.

PaddleNLP

NLP-Engines können neuronale Suchen und Sentiment-Analysen durchführen und die Ergebnisse anschließend verständlich präsentieren – für Mensch und Maschine. Diese Technologie ist manchmal noch etwas unbeholfen, wird jedoch stets weiterentwickelt und kann bereits in einer Vielzahl von Anwendungen eingesetzt werden (Alexa ist nur ein Beispiel). PaddleNLP ist eine populäre, quelloffene NLP-Bibliothek, mit deren Hilfe Sie Suchabsichten ermitteln und wichtige Entitäten kennzeichnen können.

MindsDB

Der traditionelle Weg zum KI-Erfolg: Informationen in einer Datenbank zu speichern und dann zu extrahieren, um sie an einen separaten ML-Algorithmus zu senden. Bei MindsDB handelt es sich um einen SQL-Server, der die Algorithmen für maschinelles Lernen direkt in die Datenbank integriert. Die Daten dort zu analysieren, wo sie gespeichert sind, ist ein schneller und effizienter Weg, um Machine-Learning-Workflows zu beschleunigen.

Image Super-Resolution

Geht es um Fotos, sind mehr Details immer besser. Image Super-Resolution erhöht die Bildauflösung zusätzlich und macht so den Weg frei für noch mehr Bilddetails. Das Open-Source-Tool verwendet ein ML-Modell, das Sie darauf trainieren können, die Details in einem Bild mit niedriger Auflösung zu “erraten”.

DeepPavlov

Viele Unternehmen und Konzerne bestücken ihre vorderste Kundendienst-Front mit Chatbots. DeepPavlov kombiniert grundlegende Tools für Machine Learning wie TensorFlow, Keras und PyTorch, um Chatbots zu erstellen. Die Ergebnisse sind – je nach Training – schrullig, seltsam und manchmal nützlich.

OpenCV

Eine fruchtbare Grundlage, um sich mit Machine Vision zu beschäftigen, ist die quelloffene Bibliothek OpenCV. Sie enthält diverse gängige Algorithmen, um Objekte in Bildern identifizieren, sowie spezielle Routinen, beispielsweise, um Nummernschilder an Autos zu erkennen.

Robocode

Das Java-basierte Programmierspiel Robocode lässt Ihren Panzer gegen andere im Kampf um die Vorherrschaft antreten. Das ist nicht nur ein unterhaltsamer Zeitvertreib, sondern kann auch nützlich sein, um neue Strategien für autonome Fahrzeuge zu testen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

11 Open-Source-Tools, die KI & ML transformieren​ Weiterlesen »

Die schlimmsten Tech-CEOs​

Allgemein

Diese Tech-CEOs sind von Vorschusslorbeeren sehr weit entfernt. Foto: Lensw0rld – shutterstock.com Irren ist bekanntlich menschlich. Allerdings können Irrtümer, Fehlannahmen – oder auch schlicht Dummheiten – im Fall von Führungskräften dafür sorgen, dass Unternehmen Unsummen verlieren, einst bedeutende Marken rasant zugrundegehen und sich ausufernde Entlassungswellen entfalten. Ganz zu schweigen von den Fällen, in denen kriminelle Energie eine Rolle spielt. Die große Karriere eines Managers, der dafür direkt verantwortlich gemacht werden kann, ist zwar im Regelfall vorbei – um die Zukunft müssen sich diese Kandidaten meist dennoch keine Sorgen machen. Zur Veranschaulichung einige herausragende Beispiele aus der Technologiewelt. Steve Ballmer (Microsoft) Nicht vielen CEOs schlug bereits während ihrer Amtszeit ein so heftiger Gegenwind ins Gesicht wie Ex-Microsoft-CEO Steve Ballmer. Im Jahr 2012 erklärte Forbes-Journalist Adam Hartung den wegen seiner ekstatischen Auftritte auch “Monkeyboy” genannten Manager gar zu dem Chief Executive Officer, der es am meisten verdient habe, sofort gefeuert zu werden. Er habe Microsoft nicht nur eigenhändig aus einigen der lukrativsten Tech-Märkte getrieben, sondern damit in der Folge auch Wachstum und Gewinne von Partnerunternehmen wie Dell, Hewlett Packard und Nokia geopfert: “Seine schlechte Führung reicht weit über den Tellerrand von Microsoft hinaus, wenn es darum geht, Shareholder Value und Jobs zu vernichten.” This never gets old. pic.twitter.com/ATyiZPIDCw— Zahid Khawaja (@chillzaza_) April 1, 2023 Tatsächlich kann man Ballmer durchaus einige Microsoft-Fiaskos ankreiden: Unter anderem: die Windows-Flops Vista und 8 sowie den von den Kunden verschmähten iPod-Konkurrenten Zune und das Debakel um Windows Phone beziehungsweise die Übernahme von Nokia. Fakt ist: Unter der Führung von Ballmer verschlechterte sich Microsofts Standing innerhalb der Technologiebranche maßgeblich. Unvergessen bleiben darüber hinaus natürlich auch seine unverblümten “Einordnungen” – etwa zu Linux (“Krebsgeschwür“) oder der Premiere von Apples iPhone (“wird bei Business-Kunden nicht ankommen“). Nachdem Ballmer 2013 von seinem CEO-Posten zurücktreten musste, schoss der Aktienkurs von Microsoft zwar in die Höhe – dennoch war sein Nachfolger Satya Nadella gezwungen, das Mobile-Desaster großflächig zu bereinigen. Dabei verloren im Jahr 2014 knapp 18.000 Mitarbeiter bei Nokia ihren Job. Nadella hat Microsoft inzwischen wieder auf einen vielversprechenden Weg zurückgeführt. Ballmer hingegen verzog sich ein Jahr nach seinem Rückzug als CEO auch aus dem Microsoft-Aufsichtsrat – kurz zuvor hatte er das NBA-Team der Los Angeles Clippers gekauft, das ihm bis heute gehört und zu neuen “Motivational Speeches” anspornt. Auch in der NBA hat es bislang allerdings nicht zum Meistertitel gereicht. Dennoch gehört der Ex-Microsoft-Manager laut Forbes zu den reichsten Menschen der Welt. Former Microsoft CEO Steve Ballmer has been trying to spend his way to an NBA championship from the start. The problem, of course, is that if money could buy championships, the fingers of both Ballmer’s hands would be weighted down with rings. https://t.co/VtGB5LHBtC— Forbes (@Forbes) March 26, 2023 Kay R. Whitmore (Kodak) Kay R. Whitmore war lediglich drei Jahre – von 1990 bis 1993 – der CEO von Kodak. Nichtsdestotrotz ist er ein Hauptakteur des zwischenzeitlichen Niedergangs der einstigen US-Fotofilm-Institution. Das Problem: Whitmore konnte – oder wollte – mit der digitalen Welt absolut nichts anfangen. Das könnte auch der Grund dafür gewesen sein, warum er im Jahr 1990 bei einem Meeting mit Bill Gates eingeschlafen sein soll, als eine mögliche Integration von Kodak-Photo-CDs mit Windows diskutiert wurde. Der CEO war fest davon überzeugt, dass die Zukunft des Unternehmens nicht in der Digitalfotografie, sondern wie gehabt im analogen Film- und Foto-Business liegen würde. Dabei waren es Techniker von Kodak, die bereits Mitte der 1970er Jahre die Digitalkamera erfunden hatten. Und auch die erste digitale Spiegelreflexkamera wurde 1989 von Kodak auf den Markt gebracht – eigentlich beste Voraussetzungen also, um auch in diesem Bereich direkt als Marktführer zu agieren. Das übernahmen mangels Commitment in der Folge dann Konkurrenten wie Nikon. Whitmore wurde schließlich 1993 entlassen. Sein Nachfolger George Fisher investierte dann zwar massiv ins Digital-Business – allerdings brachte das vor allem Produkt-Flops hervor. Auch danach hatte Kodak noch lange mit der mangelnden Voraussicht vergangener Zeiten zu kämpfen und war im Jahr 2012 schließlich gezwungen, Insolvenz anzumelden. Heutzutage ist das Unternehmen (in neuer Form) wieder aktiv – und versucht(e) sich unter anderem in den Bereichen Kryptowährungen, Drucktechnologie und Pharmazeutik. Das alles erlebte Whitmore allerdings nicht mehr mit – er starb bereits im Jahr 2004 im Alter von 72 Jahren. Carly Fiorina (HP) Carly Fiorina wurde im Jahr 1999 zum CEO von HP ernannt und im Jahr 2005 nach internen Auseinandersetzungen (und unzureichenden Ergebnissen) entlassen. In den sechs Jahren der Regentschaft Fiorinas büßte HP rund die Hälfte seines Werts ein. Der von ihr angestoßene Merger mit Compaq im Jahr 2001 gilt (trotz gutem Start) gemeinhin als (finanzieller) Fehlschlag. #Retrocomputing Carly Fiorina, CEO of HP, and Michael Capellas, CEO of Compaq, at the press conference at the Equitable building announcing Hewlett Packard’s acquisition of Compaq. (Photo by James Leynse/Corbis via Getty Images, 2001) pic.twitter.com/sNG2VHZEPs— Marty Mallavibarrena (@Mallavibarrena) April 1, 2023 Ihr Versuch, das Beratungshaus PwC zu übernehmen, konnte zwar durch den Vorstand abgewendet werden, ließ die CEO aber bereits in keinem guten Licht erscheinen. Dazu kam, dass die Managerin sich in Cost- (beziehungsweise Job-) Cutting-Arien übte, sich selbst parallel aber ausufernde Boni ausbezahlte. Das unrühmliche Ende als Chief Executive wurde Fiorina zusätzlich mit einer Abfindung von mehr als 21 Millionen Dollar versüßt. Anschließend verfasste sie ihre Autobiografie und startete eine Karriere in der Politik. Das gipfelte 2015 im glücklosen Bestreben, sich als US-Präsidentschaftskandidatin der Republikaner etablieren zu wollen. Eine Gelegenheit, die Fiorina nutzte, um unter anderem ihre Qualitäten als Führungskraft in den Fokus zu rücken. Für diverse Publikationen ein willkommener Anlass, um den unrühmlichen “Track Record”, den sich die Politikerin als ehemalige CEO von Hewlett Packard zugelegt hatte, noch einmal verdichtet zu präsentieren. Etwa Michael Barbaro von der New York Times: “Sie schwor den Werten des Unternehmens die Treue und zitierte gerne seine bescheidenen Gründer bei Meetings. Aber sie reiste in einer Limousine mit Chauffeur und legte bei ihrem Intro im Mitarbeiter-Newsletter Wert darauf zu betonen, eine 15-Meter-Yacht zu besitzen … Unter ihrer Verantwortung verloren 30.000 Mitarbeiter nach und nach im Rahmen einer Downsizing-Strategie ihren Job. Das wurde teilweise auch noch völlig unpersönlich kommuniziert – einige Mitarbeiter über das Telefon gefeuert.” Im weiteren Verlauf seines Artikels relativiert der Autor der New York Times allerdings, Fiorina habe es innerhalb der verkrusteten, traditionellen HP-Strukturen auch nicht leicht gehabt. Und auch beim Harvard Business Review zeigt man sich gespalten, wenn es um die Managerin geht: “Sie war genau die disruptive Führungskraft, die sie zu dieser Zeit sein musste – ließ dabei aber ein wesentliches Element vermissen: Sie hat sich nie die Zeit genommen, Beziehungen zu einzelnen Mitarbeitern aufzubauen, was sie am Ende den Support und das Commitment für ihre Initiativen gekostet hat.” Ein weiterer Job als CEO blieb Carly Fiorina seit ihrer HP-“Regentschaft” jedenfalls verwehrt. John Sculley (Apple) John Sculley wird nicht nur oft für den Beinahe-Niedergang von Apple Anfang der 1990er Jahre, sondern vor allem für die vorübergehende Entlassung von Steve Jobs verantwortlich gemacht. “Im Jahr 1985 überzeugte er den Vorstand, seinen Rivalen Steve Jobs von allen Managerpflichten zu entbinden – und drängte damit einen der größten Produktdesigner und Marketingmanager aller Zeiten aus dem Unternehmen”, schreibt etwa der Business Insider – und macht es sich damit unter Umständen etwas zu einfach. Zwei Jahre zuvor – 1983 – wurde John Sculley von Apple als CEO verpflichtet. Der Manager konnte zu diesem Zeitpunkt keine Technologieerfahrung vorweisen, hatte sich aber beim Getränkehersteller PepsiCo als gewiefter Chief Executive und Marketing-Genie bewiesen. In den kommenden Jahren kam es zu Meinungsverschiedenheiten zwischen Sculley und Jobs über die strategische Ausrichtung von Apple. John Sculley selbst schilderte im Jahr 2013 im Rahmen eines Konferenz-Events des Forbes Magazine die Geschehnisse folgendermaßen: Unstrittig ist hingegen, dass Sculley Apple in der Folge als CEO von einem Flop zum nächsten führte – wie etwa CNBC (beziehungsweise Portfolio.com) treffend beschreibt: “Obwohl er bei Pepsi als brillanter Marketingexperte galt, gab er als Top-Manager eines Technologieunternehmens ein desaströses Bild ab. Seine Amtszeit war geprägt von internen Streitigkeiten unter Führungskräften und teuren Projekten, die am Markt floppten (Erinnern Sie sich noch an den Apple Newton?).” Angesichts des mangelnden Erfolgs und seines für damalige Verhältnisse übergebührlichen Gehalts (laut CNBC war Sculley schon im Jahr 1987 mit einem Jahresgehalt von 2,2 Millionen Dollar der mit Abstand bestbezahlte Manager im Silicon Valley), hatte der Apple-Vorstand im Jahr 1993 genug und trennte sich von Sculley. Der hatte danach keinen CEO-Posten mehr inne und engagierte sich stattdessen in der Politik und als privater Investor. Steve Jobs wurde 1997 erneut CEO von Apple und schuf anschließend unter anderem mit iPod und iPhone die Basis für den heutigen Unternehmenserfolg. On this day in 1983: Apple recruits Pepsi’s John Sculley to be its CEO.“Do you want to sell sugar water for the rest of your life, or do you want to change the world?”~ Steve Jobspic.twitter.com/TVW0SRxafY— Jon Erlichman (@JonErlichman) April 8, 2021 Jonathan Schwartz (Sun Microsystems) Die Karriere von Jonathan Schwartz begann vielversprechend: Nach einem kurzen Aufenthalt bei McKinsey wurde er CEO beim Softwareunternehmen Lighthouse Design. Letzteres wurde im Jahr 1996 von Sun Microsystems geschluckt. Ein Jahr später war Schwartz bereits Marketing-Direktor beim bis dahin profitablen Tech-Riesen, den Gründer Scott McNealy als Big Player im Bereich Sever und Prozessoren etablieren konnte. McNealy war es auch, der Schwartz im Jahr 2006 zu seinem Nachfolger und dem neuen CEO von Sun berief. Was dann folgte war eine Kombination aus unglücklichen wirtschaftlichen Umständen und verheerenden strategischen Fehlentscheidungen. Sun verlor massiv Marktanteile an Oracle, HP und IBM – Schwartz war nicht in der Lage, den Trend zu stoppen. Der Wert des Unternehmens brach Ende 2007 massiv ein, knapp 6.000 Jobs gingen in der Folge verloren. Die Akquisition von MySQL blieb ebenso erfolglos wie die Suche nach einem nachhaltigen Monetarisierungsmodell für Java. Der Business Insider bringt das Resultat von Schwartz Regentschaft als Sun-CEO auf den Punkt: “Als Sun Microsystems von Oracle für 7,4 Milliarden Dollar gekauft wurde, hatte sein hipper, bloggender, Pferdeschwanz-tragender CEO Jonathan Schwartz die Zukunftsaussichten des Unternehmens dermaßen ruiniert, dass eine Akquisition der letzte Ausweg war. Sun hätte zu einem der größten Enterprise-Technologie-Giganten der Welt werden können – im Gegensatz zu Larry Ellison hat Schwartz diese Chance vergeben.” Mit seinem Abgang bei Sun Microsystems blieb Schwartz seiner Linie treu und konnte noch einmal mit einer “Innovation” glänzen: Er verkündete seinen Abschied in Haiku-Form auf Twitter – im Jahr 2010 ein bis dato unbekannter Stilbruch innerhalb der Enterprise-Tech-Welt: Schwartz ist auch heutzutage noch Chief Executive – inzwischen beim US-Life-Sciences-Unternehmen Invaio. George Shaheen (Webvan) Webvan war Ende der 1990er Jahre eines der vielversprechendsten Internet-Startups der USA und wollte mit internetbasierten Lebensmittelbestellungen ab 1996 nicht nur das Supermarkt-Business revolutionieren. Verantworten sollte diesen Umbruch George Shaheen, bis 1999 (erfolgreicher) CEO der Unternehmensberatung Andersen Consulting (heute bekannt als Accenture). Der Wechsel zum bis dato unbekannten Startup Webvan dürfte dem Manager nicht leichtgefallen sein, schließlich führte er bei Andersen rund 65.000 Mitarbeiter und kassierte ein stattliches Jahresgehalt von vier Millionen Dollar. Möglicherweise ließ sich Shaheen von der Kombination aus Aktienoptionen und Dot-Com-Boom dazu verleiten, wie das Manager Magazin bereits 2001 nahelegte. Ab dem Jahr 2000 investierte Webvan Milliardensummen in seine Expansion – die Mitarbeiterzahl stieg in der Spitze auf über 4.000 an. Allerdings fiel Shaheen seine mangelnde Erfahrung in der Lebensmittelbranche nach und nach auf die Füße. Der Business Insider sieht in Shaheen ein leuchtendes Beispiel für einen besonders schlechten Manager. Die Begründung: “Webvan hat alles daran gesetzt, einen Lebensmittel-Onlinehandel auzubauen – zuletzt mit der Übernahme von HomeGrocer im Juni 2000. Dieser Fehler hat die Cash-Burn-Rate von Webvan noch gesteigert, die Logistik-Voraussetzungen, die hätten geschaffen werden müssen, um dieses Geschäftsmodell umzusetzen, waren ein Albtraum. Shaheen hat nie verstanden, dass die Retailer in dieser Branche von minimalen Margen leben und Webvan hatte nicht die Kundenbasis, um das zu ändern. Der wahrscheinlich schlimmste Fehler von Shaheen war jedoch, den Börsengang von Webvan abzusegnen, für den 375 Millionen Dollar Finanzierungskapital von Aktionären im Rahmen eines IPO aufgebracht wurden. Davon wurde quasi nichts zurückgezahlt. Shaheen nimmt unter den schlechtesten CEOs eine ganz besondere Rolle ein, denn er inzensierte sich als Andersen-Führungskraft als einen der größten Unternehmensberater aller Zeiten. Allerdings hat er scheinbar keinerlei Bemühungen gemacht, das Geschäftsmodell von Webvan zu überprüfen oder mit dem Vorstand und seinen Management-Kollegen zusammenzuarbeiten.” Archive cleaning: Grok, December 2000, peaking web 1.0 and the end of Y2K mania. “Webvan wants to take on Amazon and Walmart, FedEx and UPS. Can George Shaheen persuade dubious investors to go along for the ride?”A: yes, for a billion or more, and it all ended in tears pic.twitter.com/Af4T0WFqKj— Mark Madsen (find me on b-sky) (@markmadsen) March 17, 2023 Tatsächlich war Shaheen schon als Andersen-Chefberater eine polarisierende Figur, die auch in einer von einem Mitarbeiter heimlich kreierten Comic-Parodie (“Bigtime Consulting“) persifliert wurde. 2001 beendete Shaheen sein Gastspiel bei Webvan – kurz bevor das Unternehmen Insolvenz anmelden musste. Der Manager wurde 2005 zum CEO von Siebel Systems ernannt (2006 von Oracle geschluckt). Seit 2013 sitzt Shaheen im Vorstand des KI-Startups [24]7.ai. Die Webvan-Episode scheint er dabei zielgerichtet aus seinem Lebenslauf getilgt zu haben, wie ein Blick auf sein Unternehmensprofil zeigt. Sam Bankman-Fried (FTX) Er wurde als “Krypto-Wunderkind”, “nächster Warren Buffet” und “Michael Jordan der Kryptowelt” gefeiert und zierte die Cover von Forbes und Fortune: Sam Bankman-Fried, Gründer und ehemaliger CEO der Kryptobörse FTX. Anfang 2022 folgte dann der tiefe Fall. Gerüchte über fadenscheinige Geschäfte zwischen FTX und seinem Schwester-Hedgefund Alameda Research kursierten im Netz und führten dazu, dass die Kunden in Scharen ihre Assets abzogen – beziehungsweise abziehen wollten. Zu diesem Zeitpunkt stellte Bankman-Fried das Ganze noch als eine von der Konkurrenz lancierte Aktion dar, mit der FTX Schaden zugefügt werden solle. In einem längst gelöschten Tweet versprach er: “FTX geht es gut. Die Assets sind sicher.” Wie “gut”, stellte sich wenig später heraus, als eine überraschend ins Spiel gebrachte Übernahme von FTX durch den Hauptkonkurrenten Binance platzte, nachdem deren Due-Diligence-Prüfung negativ ausgefallen war (und weitere Details zu den Business-Praktiken von FTX und Alameda ans Tageslicht gekommen waren): As a result of corporate due diligence, as well as the latest news reports regarding mishandled customer funds and alleged US agency investigations, we have decided that we will not pursue the potential acquisition of https://t.co/FQ3MIG381f.— Binance (@binance) November 9, 2022 Für Sam Bankman-Fried, der bis heute jegliche illegale Aktivitäten abstreitet, war das alles kein Grund, auf “low profile” umzuschalten: Er nahm diverse Gelegenheiten wahr, in Interviews, Podcasts und zu anderen Gelegenheiten in Erscheinung zu treten, um sich den Fragen von Journalisten, Influencern und Anlegern zu stellen. Dabei zog er allerdings vor allem weiteren Unmut auf sich – nicht nur mit wenig glaubwürdigen Unschuldsbeteuerungen sondern auch mit der moderat respektlosen Angewohnheit, während Unterhaltungen Videospiele zu spielen. Ende 2022 wurde der EX-FTX-CEO schließlich auf den Bahamas verhaftet und im Anschluss an die USA ausgeliefert. Zu einem mit Spannung erwarteten Interview vor dem US-Kongress kam es deswegen nicht mehr. An Stelle des Ex-CEOs nahm sein Nachfolger, Ex-Enron-Insolvenzverwalter John J. Ray, diese Gelegenheit wahr. Er zeichnete ein schockierendes Bild von den Zuständen bei der Krypto-Company: “In meiner beruflichen Laufbahn habe ich ein Versagen dieses Ausmaßes bislang noch nicht erlebt. Unternehmerische Kontrollen und vertrauenswürdige Finanzinformationen sind quasi nicht existent. Dazu kommen kompromittierte Systeme, mangelhafte regulatorische Kontrollen im Ausland und eine Machtkonzentration zugunsten einer kleinen Gruppe von unerfahrenen, unbedarften und potenziell nicht vertrauenswürdigen Personen. Die Situation ist beispiellos … Die FTX-Gruppe hatte keine zentrale Kontrolle über ihre Barmittel … Eine Buchhaltung war nicht existent … Bis jetzt war FTX nicht in der Lage, eine vollständige Liste seiner Mitarbeiter zu erstellen. Wiederholte Versuche, mutmaßliche Angestellte ausfindig zu machen, um ihren Status zu bestätigen, blieben bislang erfolglos … Einer der gravierendsten Mängel des Geschäfts von FTX.com ist, dass die Prozesse der Entscheidungsfindung nicht nachvollziehbar sind. Mr. Bankman-Fried kommunizierte oft über Apps, die so eingestellt waren, dass sich die Nachrichten nach dem Empfang automatisch löschten. Er ermutigte seine Mitarbeiter dazu, es ihm gleichzutun.” Bankman-Fried wurde nach seiner Auslieferung gegen eine Kaution von 250 Millionen Dollar auf freien Fuß gesetzt und mit einer elektronischen Fußfessel ausgestattet. Sein Prozess in den USA begann am 3. Oktober 2023 und endete knapp einen Monat später mit einem Schuldspruch durch die Jury in allen Anklagepunkten. Das Strafmaß wurde im März 2024 verkündet und liegt bei 25 Jahren. Zudem wurde eine Geldstrafe in Höhe von 11 MIlliarden US-Dollar gegen den Ex-CEO verhängt. Maßgeblichen Anteil an der Verurteilung von Bankman-Fried hatten dabei seine ehemals engsten Mitstreiter bei FTX. Caroline Ellison (Ex-CEO von Alameda Research) und Gary Wang (ehemals CTO von FTX) gingen jeweils einen Deal mit der US-Staatsanwaltschaft ein und sagten gegen SBF aus. Dr. Markus Braun (Wirecard) Wirecard war einst das deutsche Tech-Vorzeigeunternehmen und legte seit seiner Gründung im Jahr 1999 einen steilen Aufstieg zum DAX-Konzern hin. Mitte 2020 brach das von Politik und Investoren hofierte Unternehmen dann – mehr oder weniger überraschend – in sich zusammen. Journalisten, vor allem der Financial Times, hatten zuvor bereits einige Jahre lang immer wieder auf mögliche Unregelmäßigkeiten bei Wirecard hingewiesen. Das gipfelte im Jahr 2019 in einer Klage von Wirecard gegen die Financial Times wegen angeblich falscher Berichterstattung. Allerdings wurden trotz der Hinweise weder seitens der deutschen Bankenaufsicht Bafin (von 2018 bis 2021 dem damaligen SPD-Finanzminister Olaf Scholz unterstellt) noch der Staatsanwaltschaft Untersuchungen eingeleitet. Ein schwerer Fehler, wie sich im Nachgang zeigte: Rund 1,9 Milliarden Euro, die in den Wirecard-Bilanzen als Guthaben verbucht wurden, waren Mitte 2020 verschwunden – oder nie existent. Kurz nachdem das öffentlich bekannt wurde, sagte CEO Dr. Markus Braun auf einer Pressekonferenz, er könne nicht ausschließen, dass sein Unternehmen “in einem Betrugsfall erheblichen Ausmaßes zum Geschädigten geworden ist“. Kurze Zeit später wurde der Manager verhaftet – er sitzt (nach einem kurzen Kautionszwischenspiel) mittlerweile seit knapp drei Jahren in Untersuchungshaft. Die Staatsanwaltschaft München wirft Braun und den anderen Angeklagten unter anderem vor: gewerbsmäßigen Bandenbetrug, Veruntreuung von Konzerngeldern, Bilanzfälschung sowie Marktmanipulation. Zum Auftakt des Wirecard-Strafprozesses bei dem sich Braun und weitere ehemalige Manager des Unternehmens verantworten müssen, bestritt der Ex-CEO die Vorwürfe: “Ich hatte keinerlei Kenntnisse von Fälschungen oder Veruntreuungen”. Bei einer Verurteilung könnten dem gebürtigen Österreicher bis zu zehn Jahre Haft drohen. Um Schadenersatz für die zahlreichen Kleinanleger, denen durch die Wirecard-Pleite ein Gesamtschaden in Höhe von knapp 20 Milliarden Euro entstanden ist, geht es in diesem Verfahren nicht. Diesbezüglich müssen sich seit 2020 die Wirtschaftsprüfer von EY verantworten, die die Wirecard-Bilanzen über einen Zeitraum von zehn Jahren abgesegnet hatten. Die grundlegende Frage, die beim Strafprozess zu klären ist: Gab es die fehlenden knapp zwei Milliarden Euro oder handelte es sich um Scheingeschäfte? Und falls ja: Wurde der Mann, der Wirecard mehr als 18 Jahre lang führte, tatsächlich selbst zum Opfer und hat nichts vom Milliardenbetrug mitbekommen? Der mitangeklagte Oliver Bellenhaus, ehemals verantwortlich für das Wirecard-Geschäft im Nahen Osten, hat seinerseits ein Geständnis abgelegt und Braun dabei schwer belastet. Eine tragende Rolle beim Wirecard-Skandal spielt darüber hinaus auch der flüchtige Ex-COO Jan Marsalek, der sich aktuell in Russland aufhalten soll. Er ließ der Staatsanwaltschaft München über seinen Anwalt einen Brief zukommen, dessen Inhalt Brauns Unschuld stützen soll. Der Prozess vor dem Landgericht München I dauert an. Schon vor Prozessbeginn hatte Braun weiteren Unmut auf sich gezogen, als er im Rahmen eines Untersuchungsausschuss des deutschen Bundestags zum Wirecard-Skandal vor allem dadurch auffiel, sich nicht erklären zu wollen. Florian Toncar, FDP-Obmann im Untersuchungsausschuss des Bundestags zum Wirecard-Skandal, zog ein vernichtendes Fazit: “Der Fall Wirecard ist eine Katastrophe für den Finanzplatz Deutschland und eine Bankrotterklärung der beteiligten Wirtschaftsprüfer und Aufsichtsbehörden.” Zum Prozessauftakt Ende Dezember 2022 äußerte sich Dr. Marc Liebscher, Rechtsanwalt und Vorstand der Schutzgemeinschaft der Kapitalanleger (SdK) im Interview mit dem Bayerischen Rundfunk zu seinen Erwartungen hinsichtlich des Strafprozesses gegen Braun und Co. – und sparte dabei ebenfalls nicht an Kritik gegenüber Politik und Behörden: “Hier ist heute nicht viel zu erwarten – vor allem wenn man sich klar darüber wird, dass die Staatsanwälte die hier die Anklage verlesen, genau jene sind, die die ganzen Jahre immer wieder Verfahren gegen Wirecard eingestellt haben. Sie haben bei der Bafin insistiert, dass diese Wirecard schützt und sind auf Finanzjournalisten losgegangen, die gegen das Unternehmen Vorwürfe erhoben haben. Es ist nicht nachvollziehbar, was hier die letzten Jahre in München passiert ist.” Dass sich Ex-Wirecard-CEO Dr. Braun trotz allem wenig Sorgen um sein persönliches finanzielles Auskommen machen muss, legt ein Handelsblatt-Bericht aus dem Jahr 2022 nahe. Demnach habe Braun zwar in einer eidesstattlichen Versicherung angegeben, dass sein gesamtes Vermögen in Höhe von 75 Millionen Euro gepfändet sei. Allerdings soll er in seiner Zeit als CEO ein erkleckliches Vermögen (vor allem in Form von Luxusimmobilien in München und Wien) angehäuft haben. Es steht der Verdacht im Raum, dass er dieses in Teilen mit Hilfe seiner Ehefrau und Schwester verschoben haben soll, um es vor einer Pfändung zu schützen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die schlimmsten Tech-CEOs​ Diese Tech-CEOs sind von Vorschusslorbeeren sehr weit entfernt.
Foto: Lensw0rld – shutterstock.com

Irren ist bekanntlich menschlich. Allerdings können Irrtümer, Fehlannahmen – oder auch schlicht Dummheiten – im Fall von Führungskräften dafür sorgen, dass Unternehmen Unsummen verlieren, einst bedeutende Marken rasant zugrundegehen und sich ausufernde Entlassungswellen entfalten. Ganz zu schweigen von den Fällen, in denen kriminelle Energie eine Rolle spielt.

Die große Karriere eines Managers, der dafür direkt verantwortlich gemacht werden kann, ist zwar im Regelfall vorbei – um die Zukunft müssen sich diese Kandidaten meist dennoch keine Sorgen machen. Zur Veranschaulichung einige herausragende Beispiele aus der Technologiewelt.

Steve Ballmer (Microsoft)

Nicht vielen CEOs schlug bereits während ihrer Amtszeit ein so heftiger Gegenwind ins Gesicht wie Ex-Microsoft-CEO Steve Ballmer. Im Jahr 2012 erklärte Forbes-Journalist Adam Hartung den wegen seiner ekstatischen Auftritte auch “Monkeyboy” genannten Manager gar zu dem Chief Executive Officer, der es am meisten verdient habe, sofort gefeuert zu werden. Er habe Microsoft nicht nur eigenhändig aus einigen der lukrativsten Tech-Märkte getrieben, sondern damit in der Folge auch Wachstum und Gewinne von Partnerunternehmen wie Dell, Hewlett Packard und Nokia geopfert:

“Seine schlechte Führung reicht weit über den Tellerrand von Microsoft hinaus, wenn es darum geht, Shareholder Value und Jobs zu vernichten.”

This never gets old. pic.twitter.com/ATyiZPIDCw— Zahid Khawaja (@chillzaza_) April 1, 2023

Tatsächlich kann man Ballmer durchaus einige Microsoft-Fiaskos ankreiden: Unter anderem:

die Windows-Flops Vista und 8 sowie

den von den Kunden verschmähten iPod-Konkurrenten Zune und

das Debakel um Windows Phone beziehungsweise die Übernahme von Nokia.

Fakt ist: Unter der Führung von Ballmer verschlechterte sich Microsofts Standing innerhalb der Technologiebranche maßgeblich. Unvergessen bleiben darüber hinaus natürlich auch seine unverblümten “Einordnungen” – etwa zu Linux (“Krebsgeschwür“) oder der Premiere von Apples iPhone (“wird bei Business-Kunden nicht ankommen“).

Nachdem Ballmer 2013 von seinem CEO-Posten zurücktreten musste, schoss der Aktienkurs von Microsoft zwar in die Höhe – dennoch war sein Nachfolger Satya Nadella gezwungen, das Mobile-Desaster großflächig zu bereinigen. Dabei verloren im Jahr 2014 knapp 18.000 Mitarbeiter bei Nokia ihren Job. Nadella hat Microsoft inzwischen wieder auf einen vielversprechenden Weg zurückgeführt. Ballmer hingegen verzog sich ein Jahr nach seinem Rückzug als CEO auch aus dem Microsoft-Aufsichtsrat – kurz zuvor hatte er das NBA-Team der Los Angeles Clippers gekauft, das ihm bis heute gehört und zu neuen “Motivational Speeches” anspornt. Auch in der NBA hat es bislang allerdings nicht zum Meistertitel gereicht. Dennoch gehört der Ex-Microsoft-Manager laut Forbes zu den reichsten Menschen der Welt.

Former Microsoft CEO Steve Ballmer has been trying to spend his way to an NBA championship from the start. The problem, of course, is that if money could buy championships, the fingers of both Ballmer’s hands would be weighted down with rings. https://t.co/VtGB5LHBtC— Forbes (@Forbes) March 26, 2023

Kay R. Whitmore (Kodak)

Kay R. Whitmore war lediglich drei Jahre – von 1990 bis 1993 – der CEO von Kodak. Nichtsdestotrotz ist er ein Hauptakteur des zwischenzeitlichen Niedergangs der einstigen US-Fotofilm-Institution. Das Problem: Whitmore konnte – oder wollte – mit der digitalen Welt absolut nichts anfangen. Das könnte auch der Grund dafür gewesen sein, warum er im Jahr 1990 bei einem Meeting mit Bill Gates eingeschlafen sein soll, als eine mögliche Integration von Kodak-Photo-CDs mit Windows diskutiert wurde.

Der CEO war fest davon überzeugt, dass die Zukunft des Unternehmens nicht in der Digitalfotografie, sondern wie gehabt im analogen Film- und Foto-Business liegen würde. Dabei waren es Techniker von Kodak, die bereits Mitte der 1970er Jahre die Digitalkamera erfunden hatten. Und auch die erste digitale Spiegelreflexkamera wurde 1989 von Kodak auf den Markt gebracht – eigentlich beste Voraussetzungen also, um auch in diesem Bereich direkt als Marktführer zu agieren. Das übernahmen mangels Commitment in der Folge dann Konkurrenten wie Nikon.

Whitmore wurde schließlich 1993 entlassen. Sein Nachfolger George Fisher investierte dann zwar massiv ins Digital-Business – allerdings brachte das vor allem Produkt-Flops hervor. Auch danach hatte Kodak noch lange mit der mangelnden Voraussicht vergangener Zeiten zu kämpfen und war im Jahr 2012 schließlich gezwungen, Insolvenz anzumelden. Heutzutage ist das Unternehmen (in neuer Form) wieder aktiv – und versucht(e) sich unter anderem in den Bereichen Kryptowährungen, Drucktechnologie und Pharmazeutik. Das alles erlebte Whitmore allerdings nicht mehr mit – er starb bereits im Jahr 2004 im Alter von 72 Jahren.

Carly Fiorina (HP)

Carly Fiorina wurde im Jahr 1999 zum CEO von HP ernannt und im Jahr 2005 nach internen Auseinandersetzungen (und unzureichenden Ergebnissen) entlassen. In den sechs Jahren der Regentschaft Fiorinas büßte HP rund die Hälfte seines Werts ein. Der von ihr angestoßene Merger mit Compaq im Jahr 2001 gilt (trotz gutem Start) gemeinhin als (finanzieller) Fehlschlag.

#Retrocomputing Carly Fiorina, CEO of HP, and Michael Capellas, CEO of Compaq, at the press conference at the Equitable building announcing Hewlett Packard’s acquisition of Compaq. (Photo by James Leynse/Corbis via Getty Images, 2001) pic.twitter.com/sNG2VHZEPs— Marty Mallavibarrena (@Mallavibarrena) April 1, 2023

Ihr Versuch, das Beratungshaus PwC zu übernehmen, konnte zwar durch den Vorstand abgewendet werden, ließ die CEO aber bereits in keinem guten Licht erscheinen. Dazu kam, dass die Managerin sich in Cost- (beziehungsweise Job-) Cutting-Arien übte, sich selbst parallel aber ausufernde Boni ausbezahlte. Das unrühmliche Ende als Chief Executive wurde Fiorina zusätzlich mit einer Abfindung von mehr als 21 Millionen Dollar versüßt. Anschließend verfasste sie ihre Autobiografie und startete eine Karriere in der Politik.

Das gipfelte 2015 im glücklosen Bestreben, sich als US-Präsidentschaftskandidatin der Republikaner etablieren zu wollen. Eine Gelegenheit, die Fiorina nutzte, um unter anderem ihre Qualitäten als Führungskraft in den Fokus zu rücken. Für diverse Publikationen ein willkommener Anlass, um den unrühmlichen “Track Record”, den sich die Politikerin als ehemalige CEO von Hewlett Packard zugelegt hatte, noch einmal verdichtet zu präsentieren. Etwa Michael Barbaro von der New York Times:

“Sie schwor den Werten des Unternehmens die Treue und zitierte gerne seine bescheidenen Gründer bei Meetings. Aber sie reiste in einer Limousine mit Chauffeur und legte bei ihrem Intro im Mitarbeiter-Newsletter Wert darauf zu betonen, eine 15-Meter-Yacht zu besitzen … Unter ihrer Verantwortung verloren 30.000 Mitarbeiter nach und nach im Rahmen einer Downsizing-Strategie ihren Job. Das wurde teilweise auch noch völlig unpersönlich kommuniziert – einige Mitarbeiter über das Telefon gefeuert.”

Im weiteren Verlauf seines Artikels relativiert der Autor der New York Times allerdings, Fiorina habe es innerhalb der verkrusteten, traditionellen HP-Strukturen auch nicht leicht gehabt. Und auch beim Harvard Business Review zeigt man sich gespalten, wenn es um die Managerin geht:

“Sie war genau die disruptive Führungskraft, die sie zu dieser Zeit sein musste – ließ dabei aber ein wesentliches Element vermissen: Sie hat sich nie die Zeit genommen, Beziehungen zu einzelnen Mitarbeitern aufzubauen, was sie am Ende den Support und das Commitment für ihre Initiativen gekostet hat.”

Ein weiterer Job als CEO blieb Carly Fiorina seit ihrer HP-“Regentschaft” jedenfalls verwehrt.

John Sculley (Apple)

John Sculley wird nicht nur oft für den Beinahe-Niedergang von Apple Anfang der 1990er Jahre, sondern vor allem für die vorübergehende Entlassung von Steve Jobs verantwortlich gemacht. “Im Jahr 1985 überzeugte er den Vorstand, seinen Rivalen Steve Jobs von allen Managerpflichten zu entbinden – und drängte damit einen der größten Produktdesigner und Marketingmanager aller Zeiten aus dem Unternehmen”, schreibt etwa der Business Insider – und macht es sich damit unter Umständen etwas zu einfach.

Zwei Jahre zuvor – 1983 – wurde John Sculley von Apple als CEO verpflichtet. Der Manager konnte zu diesem Zeitpunkt keine Technologieerfahrung vorweisen, hatte sich aber beim Getränkehersteller PepsiCo als gewiefter Chief Executive und Marketing-Genie bewiesen. In den kommenden Jahren kam es zu Meinungsverschiedenheiten zwischen Sculley und Jobs über die strategische Ausrichtung von Apple. John Sculley selbst schilderte im Jahr 2013 im Rahmen eines Konferenz-Events des Forbes Magazine die Geschehnisse folgendermaßen:

Unstrittig ist hingegen, dass Sculley Apple in der Folge als CEO von einem Flop zum nächsten führte – wie etwa CNBC (beziehungsweise Portfolio.com) treffend beschreibt:

“Obwohl er bei Pepsi als brillanter Marketingexperte galt, gab er als Top-Manager eines Technologieunternehmens ein desaströses Bild ab. Seine Amtszeit war geprägt von internen Streitigkeiten unter Führungskräften und teuren Projekten, die am Markt floppten (Erinnern Sie sich noch an den Apple Newton?).”

Angesichts des mangelnden Erfolgs und seines für damalige Verhältnisse übergebührlichen Gehalts (laut CNBC war Sculley schon im Jahr 1987 mit einem Jahresgehalt von 2,2 Millionen Dollar der mit Abstand bestbezahlte Manager im Silicon Valley), hatte der Apple-Vorstand im Jahr 1993 genug und trennte sich von Sculley. Der hatte danach keinen CEO-Posten mehr inne und engagierte sich stattdessen in der Politik und als privater Investor. Steve Jobs wurde 1997 erneut CEO von Apple und schuf anschließend unter anderem mit iPod und iPhone die Basis für den heutigen Unternehmenserfolg.

On this day in 1983: Apple recruits Pepsi’s John Sculley to be its CEO.“Do you want to sell sugar water for the rest of your life, or do you want to change the world?”~ Steve Jobspic.twitter.com/TVW0SRxafY— Jon Erlichman (@JonErlichman) April 8, 2021

Jonathan Schwartz (Sun Microsystems)

Die Karriere von Jonathan Schwartz begann vielversprechend: Nach einem kurzen Aufenthalt bei McKinsey wurde er CEO beim Softwareunternehmen Lighthouse Design. Letzteres wurde im Jahr 1996 von Sun Microsystems geschluckt. Ein Jahr später war Schwartz bereits Marketing-Direktor beim bis dahin profitablen Tech-Riesen, den Gründer Scott McNealy als Big Player im Bereich Sever und Prozessoren etablieren konnte. McNealy war es auch, der Schwartz im Jahr 2006 zu seinem Nachfolger und dem neuen CEO von Sun berief.

Was dann folgte war eine Kombination aus unglücklichen wirtschaftlichen Umständen und verheerenden strategischen Fehlentscheidungen. Sun verlor massiv Marktanteile an Oracle, HP und IBM – Schwartz war nicht in der Lage, den Trend zu stoppen. Der Wert des Unternehmens brach Ende 2007 massiv ein, knapp 6.000 Jobs gingen in der Folge verloren. Die Akquisition von MySQL blieb ebenso erfolglos wie die Suche nach einem nachhaltigen Monetarisierungsmodell für Java.

Der Business Insider bringt das Resultat von Schwartz Regentschaft als Sun-CEO auf den Punkt:

“Als Sun Microsystems von Oracle für 7,4 Milliarden Dollar gekauft wurde, hatte sein hipper, bloggender, Pferdeschwanz-tragender CEO Jonathan Schwartz die Zukunftsaussichten des Unternehmens dermaßen ruiniert, dass eine Akquisition der letzte Ausweg war. Sun hätte zu einem der größten Enterprise-Technologie-Giganten der Welt werden können – im Gegensatz zu Larry Ellison hat Schwartz diese Chance vergeben.”

Mit seinem Abgang bei Sun Microsystems blieb Schwartz seiner Linie treu und konnte noch einmal mit einer “Innovation” glänzen: Er verkündete seinen Abschied in Haiku-Form auf Twitter – im Jahr 2010 ein bis dato unbekannter Stilbruch innerhalb der Enterprise-Tech-Welt:

Schwartz ist auch heutzutage noch Chief Executive – inzwischen beim US-Life-Sciences-Unternehmen Invaio.

George Shaheen (Webvan)

Webvan war Ende der 1990er Jahre eines der vielversprechendsten Internet-Startups der USA und wollte mit internetbasierten Lebensmittelbestellungen ab 1996 nicht nur das Supermarkt-Business revolutionieren. Verantworten sollte diesen Umbruch George Shaheen, bis 1999 (erfolgreicher) CEO der Unternehmensberatung Andersen Consulting (heute bekannt als Accenture).

Der Wechsel zum bis dato unbekannten Startup Webvan dürfte dem Manager nicht leichtgefallen sein, schließlich führte er bei Andersen rund 65.000 Mitarbeiter und kassierte ein stattliches Jahresgehalt von vier Millionen Dollar. Möglicherweise ließ sich Shaheen von der Kombination aus Aktienoptionen und Dot-Com-Boom dazu verleiten, wie das Manager Magazin bereits 2001 nahelegte.

Ab dem Jahr 2000 investierte Webvan Milliardensummen in seine Expansion – die Mitarbeiterzahl stieg in der Spitze auf über 4.000 an. Allerdings fiel Shaheen seine mangelnde Erfahrung in der Lebensmittelbranche nach und nach auf die Füße. Der Business Insider sieht in Shaheen ein leuchtendes Beispiel für einen besonders schlechten Manager. Die Begründung:

“Webvan hat alles daran gesetzt, einen Lebensmittel-Onlinehandel auzubauen – zuletzt mit der Übernahme von HomeGrocer im Juni 2000. Dieser Fehler hat die Cash-Burn-Rate von Webvan noch gesteigert, die Logistik-Voraussetzungen, die hätten geschaffen werden müssen, um dieses Geschäftsmodell umzusetzen, waren ein Albtraum. Shaheen hat nie verstanden, dass die Retailer in dieser Branche von minimalen Margen leben und Webvan hatte nicht die Kundenbasis, um das zu ändern. Der wahrscheinlich schlimmste Fehler von Shaheen war jedoch, den Börsengang von Webvan abzusegnen, für den 375 Millionen Dollar Finanzierungskapital von Aktionären im Rahmen eines IPO aufgebracht wurden. Davon wurde quasi nichts zurückgezahlt. Shaheen nimmt unter den schlechtesten CEOs eine ganz besondere Rolle ein, denn er inzensierte sich als Andersen-Führungskraft als einen der größten Unternehmensberater aller Zeiten. Allerdings hat er scheinbar keinerlei Bemühungen gemacht, das Geschäftsmodell von Webvan zu überprüfen oder mit dem Vorstand und seinen Management-Kollegen zusammenzuarbeiten.”

Archive cleaning: Grok, December 2000, peaking web 1.0 and the end of Y2K mania. “Webvan wants to take on Amazon and Walmart, FedEx and UPS. Can George Shaheen persuade dubious investors to go along for the ride?”A: yes, for a billion or more, and it all ended in tears pic.twitter.com/Af4T0WFqKj— Mark Madsen (find me on b-sky) (@markmadsen) March 17, 2023

Tatsächlich war Shaheen schon als Andersen-Chefberater eine polarisierende Figur, die auch in einer von einem Mitarbeiter heimlich kreierten Comic-Parodie (“Bigtime Consulting“) persifliert wurde. 2001 beendete Shaheen sein Gastspiel bei Webvan – kurz bevor das Unternehmen Insolvenz anmelden musste.

Der Manager wurde 2005 zum CEO von Siebel Systems ernannt (2006 von Oracle geschluckt). Seit 2013 sitzt Shaheen im Vorstand des KI-Startups [24]7.ai. Die Webvan-Episode scheint er dabei zielgerichtet aus seinem Lebenslauf getilgt zu haben, wie ein Blick auf sein Unternehmensprofil zeigt.

Sam Bankman-Fried (FTX)

Er wurde als “Krypto-Wunderkind”, “nächster Warren Buffet” und “Michael Jordan der Kryptowelt” gefeiert und zierte die Cover von Forbes und Fortune: Sam Bankman-Fried, Gründer und ehemaliger CEO der Kryptobörse FTX. Anfang 2022 folgte dann der tiefe Fall. Gerüchte über fadenscheinige Geschäfte zwischen FTX und seinem Schwester-Hedgefund Alameda Research kursierten im Netz und führten dazu, dass die Kunden in Scharen ihre Assets abzogen – beziehungsweise abziehen wollten. Zu diesem Zeitpunkt stellte Bankman-Fried das Ganze noch als eine von der Konkurrenz lancierte Aktion dar, mit der FTX Schaden zugefügt werden solle. In einem längst gelöschten Tweet versprach er: “FTX geht es gut. Die Assets sind sicher.”

Wie “gut”, stellte sich wenig später heraus, als eine überraschend ins Spiel gebrachte Übernahme von FTX durch den Hauptkonkurrenten Binance platzte, nachdem deren Due-Diligence-Prüfung negativ ausgefallen war (und weitere Details zu den Business-Praktiken von FTX und Alameda ans Tageslicht gekommen waren):

As a result of corporate due diligence, as well as the latest news reports regarding mishandled customer funds and alleged US agency investigations, we have decided that we will not pursue the potential acquisition of https://t.co/FQ3MIG381f.— Binance (@binance) November 9, 2022

Für Sam Bankman-Fried, der bis heute jegliche illegale Aktivitäten abstreitet, war das alles kein Grund, auf “low profile” umzuschalten: Er nahm diverse Gelegenheiten wahr, in Interviews, Podcasts und zu anderen Gelegenheiten in Erscheinung zu treten, um sich den Fragen von Journalisten, Influencern und Anlegern zu stellen. Dabei zog er allerdings vor allem weiteren Unmut auf sich – nicht nur mit wenig glaubwürdigen Unschuldsbeteuerungen sondern auch mit der moderat respektlosen Angewohnheit, während Unterhaltungen Videospiele zu spielen.

Ende 2022 wurde der EX-FTX-CEO schließlich auf den Bahamas verhaftet und im Anschluss an die USA ausgeliefert. Zu einem mit Spannung erwarteten Interview vor dem US-Kongress kam es deswegen nicht mehr. An Stelle des Ex-CEOs nahm sein Nachfolger, Ex-Enron-Insolvenzverwalter John J. Ray, diese Gelegenheit wahr. Er zeichnete ein schockierendes Bild von den Zuständen bei der Krypto-Company:

“In meiner beruflichen Laufbahn habe ich ein Versagen dieses Ausmaßes bislang noch nicht erlebt. Unternehmerische Kontrollen und vertrauenswürdige Finanzinformationen sind quasi nicht existent. Dazu kommen kompromittierte Systeme, mangelhafte regulatorische Kontrollen im Ausland und eine Machtkonzentration zugunsten einer kleinen Gruppe von unerfahrenen, unbedarften und potenziell nicht vertrauenswürdigen Personen. Die Situation ist beispiellos … Die FTX-Gruppe hatte keine zentrale Kontrolle über ihre Barmittel … Eine Buchhaltung war nicht existent … Bis jetzt war FTX nicht in der Lage, eine vollständige Liste seiner Mitarbeiter zu erstellen. Wiederholte Versuche, mutmaßliche Angestellte ausfindig zu machen, um ihren Status zu bestätigen, blieben bislang erfolglos … Einer der gravierendsten Mängel des Geschäfts von FTX.com ist, dass die Prozesse der Entscheidungsfindung nicht nachvollziehbar sind. Mr. Bankman-Fried kommunizierte oft über Apps, die so eingestellt waren, dass sich die Nachrichten nach dem Empfang automatisch löschten. Er ermutigte seine Mitarbeiter dazu, es ihm gleichzutun.”

Bankman-Fried wurde nach seiner Auslieferung gegen eine Kaution von 250 Millionen Dollar auf freien Fuß gesetzt und mit einer elektronischen Fußfessel ausgestattet. Sein Prozess in den USA begann am 3. Oktober 2023 und endete knapp einen Monat später mit einem Schuldspruch durch die Jury in allen Anklagepunkten. Das Strafmaß wurde im März 2024 verkündet und liegt bei 25 Jahren. Zudem wurde eine Geldstrafe in Höhe von 11 MIlliarden US-Dollar gegen den Ex-CEO verhängt.

Maßgeblichen Anteil an der Verurteilung von Bankman-Fried hatten dabei seine ehemals engsten Mitstreiter bei FTX. Caroline Ellison (Ex-CEO von Alameda Research) und Gary Wang (ehemals CTO von FTX) gingen jeweils einen Deal mit der US-Staatsanwaltschaft ein und sagten gegen SBF aus.

Dr. Markus Braun (Wirecard)

Wirecard war einst das deutsche Tech-Vorzeigeunternehmen und legte seit seiner Gründung im Jahr 1999 einen steilen Aufstieg zum DAX-Konzern hin. Mitte 2020 brach das von Politik und Investoren hofierte Unternehmen dann – mehr oder weniger überraschend – in sich zusammen. Journalisten, vor allem der Financial Times, hatten zuvor bereits einige Jahre lang immer wieder auf mögliche Unregelmäßigkeiten bei Wirecard hingewiesen. Das gipfelte im Jahr 2019 in einer Klage von Wirecard gegen die Financial Times wegen angeblich falscher Berichterstattung. Allerdings wurden trotz der Hinweise weder seitens der deutschen Bankenaufsicht Bafin (von 2018 bis 2021 dem damaligen SPD-Finanzminister Olaf Scholz unterstellt) noch der Staatsanwaltschaft Untersuchungen eingeleitet.

Ein schwerer Fehler, wie sich im Nachgang zeigte: Rund 1,9 Milliarden Euro, die in den Wirecard-Bilanzen als Guthaben verbucht wurden, waren Mitte 2020 verschwunden – oder nie existent. Kurz nachdem das öffentlich bekannt wurde, sagte CEO Dr. Markus Braun auf einer Pressekonferenz, er könne nicht ausschließen, dass sein Unternehmen “in einem Betrugsfall erheblichen Ausmaßes zum Geschädigten geworden ist“. Kurze Zeit später wurde der Manager verhaftet – er sitzt (nach einem kurzen Kautionszwischenspiel) mittlerweile seit knapp drei Jahren in Untersuchungshaft. Die Staatsanwaltschaft München wirft Braun und den anderen Angeklagten unter anderem vor:

gewerbsmäßigen Bandenbetrug,

Veruntreuung von Konzerngeldern,

Bilanzfälschung sowie

Marktmanipulation.

Zum Auftakt des Wirecard-Strafprozesses bei dem sich Braun und weitere ehemalige Manager des Unternehmens verantworten müssen, bestritt der Ex-CEO die Vorwürfe: “Ich hatte keinerlei Kenntnisse von Fälschungen oder Veruntreuungen”. Bei einer Verurteilung könnten dem gebürtigen Österreicher bis zu zehn Jahre Haft drohen. Um Schadenersatz für die zahlreichen Kleinanleger, denen durch die Wirecard-Pleite ein Gesamtschaden in Höhe von knapp 20 Milliarden Euro entstanden ist, geht es in diesem Verfahren nicht. Diesbezüglich müssen sich seit 2020 die Wirtschaftsprüfer von EY verantworten, die die Wirecard-Bilanzen über einen Zeitraum von zehn Jahren abgesegnet hatten.

Die grundlegende Frage, die beim Strafprozess zu klären ist: Gab es die fehlenden knapp zwei Milliarden Euro oder handelte es sich um Scheingeschäfte? Und falls ja: Wurde der Mann, der Wirecard mehr als 18 Jahre lang führte, tatsächlich selbst zum Opfer und hat nichts vom Milliardenbetrug mitbekommen? Der mitangeklagte Oliver Bellenhaus, ehemals verantwortlich für das Wirecard-Geschäft im Nahen Osten, hat seinerseits ein Geständnis abgelegt und Braun dabei schwer belastet. Eine tragende Rolle beim Wirecard-Skandal spielt darüber hinaus auch der flüchtige Ex-COO Jan Marsalek, der sich aktuell in Russland aufhalten soll. Er ließ der Staatsanwaltschaft München über seinen Anwalt einen Brief zukommen, dessen Inhalt Brauns Unschuld stützen soll. Der Prozess vor dem Landgericht München I dauert an. Schon vor Prozessbeginn hatte Braun weiteren Unmut auf sich gezogen, als er im Rahmen eines Untersuchungsausschuss des deutschen Bundestags zum Wirecard-Skandal vor allem dadurch auffiel, sich nicht erklären zu wollen.

Florian Toncar, FDP-Obmann im Untersuchungsausschuss des Bundestags zum Wirecard-Skandal, zog ein vernichtendes Fazit:

“Der Fall Wirecard ist eine Katastrophe für den Finanzplatz Deutschland und eine Bankrotterklärung der beteiligten Wirtschaftsprüfer und Aufsichtsbehörden.”

Zum Prozessauftakt Ende Dezember 2022 äußerte sich Dr. Marc Liebscher, Rechtsanwalt und Vorstand der Schutzgemeinschaft der Kapitalanleger (SdK) im Interview mit dem Bayerischen Rundfunk zu seinen Erwartungen hinsichtlich des Strafprozesses gegen Braun und Co. – und sparte dabei ebenfalls nicht an Kritik gegenüber Politik und Behörden: “Hier ist heute nicht viel zu erwarten – vor allem wenn man sich klar darüber wird, dass die Staatsanwälte die hier die Anklage verlesen, genau jene sind, die die ganzen Jahre immer wieder Verfahren gegen Wirecard eingestellt haben. Sie haben bei der Bafin insistiert, dass diese Wirecard schützt und sind auf Finanzjournalisten losgegangen, die gegen das Unternehmen Vorwürfe erhoben haben. Es ist nicht nachvollziehbar, was hier die letzten Jahre in München passiert ist.”

Dass sich Ex-Wirecard-CEO Dr. Braun trotz allem wenig Sorgen um sein persönliches finanzielles Auskommen machen muss, legt ein Handelsblatt-Bericht aus dem Jahr 2022 nahe. Demnach habe Braun zwar in einer eidesstattlichen Versicherung angegeben, dass sein gesamtes Vermögen in Höhe von 75 Millionen Euro gepfändet sei. Allerdings soll er in seiner Zeit als CEO ein erkleckliches Vermögen (vor allem in Form von Luxusimmobilien in München und Wien) angehäuft haben. Es steht der Verdacht im Raum, dass er dieses in Teilen mit Hilfe seiner Ehefrau und Schwester verschoben haben soll, um es vor einer Pfändung zu schützen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die schlimmsten Tech-CEOs​ Weiterlesen »

Automatisierung erleichtert Enterprise Mobility​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?quality=50&strip=all 3331w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Während GenAI im UEM-Umfeld noch in den Kinderschuhen steckt, sorgen Automatisierungswerkzeugen für mehr Effizienz beim Management der Geräte. Shutterstock / AI-Generated Enterprise Mobility ist heute im Wesentlichen gleichbedeutend mit Unified Endpoint Management (UEM)-Software, also Lösungen, die die Verwaltung von Smartphones Tablets, PCs und anderen Geräten auf einer gemeinsamen Plattform vereinheitlichen. Während in den ersten Jahren das Mobile Device Management (MDM) im Vordergrund stand, gewann die gemeinsame Verwaltung unterschiedlicher Endgeräte spätestens mit der Corona-Pandemie an Bedeutung, als Büroangestellte weltweit auf Remote Work umstellten.  Mittlerweile sind UEM-Plattformen eine etablierte Produktkategorie, deren Anwendungsspektrum kontinuierlich erweitert und um neue Funktionen ergänzt wird. Hier sind die wichtigsten Trends für 2025, die Sie kennen sollten.  Die Anfänge von GenAI in UEM  Angesichts des Hypes, den Künstliche Intelligenz (KI) und insbesondere generative KI (GenAI) in den letzten Jahren ausgelöst haben, könnte man annehmen, dass diese Tools auch die UEM-Plattformen im Sturm erobern werden. Doch so weit ist es noch nicht.  „Derzeit ist die Implementierung von KI und generativer KI in UEM-Plattformen noch begrenzt, und die Marketing-Versprechen der Anbieter übersteigen oft die Fähigkeiten der Produkte“, erklärt Tom Cipolla, Senior Director und Analyst bei Gartner.  Zu den Bereichen, in denen KI und GenAI UEM verbessern könnten, gehören laut Cipolla:   GenAI-basierte Chatbots, um die Lösungen einfacher zu nutzen,   KI-generierte Erkenntnisse, um die Verwaltung der Endgeräte und die Digitale Enduser Experience (DEX) zu verbessern, sowie  bessere Skripts mithilfe von GenAI.  Doch das ist größtenteils noch nicht der Fall. „Gartner-Kunden berichten von einer begrenzten Nutzung der aktuellen GenAI-Funktionen“, so Cipolla.  „Insgesamt steckt GenAI im UEM-Umfeld noch in den Kinderschuhen“, bestätigt Andrew Hewitt, Principal Analyst bei Forrester. “Der fortschrittlichste Anwendungsfall ist heute Anomalieerkennung – also die Möglichkeit, historische Daten zu untersuchen und Ausreißer zu identifizieren, die auf ein Nutzungs- oder Sicherheitsproblem hinweisen.“  GenAI-gestützte Use Cases wie die Abfrage von Bestandsdaten in natürlicher Sprache und Self-Service-Funktionen für Endnutzer, „sind noch ziemlich unausgereift“, erklärt Hewitt. „Die meisten Angebote in diesem Bereich sind neu und es wird einige Zeit dauern, bis sie sich zu vollwertigen Lösungen entwickeln.“  [ Kostenloser Download: UEM-Anbietervergleichstabelle 2025 ]  Wichtige UEM-Trends  Ein größerer Fokus auf dem UEM-Markt liegt heute auf Automatisierungswerkzeugen, um die Effizienz von Aufgaben zu steigern.  „In unseren zahlreichen Gesprächen mit Gartner-Kunden haben wir festgestellt, dass sie alle die Geschwindigkeit typischer Aufgaben im Bereich Endpoint Management erhöhen müssen“, berichtet Cipolla. Er ergänzt: “Erschwerend kommt hinzu, dass sie auch den dafür erforderlichen Arbeitsaufwand reduzieren müssen.“  Als Antwort darauf nutzten sie intelligente UEM-Automatisierungsfunktionen wie die automatische Durchsetzung von Richtlinienstandards und Autonomic Endpoint Management (AEM), so Cipolla.  „AEM nutzt Konfigurations-, Compliance-, Risiko-, Leistungs- und Erfahrungsdaten, um gängige Aufgaben im Bereich Endpoint Management und DEX intelligent auszuführen“, erklärt der Gartner-Experte. “Der erste grundlegende Anwendungsfall für AEM ist autonomes Patching. Es beschleunigt deren Bereitstellungsprozess, reduziert den Aufwand der IT und verbessert das Nutzererlebnis.“  Forrester-Kollege Hewitt fügt hinzu, dass UEM-Anbieter ihre Endpoint-Management-Ansätze weiter modernisieren, „indem sie die neuesten und besten [Management-Tools] der Betriebssystemanbieter wie Apples Declarative Device Management (DDM) und Android Management API (AMAPI) nutzen“. Der Mobility-Experte geht davon aus, dass die Anbieter in diesem Bereich weiterhin innovativ sein werden und zusätzliche Anpassungen auf Basis der nativen Funktionen von Apple und Android entwickeln.  Ein weiterer wichtiger Trend ist der anhaltende Fokus auf die von UEM-Lösungen gesammelten Daten – laut Hewitt die größte Veränderung bei UEM seit dem Aufkommen der modernen Windows-Verwaltung. „Nahezu jeder Anbieter nutzt in irgendeiner Form Daten, sei es in Echtzeit oder ereignisgesteuert, um Anwendungsfälle in den Bereichen Automatisierung, DEX und Sicherheit besser zu unterstützen. Es ist zu erwarten, dass sich dies in den nächsten drei Jahren fortsetzt.“  Aufgrund des Trends rund um Daten – und trotz des langsamen Aufschwungs von GenAI – konzentrieren sich fast alle Anbieter darauf, mehr KI in ihre Plattformen zu integrieren, erklärt Hewitt: „Es ist zu erwarten, dass mehr ML-basierte (Machine Learning) Anomalieerkennung, vorgeschlagene Abhilfemaßnahmen und Konfigurationskonfigurationen sowie generative KI für die Benutzerunterstützung verfügbar sein werden.“  „Viele UEM-Plattformen bieten jetzt Tools, mit denen die Plattformen in natürlicher Sprache abgefragt werden können, um Daten und Informationen über Chatbots zu extrahieren und so weiter“, berichtet Phil Hochmuth, Program Vice President, Endpoint Management & Enterprise Mobility bei IDC.  Einige haben fortgeschrittene Automatisierungsfunktionen entwickelt, die es KI ermöglichen, nach Schwachstellen an Endpunkten zu suchen und Patches oder andere Korrekturen vorzuschlagen oder automatisch anzuwenden, so Hochmuth.  Darüber hinaus sind die Anbieter von UEMs auch bestrebt, die Cybersicherheitsfunktionen ihrer Plattformen zu stärken, wie Hewitt erklärt: „Die Hersteller investieren außerdem, um ihre Funktionen im Bereiche Endpoint Security zu erweitern. Dabei geht es in erster Linie um das Schwachstellenmanagement, entweder nativ oder von Drittanbietern.“  Marktentwicklung und Ausblick  Die wichtigste Transaktion des vergangenen Jahres war laut Cipolla der Verkauf von VMware an Broadcom. Danach wurde das End-User-Computing-Geschäft (EUC) von VMware an KKR verkauft und als eigenständiges Unternehmen Omnissa gegründet.  Nach dem abgeschlossenen Verkauf „bestimmt Omnissa nun seine eigene Richtung und Produktstrategie und ermöglicht es gleichzeitig Kunden, bestehende Verträge mit Broadcom-Produkten über Partner fortzuführen“, erklärt der Gartner-Experte.  Bislang sei der neue Anbieter als eigenständiger Anbieter recht gut angenommen worden, ergänzt sein IDC-Kollege Hochmuth – wenngleich die Konkurrenz versuche, Kunden abzuwerben, die möglicherweise an der Zukunftsfähigkeit des neuen Anbieters zweifeln.   Forrester habe keine Massenabwanderung von VMware gesehen, jetzt, da sie das unabhängige Omnissa sind, erklärt Hewitt. „Die meisten UEM-Kunden sehen die Zukunft von Omnissa angesichts der Unabhängigkeit von VMware und Broadcom optimistisch.“  Was die Preise für UEM-Plattformen angeht, sieht Cipolla nur geringfügige Erhöhungen aufgrund der globalen Inflation. Gleichzeitig hätten viele Anbieter ihre Lizenzmodelle durch die Schaffung von Bundle-Levels vereinfacht.  Sein IDC-Kollege Hochmuth rechnet sogar damit, dass die Preise für grundlegende UEM/MDM-Funktionen sinken könnten. „Allerdings sind Anbieter erfolgreich darin, für Premiumfunktionen wie KI-gestützte Automatisierung, Endbenutzeranalysen sowie DEX-Funktionen und -Module Gebühren zu erheben“, erklärt er.  Der Markt werde eindeutig wettbewerbsintensiver, fügt Hochmuth hinzu. „Es gibt eine Reihe von Anbietern, die in den UEM-Markt einsteigen wollen, vor allem aus den Bereichen RMM (Remote Monitoring and Management). und Endpoint Patching“. Als Beispiele nennt der IDC-Analyst:  NinjaOne,   Automox und  zum Teil auch Tanium.  Auch Gartner-Kollege Cipolla beobachtet, dass die Anzahl betriebssystemspezifischer Endpoint-Management-Tools zunimmt, die neben den umfassenden UEM-Plattformen für spezifische Anwendungsfälle wie die Erkennung und das Patchen von Betriebssystemen und Anwendungen von Drittanbietern eingesetzt werden können. Zu den Anbietern dieser Tools zählt er:  Adaptiva,   Automox,  Jamf,   NinjaOne und   Tanium.  „Diese Tools schließen funktionale Lücken und verbessern und beschleunigen das Geräte-Management. Gartner prognostiziert, dass sich dieser Trend fortsetzen wird, bis auch die gängigen UEM-Tools diese Anforderungen vollständig erfüllen“, erklärt Cipolla. Für Anbieter, die mit den etablierten UEM-Tools konkurrieren können, ergäben sich dadurch neue Wachstumschancen.  

Automatisierung erleichtert Enterprise Mobility​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?quality=50&strip=all 3331w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/enterprise-mobility-ai-gen-shutterstock_2590706223.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Während GenAI im UEM-Umfeld noch in den Kinderschuhen steckt, sorgen Automatisierungswerkzeugen für mehr Effizienz beim Management der Geräte. Shutterstock / AI-Generated

Enterprise Mobility ist heute im Wesentlichen gleichbedeutend mit Unified Endpoint Management (UEM)-Software, also Lösungen, die die Verwaltung von Smartphones Tablets, PCs und anderen Geräten auf einer gemeinsamen Plattform vereinheitlichen. Während in den ersten Jahren das Mobile Device Management (MDM) im Vordergrund stand, gewann die gemeinsame Verwaltung unterschiedlicher Endgeräte spätestens mit der Corona-Pandemie an Bedeutung, als Büroangestellte weltweit auf Remote Work umstellten. 

Mittlerweile sind UEM-Plattformen eine etablierte Produktkategorie, deren Anwendungsspektrum kontinuierlich erweitert und um neue Funktionen ergänzt wird. Hier sind die wichtigsten Trends für 2025, die Sie kennen sollten. 

Die Anfänge von GenAI in UEM 

Angesichts des Hypes, den Künstliche Intelligenz (KI) und insbesondere generative KI (GenAI) in den letzten Jahren ausgelöst haben, könnte man annehmen, dass diese Tools auch die UEM-Plattformen im Sturm erobern werden. Doch so weit ist es noch nicht. 

„Derzeit ist die Implementierung von KI und generativer KI in UEM-Plattformen noch begrenzt, und die Marketing-Versprechen der Anbieter übersteigen oft die Fähigkeiten der Produkte“, erklärt Tom Cipolla, Senior Director und Analyst bei Gartner. 

Zu den Bereichen, in denen KI und GenAI UEM verbessern könnten, gehören laut Cipolla:  

GenAI-basierte Chatbots, um die Lösungen einfacher zu nutzen,  

KI-generierte Erkenntnisse, um die Verwaltung der Endgeräte und die Digitale Enduser Experience (DEX) zu verbessern, sowie 

bessere Skripts mithilfe von GenAI. 

Doch das ist größtenteils noch nicht der Fall. „Gartner-Kunden berichten von einer begrenzten Nutzung der aktuellen GenAI-Funktionen“, so Cipolla. 

„Insgesamt steckt GenAI im UEM-Umfeld noch in den Kinderschuhen“, bestätigt Andrew Hewitt, Principal Analyst bei Forrester. “Der fortschrittlichste Anwendungsfall ist heute Anomalieerkennung – also die Möglichkeit, historische Daten zu untersuchen und Ausreißer zu identifizieren, die auf ein Nutzungs- oder Sicherheitsproblem hinweisen.“ 

GenAI-gestützte Use Cases wie die Abfrage von Bestandsdaten in natürlicher Sprache und Self-Service-Funktionen für Endnutzer, „sind noch ziemlich unausgereift“, erklärt Hewitt. „Die meisten Angebote in diesem Bereich sind neu und es wird einige Zeit dauern, bis sie sich zu vollwertigen Lösungen entwickeln.“ 

[ Kostenloser Download: UEM-Anbietervergleichstabelle 2025 ] 

Wichtige UEM-Trends 

Ein größerer Fokus auf dem UEM-Markt liegt heute auf Automatisierungswerkzeugen, um die Effizienz von Aufgaben zu steigern. 

„In unseren zahlreichen Gesprächen mit Gartner-Kunden haben wir festgestellt, dass sie alle die Geschwindigkeit typischer Aufgaben im Bereich Endpoint Management erhöhen müssen“, berichtet Cipolla. Er ergänzt: “Erschwerend kommt hinzu, dass sie auch den dafür erforderlichen Arbeitsaufwand reduzieren müssen.“ 

Als Antwort darauf nutzten sie intelligente UEM-Automatisierungsfunktionen wie die automatische Durchsetzung von Richtlinienstandards und Autonomic Endpoint Management (AEM), so Cipolla. 

„AEM nutzt Konfigurations-, Compliance-, Risiko-, Leistungs- und Erfahrungsdaten, um gängige Aufgaben im Bereich Endpoint Management und DEX intelligent auszuführen“, erklärt der Gartner-Experte. “Der erste grundlegende Anwendungsfall für AEM ist autonomes Patching. Es beschleunigt deren Bereitstellungsprozess, reduziert den Aufwand der IT und verbessert das Nutzererlebnis.“ 

Forrester-Kollege Hewitt fügt hinzu, dass UEM-Anbieter ihre Endpoint-Management-Ansätze weiter modernisieren, „indem sie die neuesten und besten [Management-Tools] der Betriebssystemanbieter wie Apples Declarative Device Management (DDM) und Android Management API (AMAPI) nutzen“. Der Mobility-Experte geht davon aus, dass die Anbieter in diesem Bereich weiterhin innovativ sein werden und zusätzliche Anpassungen auf Basis der nativen Funktionen von Apple und Android entwickeln. 

Ein weiterer wichtiger Trend ist der anhaltende Fokus auf die von UEM-Lösungen gesammelten Daten – laut Hewitt die größte Veränderung bei UEM seit dem Aufkommen der modernen Windows-Verwaltung. „Nahezu jeder Anbieter nutzt in irgendeiner Form Daten, sei es in Echtzeit oder ereignisgesteuert, um Anwendungsfälle in den Bereichen Automatisierung, DEX und Sicherheit besser zu unterstützen. Es ist zu erwarten, dass sich dies in den nächsten drei Jahren fortsetzt.“ 

Aufgrund des Trends rund um Daten – und trotz des langsamen Aufschwungs von GenAI – konzentrieren sich fast alle Anbieter darauf, mehr KI in ihre Plattformen zu integrieren, erklärt Hewitt: „Es ist zu erwarten, dass mehr ML-basierte (Machine Learning) Anomalieerkennung, vorgeschlagene Abhilfemaßnahmen und Konfigurationskonfigurationen sowie generative KI für die Benutzerunterstützung verfügbar sein werden.“ 

„Viele UEM-Plattformen bieten jetzt Tools, mit denen die Plattformen in natürlicher Sprache abgefragt werden können, um Daten und Informationen über Chatbots zu extrahieren und so weiter“, berichtet Phil Hochmuth, Program Vice President, Endpoint Management & Enterprise Mobility bei IDC. 

Einige haben fortgeschrittene Automatisierungsfunktionen entwickelt, die es KI ermöglichen, nach Schwachstellen an Endpunkten zu suchen und Patches oder andere Korrekturen vorzuschlagen oder automatisch anzuwenden, so Hochmuth. 

Darüber hinaus sind die Anbieter von UEMs auch bestrebt, die Cybersicherheitsfunktionen ihrer Plattformen zu stärken, wie Hewitt erklärt: „Die Hersteller investieren außerdem, um ihre Funktionen im Bereiche Endpoint Security zu erweitern. Dabei geht es in erster Linie um das Schwachstellenmanagement, entweder nativ oder von Drittanbietern.“ 

Marktentwicklung und Ausblick 

Die wichtigste Transaktion des vergangenen Jahres war laut Cipolla der Verkauf von VMware an Broadcom. Danach wurde das End-User-Computing-Geschäft (EUC) von VMware an KKR verkauft und als eigenständiges Unternehmen Omnissa gegründet. 

Nach dem abgeschlossenen Verkauf „bestimmt Omnissa nun seine eigene Richtung und Produktstrategie und ermöglicht es gleichzeitig Kunden, bestehende Verträge mit Broadcom-Produkten über Partner fortzuführen“, erklärt der Gartner-Experte. 

Bislang sei der neue Anbieter als eigenständiger Anbieter recht gut angenommen worden, ergänzt sein IDC-Kollege Hochmuth – wenngleich die Konkurrenz versuche, Kunden abzuwerben, die möglicherweise an der Zukunftsfähigkeit des neuen Anbieters zweifeln.  

Forrester habe keine Massenabwanderung von VMware gesehen, jetzt, da sie das unabhängige Omnissa sind, erklärt Hewitt. „Die meisten UEM-Kunden sehen die Zukunft von Omnissa angesichts der Unabhängigkeit von VMware und Broadcom optimistisch.“ 

Was die Preise für UEM-Plattformen angeht, sieht Cipolla nur geringfügige Erhöhungen aufgrund der globalen Inflation. Gleichzeitig hätten viele Anbieter ihre Lizenzmodelle durch die Schaffung von Bundle-Levels vereinfacht. 

Sein IDC-Kollege Hochmuth rechnet sogar damit, dass die Preise für grundlegende UEM/MDM-Funktionen sinken könnten. „Allerdings sind Anbieter erfolgreich darin, für Premiumfunktionen wie KI-gestützte Automatisierung, Endbenutzeranalysen sowie DEX-Funktionen und -Module Gebühren zu erheben“, erklärt er. 

Der Markt werde eindeutig wettbewerbsintensiver, fügt Hochmuth hinzu. „Es gibt eine Reihe von Anbietern, die in den UEM-Markt einsteigen wollen, vor allem aus den Bereichen RMM (Remote Monitoring and Management). und Endpoint Patching“. Als Beispiele nennt der IDC-Analyst: 

NinjaOne,  

Automox und 

zum Teil auch Tanium. 

Auch Gartner-Kollege Cipolla beobachtet, dass die Anzahl betriebssystemspezifischer Endpoint-Management-Tools zunimmt, die neben den umfassenden UEM-Plattformen für spezifische Anwendungsfälle wie die Erkennung und das Patchen von Betriebssystemen und Anwendungen von Drittanbietern eingesetzt werden können. Zu den Anbietern dieser Tools zählt er: 

Adaptiva,  

Automox, 

Jamf,  

NinjaOne und  

Tanium. 

„Diese Tools schließen funktionale Lücken und verbessern und beschleunigen das Geräte-Management. Gartner prognostiziert, dass sich dieser Trend fortsetzen wird, bis auch die gängigen UEM-Tools diese Anforderungen vollständig erfüllen“, erklärt Cipolla. Für Anbieter, die mit den etablierten UEM-Tools konkurrieren können, ergäben sich dadurch neue Wachstumschancen. 

Automatisierung erleichtert Enterprise Mobility​ Weiterlesen »

Baidu heizt mit ERNIE das globale KI-Rennen weiter an​

Allgemein

Im Rennen um die KI-Vorherrschaft in China hat nun Baidu mit zwei Foundation-Modellen nachgelegt.testing – shutterstock.com Der chinesische Technologieriese Baidu hat am Wochenende das multimodale Foundation-Modell ERNIE 4.5 und das Reasoning-Modell ERNIE X1 (ERNIE – Enhanced Representations through Knowledge Integration) vorgestellt. Marktforscher gehen davon aus, dass die neuen Modelle die Hürden für die Einführung von KI weiter senken, den Wettbewerb intensivieren und die Preisstrategien in der gesamten Branche neu gestalten könnten.  „Ob dies der Fall sein wird“, so Thomas Randall, Forschungsleiter für KI bei der Info-Tech Research Group, „hängt vom Erfolg dieser Modelle bei der Leistungsvalidierung, der Akzeptanz bei den Entwicklern und dem Vertrauen der Unternehmen ab. Sie deuten jedoch auf einen globalen Wettlauf um KI hin, bei dem Kosteneffizienz und Zugänglichkeit ebenso wichtig werden wie die reine Leistung.“  Der chinesische Technologieriese erklärte in seiner Pressemitteilung, dass die Einführung der beiden Angebote „die Grenzen multimodaler und logischer Modelle verschiebt“ und fügte hinzu, dass ERNIE X1 „eine Leistung auf dem Niveau von DeepSeek R1 bietet, jedoch zum halben Preis“.   Laut Baidu unterstützt ERNIE X1 „verschiedene Tools, darunter erweiterte Suche, Fragen und Antworten zu einem bestimmten Dokument, Bilderkennung, KI-gestützte Bildgenerierung, Code-Interpretation, Website-Lesen, TreeMind-Mapping, akademische Suchen sowie solche nach Geschäfts- und Franchiseinformationen.ERNIE 4.5 sei wiederum dank „verfeinerter Sprachfähigkeiten“ in der Lage, Text-, Bild-, Audio- und Videoinhalte besser zu integrieren und zu verstehen. Außerdem übertreffe es „GPT-4.5 in mehreren Benchmarks, während der Preis nur ein Prozent von GPT-4.5 beträgt“.  Baidu plant, die beiden neuen ERNIE-Modelle in sein Produkt-Ökosystem zu integrieren, um sowohl Baidu Search als auch andere Angebote zu unterstützen.  Zusätzlich zum Reasoning-Modell kündigten die Chinesen an, dass ihr Large Language Model (LLM) ERNIE Bot „früher als geplant für die Öffentlichkeit frei verfügbar wird“. Ursprünglich war geplant, ERNIE Bot erst ab dem 1. April für Privatnutzer kostenlos zur Verfügung zu stellen.  Für Unternehmensnutzer und Entwickler sei ERNIE 4.5 nun über APIs auf der MaaS-Plattform Qianfan von Baidu AI Cloud verfügbar, während ERNIE X1 „in Kürze“ auf der Plattform verfügbar sein soll, hieß es.  Einsatzbereit für Unternehmen? Jason Andersen, Analyst bei Moor Insights & Strategy, ist trotz des Angebots skeptisch: „Das Preis-Leistungs-Verhältnis beim Training des Modells ist zwar ein Faktor, aber es ist unklar, ob dies für einen Entwickler oder ein Unternehmen ausreicht, um sich von der Konkurrenz abzuheben.“  Ein Grund dafür ist laut Andersen, dass das Modell wie DeepSeek als Open Source verfügbar ist, so Andersen. Daher werde man wahrscheinlich sehen, dass KI-Hosting-Anbieter es neben anderen Modellen übernehmen. „Aber wenn es erst einmal in den AWS- oder Azure-Toolsets enthalten ist, wird es dann auch halten, was es verspricht?“  „Oder konkreter: Für welche Aufgaben wird es am besten geeignet sein?“, fügte er hinzu. „Wird es für Kunden möglich sein, das Modell zu modifizieren und Support zu erhalten, während es im Einsatz ist? Meiner Meinung nach müssen wir über das Benchmark-Drag-Race hinaus gehen und die Tragfähigkeit und den Wert für Unternehmen berücksichtigen.“  Sein Kollege Randall ist der Ansicht, dass Baidus Plan, ERNIE 4.5 als Open Source zu veröffentlichen, „die Innovation durch gemeinschaftliche Verbesserungen noch weiter beschleunigen und die Closed-Source-Dominanz von OpenAI und Google in Frage stellen“ könnte. Angesichts der regulatorischen Bemühungen Chinas, die heimische KI-Dominanz zu stärken, fördere Baidus Fortschritt die KI-Unabhängigkeit des Landes von US-amerikanischen Modellen, so Randall.  Der KI-Experte hält es zudem für möglich, dass sich der regionale Wettbewerb mit ERNIE verschärft. So würden Alibaba, Tencent und ByteDance sicherlich versuchen, mit weiteren Investitionen in diese Technologie zu reagieren. Westliche Anbieter könnten in China mit neuen Beschränkungen oder einem stärkeren Wettbewerb konfrontiert werden, da sich Unternehmen aus Compliance-Gründen für lokale Modelle entscheiden.  Die Veröffentlichung der beiden Produkte erfolgt zehn Tage, nachdem Chinas Alibaba Cloud QwQ-32B auf den Markt gebracht hat, ein kompaktes Reasoning-Modell, das auf seinem neuesten Large Language Model (LLM) Qwen2.5-32b basiert und laut Alibaba eine Leistung bietet, die „mit anderen großen, innovativen Modellen“ vergleichbar ist, darunter die der chinesischen Konkurrenten DeepSeek und OpenAI, und das „mit nur 32 Milliarden Parametern“. (mb) 

Baidu heizt mit ERNIE das globale KI-Rennen weiter an​ Im Rennen um die KI-Vorherrschaft in China hat nun Baidu mit zwei Foundation-Modellen nachgelegt.testing – shutterstock.com

Der chinesische Technologieriese Baidu hat am Wochenende das multimodale Foundation-Modell ERNIE 4.5 und das Reasoning-Modell ERNIE X1 (ERNIE – Enhanced Representations through Knowledge Integration) vorgestellt. Marktforscher gehen davon aus, dass die neuen Modelle die Hürden für die Einführung von KI weiter senken, den Wettbewerb intensivieren und die Preisstrategien in der gesamten Branche neu gestalten könnten. 

„Ob dies der Fall sein wird“, so Thomas Randall, Forschungsleiter für KI bei der Info-Tech Research Group, „hängt vom Erfolg dieser Modelle bei der Leistungsvalidierung, der Akzeptanz bei den Entwicklern und dem Vertrauen der Unternehmen ab. Sie deuten jedoch auf einen globalen Wettlauf um KI hin, bei dem Kosteneffizienz und Zugänglichkeit ebenso wichtig werden wie die reine Leistung.“ 

Der chinesische Technologieriese erklärte in seiner Pressemitteilung, dass die Einführung der beiden Angebote „die Grenzen multimodaler und logischer Modelle verschiebt“ und fügte hinzu, dass ERNIE X1 „eine Leistung auf dem Niveau von DeepSeek R1 bietet, jedoch zum halben Preis“.  

Laut Baidu unterstützt ERNIE X1 „verschiedene Tools, darunter erweiterte Suche, Fragen und Antworten zu einem bestimmten Dokument, Bilderkennung, KI-gestützte Bildgenerierung, Code-Interpretation, Website-Lesen, TreeMind-Mapping, akademische Suchen sowie solche nach Geschäfts- und Franchiseinformationen.ERNIE 4.5 sei wiederum dank „verfeinerter Sprachfähigkeiten“ in der Lage, Text-, Bild-, Audio- und Videoinhalte besser zu integrieren und zu verstehen. Außerdem übertreffe es „GPT-4.5 in mehreren Benchmarks, während der Preis nur ein Prozent von GPT-4.5 beträgt“. 

Baidu plant, die beiden neuen ERNIE-Modelle in sein Produkt-Ökosystem zu integrieren, um sowohl Baidu Search als auch andere Angebote zu unterstützen. 

Zusätzlich zum Reasoning-Modell kündigten die Chinesen an, dass ihr Large Language Model (LLM) ERNIE Bot „früher als geplant für die Öffentlichkeit frei verfügbar wird“. Ursprünglich war geplant, ERNIE Bot erst ab dem 1. April für Privatnutzer kostenlos zur Verfügung zu stellen. 

Für Unternehmensnutzer und Entwickler sei ERNIE 4.5 nun über APIs auf der MaaS-Plattform Qianfan von Baidu AI Cloud verfügbar, während ERNIE X1 „in Kürze“ auf der Plattform verfügbar sein soll, hieß es. 

Einsatzbereit für Unternehmen?

Jason Andersen, Analyst bei Moor Insights & Strategy, ist trotz des Angebots skeptisch: „Das Preis-Leistungs-Verhältnis beim Training des Modells ist zwar ein Faktor, aber es ist unklar, ob dies für einen Entwickler oder ein Unternehmen ausreicht, um sich von der Konkurrenz abzuheben.“ 

Ein Grund dafür ist laut Andersen, dass das Modell wie DeepSeek als Open Source verfügbar ist, so Andersen. Daher werde man wahrscheinlich sehen, dass KI-Hosting-Anbieter es neben anderen Modellen übernehmen. „Aber wenn es erst einmal in den AWS- oder Azure-Toolsets enthalten ist, wird es dann auch halten, was es verspricht?“ 

„Oder konkreter: Für welche Aufgaben wird es am besten geeignet sein?“, fügte er hinzu. „Wird es für Kunden möglich sein, das Modell zu modifizieren und Support zu erhalten, während es im Einsatz ist? Meiner Meinung nach müssen wir über das Benchmark-Drag-Race hinaus gehen und die Tragfähigkeit und den Wert für Unternehmen berücksichtigen.“ 

Sein Kollege Randall ist der Ansicht, dass Baidus Plan, ERNIE 4.5 als Open Source zu veröffentlichen, „die Innovation durch gemeinschaftliche Verbesserungen noch weiter beschleunigen und die Closed-Source-Dominanz von OpenAI und Google in Frage stellen“ könnte. Angesichts der regulatorischen Bemühungen Chinas, die heimische KI-Dominanz zu stärken, fördere Baidus Fortschritt die KI-Unabhängigkeit des Landes von US-amerikanischen Modellen, so Randall. 

Der KI-Experte hält es zudem für möglich, dass sich der regionale Wettbewerb mit ERNIE verschärft. So würden Alibaba, Tencent und ByteDance sicherlich versuchen, mit weiteren Investitionen in diese Technologie zu reagieren. Westliche Anbieter könnten in China mit neuen Beschränkungen oder einem stärkeren Wettbewerb konfrontiert werden, da sich Unternehmen aus Compliance-Gründen für lokale Modelle entscheiden. 

Die Veröffentlichung der beiden Produkte erfolgt zehn Tage, nachdem Chinas Alibaba Cloud QwQ-32B auf den Markt gebracht hat, ein kompaktes Reasoning-Modell, das auf seinem neuesten Large Language Model (LLM) Qwen2.5-32b basiert und laut Alibaba eine Leistung bietet, die „mit anderen großen, innovativen Modellen“ vergleichbar ist, darunter die der chinesischen Konkurrenten DeepSeek und OpenAI, und das „mit nur 32 Milliarden Parametern“. (mb)

Baidu heizt mit ERNIE das globale KI-Rennen weiter an​ Weiterlesen »

Startup gründen mit KI​

Allgemein

Ein Startup zum Fliegen zu bringen, braucht die richtige Technik zum passenden Zeitpunkt und natürlich ein gutes Team.A Lot Of People/Shutterstock “Künstliche Intelligenz ermöglicht Use Cases, an die vor einigen Jahren noch niemand zu denken wagte”, sagt Andrija Vuksanovic, Gründer der Titanom Technologies GmbH und Erfinder von Deutschland GPT. Allerdings gestalteten sich die Geschäftsmodelle rund um das Thema KI dadurch nicht automatisch einfacher, warnt der Gründer in der aktuellen Folge von TechTalk Smart Leadership, dem Podcast von Computerwoche, CIO und CSO online. Das liege auch daran, dass die Entwicklung der Basistechnologien derart rasant voranschreitet, dass schwer vorherzusagen sei, wo man in ein oder zwei Jahren technisch damit steht. Diese Zeit brauche man aber, um ein nachhaltiges Geschäftsmodell aufzubauen.  Vuksanovic hat schon früh mit Titanom das Potenzial von GPT-Modellen erkannt und für seine Lernlösungen mit den frühen Versionen der Technik gearbeitet. „ChatGPT und der allgemeine KI-Hype war natürlich ein absoluter Booster für unser Geschäft“, berichtet der Gründer rückblickend. Das habe für mehr Aufmerksamkeit und Verständnis gerade in den Chefetagen der Unternehmen gesorgt. Sichere KI-Infrastruktur für Deutschland Der Gründer fährt zweigleisig. Mit Titanom arbeitet er an KI-basierten Bildungsmedien und -software. Mit Deutschland GPT wiederum hat sich Vuksanovic zum Ziel gesetzt, eine sichere KI-Infrastruktur für hiesige Unternehmen zu bauen, die in Deutschland gehostet wird. Hier sollen Betriebe auch sensible Daten wie Mitarbeiter- oder Kundeninformationen Datenschutzkonform verarbeiten können.  srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?quality=50&strip=all 1067w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>KI macht Geschäftsmodelle möglich, an die vor einigen Jahren noch niemand zu denken wagte, sagt Titanom-Gründer Andrija Vuksanovic.Andrija Vuksanovic Welche Erfahrungen Vuksanovic mit seinem Startup gemacht hat, verrät der Gründer in der aktuellen Podcast-Episode. Er berichtet, warum es nicht unbedingt der beste Weg sein muss, möglichst viel Venture Capital einzusammeln, wieso gerade das persönliche Umfeld beim Wachstum so wichtig ist und wie sich die Mannschaft am besten motivieren lässt. Doch hören Sie selbst im Podcast, was Vuksanovic anderen Gründern raten würde.   width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/3YIrEQsNpSScVoCK3yX64K?utm_source=oembed”> 

Startup gründen mit KI​ Ein Startup zum Fliegen zu bringen, braucht die richtige Technik zum passenden Zeitpunkt und natürlich ein gutes Team.A Lot Of People/Shutterstock

“Künstliche Intelligenz ermöglicht Use Cases, an die vor einigen Jahren noch niemand zu denken wagte”, sagt Andrija Vuksanovic, Gründer der Titanom Technologies GmbH und Erfinder von Deutschland GPT. Allerdings gestalteten sich die Geschäftsmodelle rund um das Thema KI dadurch nicht automatisch einfacher, warnt der Gründer in der aktuellen Folge von TechTalk Smart Leadership, dem Podcast von Computerwoche, CIO und CSO online. Das liege auch daran, dass die Entwicklung der Basistechnologien derart rasant voranschreitet, dass schwer vorherzusagen sei, wo man in ein oder zwei Jahren technisch damit steht. Diese Zeit brauche man aber, um ein nachhaltiges Geschäftsmodell aufzubauen. 

Vuksanovic hat schon früh mit Titanom das Potenzial von GPT-Modellen erkannt und für seine Lernlösungen mit den frühen Versionen der Technik gearbeitet. „ChatGPT und der allgemeine KI-Hype war natürlich ein absoluter Booster für unser Geschäft“, berichtet der Gründer rückblickend. Das habe für mehr Aufmerksamkeit und Verständnis gerade in den Chefetagen der Unternehmen gesorgt.

Sichere KI-Infrastruktur für Deutschland

Der Gründer fährt zweigleisig. Mit Titanom arbeitet er an KI-basierten Bildungsmedien und -software. Mit Deutschland GPT wiederum hat sich Vuksanovic zum Ziel gesetzt, eine sichere KI-Infrastruktur für hiesige Unternehmen zu bauen, die in Deutschland gehostet wird. Hier sollen Betriebe auch sensible Daten wie Mitarbeiter- oder Kundeninformationen Datenschutzkonform verarbeiten können. 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?quality=50&strip=all 1067w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Vuksanovic.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>KI macht Geschäftsmodelle möglich, an die vor einigen Jahren noch niemand zu denken wagte, sagt Titanom-Gründer Andrija Vuksanovic.Andrija Vuksanovic

Welche Erfahrungen Vuksanovic mit seinem Startup gemacht hat, verrät der Gründer in der aktuellen Podcast-Episode. Er berichtet, warum es nicht unbedingt der beste Weg sein muss, möglichst viel Venture Capital einzusammeln, wieso gerade das persönliche Umfeld beim Wachstum so wichtig ist und wie sich die Mannschaft am besten motivieren lässt. Doch hören Sie selbst im Podcast, was Vuksanovic anderen Gründern raten würde.  

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/3YIrEQsNpSScVoCK3yX64K?utm_source=oembed”>

Startup gründen mit KI​ Weiterlesen »

Wie Sie Microsoft Teams sicher nutzen​

Allgemein

Home-Office und virtuelle Zusammenarbeit sind in Zeiten der Coronavirus-Krise essenziell. Dabei darf die Datensicherheit allerdings nicht zu kurz kommen. Foto: Lightspring – shutterstock.com Microsoft Teams wird in vielen Unternehmen schon länger genutzt. In den letzten Monaten hat die Verbreitung aber noch einmal massiv zugenommen, weil Teams gerade für Beschäftigte im Home-Office ein nützliches Werkzeug für die Zusammenarbeit ist. Gerade in einer so rapiden Veränderung der Arbeitsweisen darf aber das Thema Sicherheit nicht vergessen werden. Microsoft Teams hilft dabei, Dokumente einfach zu teilen und auf Informationen zuzugreifen. Damit wächst das Risiko von Datenlecks. Dieses Risiko lässt sich mit den Bordmitteln von Microsoft Teams und Office – beziehungsweise Microsoft 365 – sowie ausreichendem Wissen und Eigenverantwortung bei Teams-Besitzern und -Nutzern durchaus beherrschen, ohne dass man die Vorteile der Plattform für die effiziente Zusammenarbeit in verteilten Teams verliert. Dieser Artikel erklärt die wichtigsten Einstellungen und Vorgehensweisen. Sichere Teams, sichere Collaboration Für die Nutzung von Microsoft Teams braucht es Vorgaben. Der erste Schritt hin zu einer sicheren Zusammenarbeit über Microsoft Teams ist das Ermitteln der “echten” Teams. Wer arbeitet gemeinsam an welchem Thema? Wer ist der Leiter des Teams? Und wer unterstützt organisatorisch? Diese Fragen lassen sich einfach beantworten, sie müssen aber gestellt werden. Aus den Antworten ergibt sich, welche Arbeitsgruppen ein Unternehmen hat, welche es braucht und wer welche Rolle darin hat. Der Leiter eines Teams muss die Mitglieder auf die Nutzungsregeln, insbesondere den sorgsamen Umgang mit Daten, hinweisen. Es sollte immer mindestens zwei “Besitzer” geben, die das Team verwalten – nicht mehr als drei. Für eine effiziente Nutzung von Teams in einem Unternehmen ist Eigenverantwortung essenziell: Die Rolle des Besitzers muss dafür sorgen, dass die Sicherheitseinstellungen sinnvoll gesetzt werden und vernünftig mit den Informationen in Teams-Räumen umgegangen wird. Für den Schutz von Informationen ist die Struktur der Teams und damit der Teams-Räume entscheidend: Kleine Teams, in denen genau die Personen an einem Thema arbeiten, die auch auf die Informationen Zugriff haben sollen, sind besser als große. Microsoft unterstützt mit seiner Collaboration-Lösung viele Teams und verschiebt wenig genutzte Teams selbständig immer wieder in den Bereich “Ausgeblendete Teams”. Man kann diese Teams aber jederzeit wieder einblenden und nach Bedarf dauerhaft im Bereich “Ihre Teams” anzeigen. Auch mit vielen kleinen Teams lässt sich damit gut arbeiten. Und wenn man für die Kanäle in Teams die Kanalbenachrichtigungen entsprechend setzt, sieht man im Bereich Aktivität auch immer, in welchem Team sich etwas Wichtiges getan hat. Teams kann man beispielsweise für Abteilungen und Gruppen innerhalb dieser Abteilungen bilden. Man kann sie für Projekte bilden, aber auch für einzelne Kunden oder für Themen, in denen Mitarbeiter abteilungsübergreifend zusammenarbeiten. Innerhalb einer Abteilung lassen sich auch verschiedene Teams für verschiedene Themen bilden, was vor allem dann Sinn gibt, wenn die Zusammensetzung der Mitglieder variiert. Aus Perspektive der IT-Sicherheit gilt, dass kleinere, homogene Teams immer die bessere Option sind. Die Erfahrung aus einer inzwischen doch recht langen Nutzung von Microsoft Teams zeigt außerdem, dass kleine Teams übersichtlicher sind und auch viele Teams, in denen man Mitglied ist, effizient nutzbar bleiben. Mehr ist bei Microsoft Teams meist mehr. Microsoft Teams – essenzielle Sicherheitseinstellungen Die erste wichtige Aufgabe für Besitzer von Teams und damit den Teams-Räumen ist die Verwaltung von Mitgliedern. Hier gibt es drei Rollen: Besitzer haben administrative Berechtigungen für dieses Team. Sie können die Einstellungen für den Teams-Raum verwalten und Mitglieder hinzufügen. Mitglieder können den Teams-Raum nutzen und innerhalb der definierten Berechtigungen auch Kanäle hinzufügen und andere Einstellungen vornehmen. Mitglieder kommen aus der gleichen Organisation wie die Besitzer. Gäste sind Mitglieder in Teams-Räumen, die aus anderen Unternehmen kommen. Besitzer und Mitglieder sollen in der Regel in der Lage sein, alle Informationen in einem Teams-Raum zu sehen und zu nutzen. Bei Gästen kann das anders aussehen, weil diese oft nur bestimmte Daten sehen sollen, aber nicht die gesamten internen Diskussionen. Eine bewährte Lösung ist hier die Verwendung von zwei Teams-Räumen, also beispielsweise “Kunde A – intern” und “Kunde A – extern”. Auf den ersten Raum erhalten nur die internen Mitarbeiter Zugriff. Auf den zweiten Raum erhalten dagegen auch die Kunden als Gäste Zugriff. Im internen Raum kann man dann zwei Dokumentbibliotheken verwenden – mit “Dateien” ist eine immer schon vorbereitet. Die eine wird nur für interne Dokumente verwendet, die andere für Dokumente, die auch die Gäste sehen sollen. Die zweite Dokumentbibliothek ist dabei der Standardbereich “Dateien” aus dem externen Teams-Raum, der in den internen Teams-Raum vernetzt wird. Damit lässt sich ganz einfach eine saubere Trennung herstellen. Der nächste Schritt sind die Einstellungen für die einzelnen Teams-Räume. Durch Anklicken der drei Punkte hinter einem Teams-Raum kann das Kontextmenü geöffnet werden. Dort findet sich unter anderem der Befehl “Team verwalten”. Als Besitzer sieht man dann mehrere Tabs. Dort kann man Mitglieder verwalten, ausstehende Anfragen für die Mitgliedschaft im Team bearbeiten, Kanäle verwalten, Einstellungen setzen, die Nutzung des Teams analysieren und die Apps einschränken, die im Team genutzt werden können. Nützlich ist hier einerseits der Bereich “Kanäle”, in dem man sich die verschiedenen Kanäle in einem Teams-Raum anzeigen lassen und steuern kann, ob Kanäle auf jeden Fall für Mitglieder angezeigt werden (Abb. 1). Wichtig ist hier zu verstehen, dass man Kanäle nicht sperren kann. Man kann aber bei den Kanaleinstellungen, die man über die drei Punkte bei einem Kanal findet, als Besitzer steuern, welche Kanäle auf jeden Fall für die Mitarbeiter angezeigt werden. Abb.1: Teams-Besitzer können für jeden Kanal in Microsoft Teams steuern, ob diesen alle Mitglieder sehen dürfen. Viel wichtiger ist aber der Tab “Einstellungen” (Abb. 2). Dort können die Berechtigungen von Mitgliedern und Gästen in Microsoft Teams gesetzt werden. Standardmäßig dürfen Mitglieder sehr viel. Sie können Kanäle erstellen und anpassen, private Kanäle erstellen, Apps ergänzen und so weiter. Wie weit man das einschränken möchte, hängt in erster Linie vom Aufgabenbereich und der Struktur des Teams ab. Bei Teams, die länger zusammenarbeiten, bietet es sich an, die Administration auf die Besitzer zu beschränken, um strukturierte Teams-Räume zu erstellen und zu behalten. Nur die beiden Optionen “Geben Sie Mitgliedern die Möglichkeit, ihre Nachrichten zu löschen” respektive “Geben Sie Mitgliedern die Möglichkeit, ihre Nachrichten zu bearbeiten” kann man guten Gewissens aktiviert lassen. Die Einstellungen für die Gäste sollten immer so restriktiv bleiben, wie sie standardmäßig definiert sind. Abb.2: Die Berechtigungen von Mitgliedern in Teams-Räumen sollten von den Besitzern eingeschränkt werden. Foto: Martin Kuppinger / Microsoft Microsoft Teams – Bordmittel für mehr Security Was bei diesen Einstellungen auffällt ist, dass es keine Möglichkeiten gibt, den Zugriff auf einzelne Kanäle oder “Apps”, also beispielsweise SharePoint-Bibliotheken, zu beschränken. Microsoft Teams geht von einer gleichberechtigten Mitarbeit innerhalb von Teams aus. Neben den bereits genannten Möglichkeiten, beispielsweise über die Trennung von internen und externen Teams und die Bildung kleiner Teams, gibt es aber noch eine sehr nützliche Funktion, die mit Office 365 kommt und in Teams einfach nutzbar ist: Microsoft Information Protection. Die Basisfunktionen von Information Protection sind bei Office 365 standardmäßig verfügbar – nur erweiterte Funktionen erfordern eine ergänzende Lizenzierung. Aber schon mit den Basisfunktionen lässt sich ein höheres IT-Sicherheitsniveau erreichen. Dazu geht man in einem Office-Dokument auf das Menü “Datei” und dort auf “Informationen” (Abb. 3). Hier findet sich die Option “Dokument schützen”. Hier können Dokumente mit einem Kennwort versehen und verschlüsselt werden. Noch eleganter ist aber die Auswahl “Zugriff einschränken/Eingeschränkter Zugriff”. Abb.3: Microsoft Office 365 bietet standardmäßig umfassende Optionen für einen erweiterten Schutz von sensitiven Dokumenten. Foto: Martin Kuppinger / Microsoft Im folgenden Dialogfeld (Abb. 4) kann der Zugriff dann eingeschränkt werden. Dafür wird die entsprechende Option ausgewählt und anschließend die Benutzer oder Benutzergruppen aus dem Adressbuch der Organisation ausgewählt, die Zugriff erhalten sollen. Das Dokument wird dabei auch automatisch verschlüsselt. Abb.4: Der Schreib- und Lesezugriff lässt sich pro Benutzer oder Benutzergruppe für jedes Dokument in Microsoft Office 365 steuern. Foto: Martin Kuppinger / Microsoft Der Preis, der für die Nutzung von Microsoft Information Protection zu zahlen ist, sind Einschränkungen in der gemeinsamen Nutzung von Dokumenten und die Deaktivierung der automatischen Speicherung. Aber für die wirklich sensitiven Informationen kann man so ganz einfach das Schutzniveau erhöhen. Mit einer guten Strukturierung von Teams-Räumen, der Nutzung der – wenigen – Berechtigungseinstellungen und dem Einsatz von Microsoft Information Protection wo wirklich erforderlich, lässt sich eine effiziente Zusammenarbeit von virtuellen Teams schnell, einfach und mit einem für die meisten Anwendungsfälle ausreichenden Maß an IT Security umsetzen. Das gilt umso mehr, wenn jeder im Team darauf achtet, dass Informationen im Team bleiben und sorgsam damit umgeht. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Wie Sie Microsoft Teams sicher nutzen​ Home-Office und virtuelle Zusammenarbeit sind in Zeiten der Coronavirus-Krise essenziell. Dabei darf die Datensicherheit allerdings nicht zu kurz kommen.
Foto: Lightspring – shutterstock.com

Microsoft Teams wird in vielen Unternehmen schon länger genutzt. In den letzten Monaten hat die Verbreitung aber noch einmal massiv zugenommen, weil Teams gerade für Beschäftigte im Home-Office ein nützliches Werkzeug für die Zusammenarbeit ist. Gerade in einer so rapiden Veränderung der Arbeitsweisen darf aber das Thema Sicherheit nicht vergessen werden. Microsoft Teams hilft dabei, Dokumente einfach zu teilen und auf Informationen zuzugreifen. Damit wächst das Risiko von Datenlecks.

Dieses Risiko lässt sich mit den Bordmitteln von Microsoft Teams und Office – beziehungsweise Microsoft 365 – sowie ausreichendem Wissen und Eigenverantwortung bei Teams-Besitzern und -Nutzern durchaus beherrschen, ohne dass man die Vorteile der Plattform für die effiziente Zusammenarbeit in verteilten Teams verliert. Dieser Artikel erklärt die wichtigsten Einstellungen und Vorgehensweisen.

Sichere Teams, sichere Collaboration

Für die Nutzung von Microsoft Teams braucht es Vorgaben. Der erste Schritt hin zu einer sicheren Zusammenarbeit über Microsoft Teams ist das Ermitteln der “echten” Teams. Wer arbeitet gemeinsam an welchem Thema? Wer ist der Leiter des Teams? Und wer unterstützt organisatorisch? Diese Fragen lassen sich einfach beantworten, sie müssen aber gestellt werden. Aus den Antworten ergibt sich, welche Arbeitsgruppen ein Unternehmen hat, welche es braucht und wer welche Rolle darin hat.

Der Leiter eines Teams muss die Mitglieder auf die Nutzungsregeln, insbesondere den sorgsamen Umgang mit Daten, hinweisen. Es sollte immer mindestens zwei “Besitzer” geben, die das Team verwalten – nicht mehr als drei. Für eine effiziente Nutzung von Teams in einem Unternehmen ist Eigenverantwortung essenziell: Die Rolle des Besitzers muss dafür sorgen, dass die Sicherheitseinstellungen sinnvoll gesetzt werden und vernünftig mit den Informationen in Teams-Räumen umgegangen wird.

Für den Schutz von Informationen ist die Struktur der Teams und damit der Teams-Räume entscheidend: Kleine Teams, in denen genau die Personen an einem Thema arbeiten, die auch auf die Informationen Zugriff haben sollen, sind besser als große. Microsoft unterstützt mit seiner Collaboration-Lösung viele Teams und verschiebt wenig genutzte Teams selbständig immer wieder in den Bereich “Ausgeblendete Teams”. Man kann diese Teams aber jederzeit wieder einblenden und nach Bedarf dauerhaft im Bereich “Ihre Teams” anzeigen. Auch mit vielen kleinen Teams lässt sich damit gut arbeiten. Und wenn man für die Kanäle in Teams die Kanalbenachrichtigungen entsprechend setzt, sieht man im Bereich Aktivität auch immer, in welchem Team sich etwas Wichtiges getan hat.

Teams kann man beispielsweise für Abteilungen und Gruppen innerhalb dieser Abteilungen bilden. Man kann sie für Projekte bilden, aber auch für einzelne Kunden oder für Themen, in denen Mitarbeiter abteilungsübergreifend zusammenarbeiten. Innerhalb einer Abteilung lassen sich auch verschiedene Teams für verschiedene Themen bilden, was vor allem dann Sinn gibt, wenn die Zusammensetzung der Mitglieder variiert.

Aus Perspektive der IT-Sicherheit gilt, dass kleinere, homogene Teams immer die bessere Option sind. Die Erfahrung aus einer inzwischen doch recht langen Nutzung von Microsoft Teams zeigt außerdem, dass kleine Teams übersichtlicher sind und auch viele Teams, in denen man Mitglied ist, effizient nutzbar bleiben. Mehr ist bei Microsoft Teams meist mehr.

Microsoft Teams – essenzielle Sicherheitseinstellungen

Die erste wichtige Aufgabe für Besitzer von Teams und damit den Teams-Räumen ist die Verwaltung von Mitgliedern. Hier gibt es drei Rollen:

Besitzer haben administrative Berechtigungen für dieses Team. Sie können die Einstellungen für den Teams-Raum verwalten und Mitglieder hinzufügen.

Mitglieder können den Teams-Raum nutzen und innerhalb der definierten Berechtigungen auch Kanäle hinzufügen und andere Einstellungen vornehmen. Mitglieder kommen aus der gleichen Organisation wie die Besitzer.

Gäste sind Mitglieder in Teams-Räumen, die aus anderen Unternehmen kommen.

Besitzer und Mitglieder sollen in der Regel in der Lage sein, alle Informationen in einem Teams-Raum zu sehen und zu nutzen. Bei Gästen kann das anders aussehen, weil diese oft nur bestimmte Daten sehen sollen, aber nicht die gesamten internen Diskussionen. Eine bewährte Lösung ist hier die Verwendung von zwei Teams-Räumen, also beispielsweise “Kunde A – intern” und “Kunde A – extern”. Auf den ersten Raum erhalten nur die internen Mitarbeiter Zugriff. Auf den zweiten Raum erhalten dagegen auch die Kunden als Gäste Zugriff.

Im internen Raum kann man dann zwei Dokumentbibliotheken verwenden – mit “Dateien” ist eine immer schon vorbereitet. Die eine wird nur für interne Dokumente verwendet, die andere für Dokumente, die auch die Gäste sehen sollen. Die zweite Dokumentbibliothek ist dabei der Standardbereich “Dateien” aus dem externen Teams-Raum, der in den internen Teams-Raum vernetzt wird. Damit lässt sich ganz einfach eine saubere Trennung herstellen.

Der nächste Schritt sind die Einstellungen für die einzelnen Teams-Räume. Durch Anklicken der drei Punkte hinter einem Teams-Raum kann das Kontextmenü geöffnet werden. Dort findet sich unter anderem der Befehl “Team verwalten”. Als Besitzer sieht man dann mehrere Tabs. Dort kann man Mitglieder verwalten, ausstehende Anfragen für die Mitgliedschaft im Team bearbeiten, Kanäle verwalten, Einstellungen setzen, die Nutzung des Teams analysieren und die Apps einschränken, die im Team genutzt werden können.

Nützlich ist hier einerseits der Bereich “Kanäle”, in dem man sich die verschiedenen Kanäle in einem Teams-Raum anzeigen lassen und steuern kann, ob Kanäle auf jeden Fall für Mitglieder angezeigt werden (Abb. 1). Wichtig ist hier zu verstehen, dass man Kanäle nicht sperren kann. Man kann aber bei den Kanaleinstellungen, die man über die drei Punkte bei einem Kanal findet, als Besitzer steuern, welche Kanäle auf jeden Fall für die Mitarbeiter angezeigt werden.

Abb.1: Teams-Besitzer können für jeden Kanal in Microsoft Teams steuern, ob diesen alle Mitglieder sehen dürfen.

Viel wichtiger ist aber der Tab “Einstellungen” (Abb. 2). Dort können die Berechtigungen von Mitgliedern und Gästen in Microsoft Teams gesetzt werden. Standardmäßig dürfen Mitglieder sehr viel. Sie können Kanäle erstellen und anpassen, private Kanäle erstellen, Apps ergänzen und so weiter. Wie weit man das einschränken möchte, hängt in erster Linie vom Aufgabenbereich und der Struktur des Teams ab. Bei Teams, die länger zusammenarbeiten, bietet es sich an, die Administration auf die Besitzer zu beschränken, um strukturierte Teams-Räume zu erstellen und zu behalten. Nur die beiden Optionen “Geben Sie Mitgliedern die Möglichkeit, ihre Nachrichten zu löschen” respektive “Geben Sie Mitgliedern die Möglichkeit, ihre Nachrichten zu bearbeiten” kann man guten Gewissens aktiviert lassen. Die Einstellungen für die Gäste sollten immer so restriktiv bleiben, wie sie standardmäßig definiert sind.

Abb.2: Die Berechtigungen von Mitgliedern in Teams-Räumen sollten von den Besitzern eingeschränkt werden.
Foto: Martin Kuppinger / Microsoft

Microsoft Teams – Bordmittel für mehr Security

Was bei diesen Einstellungen auffällt ist, dass es keine Möglichkeiten gibt, den Zugriff auf einzelne Kanäle oder “Apps”, also beispielsweise SharePoint-Bibliotheken, zu beschränken. Microsoft Teams geht von einer gleichberechtigten Mitarbeit innerhalb von Teams aus.

Neben den bereits genannten Möglichkeiten, beispielsweise über die Trennung von internen und externen Teams und die Bildung kleiner Teams, gibt es aber noch eine sehr nützliche Funktion, die mit Office 365 kommt und in Teams einfach nutzbar ist: Microsoft Information Protection. Die Basisfunktionen von Information Protection sind bei Office 365 standardmäßig verfügbar – nur erweiterte Funktionen erfordern eine ergänzende Lizenzierung. Aber schon mit den Basisfunktionen lässt sich ein höheres IT-Sicherheitsniveau erreichen.

Dazu geht man in einem Office-Dokument auf das Menü “Datei” und dort auf “Informationen” (Abb. 3). Hier findet sich die Option “Dokument schützen”. Hier können Dokumente mit einem Kennwort versehen und verschlüsselt werden. Noch eleganter ist aber die Auswahl “Zugriff einschränken/Eingeschränkter Zugriff”.

Abb.3: Microsoft Office 365 bietet standardmäßig umfassende Optionen für einen erweiterten Schutz von sensitiven Dokumenten.
Foto: Martin Kuppinger / Microsoft

Im folgenden Dialogfeld (Abb. 4) kann der Zugriff dann eingeschränkt werden. Dafür wird die entsprechende Option ausgewählt und anschließend die Benutzer oder Benutzergruppen aus dem Adressbuch der Organisation ausgewählt, die Zugriff erhalten sollen. Das Dokument wird dabei auch automatisch verschlüsselt.

Abb.4: Der Schreib- und Lesezugriff lässt sich pro Benutzer oder Benutzergruppe für jedes Dokument in Microsoft Office 365 steuern.
Foto: Martin Kuppinger / Microsoft

Der Preis, der für die Nutzung von Microsoft Information Protection zu zahlen ist, sind Einschränkungen in der gemeinsamen Nutzung von Dokumenten und die Deaktivierung der automatischen Speicherung. Aber für die wirklich sensitiven Informationen kann man so ganz einfach das Schutzniveau erhöhen.

Mit einer guten Strukturierung von Teams-Räumen, der Nutzung der – wenigen – Berechtigungseinstellungen und dem Einsatz von Microsoft Information Protection wo wirklich erforderlich, lässt sich eine effiziente Zusammenarbeit von virtuellen Teams schnell, einfach und mit einem für die meisten Anwendungsfälle ausreichenden Maß an IT Security umsetzen. Das gilt umso mehr, wenn jeder im Team darauf achtet, dass Informationen im Team bleiben und sorgsam damit umgeht. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Wie Sie Microsoft Teams sicher nutzen​ Weiterlesen »

Microsofts Power BI wird teurer – was Anwender jetzt tun sollten​

Allgemein

loading=”lazy” width=”400px”>Für Microsofts Power BI müssen Anwender ab dem 1. April mehr Geld in die Hand nehmen. Vorschnell Microsoft in Sachen BI den Rücken zu kehren, kann indes auch teuer werden.Andrey_Popov – shutterstock.com Microsofts Power BI-Nutzer werden bald mit saftigen Preiserhöhungen konfrontiert. Ab dem 1. April steigt der Preis für Power BI Pro von 10 auf 14 Dollar pro Nutzer und Monat, was einer Erhöhung um 40 Prozent entspricht. Für Power BI Premium müssen Kunden künftig 24 statt wie bisher 20 Dollar je User im Monat auf den Tisch legen – eine Erhöhung um 25 Prozent. Nur Power BI-Kunden, die ihren Vertrag vor April 2025 verlängern, hätten die Möglichkeit, ihren aktuellen Preis bis zum nächsten Jahrestag einer weiteren Vertragsverlängerung zu behalten. Die Microsoft-Verantwortlichen hatten die Preiserhöhungen bereits im November 2024 angekündigt. Kim Manis, Vice President für das Produkt Management bei Microsoft, verwies in einem Blog-Beitrag darauf, dass es sich um die erste Preisaktualisierung von Power BI seit der Einführung des Tools vor zehn Jahren handle. Darüber hinaus habe der Softwarekonzern allein in den zurückliegenden sechs Jahren mehr als 1.500 Updates für das Power-BI-Portfolio ausgeliefert, rechtfertigt Manis die Preiserhöhungen. Drängt Microsoft Anwender in teurere Verträge? Analysten sprechen indes von einem taktischen Schachzug Microsofts, seine Kunden in Richtung höherpreisiger Gesamtpakete zu drängen. So gibt es keine Preisänderungen für Kunden, die Power BI über Microsoft 365 E5- oder Office 365 E5-Jahresabonnements mit jährlicher Abrechnung erwerben, hieß es von Seiten des Softwarekonzerns. Kunden mit Microsoft 365 (M365) E3, die Power BI Pro nicht enthält, müssten dagegen höhere Preise bezahlen. Microsoft Power BI: 15 Tipps für Business-Nutzer “Obwohl Microsoft die Preiserhöhung mit der kontinuierlichen Innovation rechtfertigt, scheint die zugrundeliegende Strategie darauf abzuzielen, die Kunden zur umfassenderen Suite zu treiben”, mutmaßte denn auch Adam Mansfield, UpperEdge Commercial Advisory Practice Leader, gegenüber der COMPUTERWOCHE-Schwesterpublikation CIO. Wenn BI-Tools teurer werden, kann Microsoft das teurere E5 als einen “wirtschaftlicheren” Weg in die Zukunft anpreisen, so Mansfield. Dennoch müssten die Kunden sicherstellen, dass sie den richtigen Preis ausgehandelt haben. Außerdem empfehle sich, einen längerfristigen Preisschutz für Microsoft 365 E5 festzuschreiben. Die Umstellung “ist eine Herausforderung, aber auch eine Chance für Microsoft-Kunden, wenn sie richtig gehandhabt wird”, sagte er. Aus Sicht von Scott Bickley, Berater bei der Info-Tech Research Group, drängt Microsoft seine Kunden mit der Preispolitik in Richtung seiner neuen integrierten Datenmanagement-Plattform Fabric, die Power BI und eine Reihe anderer Funktionen wie Echtzeit-Intelligenz, Data Science, Data Warehouses und Data Factories umfasst. Brickley zufolge ließen sich durch die Migration auf Fabric F64 (Fabric mit 64 TB Speicherplatz) mit einer dreijährigen Vertragsdauer, die eine unbegrenzte Nutzung von Berichten durch alle Anwenderinnen und Anwender ermöglicht, tatsächlich Kosteneinsparungen erzielen. “Dies ist eine sichere Sache für Microsoft, da es keine wirklichen Alternativen auf dem Markt gibt, die zum gleichen Preis die gleichen Funktionen bieten – selbst nach der Preiserhöhung”, sagte er. Viele BI-Anbieter drehen an der Preisschraube Nicht nur Microsoft dreht an der Preisschraube, berichtete Boris Evelson, Vice President und Principal Analyst bei Forrester, gegenüber CIO. “Ich höre von vielen Kunden, bei denen Erneuerungen anstehen, dass ihre BI-Anbieter die Preise erhöhen. In einigen Fällen sogar ganz erheblich.“ Evelsons Angaben zufolge werde er mit Anrufen von Kunden regelrecht “überschwemmt”, die besorgt seien, dass ihre Verträge zur Verlängerung anstehen und ihre BI-Anbieter die Preise in die Höhe treiben. Auch wenn Microsoft da keine Ausnahme bilde, sei Power BI nach wie vor das preiswerteste BI-Tool auf dem Markt, sagte der Forrester-Analyst. Er wies außerdem darauf hin, dass die Pro-Lizenz schon seit langem zehn Dollar pro Benutzer und Monat koste und daher eine Preiserhöhung absehbar gewesen sei. Evelson wies darauf hin, dass die Migration zu einer anderen BI-Plattform ein “kostspieliges, komplexes Unterfangen” sei. Business-Intelligence-Plattform: Wie Sie an Power BI scheitern Andererseits könnten etliche Kunden die anstehenden Preiserhöhungen zum Anlass nehmen, ihre derzeitige Nutzung von Power BI genau zu prüfen, Ineffizienzen zu identifizieren und genau abzuwägen, ob der Wert des Produkts die erhöhten Kosten rechtfertigt, konstatierte Berater Mansfield. “Während einige vielleicht auf das Microsoft 365 E5-Paket umsteigen, könnten andere die Preiserhöhung als entscheidenden Moment nutzen, um alternative Analyseplattformen zu prüfen”, sagte er. Sie könnten zum Beispiel den Wettbewerbsdruck nutzen, um mit Power BI-Konkurrenten wie Salesforce Tableau bessere Konditionen auszuhandeln. Wettbewerb im BI-Markt könnte sich verschärfen Mansfield riet den Anwenderunternehmen, einen möglichen Wechsel zu einer neuen Plattform “ganzheitlich” anzugehen. Analysetools sollten grundsätzlich eng mit den allgemeinen Geschäftszielen abgestimmt sein. Es darüber hinaus auch wichtig, flexible Lizenzbedingungen auszuhandeln, klare Nutzungskennzahlen zu definieren, Preisschutz bei Verlängerung festzuschreiben und sich vertraglich gegen zukünftige Kostensteigerungen abzusichern. Für kleinere Unternehmen “ist die Preiserhöhung ein Schlag”, stellte Into-Tech-Berater Bickley fest. Die Preisstrategie Microsofts könnte allerdings Wettbewerber dazu veranlassen, stärker das untere Ende des Marktes ins Visier zu nehmen, um dort Microsoft Marktanteile abzunehmen. Allerdings, so Bickley, “ist dies ein Markt, den Microsoft wahrscheinlich nicht verlieren möchte”. Bickley betonte jedoch, dass Power BI hat im Laufe der Jahre mehr als 1.500 Verbesserungen erfahren habe. “Die Erhöhung sollte als Wertschöpfung betrachtet werden, die bereits durch die F&E-Ausgaben von Microsoft finanziert wurde.” 

Microsofts Power BI wird teurer – was Anwender jetzt tun sollten​ loading=”lazy” width=”400px”>Für Microsofts Power BI müssen Anwender ab dem 1. April mehr Geld in die Hand nehmen. Vorschnell Microsoft in Sachen BI den Rücken zu kehren, kann indes auch teuer werden.Andrey_Popov – shutterstock.com

Microsofts Power BI-Nutzer werden bald mit saftigen Preiserhöhungen konfrontiert. Ab dem 1. April steigt der Preis für Power BI Pro von 10 auf 14 Dollar pro Nutzer und Monat, was einer Erhöhung um 40 Prozent entspricht. Für Power BI Premium müssen Kunden künftig 24 statt wie bisher 20 Dollar je User im Monat auf den Tisch legen – eine Erhöhung um 25 Prozent. Nur Power BI-Kunden, die ihren Vertrag vor April 2025 verlängern, hätten die Möglichkeit, ihren aktuellen Preis bis zum nächsten Jahrestag einer weiteren Vertragsverlängerung zu behalten.

Die Microsoft-Verantwortlichen hatten die Preiserhöhungen bereits im November 2024 angekündigt. Kim Manis, Vice President für das Produkt Management bei Microsoft, verwies in einem Blog-Beitrag darauf, dass es sich um die erste Preisaktualisierung von Power BI seit der Einführung des Tools vor zehn Jahren handle. Darüber hinaus habe der Softwarekonzern allein in den zurückliegenden sechs Jahren mehr als 1.500 Updates für das Power-BI-Portfolio ausgeliefert, rechtfertigt Manis die Preiserhöhungen.

Drängt Microsoft Anwender in teurere Verträge?

Analysten sprechen indes von einem taktischen Schachzug Microsofts, seine Kunden in Richtung höherpreisiger Gesamtpakete zu drängen. So gibt es keine Preisänderungen für Kunden, die Power BI über Microsoft 365 E5- oder Office 365 E5-Jahresabonnements mit jährlicher Abrechnung erwerben, hieß es von Seiten des Softwarekonzerns. Kunden mit Microsoft 365 (M365) E3, die Power BI Pro nicht enthält, müssten dagegen höhere Preise bezahlen.

Microsoft Power BI: 15 Tipps für Business-Nutzer

“Obwohl Microsoft die Preiserhöhung mit der kontinuierlichen Innovation rechtfertigt, scheint die zugrundeliegende Strategie darauf abzuzielen, die Kunden zur umfassenderen Suite zu treiben”, mutmaßte denn auch Adam Mansfield, UpperEdge Commercial Advisory Practice Leader, gegenüber der COMPUTERWOCHE-Schwesterpublikation CIO. Wenn BI-Tools teurer werden, kann Microsoft das teurere E5 als einen “wirtschaftlicheren” Weg in die Zukunft anpreisen, so Mansfield. Dennoch müssten die Kunden sicherstellen, dass sie den richtigen Preis ausgehandelt haben. Außerdem empfehle sich, einen längerfristigen Preisschutz für Microsoft 365 E5 festzuschreiben. Die Umstellung “ist eine Herausforderung, aber auch eine Chance für Microsoft-Kunden, wenn sie richtig gehandhabt wird”, sagte er.

Aus Sicht von Scott Bickley, Berater bei der Info-Tech Research Group, drängt Microsoft seine Kunden mit der Preispolitik in Richtung seiner neuen integrierten Datenmanagement-Plattform Fabric, die Power BI und eine Reihe anderer Funktionen wie Echtzeit-Intelligenz, Data Science, Data Warehouses und Data Factories umfasst. Brickley zufolge ließen sich durch die Migration auf Fabric F64 (Fabric mit 64 TB Speicherplatz) mit einer dreijährigen Vertragsdauer, die eine unbegrenzte Nutzung von Berichten durch alle Anwenderinnen und Anwender ermöglicht, tatsächlich Kosteneinsparungen erzielen. “Dies ist eine sichere Sache für Microsoft, da es keine wirklichen Alternativen auf dem Markt gibt, die zum gleichen Preis die gleichen Funktionen bieten – selbst nach der Preiserhöhung”, sagte er.

Viele BI-Anbieter drehen an der Preisschraube

Nicht nur Microsoft dreht an der Preisschraube, berichtete Boris Evelson, Vice President und Principal Analyst bei Forrester, gegenüber CIO. “Ich höre von vielen Kunden, bei denen Erneuerungen anstehen, dass ihre BI-Anbieter die Preise erhöhen. In einigen Fällen sogar ganz erheblich.“ Evelsons Angaben zufolge werde er mit Anrufen von Kunden regelrecht “überschwemmt”, die besorgt seien, dass ihre Verträge zur Verlängerung anstehen und ihre BI-Anbieter die Preise in die Höhe treiben.

Auch wenn Microsoft da keine Ausnahme bilde, sei Power BI nach wie vor das preiswerteste BI-Tool auf dem Markt, sagte der Forrester-Analyst. Er wies außerdem darauf hin, dass die Pro-Lizenz schon seit langem zehn Dollar pro Benutzer und Monat koste und daher eine Preiserhöhung absehbar gewesen sei. Evelson wies darauf hin, dass die Migration zu einer anderen BI-Plattform ein “kostspieliges, komplexes Unterfangen” sei.

Business-Intelligence-Plattform: Wie Sie an Power BI scheitern

Andererseits könnten etliche Kunden die anstehenden Preiserhöhungen zum Anlass nehmen, ihre derzeitige Nutzung von Power BI genau zu prüfen, Ineffizienzen zu identifizieren und genau abzuwägen, ob der Wert des Produkts die erhöhten Kosten rechtfertigt, konstatierte Berater Mansfield. “Während einige vielleicht auf das Microsoft 365 E5-Paket umsteigen, könnten andere die Preiserhöhung als entscheidenden Moment nutzen, um alternative Analyseplattformen zu prüfen”, sagte er. Sie könnten zum Beispiel den Wettbewerbsdruck nutzen, um mit Power BI-Konkurrenten wie Salesforce Tableau bessere Konditionen auszuhandeln.

Wettbewerb im BI-Markt könnte sich verschärfen

Mansfield riet den Anwenderunternehmen, einen möglichen Wechsel zu einer neuen Plattform “ganzheitlich” anzugehen. Analysetools sollten grundsätzlich eng mit den allgemeinen Geschäftszielen abgestimmt sein. Es darüber hinaus auch wichtig,

flexible Lizenzbedingungen auszuhandeln,

klare Nutzungskennzahlen zu definieren,

Preisschutz bei Verlängerung festzuschreiben und

sich vertraglich gegen zukünftige Kostensteigerungen abzusichern.

Für kleinere Unternehmen “ist die Preiserhöhung ein Schlag”, stellte Into-Tech-Berater Bickley fest. Die Preisstrategie Microsofts könnte allerdings Wettbewerber dazu veranlassen, stärker das untere Ende des Marktes ins Visier zu nehmen, um dort Microsoft Marktanteile abzunehmen. Allerdings, so Bickley, “ist dies ein Markt, den Microsoft wahrscheinlich nicht verlieren möchte”. Bickley betonte jedoch, dass Power BI hat im Laufe der Jahre mehr als 1.500 Verbesserungen erfahren habe. “Die Erhöhung sollte als Wertschöpfung betrachtet werden, die bereits durch die F&E-Ausgaben von Microsoft finanziert wurde.”

Microsofts Power BI wird teurer – was Anwender jetzt tun sollten​ Weiterlesen »

Die besten Frameworks für Java & JVM-Sprachen​

Allgemein

Erfolgreiche Entwicklungsarbeit braucht das richtige Rahmenwerk.Ground Picture | shutterstock.com Java zeichnet sich in den letzten Jahren durch ein bewundernswertes Gleichgewicht zwischen Innovation und Stabilität aus. Das ist in erster Linie der Integration sowohl funktionaler als auch reaktiver Elemente zu verdanken. Dazu kommen erstklassige Performanz, Sicherheit und Concurrency. Nur die Syntax von Java kommt nicht überall gut an, weil sie sich gerade im Vergleich zu neueren Sprachen etwas klobig gestaltet. Auch dagegen gibt es jedoch Mittel – zum Beispiel JVM-Sprachen wie Kotlin.   Geht es um Backend-Frameworks für Java und JVM-Sprachen, steht Entwicklern ebenfalls ein breites Spektrum an Optionen zur Verfügung. In diesem Artikel werfen wir einen Blick auf die jeweils besten aus beiden Bereichen. In der nachfolgenden Tabelle sehen Sie die behandelten Frameworks im Überblick – und im Vergleich. Unsere Bewertungsskala reicht dabei von 1 bis 3 Punkte – wobei Letzteres die Höchstwertung darstellt. FrameworkAPIRealtimeStatic Site Generation (SSG)Unique strengthsSpring322Enterprise versatilityMicronaut321Cloud-native, microservicesQuarkus321Cloud-native, developer experienceJHipster321Full-stack SSGKtor/Kotlin322Kotlin-centric, flexiblePlay/Scala332Reactive, Scala, high-performanceVert.x331Reactive, event-driven Die besten Java-Frameworks Werfen wir nun einen detaillierteren Blick auf die einzelnen Rahmenwerke – beginnend mit denen für Java. Spring Das Backend-Framework für Java schlechthin ist Spring. Mit diesem Rahmenwerk hielten Konzepte wie Inversion of Control und Dependency Injection Einzug – also Dinge, die viele Developer heutzutage als selbstverständlich betrachten. Heutzutage zeichnet sich Spring insbesondere durch eine wesentliche Vereinfachung aus, vor allem getrieben durch Spring Boot. Im Bereich Webentwicklung lässt sich mit einer Kombination von Spring MVC und REST fast jede Aufgabe bewältigen. Im Vergleich zu JavaScript-Frameworks wie Express, legt Spring sehr viel Wert auf Formalitäten – es eignet sich vor allem für die Entwicklungsabteilungen von Großunternehmen. Im nachfolgenden Beispiel nutzen wir den Dependency-Injection-Mechanismus von Spring, um einen Service zu „injizieren“. Dieser stellt Daten für eine /hello-Route zur Verfügung und verarbeitet diese anschließend für die Antwort:   import org.springframework.beans.factory.annotation.Autowired; import org.springframework.web.bind.annotation.GetMapping; import org.springframework.web.bind.annotation.RestController; @RestController public class GreetingController { @Autowired private GreetingService greetingService; @GetMapping(“/hello”) public String hello() { String greeting = greetingService.getGreeting(); return greeting.toUpperCase(); } } Micronaut Dieses relativ neue Java-Framework ist auf leichtgewichtige Microservices-APIs zugeschnitten. Wenn Sie als Java-begeisterter Entwickler nach einem performanten, nicht block-intensivem API-Framework suchen, ist Micronaut die richtige Wahl. Mit Blick auf Routes ähnelt Micronaut Spring – das Framework hat aber noch ein paar andere Tricks auf Lager. Zum Beispiel eine Ahead-of-Time (AoT)-Kompilierung für besonders schnelle Startups, wie im nachfolgenden Beispiel zu sehen: import io.micronaut.http.MediaType; import io.micronaut.http.annotation.Controller; import io.micronaut.http.annotation.Get; import io.micronaut.http.annotation.Produces; @Controller(“/hello”) public class HelloController { @Get(produces = MediaType.TEXT_PLAIN) public String index() { return “Hello, InfoWorld from Micronaut!”; } } Quarkus Wie Micronaut konzentriert sich auch Quarkus auf Cloud-native Entwicklung. Dabei zeichnet es sich insbesondere durch einen eigenwilligen Stil sowie ausgeprägten Kommandozeilen-Support für Devmode und Container-bewusstes Packaging aus. Eine Stärke von Quarkus: Es optimiert und vereinheitlicht die Befehlszeilen-Experience. Im folgenden Beispiel nutzen wir das, um eine neue Applikation zu erstellen und im Hot-Swap-Devmode auszuführen: # New Quarkus project with the RESTEasy extension mvn io.quarkus.platform:quarkus-maven-plugin:2.16.0.Final:create -DprojectGroupId=org.acme -DprojectArtifactId=my-quarkus-app -Dextensions=”resteasy” cd my-quarkus-app # Run the application in dev mode ./mvnw compile quarkus:dev — Tests paused Press [e] to edit command line args (currently ”), [r] to resume testing, [o] Toggle test output, [:] for the terminal, [h] for more options> JHipster Sehr wahrscheinlich ist JHipster das umfassendeste und ehrgeizigste Java-Framework in dieser Auflistung. Es deckt eine enorme Bandbreite ab, inklusive SQL- und NoSQL-Backend-Data-Stores – alles innerhalb des Java- und JVM-Ökosystems. Im folgenden Code-Beispiel können Sie beobachten, wie nahtlos JHipster eine Vielzahl von Technologien in einen konsistenten Rahmen „presst“: ✔ What is the base name of your application? jhip ✔ Which *type* of application would you like to create? Monolithic application (recommended for simple projects) ✔ What is your default Java package name? com.infoworld ✔ Would you like to use Maven or Gradle for building the backend? Gradle ✔ Do you want to make it reactive with Spring WebFlux? no ✔ Which *type* of authentication would you like to use? JWT authentication (stateless, with a token) ✔ Besides JUnit, which testing frameworks would you like to use? ✔ Which *type* of database would you like to use? MongoDB ✔ Which cache do you want to use? (Spring cache abstraction) Ehcache (local cache, for a single node) ✔ Which other technologies would you like to use? Elasticsearch as search engine ✔ Do you want to enable Gradle Enterprise integration? no ? Which *framework* would you like to use for the client? Angular ❯ React Vue No client Die besten Frameworks für JVM-Sprachen Die JVM bietet eine stabile, leistungsstarke und sichere Plattform für praktisch jede Sprache und jeden Zweck – nicht nur für Java. Das hat die Entwickler-Community genutzt, um einige hervorragende Frameworks und Sprachen für die JVM zu entwickeln. Kotlin/Ktor Für Java-Entwickler, die ihren Horizont erweitern möchten, ist Kotlin eine logische Konsequenz: Die zweitbeliebteste JVM-Sprache schleift einige Java-Kanten ab, behält dabei aber die strukturelle Robustheit in weiten Teilen bei. Kotlins natives Framework ist Ktor. Dieses zeichnet sich vor allem durch seine gute Developer Experience aus, die der von Ruby on Rails ähnelt. Ktor zu konfigurieren und einzurichten, bedarf allerdings etwas mehr Handarbeit Im folgenden Code-Beispiel liegt der Fokus aus dem HTML-DSL-Feature von Kotlin zu Templating-Zwecken (um den HTML-Code zu erstellen, ist ausschließlich Kotlin erforderlich):   routing { get(“/”) { call.respondHtml { head { title(“Quotes”) } body { h1 { +”Quotes to Live By” } ul { listOf( “This Mind is the matrix of all matter.” to “Max Planck”, “All religions, arts and sciences are branches of the same tree.” to “Albert Einstein”, “The mind is everything. What you think you become.” to “Buddha” ).forEach { (quote, author) -> li { p { +quote } p { +”― $author” } } } } Scala/Play Scala ist eine JVM-Sprache, die vor allem für ihren leistungsstarken, funktionalen Programmierstil bekannt ist. Die Sprache zeichnet sich außerdem durch nicht blockierende, asynchrone Prozesse und einen Immutability-Fokus aus. Für Entwickler, die einen weitgehend imperativen oder objektorientierten Background haben, kann sich der Umstieg entsprechend schwierig gestalten. Der Scala/Play-Stack überzeugt vor allem mit: hohem Durchsatz, Microservices im Reactive-Styl, sowie Middleware. Play fungiert dabei als eine Art HTTP-Semantik-Layer, der über die funktionale Engine von Scala gelegt wird. In Kombination mit dem Scala-Build-Tool ist Play eine gut integrierte, intelligente Plattform, um solide Backends zu entwickeln – insbesondere Echtzeitsysteme. Im nachfolgenden Beipsiel definieren wir einen simplen „Hello, World“-Endpunkt in Scala und Play: import play.api.mvc._ import javax.inject._ @Singleton class HomeController @Inject()(cc: ControllerComponents) extends AbstractController(cc) { def index = Action { Ok(“Hello, InfoWorld!”) } } Vert.x „Vert.x ist ein Toolkit, kein Framework – es ist also von Natur aus sehr composable und embeddable“, heißt es auf der Webseite des Open-Source-Projekts der Eclipse Foundation. Aktuell unterstützt dieses Reactive-Projekt mehrere JVM-Sprachen, darunter: Java, JavaScript, Ruby, Groovy, Scala, Kotlin und PHP. Vert.x lässt sich außerdem auch als mehrsprachiger Event-Bus nutzen – ähnlich wie Javas JMS. Das Toolkit bietet eine vollumfängliche, ereignisgesteuerte Multiprozess-Engine, die sich auf Multicore-Server skalieren lässt (Multi-Reactor-Architektur). Das folgende Code-Snippet zeigt ein simples Beispiel, wie ein Endpunkt mit Vert.x und Java bereitgestellt wird: @Override public void start(Promise startPromise) throws Exception { vertx.createHttpServer().requestHandler(req -> { req.response() .putHeader(“content-type”, “text/plain”) .end(“Hello from Vert.x!”); }).listen(8888).onComplete(http -> { if (http.succeeded()) { startPromise.complete(); System.out.println(“HTTP server started on port 8888”); } else { startPromise.fail(http.cause()); } }); } } Zu beachten ist hier, dass für den Request und den Startvorgang des Servers funktionale Hanlder eingesetzt werden. Verkettete, funktionale Event Handler zu nutzen, gehört bei Vert.x zum Konzept. Das können sich Entwickler auch für reaktive Funktionen auf höherer Ebene zunutze machen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten Frameworks für Java & JVM-Sprachen​ Erfolgreiche Entwicklungsarbeit braucht das richtige Rahmenwerk.Ground Picture | shutterstock.com

Java zeichnet sich in den letzten Jahren durch ein bewundernswertes Gleichgewicht zwischen Innovation und Stabilität aus. Das ist in erster Linie der Integration sowohl funktionaler als auch reaktiver Elemente zu verdanken. Dazu kommen erstklassige Performanz, Sicherheit und Concurrency. Nur die Syntax von Java kommt nicht überall gut an, weil sie sich gerade im Vergleich zu neueren Sprachen etwas klobig gestaltet. Auch dagegen gibt es jedoch Mittel – zum Beispiel JVM-Sprachen wie Kotlin.  

Geht es um Backend-Frameworks für Java und JVM-Sprachen, steht Entwicklern ebenfalls ein breites Spektrum an Optionen zur Verfügung. In diesem Artikel werfen wir einen Blick auf die jeweils besten aus beiden Bereichen. In der nachfolgenden Tabelle sehen Sie die behandelten Frameworks im Überblick – und im Vergleich. Unsere Bewertungsskala reicht dabei von 1 bis 3 Punkte – wobei Letzteres die Höchstwertung darstellt.

FrameworkAPIRealtimeStatic Site Generation (SSG)Unique strengthsSpring322Enterprise versatilityMicronaut321Cloud-native, microservicesQuarkus321Cloud-native, developer experienceJHipster321Full-stack SSGKtor/Kotlin322Kotlin-centric, flexiblePlay/Scala332Reactive, Scala, high-performanceVert.x331Reactive, event-driven

Die besten Java-Frameworks

Werfen wir nun einen detaillierteren Blick auf die einzelnen Rahmenwerke – beginnend mit denen für Java.

Spring

Das Backend-Framework für Java schlechthin ist Spring. Mit diesem Rahmenwerk hielten Konzepte wie Inversion of Control und Dependency Injection Einzug – also Dinge, die viele Developer heutzutage als selbstverständlich betrachten. Heutzutage zeichnet sich Spring insbesondere durch eine wesentliche Vereinfachung aus, vor allem getrieben durch Spring Boot. Im Bereich Webentwicklung lässt sich mit einer Kombination von Spring MVC und REST fast jede Aufgabe bewältigen. Im Vergleich zu JavaScript-Frameworks wie Express, legt Spring sehr viel Wert auf Formalitäten – es eignet sich vor allem für die Entwicklungsabteilungen von Großunternehmen.

Im nachfolgenden Beispiel nutzen wir den Dependency-Injection-Mechanismus von Spring, um einen Service zu „injizieren“. Dieser stellt Daten für eine /hello-Route zur Verfügung und verarbeitet diese anschließend für die Antwort:  

import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RestController;

@RestController
public class GreetingController {

@Autowired
private GreetingService greetingService;

@GetMapping(“/hello”)
public String hello() {
String greeting = greetingService.getGreeting();
return greeting.toUpperCase();
}
}

Micronaut

Dieses relativ neue Java-Framework ist auf leichtgewichtige Microservices-APIs zugeschnitten. Wenn Sie als Java-begeisterter Entwickler nach einem performanten, nicht block-intensivem API-Framework suchen, ist Micronaut die richtige Wahl.

Mit Blick auf Routes ähnelt Micronaut Spring – das Framework hat aber noch ein paar andere Tricks auf Lager. Zum Beispiel eine Ahead-of-Time (AoT)-Kompilierung für besonders schnelle Startups, wie im nachfolgenden Beispiel zu sehen:

import io.micronaut.http.MediaType;
import io.micronaut.http.annotation.Controller;
import io.micronaut.http.annotation.Get;
import io.micronaut.http.annotation.Produces;

@Controller(“/hello”)
public class HelloController {

@Get(produces = MediaType.TEXT_PLAIN)
public String index() {
return “Hello, InfoWorld from Micronaut!”;
}
}

Quarkus

Wie Micronaut konzentriert sich auch Quarkus auf Cloud-native Entwicklung. Dabei zeichnet es sich insbesondere durch einen eigenwilligen Stil sowie ausgeprägten Kommandozeilen-Support für Devmode und Container-bewusstes Packaging aus.

Eine Stärke von Quarkus: Es optimiert und vereinheitlicht die Befehlszeilen-Experience. Im folgenden Beispiel nutzen wir das, um eine neue Applikation zu erstellen und im Hot-Swap-Devmode auszuführen:

# New Quarkus project with the RESTEasy extension
mvn io.quarkus.platform:quarkus-maven-plugin:2.16.0.Final:create
-DprojectGroupId=org.acme
-DprojectArtifactId=my-quarkus-app
-Dextensions=”resteasy”

cd my-quarkus-app

# Run the application in dev mode
./mvnw compile quarkus:dev


Tests paused
Press [e] to edit command line args (currently ”), [r] to resume testing, [o] Toggle test output, [:] for the terminal, [h] for more options>

JHipster

Sehr wahrscheinlich ist JHipster das umfassendeste und ehrgeizigste Java-Framework in dieser Auflistung. Es deckt eine enorme Bandbreite ab, inklusive SQL- und NoSQL-Backend-Data-Stores – alles innerhalb des Java- und JVM-Ökosystems.

Im folgenden Code-Beispiel können Sie beobachten, wie nahtlos JHipster eine Vielzahl von Technologien in einen konsistenten Rahmen „presst“:

✔ What is the base name of your application? jhip
✔ Which *type* of application would you like to create? Monolithic application (recommended for simple projects)
✔ What is your default Java package name? com.infoworld
✔ Would you like to use Maven or Gradle for building the backend? Gradle
✔ Do you want to make it reactive with Spring WebFlux? no
✔ Which *type* of authentication would you like to use? JWT authentication (stateless, with a token)
✔ Besides JUnit, which testing frameworks would you like to use?
✔ Which *type* of database would you like to use? MongoDB
✔ Which cache do you want to use? (Spring cache abstraction) Ehcache (local cache, for a single node)
✔ Which other technologies would you like to use? Elasticsearch as search engine
✔ Do you want to enable Gradle Enterprise integration? no
? Which *framework* would you like to use for the client?
Angular
❯ React
Vue
No client

Die besten Frameworks für JVM-Sprachen

Die JVM bietet eine stabile, leistungsstarke und sichere Plattform für praktisch jede Sprache und jeden Zweck – nicht nur für Java. Das hat die Entwickler-Community genutzt, um einige hervorragende Frameworks und Sprachen für die JVM zu entwickeln.

Kotlin/Ktor

Für Java-Entwickler, die ihren Horizont erweitern möchten, ist Kotlin eine logische Konsequenz: Die zweitbeliebteste JVM-Sprache schleift einige Java-Kanten ab, behält dabei aber die strukturelle Robustheit in weiten Teilen bei.

Kotlins natives Framework ist Ktor. Dieses zeichnet sich vor allem durch seine gute Developer Experience aus, die der von Ruby on Rails ähnelt. Ktor zu konfigurieren und einzurichten, bedarf allerdings etwas mehr Handarbeit

Im folgenden Code-Beispiel liegt der Fokus aus dem HTML-DSL-Feature von Kotlin zu Templating-Zwecken (um den HTML-Code zu erstellen, ist ausschließlich Kotlin erforderlich):  

routing {
get(“/”) {
call.respondHtml {
head {
title(“Quotes”)
}
body {
h1 { +”Quotes to Live By” }
ul {
listOf(
“This Mind is the matrix of all matter.” to “Max Planck”,
“All religions, arts and sciences are branches of the same tree.” to “Albert Einstein”,
“The mind is everything. What you think you become.” to “Buddha”
).forEach { (quote, author) ->
li {
p { +quote }
p { +”― $author” }
}
}
}

Scala/Play

Scala ist eine JVM-Sprache, die vor allem für ihren leistungsstarken, funktionalen Programmierstil bekannt ist. Die Sprache zeichnet sich außerdem durch nicht blockierende, asynchrone Prozesse und einen Immutability-Fokus aus. Für Entwickler, die einen weitgehend imperativen oder objektorientierten Background haben, kann sich der Umstieg entsprechend schwierig gestalten.

Der Scala/Play-Stack überzeugt vor allem mit:

hohem Durchsatz,

Microservices im Reactive-Styl, sowie

Middleware.

Play fungiert dabei als eine Art HTTP-Semantik-Layer, der über die funktionale Engine von Scala gelegt wird. In Kombination mit dem Scala-Build-Tool ist Play eine gut integrierte, intelligente Plattform, um solide Backends zu entwickeln – insbesondere Echtzeitsysteme.

Im nachfolgenden Beipsiel definieren wir einen simplen „Hello, World“-Endpunkt in Scala und Play:

import play.api.mvc._
import javax.inject._

@Singleton class HomeController @Inject()(cc: ControllerComponents) extends AbstractController(cc) {
def index = Action {
Ok(“Hello, InfoWorld!”)
}
}

Vert.x

„Vert.x ist ein Toolkit, kein Framework – es ist also von Natur aus sehr composable und embeddable“, heißt es auf der Webseite des Open-Source-Projekts der Eclipse Foundation. Aktuell unterstützt dieses Reactive-Projekt mehrere JVM-Sprachen, darunter:

Java,

JavaScript,

Ruby,

Groovy,

Scala,

Kotlin und

PHP.

Vert.x lässt sich außerdem auch als mehrsprachiger Event-Bus nutzen – ähnlich wie Javas JMS. Das Toolkit bietet eine vollumfängliche, ereignisgesteuerte Multiprozess-Engine, die sich auf Multicore-Server skalieren lässt (Multi-Reactor-Architektur).

Das folgende Code-Snippet zeigt ein simples Beispiel, wie ein Endpunkt mit Vert.x und Java bereitgestellt wird:

@Override
public void start(Promise startPromise) throws Exception {
vertx.createHttpServer().requestHandler(req -> {
req.response()
.putHeader(“content-type”, “text/plain”)
.end(“Hello from Vert.x!”);
}).listen(8888).onComplete(http -> {
if (http.succeeded()) {
startPromise.complete();
System.out.println(“HTTP server started on port 8888”);
} else {
startPromise.fail(http.cause());
}
});
}
}

Zu beachten ist hier, dass für den Request und den Startvorgang des Servers funktionale Hanlder eingesetzt werden. Verkettete, funktionale Event Handler zu nutzen, gehört bei Vert.x zum Konzept. Das können sich Entwickler auch für reaktive Funktionen auf höherer Ebene zunutze machen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten Frameworks für Java & JVM-Sprachen​ Weiterlesen »

Celonis verklagt SAP​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>SAP muss sich gegen eine Klage von Celonis wehren. Das deutsche Startup erhebt schwere Vorwürfe gegen den Softwarekonkurrenten.Cineberg – shutterstock.com Der deutsche Process-Mining-Spezialist Celonis hat Klage gegen SAP eingereicht. Das Münchner Startup wirft dem Softwarekonzern vor, seine Marktmacht zu missbrauchen, und dem Wettbewerb zu schaden. Das gehe letztendlich zu Lasten der Kunden, hieß es in der 61-seitigen Anklageschrift, die Celonis am 13. März vor einem Bezirksgericht in San Francisco eingereicht hat.  Konkret geht es darum, wie Software von anderen Anbietern auf Daten aus dem SAP-System zugreifen darf. Celonis wirft SAP vor, die Kontrolle über das eigene ERP-System dergestalt zu missbrauchen, dass Process-Mining-Konkurrenten und andere Drittanbieter aus dem SAP-Ökosystem ausgeschlossen würden. Der Softwarekonzern mache es für seine Kunden praktisch unmöglich, mit Nicht-SAP-Process-Mining-Lösungen zu arbeiten. Der Grund: Das Teilen von Daten aus dem SAP-System mit Drittanbieterlösungen werde mit übermäßig hohen Gebühren bepreist. Celonis wirft SAP Geschäftsschädigung vor SAP habe neue Regeln und Restriktionen mit dem Ziel eingeführt, das Geschäft von Celonis zu zerstören und damit SAPs ERP-Kunden zu schaden. Letztere seien mehr oder weniger in diesem System gefangen, weil ein Wechsel des ERP-Anbieters in aller Regel mit hohem Aufwand und Kosten verbunden sei. SAP behindere letztendlich den Wettbewerb, um seiner eigenen mit der Akquisition von Signavio zugekauften Process-Mining-Lösung Vorteile zu verschaffen. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2txrIFXNwVP0dYF8pqYBhp?utm_source=oembed”> Celonis war 2011 gestartet. Im darauffolgenden Jahr hatten die Münchner an SAPs Startup-Focus-Programm teilgenommen – der Startpunkt einer langjährigen Geschäftsbeziehung zwischen SAP und Celonis. Das Startup, das im August 2024 mit einer Bewertung von 13 Milliarden Dollar auf Platz 13 in der Forbes-Cloud-100Liste rangierte, verknüpfte seine Process-Mining-Software eng mit dem SAP-Kosmos. Das sei mit erheblichen Kosten verbunden gewesen, heißt es in der Klageschrift. Doch SAP und deren Kunden hätten davon profitiert. Schließlich sei es mit Hilfe der Celonis-Tools möglich gewesen, anhand der Daten aus dem SAP-System Prozesse zu monitoren, zu analysieren und letzten Endes zu optimieren. Prozesstransparenz über Unternehmensgrenzen hinweg 2021 übernahm SAP den deutschen Process-Mining-Anbieter Signavio. Die integrierte Cloud-native Prozess-Suite von Signavio sollte die Business-Process-Intelligence-Lösung von SAP ergänzen, hieß es vor gut vier Jahren. Die Walldorfer sprachen von einer ganzheitlichen Suite flexibler Lösungen zur Prozesstransformation, mit der Kunden ihre Geschäftsabläufe durchgängig anpassen könnten. Dazu gehörten die Analyse, das Design und die Verbesserung von Geschäftsprozessen sowie das Management von Prozessänderungen. SAP-Treffer zeigen Wirkung Angesichts möglicher Kartellbedenken versicherten die SAP-Verantwortlichen im Zuge des Signavio-Deals, das eigene Ökosystem rund um die SAP-Plattform bleibe offen. Man werde die eigene Lösung nicht gegenüber Produkten von Drittanbieter bevorzugt behandeln, hies es damals.  Diese Versprechen hat SAP gebrochen, wirft Celonis dem Konkurrenten vor. Der Konzern zwinge seine Kunden, Signavio zu verwenden, heißt es in der Klageschrift. Konkret machen die Münchner SAP folgende Vorwürfe:  SAP drohe Kunden mit hohen Gebühren, wenn sie sich für die Datenextraktion mit einem Drittanbieter entscheiden;  SAP biete ihr minderwertiges Process-Mining-Produkt Signavio zu extrem niedrigen Kosten oder sogar kostenlos an, zumindest für eine Versuchsphase, und  SAP mache den Kunden gegenüber falsche und irreführende Aussagen über die Risiken der Verwendung von Nicht-SAP-Lösungen wie Celonis und über die zukünftigen Fähigkeiten von Signavio.  Celonis zufolge gibt es erste Anzeichen dafür, dass die wettbewerbsfeindliche Strategie von SAP aufgehe. Dem Startup drohten irreparable Schäden sollte SAP seine Praktiken fortsetzen. Vor dem US-Gericht wollen die Münchner daher erreichen, dass SAP sein Marktverhalten ändern muss. Außerdem fordern die Celonis-Verantwortlichen Schadensersatz. Wie hoch sie den entstandenen Schaden beziffern, geht aus dem in Teilen geschwärzten Dokument indes nicht hervor.  SAP will Celonis-Klage prüfen und schweigt Wie es mit dem Verfahren weitergeht, ist zum aktuellen Zeitpunkt noch nicht abzusehen. Bei SAP will man sich zu den Vorwürfen seitens Celonis nicht äußern. „Wir prüfen derzeit die eingereichte Klage“, verlautete aus Walldorf. „Zu laufenden rechtlichen Verfahren äußern wir uns grundsätzlich nicht.“  Um die Frage, wie Daten aus den SAP-Systemen mit Software von Drittanbietern genutzt werden dürfen, gab es bereits in der Vergangenheit viel Ärger. SAP ließ sich die indirekte Nutzung teils teuer bezahlen. Den Getränkekonzernen Diageo und Anheuser-Busch Inbev flatterten beispielsweise hohe Nachzahlungsforderungen aus Walldorf ins Haus. Die Fälle landeten schließlich auch vor Gericht.  Dabei drehte sich der Streit um die Frage wie User, die via Drittsoftware auf SAP zugreifen, zu lizenzieren seien. So argumentierten die Anwender, mit dem Kauf von SAP PI habe man eine Art Pförtner-Lizenz erworben, um auf Informationen im SAP-System zuzugreifen. Schließlich zahle man damit schon eine Gebühr für die Daten, die Drittapplikationen über SAP PI beziehen. Daten aus dem SAP-System – Streit um indirekte Nutzung  SAP wiederum argumentierte, dass ausschließlich Anwenderinnen und Anwender, die als Named User lizenziert seien, auf SAP-Software zugreifen dürften. Die Nutzung von SAP PI entbinde die Anwenderunternehmen nicht von der Pflicht, die entsprechenden User auch zu lizenzieren. Schließlich werde keine SAP-Funktionalität nach außen repliziert. Nutzer griffen via PI auf SAP zu und müssten demzufolge als Named User lizenziert und abgerechnet werden. Lesen Sie mehr über den Streit um die indirekte Nutzung von SAP: SAP bittet Kunden für indirekte Nutzung zur Kasse DSAG hat noch Fragen zur Lizenzpolitik: SAP will indirekte Nutzung klären – und scheitert Neues Lizenzmodell: SAP regelt indirekte Nutzung neu Indirekte Nutzung von Software: Was SAP-Kunden jetzt tun sollten Acht Tipps: Mit SAP die indirekte Nutzung regeln 2018 regelte SAP die indirekte Nutzung seiner Software neu und zog damit einen Schlussstrich unter den jahrelangen Streit. Künftig werde zwischen einem direkten menschlichen Zugriff, Human Access, und einem indirekten, digitalen Zugriff (Digital Access) unterschieden, der anhand bestimmter Transaktionen und Dokumente lizenziert und berechnet wird. Auf Seiten der Kunden war man damit offenbar zufrieden. „SAP hat mit diesem innovativen Modell einen wichtigen Schritt getan, das Vertrauen der Kunden zurückzugewinnen, das in letzter Zeit etwas verloren gegangen schien“, hieß es damals von Seiten der Deutschsprachigen SAP-Anwendergruppe. Kartellbehörden haben Software- und Cloud-Markt im Visier Ob es den SAP-Verantwortlichen gelingt, den Streit mit Celonis geräuschlos aus der Welt zu schaffen, bleibt abzuwarten. Denkbar ist auch, dass sich andere Softwareanbieter aus dem SAP-Ökosystem möglichem Ärger Luft machen und sich der Klage anschließen. Zumal SAP derzeit mit seiner Strategie wieder verstärkt darauf abzielt, eine integrierte Suite mit möglichst komplettem Funktionsangebot zu offerieren.  SAP baut neue Business Suite in der Cloud Allerdings beobachten die Kartellbehörden in vielen Ländern derzeit ganz genau, wie die großen Software- und Cloud-Anbieter ihre Produktangebote schnüren und wie die Abhängigkeiten zwischen den einzelnen Bestandteilen aussehen. Gerade Microsoft und die Google-Mutter Alphabet stehen hier unter besonderer Beobachtung. Bei Letzterer steht sogar eine mögliche Aufspaltung zur Diskussion.  

Celonis verklagt SAP​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>SAP muss sich gegen eine Klage von Celonis wehren. Das deutsche Startup erhebt schwere Vorwürfe gegen den Softwarekonkurrenten.Cineberg – shutterstock.com

Der deutsche Process-Mining-Spezialist Celonis hat Klage gegen SAP eingereicht. Das Münchner Startup wirft dem Softwarekonzern vor, seine Marktmacht zu missbrauchen, und dem Wettbewerb zu schaden. Das gehe letztendlich zu Lasten der Kunden, hieß es in der 61-seitigen Anklageschrift, die Celonis am 13. März vor einem Bezirksgericht in San Francisco eingereicht hat. 

Konkret geht es darum, wie Software von anderen Anbietern auf Daten aus dem SAP-System zugreifen darf. Celonis wirft SAP vor, die Kontrolle über das eigene ERP-System dergestalt zu missbrauchen, dass Process-Mining-Konkurrenten und andere Drittanbieter aus dem SAP-Ökosystem ausgeschlossen würden. Der Softwarekonzern mache es für seine Kunden praktisch unmöglich, mit Nicht-SAP-Process-Mining-Lösungen zu arbeiten. Der Grund: Das Teilen von Daten aus dem SAP-System mit Drittanbieterlösungen werde mit übermäßig hohen Gebühren bepreist.

Celonis wirft SAP Geschäftsschädigung vor

SAP habe neue Regeln und Restriktionen mit dem Ziel eingeführt, das Geschäft von Celonis zu zerstören und damit SAPs ERP-Kunden zu schaden. Letztere seien mehr oder weniger in diesem System gefangen, weil ein Wechsel des ERP-Anbieters in aller Regel mit hohem Aufwand und Kosten verbunden sei. SAP behindere letztendlich den Wettbewerb, um seiner eigenen mit der Akquisition von Signavio zugekauften Process-Mining-Lösung Vorteile zu verschaffen.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2txrIFXNwVP0dYF8pqYBhp?utm_source=oembed”>

Celonis war 2011 gestartet. Im darauffolgenden Jahr hatten die Münchner an SAPs Startup-Focus-Programm teilgenommen – der Startpunkt einer langjährigen Geschäftsbeziehung zwischen SAP und Celonis. Das Startup, das im August 2024 mit einer Bewertung von 13 Milliarden Dollar auf Platz 13 in der Forbes-Cloud-100Liste rangierte, verknüpfte seine Process-Mining-Software eng mit dem SAP-Kosmos. Das sei mit erheblichen Kosten verbunden gewesen, heißt es in der Klageschrift. Doch SAP und deren Kunden hätten davon profitiert. Schließlich sei es mit Hilfe der Celonis-Tools möglich gewesen, anhand der Daten aus dem SAP-System Prozesse zu monitoren, zu analysieren und letzten Endes zu optimieren.

Prozesstransparenz über Unternehmensgrenzen hinweg

2021 übernahm SAP den deutschen Process-Mining-Anbieter Signavio. Die integrierte Cloud-native Prozess-Suite von Signavio sollte die Business-Process-Intelligence-Lösung von SAP ergänzen, hieß es vor gut vier Jahren. Die Walldorfer sprachen von einer ganzheitlichen Suite flexibler Lösungen zur Prozesstransformation, mit der Kunden ihre Geschäftsabläufe durchgängig anpassen könnten. Dazu gehörten die Analyse, das Design und die Verbesserung von Geschäftsprozessen sowie das Management von Prozessänderungen.

SAP-Treffer zeigen Wirkung

Angesichts möglicher Kartellbedenken versicherten die SAP-Verantwortlichen im Zuge des Signavio-Deals, das eigene Ökosystem rund um die SAP-Plattform bleibe offen. Man werde die eigene Lösung nicht gegenüber Produkten von Drittanbieter bevorzugt behandeln, hies es damals. 

Diese Versprechen hat SAP gebrochen, wirft Celonis dem Konkurrenten vor. Der Konzern zwinge seine Kunden, Signavio zu verwenden, heißt es in der Klageschrift. Konkret machen die Münchner SAP folgende Vorwürfe: 

SAP drohe Kunden mit hohen Gebühren, wenn sie sich für die Datenextraktion mit einem Drittanbieter entscheiden; 

SAP biete ihr minderwertiges Process-Mining-Produkt Signavio zu extrem niedrigen Kosten oder sogar kostenlos an, zumindest für eine Versuchsphase, und 

SAP mache den Kunden gegenüber falsche und irreführende Aussagen über die Risiken der Verwendung von Nicht-SAP-Lösungen wie Celonis und über die zukünftigen Fähigkeiten von Signavio. 

Celonis zufolge gibt es erste Anzeichen dafür, dass die wettbewerbsfeindliche Strategie von SAP aufgehe. Dem Startup drohten irreparable Schäden sollte SAP seine Praktiken fortsetzen. Vor dem US-Gericht wollen die Münchner daher erreichen, dass SAP sein Marktverhalten ändern muss. Außerdem fordern die Celonis-Verantwortlichen Schadensersatz. Wie hoch sie den entstandenen Schaden beziffern, geht aus dem in Teilen geschwärzten Dokument indes nicht hervor. 

SAP will Celonis-Klage prüfen und schweigt

Wie es mit dem Verfahren weitergeht, ist zum aktuellen Zeitpunkt noch nicht abzusehen. Bei SAP will man sich zu den Vorwürfen seitens Celonis nicht äußern. „Wir prüfen derzeit die eingereichte Klage“, verlautete aus Walldorf. „Zu laufenden rechtlichen Verfahren äußern wir uns grundsätzlich nicht.“ 

Um die Frage, wie Daten aus den SAP-Systemen mit Software von Drittanbietern genutzt werden dürfen, gab es bereits in der Vergangenheit viel Ärger. SAP ließ sich die indirekte Nutzung teils teuer bezahlen. Den Getränkekonzernen Diageo und Anheuser-Busch Inbev flatterten beispielsweise hohe Nachzahlungsforderungen aus Walldorf ins Haus. Die Fälle landeten schließlich auch vor Gericht. 

Dabei drehte sich der Streit um die Frage wie User, die via Drittsoftware auf SAP zugreifen, zu lizenzieren seien. So argumentierten die Anwender, mit dem Kauf von SAP PI habe man eine Art Pförtner-Lizenz erworben, um auf Informationen im SAP-System zuzugreifen. Schließlich zahle man damit schon eine Gebühr für die Daten, die Drittapplikationen über SAP PI beziehen.

Daten aus dem SAP-System – Streit um indirekte Nutzung 

SAP wiederum argumentierte, dass ausschließlich Anwenderinnen und Anwender, die als Named User lizenziert seien, auf SAP-Software zugreifen dürften. Die Nutzung von SAP PI entbinde die Anwenderunternehmen nicht von der Pflicht, die entsprechenden User auch zu lizenzieren. Schließlich werde keine SAP-Funktionalität nach außen repliziert. Nutzer griffen via PI auf SAP zu und müssten demzufolge als Named User lizenziert und abgerechnet werden.

Lesen Sie mehr über den Streit um die indirekte Nutzung von SAP:

SAP bittet Kunden für indirekte Nutzung zur Kasse

DSAG hat noch Fragen zur Lizenzpolitik: SAP will indirekte Nutzung klären – und scheitert

Neues Lizenzmodell: SAP regelt indirekte Nutzung neu

Indirekte Nutzung von Software: Was SAP-Kunden jetzt tun sollten

Acht Tipps: Mit SAP die indirekte Nutzung regeln

2018 regelte SAP die indirekte Nutzung seiner Software neu und zog damit einen Schlussstrich unter den jahrelangen Streit. Künftig werde zwischen einem direkten menschlichen Zugriff, Human Access, und einem indirekten, digitalen Zugriff (Digital Access) unterschieden, der anhand bestimmter Transaktionen und Dokumente lizenziert und berechnet wird. Auf Seiten der Kunden war man damit offenbar zufrieden. „SAP hat mit diesem innovativen Modell einen wichtigen Schritt getan, das Vertrauen der Kunden zurückzugewinnen, das in letzter Zeit etwas verloren gegangen schien“, hieß es damals von Seiten der Deutschsprachigen SAP-Anwendergruppe.

Kartellbehörden haben Software- und Cloud-Markt im Visier

Ob es den SAP-Verantwortlichen gelingt, den Streit mit Celonis geräuschlos aus der Welt zu schaffen, bleibt abzuwarten. Denkbar ist auch, dass sich andere Softwareanbieter aus dem SAP-Ökosystem möglichem Ärger Luft machen und sich der Klage anschließen. Zumal SAP derzeit mit seiner Strategie wieder verstärkt darauf abzielt, eine integrierte Suite mit möglichst komplettem Funktionsangebot zu offerieren. 

SAP baut neue Business Suite in der Cloud

Allerdings beobachten die Kartellbehörden in vielen Ländern derzeit ganz genau, wie die großen Software- und Cloud-Anbieter ihre Produktangebote schnüren und wie die Abhängigkeiten zwischen den einzelnen Bestandteilen aussehen. Gerade Microsoft und die Google-Mutter Alphabet stehen hier unter besonderer Beobachtung. Bei Letzterer steht sogar eine mögliche Aufspaltung zur Diskussion. 

Celonis verklagt SAP​ Weiterlesen »

Nach oben scrollen
×