Computerhaus Quickborn

Allgemein

Neue Alibaba-KI stellt DeepSeek-V3 in den Schatten​

Allgemein

Nach DeepSeek hat nun auch Alibaba KI-Geist aus der Flasche gelassen.Mojahid Mottakin/Shutterstock Die chinesische Alibaba Group hat eine verbesserte Version ihres KI-Modells Qwen 2.5 auf den Markt gebracht, das angeblich die LLMs (Large Language Models) von DeepSeek, OpenAI und Meta in den Schatten stellt. „Qwen 2.5-Max übertrifft […] fast durchweg GPT-4o, DeepSeek-V3 und Llama-3.1-405B“, verkündet die Cloud-Einheit von Alibaba per WeChat, wie Reuters berichtet.  Auf seiner GitHub-Seite zeigt das Unternehmen Benchmarking-Ergebnisse, die darauf hindeuten, dass seine Instruktionsmodelle – die für Aufgaben wie Chat und Programmierung entwickelt wurden – GPT-4o, DeepSeek-V3 und Llama-3.1-405B meist übertrafen, während sie eine vergleichbare Leistung wie Claude 3.5-Sonnet erbrachten.  Die Vorstellung kommt kurz nach dem bahnbrechenden Markteintritt von DeepSeek, also dem Debüt seines KI-Assistenten auf Basis des DeepSeek-V3-Modells am 10. Januar und der Veröffentlichung seines Open-Source-R1-Modells am 20. Januar.  Der Umstand, dass Training des V3-Modells (angeblich) nur 5,6 Millionen Dollar kostete, verglichen mit den geschätzten 78 Millionen Dollar bei OpenAI für GPT-4o, versetzte das Silicon Valley in Schockstarre, schickte die Technologieaktien auf Talfahrt und veranlasste die Investoren dazu, die Nachhaltigkeit des auf hohen Ausgaben basierenden Ansatzes der großen US-KI-Firmen in Frage zu stellen.  Chinas KI-Wettlauf heizt sich auf  Dass nun kurz darauf auch Alibaba ein verbessertes LLM vorstellt, noch dazu während der Feiertage zum chinesischen Neujahresfest, unterstreicht den wachsenden Wettbewerbsdruck, der durch DeepSeeks Vorstoß entstanden ist. Diesen spüren augenscheinlich nicht nur westliche Akteure, sondern auch chinesischen Technologieunternehmen.  „Der KI-Modellkrieg ist nicht mehr nur ein Kampf zwischen China und den USA – auch der Wettbewerb innerhalb Chinas verschärft sich, da Unternehmen wie DeepSeek, Alibaba und andere ihre Modelle innovieren und optimieren, um einen großen Inlandsmarkt zu bedienen“, erklärt Neil Shah, Partner und Mitbegründer von Counterpoint Research. Er ergänzt: „Chinesische Unternehmen werden aufgrund von Ressourcenbeschränkungen, einschließlich des begrenzten Zugangs zu den fortschrittlichsten Halbleitern, globalen Daten, Tools, Infrastrukturen und Zielgruppen, zu weiteren Innovationen gedrängt.“  Der Wettlauf um sparsame KI  Diese Entwicklung spiele den Entscheidern in Unternehmen in die Hände und erhöhe den Preisdruck auf KI-Anwendungen, die mit teureren Modellen erstellt wurden, so Shah weiter. “Solche Durchbrüche werden Unternehmen dazu zwingen, die Wirtschaftlichkeit von KI-Investitionen und ihre Wahl von Modellen und Anbietern zu überdenken oder zumindest zu überdenken“, prognostiziert der Analyst.  DeepSeek treibt unmittelbare Preisüberlegungen in zwei Schlüsselbereichen der KI voran:  die Kosten für Roh-Token und   die Ausgaben für die Modellentwicklung.   Diese Faktoren könnten KI-Unternehmen weltweit dazu zwingen, die Optimierung ihrer Modelle in Betracht zu ziehen, um wettbewerbsfähig zu bleiben. „Der Erfolg von DeepSeek unterstreicht auch die Leistungsfähigkeit von Open Source und stärkt das Argument, dass quelloffene KI-Lösungen mittelfristig zu einem dominierenden Marktsegment werden könnten“, erklärt Hyoun Park, CEO und Chefanalyst bei Amalgam Insights. “Wenn das geschieht, könnten Unternehmen mit starken Open-Source-Geschäftsmodellen– wie IBM Red Hat und Canonical – einspringen und KI-bezogene Managed Services schnell skalieren.“  Der geopolitische Vorteil bleibt – etwas  Die Geopolitik bleibt ein Joker für westliche KI-Firmen, der den Markt möglicherweise zu ihren Gunsten kippen lässt, indem er die Übernahme chinesischer Modelle in bestimmten Regionen einschränkt. Gleichzeitig wird China wahrscheinlich die Kontrollen für die Nutzung westlicher KI-Modelle verschärfen, was die Einschränkungen widerspiegelt, die bei anderen technischen Anwendungen zu beobachten sind.  Unternehmen sollten zunächst prüfen, ob diese Modelle den globalen Datenschutz- und Regulierungsstandards entsprechen, bevor sie sie in großem Umfang einsetzen, bremst IDC-Analyst Sharath Srinivasamurthy die Euphorie. „Die Fortschritte von DeepSeek könnten zu besser zugänglichen und erschwinglicheren KI-Lösungen führen, aber sie erfordern auch, strategische, wettbewerbsbezogenen, qualitativen und sicherheitsbezogenen Faktoren sorgfältig abzuwägen“, so der stellvertretende Vice President Research bei IDC.  

Neue Alibaba-KI stellt DeepSeek-V3 in den Schatten​ Nach DeepSeek hat nun auch Alibaba KI-Geist aus der Flasche gelassen.Mojahid Mottakin/Shutterstock

Die chinesische Alibaba Group hat eine verbesserte Version ihres KI-Modells Qwen 2.5 auf den Markt gebracht, das angeblich die LLMs (Large Language Models) von DeepSeek, OpenAI und Meta in den Schatten stellt. „Qwen 2.5-Max übertrifft fast durchweg GPT-4o, DeepSeek-V3 und Llama-3.1-405B“, verkündet die Cloud-Einheit von Alibaba per WeChat, wie Reuters berichtet. 

Auf seiner GitHub-Seite zeigt das Unternehmen Benchmarking-Ergebnisse, die darauf hindeuten, dass seine Instruktionsmodelle – die für Aufgaben wie Chat und Programmierung entwickelt wurden – GPT-4o, DeepSeek-V3 und Llama-3.1-405B meist übertrafen, während sie eine vergleichbare Leistung wie Claude 3.5-Sonnet erbrachten. 

Die Vorstellung kommt kurz nach dem bahnbrechenden Markteintritt von DeepSeek, also dem Debüt seines KI-Assistenten auf Basis des DeepSeek-V3-Modells am 10. Januar und der Veröffentlichung seines Open-Source-R1-Modells am 20. Januar. 

Der Umstand, dass Training des V3-Modells (angeblich) nur 5,6 Millionen Dollar kostete, verglichen mit den geschätzten 78 Millionen Dollar bei OpenAI für GPT-4o, versetzte das Silicon Valley in Schockstarre, schickte die Technologieaktien auf Talfahrt und veranlasste die Investoren dazu, die Nachhaltigkeit des auf hohen Ausgaben basierenden Ansatzes der großen US-KI-Firmen in Frage zu stellen. 

Chinas KI-Wettlauf heizt sich auf 

Dass nun kurz darauf auch Alibaba ein verbessertes LLM vorstellt, noch dazu während der Feiertage zum chinesischen Neujahresfest, unterstreicht den wachsenden Wettbewerbsdruck, der durch DeepSeeks Vorstoß entstanden ist. Diesen spüren augenscheinlich nicht nur westliche Akteure, sondern auch chinesischen Technologieunternehmen. 

„Der KI-Modellkrieg ist nicht mehr nur ein Kampf zwischen China und den USA – auch der Wettbewerb innerhalb Chinas verschärft sich, da Unternehmen wie DeepSeek, Alibaba und andere ihre Modelle innovieren und optimieren, um einen großen Inlandsmarkt zu bedienen“, erklärt Neil Shah, Partner und Mitbegründer von Counterpoint Research. Er ergänzt: „Chinesische Unternehmen werden aufgrund von Ressourcenbeschränkungen, einschließlich des begrenzten Zugangs zu den fortschrittlichsten Halbleitern, globalen Daten, Tools, Infrastrukturen und Zielgruppen, zu weiteren Innovationen gedrängt.“ 

Der Wettlauf um sparsame KI 

Diese Entwicklung spiele den Entscheidern in Unternehmen in die Hände und erhöhe den Preisdruck auf KI-Anwendungen, die mit teureren Modellen erstellt wurden, so Shah weiter. “Solche Durchbrüche werden Unternehmen dazu zwingen, die Wirtschaftlichkeit von KI-Investitionen und ihre Wahl von Modellen und Anbietern zu überdenken oder zumindest zu überdenken“, prognostiziert der Analyst. 

DeepSeek treibt unmittelbare Preisüberlegungen in zwei Schlüsselbereichen der KI voran: 

die Kosten für Roh-Token und  

die Ausgaben für die Modellentwicklung.  

Diese Faktoren könnten KI-Unternehmen weltweit dazu zwingen, die Optimierung ihrer Modelle in Betracht zu ziehen, um wettbewerbsfähig zu bleiben. „Der Erfolg von DeepSeek unterstreicht auch die Leistungsfähigkeit von Open Source und stärkt das Argument, dass quelloffene KI-Lösungen mittelfristig zu einem dominierenden Marktsegment werden könnten“, erklärt Hyoun Park, CEO und Chefanalyst bei Amalgam Insights. “Wenn das geschieht, könnten Unternehmen mit starken Open-Source-Geschäftsmodellen– wie IBM Red Hat und Canonical – einspringen und KI-bezogene Managed Services schnell skalieren.“ 

Der geopolitische Vorteil bleibt – etwas 

Die Geopolitik bleibt ein Joker für westliche KI-Firmen, der den Markt möglicherweise zu ihren Gunsten kippen lässt, indem er die Übernahme chinesischer Modelle in bestimmten Regionen einschränkt. Gleichzeitig wird China wahrscheinlich die Kontrollen für die Nutzung westlicher KI-Modelle verschärfen, was die Einschränkungen widerspiegelt, die bei anderen technischen Anwendungen zu beobachten sind. 

Unternehmen sollten zunächst prüfen, ob diese Modelle den globalen Datenschutz- und Regulierungsstandards entsprechen, bevor sie sie in großem Umfang einsetzen, bremst IDC-Analyst Sharath Srinivasamurthy die Euphorie. „Die Fortschritte von DeepSeek könnten zu besser zugänglichen und erschwinglicheren KI-Lösungen führen, aber sie erfordern auch, strategische, wettbewerbsbezogenen, qualitativen und sicherheitsbezogenen Faktoren sorgfältig abzuwägen“, so der stellvertretende Vice President Research bei IDC. 

Neue Alibaba-KI stellt DeepSeek-V3 in den Schatten​ Weiterlesen »

Mercedes-Benz migriert zu RISE with SAP​

Allgemein

width=”4950″ height=”2784″ sizes=”(max-width: 4950px) 100vw, 4950px”>Katrin Lehmann, Group CIO Mercedes-Benz, will mit der Migration zu RISE with SAP Freiraum für Innovationen schaffen.Mercedes-Benz Mit der Migration zu RISE with SAP geht Mercedes-Benz den nächsten Schritt in Richtung zukunftssichere IT-Infrastruktur. Gleichzeitig setzt das Unternehmen auf eine Single-Cloudanbieter-Strategie mit AWS. Auf diese Weise will der Konzern mehr Zuverlässigkeit, Standardisierung und effizientere Geschäftsprozesse erreichen. Zudem sollen diese Schritte die Wettbewerbsfähigkeit steigern Von der Partnerschaft mit SAP verspricht sich das Unternehmen eine Beschleunigung des Wandels und mehr Innovation und Flexibilität. Nach der Vertragsunterzeichnung im Dezember 2024 folgt nun die schrittweise Implementierung. Migration auf AWS Dabei werden entscheidende SAP-Applikationen entlang der Wertschöpfungskette auf Amazon Web Services (AWS) migriert. Mercedes-Benz setzt auf den Cloud-Dienst von Amazon, um die IT-Landschaft effizienter zu gestalten, heißt es. In der IT setzt Mercedes-Benz auf konsequente Standardisierung. Mercedes-Benz Katrin Lehmann, CIO der Mercedes-Benz AG, erklärt die Entscheidung so: „Wir sind Tech-Frontrunner im Konzern und brauchen eine zukunftsfähige IT-Infrastruktur, um Menschen und Technologien bestmöglich zu vernetzen.“ Dabei biete die Migration zu RISE with SAP auf AWS, so die CIO, die Möglichkeit, Prozesse entlang der Wertschöpfungskette schlanker und effizienter zu gestalten. Freiraum für Innovationen schaffen Für zusätzliches Tempo soll dabei eine radikale Standardisierung und die Verknüpfung mit integrierten KI-Modellen sorgen. „So schaffen wir uns Freiraum für Innovationen“, unterstreicht Lehmann. Weiter heißt es, durch die Kombination der Cloud-Strategie mit künftigen Entwicklungen der SAP-Landschaft auf S/4HANA profitiere das Unternehmen von kontinuierlichen Updates. Das ermögliche ein effizienteres Arbeiten mit neuesten Technologien, auch in Hinblick auf KI. Auf diese Weise will das Unternehmen viele Prozesse beschleunigen – von Finance- und Controlling-Applikationen über Logistik bis hin zum After Sales. Geschäftsabläufe automatisieren Ein weiteres Ziel ist, mit den Services und Tools von RISE with SAP Geschäftsabläufe weiter zu automatisieren. Mit der Fokussierung auf AWS als einzigen Cloud-Anbieter will Mercedes-Benz die Komplexität der IT reduzieren und die Nutzung seiner Applikationen einfacher und sicherer machen. 

Mercedes-Benz migriert zu RISE with SAP​ width=”4950″ height=”2784″ sizes=”(max-width: 4950px) 100vw, 4950px”>Katrin Lehmann, Group CIO Mercedes-Benz, will mit der Migration zu RISE with SAP Freiraum für Innovationen schaffen.Mercedes-Benz

Mit der Migration zu RISE with SAP geht Mercedes-Benz den nächsten Schritt in Richtung zukunftssichere IT-Infrastruktur. Gleichzeitig setzt das Unternehmen auf eine Single-Cloudanbieter-Strategie mit AWS. Auf diese Weise will der Konzern mehr Zuverlässigkeit, Standardisierung und effizientere Geschäftsprozesse erreichen. Zudem sollen diese Schritte die Wettbewerbsfähigkeit steigern

Von der Partnerschaft mit SAP verspricht sich das Unternehmen eine Beschleunigung des Wandels und mehr Innovation und Flexibilität. Nach der Vertragsunterzeichnung im Dezember 2024 folgt nun die schrittweise Implementierung.

Migration auf AWS

Dabei werden entscheidende SAP-Applikationen entlang der Wertschöpfungskette auf Amazon Web Services (AWS) migriert. Mercedes-Benz setzt auf den Cloud-Dienst von Amazon, um die IT-Landschaft effizienter zu gestalten, heißt es.

In der IT setzt Mercedes-Benz auf konsequente Standardisierung.
Mercedes-Benz

Katrin Lehmann, CIO der Mercedes-Benz AG, erklärt die Entscheidung so: „Wir sind Tech-Frontrunner im Konzern und brauchen eine zukunftsfähige IT-Infrastruktur, um Menschen und Technologien bestmöglich zu vernetzen.“ Dabei biete die Migration zu RISE with SAP auf AWS, so die CIO, die Möglichkeit, Prozesse entlang der Wertschöpfungskette schlanker und effizienter zu gestalten.

Freiraum für Innovationen schaffen

Für zusätzliches Tempo soll dabei eine radikale Standardisierung und die Verknüpfung mit integrierten KI-Modellen sorgen. „So schaffen wir uns Freiraum für Innovationen“, unterstreicht Lehmann.

Weiter heißt es, durch die Kombination der Cloud-Strategie mit künftigen Entwicklungen der SAP-Landschaft auf S/4HANA profitiere das Unternehmen von kontinuierlichen Updates. Das ermögliche ein effizienteres Arbeiten mit neuesten Technologien, auch in Hinblick auf KI. Auf diese Weise will das Unternehmen viele Prozesse beschleunigen – von Finance- und Controlling-Applikationen über Logistik bis hin zum After Sales.

Geschäftsabläufe automatisieren

Ein weiteres Ziel ist, mit den Services und Tools von RISE with SAP Geschäftsabläufe weiter zu automatisieren. Mit der Fokussierung auf AWS als einzigen Cloud-Anbieter will Mercedes-Benz die Komplexität der IT reduzieren und die Nutzung seiner Applikationen einfacher und sicherer machen.

Mercedes-Benz migriert zu RISE with SAP​ Weiterlesen »

ServiceNow will Ordnung ins KI-Agenten-Chaos bringen​

Allgemein

Geht es nach ServiceNow (und anderen Anbietern), sollen KI-Agenten bald zahlreiche Aufgaben im Business-Umfeld selbstständig erledigen können.JLco Julia Amaral/Shutterstock Gibt es einen sicheren Trend für 2025 und darüber hinaus, so sind das KI-Agenten, die komplexe Geschäftsprozesse unabhängig übernehmen können. Dieser Ansicht ist auch ServiceNow. „Wir glauben fest daran, dass Agentic AI die nächste Evolutionsstufe für ServiceNow darstellt“, erklärt Dorit Zilbershot, Vice President, Product Management, AI, im CW-Gespräch. „Wir haben in den letzten zwanzig Jahren Workflows automatisiert. Agenten bieten uns eine neue Möglichkeit, unstrukturierte Workflows voranzutreiben. Sie sind anpassungsfähig, interaktiv und bringen dem Unternehmen wirklich mehr Wert.“  Die Agenten kommen  Seine ersten KI-Agenten hatte ServiceNow bereits im September 2024 vorgestellt. Um in diesem Bereich voranzukommen, gab ServiceNow erst vor kurzem die Übernahme von Cuein bekannt. Die Technologie des KI-Startups, von Cuein selbst als „Copilot für Customer Experience Teams“ bezeichnet, ist darauf ausgelegt, fragmentierte Konversationen zu interpretieren und umfassende Erkenntnisse zu liefern. Diese können die KI-Agenten nutzen, um fundierte Entscheidungen zu treffen und entsprechend zu handeln.  „Cuein kann uns dabei helfen, mit unserem Agentic-AI-Fahrplan schneller voranzukommen“, so Zilbershot. „Wir können damit schneller Gespräche und Interaktionen in strukturierte Arbeitsabläufe umwandeln, erhalten Echtzeit-Einblicke in KI-Agenten und können ihre Arbeit quantifizieren.“  Wenngleich aktuell KI-Agenten und Copilots wie Pilze aus dem Boden schießen, sieht sich das Unternehmen dabei in einer optimalen Ausgangsposition. Der ServiceNow-Managerin zufolge gebe es eine Reihe von Unterscheidungsmerkmalen gegenüber der Konkurrenz.   Dazu zähle zum einen eine hybride Plattform, die sowohl agentenbasierte als auch regelbasierte Arbeitsabläufe unterstützt, erklärt Zilbershot. Dies ermögliche es, KI-Agenten für unvorhersehbare Anwendungsfälle einzusetzen, die Anpassungsfähigkeit und Interaktion mit Menschen erfordern, während gleichzeitig strukturierte Arbeitsabläufe beibehalten werden könnten.  srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?quality=50&strip=all 3248w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=2048%2C1151&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Dorit Zilbershot, Vice President, Product Management, AI bei ServiceNowServiceNow Außerdem hätten die KI-Agenten von ServiceNow Zugriff auf alle Analysefähigkeiten, Arbeitsabläufe der Kunden der letzten zwanzig Jahre und Informationen innerhalb und außerhalb von ServiceNow. So könnten die Kunden, von Anfang an von agentenbasierter KI profitieren, so die KI-Expertin: „Es ist im Grunde so, als hätte man einen neuen Mitarbeiter, der bereits alles über das Unternehmen weiß, ohne irgendeine Schulung.“  Zusätzlich stelle ServiceNow nun mit AI Agent Orchestrator einen Kontrollturm bereit, der die KI-Agenten verwaltet. Tritt beispielsweise ein Netzwerkproblem auf, so ein von ServiceNow beschriebenes Szenario, verwalte der AI Agent Orchestrator benutzerdefinierte Agenten, die Informationen aus Quellen wie Network Management Software, SIEM (Security Information & Event Management) Systeme und Application Performance Monitoring beziehen, um das Problem zu beheben. Das Problem werde identifiziert, ein Lösungsplan erstellt und – nachdem ein menschlicher Netzwerkoperator ihn genehmigt habe – ausgeführt. Der AI Agent Orchestrator sorge dabei dafür, dass die KI-Agenten nicht unkontrolliert agieren, sondern auf koordinierten Weise zusammenarbeiten, erklärt Zilbershot. „Sie wollen ja sicher nicht nur diese KI-Agenten einführen und frei im Unternehmen ‚herumlaufen‘ lassen.“   Tausende von KI-Agenten geplant Bei der von ServiceNow anvisierten Mengen von KI-Agenten im Unternehmen wäre das auch nicht ratsam. Um die dringlichsten Probleme der Kunden zu lösen, will der Automatisierungsexperte zahlreiche sofort einsatzbereite AI Agents auf der Now Platform bereitstellen. Diese könnten autonom Anwendungsfälle wie Probleme mit Passwörtern oder auf dem Anwender-PC installierter Software lösen oder Zeiten für die Einarbeitung eines neuen Mitarbeiters einzubuchen, führt Zilbershot auf.  Der Managerin zufolge kommen täglich neue KI-Agenten dazu und bis Mai sollen bereits mehrere Tausend solcher kleinen Helfer zur Verfügung stehen. Weitere AI Agents, die von Partnern wie Accenture, Cognizant und Deloitte entwickelt und veröffentlicht werden, fänden sich im ServiceNow Store.   Darüber hinaus können Unternehmen im neuen ServiceNow AI Agent Studio auch selbst individuelle AI Agents erstellen und implementieren, die sich nahtlos in unternehmensweite Workflows und Daten integrieren sollen. Laut SeviceNow ist dies über eine sprachbasierte No-Code-Oberfläche möglich, in der die Anwender das gewünschte Ergebnis, die Rolle der AI Agents und die Prozesse, die sie aufbauen möchten, in natürlicher Sprache beschreiben. Wie Zilbershot betont, müsse man dazu auch keine speziellen Prompts verwenden. Das System übernehme dann im Hintergrund die Verarbeitung, um die Sprache in Eingabeaufforderungen umzuwandeln.  ServiceNow AI Agent Orchestrator und AI Agent Studio sollen ab März 2025 für Pro-Plus- und Enterprise-Plus-Kunden verfügbar sein.  

ServiceNow will Ordnung ins KI-Agenten-Chaos bringen​ Geht es nach ServiceNow (und anderen Anbietern), sollen KI-Agenten bald zahlreiche Aufgaben im Business-Umfeld selbstständig erledigen können.JLco Julia Amaral/Shutterstock

Gibt es einen sicheren Trend für 2025 und darüber hinaus, so sind das KI-Agenten, die komplexe Geschäftsprozesse unabhängig übernehmen können. Dieser Ansicht ist auch ServiceNow. „Wir glauben fest daran, dass Agentic AI die nächste Evolutionsstufe für ServiceNow darstellt“, erklärt Dorit Zilbershot, Vice President, Product Management, AI, im CW-Gespräch. „Wir haben in den letzten zwanzig Jahren Workflows automatisiert. Agenten bieten uns eine neue Möglichkeit, unstrukturierte Workflows voranzutreiben. Sie sind anpassungsfähig, interaktiv und bringen dem Unternehmen wirklich mehr Wert.“ 

Die Agenten kommen 

Seine ersten KI-Agenten hatte ServiceNow bereits im September 2024 vorgestellt. Um in diesem Bereich voranzukommen, gab ServiceNow erst vor kurzem die Übernahme von Cuein bekannt. Die Technologie des KI-Startups, von Cuein selbst als „Copilot für Customer Experience Teams“ bezeichnet, ist darauf ausgelegt, fragmentierte Konversationen zu interpretieren und umfassende Erkenntnisse zu liefern. Diese können die KI-Agenten nutzen, um fundierte Entscheidungen zu treffen und entsprechend zu handeln. 

„Cuein kann uns dabei helfen, mit unserem Agentic-AI-Fahrplan schneller voranzukommen“, so Zilbershot. „Wir können damit schneller Gespräche und Interaktionen in strukturierte Arbeitsabläufe umwandeln, erhalten Echtzeit-Einblicke in KI-Agenten und können ihre Arbeit quantifizieren.“ 

Wenngleich aktuell KI-Agenten und Copilots wie Pilze aus dem Boden schießen, sieht sich das Unternehmen dabei in einer optimalen Ausgangsposition. Der ServiceNow-Managerin zufolge gebe es eine Reihe von Unterscheidungsmerkmalen gegenüber der Konkurrenz.  

Dazu zähle zum einen eine hybride Plattform, die sowohl agentenbasierte als auch regelbasierte Arbeitsabläufe unterstützt, erklärt Zilbershot. Dies ermögliche es, KI-Agenten für unvorhersehbare Anwendungsfälle einzusetzen, die Anpassungsfähigkeit und Interaktion mit Menschen erfordern, während gleichzeitig strukturierte Arbeitsabläufe beibehalten werden könnten. 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?quality=50&strip=all 3248w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=2048%2C1151&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Dorit Zilbershot, Vice President, Product Management, AI bei ServiceNowServiceNow

Außerdem hätten die KI-Agenten von ServiceNow Zugriff auf alle Analysefähigkeiten, Arbeitsabläufe der Kunden der letzten zwanzig Jahre und Informationen innerhalb und außerhalb von ServiceNow. So könnten die Kunden, von Anfang an von agentenbasierter KI profitieren, so die KI-Expertin: „Es ist im Grunde so, als hätte man einen neuen Mitarbeiter, der bereits alles über das Unternehmen weiß, ohne irgendeine Schulung.“ 

Zusätzlich stelle ServiceNow nun mit AI Agent Orchestrator einen Kontrollturm bereit, der die KI-Agenten verwaltet. Tritt beispielsweise ein Netzwerkproblem auf, so ein von ServiceNow beschriebenes Szenario, verwalte der AI Agent Orchestrator benutzerdefinierte Agenten, die Informationen aus Quellen wie Network Management Software, SIEM (Security Information & Event Management) Systeme und Application Performance Monitoring beziehen, um das Problem zu beheben. Das Problem werde identifiziert, ein Lösungsplan erstellt und – nachdem ein menschlicher Netzwerkoperator ihn genehmigt habe – ausgeführt.

Der AI Agent Orchestrator sorge dabei dafür, dass die KI-Agenten nicht unkontrolliert agieren, sondern auf koordinierten Weise zusammenarbeiten, erklärt Zilbershot. „Sie wollen ja sicher nicht nur diese KI-Agenten einführen und frei im Unternehmen ‚herumlaufen‘ lassen.“  

Tausende von KI-Agenten geplant

Bei der von ServiceNow anvisierten Mengen von KI-Agenten im Unternehmen wäre das auch nicht ratsam. Um die dringlichsten Probleme der Kunden zu lösen, will der Automatisierungsexperte zahlreiche sofort einsatzbereite AI Agents auf der Now Platform bereitstellen. Diese könnten autonom Anwendungsfälle wie Probleme mit Passwörtern oder auf dem Anwender-PC installierter Software lösen oder Zeiten für die Einarbeitung eines neuen Mitarbeiters einzubuchen, führt Zilbershot auf. 

Der Managerin zufolge kommen täglich neue KI-Agenten dazu und bis Mai sollen bereits mehrere Tausend solcher kleinen Helfer zur Verfügung stehen. Weitere AI Agents, die von Partnern wie Accenture, Cognizant und Deloitte entwickelt und veröffentlicht werden, fänden sich im ServiceNow Store.  

Darüber hinaus können Unternehmen im neuen ServiceNow AI Agent Studio auch selbst individuelle AI Agents erstellen und implementieren, die sich nahtlos in unternehmensweite Workflows und Daten integrieren sollen. Laut SeviceNow ist dies über eine sprachbasierte No-Code-Oberfläche möglich, in der die Anwender das gewünschte Ergebnis, die Rolle der AI Agents und die Prozesse, die sie aufbauen möchten, in natürlicher Sprache beschreiben. Wie Zilbershot betont, müsse man dazu auch keine speziellen Prompts verwenden. Das System übernehme dann im Hintergrund die Verarbeitung, um die Sprache in Eingabeaufforderungen umzuwandeln. 

ServiceNow AI Agent Orchestrator und AI Agent Studio sollen ab März 2025 für Pro-Plus- und Enterprise-Plus-Kunden verfügbar sein. 

ServiceNow will Ordnung ins KI-Agenten-Chaos bringen​ Weiterlesen »

DeepSeek R1 – gefährlich disruptiv?​

Allgemein

DeepSeek AI hat das Generative-AI-Game quasi über Nacht auf den Kopf gestellt. Das sollten Unternehmen wissen, bevor sie die Anwendung einsetzen.Rokas Tenys | shutterstock.com Ende 2022 löste ChatGPT den KI-Hype der Neuzeit aus und veranlasste die Tech-Industrie, ihre Zukunft neu zu bewerten. Das chinesische Startup DeepSeek AI konnte Ähnliches bewerkstelligen – nur im Laufe eines Wochenendes. Das bis vor kurzem noch unbekannte Jungunternehmen aus dem Reich der Mitte hat sich in kürzester Zeit als potenzieller, neuer KI-Gamechanger hervorgetan und dadurch an der Wall Street für panische Reaktionen gesorgt. Das grundlegende Versprechen des chinesischen Startups: Sein KI-Modell soll dieselbe Performance wie die „westlichen“ Konkurrenzmodelle von OpenAI, Meta und Co. realisieren, aber zu einem Bruchteil der Kosten. Inzwischen zählen auch prominente Tech-Persönlichkeiten zur Fanbase von DeepSeek AI – zum Beispiel Intels ehemaliger CEO Pat Gelsinger. Er ist davon überzeugt, dass das chinesische Startup „dazu beitragen wird, der zunehmend geschlossenen Welt der Foundational AI Models einen Neustart zu ermöglichen“, wie er in einem überschwänglichen Post auf X kundtut: Wisdom is learning the lessons we thought we already knew. DeepSeek reminds us of three important learnings from computing history:1) Computing obeys the gas law. Making it dramatically cheaper will expand the market for it. The markets are getting it wrong, this will make AI…— Pat Gelsinger (@PGelsinger) January 27, 2025 Aus Unternehmensperspektive sollte der virale Über-Nacht-Erfolg der Chinesen allerdings auch kritische Fragen aufwerfen. Zum Beispiel: Wie steht es wirklich um die Performanz von DeepSeek R1? Welche Datenschutzrisiken ergeben sich daraus, das chinesische KI-Modell im Unternehmen einzusetzen? Wie sicher ist DeepSeek R1 eigentlich? In diesem Artikel versuchen wir, den Antworten auf diese Fragen näherzukommen. “Organisationen sollten sich lieber zurückhalten” Glaubt man DeepSeek AI, soll das KI-Modell R1 sein OpenAI-Äquivalent (o1-mini) in diversen mathematischen und logischen Tests übertreffen können. Zu allem Überfluss ist DeepSeeks R1 mit einer MIT-Lizenz ausgestattet, die es uneingeschränkt gestattet, das KI-Modell kommerziell zu nutzen, zu modifizieren und zu vertreiben. Mit seiner „Zero-Day-Disruption“ stellt DeepSeek AI die Preisstrukturen, die OpenAI, Meta und Co. für ihre Modelle vorsehen, erfolgreich in Frage, wie nicht zuletzt die Reaktion an den Börsen zeigen. Die Verunsicherung ist spürbar: Eventuell benötigt man ja gar keine ausufernden Chip-Cluster, wie sie die Hyperscaler propagieren und kann performante KI-Lösungen auch wesentlich günstiger beziehen, respektive entwickeln? Es ist durchaus möglich, dass DeepSeek R1 das Potenzial hat, die Kosten für Generative AI allgemein zu senken und den LLM-Wettbewerb neu anzuheizen. Die anhaltenden Bemühungen der US-Regierung, chinesische Unternehmen von fortschrittlichen KI-Chips fernzuhalten, hat sich durch DeepSeeks KI-Vorstoß nebenbei ebenfalls als wirkungslos erwiesen – und wohl auch dazu beigetragen, dass die westlichen KI-Player davon (besonders) kalt erwischt wurden. Inzwischen stürzen sich bereits weltweit Scharen von Entwicklern – und Mitarbeitern – auf das KI-Modell von DeepSeek, um es auf Herz und Nieren zu testen (auch wenn der API-Zugriff aktuell wegen eines vermuteten DDoS-Angriffs eingeschränkt ist; Stand 30.01.2025). An dieser Stelle warnt der britische Sicherheitsexperte Graham Cluley: „Man kann jedem, der die App installieren und nutzen möchte, nur zur Vorsicht raten, insbesondere wenn dabei sensible Unternehmensdaten ins Spiel kommen. Organisationen sollten sich mit Blick auf eine umfassende Nutzung lieber zurückhalten, bis die Anwendung gründlicher überprüft wurde – so wie sie es bei jeder neuen App tun würden.“ Dennoch ist der Cybersicherheitsexperte davon überzeugt, dass DeepSeek AI den etablierten Silicon-Valley-Playern Sorgen bereiten sollte: „Wenn die Chinesen tatsächlich in der Lage waren, eine wettbewerbsfähige KI zu entwickeln, die die Lösungen etablierter Tech-Giganten mit Blick auf die Entwicklungskosten massiv unterbietet und mit einem Bruchteil der Hardware auskommt, wird das die Karten neu mischen.“ Mit Blick auf das Preis-Leistungs-Versprechen von DeepSeek AI sind nicht wenige Marktbeobachter jedoch skeptisch. Stacy Rasgon, Senior Analyst bei Bernstein Research zum Beispiel: „DeepSeek hat natürlich nicht OpenAI für fünf Millionen Dollar ‚nachgebaut‘“, konstatiert der Experte im Rahmen einer Kundenmitteilung. Er fügt hinzu: „Diese vielzitierte Zahl wurde auf Grundlage eines Mietpreises von zwei Dollar pro GPU-Stunde berechnet. Das kann man machen, entspricht aber nicht wirklich den Tatsachen und berücksichtigt vor allem nicht sämtliche anderen Kosten, die in Zusammenhang mit früheren Forschungsinitiativen zu Architekturen, Algorithmen oder Daten angefallen sind.“   “DeepSeek R1 ist höchst vulnerabel” Der Threat-Intelligence-Anbieter Kela hat sich in einer aktuellen Analyse auch bereits eingehend mit dem Security-Niveau von DeepSeek R1 auseinandergesetzt. Dabei kommen die Sicherheitsexperten zu besorgniserregenden Ergebnissen: „Wir konnten beobachten, dass DeepSeek R1 ChatGPT ähnlich ist, aber signifikant mehr Schwachstellen aufweist. Unser Red Team konnte das Modell in einer Vielzahl von Szenarien jailbreaken und so bösartige Inhalte generieren.“     So konnten die Kela-Experten nach eigener Auskunft DeepSeek R1 ohne Probleme dazu bringen, eine „schadhafte Persona“ anzunehmen – und anschließend unter anderem Tipps dazu auszuspucken, wie man ein professionelles Geldwäschenetzwerk aufzieht. „Wichtig ist in diesem Zusammenhang, dass dieser ‚Evil Jailbreak‘ in GPT-4 und GPT-4o längst durch einen Patch verhindert wird. Bei DeepSeek R1 war das hingegen problemlos möglich, was demonstriert, dass dieses KI-Modell höchst vulnerabel ist“, konstatieren die Experten. Die Forscher konnten DeepSeeks KI-Modell auch dazu bringen, Malware zu generieren und den Prozess dabei Schritt für Schritt aufzudröseln – inklusive einschlägiger Code Snippets. „Das Modell von DeepSeek AI demonstriert eine starke Performance und Effizienz und ist ein potenzieller Herausforderer für die Tech-Giganten. In Sachen Security, Datenschutz und -sicherheit hinkt DeepSeek R1 allerdings hinterher“, resümieren die Kela-Forscher und mahnen Unternehmen zur Vorsicht. Als chinesisches Unternehmen unterliege DeepSeek AI zudem der chinesischen Gesetzgebung und damit auch der Pflicht, bestimmte Daten mit Regierungsbehörden zu teilen, geben die Forscher darüber hinaus zu bedenken und ergänzen: „Das Unternehmen behält sich auch das Recht vor, die In- und Outputs der Benutzer dazu zu nutzen, seine Services zu optimieren – ohne dabei eine klare Opt-Out-Option anzubieten.“ Auch die Sicherheitsexperten von Wiz Security haben sich nach dem überraschenden Hype um DeepSeek AI mit dem chinesischen KI-Startup beschäftigt – beziehungsweise mit seiner externen Security Posture. In diesem Rahmen sind die Wiz-Experten auf eine verheerende Sicherheitslücke gestoßen, wie sie in einem ausführlichen Blogbeitrag darlegen. BREAKING: Internal #DeepSeek database publicly exposed 🚨Wiz Research has discovered “DeepLeak” – a publicly accessible ClickHouse database belonging to DeepSeek, exposing highly sensitive information, including secret keys, plain-text chat messages, backend details, and logs. pic.twitter.com/C7HZTKNO3p— Wiz (@wiz_io) January 29, 2025 Demnach konnten die Security-Forscher im Netz eine öffentlich zugängliche Clickhouse-Datenbank von DeepSeek AI identifizieren, die es ermöglichte, auf sensible interne Daten zuzugreifen: “Dabei wurden unter anderem eine Million Codezeilen offengelegt, die Chat-Verläufe, geheime Schlüssel sowie Backend-Details und weitere hochsensible Informationen enthielten”, konstatieren die Forscher und fügen hinzu, das DeepSeek-Team umgehend über ihre Erkenntnisse informiert zu haben. Die Sicherheitslücke sei daraufhin zügig geschlossen worden. Das ändert jedoch nichts an der Tatsache, dass Cybersicherheit bei DeepSeek AI bislang scheinbar keine Top-Priorität darstellt. Zumindest legt das der Umfang der von Wiz identifizierten Schwachstellen nahe: “Es war möglich, die vollständige Kontrolle über diese Datenbank zu übernehmen – und zwar ohne sich authentifizieren zu müssen. Damit wären potenziell auch Privilege-Escalation-Angriffe innerhalb der DeepSeek-Umgebung möglich gewesen.” Wie die Forscher von Wiz festhalten, drehe sich im Bereich KI Security vieles um futuristische Bedrohungen, während echte Gefahren, die aus grundlegenden Risiken wie versehentlich offengelegten Datenbanken erwachsen, unter den Tisch fallen würden: “Diese fundamentalen Sicherheitsrisiken sollten für Security-Teams weiterhin oberste Priorität haben”, mahnen die Forscher. Angesichts dieser Erkenntnisse sind staatlich verordnete Zensurmaßnahmen (ein chinesischer Host vorausgesetzt) mit Blick auf DeepSeek AI vielleicht noch das geringste Problem:   data-embed-height=”740″>Just a reminder about the cost of censorship byu/jewdai inChatGPT Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

DeepSeek R1 – gefährlich disruptiv?​ DeepSeek AI hat das Generative-AI-Game quasi über Nacht auf den Kopf gestellt. Das sollten Unternehmen wissen, bevor sie die Anwendung einsetzen.Rokas Tenys | shutterstock.com

Ende 2022 löste ChatGPT den KI-Hype der Neuzeit aus und veranlasste die Tech-Industrie, ihre Zukunft neu zu bewerten. Das chinesische Startup DeepSeek AI konnte Ähnliches bewerkstelligen – nur im Laufe eines Wochenendes. Das bis vor kurzem noch unbekannte Jungunternehmen aus dem Reich der Mitte hat sich in kürzester Zeit als potenzieller, neuer KI-Gamechanger hervorgetan und dadurch an der Wall Street für panische Reaktionen gesorgt.

Das grundlegende Versprechen des chinesischen Startups: Sein KI-Modell soll dieselbe Performance wie die „westlichen“ Konkurrenzmodelle von OpenAI, Meta und Co. realisieren, aber zu einem Bruchteil der Kosten. Inzwischen zählen auch prominente Tech-Persönlichkeiten zur Fanbase von DeepSeek AI – zum Beispiel Intels ehemaliger CEO Pat Gelsinger. Er ist davon überzeugt, dass das chinesische Startup „dazu beitragen wird, der zunehmend geschlossenen Welt der Foundational AI Models einen Neustart zu ermöglichen“, wie er in einem überschwänglichen Post auf X kundtut:

Wisdom is learning the lessons we thought we already knew. DeepSeek reminds us of three important learnings from computing history:1) Computing obeys the gas law. Making it dramatically cheaper will expand the market for it. The markets are getting it wrong, this will make AI…— Pat Gelsinger (@PGelsinger) January 27, 2025

Aus Unternehmensperspektive sollte der virale Über-Nacht-Erfolg der Chinesen allerdings auch kritische Fragen aufwerfen. Zum Beispiel:

Wie steht es wirklich um die Performanz von DeepSeek R1?

Welche Datenschutzrisiken ergeben sich daraus, das chinesische KI-Modell im Unternehmen einzusetzen?

Wie sicher ist DeepSeek R1 eigentlich?

In diesem Artikel versuchen wir, den Antworten auf diese Fragen näherzukommen.

“Organisationen sollten sich lieber zurückhalten”

Glaubt man DeepSeek AI, soll das KI-Modell R1 sein OpenAI-Äquivalent (o1-mini) in diversen mathematischen und logischen Tests übertreffen können. Zu allem Überfluss ist DeepSeeks R1 mit einer MIT-Lizenz ausgestattet, die es uneingeschränkt gestattet, das KI-Modell kommerziell zu nutzen, zu modifizieren und zu vertreiben.

Mit seiner „Zero-Day-Disruption“ stellt DeepSeek AI die Preisstrukturen, die OpenAI, Meta und Co. für ihre Modelle vorsehen, erfolgreich in Frage, wie nicht zuletzt die Reaktion an den Börsen zeigen. Die Verunsicherung ist spürbar: Eventuell benötigt man ja gar keine ausufernden Chip-Cluster, wie sie die Hyperscaler propagieren und kann performante KI-Lösungen auch wesentlich günstiger beziehen, respektive entwickeln? Es ist durchaus möglich, dass DeepSeek R1 das Potenzial hat, die Kosten für Generative AI allgemein zu senken und den LLM-Wettbewerb neu anzuheizen.

Die anhaltenden Bemühungen der US-Regierung, chinesische Unternehmen von fortschrittlichen KI-Chips fernzuhalten, hat sich durch DeepSeeks KI-Vorstoß nebenbei ebenfalls als wirkungslos erwiesen – und wohl auch dazu beigetragen, dass die westlichen KI-Player davon (besonders) kalt erwischt wurden. Inzwischen stürzen sich bereits weltweit Scharen von Entwicklern – und Mitarbeitern – auf das KI-Modell von DeepSeek, um es auf Herz und Nieren zu testen (auch wenn der API-Zugriff aktuell wegen eines vermuteten DDoS-Angriffs eingeschränkt ist; Stand 30.01.2025).

An dieser Stelle warnt der britische Sicherheitsexperte Graham Cluley: „Man kann jedem, der die App installieren und nutzen möchte, nur zur Vorsicht raten, insbesondere wenn dabei sensible Unternehmensdaten ins Spiel kommen. Organisationen sollten sich mit Blick auf eine umfassende Nutzung lieber zurückhalten, bis die Anwendung gründlicher überprüft wurde – so wie sie es bei jeder neuen App tun würden.“

Dennoch ist der Cybersicherheitsexperte davon überzeugt, dass DeepSeek AI den etablierten Silicon-Valley-Playern Sorgen bereiten sollte: „Wenn die Chinesen tatsächlich in der Lage waren, eine wettbewerbsfähige KI zu entwickeln, die die Lösungen etablierter Tech-Giganten mit Blick auf die Entwicklungskosten massiv unterbietet und mit einem Bruchteil der Hardware auskommt, wird das die Karten neu mischen.“

Mit Blick auf das Preis-Leistungs-Versprechen von DeepSeek AI sind nicht wenige Marktbeobachter jedoch skeptisch. Stacy Rasgon, Senior Analyst bei Bernstein Research zum Beispiel: „DeepSeek hat natürlich nicht OpenAI für fünf Millionen Dollar ‚nachgebaut‘“, konstatiert der Experte im Rahmen einer Kundenmitteilung. Er fügt hinzu: „Diese vielzitierte Zahl wurde auf Grundlage eines Mietpreises von zwei Dollar pro GPU-Stunde berechnet. Das kann man machen, entspricht aber nicht wirklich den Tatsachen und berücksichtigt vor allem nicht sämtliche anderen Kosten, die in Zusammenhang mit früheren Forschungsinitiativen zu Architekturen, Algorithmen oder Daten angefallen sind.“  

“DeepSeek R1 ist höchst vulnerabel”

Der Threat-Intelligence-Anbieter Kela hat sich in einer aktuellen Analyse auch bereits eingehend mit dem Security-Niveau von DeepSeek R1 auseinandergesetzt. Dabei kommen die Sicherheitsexperten zu besorgniserregenden Ergebnissen: „Wir konnten beobachten, dass DeepSeek R1 ChatGPT ähnlich ist, aber signifikant mehr Schwachstellen aufweist. Unser Red Team konnte das Modell in einer Vielzahl von Szenarien jailbreaken und so bösartige Inhalte generieren.“    

So konnten die Kela-Experten nach eigener Auskunft DeepSeek R1 ohne Probleme dazu bringen, eine „schadhafte Persona“ anzunehmen – und anschließend unter anderem Tipps dazu auszuspucken, wie man ein professionelles Geldwäschenetzwerk aufzieht. „Wichtig ist in diesem Zusammenhang, dass dieser ‚Evil Jailbreak‘ in GPT-4 und GPT-4o längst durch einen Patch verhindert wird. Bei DeepSeek R1 war das hingegen problemlos möglich, was demonstriert, dass dieses KI-Modell höchst vulnerabel ist“, konstatieren die Experten. Die Forscher konnten DeepSeeks KI-Modell auch dazu bringen, Malware zu generieren und den Prozess dabei Schritt für Schritt aufzudröseln – inklusive einschlägiger Code Snippets.

„Das Modell von DeepSeek AI demonstriert eine starke Performance und Effizienz und ist ein potenzieller Herausforderer für die Tech-Giganten. In Sachen Security, Datenschutz und -sicherheit hinkt DeepSeek R1 allerdings hinterher“, resümieren die Kela-Forscher und mahnen Unternehmen zur Vorsicht. Als chinesisches Unternehmen unterliege DeepSeek AI zudem der chinesischen Gesetzgebung und damit auch der Pflicht, bestimmte Daten mit Regierungsbehörden zu teilen, geben die Forscher darüber hinaus zu bedenken und ergänzen: „Das Unternehmen behält sich auch das Recht vor, die In- und Outputs der Benutzer dazu zu nutzen, seine Services zu optimieren – ohne dabei eine klare Opt-Out-Option anzubieten.“

Auch die Sicherheitsexperten von Wiz Security haben sich nach dem überraschenden Hype um DeepSeek AI mit dem chinesischen KI-Startup beschäftigt – beziehungsweise mit seiner externen Security Posture. In diesem Rahmen sind die Wiz-Experten auf eine verheerende Sicherheitslücke gestoßen, wie sie in einem ausführlichen Blogbeitrag darlegen.

BREAKING: Internal #DeepSeek database publicly exposed 🚨Wiz Research has discovered “DeepLeak” – a publicly accessible ClickHouse database belonging to DeepSeek, exposing highly sensitive information, including secret keys, plain-text chat messages, backend details, and logs. pic.twitter.com/C7HZTKNO3p— Wiz (@wiz_io) January 29, 2025

Demnach konnten die Security-Forscher im Netz eine öffentlich zugängliche Clickhouse-Datenbank von DeepSeek AI identifizieren, die es ermöglichte, auf sensible interne Daten zuzugreifen: “Dabei wurden unter anderem eine Million Codezeilen offengelegt, die Chat-Verläufe, geheime Schlüssel sowie Backend-Details und weitere hochsensible Informationen enthielten”, konstatieren die Forscher und fügen hinzu, das DeepSeek-Team umgehend über ihre Erkenntnisse informiert zu haben. Die Sicherheitslücke sei daraufhin zügig geschlossen worden.

Das ändert jedoch nichts an der Tatsache, dass Cybersicherheit bei DeepSeek AI bislang scheinbar keine Top-Priorität darstellt. Zumindest legt das der Umfang der von Wiz identifizierten Schwachstellen nahe: “Es war möglich, die vollständige Kontrolle über diese Datenbank zu übernehmen – und zwar ohne sich authentifizieren zu müssen. Damit wären potenziell auch Privilege-Escalation-Angriffe innerhalb der DeepSeek-Umgebung möglich gewesen.”

Wie die Forscher von Wiz festhalten, drehe sich im Bereich KI Security vieles um futuristische Bedrohungen, während echte Gefahren, die aus grundlegenden Risiken wie versehentlich offengelegten Datenbanken erwachsen, unter den Tisch fallen würden: “Diese fundamentalen Sicherheitsrisiken sollten für Security-Teams weiterhin oberste Priorität haben”, mahnen die Forscher.

Angesichts dieser Erkenntnisse sind staatlich verordnete Zensurmaßnahmen (ein chinesischer Host vorausgesetzt) mit Blick auf DeepSeek AI vielleicht noch das geringste Problem:  

data-embed-height=”740″>Just a reminder about the cost of censorship byu/jewdai inChatGPT

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

DeepSeek R1 – gefährlich disruptiv?​ Weiterlesen »

Software-Entwicklung: 7 Faktoren für garantiertes Scheitern​

Allgemein

Kennen Sie das? Wochen und Monate berichtet der Projektleiter im Leitungskreis zu seinem Projekt. Selbstverständlich darf dabei die klassische Statusampel nicht fehlen. Und diese steht beständig auf Grün: alles ok. Doch eines Tages wechselt die Ampel unvermittelt auf Rot! Konsequenterweise beginnt nun für die Verantwortlichen ein sehr unerfreulicher Aufarbeitungsprozess. Meist gilt die erste Frage dem Schuldigen, die zweite den Ursachen und dann erst widmet man sich den Lösungsmöglichkeiten.Nachfolgend 7 typische Faktoren, die den Misserfolg fast schon garantieren.Faktor 1: Missachten Sie den Faktor MenschIn vielen Jahren als Entwickler, Projektleiter, Coach und Krisenmanager habe ich festgestellt, dass zwischenmenschliche Spannungen das größte Hindernis in der Umsetzung von IT-Projekten darstellen. Stimmt umgekehrt die Chemie zwischen den Mitarbeitern und es herrscht ein offenes, fehlertolerantes Klima, lassen sich für alle Schwierigkeiten Lösungen finden – auch in kritischen Situationen.Es liegt in der Natur des Menschen, Konflikten aus dem Weg zu gehen. Und somit ist es nur natürlich, wenn implizit oder explizit mit Personalführung beauftragte Personen (z.B. der Projektleiter) schlechte Stimmungen komplett ignorieren oder zu lange wegsehen. Doch Konflikte lösen sich meist nicht von alleine. Es bedarf der Ursachenforschung, der Moderation und mindestens die Perspektive auf Veränderung oder Lösung. Manchmal sind es die kleinen Dinge, die eine große Wirkung erzielen, wie z.B. ein neuer Arbeitsplatz für einen Mitarbeiter. Oft sind jedoch größere Aufwände notwendig, wie z.B. die Neuorganisation von Teams, um wieder Ruhe in das Projekt zu bringen. Die schlechteste Alternative ist jedoch die Missachtung des Faktors Mensch. Platz 1.Faktor 2: Zu groß denken oder zu klein machenManche Firmen übernehmen sich mit einem Projekt. Sie unterschätzen die Komplexität, die Risiken und den immensen personellen wie materiellen Aufwand. Ist – unabhängig von den Kosten – meine Organisation überhaupt in der Lage, ein Projekt mit 100 Mitarbeitern zu stemmen? Haben wir genügend Arbeitsplätze, Besprechungsräume, Netzkapazität, Entwicklungsserver etc.? Ist der Betrieb imstande, die Anforderungen eines großen agilen Entwicklungsteams an eine Entwicklungs- und Teststrecke inkl. Continuous Integration/Delivery zu erfüllen? Solchen Fragen vorangestellt, sollte der Business Case realistisch gerechnet worden sein. Ich habe es mehrfach erlebt, dass erst kurz vor dem Start eines gigantischen Projektes klar wurde, dass man das resultierende System eigentlich gar nicht benötigte, weil es nicht in das Geschäftsmodell des Unternehmens passte. Leider war das zuvor niemandem aufgefallen.Ein weiteres, erkennbares Muster: Ein Protagonist möchte die Realisierung einer SW unbedingt, z.B. aus Prestigegründen oder um Mitarbeiter auszulasten, und rechnet die Kosten klein. Ist der spätere Projektleiter nicht stark genug, die Diskrepanz im Rahmen von Entscheidungsgremien darzustellen, entstehen hieraus hohe Krisenpotenziale. Platz 2.Faktor 3: Sich auf Schätzungen und Planungen 100% verlassenEin weit verbreiteter Mythos ist die Verlässlichkeit von Schätzungen und Planungen. Der Begriff des Projektes ist definiert durch seine Einmaligkeit. Vielleicht gab es bereits ähnlich gelagerte Vorhaben, doch grundsätzlich betritt ein Unternehmen mit jedem Projekt Neuland. Das bedeutet, dass Schätzungen immer nur so gut sein können, wie die Erfahrungen der Ersteller und deren Adaptionsfähigkeiten bzgl. des aktuellen Projekts. Pläne können allerdings niemals spontane Ereignisse, Veränderungen hinsichtlich der Anforderungen, der Technologien oder den Eintritt nicht erwarteter Risiken mit einschließen. Letztlich sind Schätzungen und die darauf aufbauenden Pläne nichts weiter als eine Wette auf die Zukunft! Diese Tatsache zu akzeptieren, ist ein erster Schritt nach vorn. Disziplin, Mut und Systematik helfen, mögliche Krisen zu verhindern oder zu lindern. Platz 3.Faktor 4: Das magische PM-Dreieck konsequent missachtenStudium der Informatik, erstes Semester, erste Vorlesung Projektmanagement: “Das magische PM-Dreieck”. Schon sehr früh wird der an Managementaufgaben Interessierte an die Gesetze dieses Dreiecks herangeführt. Diese besagen, dass die Veränderung eines der drei Parameter Zeit, Budget oder Inhalt (Qualität) unweigerlich zu Konsequenzen bei mindestens einem der weiteren Parameter führen.Doch werden diese Gesetze in der Praxis nur zu gerne ignoriert. Wie schon im Kontext von Schätzung und Planung erwähnt, ist ein Projekt etwas Einmaliges und die Wahrscheinlichkeit von nicht geplanten Einflüssen extrem hoch. Deshalb ist es früher oder später in quasi jedem Projekt erforderlich, dass die Verantwortlichen auf diese Einflüsse reagieren. Sind dann jedoch alle Parameter fixiert, d.h. der Kunde fordert weiterhin die Einhaltung von Zeit, Budget und Inhalt, ist das Scheitern nur noch eine Frage der Zeit. Platz 4.Faktor 5: Dokumentation über allesFrei nach Franz Beckenbauer: “We call it a Klassiker!” Obwohl immer mehr Unternehmen auf agile Vorgehensweisen (meist Scrum) setzen, findet man weiterhin Organisationen und Projekte, welche einer umfangreichen Dokumentation den größeren Stellenwert einräumen, als der zu erstellenden Software. Gerade in großen Projekten ist dies ein hohes Risiko. Oftmals arbeitet über Monate oder gar Jahre eine Heerschar von Beratern und Fachbereichsexperten an tausenden Seiten Beschreibungen, welche später von einem anderen Team in SW übersetzt werden. Je umfangreicher die Dokumentation, desto länger die Realisierungszeit und umso unwahrscheinlicher ist es, dass die SW den tatsächlichen Erfordernissen der Anwender entspricht. Reaktionen auf Veränderungen des Marktes sind nicht oder nur mit großem Aufwand und zeitlichen Zugeständnissen möglich. Zwar bietet ein Dokument eine Basis, gegen die das Produkt abgenommen werden kann. Doch leider ist das Geschriebene nicht unbedingt eindeutig und das Ergebnis anders als ursprünglich gedacht. Wie oft habe ich von Fachbereichsmitarbeitern und Endanwendern den Satz gehört: “Oh, das habe ich mir aber ganz anders vorgestellt!”. Platz 5.Faktor 6: Bloß keine ausgewogene ProjektorganisationEin Team von 20 Entwicklern und 1 fachlicher Ansprechpartner? Es bedarf keines Expertenwissens, um zu erkennen, dass dieses Konstrukt früher oder später scheitern wird. Zu Beginn eines Projektes, egal ob Wasserfall oder agil, mag es noch funktionieren, weil die Entwickler mit Frameworks oder der Einrichtung der Umgebungen beschäftigt sind. Doch sehr bald werden die Mitarbeiter Fragen stellen – intensive fachliche Betreuung benötigen. Ein einzelner Fachexperte kann diesem zeitlichen und emotionalen Druck niemals standhalten und benötigt Unterstützung, sowohl personell als auch durch den Realisierungsprozess. Allerdings ist es eine sehr schlechte Idee, dem Personalengpass mit der Beschränkung der Kommunikation zu begegnen.Ebenfalls eine beliebte Idee und ganz weit vorne auf der Skala der typischen Managementfehler: Ein Mitarbeiter sammelt die Fragen der Entwickler, erörtert diese mit dem fachlichen Ansprechpartner und trägt die Antworten wieder zurück. Auf diese Weise erzeugt man einen Flaschenhals par excellence, löst eine extrem hohe Fehlerquote aus und verzögert die Entwicklung maßgeblich. Mein Platz 6 für sicheres Scheitern.Faktor 7: Den Frosch unbedingt langsam erhitzenKennen Sie diese Geschichte? Setzt man einen Frosch in einen Topf mit Wasser und erhitzt dieses kontinuierlich bis zum Kochen, unternimmt der Frosch keinerlei Fluchtversuche. Wirft man ihn direkt in heißes Wasser, springt er sofort heraus.Eine der für mich wichtigsten Erkenntnisse der letzten Jahre ist, dass Mitarbeiter von IT-Projekten mit fortschreitender Dauer einer zunehmenden Betriebsblindheit verfallen. Einmal etablierte Prozesse werden vielleicht in Retrospektiven hinterfragt, aber selten wirklich einschneidend angepasst. Die Fähigkeit der Menschen auf Veränderungen zu reagieren, schwindet umgekehrt proportional zur Dauer eines Projektes. Daher ist die sporadische Beleuchtung (Health Checks) von (insbesondere großen) Projekten durch einen externen, bisher nicht involvierten Berater zu empfehlen, um ausgetretene, potenziell nicht zielführende Pfade zu entdecken. Spätestens nach Erkennen einer ausgewachsenen Krise, ist es nahezu unmöglich, alleine mit dem bestehenden Personal den Turnaround zu schaffen. Platz 7.So kann es sicher gelingenDie beschriebenen typischen Managementfehler stellen lediglich eine kleine Auswahl meiner persönlichen Hitliste von Verhaltensmustern dar, welche den erfolgreichen Abschluss von SW-Entwicklungsprojekten be- oder gar verhindern. Aus der Distanz betrachtet, könnte der Eindruck entstehen, es sei ein Leichtes, die Probleme zu erkennen und bereits in frühen Stadien der Projekte zu korrigieren. Doch vermeintlich unverrückbare Rahmenbedingungen und die angesprochene Betriebsblindheit erschweren es oftmals, die richtigen Entscheidungen zu treffen. Die eingangs erwähnten Statistiken der Standish Group beweisen dies Jahr für Jahr.Ist ein Projekt tatsächlich in Schieflage geraten, empfiehlt sich dringend das Hinzuziehen eines externen Krisenmanagers, der objektiv, frei von Befindlichkeiten und ohne den Ballast einer Projekthistorie analysieren und agieren kann. Allein die Beteiligung eines Sachverständigen, der den Menschen im Projekt zuhört, kann bereits positive Effekte hervorrufen. Durch die Auswahl geeigneter Maßnahmen gelingen auch die Transformation und schließlich der Turnaround.15 Probleme beim Projektmanagement1. Unklare ArbeitslastBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte ErwartungenAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-UnterstützungDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema FIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes HerrschaftswissenProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare EntscheidungsfindungIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende SoftwareExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des AusufernsChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen könnenIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder ZusammenhaltProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener ArbeitsalltagHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige MeetingsMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gutSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernenLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim ProjektmanagementEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden. 

Software-Entwicklung: 7 Faktoren für garantiertes Scheitern​ Kennen Sie das? Wochen und Monate berichtet der Projektleiter im Leitungskreis zu seinem Projekt. Selbstverständlich darf dabei die klassische Statusampel nicht fehlen. Und diese steht beständig auf Grün: alles ok. Doch eines Tages wechselt die Ampel unvermittelt auf Rot! Konsequenterweise beginnt nun für die Verantwortlichen ein sehr unerfreulicher Aufarbeitungsprozess. Meist gilt die erste Frage dem Schuldigen, die zweite den Ursachen und dann erst widmet man sich den Lösungsmöglichkeiten.Nachfolgend 7 typische Faktoren, die den Misserfolg fast schon garantieren.Faktor 1: Missachten Sie den Faktor MenschIn vielen Jahren als Entwickler, Projektleiter, Coach und Krisenmanager habe ich festgestellt, dass zwischenmenschliche Spannungen das größte Hindernis in der Umsetzung von IT-Projekten darstellen. Stimmt umgekehrt die Chemie zwischen den Mitarbeitern und es herrscht ein offenes, fehlertolerantes Klima, lassen sich für alle Schwierigkeiten Lösungen finden – auch in kritischen Situationen.Es liegt in der Natur des Menschen, Konflikten aus dem Weg zu gehen. Und somit ist es nur natürlich, wenn implizit oder explizit mit Personalführung beauftragte Personen (z.B. der Projektleiter) schlechte Stimmungen komplett ignorieren oder zu lange wegsehen. Doch Konflikte lösen sich meist nicht von alleine. Es bedarf der Ursachenforschung, der Moderation und mindestens die Perspektive auf Veränderung oder Lösung. Manchmal sind es die kleinen Dinge, die eine große Wirkung erzielen, wie z.B. ein neuer Arbeitsplatz für einen Mitarbeiter. Oft sind jedoch größere Aufwände notwendig, wie z.B. die Neuorganisation von Teams, um wieder Ruhe in das Projekt zu bringen. Die schlechteste Alternative ist jedoch die Missachtung des Faktors Mensch. Platz 1.Faktor 2: Zu groß denken oder zu klein machenManche Firmen übernehmen sich mit einem Projekt. Sie unterschätzen die Komplexität, die Risiken und den immensen personellen wie materiellen Aufwand. Ist – unabhängig von den Kosten – meine Organisation überhaupt in der Lage, ein Projekt mit 100 Mitarbeitern zu stemmen? Haben wir genügend Arbeitsplätze, Besprechungsräume, Netzkapazität, Entwicklungsserver etc.? Ist der Betrieb imstande, die Anforderungen eines großen agilen Entwicklungsteams an eine Entwicklungs- und Teststrecke inkl. Continuous Integration/Delivery zu erfüllen? Solchen Fragen vorangestellt, sollte der Business Case realistisch gerechnet worden sein. Ich habe es mehrfach erlebt, dass erst kurz vor dem Start eines gigantischen Projektes klar wurde, dass man das resultierende System eigentlich gar nicht benötigte, weil es nicht in das Geschäftsmodell des Unternehmens passte. Leider war das zuvor niemandem aufgefallen.Ein weiteres, erkennbares Muster: Ein Protagonist möchte die Realisierung einer SW unbedingt, z.B. aus Prestigegründen oder um Mitarbeiter auszulasten, und rechnet die Kosten klein. Ist der spätere Projektleiter nicht stark genug, die Diskrepanz im Rahmen von Entscheidungsgremien darzustellen, entstehen hieraus hohe Krisenpotenziale. Platz 2.Faktor 3: Sich auf Schätzungen und Planungen 100% verlassenEin weit verbreiteter Mythos ist die Verlässlichkeit von Schätzungen und Planungen. Der Begriff des Projektes ist definiert durch seine Einmaligkeit. Vielleicht gab es bereits ähnlich gelagerte Vorhaben, doch grundsätzlich betritt ein Unternehmen mit jedem Projekt Neuland. Das bedeutet, dass Schätzungen immer nur so gut sein können, wie die Erfahrungen der Ersteller und deren Adaptionsfähigkeiten bzgl. des aktuellen Projekts. Pläne können allerdings niemals spontane Ereignisse, Veränderungen hinsichtlich der Anforderungen, der Technologien oder den Eintritt nicht erwarteter Risiken mit einschließen. Letztlich sind Schätzungen und die darauf aufbauenden Pläne nichts weiter als eine Wette auf die Zukunft! Diese Tatsache zu akzeptieren, ist ein erster Schritt nach vorn. Disziplin, Mut und Systematik helfen, mögliche Krisen zu verhindern oder zu lindern. Platz 3.Faktor 4: Das magische PM-Dreieck konsequent missachtenStudium der Informatik, erstes Semester, erste Vorlesung Projektmanagement: “Das magische PM-Dreieck”. Schon sehr früh wird der an Managementaufgaben Interessierte an die Gesetze dieses Dreiecks herangeführt. Diese besagen, dass die Veränderung eines der drei Parameter Zeit, Budget oder Inhalt (Qualität) unweigerlich zu Konsequenzen bei mindestens einem der weiteren Parameter führen.Doch werden diese Gesetze in der Praxis nur zu gerne ignoriert. Wie schon im Kontext von Schätzung und Planung erwähnt, ist ein Projekt etwas Einmaliges und die Wahrscheinlichkeit von nicht geplanten Einflüssen extrem hoch. Deshalb ist es früher oder später in quasi jedem Projekt erforderlich, dass die Verantwortlichen auf diese Einflüsse reagieren. Sind dann jedoch alle Parameter fixiert, d.h. der Kunde fordert weiterhin die Einhaltung von Zeit, Budget und Inhalt, ist das Scheitern nur noch eine Frage der Zeit. Platz 4.Faktor 5: Dokumentation über allesFrei nach Franz Beckenbauer: “We call it a Klassiker!” Obwohl immer mehr Unternehmen auf agile Vorgehensweisen (meist Scrum) setzen, findet man weiterhin Organisationen und Projekte, welche einer umfangreichen Dokumentation den größeren Stellenwert einräumen, als der zu erstellenden Software. Gerade in großen Projekten ist dies ein hohes Risiko. Oftmals arbeitet über Monate oder gar Jahre eine Heerschar von Beratern und Fachbereichsexperten an tausenden Seiten Beschreibungen, welche später von einem anderen Team in SW übersetzt werden. Je umfangreicher die Dokumentation, desto länger die Realisierungszeit und umso unwahrscheinlicher ist es, dass die SW den tatsächlichen Erfordernissen der Anwender entspricht. Reaktionen auf Veränderungen des Marktes sind nicht oder nur mit großem Aufwand und zeitlichen Zugeständnissen möglich. Zwar bietet ein Dokument eine Basis, gegen die das Produkt abgenommen werden kann. Doch leider ist das Geschriebene nicht unbedingt eindeutig und das Ergebnis anders als ursprünglich gedacht. Wie oft habe ich von Fachbereichsmitarbeitern und Endanwendern den Satz gehört: “Oh, das habe ich mir aber ganz anders vorgestellt!”. Platz 5.Faktor 6: Bloß keine ausgewogene ProjektorganisationEin Team von 20 Entwicklern und 1 fachlicher Ansprechpartner? Es bedarf keines Expertenwissens, um zu erkennen, dass dieses Konstrukt früher oder später scheitern wird. Zu Beginn eines Projektes, egal ob Wasserfall oder agil, mag es noch funktionieren, weil die Entwickler mit Frameworks oder der Einrichtung der Umgebungen beschäftigt sind. Doch sehr bald werden die Mitarbeiter Fragen stellen – intensive fachliche Betreuung benötigen. Ein einzelner Fachexperte kann diesem zeitlichen und emotionalen Druck niemals standhalten und benötigt Unterstützung, sowohl personell als auch durch den Realisierungsprozess. Allerdings ist es eine sehr schlechte Idee, dem Personalengpass mit der Beschränkung der Kommunikation zu begegnen.Ebenfalls eine beliebte Idee und ganz weit vorne auf der Skala der typischen Managementfehler: Ein Mitarbeiter sammelt die Fragen der Entwickler, erörtert diese mit dem fachlichen Ansprechpartner und trägt die Antworten wieder zurück. Auf diese Weise erzeugt man einen Flaschenhals par excellence, löst eine extrem hohe Fehlerquote aus und verzögert die Entwicklung maßgeblich. Mein Platz 6 für sicheres Scheitern.Faktor 7: Den Frosch unbedingt langsam erhitzenKennen Sie diese Geschichte? Setzt man einen Frosch in einen Topf mit Wasser und erhitzt dieses kontinuierlich bis zum Kochen, unternimmt der Frosch keinerlei Fluchtversuche. Wirft man ihn direkt in heißes Wasser, springt er sofort heraus.Eine der für mich wichtigsten Erkenntnisse der letzten Jahre ist, dass Mitarbeiter von IT-Projekten mit fortschreitender Dauer einer zunehmenden Betriebsblindheit verfallen. Einmal etablierte Prozesse werden vielleicht in Retrospektiven hinterfragt, aber selten wirklich einschneidend angepasst. Die Fähigkeit der Menschen auf Veränderungen zu reagieren, schwindet umgekehrt proportional zur Dauer eines Projektes. Daher ist die sporadische Beleuchtung (Health Checks) von (insbesondere großen) Projekten durch einen externen, bisher nicht involvierten Berater zu empfehlen, um ausgetretene, potenziell nicht zielführende Pfade zu entdecken. Spätestens nach Erkennen einer ausgewachsenen Krise, ist es nahezu unmöglich, alleine mit dem bestehenden Personal den Turnaround zu schaffen. Platz 7.So kann es sicher gelingenDie beschriebenen typischen Managementfehler stellen lediglich eine kleine Auswahl meiner persönlichen Hitliste von Verhaltensmustern dar, welche den erfolgreichen Abschluss von SW-Entwicklungsprojekten be- oder gar verhindern. Aus der Distanz betrachtet, könnte der Eindruck entstehen, es sei ein Leichtes, die Probleme zu erkennen und bereits in frühen Stadien der Projekte zu korrigieren. Doch vermeintlich unverrückbare Rahmenbedingungen und die angesprochene Betriebsblindheit erschweren es oftmals, die richtigen Entscheidungen zu treffen. Die eingangs erwähnten Statistiken der Standish Group beweisen dies Jahr für Jahr.Ist ein Projekt tatsächlich in Schieflage geraten, empfiehlt sich dringend das Hinzuziehen eines externen Krisenmanagers, der objektiv, frei von Befindlichkeiten und ohne den Ballast einer Projekthistorie analysieren und agieren kann. Allein die Beteiligung eines Sachverständigen, der den Menschen im Projekt zuhört, kann bereits positive Effekte hervorrufen. Durch die Auswahl geeigneter Maßnahmen gelingen auch die Transformation und schließlich der Turnaround.15 Probleme beim Projektmanagement1. Unklare ArbeitslastBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte ErwartungenAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-UnterstützungDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema FIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes HerrschaftswissenProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare EntscheidungsfindungIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende SoftwareExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des AusufernsChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen könnenIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder ZusammenhaltProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener ArbeitsalltagHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige MeetingsMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gutSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernenLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim ProjektmanagementEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden.

Software-Entwicklung: 7 Faktoren für garantiertes Scheitern​ Weiterlesen »

3 Python Web Frameworks für Vorzeige-Frontends​

Allgemein

Wenn Sie interaktive Webseiten erstellen, dabei aber ausschließlich Python nutzen wollen, fahren Sie mit diesen Frameworks besser. Foto: Kurit afshen – shutterstock.com Python hat sich längst als Sprache für serverseitige Frameworks etabliert und unterstützt dabei Projekte jeder Größenordnung und sämtliche Use Cases. Allerdings ist Python bisher auch eher auf das Backend beschränkt – bislang gibt es noch keine wirkliche “Kultur”, Python für Frontend- und Client-seitigen Code zu nutzen. Das liegt auch daran, dass bisherige Versuche, Python am Frontend in JavaScript zu transpilieren oder über WebAssembly auszuführen, eher klobig und bisweilen primitiv umgesetzt wurden. Doch es gibt neue Hoffnung: Einige moderne Web Frameworks ermöglichen es, deklarativen Python-Code im Backend zu schreiben, der programmatisch Frontend-Code generiert. Sie können Python-Objekte verwenden, um HTML-Entitäten und deren JavaScript-gestütztes Verhalten zu beschreiben – und dann das Framework diese Objekte erstellen lassen, wenn sie dem Client übergeben werden. Die folgenden drei Web Frameworks für Python folgen exakt diesem Paradigma. Jedes von ihnen ermöglicht es, Frontend-Code (HTML, CSS und JavaScript) durch Backend-Python-Code zu erzeugen. Die Frontend-Objekte werden dabei durch das Python-Objektmodell dargestellt. 1. Anvil Die Macher des Web Frameworks Anvil versprechen, “Webanwendungen mit nichts anderem als Python zu erstellen”. Allerdings können Sie dabei auch auf Low-Code-Tools mit Drag-and-Drop-Funktion zurückgreifen. Am Ende steht eine vollwertige Webanwendung mit einem interaktiven, JavaScript-basierten Frontend und einem Python-basierten Backend. Anvil bietet dabei zwei grundlegende Ansätze: Der Cloud Service ist in verschiedenen Preisstufen erhältlich und bietet visuelle Build-Tools sowie eine Reihe von Hosting-Optionen. Die quelloffene Laufzeitumgebung von Anvil enthält kein Design-Tool, ermöglicht es aber, Anwendungen mit manuell geschriebenem Code zu erstellen und auszuführen. Anvil-Anwendungen bestehen grundsätzlich aus drei Komponenten: der Benutzeroberfläche (die sich manuell oder mit Low-Code-Tools erstellen lässt), dem clientseitigen Code (der von Python nach JavaScript transpiliert wird), sowie dem serverseitigen Python-Code. Der Anvil-Cloud-Editor generiert automatisch Backend- und Frontend-Code im Stil von Tools wie Qt Design Studio. Er enthält standardmäßig einige Beispiele – etwa eine einfache, statische Applikation ohne Backend-Code, ein simples Ticketing-System und einen vollständigen Onlineshop. Diese dienen potenziell als Template für Ihr eigenes Projekt. Die Cloud-Inkarnation von Anvil bietet ein mächtiges Visual-Design-Tool für UIs. Einmal generiert, können Sie den Code auch jenseits des Tools einsetzen.IDG Darüber hinaus bietet Anvil auch eine nützliche Auswahl an UI-Komponenten, die Sie in Ihre Webseiten einbinden können. Dazu gehört beispielsweise ein Timer, der dafür sorgt, dass Code in bestimmten Intervallen ausgeführt wird – etwa, um Datenquellen nach Aktualisierungen abzufragen. Bei Bedarf können Sie auch Ihr eigenes HTML und eigene Komponenten erstellen. Datenquellen lassen sich über die Cloud hinzufügen und mit Komponenten verdrahten, so dass gängige CRUD-Applikationen sehr flott entstehen. Wenn Sie sich dazu entscheiden, die Anvil Runtime zu nutzen, können Sie Anwendungen manuell schreiben und dabei einige Templates als Startpunkt nutzen. Code-Änderungen werden sofort auf den Anwendungsserver übertragen, was einen schnellen Entwicklungszyklus ermöglicht. Bei den Elementen der Benutzeroberfläche handelt es sich im Wesentlichen um Instanzen von Python-Klassen, deren Ereignis-Handler über Klassenmethoden hinzugefügt werden. Über gut durchdachte allgemeine Methoden lassen sich auch programmatische Verhaltensweisen hinzufügen. Wenn Sie beispielsweise einen Event bei den Children eines Objects auslösen möchten, brauchen Sie dafür keinen Loop. Stattdessen nutzen Sie einfach die raise_event_on_children-Methode für das Container-Objekt. Standardmäßig wird der gesamte JavaScript-Code für eine Anvil-Site automatisch generiert, Sie können bei Bedarf aber auch Ihren eigenen schreiben. In diesem Fall sollten Sie darauf achten, dass dieser nicht mit dem Anvil-Code in Konflikt gerät. Zudem sind einige der Anvil-eigenen Abhängigkeiten etwas veraltet, zum Beispiel Bootstrap 3. Dieses Problem können Sie umgehen, indem Sie ein benutzerdefiniertes Theme erstellen – was nicht leider nicht trivial ist. 2. Reflex Das Reflex-Framework (ehemals bekannt als Pynecone) kann nicht mit dem Design-Toolset von Anvil aufwarten, entspringt jedoch derselben Grundidee: Python-Code zu verwenden, um sowohl das Backend Ihres Web-Stacks zu coden, als auch das Frontend programmatisch zu generieren, ohne dabei auf JavaScript zurückgreifen zu müssen. Zu Pynecone-Zeiten verwendete das Framework selbst sowohl Python als auch die (Long-term Support-Version der) Node.js-Laufzeitumgebung in Kombination mit dem Bun JavaScript Library Manager. Reflex benötigt lediglich Python in Version 3.8 (oder höher) und funktioniert unter Linux und Windows. Benutzern des Microsoft-Betriebssystems wird für eine optimale Performance allerdings empfohlen, das Windows-Subsystem für Linux (WSL) zu nutzen. Um ein neues Reflex-Projekt aufzusetzen, nutzen Sie den reflex-Befehl. Ein Beispiel für eine Reflex-Webanwendung in Python. Der interaktive Chart unterstreicht die Widget-Vielfalt von Reflex.IDG Das Frontend einer Reflex-App kompiliert zu einer React-Anwendung, wobei FastAPI zum Einsatz kommt, um das Python-Backend zu bedienen. Viele gängige Komponenten sind bereits integriert – nicht nur so alltägliche Dinge wie Textlayouts oder Formularverarbeitung, sondern auch: Data Display Objects wie Diagramme, Feedback-Steuerelemente wie Alerts und Fortschrittsbalken sowie Overlay-Objekte wie Modals und Tooltips. Darüber hinaus lassen sich auch benutzerdefinierte React-Komponenten einbinden. Für die Anbindung an Datenquellen enthält Reflex einen Data Layer (SQLAlchemy ORM). Falls Sie eine UI-Komponente anpassen möchten, können die meisten gängigen Modifikationen (wie zum Beispiel CSS-Styling) als Argumente an den Object Constructor übergeben werden, anstatt eine Komponente per Subclassing zu ändern. Für alles andere gibt es benutzerdefiniertes HTML, aber eine Kombination aus den Built-Ins und ihren Optionen sollte für die große Mehrheit der gängigen Projekte ausreichen. Wenn Sie hauptsächlich statische Websites erstellen, bringt Reflex zudem eine praktische Funktion mit, mit der es sich auch als programmatisches Website-Generator-Tool empfiehlt – nämlich eine komplette Webseite in ein statisches Build zu exportieren. 3. NiceGUI Angenommen, Sie möchten einer existierenden Python-App, die über die Kommandozeile oder einen Web Service läuft, ein webbasiertes User Interface hinzufügen – und zwar möglichst schnell. Dann könnten Sie versuchen, ein Frontend in Eigenregie zusammenzuzimmern – oder sich den Aufwand sparen und einfach NiceGUI dafür verwenden. Dieses Python Web Framework nutzt deklarative Syntax, um zu beschreiben, wie UI-Komponenten aussehen und sich verhalten sollen. Das Spektrum an vorgefertigten Komponenten ist dabei breitgefächert und enthält beispielsweise: Buttons, Slider, Text-Label, Eingabefelder, und Datei-Uploader.   Darüber hinaus stehen auch einige Optionen für anspruchsvollere Audio- oder Videoanwendungen zur Verfügung, beispielsweise, um Daten interaktiv zu präsentieren oder 3D-Viualisierungen auf die Beine zu stellen. Dabei erfordert keine Komponente auch nur eine einzige Zeile Browser-Code – NiceGUI übernimmt das vollständig für Sie.   Eine simple NiceGUI-App mit programmatisch generierten Web Widgets. Die resultierede Applikation lässt sich als Standalone-Programm oder über einen Server bereitstellen.IDG Um vorhandenen Code mit NiceGUI zu wrappen, sollten Sie sich zuvor damit auseinandersetzen, wie NiceGUI beispielsweise mit Event Loops und Application State umgeht. Die gute Nachricht vorab: All das läuft über High-Level-Konstrukte innerhalb des NiceGUI-Frameworks selbst ab. Zum Beispiel: können Sie mit dem ui.timer-Objekt definieren, dass Code in bestimmten Intervallen ausgeführt wird; übernehmen ui.clipboard und app.storage die entsprechenden Prozesse; können langlaufende Tasks mit run.cpu_bound einfach an einen Subprozess delegiert werden – oder an einen Thread (run.io_bound). NiceGUI nutzt FastAPI als internes Web Framework – entsprechend folgen die Applikationen demselben Muster. Sie können darüber hinaus auch vorgefertigte Docker-Images als (containerisierte) Version einer NiceGUI-App nutzen. Oder Sie bündeln Ihre App als Standalone-Executable, um sie möglichst einfach zu verteilen. Welches Python Web Framework nutzen? Zusammenfassend lässt sich festhalten: Anvil besticht vor allem mit seinen Tools, um interaktive Benutzeroberflächen mit wenig bis gar keinem Code zu erstellen. Reflex empfiehlt sich, wenn Sie mit einem React-Frontened arbeiten und statische HTML-Seiten rendern möchten. NiceGUI bietet diverse deklarative Abstraktionen um schnell Anwendungen zu erstellen – inklusive Event Handling. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

3 Python Web Frameworks für Vorzeige-Frontends​ Wenn Sie interaktive Webseiten erstellen, dabei aber ausschließlich Python nutzen wollen, fahren Sie mit diesen Frameworks besser.
Foto: Kurit afshen – shutterstock.com

Python hat sich längst als Sprache für serverseitige Frameworks etabliert und unterstützt dabei Projekte jeder Größenordnung und sämtliche Use Cases. Allerdings ist Python bisher auch eher auf das Backend beschränkt – bislang gibt es noch keine wirkliche “Kultur”, Python für Frontend- und Client-seitigen Code zu nutzen. Das liegt auch daran, dass bisherige Versuche, Python am Frontend in JavaScript zu transpilieren oder über WebAssembly auszuführen, eher klobig und bisweilen primitiv umgesetzt wurden.

Doch es gibt neue Hoffnung: Einige moderne Web Frameworks ermöglichen es, deklarativen Python-Code im Backend zu schreiben, der programmatisch Frontend-Code generiert. Sie können Python-Objekte verwenden, um HTML-Entitäten und deren JavaScript-gestütztes Verhalten zu beschreiben – und dann das Framework diese Objekte erstellen lassen, wenn sie dem Client übergeben werden.

Die folgenden drei Web Frameworks für Python folgen exakt diesem Paradigma. Jedes von ihnen ermöglicht es, Frontend-Code (HTML, CSS und JavaScript) durch Backend-Python-Code zu erzeugen. Die Frontend-Objekte werden dabei durch das Python-Objektmodell dargestellt.

1. Anvil

Die Macher des Web Frameworks Anvil versprechen, “Webanwendungen mit nichts anderem als Python zu erstellen”. Allerdings können Sie dabei auch auf Low-Code-Tools mit Drag-and-Drop-Funktion zurückgreifen. Am Ende steht eine vollwertige Webanwendung mit einem interaktiven, JavaScript-basierten Frontend und einem Python-basierten Backend.

Anvil bietet dabei zwei grundlegende Ansätze:

Der Cloud Service ist in verschiedenen Preisstufen erhältlich und bietet visuelle Build-Tools sowie eine Reihe von Hosting-Optionen.

Die quelloffene Laufzeitumgebung von Anvil enthält kein Design-Tool, ermöglicht es aber, Anwendungen mit manuell geschriebenem Code zu erstellen und auszuführen.

Anvil-Anwendungen bestehen grundsätzlich aus drei Komponenten:

der Benutzeroberfläche (die sich manuell oder mit Low-Code-Tools erstellen lässt),

dem clientseitigen Code (der von Python nach JavaScript transpiliert wird), sowie

dem serverseitigen Python-Code.

Der Anvil-Cloud-Editor generiert automatisch Backend- und Frontend-Code im Stil von Tools wie Qt Design Studio. Er enthält standardmäßig einige Beispiele – etwa eine einfache, statische Applikation ohne Backend-Code, ein simples Ticketing-System und einen vollständigen Onlineshop. Diese dienen potenziell als Template für Ihr eigenes Projekt.

Die Cloud-Inkarnation von Anvil bietet ein mächtiges Visual-Design-Tool für UIs. Einmal generiert, können Sie den Code auch jenseits des Tools einsetzen.IDG

Darüber hinaus bietet Anvil auch eine nützliche Auswahl an UI-Komponenten, die Sie in Ihre Webseiten einbinden können. Dazu gehört beispielsweise ein Timer, der dafür sorgt, dass Code in bestimmten Intervallen ausgeführt wird – etwa, um Datenquellen nach Aktualisierungen abzufragen. Bei Bedarf können Sie auch Ihr eigenes HTML und eigene Komponenten erstellen. Datenquellen lassen sich über die Cloud hinzufügen und mit Komponenten verdrahten, so dass gängige CRUD-Applikationen sehr flott entstehen.

Wenn Sie sich dazu entscheiden, die Anvil Runtime zu nutzen, können Sie Anwendungen manuell schreiben und dabei einige Templates als Startpunkt nutzen. Code-Änderungen werden sofort auf den Anwendungsserver übertragen, was einen schnellen Entwicklungszyklus ermöglicht. Bei den Elementen der Benutzeroberfläche handelt es sich im Wesentlichen um Instanzen von Python-Klassen, deren Ereignis-Handler über Klassenmethoden hinzugefügt werden. Über gut durchdachte allgemeine Methoden lassen sich auch programmatische Verhaltensweisen hinzufügen. Wenn Sie beispielsweise einen Event bei den Children eines Objects auslösen möchten, brauchen Sie dafür keinen Loop. Stattdessen nutzen Sie einfach die raise_event_on_children-Methode für das Container-Objekt.

Standardmäßig wird der gesamte JavaScript-Code für eine Anvil-Site automatisch generiert, Sie können bei Bedarf aber auch Ihren eigenen schreiben. In diesem Fall sollten Sie darauf achten, dass dieser nicht mit dem Anvil-Code in Konflikt gerät. Zudem sind einige der Anvil-eigenen Abhängigkeiten etwas veraltet, zum Beispiel Bootstrap 3. Dieses Problem können Sie umgehen, indem Sie ein benutzerdefiniertes Theme erstellen – was nicht leider nicht trivial ist.

2. Reflex

Das Reflex-Framework (ehemals bekannt als Pynecone) kann nicht mit dem Design-Toolset von Anvil aufwarten, entspringt jedoch derselben Grundidee: Python-Code zu verwenden, um sowohl das Backend Ihres Web-Stacks zu coden, als auch das Frontend programmatisch zu generieren, ohne dabei auf JavaScript zurückgreifen zu müssen.

Zu Pynecone-Zeiten verwendete das Framework selbst sowohl Python als auch die (Long-term Support-Version der) Node.js-Laufzeitumgebung in Kombination mit dem Bun JavaScript Library Manager. Reflex benötigt lediglich Python in Version 3.8 (oder höher) und funktioniert unter Linux und Windows. Benutzern des Microsoft-Betriebssystems wird für eine optimale Performance allerdings empfohlen, das Windows-Subsystem für Linux (WSL) zu nutzen. Um ein neues Reflex-Projekt aufzusetzen, nutzen Sie den reflex-Befehl.

Ein Beispiel für eine Reflex-Webanwendung in Python. Der interaktive Chart unterstreicht die Widget-Vielfalt von Reflex.IDG

Das Frontend einer Reflex-App kompiliert zu einer React-Anwendung, wobei FastAPI zum Einsatz kommt, um das Python-Backend zu bedienen. Viele gängige Komponenten sind bereits integriert – nicht nur so alltägliche Dinge wie Textlayouts oder Formularverarbeitung, sondern auch:

Data Display Objects wie Diagramme,

Feedback-Steuerelemente wie Alerts und Fortschrittsbalken sowie

Overlay-Objekte wie Modals und Tooltips.

Darüber hinaus lassen sich auch benutzerdefinierte React-Komponenten einbinden. Für die Anbindung an Datenquellen enthält Reflex einen Data Layer (SQLAlchemy ORM).

Falls Sie eine UI-Komponente anpassen möchten, können die meisten gängigen Modifikationen (wie zum Beispiel CSS-Styling) als Argumente an den Object Constructor übergeben werden, anstatt eine Komponente per Subclassing zu ändern. Für alles andere gibt es benutzerdefiniertes HTML, aber eine Kombination aus den Built-Ins und ihren Optionen sollte für die große Mehrheit der gängigen Projekte ausreichen.

Wenn Sie hauptsächlich statische Websites erstellen, bringt Reflex zudem eine praktische Funktion mit, mit der es sich auch als programmatisches Website-Generator-Tool empfiehlt – nämlich eine komplette Webseite in ein statisches Build zu exportieren.

3. NiceGUI

Angenommen, Sie möchten einer existierenden Python-App, die über die Kommandozeile oder einen Web Service läuft, ein webbasiertes User Interface hinzufügen – und zwar möglichst schnell. Dann könnten Sie versuchen, ein Frontend in Eigenregie zusammenzuzimmern – oder sich den Aufwand sparen und einfach NiceGUI dafür verwenden. Dieses Python Web Framework nutzt deklarative Syntax, um zu beschreiben, wie UI-Komponenten aussehen und sich verhalten sollen.

Das Spektrum an vorgefertigten Komponenten ist dabei breitgefächert und enthält beispielsweise:

Buttons,

Slider,

Text-Label,

Eingabefelder, und

Datei-Uploader.  

Darüber hinaus stehen auch einige Optionen für anspruchsvollere Audio- oder Videoanwendungen zur Verfügung, beispielsweise, um Daten interaktiv zu präsentieren oder 3D-Viualisierungen auf die Beine zu stellen. Dabei erfordert keine Komponente auch nur eine einzige Zeile Browser-Code – NiceGUI übernimmt das vollständig für Sie.  

Eine simple NiceGUI-App mit programmatisch generierten Web Widgets. Die resultierede Applikation lässt sich als Standalone-Programm oder über einen Server bereitstellen.IDG

Um vorhandenen Code mit NiceGUI zu wrappen, sollten Sie sich zuvor damit auseinandersetzen, wie NiceGUI beispielsweise mit Event Loops und Application State umgeht. Die gute Nachricht vorab: All das läuft über High-Level-Konstrukte innerhalb des NiceGUI-Frameworks selbst ab. Zum Beispiel:

können Sie mit dem ui.timer-Objekt definieren, dass Code in bestimmten Intervallen ausgeführt wird;

übernehmen ui.clipboard und app.storage die entsprechenden Prozesse;

können langlaufende Tasks mit run.cpu_bound einfach an einen Subprozess delegiert werden – oder an einen Thread (run.io_bound).

NiceGUI nutzt FastAPI als internes Web Framework – entsprechend folgen die Applikationen demselben Muster. Sie können darüber hinaus auch vorgefertigte Docker-Images als (containerisierte) Version einer NiceGUI-App nutzen. Oder Sie bündeln Ihre App als Standalone-Executable, um sie möglichst einfach zu verteilen.

Welches Python Web Framework nutzen?

Zusammenfassend lässt sich festhalten:

Anvil besticht vor allem mit seinen Tools, um interaktive Benutzeroberflächen mit wenig bis gar keinem Code zu erstellen.

Reflex empfiehlt sich, wenn Sie mit einem React-Frontened arbeiten und statische HTML-Seiten rendern möchten.

NiceGUI bietet diverse deklarative Abstraktionen um schnell Anwendungen zu erstellen – inklusive Event Handling.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

3 Python Web Frameworks für Vorzeige-Frontends​ Weiterlesen »

Hey Google, richtig ist besser als schnell!​

Allgemein

Die Gemini-Ära ist laut unserem Autor bislang vor allem enttäuschend.Rokas Tenys | shutterstock.com Wie Sie sich sicher bereits denken können, ist dieser Artikel kein Loblied auf die revolutionären Fähigkeiten generativer künstlicher Intelligenz (Generative AI; GenAI). Statt auf den (mittlerweile etwas schwächelnden) Hype-Train aufzuspringen, sollten wir lieber einen realistischen Blick darauf werfen, wie diese Systeme aktuell funktionieren und was sie leisten können. Tut man das, gelangt man schnell zur Erkenntnis, dass aktuelle GenAI-Ausformungen wie Gemini vor allem eines sind: miserabel schlecht. Dennoch scheinen das alle Beteiligten einfach hinzunehmen und tun so, als wäre das kein Problem. Fast alle. Denn ein Tech-Gigant tanzt dabei aus der Reihe und hat den Hype-Köder scheinbar nicht geschluckt. Stattdessen nimmt dieser Konzern sich die Zeit, eine ausgefeilte Generative-AI-Strategie zu entwickeln und Schritt für Schritt umzusetzen. Damit verfolgt Amazon Web Services (AWS) einen völlig anderen Ansatz als Google und Konsorten – der meiner Meinung nach deutlich erfolgversprechender ist. Dabei bin ich eigentlich kein Fan von Amazon – und seinem Gebaren. Geht es aber um generative KI, zeigt AWS, wie Unternehmen an die Technologie herangehen sollten. Im Folgenden lesen Sie, wie ich zu diesem Schluss komme. Die bizarre Welt von Gemini & Co. Die Financial Times (FT) hat kürzlich einen Artikel veröffentlicht (Zugriff kostenpflichtig), der einen schönen Überblick darüber bietet, wie AWS aktuell alles daransetzt, seine virtuelle Assistenz Alexa mit GenAI aufzurüsten – und sie in „Agentenform“ neu aufzusetzen. Im Gespräch mit der FT teilt Rohit Prasad, Leiter der AGI-Teams bei AWS, mit, dass die „GenAI-Alexa“ vorher noch einige technische Hürden überwinden müsse. „Halluzinationen müssen gegen Null gehen. Das ist in der Branche immer noch ein ungelöstes Problem – aber wir arbeiten hart daran, es zu lösen“, verspricht Prasad im Interview. Offensichtlich hat man bei AWS erkannt, dass Verfehlungen dieser Art der Unternehmens- und Markenreputation nicht zuträglich sind – und will im Gegensatz zur Konkurrenz nicht besonders schnell GenAI-Funktionen bereitstellen – sondern legt lieber Wert darauf, dass diese besonders ausgereift sind. Dass diese Strategie höchst sinnvoll und angebracht ist, beweisen Systeme wie Gemini oder ChatGPT jeden Tag aufs Neue: Sie beeindrucken zwar, wenn es darum geht, (eindeutige) Daten zu verarbeiten, existierende Texte zusammenzufassen oder eng definierte, eindeutig objektive Tasks zu übernehmen. Die Tatsache, die dabei jedoch zuverlässig beiseitegeschoben wird: Diese Tools sind nicht geeignet, um überall eingesetzt zu werden. Generative AI ist nicht zu gebrauchen, wenn sie kreativ sein oder umfassend recherchieren, analysieren und sachliche Antworten liefern soll. Und wir als Benutzer brauchen die Technologie auch nicht in jedem Bereich. Wird sie dennoch überall integriert, so wie Google das derzeit propagiert, könnte das am Ende sogar mehr Schaden als Nutzen bringen. Schließlich kennen generative KI-Systeme das Konzept der Fakten bekanntermaßen nicht: Sie sagen lediglich auf der Grundlage von Wahrscheinlichkeiten Wörter vorher. Die Halluzinationen, die ChatGPT, Gemini und andere Lösungen daraus spinnen, mögen zwar zeitweise amüsant sein, stellen aber auch ein ernstzunehmendes Problem dar. Womit wir wieder bei Amazon wären. Eile mit Weile Bezüglich der kommenden „Agenten-Alexa“ ist vor allem auffällig, dass die Bemühungen von AWS von diversen Marktbeobachtern und Insidern negativ dargestellt werden. So kritisierte etwa Mihail Eric, ehemaliger Research Scientist im Alexa-Team von AWS, den Konzern öffentlich. Das Unternehmen habe es verpasst, mit der neuen Alexa zum unangefochtenen Marktführer im Bereich Conversational AI aufzusteigen. Ironischerweise ist es meiner Auffassung nach genau diese Haltung, die AWS und seine GenAI-Bemühungen von der Konkurrenz abhebt – und die sich auf lange Sicht auszahlen könnte. Denn vor allem Google setzt wirklich alles daran, Generative AI überall einzubinden – egal ob das Sinn macht oder nicht. Und die meisten Menschen begegnen diesen Systemen nicht mit dem nötigen Maß an Skepsis. Sie nehmen sich nicht die Zeit, darüber nachzudenken, wie sie ihre Fragen stellen – oder die KI-Outputs zu überprüfen. Sie stellen Fragen, sehen oder hören Antworten und gehen davon aus, dass diese korrekt sind. Und selbst wenn dabei nur in zehn Prozent der Fälle halluziniert wird, sind solche Lösungen wertlos, weil man sich nicht auf sie verlassen kann. Mit anderen Worten: Google (und alle anderen, die diesem Ansatz verfallen sind), haben kurzfristige Gewinne im Blick und sind dafür bereit, langfristige Einbußen beim Benutzervertrauen hinzunehmen. Zwar hat auch Google schon lange vor dem Release von ChatGPT an generativer KI gearbeitet. Dann sorgte der Hype, den OpenAI Ende 2022 mit seinem Chatbot auslöste, aber offensichtlich dafür, dass man sich beim Suchmaschinenriesen dachte: „Komm egal, das ist jetzt gut genug und muss raus“ – und ein System auf den Markt warf, dass nicht für die Primetime bereit war und es bis heute nicht ist.   Genau an dieser Stelle agiert Amazon Web Services meiner Meinung nach deutlich zielführender: Statt Alexa im Schnellverfahren in ein halbgares GenAI-System zu verwandeln, nimmt sich der Konzern die Zeit, die nötig ist, um ein ausgereiftes Produkt mit einer konsistenten User Experience zu entwickeln. Ob Amazon dieses Muster beibehalten kann oder irgendwann durch den Druck der Investoren dazu getrieben wird, auf die „Passt schon so“-Strategie von Google und Co. umzuschwenken, bleibt abzuwarten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Hey Google, richtig ist besser als schnell!​ Die Gemini-Ära ist laut unserem Autor bislang vor allem enttäuschend.Rokas Tenys | shutterstock.com

Wie Sie sich sicher bereits denken können, ist dieser Artikel kein Loblied auf die revolutionären Fähigkeiten generativer künstlicher Intelligenz (Generative AI; GenAI). Statt auf den (mittlerweile etwas schwächelnden) Hype-Train aufzuspringen, sollten wir lieber einen realistischen Blick darauf werfen, wie diese Systeme aktuell funktionieren und was sie leisten können. Tut man das, gelangt man schnell zur Erkenntnis, dass aktuelle GenAI-Ausformungen wie Gemini vor allem eines sind: miserabel schlecht. Dennoch scheinen das alle Beteiligten einfach hinzunehmen und tun so, als wäre das kein Problem.

Fast alle. Denn ein Tech-Gigant tanzt dabei aus der Reihe und hat den Hype-Köder scheinbar nicht geschluckt. Stattdessen nimmt dieser Konzern sich die Zeit, eine ausgefeilte Generative-AI-Strategie zu entwickeln und Schritt für Schritt umzusetzen. Damit verfolgt Amazon Web Services (AWS) einen völlig anderen Ansatz als Google und Konsorten – der meiner Meinung nach deutlich erfolgversprechender ist. Dabei bin ich eigentlich kein Fan von Amazon – und seinem Gebaren. Geht es aber um generative KI, zeigt AWS, wie Unternehmen an die Technologie herangehen sollten.

Im Folgenden lesen Sie, wie ich zu diesem Schluss komme.

Die bizarre Welt von Gemini & Co.

Die Financial Times (FT) hat kürzlich einen Artikel veröffentlicht (Zugriff kostenpflichtig), der einen schönen Überblick darüber bietet, wie AWS aktuell alles daransetzt, seine virtuelle Assistenz Alexa mit GenAI aufzurüsten – und sie in „Agentenform“ neu aufzusetzen. Im Gespräch mit der FT teilt Rohit Prasad, Leiter der AGI-Teams bei AWS, mit, dass die „GenAI-Alexa“ vorher noch einige technische Hürden überwinden müsse. „Halluzinationen müssen gegen Null gehen. Das ist in der Branche immer noch ein ungelöstes Problem – aber wir arbeiten hart daran, es zu lösen“, verspricht Prasad im Interview.

Offensichtlich hat man bei AWS erkannt, dass Verfehlungen dieser Art der Unternehmens- und Markenreputation nicht zuträglich sind – und will im Gegensatz zur Konkurrenz nicht besonders schnell GenAI-Funktionen bereitstellen – sondern legt lieber Wert darauf, dass diese besonders ausgereift sind. Dass diese Strategie höchst sinnvoll und angebracht ist, beweisen Systeme wie Gemini oder ChatGPT jeden Tag aufs Neue: Sie beeindrucken zwar, wenn es darum geht, (eindeutige) Daten zu verarbeiten, existierende Texte zusammenzufassen oder eng definierte, eindeutig objektive Tasks zu übernehmen. Die Tatsache, die dabei jedoch zuverlässig beiseitegeschoben wird: Diese Tools sind nicht geeignet, um überall eingesetzt zu werden.

Generative AI ist nicht zu gebrauchen, wenn sie kreativ sein oder umfassend recherchieren, analysieren und sachliche Antworten liefern soll. Und wir als Benutzer brauchen die Technologie auch nicht in jedem Bereich. Wird sie dennoch überall integriert, so wie Google das derzeit propagiert, könnte das am Ende sogar mehr Schaden als Nutzen bringen. Schließlich kennen generative KI-Systeme das Konzept der Fakten bekanntermaßen nicht: Sie sagen lediglich auf der Grundlage von Wahrscheinlichkeiten Wörter vorher. Die Halluzinationen, die ChatGPT, Gemini und andere Lösungen daraus spinnen, mögen zwar zeitweise amüsant sein, stellen aber auch ein ernstzunehmendes Problem dar. Womit wir wieder bei Amazon wären.

Eile mit Weile

Bezüglich der kommenden „Agenten-Alexa“ ist vor allem auffällig, dass die Bemühungen von AWS von diversen Marktbeobachtern und Insidern negativ dargestellt werden. So kritisierte etwa Mihail Eric, ehemaliger Research Scientist im Alexa-Team von AWS, den Konzern öffentlich. Das Unternehmen habe es verpasst, mit der neuen Alexa zum unangefochtenen Marktführer im Bereich Conversational AI aufzusteigen. Ironischerweise ist es meiner Auffassung nach genau diese Haltung, die AWS und seine GenAI-Bemühungen von der Konkurrenz abhebt – und die sich auf lange Sicht auszahlen könnte.

Denn vor allem Google setzt wirklich alles daran, Generative AI überall einzubinden – egal ob das Sinn macht oder nicht. Und die meisten Menschen begegnen diesen Systemen nicht mit dem nötigen Maß an Skepsis. Sie nehmen sich nicht die Zeit, darüber nachzudenken, wie sie ihre Fragen stellen – oder die KI-Outputs zu überprüfen. Sie stellen Fragen, sehen oder hören Antworten und gehen davon aus, dass diese korrekt sind. Und selbst wenn dabei nur in zehn Prozent der Fälle halluziniert wird, sind solche Lösungen wertlos, weil man sich nicht auf sie verlassen kann.

Mit anderen Worten: Google (und alle anderen, die diesem Ansatz verfallen sind), haben kurzfristige Gewinne im Blick und sind dafür bereit, langfristige Einbußen beim Benutzervertrauen hinzunehmen. Zwar hat auch Google schon lange vor dem Release von ChatGPT an generativer KI gearbeitet. Dann sorgte der Hype, den OpenAI Ende 2022 mit seinem Chatbot auslöste, aber offensichtlich dafür, dass man sich beim Suchmaschinenriesen dachte: „Komm egal, das ist jetzt gut genug und muss raus“ – und ein System auf den Markt warf, dass nicht für die Primetime bereit war und es bis heute nicht ist.  

Genau an dieser Stelle agiert Amazon Web Services meiner Meinung nach deutlich zielführender: Statt Alexa im Schnellverfahren in ein halbgares GenAI-System zu verwandeln, nimmt sich der Konzern die Zeit, die nötig ist, um ein ausgereiftes Produkt mit einer konsistenten User Experience zu entwickeln. Ob Amazon dieses Muster beibehalten kann oder irgendwann durch den Druck der Investoren dazu getrieben wird, auf die „Passt schon so“-Strategie von Google und Co. umzuschwenken, bleibt abzuwarten. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Hey Google, richtig ist besser als schnell!​ Weiterlesen »

In Deutschland fehlt der Strom für neue Rechenzentren​

Allgemein

Jerome Evans, Gründer und Geschäftsführer von firstcolo. firstcolo Herr Evans, US-Präsident Trump hat angekündigt, 500 Milliarden Dollar in KI-Rechenzentren zu investieren. Welche Auswirkungen hat das auf die RZ-Branche außerhalb der USA? Jerome Evans: Wenn wir das Thema etwas aus der Distanz betrachten, dann sehen wir, dass Trump sehr viel Dynamik in die Wirtschaftsentwicklung der USA bringt. Viele in Europa, aber auch in Deutschland, unterschätzen noch den langfristigen Einfluss von KI auf die zukünftige Wirtschaftsleistung von Staaten. Das heißt konkret? Jerome Evans: Trump positioniert die USA als KI-Hochburg, mit dem Ziel, einen Großteil der Wertschöpfung in diesem Bereich abzuschöpfen. Das Risiko für Europa ist dabei, dass wir die Souveränität über unsere Daten und die Digitalisierung verlieren. Bleiben die US-amerikanischen KI-Modelle führend, dann sind wir sehr abhängig. Ein Großteil der europäischen Firmen würde dann zusätzliche amerikanische Produkte nutzen und die Wertschöpfung würde aus den USA abgesaugt. Deutschland hat zu wenig Stromkapazität Das bedeutet für Deutschland? Jerome Evans: Die Wirtschaftsleistung in der EU, speziell in Deutschland, wird darunter leiden. Zumal noch hausgemachte Faktoren hinzukommen. So haben wir durch die Energiepolitik der letzten Dekade in Deutschland zu wenig Stromkapazität. Wir haben etwa an unseren Standorten in Frankfurt am Main freie Flächen für neue Rechenzentren. Diese können wir aber nicht ausbauen, da uns die Energieversorger bis 2033 nicht den benötigten Strom bereitstellen können. Ferner dauern die Genehmigungsverfahren zu lange, und es steht zu wenig Investitionskapital zur Verfügung, um die Strominfrastruktur schnell auszubauen. Zudem sind beispielsweise die Stromkosten deutlich höher als in den USA, primär getrieben durch die sehr hohen Netzentgelte in Deutschland. Wir zahlen teilweise das Zwei- bis Dreifache im Vergleich zu einem US-RZ-Betreiber. Wie gelingt es Ihnen dann, trotz höherer Kosten, Kunden für europäische Data Center zu finden? Jerome Evans: Viele Kunden gewinnen wir aufgrund unserer Positionierung alsFull-Service-Provider, dies bedeutet, dass wir unseren Kunden mehr und besseren Service als amerikanische Datacenter-Provider anbieten können. Zudem spielt uns die Regulatorik in die Karten, die verlangt, dass bestimmte Daten auf europäischem Boden beziehungsweise speziell in Deutschland gehostet werden müssen. Aber selbst diese Kunden nutzen oft auch Rechenzentren in anderen Ländern, in welchen die Betriebskosten geringer sind. Können es sich die Kunden aussuchen, gehen sie dahin, wo die Kosten geringer sind – etwa nach Skandinavien mit besseren klimatischen Bedingungen für Data Center. FÜR neue Rechenzentren fehlt hierzulande der Strom.dotshock/Shutterstock.com Sie sprachen davon, dass ein nicht einholbarer Vorsprung der Amerikaner droht. Was fördert diese Entwicklung? Jerome Evans: Die Amerikaner haben eine andere Einstellung zu Risikokapital und gehen mehr Investitionsrisiken ein. Geht die Wette auf, ist der Return on Investment umso höher. Damit steigen die Markteintrittsbarrieren für andere Wettbewerber immer mehr, da der Vorsprung der Tech-Giganten nicht mehr einholbar sein wird. Allein Microsoft oder Meta investieren jeweils 60 bis 80 Milliarden in KI-Rechenzentren in den kommenden Jahren. Solche Summen können europäische Konzerne beziehungsweise RZ-Betreiber nicht aufbringen. Selbst europäische Großprojekte werden häufig nur umgesetzt, wenn sie durch amerikanische Private-Equity-Geber finanziert werden. Europa braucht die Souveränität über die Daten Was müsste sich Ihrer Meinung nach in Europa ändern? Jerome Evans: Die Grundvoraussetzung für ein souveränes Europa ist die Souveränität über die Daten. Dafür braucht es gute Wettbewerbsbedingungen. So muss Strom günstiger und die Regulierung angepasst werden. Ferner muss die Energieherstellung einfacher werden. Deutschland hat eine schwierige Debatte um Atomkraft, während Frankreich beispielsweise einen hohen Nuklearanteil hat. Das europäische Energienetz kann helfen, aber wenn Deutschland nur Strom nimmt, destabilisiert das die Netze. Wird die verfügbare Strommenge nicht ausgebaut, steigen die Preise, was die Wettbewerbsbedingungen für Firmen hier weiter verschlechtert. Also könnten in letzter Konsequenz deutsche Rechenzentren ins Ausland abwandern? Jerome Evans: Ja, der Ausbau in Deutschland ist ein Tropfen auf den heißen Stein im Vergleich mit den angekündigten Rechenzentrumskapazitäten in den USA. Aber auch Länder wie Spanien oder Portugal, die sich besser aufstellen, haben bessere Chancen, internationale Player anzuziehen durch attraktive Standortbedingungen. Sie erwähnten, dass Sie freie Hallen für zusätzliche Rechenzentren haben, aber der Strom fehlt. Warum nutzen Sie keine Photovoltaik oder eigene Stromgeneratoren? Jerome Evans: Wir sind aktuell in der Planungsphase für ein neues Rechenzentrum mit 24 Megawatt Kapazität, während unsere bestehenden Zentren 2 Megawatt haben. Die großen Rechenzentren in den USA denken in ganz anderen Dimensionen, wie das Projekt Stargate mit 2 Gigawatt verdeutlicht. Photovoltaik braucht riesige Flächen, um einen solchen Strombedarf zu decken. Schließlich haben Server-Racks mit KI-Workload einen Strombedarf von 100 bis 200 kW pro Rack, während ein reguläres Server-Rack im Durchschnitt bei 5 bis 7,5 kW liegt. Herkömmliche grüne Energieerzeugungsmethoden reichen dafür schlicht nicht aus. Gaskraftwerke wären zwar eine Option, aber die Kosten pro erzeugter Kilowattstunde wären deutlich höher. Das würde uns noch weniger wettbewerbsfähig machen im internationalen Vergleich. Die Amerikaner arbeiten an Mini-Atomkraftwerken, wäre das eine Lösung? Jerome Evans: Egal ob Mini oder reguläre AKWs, ohne Nuklearstrom wird es nicht funktionieren, den zukünftigen Strombedarf zu decken. Das gilt für alle Länder, einschließlich den USA. Und ohne genügend Stromkapazität gibt es keine relevante Wettbewerbsfähigkeit in der Zukunft. Ohne Atomstrom wird es nicht funktionieren Was bleibt für deutsche Rechenzentrumsbetreiber dann noch übrig? Jerome Evans: Wir haben eine hohe Nachfrage, aber wir können nicht die Nachfrage von internationalen Großkonzernen bedienen. Unsere Strategie ist, auf Kunden im gehobenen Mittelstand sowie im Small-Enterprise-Bereich zu setzen. Wir versuchen, von diesem Wachstum so viel wie möglich mitzunehmen. Ferner ist es wichtig, dass wir mit der Politik im Austausch bleiben, um das Bewusstsein für diese Problematik zu schärfen. So wie Sie die Situation schildern, dürfte eine souveräne europäische Cloud ein Traum bleiben? Jerome Evans: Die Rahmenbedingungen dafür sind schlecht. Die Entwicklungsbudgets in Europa sind im Vergleich zu den USA und Asien sehr gering. Es ist ein Kampf David gegen Goliath. Und was bräuchte David, um das zu ändern? Jerome Evans: Wir brauchen eine höhere Risikobereitschaft der Kapitalgeber, um Produkte auf ähnlichem Qualitätsniveau wie die führenden internationale Player anbieten zu können. Es gibt einige Anbieter wie Schwarz IT, die gute Ambitionen haben. Zudem muss sich die Europäische Union dafür öffnen, KI-Potenziale nicht durch zu viel Regulierung in Bezug auf beispielsweise den Datenschutz zu „erdrücken“. Europa braucht mehr Risikobereitschaft Sie sprachen eingangs von den USA als KI-Hochburg, wo steht Europa? Jerome Evans: Es gibt nur wenige relevante europäische KI-Player. Die letzte Finanzierungsrunde von OpenAI hatte eine Bewertung von 150 Milliarden Euro und das Unternehmen konnte 6 Milliarden Risikokapital einsammeln. Diese Summen sind viel höher als das, was europäische Player zur Verfügung haben. So hat Mistral, als eines der führenden Projekte in Europa, im Juni 2024 rund 600 Millionen Euro Risikokapital erhalten.   Die führenden KI-Köpfe wandern deshalb ab und gehen dahin, wo sie die besten Voraussetzungen vorfinden. Firmen wie Aleph Alpha haben es deshalb sehr schwer, vergleichbare Produkte anzubieten. Sie konzentrieren sich eher auf B2B und Behörden, was eine clevere Entscheidung ist, um nicht unnötig Geld zu verbrennen. Müssen wir uns in letzter Konsequenz in Europa daran gewöhnen, weniger perfektionistisch zu sein und mehr Risiken einzugehen? Jerome Evans: Ja, mehr Risikobereitschaft ist der Schlüssel. In den USA wird mit dem Bau von Rechenzentren schon bei einer Bauvorabgenehmigung begonnen.  Fragen wie die Verfügbarkeit von Strom oder die endgültige Auslegung der Rechenzentren werden dann parallel während der Bauphase geklärt. Das Risiko erscheint zunächst höher, aber der mögliche Ertrag bei Erfolg ist entsprechend größer. Des Weiteren wünsche ich mir mehr politische Unterstützung für Unternehmer und Firmengründer, so wie sie Trump den lokalen Firmen aber auch den internationalen Konzernen in den USA gib 

In Deutschland fehlt der Strom für neue Rechenzentren​ Jerome Evans, Gründer und Geschäftsführer von firstcolo.
firstcolo

Herr Evans, US-Präsident Trump hat angekündigt, 500 Milliarden Dollar in KI-Rechenzentren zu investieren. Welche Auswirkungen hat das auf die RZ-Branche außerhalb der USA?

Jerome Evans: Wenn wir das Thema etwas aus der Distanz betrachten, dann sehen wir, dass Trump sehr viel Dynamik in die Wirtschaftsentwicklung der USA bringt. Viele in Europa, aber auch in Deutschland, unterschätzen noch den langfristigen Einfluss von KI auf die zukünftige Wirtschaftsleistung von Staaten.

Das heißt konkret?

Jerome Evans: Trump positioniert die USA als KI-Hochburg, mit dem Ziel, einen Großteil der Wertschöpfung in diesem Bereich abzuschöpfen. Das Risiko für Europa ist dabei, dass wir die Souveränität über unsere Daten und die Digitalisierung verlieren.

Bleiben die US-amerikanischen KI-Modelle führend, dann sind wir sehr abhängig. Ein Großteil der europäischen Firmen würde dann zusätzliche amerikanische Produkte nutzen und die Wertschöpfung würde aus den USA abgesaugt.

Deutschland hat zu wenig Stromkapazität

Das bedeutet für Deutschland?

Jerome Evans: Die Wirtschaftsleistung in der EU, speziell in Deutschland, wird darunter leiden. Zumal noch hausgemachte Faktoren hinzukommen. So haben wir durch die Energiepolitik der letzten Dekade in Deutschland zu wenig Stromkapazität. Wir haben etwa an unseren Standorten in Frankfurt am Main freie Flächen für neue Rechenzentren. Diese können wir aber nicht ausbauen, da uns die Energieversorger bis 2033 nicht den benötigten Strom bereitstellen können.

Ferner dauern die Genehmigungsverfahren zu lange, und es steht zu wenig Investitionskapital zur Verfügung, um die Strominfrastruktur schnell auszubauen. Zudem sind beispielsweise die Stromkosten deutlich höher als in den USA, primär getrieben durch die sehr hohen Netzentgelte in Deutschland. Wir zahlen teilweise das Zwei- bis Dreifache im Vergleich zu einem US-RZ-Betreiber.

Wie gelingt es Ihnen dann, trotz höherer Kosten, Kunden für europäische Data Center zu finden?

Jerome Evans: Viele Kunden gewinnen wir aufgrund unserer Positionierung alsFull-Service-Provider, dies bedeutet, dass wir unseren Kunden mehr und besseren Service als amerikanische Datacenter-Provider anbieten können. Zudem spielt uns die Regulatorik in die Karten, die verlangt, dass bestimmte Daten auf europäischem Boden beziehungsweise speziell in Deutschland gehostet werden müssen. Aber selbst diese Kunden nutzen oft auch Rechenzentren in anderen Ländern, in welchen die Betriebskosten geringer sind. Können es sich die Kunden aussuchen, gehen sie dahin, wo die Kosten geringer sind – etwa nach Skandinavien mit besseren klimatischen Bedingungen für Data Center.

FÜR neue Rechenzentren fehlt hierzulande der Strom.dotshock/Shutterstock.com

Sie sprachen davon, dass ein nicht einholbarer Vorsprung der Amerikaner droht. Was fördert diese Entwicklung?

Jerome Evans: Die Amerikaner haben eine andere Einstellung zu Risikokapital und gehen mehr Investitionsrisiken ein. Geht die Wette auf, ist der Return on Investment umso höher. Damit steigen die Markteintrittsbarrieren für andere Wettbewerber immer mehr, da der Vorsprung der Tech-Giganten nicht mehr einholbar sein wird.

Allein Microsoft oder Meta investieren jeweils 60 bis 80 Milliarden in KI-Rechenzentren in den kommenden Jahren. Solche Summen können europäische Konzerne beziehungsweise RZ-Betreiber nicht aufbringen. Selbst europäische Großprojekte werden häufig nur umgesetzt, wenn sie durch amerikanische Private-Equity-Geber finanziert werden.

Europa braucht die Souveränität über die Daten

Was müsste sich Ihrer Meinung nach in Europa ändern?

Jerome Evans: Die Grundvoraussetzung für ein souveränes Europa ist die Souveränität über die Daten. Dafür braucht es gute Wettbewerbsbedingungen.

So muss Strom günstiger und die Regulierung angepasst werden. Ferner muss die Energieherstellung einfacher werden. Deutschland hat eine schwierige Debatte um Atomkraft, während Frankreich beispielsweise einen hohen Nuklearanteil hat. Das europäische Energienetz kann helfen, aber wenn Deutschland nur Strom nimmt, destabilisiert das die Netze. Wird die verfügbare Strommenge nicht ausgebaut, steigen die Preise, was die Wettbewerbsbedingungen für Firmen hier weiter verschlechtert.

Also könnten in letzter Konsequenz deutsche Rechenzentren ins Ausland abwandern?

Jerome Evans: Ja, der Ausbau in Deutschland ist ein Tropfen auf den heißen Stein im Vergleich mit den angekündigten Rechenzentrumskapazitäten in den USA. Aber auch Länder wie Spanien oder Portugal, die sich besser aufstellen, haben bessere Chancen, internationale Player anzuziehen durch attraktive Standortbedingungen.

Sie erwähnten, dass Sie freie Hallen für zusätzliche Rechenzentren haben, aber der Strom fehlt. Warum nutzen Sie keine Photovoltaik oder eigene Stromgeneratoren?

Jerome Evans: Wir sind aktuell in der Planungsphase für ein neues Rechenzentrum mit 24 Megawatt Kapazität, während unsere bestehenden Zentren 2 Megawatt haben. Die großen Rechenzentren in den USA denken in ganz anderen Dimensionen, wie das Projekt Stargate mit 2 Gigawatt verdeutlicht.

Photovoltaik braucht riesige Flächen, um einen solchen Strombedarf zu decken. Schließlich haben Server-Racks mit KI-Workload einen Strombedarf von 100 bis 200 kW pro Rack, während ein reguläres Server-Rack im Durchschnitt bei 5 bis 7,5 kW liegt. Herkömmliche grüne Energieerzeugungsmethoden reichen dafür schlicht nicht aus. Gaskraftwerke wären zwar eine Option, aber die Kosten pro erzeugter Kilowattstunde wären deutlich höher. Das würde uns noch weniger wettbewerbsfähig machen im internationalen Vergleich.

Die Amerikaner arbeiten an Mini-Atomkraftwerken, wäre das eine Lösung?

Jerome Evans: Egal ob Mini oder reguläre AKWs, ohne Nuklearstrom wird es nicht funktionieren, den zukünftigen Strombedarf zu decken. Das gilt für alle Länder, einschließlich den USA. Und ohne genügend Stromkapazität gibt es keine relevante Wettbewerbsfähigkeit in der Zukunft.

Ohne Atomstrom wird es nicht funktionieren

Was bleibt für deutsche Rechenzentrumsbetreiber dann noch übrig?

Jerome Evans: Wir haben eine hohe Nachfrage, aber wir können nicht die Nachfrage von internationalen Großkonzernen bedienen. Unsere Strategie ist, auf Kunden im gehobenen Mittelstand sowie im Small-Enterprise-Bereich zu setzen. Wir versuchen, von diesem Wachstum so viel wie möglich mitzunehmen. Ferner ist es wichtig, dass wir mit der Politik im Austausch bleiben, um das Bewusstsein für diese Problematik zu schärfen.

So wie Sie die Situation schildern, dürfte eine souveräne europäische Cloud ein Traum bleiben?

Jerome Evans: Die Rahmenbedingungen dafür sind schlecht. Die Entwicklungsbudgets in Europa sind im Vergleich zu den USA und Asien sehr gering. Es ist ein Kampf David gegen Goliath.

Und was bräuchte David, um das zu ändern?

Jerome Evans: Wir brauchen eine höhere Risikobereitschaft der Kapitalgeber, um Produkte auf ähnlichem Qualitätsniveau wie die führenden internationale Player anbieten zu können. Es gibt einige Anbieter wie Schwarz IT, die gute Ambitionen haben. Zudem muss sich die Europäische Union dafür öffnen, KI-Potenziale nicht durch zu viel Regulierung in Bezug auf beispielsweise den Datenschutz zu „erdrücken“.

Europa braucht mehr Risikobereitschaft

Sie sprachen eingangs von den USA als KI-Hochburg, wo steht Europa?

Jerome Evans: Es gibt nur wenige relevante europäische KI-Player. Die letzte Finanzierungsrunde von OpenAI hatte eine Bewertung von 150 Milliarden Euro und das Unternehmen konnte 6 Milliarden Risikokapital einsammeln. Diese Summen sind viel höher als das, was europäische Player zur Verfügung haben. So hat Mistral, als eines der führenden Projekte in Europa, im Juni 2024 rund 600 Millionen Euro Risikokapital erhalten.  

Die führenden KI-Köpfe wandern deshalb ab und gehen dahin, wo sie die besten Voraussetzungen vorfinden. Firmen wie Aleph Alpha haben es deshalb sehr schwer, vergleichbare Produkte anzubieten. Sie konzentrieren sich eher auf B2B und Behörden, was eine clevere Entscheidung ist, um nicht unnötig Geld zu verbrennen.

Müssen wir uns in letzter Konsequenz in Europa daran gewöhnen, weniger perfektionistisch zu sein und mehr Risiken einzugehen?

Jerome Evans: Ja, mehr Risikobereitschaft ist der Schlüssel. In den USA wird mit dem Bau von Rechenzentren schon bei einer Bauvorabgenehmigung begonnen.  Fragen wie die Verfügbarkeit von Strom oder die endgültige Auslegung der Rechenzentren werden dann parallel während der Bauphase geklärt. Das Risiko erscheint zunächst höher, aber der mögliche Ertrag bei Erfolg ist entsprechend größer. Des Weiteren wünsche ich mir mehr politische Unterstützung für Unternehmer und Firmengründer, so wie sie Trump den lokalen Firmen aber auch den internationalen Konzernen in den USA gib

In Deutschland fehlt der Strom für neue Rechenzentren​ Weiterlesen »

Hilfe bei Entlassung: So geht erfolgreiches Outplacement​

Allgemein

Durch gezieltes und faires Outplacement kann der Abschied von Kollegen nach einer Kündigung leichter fallen. Foto: ASDF_MEDIA – shutterstock.comDie wirschaftlichen Folgen des Ukraine-Konflikts haben zu millionenfachen Entlassungen geführt. Gerade für kleine und mittelständische Unternehmen sind diese oftmals mit einem großen administrativen Aufwand und hohen Kosten verbunden. Vor allem dann, wenn es keine eigenen HR-Abteilungen im Unternehmen gibt.Wer dabei schon zu Beginn auf Outplacement setzt, kann nicht nur ungewollte Streitigkeiten vermeiden, sondern auch die Ressourcen seines Unternehmens schützen. Unter Outplacement versteht man die externe Beratung zur beruflichen Neuorientierung zukünftig ausscheidender Mitarbeiter. Die Berater helfen diesen bei der Jobsuche, noch bevor sie ihre alte Anstellung verloren haben. Angefangen bei der Situationsanalyse, werden dazu die individuellen Fähigkeiten bestimmt, der Lebenslauf auf Grundlage der neuesten Standards verfasst sowie ein Interview-Coaching vorgenommen, um bestmöglich auf Bewerbungsgespräche vorbereitet zu sein.Entlassung mit neuer Job-VisionInteressant ist Outplacement für Unternehmen, die ihren Mitarbeitern sagen wollen: “We care”. Die, die bleiben, erkennen darin die Wertschätzung aller und sind umso motivierter. Zudem können durch Outplacement langwierige Rechtsstreitigkeiten umgangen und hohe Abfindungszahlungen vermieden werden, so dass letztlich sowohl Arbeitgeber als auch Arbeitnehmer profitieren.Ein Outplacement und die Vermittlung von qualifizierten Mitarbeitern ist dann besonders sinnvoll, wenn der Betrieb aus Branchen kommt, wo der Fachkräftemangel allgegenwärtig ist. Der Grund: Es ist sehr wahrscheinlich, dass bewährte Fachkräfte, die entlassen werden müssen, in anderen Firmen händeringend gesucht werden. Doch auch beim Outplacement von scheidenden Mitarbeitern sollten folgende fünf Punkte beachtet werden, damit ein reibungsloser Übergang für beide Parteien am Ende auch wirklich funktioniert.1. Suchen Sie das GesprächDie Trennung von Mitarbeitern ist weder für den Vorgesetzten, der die Nachricht überbringt, noch für den Betroffenen, der seinen Arbeitsplatz verliert, angenehm. Leider wird das Gespräch für den Arbeitnehmer nie erfolgreich oder positiv ausgehen. Bedanken etwa wird sich der Mitarbeiter keinesfalls. Und dennoch: Dieses Gespräch gehört zur Führungsaufgabe! Fundamental ist eine gute Vorbereitung. Ziel allen Austauschs sollte immer eine faire und wertschätzende Trennung sein. Bereits im ersten Gespräch sollten das weitere Vorgehen und ein möglicher Outplacement-Prozess besprochen werden.2. Handeln Sie zügigStellen Sie den Mitarbeiter möglichst schnell frei, damit er unmittelbar mit der Neuorientierung beginnen kann. Es gilt den “Abnabelungsprozess” durch eine faire und konstruktive Trennung zu beschleunigen. Eine intensive berufliche Neuorientierung erfordert volle Konzentration und nimmt mehr Zeit in Anspruch, als ein Full-Time-Job zulässt. Gerade dann, wenn der Mitarbeiter auf unterschiedlichen Wegen einen neuen Job sucht oder noch Bewerbungsunterlagen anfertigen muss. Je schneller es beiden Seiten gelingt, den Blick nach vorne zu richten, desto reibungsloser erfolgt der Trennungsprozess.3. Zeigen Sie sich großzügigBieten Sie Outplacement zusätzlich zur Abfindung an. Der Arbeitnehmer profitiert, da er sehr wahrscheinlich schneller einen neuen Job findet. Der Vorteil für das Unternehmen: Je früher der betroffene Mitarbeiter mit der Suche beginnt, desto schneller ist der Trennungsprozess beendet. So können Restlaufzeiten der Arbeitsverträge verkürzt werden und eine potentielle Neuausrichtung besser gelingen. Outplacement als Zusatzleistung ist zudem für das Image des Unternehmens von Bedeutung. Es zeigt: “We care for you”.4. Schaffen Sie TransparenzEs ist wichtig frühzeitig den Betriebsrat einzubeziehen, um den Trennungsprozess aktiv und positiv beeinflussen zu können. Als Sprachrohr der Belegschaft ist der Betriebsrat in jedem Fall an Konzepten interessiert, die die Trennung von einzelnen Mitarbeitern oder einen größeren Personalabbau möglichst verträglich gestalten und berufliche Perspektiven aufzeigen. Viele Betriebsräte haben bereits erkannt, dass die rein monetäre Abfindung mittlerweile weniger wiegt als die professionelle Beratung für die berufliche Neuorientierung.5. Wählen Sie ihren Anbieter mit SorgfaltWählen Sie den Outplacement-Anbieter mit der gleichen Sorgfalt aus, mit der Sie auch andere Zulieferer oder Dienstleister aussuchen. Der Anbieter muss eine klare Kosten- und Leistungsübersicht haben. Haben Sie hierbei die Leistungsbestandteile mit dem höchsten Mehrwert für den Mitarbeiter im Blick. Fragen Sie gezielt nach orts- und zeitunabhängigen Beratungseinheiten, individuellen Beratungsmöglichkeiten und Beratervielfalt.FazitEntlassungen und Umstrukturierungen gehören zur Arbeitswelt und Wirtschaftlichkeit von Unternehmen dazu. Outplacement-Prozesse, die vom Arbeitnehmer initiiert und angeboten werden, sind für den scheidenden Arbeitnehmer aber weit mehr als ein schwacher Trost. Vielmehr ist Outplacement ein wichtiger Baustein für die erfolgreiche Weiterführung der Karriere des Arbeitnehmers. Arbeitgeber können mit Outplacement zeigen, dass Sie sich um ihre Mitarbeiter sorgen und die Unternehmenswerte auch über das Arbeitsverhältnis dieser hinaus Bestand haben.Ratgeber OutplacementHilfestellung nach der Kündigung Foto: Mathias Rosenthal – shutterstock.comUnternehmen, die notgedrungen Kündigungen aussprechen müssen, können die Situation gekündigter Mitarbeiter durch Outplacement erleichtern. Lionstep gibt Tipps, wie gutes Outplacement ablaufen sollte. Das Gespräch suchen Foto: Monkey Business Images – shutterstock.comDie Trennung von Mitarbeitern ist weder für den Vorgesetzten, der die Nachricht überbringt, noch für den Betroffenen, der seinen Arbeitsplatz verliert, angenehm. Und dennoch: Dieses Gespräch gehört zur Führungsaufgabe! Fundamental ist eine gute Vorbereitung. Ziel allen Austauschs sollte immer eine faire und wertschätzende Trennung sein. Bereits im ersten Gespräch sollten das weitere Vorgehen und ein möglicher Outplacement-Prozess besprochen werden. Zügig handeln Foto: TippaPatt – shutterstock.comStellen Sie den Mitarbeiter möglichst schnell frei, damit er unmittelbar mit der Neuorientierung beginnen kann. Es gilt den „Abnabelungsprozess“ durch eine faire und konstruktive Trennung zu beschleunigen. Eine intensive berufliche Neuorientierung erfordert volle Konzentration und nimmt mehr Zeit in Anspruch, als ein Full-Time-Job zulässt. Großzügigkeit zeigen Foto: Gajus – shutterstock.comBieten Sie Outplacement zusätzlich zur Abfindung an. Der Arbeitnehmer profitiert, da er sehr wahrscheinlich schneller einen neuen Job findet. Der Vorteil für das Unternehmen: Je früher der betroffene Mitarbeiter mit der Suche beginnt, desto schneller ist der Trennungsprozess beendet. So können Restlaufzeiten der Arbeitsverträge verkürzt werden und eine potentielle Neuausrichtung besser gelingen. Outplacement als Zusatzleistung ist zudem für das Image des Unternehmens von Bedeutung. Es zeigt: „We care for you“. Transparenz schaffen Foto: Kritchanut – shutterstock.comEs ist wichtig frühzeitig den Betriebsrat einzubeziehen, um den Trennungsprozess aktiv und positiv beeinflussen zu können. Als Sprachrohr der Belegschaft ist der Betriebsrat in jedem Fall an Konzepten interessiert, die die Trennung von einzelnen Mitarbeitern oder einen größeren Personalabbau möglichst verträglich gestalten und berufliche Perspektiven aufzeigen. Sorgfältige Anbieterauswahl Foto: kan_chana – shutterstock.comWählen Sie den Outplacement-Anbieter mit der gleichen Sorgfalt aus, mit der Sie auch andere Zulieferer oder Dienstleister aussuchen. Der Anbieter muss eine klare Kosten- und Leistungsübersicht haben. Haben Sie hierbei die Leistungsbestandteile mit dem höchsten Mehrwert für den Mitarbeiter im Blick. Fragen Sie gezielt nach orts- und zeitunabhängigen Beratungseinheiten, individuellen Beratungsmöglichkeiten und Beratervielfalt. 

Hilfe bei Entlassung: So geht erfolgreiches Outplacement​ Durch gezieltes und faires Outplacement kann der Abschied von Kollegen nach einer Kündigung leichter fallen.
Foto: ASDF_MEDIA – shutterstock.comDie wirschaftlichen Folgen des Ukraine-Konflikts haben zu millionenfachen Entlassungen geführt. Gerade für kleine und mittelständische Unternehmen sind diese oftmals mit einem großen administrativen Aufwand und hohen Kosten verbunden. Vor allem dann, wenn es keine eigenen HR-Abteilungen im Unternehmen gibt.Wer dabei schon zu Beginn auf Outplacement setzt, kann nicht nur ungewollte Streitigkeiten vermeiden, sondern auch die Ressourcen seines Unternehmens schützen. Unter Outplacement versteht man die externe Beratung zur beruflichen Neuorientierung zukünftig ausscheidender Mitarbeiter. Die Berater helfen diesen bei der Jobsuche, noch bevor sie ihre alte Anstellung verloren haben. Angefangen bei der Situationsanalyse, werden dazu die individuellen Fähigkeiten bestimmt, der Lebenslauf auf Grundlage der neuesten Standards verfasst sowie ein Interview-Coaching vorgenommen, um bestmöglich auf Bewerbungsgespräche vorbereitet zu sein.Entlassung mit neuer Job-VisionInteressant ist Outplacement für Unternehmen, die ihren Mitarbeitern sagen wollen: “We care”. Die, die bleiben, erkennen darin die Wertschätzung aller und sind umso motivierter. Zudem können durch Outplacement langwierige Rechtsstreitigkeiten umgangen und hohe Abfindungszahlungen vermieden werden, so dass letztlich sowohl Arbeitgeber als auch Arbeitnehmer profitieren.Ein Outplacement und die Vermittlung von qualifizierten Mitarbeitern ist dann besonders sinnvoll, wenn der Betrieb aus Branchen kommt, wo der Fachkräftemangel allgegenwärtig ist. Der Grund: Es ist sehr wahrscheinlich, dass bewährte Fachkräfte, die entlassen werden müssen, in anderen Firmen händeringend gesucht werden. Doch auch beim Outplacement von scheidenden Mitarbeitern sollten folgende fünf Punkte beachtet werden, damit ein reibungsloser Übergang für beide Parteien am Ende auch wirklich funktioniert.1. Suchen Sie das GesprächDie Trennung von Mitarbeitern ist weder für den Vorgesetzten, der die Nachricht überbringt, noch für den Betroffenen, der seinen Arbeitsplatz verliert, angenehm. Leider wird das Gespräch für den Arbeitnehmer nie erfolgreich oder positiv ausgehen. Bedanken etwa wird sich der Mitarbeiter keinesfalls. Und dennoch: Dieses Gespräch gehört zur Führungsaufgabe! Fundamental ist eine gute Vorbereitung. Ziel allen Austauschs sollte immer eine faire und wertschätzende Trennung sein. Bereits im ersten Gespräch sollten das weitere Vorgehen und ein möglicher Outplacement-Prozess besprochen werden.2. Handeln Sie zügigStellen Sie den Mitarbeiter möglichst schnell frei, damit er unmittelbar mit der Neuorientierung beginnen kann. Es gilt den “Abnabelungsprozess” durch eine faire und konstruktive Trennung zu beschleunigen. Eine intensive berufliche Neuorientierung erfordert volle Konzentration und nimmt mehr Zeit in Anspruch, als ein Full-Time-Job zulässt. Gerade dann, wenn der Mitarbeiter auf unterschiedlichen Wegen einen neuen Job sucht oder noch Bewerbungsunterlagen anfertigen muss. Je schneller es beiden Seiten gelingt, den Blick nach vorne zu richten, desto reibungsloser erfolgt der Trennungsprozess.3. Zeigen Sie sich großzügigBieten Sie Outplacement zusätzlich zur Abfindung an. Der Arbeitnehmer profitiert, da er sehr wahrscheinlich schneller einen neuen Job findet. Der Vorteil für das Unternehmen: Je früher der betroffene Mitarbeiter mit der Suche beginnt, desto schneller ist der Trennungsprozess beendet. So können Restlaufzeiten der Arbeitsverträge verkürzt werden und eine potentielle Neuausrichtung besser gelingen. Outplacement als Zusatzleistung ist zudem für das Image des Unternehmens von Bedeutung. Es zeigt: “We care for you”.4. Schaffen Sie TransparenzEs ist wichtig frühzeitig den Betriebsrat einzubeziehen, um den Trennungsprozess aktiv und positiv beeinflussen zu können. Als Sprachrohr der Belegschaft ist der Betriebsrat in jedem Fall an Konzepten interessiert, die die Trennung von einzelnen Mitarbeitern oder einen größeren Personalabbau möglichst verträglich gestalten und berufliche Perspektiven aufzeigen. Viele Betriebsräte haben bereits erkannt, dass die rein monetäre Abfindung mittlerweile weniger wiegt als die professionelle Beratung für die berufliche Neuorientierung.5. Wählen Sie ihren Anbieter mit SorgfaltWählen Sie den Outplacement-Anbieter mit der gleichen Sorgfalt aus, mit der Sie auch andere Zulieferer oder Dienstleister aussuchen. Der Anbieter muss eine klare Kosten- und Leistungsübersicht haben. Haben Sie hierbei die Leistungsbestandteile mit dem höchsten Mehrwert für den Mitarbeiter im Blick. Fragen Sie gezielt nach orts- und zeitunabhängigen Beratungseinheiten, individuellen Beratungsmöglichkeiten und Beratervielfalt.FazitEntlassungen und Umstrukturierungen gehören zur Arbeitswelt und Wirtschaftlichkeit von Unternehmen dazu. Outplacement-Prozesse, die vom Arbeitnehmer initiiert und angeboten werden, sind für den scheidenden Arbeitnehmer aber weit mehr als ein schwacher Trost. Vielmehr ist Outplacement ein wichtiger Baustein für die erfolgreiche Weiterführung der Karriere des Arbeitnehmers. Arbeitgeber können mit Outplacement zeigen, dass Sie sich um ihre Mitarbeiter sorgen und die Unternehmenswerte auch über das Arbeitsverhältnis dieser hinaus Bestand haben.Ratgeber OutplacementHilfestellung nach der Kündigung
Foto: Mathias Rosenthal – shutterstock.comUnternehmen, die notgedrungen Kündigungen aussprechen müssen, können die Situation gekündigter Mitarbeiter durch Outplacement erleichtern. Lionstep gibt Tipps, wie gutes Outplacement ablaufen sollte. Das Gespräch suchen
Foto: Monkey Business Images – shutterstock.comDie Trennung von Mitarbeitern ist weder für den Vorgesetzten, der die Nachricht überbringt, noch für den Betroffenen, der seinen Arbeitsplatz verliert, angenehm. Und dennoch: Dieses Gespräch gehört zur Führungsaufgabe! Fundamental ist eine gute Vorbereitung. Ziel allen Austauschs sollte immer eine faire und wertschätzende Trennung sein. Bereits im ersten Gespräch sollten das weitere Vorgehen und ein möglicher Outplacement-Prozess besprochen werden. Zügig handeln
Foto: TippaPatt – shutterstock.comStellen Sie den Mitarbeiter möglichst schnell frei, damit er unmittelbar mit der Neuorientierung beginnen kann. Es gilt den „Abnabelungsprozess“ durch eine faire und konstruktive Trennung zu beschleunigen. Eine intensive berufliche Neuorientierung erfordert volle Konzentration und nimmt mehr Zeit in Anspruch, als ein Full-Time-Job zulässt. Großzügigkeit zeigen
Foto: Gajus – shutterstock.comBieten Sie Outplacement zusätzlich zur Abfindung an. Der Arbeitnehmer profitiert, da er sehr wahrscheinlich schneller einen neuen Job findet. Der Vorteil für das Unternehmen: Je früher der betroffene Mitarbeiter mit der Suche beginnt, desto schneller ist der Trennungsprozess beendet. So können Restlaufzeiten der Arbeitsverträge verkürzt werden und eine potentielle Neuausrichtung besser gelingen. Outplacement als Zusatzleistung ist zudem für das Image des Unternehmens von Bedeutung. Es zeigt: „We care for you“. Transparenz schaffen
Foto: Kritchanut – shutterstock.comEs ist wichtig frühzeitig den Betriebsrat einzubeziehen, um den Trennungsprozess aktiv und positiv beeinflussen zu können. Als Sprachrohr der Belegschaft ist der Betriebsrat in jedem Fall an Konzepten interessiert, die die Trennung von einzelnen Mitarbeitern oder einen größeren Personalabbau möglichst verträglich gestalten und berufliche Perspektiven aufzeigen. Sorgfältige Anbieterauswahl
Foto: kan_chana – shutterstock.comWählen Sie den Outplacement-Anbieter mit der gleichen Sorgfalt aus, mit der Sie auch andere Zulieferer oder Dienstleister aussuchen. Der Anbieter muss eine klare Kosten- und Leistungsübersicht haben. Haben Sie hierbei die Leistungsbestandteile mit dem höchsten Mehrwert für den Mitarbeiter im Blick. Fragen Sie gezielt nach orts- und zeitunabhängigen Beratungseinheiten, individuellen Beratungsmöglichkeiten und Beratervielfalt.

Hilfe bei Entlassung: So geht erfolgreiches Outplacement​ Weiterlesen »

Baguette-Banditen schlagen wieder zu (- mit Ransomware und Hohn)​

Allgemein

Wer den Schaden hat, braucht für den Spott nicht zu sorgen. shutterstock.com – Linguist Die Ransomware-Gruppe Hellcat wurde bekannt durch den Angriff auf Schneider Electric, in dem sie Baguettes im Wert von 125.000 Dollar als Lösegeld forderte. Doch dieses aufsehenerregende Verbrechen ist nicht die einzige kriminelle Aktivität der Bande. Seit Mitte 2024 nutzt die Gruppe erfolgreich doppelte Erpressung, indem sie zuerst Daten stiehlt und dann deren Veröffentlichung androht. Besonders auffällig sind ihre Ziele und ihr Hang zur Demütigung der Opfer, denn Daten sowie Zugänge werden zu Preisen angeboten, die deutlich unter denen klassischer Erpressung liegen. Unterschiedliche Opfer, gleiche Taktiken Zu den von Hellcat häufig verwendeten Taktiken, Techniken und Verfahren (TTPs) gehört es, Zero-Day-Schwachstellen in Unternehmens-Tools auszunutzen, um an ihre Beute zu gelangen. Über diese Einstiegspunkte ist es den Kriminellen dann möglich, auf die Infrastruktur des Unternehmens zuzugreifen. Im Falle von Schneider Electric geschah dies über einen zuvor unbekannten Fehler im Atlassian Jira-System. Die dabei gestohlenen 40 GB Daten wollte die Gruppe im Austausch gegen Baguettes wieder freigeben. Gleichzeitig ist die Gruppe auch in anderen Ländern und Kontinenten unterwegs. So behauptete Hellcat noch am selben Tages des Einbruchs bei Schneider Electric, sensible Dokumente des jordanischen Bildungsministeriums kompromittiert zu haben. Darüber hinaus gaben die Verbrecher an, über 500.000 Datensätze des College of Business in Tansania veröffentlicht zu haben. Hierbei soll es sich um persönliche und finanzielle Daten von Studenten, Lehrkräften und Mitarbeitern handeln. Wertvolle Beute für kleines Geld Ebenfalls im Dezember 2024 listete die Gruppe dann ein französisches Energieversorgungsunternehmen im Wert von 7 Milliarden Dollar im Dark Web als Opfer. Hier versuchte die Gruppe, den Root-Zugriff auf einen Server für 500 Dollar zu verkaufen. Später im selben Monat bot die Gruppe auch den Root-Zugang zu einer US-Universität mit einem Umsatz von über 5,6 Milliarden Dollar zum Verkauf an. Der Root-Zugriff auf einen Universitätsserver sollte hier „nur“1.500 Dollar kosten. Diese Strategie, wertvolle Daten und Zugriffe für Geldsummen anzubieten, die deutlich unter dem eigentlichen Wert der Beute liegen, ist Teil der Strategie von Hellcat. Opfer sollen durch die niedrigen Preise zum einen gedemütigt und zum anderen zum Handeln gedrängt werden. Das es hierbei nicht immer um monetäre Bereicherung gehen muss, zeigt ein anderes Beispiel aus dem Nahen Osten. Dort bot die Gruppe für gerade einmal 300 Dollar einen Root-Zugang zu den Servern einer irakischen Stadtregierung an. Ziel sei es hier, kritische öffentliche Dienste zu stören, so Experten. Gehackt werden ist schon schlimm genug Ebenfalls im November setzte Hellcat Pinger, US-Mobilfunkanbieter und App-Entwickler, auf die Liste seiner Opfer. Die Täter behaupteten, 111 GB an Daten gestohlen zu haben, darunter 9 Millionen Benutzerdatensätze, private Nachrichten, Sprachnachrichten, Backend-Systeme, interne Tools und Quellcodes. Sie drohten damit, alle Daten freizugeben, wenn das Unternehmen nicht zahlt. Die Gruppe scheint nur in ausgewählten Fällen öffentlichkeitswirksam ihren Opfern Sonderkonditionen anzubieten. In Bezug auf die US-amerikanischen Geschädigten sind solche nicht bekannt. Wie viele der aufstrebenden Cybercrime-Organisationen nutzt Hellcat ein Ransomware-as-a-Service-Geschäftsmodell. Hierbei bieten die Kriminellen Infrastruktur, Verschlüsselungs-Tools und andere Malware an Partner im Austausch für einen Teil des Gewinns an. Laut Experten sollen die Hauptakteure hochrangige Mitglieder des BreachForum sein. 

Baguette-Banditen schlagen wieder zu (- mit Ransomware und Hohn)​ Wer den Schaden hat, braucht für den Spott nicht zu sorgen.
shutterstock.com – Linguist

Die Ransomware-Gruppe Hellcat wurde bekannt durch den Angriff auf Schneider Electric, in dem sie Baguettes im Wert von 125.000 Dollar als Lösegeld forderte. Doch dieses aufsehenerregende Verbrechen ist nicht die einzige kriminelle Aktivität der Bande.

Seit Mitte 2024 nutzt die Gruppe erfolgreich doppelte Erpressung, indem sie zuerst Daten stiehlt und dann deren Veröffentlichung androht. Besonders auffällig sind ihre Ziele und ihr Hang zur Demütigung der Opfer, denn Daten sowie Zugänge werden zu Preisen angeboten, die deutlich unter denen klassischer Erpressung liegen.

Unterschiedliche Opfer, gleiche Taktiken

Zu den von Hellcat häufig verwendeten Taktiken, Techniken und Verfahren (TTPs) gehört es, Zero-Day-Schwachstellen in Unternehmens-Tools auszunutzen, um an ihre Beute zu gelangen. Über diese Einstiegspunkte ist es den Kriminellen dann möglich, auf die Infrastruktur des Unternehmens zuzugreifen. Im Falle von Schneider Electric geschah dies über einen zuvor unbekannten Fehler im Atlassian Jira-System. Die dabei gestohlenen 40 GB Daten wollte die Gruppe im Austausch gegen Baguettes wieder freigeben.

Gleichzeitig ist die Gruppe auch in anderen Ländern und Kontinenten unterwegs. So behauptete Hellcat noch am selben Tages des Einbruchs bei Schneider Electric, sensible Dokumente des jordanischen Bildungsministeriums kompromittiert zu haben. Darüber hinaus gaben die Verbrecher an, über 500.000 Datensätze des College of Business in Tansania veröffentlicht zu haben. Hierbei soll es sich um persönliche und finanzielle Daten von Studenten, Lehrkräften und Mitarbeitern handeln.

Wertvolle Beute für kleines Geld

Ebenfalls im Dezember 2024 listete die Gruppe dann ein französisches Energieversorgungsunternehmen im Wert von 7 Milliarden Dollar im Dark Web als Opfer. Hier versuchte die Gruppe, den Root-Zugriff auf einen Server für 500 Dollar zu verkaufen. Später im selben Monat bot die Gruppe auch den Root-Zugang zu einer US-Universität mit einem Umsatz von über 5,6 Milliarden Dollar zum Verkauf an. Der Root-Zugriff auf einen Universitätsserver sollte hier „nur“1.500 Dollar kosten.

Diese Strategie, wertvolle Daten und Zugriffe für Geldsummen anzubieten, die deutlich unter dem eigentlichen Wert der Beute liegen, ist Teil der Strategie von Hellcat. Opfer sollen durch die niedrigen Preise zum einen gedemütigt und zum anderen zum Handeln gedrängt werden. Das es hierbei nicht immer um monetäre Bereicherung gehen muss, zeigt ein anderes Beispiel aus dem Nahen Osten. Dort bot die Gruppe für gerade einmal 300 Dollar einen Root-Zugang zu den Servern einer irakischen Stadtregierung an. Ziel sei es hier, kritische öffentliche Dienste zu stören, so Experten.

Gehackt werden ist schon schlimm genug

Ebenfalls im November setzte Hellcat Pinger, US-Mobilfunkanbieter und App-Entwickler, auf die Liste seiner Opfer. Die Täter behaupteten, 111 GB an Daten gestohlen zu haben, darunter

9 Millionen Benutzerdatensätze,

private Nachrichten,

Sprachnachrichten,

Backend-Systeme,

interne Tools und

Quellcodes.

Sie drohten damit, alle Daten freizugeben, wenn das Unternehmen nicht zahlt.

Die Gruppe scheint nur in ausgewählten Fällen öffentlichkeitswirksam ihren Opfern Sonderkonditionen anzubieten. In Bezug auf die US-amerikanischen Geschädigten sind solche nicht bekannt.

Wie viele der aufstrebenden Cybercrime-Organisationen nutzt Hellcat ein Ransomware-as-a-Service-Geschäftsmodell. Hierbei bieten die Kriminellen Infrastruktur, Verschlüsselungs-Tools und andere Malware an Partner im Austausch für einen Teil des Gewinns an. Laut Experten sollen die Hauptakteure hochrangige Mitglieder des BreachForum sein.

Baguette-Banditen schlagen wieder zu (- mit Ransomware und Hohn)​ Weiterlesen »

Wie Open Source KI-Agenten auf Trab bringt​

Allgemein

KI-Agenten werden immer beliebter – und dank Open-Source-Technik bald auch schneller. shutterstock.com – Master1305 KI-Agenten sind die neuen Stars am Firmament der Künstlichen Intelligenz (KI). Laut Gartner wird bis zum Jahr 2028 jede dritte Unternehmenssoftware agentenbasierte KI-Technik nutzen und es ermöglichen, dass 15 Prozent der täglichen Arbeitsentscheidungen autonom getroffen werden. Voraussetzung für den Erfolg von Agentic AI ist allerdings, dass die KI-Agenten in der Lage sind, nicht nur sicher und genau, sondern auch relativ schnell Aufgaben in digitalen Umgebungen auszuführen. Aktuell hapert es hier noch, und viele Unternehmen haben immer noch mit niedrigen Durchsätzen bei ihren Modellen zu kämpfen. Schnellere Agenten dank Open-Source Eine Lösung für dieses Problem könnte von Katanemo kommen, ein 2022 in den USA gegründetes Startup, das eine intelligente Infrastruktur für KI-native Anwendungen aufbaut. Katanemo stellt mit Arch-Function eine Sammlung hochmoderner großer Sprachmodelle (LLMs) als Open Source zur Verfügung. Diese LLMs versprechen ultraschnelle Geschwindigkeiten bei Funktionsaufrufen, die für agentenbasierte Arbeitsabläufe von entscheidender Bedeutung sind. Wie Salman Paracha, Gründer und CEO von Katanemo auf X ausführt, sind die neuen quelloffenen Modelle fast zwölfmal schneller als GPT-4 von OpenAI. Sie überträfensogar die Angebote von Anthropic und böten gleichzeitig erhebliche Kosteneinsparungen. Paracha zufolge sind die Arch-Function LLMs, die auf Qwen 2.5 mit 3B- und 7B-Parametern basieren, für die Verarbeitung von Funktionsaufrufen ausgelegt. Das soll ihnen im Wesentlichen die Interaktion mit externen Tools und Systemen zur Ausführung digitaler Aufgaben und den Zugriff auf aktuelle Informationen ermöglicht. Den Großen der Branche den Kampf angesagt Sie sollen in der Lage sein, komplexe Funktionssignaturen zu verstehen, Parameter zu identifizieren und präzise Aufrufe auszuführen. Dies soll Unternehmen die Entwicklung agentenbasierter Anwendungen und personalisierter Workflows, etwa für Versicherungsansprüche oder Werbekampagnen erleichtern. Im Vergleich zu GPT-4 vom (Noch-)Platzhirsch OpenAI bietet Arch-Function-3B dabei laut den Entwicklern eine 12-fache Durchsatzsteigerung und 44-fache Kosteneinsparungen. Ähnliche Vorteile wurden gegenüber GPT-4o und Claude 3.5 Sonnet festgestellt. Die Benchmarks wurden auf einem kostengünstigeren L40S Nvidia-Grafikprozessor durchgeführt. 

Wie Open Source KI-Agenten auf Trab bringt​ KI-Agenten werden immer beliebter – und dank Open-Source-Technik bald auch schneller.
shutterstock.com – Master1305

KI-Agenten sind die neuen Stars am Firmament der Künstlichen Intelligenz (KI). Laut Gartner wird bis zum Jahr 2028 jede dritte Unternehmenssoftware agentenbasierte KI-Technik nutzen und es ermöglichen, dass 15 Prozent der täglichen Arbeitsentscheidungen autonom getroffen werden.

Voraussetzung für den Erfolg von Agentic AI ist allerdings, dass die KI-Agenten in der Lage sind, nicht nur sicher und genau, sondern auch relativ schnell Aufgaben in digitalen Umgebungen auszuführen. Aktuell hapert es hier noch, und viele Unternehmen haben immer noch mit niedrigen Durchsätzen bei ihren Modellen zu kämpfen.

Schnellere Agenten dank Open-Source

Eine Lösung für dieses Problem könnte von Katanemo kommen, ein 2022 in den USA gegründetes Startup, das eine intelligente Infrastruktur für KI-native Anwendungen aufbaut. Katanemo stellt mit Arch-Function eine Sammlung hochmoderner großer Sprachmodelle (LLMs) als Open Source zur Verfügung. Diese LLMs versprechen ultraschnelle Geschwindigkeiten bei Funktionsaufrufen, die für agentenbasierte Arbeitsabläufe von entscheidender Bedeutung sind.

Wie Salman Paracha, Gründer und CEO von Katanemo auf X ausführt, sind die neuen quelloffenen Modelle fast zwölfmal schneller als GPT-4 von OpenAI. Sie überträfensogar die Angebote von Anthropic und böten gleichzeitig erhebliche Kosteneinsparungen.

Paracha zufolge sind die Arch-Function LLMs, die auf Qwen 2.5 mit 3B- und 7B-Parametern basieren, für die Verarbeitung von Funktionsaufrufen ausgelegt. Das soll ihnen im Wesentlichen die Interaktion mit externen Tools und Systemen zur Ausführung digitaler Aufgaben und den Zugriff auf aktuelle Informationen ermöglicht.

Den Großen der Branche den Kampf angesagt

Sie sollen in der Lage sein, komplexe Funktionssignaturen zu verstehen, Parameter zu identifizieren und präzise Aufrufe auszuführen. Dies soll Unternehmen die Entwicklung agentenbasierter Anwendungen und personalisierter Workflows, etwa für Versicherungsansprüche oder Werbekampagnen erleichtern.

Im Vergleich zu GPT-4 vom (Noch-)Platzhirsch OpenAI bietet Arch-Function-3B dabei laut den Entwicklern eine 12-fache Durchsatzsteigerung und 44-fache Kosteneinsparungen. Ähnliche Vorteile wurden gegenüber GPT-4o und Claude 3.5 Sonnet festgestellt. Die Benchmarks wurden auf einem kostengünstigeren L40S Nvidia-Grafikprozessor durchgeführt.

Wie Open Source KI-Agenten auf Trab bringt​ Weiterlesen »

Ist Trump der Booster für Europas digitale Souveränität?​

Allgemein

Auf europäische Unternehmen, die Daten in die USA transferieren wollen, kommen mit US-Präsident Trump stürmische Zeiten zu. Viktollio/Shutterstock.com Bis zur Amtseinführung von US-Präsident Trump am 20. Januar 2025 schien die digitale Welt in Ordnung zu sein. Gestützt auf das durchaus umstrittene (Stichwort Schrems III) Data Privacy Framework – bestätigt durch eine Executive Order von Ex-Präsident Joe Biden – konnten europäische Unternehmen Compliance-gerecht ihre Daten in die USA transferieren. Doch damit könnte bald Schluss sein. So weist der Digitalverband Bitkom darauf hin, dass ein zentrales Gremium für die Überwachung des Abkommens durch die neue US-Politik ebenso auf der Kippe steht wie der Präsidialerlass insgesamt. Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung, warnt deshalb, „Unternehmen sollten sich bereits heute Gedanken machen, ob und auf welcher Rechtsgrundlage sie derzeit Daten in die USA transferieren“. Big Tech diktiert die Standards Eine Alternative zum Data Privacy Framework könnte die Nutzung von Standardvertragsklauseln sein. Diese wurden von der EU-Kommission vorformuliert und verpflichten beide Vertragsparteien, ein angemessenes Datenschutzniveau einzuhalten. Allerdings ist der rechtliche Aspekt nur eine Seite der Medaille. Auf der anderen Seite, so Christine Knackfuß-Nikolic, CTO bei T-Systems, verfügten die großen US-Cloud-Anbieter (Big Tech) wie Amazon Web Services, Microsoft Azure und Google Cloud über 70 Prozent Marktanteil im europäischen Cloud-Markt: „Damit diktieren sie nicht nur die technologischen Standards, sie haben auch Einfluss auf die wirtschaftlichen und rechtlichen Bedingungen, unter denen europäische Kunden arbeiten.“ Digitale Souveränität für Europa Europa muss seine digitale Souveränität stärken, fordert T-Systems-CTO Christine Knackfuß-Nikolic. T-Systems Vor diesem Hintergrund und mit Blick auf den Amtsantritt von US-Präsident Trump hält sie es für dringend geboten, dass Europa seine digitale Souveränität stärkt. Zumal das technische Wettrüsten – wie die Ankündigungen von Stargate und Deepseek zeigen – weiter zunimmt. Gemeinsam mit Partnern wie Fraunhofer, IONOS, SAP und Schwarz Digits haben Deutsche Telekom und T-Systems deshalb im Rahmen einer von der Deutschen Akademie der Technikwissenschaften acatech koordinierten Taskforce konkrete Handlungsempfehlungen entwickelt, um ein entsprechendes Angebot zu schaffen. Gleichzeitig will man damit die europäische Initiative „8ra“ unterstützen. Mit 8ra zur EU-Super-Cloud Die Vision hinter 8ra: Eine „Super-Cloud“, die die gebündelte Power eines europaweiten Netzwerks mit den Vorteilen der Hyperscaler vereint. Sie soll dort punkten, wo die Hyperscaler Schwächen zeigen: bei der digitalen Souveränität. Ziel ist es, europäische Unternehmen zu schützen und zu stärken, indem sensible Daten sicher in eigenen Rechenzentren bleiben. Laut Knackfuß-Nikolic arbeiten bereits heute zwölf EU-Mitgliedstaaten und rund 150 Partner, darunter Branchenriesen wie SAP, Siemens, Bosch, Telefónica, Orange und Airbus an diesem offenen, europäischen Betriebssystem. Es soll eine einfache Daten- und Anwendungsmigration zwischen Cloud-Anbietern ermöglichen. Ziel 2030: 100.000 RZs in der EU Das Fernziel bis 2030 dabei: 10.000 vernetzte Edge-Cloud-Knoten. Perspektivisch könnten zudem 100.000 Rechenzentren in ganz Europa entstehen. Für die europäische Wirtschaft liegen die Vorteile und Chancen von 8ra nach Ansicht der CTO auf der Hand, nämlich: – höhere Leistungskraft, – ständige Leistungssteigerung durch neue Technologien, – Resilienz durch verteilte Infrastruktur, – Nachhaltigkeit und Energieeffizienz, – Sicherheit und Datenschutz. Mit Blick auf US-Präsident Trump appelliert Knackfuß-Nikolic: „Es ist wichtig, dass wir Europäer jetzt handeln und unsere digitale Zukunft in die Hand nehmen. Gemeinsam. Für eine vereinte, starke und sichere Cloud – Made in Europe.“ 

Ist Trump der Booster für Europas digitale Souveränität?​ Auf europäische Unternehmen, die Daten in die USA transferieren wollen, kommen mit US-Präsident Trump stürmische Zeiten zu.
Viktollio/Shutterstock.com

Bis zur Amtseinführung von US-Präsident Trump am 20. Januar 2025 schien die digitale Welt in Ordnung zu sein. Gestützt auf das durchaus umstrittene (Stichwort Schrems III) Data Privacy Framework – bestätigt durch eine Executive Order von Ex-Präsident Joe Biden – konnten europäische Unternehmen Compliance-gerecht ihre Daten in die USA transferieren.

Doch damit könnte bald Schluss sein. So weist der Digitalverband Bitkom darauf hin, dass ein zentrales Gremium für die Überwachung des Abkommens durch die neue US-Politik ebenso auf der Kippe steht wie der Präsidialerlass insgesamt. Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung, warnt deshalb, „Unternehmen sollten sich bereits heute Gedanken machen, ob und auf welcher Rechtsgrundlage sie derzeit Daten in die USA transferieren“.

Big Tech diktiert die Standards

Eine Alternative zum Data Privacy Framework könnte die Nutzung von Standardvertragsklauseln sein. Diese wurden von der EU-Kommission vorformuliert und verpflichten beide Vertragsparteien, ein angemessenes Datenschutzniveau einzuhalten. Allerdings ist der rechtliche Aspekt nur eine Seite der Medaille.

Auf der anderen Seite, so Christine Knackfuß-Nikolic, CTO bei T-Systems, verfügten die großen US-Cloud-Anbieter (Big Tech) wie Amazon Web Services, Microsoft Azure und Google Cloud über 70 Prozent Marktanteil im europäischen Cloud-Markt: „Damit diktieren sie nicht nur die technologischen Standards, sie haben auch Einfluss auf die wirtschaftlichen und rechtlichen Bedingungen, unter denen europäische Kunden arbeiten.“

Digitale Souveränität für Europa

Europa muss seine digitale Souveränität stärken, fordert T-Systems-CTO Christine Knackfuß-Nikolic.
T-Systems

Vor diesem Hintergrund und mit Blick auf den Amtsantritt von US-Präsident Trump hält sie es für dringend geboten, dass Europa seine digitale Souveränität stärkt. Zumal das technische Wettrüsten – wie die Ankündigungen von Stargate und Deepseek zeigen – weiter zunimmt.

Gemeinsam mit Partnern wie Fraunhofer, IONOS, SAP und Schwarz Digits haben Deutsche Telekom und T-Systems deshalb im Rahmen einer von der Deutschen Akademie der Technikwissenschaften acatech koordinierten Taskforce konkrete Handlungsempfehlungen entwickelt, um ein entsprechendes Angebot zu schaffen. Gleichzeitig will man damit die europäische Initiative „8ra“ unterstützen.

Mit 8ra zur EU-Super-Cloud

Die Vision hinter 8ra: Eine „Super-Cloud“, die die gebündelte Power eines europaweiten Netzwerks mit den Vorteilen der Hyperscaler vereint. Sie soll dort punkten, wo die Hyperscaler Schwächen zeigen: bei der digitalen Souveränität. Ziel ist es, europäische Unternehmen zu schützen und zu stärken, indem sensible Daten sicher in eigenen Rechenzentren bleiben.

Laut Knackfuß-Nikolic arbeiten bereits heute zwölf EU-Mitgliedstaaten und rund 150 Partner, darunter Branchenriesen wie SAP, Siemens, Bosch, Telefónica, Orange und Airbus an diesem offenen, europäischen Betriebssystem. Es soll eine einfache Daten- und Anwendungsmigration zwischen Cloud-Anbietern ermöglichen.

Ziel 2030: 100.000 RZs in der EU

Das Fernziel bis 2030 dabei: 10.000 vernetzte Edge-Cloud-Knoten. Perspektivisch könnten zudem 100.000 Rechenzentren in ganz Europa entstehen. Für die europäische Wirtschaft liegen die Vorteile und Chancen von 8ra nach Ansicht der CTO auf der Hand, nämlich:

– höhere Leistungskraft,

– ständige Leistungssteigerung durch neue Technologien,

– Resilienz durch verteilte Infrastruktur,

– Nachhaltigkeit und Energieeffizienz,

– Sicherheit und Datenschutz.

Mit Blick auf US-Präsident Trump appelliert Knackfuß-Nikolic: „Es ist wichtig, dass wir Europäer jetzt handeln und unsere digitale Zukunft in die Hand nehmen. Gemeinsam. Für eine vereinte, starke und sichere Cloud – Made in Europe.“

Ist Trump der Booster für Europas digitale Souveränität?​ Weiterlesen »

IBM hilft Mainframe-Kunden beim KI-Training​

Allgemein

Auch im KI-Zeitalter gehören Mainframes längst noch nicht zum alten Eisen.whiteMocca/Shutterstock Mit den IBM Synthetic Datasets will Big Blue Unternehmen dabei helfen,   KI-Modelle schneller zu trainieren oder zu optimieren,   Vorhersagemodelle zu verbessern, und   wahrheitsgetreue Modelle zu validieren.   Die Datensatz-Familie, die voraussichtlich Ende Februar verfügbar sein wird, umfasst dazu Module für Zahlungskarten, Bankgeschäfte und Geldwäsche sowie Hausratversicherungen.  Synthetische Datensätze bestehen aus herunterladbaren CSV- und DDL-Dateien mit vorab zusammengestellten Attributen, die für spezifischen Anwendungsfälle für IBM Z und IBM LinuxONE benötigt werden. Dadurch seien sie benutzerfreundlich und mit allem kompatibel, von Datenbanken über Tabellenkalkulationen bis hin zu Hardwareplattformen und Standard-KI-Tools, heißt es seitens IBM.  Daten zum Anlernen und Optimieren  Verfügt ein Kunde über ein vorhandenes Modell oder LLM, bieten synthetische Daten zusätzliche Informationen, um das KI-Modell zu optimieren – in reichhaltiger und gelabelter Form. Hat ein Kunde noch kein Modell, sind die synthetischen Datensätze so konzipiert, dass sie datenschutzkonforme Trainingsdaten liefern, um Modelle von Grund auf neu zu erstellen, so der Anbieter.  Kunden könnten Modelle auf IBM Z und IBM LinuxONE mit AI Toolkit für IBM Z und IBM LinuxONE, Cloud Pak für Daten auf Z oder Machine Learning für z/OS bereitstellen, erklären Elpida Tzortzatos, IBM Fellow und Z-Architektin, und Tina Tarquinio, IBM-Vizepräsidentin, in einem Blogbeitrag: „Sie können Inferenzen auf IBM z16 und IBM LinuxONE 4 durchführen und dabei Investitionen in die Hardwarebeschleunigung und die Datengravitation nutzen, um die Geschwindigkeit und den Umfang von KI-Inferenzen drastisch zu erhöhen.“  Hilfe bei Betrugserkennung und Geldwäscheprävention  Darüber hinaus seien Anwender damit in der Lage, prädiktive KI-Modelle zu verbessern und LLMs mit zusätzlichen, umfangreichen und breit gefächerten Daten zu optimieren. Das führe laut den Autoren zu erheblichen Kosteneinsparungen in Bereichen wie der Betrugserkennung und der Geldwäscheprävention.  Geldwäsche bliebe in realen Daten oft unentdeckt, so die Autoren, weil Kriminelle illegale Gelder häufig über diverse Banken und Landesgrenzen verschieben, um deren Herkunft zu verschleiern. Das habe komplexe Transaktionsmuster zur Folge, so Tzortzatos und Tarquinio.   Mit IBM Synthetic Data Sets for Core Banking and Money Laundering werde jede Transaktion entweder als Geldwäsche identifiziert oder nicht, „wobei das gesamte Bankensystem abgedeckt wird, globale Transaktionen einbezogen werden und sogar Bargeldtransaktionen, die in realen Bankdaten normalerweise nicht verfügbar sind“, schreiben die IBM-Experten. Dieser umfangreiche Datensatz mit bekannter Grundwahrheit ermögliche es Datenwissenschaftlern, ihre Modelle zu validieren und robuste AML-Modelle zu erstellen, wodurch Risiken reduziert und Kosten für Unternehmen eingespart würden. Darüber hinaus spare es unzählige Arbeitsstunden, Fehlalarme zu reduzieren.   

IBM hilft Mainframe-Kunden beim KI-Training​ Auch im KI-Zeitalter gehören Mainframes längst noch nicht zum alten Eisen.whiteMocca/Shutterstock

Mit den IBM Synthetic Datasets will Big Blue Unternehmen dabei helfen,  

KI-Modelle schneller zu trainieren oder zu optimieren,  

Vorhersagemodelle zu verbessern, und  

wahrheitsgetreue Modelle zu validieren.  

Die Datensatz-Familie, die voraussichtlich Ende Februar verfügbar sein wird, umfasst dazu Module für Zahlungskarten, Bankgeschäfte und Geldwäsche sowie Hausratversicherungen. 

Synthetische Datensätze bestehen aus herunterladbaren CSV- und DDL-Dateien mit vorab zusammengestellten Attributen, die für spezifischen Anwendungsfälle für IBM Z und IBM LinuxONE benötigt werden. Dadurch seien sie benutzerfreundlich und mit allem kompatibel, von Datenbanken über Tabellenkalkulationen bis hin zu Hardwareplattformen und Standard-KI-Tools, heißt es seitens IBM. 

Daten zum Anlernen und Optimieren 

Verfügt ein Kunde über ein vorhandenes Modell oder LLM, bieten synthetische Daten zusätzliche Informationen, um das KI-Modell zu optimieren – in reichhaltiger und gelabelter Form. Hat ein Kunde noch kein Modell, sind die synthetischen Datensätze so konzipiert, dass sie datenschutzkonforme Trainingsdaten liefern, um Modelle von Grund auf neu zu erstellen, so der Anbieter. 

Kunden könnten Modelle auf IBM Z und IBM LinuxONE mit AI Toolkit für IBM Z und IBM LinuxONE, Cloud Pak für Daten auf Z oder Machine Learning für z/OS bereitstellen, erklären Elpida Tzortzatos, IBM Fellow und Z-Architektin, und Tina Tarquinio, IBM-Vizepräsidentin, in einem Blogbeitrag: „Sie können Inferenzen auf IBM z16 und IBM LinuxONE 4 durchführen und dabei Investitionen in die Hardwarebeschleunigung und die Datengravitation nutzen, um die Geschwindigkeit und den Umfang von KI-Inferenzen drastisch zu erhöhen.“ 

Hilfe bei Betrugserkennung und Geldwäscheprävention 

Darüber hinaus seien Anwender damit in der Lage, prädiktive KI-Modelle zu verbessern und LLMs mit zusätzlichen, umfangreichen und breit gefächerten Daten zu optimieren. Das führe laut den Autoren zu erheblichen Kosteneinsparungen in Bereichen wie der Betrugserkennung und der Geldwäscheprävention. 

Geldwäsche bliebe in realen Daten oft unentdeckt, so die Autoren, weil Kriminelle illegale Gelder häufig über diverse Banken und Landesgrenzen verschieben, um deren Herkunft zu verschleiern. Das habe komplexe Transaktionsmuster zur Folge, so Tzortzatos und Tarquinio.  

Mit IBM Synthetic Data Sets for Core Banking and Money Laundering werde jede Transaktion entweder als Geldwäsche identifiziert oder nicht, „wobei das gesamte Bankensystem abgedeckt wird, globale Transaktionen einbezogen werden und sogar Bargeldtransaktionen, die in realen Bankdaten normalerweise nicht verfügbar sind“, schreiben die IBM-Experten. Dieser umfangreiche Datensatz mit bekannter Grundwahrheit ermögliche es Datenwissenschaftlern, ihre Modelle zu validieren und robuste AML-Modelle zu erstellen, wodurch Risiken reduziert und Kosten für Unternehmen eingespart würden. Darüber hinaus spare es unzählige Arbeitsstunden, Fehlalarme zu reduzieren.  

IBM hilft Mainframe-Kunden beim KI-Training​ Weiterlesen »

So händeln Sie Day-2-Probleme bei GenAI-Deployments​

Allgemein

Wenn das GenAI-System läuft, fängt die eigentliche Arbeit erst an. Treecha | shutterstock.com Alle IT-Projekte durchlaufen Phasen, und Generative KI ist in dieser Hinsicht nicht anders. In ersten Pilotprojekten wird getestet, wie Technologie oder Software funktioniert, und es wird ermittelt, ob die gewünschten Ergebnisse oder die Versprechungen der Anbieter oder Entwickler erreicht werden. Sobald diese Pilotphasen abgeschlossen sind, ist es an der Zeit, zu skalieren. Man könnte zwar meinen, dass die Skalierung neuer Projekte einfach darin besteht, mehr Ressourcen einzusetzen. Das kann jedoch neue Probleme aufwerfen. Im Fall von GenAI können Skalierungsprobleme zudem sehr unterschiedlich ausfallen. IT-Mitarbeiter bezeichnen diese Probleme üblicherweise als „Day-1“- und „Day-2“-Probleme. Erstere sind solche, die bei der Implementierung auftreten. Bei der generativen KI umfasst dies die Vorbereitung Ihrer Daten für die Verwendung mit Retrieval-Augmented Generation (RAG) bis hin zur Überprüfung, ob Ihr Ansatz zur Aufteilung und Indizierung von Daten effektiv ist. Bei RAG werden vortrainierte große Sprachmodelle (LLMs) zusammen mit den unternehmenseigenen Daten verwendet, sodass Ihre generative KI-Anwendung relevantere, spezifischere und zeitnahere Antworten liefern kann, anstatt sich nur auf das zu verlassen, worauf das LLM ursprünglich trainiert wurde. Daten-Chunking, -Indexierung und -Einbettung Aus der Day-1-Perspektive können RAG-Deployments mit Problemen bei der Vorbereitung Ihrer Daten konfrontiert sein. In der Anfangsphase der Datenvorbereitung werden beispielsweise alle unstrukturierten und strukturierten Daten in ein Format umgewandelt, mit dem das generative KI-System arbeiten kann. Dazu gehört die Erstellung einer Reihe von Dokumentobjekten, die alle Ihre Unternehmensdaten darstellen und sowohl den Text als auch alle zugehörigen Metadaten enthalten. Textdaten werden dann in kleinere Teile, sogenannte Chunks, aufgeteilt, die indiziert und verstanden werden können. Die Größe der Chunks kann hier einen großen Unterschied machen. Man kann diese beispielsweise auf Satz- oder Absatzebene oder als komplexere selbstreferenzielle Chunks implementieren, die in immer kleinere Elemente verarbeitet werden. Unabhängig davon, für welchen Ansatz man sich entscheidet, werden diese Chunks dann indiziert und in Vektor-Einbettungen umgewandelt, wo sie für zukünftige Suchvorgänge gespeichert werden können. Sendet ein Benutzer eine Abfrage, wird diese Abfrage in einen Vektor umgewandelt, der zur Suche nach den relevantesten Daten verwendet wird. Diese werden dann an das LLM weitergeleitet, damit es diese berücksichtigen kann. RAG kann zwar dazu beitragen, KI-Halluzinationen zu reduzieren und die Antworten zu verbessern. Die Technik reicht aber allein nicht aus. Probleme wie die Wahl des falschen LLM, die Verwendung des falschen Chunking-Ansatzes oder die Indexierung von Daten können sich auf die Funktionsweise Ihres RAG-Systems und die Qualität seiner Antworten auswirken. Wenn Sie beispielsweise zu große Chunks verwenden, gibt das LLM große Textblöcke zurück, die für bestimmte Anfragen möglicherweise nicht relevant sind. GenAI-Anwendungen skalieren Sobald Ihr RAG-System effektiv funktioniert, werden Sie möglicherweise auf neue Herausforderungen treffen. So wurde beispielsweise der ChatGPT-Dienst von OpenAI trainiert und für Benutzer zur Verfügung gestellt, um Fragen zu stellen. Die Zahl der Nutzer wuchs extrem schnell – laut Business of Apps dauerte es nur zwei Monate, um 100 Millionen Nutzer zu erreichen. Unternehmen, die generative KI und RAG einsetzen, hoffen, dass auch sie eine große Anzahl von Nutzeranfragen erhalten werden. Aber haben Sie auch bedacht, was passieren könnte, wenn Ihre App ein Riesenerfolg wird, und wie sehr das Ihre generative KI-Infrastruktur belasten könnte? Werden Ihre Kosten für generative KI mit den Einnahmen, die Sie damit erzielen wollen, steigen, oder betrachten Sie dies als zusätzliche Einnahmen zu Ihren Produkten? Wie hoch schätzen Sie die Gewinnschwelle ein, ab der Sie die gewünschte Marge erzielen werden – je nachdem, wie groß das Interesse ist, das Sie wecken? Bei vielen Dienstleistungen ist die Arbeit, die in den Betrieb im großen Maßstab fließt, genauso wichtig wie die anfängliche Aufbau- und Entwurfsphase, um qualitativ hochwertige Antworten zu liefern. Dies ist ein Beispiel für ein Day-2-Problem, bei dem man feststellt, dass das, was in der Testphase funktioniert hat, nicht skalierbar ist, um die Nachfrage zu decken. Wie bewältigt beispielsweise Ihr RAG-Deployment Tausende oder Millionen von gleichzeitigen Anfragen von Benutzern, und wie schnell können Ihre Vektordatenbank und die LLM-Integrationskomponenten diese Daten analysieren, damit das System dem Benutzer eine Antwort zurückgeben kann? Während Benutzer bei einem kostenlosen, neuartigen Dienst eine eingeschränkte Leistung akzeptieren, sind sie weniger bereit, schlechte Antwortzeiten in Kauf zu nehmen, wenn sie für einen Dienst bezahlen. Bei der Analyse von RAG-Anfragen können bis zu 40 Prozent der Latenz innerhalb von Transaktionen von Aufrufen an den Einbettungsdienst und den Vektorsuchdienst stammen, bei denen RAG die richtigen Daten abgleicht und sie an den Benutzer zurückgibt. Die Optimierung dieses Roundtrips kann daher einen enormen Einfluss auf die Benutzererfahrung haben, beispielsweise durch das Zwischenspeichern früherer ähnlicher Anfragen. Gleichzeitig verursacht jeder Roundtrip Kosten in Form von Rechenressourcen, insbesondere in der Cloud. Die Reduzierung der Workloads, sodass Unternehmen nur für das bezahlen, was sie nutzen, kann dazu beitragen, diese Kosten zu senken und die Ausgaben effizienter zu gestalten. Gleichzeitig müssen sich Entwickler und IT-Mitarbeiter damit befassen, wo sie generative KI-Workloads ausführen. Viele Unternehmen werden damit in der Cloud beginnen, da sie die Last der Ausführung ihrer eigenen LLMs vermeiden wollen. Andere werden ihren eigenen Ansatz verfolgen wollen, um das Beste aus ihren Entscheidungen zu machen und eine Bindung zu vermeiden. Unabhängig davon, ob Sie On-Premises oder die Cloud bevorzugen, müssen Sie jedoch darüber nachdenken, an mehreren Standorten zu arbeiten. Die Nutzung mehrerer Standorte sorgt für die Ausfallsicherheit eines Dienstes. Wenn ein Standort nicht mehr verfügbar ist, kann der Dienst trotzdem weiter funktionieren. Bei lokalen Standorten kann dies die Implementierung von Failover- und Verfügbarkeitstechnologien rund um Vektordatensätze bedeuten, sodass diese Daten bei Bedarf abgefragt werden können. Bei Cloud-Bereitstellungen ist der Betrieb an mehreren Standorten einfacher, da man verschiedene Cloud-Regionen zum Hosten und Replizieren von Vektordaten verwenden kann. Die Nutzung mehrerer Standorte ermöglicht es auch, Antworten von dem Standort zu liefern, der dem Benutzer am nächsten liegt, wodurch die Latenzzeit verringert wird und die Unterstützung geografischer Datenstandorte erleichtert wird, wenn Daten aus Compliance-Gründen an einem bestimmten Standort oder in einer bestimmten Region aufbewahrt werden müssen. Laufende Betriebskosten in den Griff bekommen Am zweiten Tag des IT-Betriebs werden Ihre Gemeinkosten und Probleme im Zusammenhang mit dem Betrieb Ihrer Infrastruktur untersucht und anschließend entweder Engpässe beseitigt oder Ihr Lösungsansatz optimiert. Da GenAI-Anwendungen riesige Datenmengen sowie integrierte Komponenten und Dienste umfassen, ist es wichtig, die im Laufe der Zeit anfallenden Betriebskosten zu berücksichtigen. Mit zunehmender Beliebtheit generativer KI-Dienste können Probleme bei der Skalierung dieser Integrationen auftreten. Wenn Sie feststellen, dass Sie weitere Funktionen hinzufügen oder mehr potenzielle KI-Agenten integrieren möchten, benötigen diese Integrationen Unterstützung auf Unternehmensebene. Wenn Sie Ihre Komponenten selbst auswählen und integrieren, können Sie einen Best-of-Breed-Ansatz für Ihre Anwendung wählen. Die Verwendung eines Microservices-Ansatzes kann es auch einfacher machen, im Laufe der Zeit mehr Integrationen oder Funktionen zu unterstützen. DIY bedeutet jedoch auch, dass Sie für die gesamte Integration und Verwaltung verantwortlich sind, was sich im Laufe der Zeit summieren kann. Die Alternative ist ein Stack-basierter Ansatz, bei dem die Unterstützung für verschiedene Tools oder Integrationen für Sie implementiert wurde. Ein vorgefertigter Stapel ermöglicht es Ihrem Team, sich auf die Erstellung von Anwendungen zu konzentrieren, anstatt die Infrastruktur zu implementieren, und sollte auch Ihre Abläufe vereinfachen. Sobald Ihre generative KI-Anwendung einsatzbereit ist, müssen Sie diesen Dienst betreiben und unterstützen, damit er die Erwartungen der Benutzer in Bezug auf Leistung und Qualität erfüllt. Wenn Sie Ihre Einrichtung abgeschlossen haben, werden Sie neue potenzielle Probleme entdecken, die spezifisch für RAG-Bereitstellungen sind, sowie einige traditionelle IT-Managementprobleme wie Verfügbarkeit und Kosten. Wenn Sie expandieren, wird sich Ihr Fokus von den Problemen des ersten Tages auf die Herausforderungen des zweiten Tages verlagern müssen. Ein stapelbasierter Ansatz kann in dieser Hinsicht hilfreich sein, sodass Sie sich darauf konzentrieren können, Ihren Benutzern den bestmöglichen Service zu bieten. (mb) 

So händeln Sie Day-2-Probleme bei GenAI-Deployments​ Wenn das GenAI-System läuft, fängt die eigentliche Arbeit erst an.
Treecha | shutterstock.com

Alle IT-Projekte durchlaufen Phasen, und Generative KI ist in dieser Hinsicht nicht anders. In ersten Pilotprojekten wird getestet, wie Technologie oder Software funktioniert, und es wird ermittelt, ob die gewünschten Ergebnisse oder die Versprechungen der Anbieter oder Entwickler erreicht werden. Sobald diese Pilotphasen abgeschlossen sind, ist es an der Zeit, zu skalieren. Man könnte zwar meinen, dass die Skalierung neuer Projekte einfach darin besteht, mehr Ressourcen einzusetzen. Das kann jedoch neue Probleme aufwerfen. Im Fall von GenAI können Skalierungsprobleme zudem sehr unterschiedlich ausfallen.

IT-Mitarbeiter bezeichnen diese Probleme üblicherweise als „Day-1“- und „Day-2“-Probleme. Erstere sind solche, die bei der Implementierung auftreten. Bei der generativen KI umfasst dies die Vorbereitung Ihrer Daten für die Verwendung mit Retrieval-Augmented Generation (RAG) bis hin zur Überprüfung, ob Ihr Ansatz zur Aufteilung und Indizierung von Daten effektiv ist. Bei RAG werden vortrainierte große Sprachmodelle (LLMs) zusammen mit den unternehmenseigenen Daten verwendet, sodass Ihre generative KI-Anwendung relevantere, spezifischere und zeitnahere Antworten liefern kann, anstatt sich nur auf das zu verlassen, worauf das LLM ursprünglich trainiert wurde.

Daten-Chunking, -Indexierung und -Einbettung

Aus der Day-1-Perspektive können RAG-Deployments mit Problemen bei der Vorbereitung Ihrer Daten konfrontiert sein. In der Anfangsphase der Datenvorbereitung werden beispielsweise alle unstrukturierten und strukturierten Daten in ein Format umgewandelt, mit dem das generative KI-System arbeiten kann. Dazu gehört die Erstellung einer Reihe von Dokumentobjekten, die alle Ihre Unternehmensdaten darstellen und sowohl den Text als auch alle zugehörigen Metadaten enthalten.

Textdaten werden dann in kleinere Teile, sogenannte Chunks, aufgeteilt, die indiziert und verstanden werden können. Die Größe der Chunks kann hier einen großen Unterschied machen. Man kann diese beispielsweise auf Satz- oder Absatzebene oder als komplexere selbstreferenzielle Chunks implementieren, die in immer kleinere Elemente verarbeitet werden. Unabhängig davon, für welchen Ansatz man sich entscheidet, werden diese Chunks dann indiziert und in Vektor-Einbettungen umgewandelt, wo sie für zukünftige Suchvorgänge gespeichert werden können.

Sendet ein Benutzer eine Abfrage, wird diese Abfrage in einen Vektor umgewandelt, der zur Suche nach den relevantesten Daten verwendet wird. Diese werden dann an das LLM weitergeleitet, damit es diese berücksichtigen kann. RAG kann zwar dazu beitragen, KI-Halluzinationen zu reduzieren und die Antworten zu verbessern. Die Technik reicht aber allein nicht aus. Probleme wie die Wahl des falschen LLM, die Verwendung des falschen Chunking-Ansatzes oder die Indexierung von Daten können sich auf die Funktionsweise Ihres RAG-Systems und die Qualität seiner Antworten auswirken. Wenn Sie beispielsweise zu große Chunks verwenden, gibt das LLM große Textblöcke zurück, die für bestimmte Anfragen möglicherweise nicht relevant sind.

GenAI-Anwendungen skalieren

Sobald Ihr RAG-System effektiv funktioniert, werden Sie möglicherweise auf neue Herausforderungen treffen. So wurde beispielsweise der ChatGPT-Dienst von OpenAI trainiert und für Benutzer zur Verfügung gestellt, um Fragen zu stellen. Die Zahl der Nutzer wuchs extrem schnell – laut Business of Apps dauerte es nur zwei Monate, um 100 Millionen Nutzer zu erreichen. Unternehmen, die generative KI und RAG einsetzen, hoffen, dass auch sie eine große Anzahl von Nutzeranfragen erhalten werden.

Aber haben Sie auch bedacht, was passieren könnte, wenn Ihre App ein Riesenerfolg wird, und wie sehr das Ihre generative KI-Infrastruktur belasten könnte? Werden Ihre Kosten für generative KI mit den Einnahmen, die Sie damit erzielen wollen, steigen, oder betrachten Sie dies als zusätzliche Einnahmen zu Ihren Produkten? Wie hoch schätzen Sie die Gewinnschwelle ein, ab der Sie die gewünschte Marge erzielen werden – je nachdem, wie groß das Interesse ist, das Sie wecken?

Bei vielen Dienstleistungen ist die Arbeit, die in den Betrieb im großen Maßstab fließt, genauso wichtig wie die anfängliche Aufbau- und Entwurfsphase, um qualitativ hochwertige Antworten zu liefern. Dies ist ein Beispiel für ein Day-2-Problem, bei dem man feststellt, dass das, was in der Testphase funktioniert hat, nicht skalierbar ist, um die Nachfrage zu decken. Wie bewältigt beispielsweise Ihr RAG-Deployment Tausende oder Millionen von gleichzeitigen Anfragen von Benutzern, und wie schnell können Ihre Vektordatenbank und die LLM-Integrationskomponenten diese Daten analysieren, damit das System dem Benutzer eine Antwort zurückgeben kann?

Während Benutzer bei einem kostenlosen, neuartigen Dienst eine eingeschränkte Leistung akzeptieren, sind sie weniger bereit, schlechte Antwortzeiten in Kauf zu nehmen, wenn sie für einen Dienst bezahlen. Bei der Analyse von RAG-Anfragen können bis zu 40 Prozent der Latenz innerhalb von Transaktionen von Aufrufen an den Einbettungsdienst und den Vektorsuchdienst stammen, bei denen RAG die richtigen Daten abgleicht und sie an den Benutzer zurückgibt. Die Optimierung dieses Roundtrips kann daher einen enormen Einfluss auf die Benutzererfahrung haben, beispielsweise durch das Zwischenspeichern früherer ähnlicher Anfragen.

Gleichzeitig verursacht jeder Roundtrip Kosten in Form von Rechenressourcen, insbesondere in der Cloud. Die Reduzierung der Workloads, sodass Unternehmen nur für das bezahlen, was sie nutzen, kann dazu beitragen, diese Kosten zu senken und die Ausgaben effizienter zu gestalten.

Gleichzeitig müssen sich Entwickler und IT-Mitarbeiter damit befassen, wo sie generative KI-Workloads ausführen. Viele Unternehmen werden damit in der Cloud beginnen, da sie die Last der Ausführung ihrer eigenen LLMs vermeiden wollen. Andere werden ihren eigenen Ansatz verfolgen wollen, um das Beste aus ihren Entscheidungen zu machen und eine Bindung zu vermeiden. Unabhängig davon, ob Sie On-Premises oder die Cloud bevorzugen, müssen Sie jedoch darüber nachdenken, an mehreren Standorten zu arbeiten.

Die Nutzung mehrerer Standorte sorgt für die Ausfallsicherheit eines Dienstes. Wenn ein Standort nicht mehr verfügbar ist, kann der Dienst trotzdem weiter funktionieren. Bei lokalen Standorten kann dies die Implementierung von Failover- und Verfügbarkeitstechnologien rund um Vektordatensätze bedeuten, sodass diese Daten bei Bedarf abgefragt werden können. Bei Cloud-Bereitstellungen ist der Betrieb an mehreren Standorten einfacher, da man verschiedene Cloud-Regionen zum Hosten und Replizieren von Vektordaten verwenden kann. Die Nutzung mehrerer Standorte ermöglicht es auch, Antworten von dem Standort zu liefern, der dem Benutzer am nächsten liegt, wodurch die Latenzzeit verringert wird und die Unterstützung geografischer Datenstandorte erleichtert wird, wenn Daten aus Compliance-Gründen an einem bestimmten Standort oder in einer bestimmten Region aufbewahrt werden müssen.

Laufende Betriebskosten in den Griff bekommen

Am zweiten Tag des IT-Betriebs werden Ihre Gemeinkosten und Probleme im Zusammenhang mit dem Betrieb Ihrer Infrastruktur untersucht und anschließend entweder Engpässe beseitigt oder Ihr Lösungsansatz optimiert. Da GenAI-Anwendungen riesige Datenmengen sowie integrierte Komponenten und Dienste umfassen, ist es wichtig, die im Laufe der Zeit anfallenden Betriebskosten zu berücksichtigen. Mit zunehmender Beliebtheit generativer KI-Dienste können Probleme bei der Skalierung dieser Integrationen auftreten. Wenn Sie feststellen, dass Sie weitere Funktionen hinzufügen oder mehr potenzielle KI-Agenten integrieren möchten, benötigen diese Integrationen Unterstützung auf Unternehmensebene.

Wenn Sie Ihre Komponenten selbst auswählen und integrieren, können Sie einen Best-of-Breed-Ansatz für Ihre Anwendung wählen. Die Verwendung eines Microservices-Ansatzes kann es auch einfacher machen, im Laufe der Zeit mehr Integrationen oder Funktionen zu unterstützen. DIY bedeutet jedoch auch, dass Sie für die gesamte Integration und Verwaltung verantwortlich sind, was sich im Laufe der Zeit summieren kann. Die Alternative ist ein Stack-basierter Ansatz, bei dem die Unterstützung für verschiedene Tools oder Integrationen für Sie implementiert wurde. Ein vorgefertigter Stapel ermöglicht es Ihrem Team, sich auf die Erstellung von Anwendungen zu konzentrieren, anstatt die Infrastruktur zu implementieren, und sollte auch Ihre Abläufe vereinfachen.

Sobald Ihre generative KI-Anwendung einsatzbereit ist, müssen Sie diesen Dienst betreiben und unterstützen, damit er die Erwartungen der Benutzer in Bezug auf Leistung und Qualität erfüllt. Wenn Sie Ihre Einrichtung abgeschlossen haben, werden Sie neue potenzielle Probleme entdecken, die spezifisch für RAG-Bereitstellungen sind, sowie einige traditionelle IT-Managementprobleme wie Verfügbarkeit und Kosten. Wenn Sie expandieren, wird sich Ihr Fokus von den Problemen des ersten Tages auf die Herausforderungen des zweiten Tages verlagern müssen. Ein stapelbasierter Ansatz kann in dieser Hinsicht hilfreich sein, sodass Sie sich darauf konzentrieren können, Ihren Benutzern den bestmöglichen Service zu bieten. (mb)

So händeln Sie Day-2-Probleme bei GenAI-Deployments​ Weiterlesen »

5 Wege zum CTO-Job​

Allgemein

Zu Höherem berufen?Gorodenkoff | shutterstock.com Als ich in den 1990ern meinen Job als CTO angetreten habe, war ich Mitte 20 und entsprechend unerfahren. Mein Geschäftssinn war sozusagen noch im Entwicklungsstadium. Und obwohl ich damals ein passabler Softwareentwickler war, waren es nicht in erster Linie meine Architektur- oder Coding-Skills, die mich in C-Level-Reichweite gebracht haben. Von allen technischen Skills waren für mich die im Bereich Devops am wichtigsten. Natürlich war der Begriff damals noch nicht erfunden – keine Spur von CI/CD oder Infrastructure as Code. Aber ich habe auch damals: Builds automatisiert, Skripte für die Implementierungen geschrieben, Infrastrukturkonfigurationen standardisiert, und die System-Performance überwacht. In diesem Artikel möchte ich Mitarbeitern in Devops-Positionen – mit Unterstützung einiger Technologieentscheider – fünf Tipps an die Hand geben, um sich für eine mögliche CTO-Rolle in Position zu bringen. 1. Dinge in die Hand nehmen Wenn Sie für Beförderungen und höhere Verantwortung in Betracht gezogen werden möchten, sollten Sie sich zunächst auf Ihre Fachgebiete, Ihr Netzwerk und Ihr Team konzentrieren. Allerdings sollten Sie Ihren Fokus verlagern: Statt nur Tasks zu erledigen, gilt es, mehr zu tun und zu wollen. Etablieren Sie eine Methode oder eine Plattform, die gut ankommt – und zeigen Sie deren Vorteile für die Organisation auf. Speziell Devops Engineers können sich für eine Führungsrolle positionieren, indem sie sich auf Initiativen mit Business Impact konzentrieren und Systeme entwickeln, die die Teams nutzen möchten. Gehen Sie dabei idealerweise iterativ vor und bevorzugen Sie Lösungen, die dabei unterstützen, in Schlüsselbereichen kontinuierliche Verbesserungen zu erzielen. Ein anderer, wichtiger Bereich, den Sie ins Auge fassen sollten, sind Platform-Engineering-Ansätze. Die optimieren die Developer Experience und unterstützen dabei, Self-Service-Lösungen zu realisieren. Wenn es darum geht, Shift-Left– und Continuous-Testing-Strategien zu verankern, können Sie ebenfalls Führungsqualitäten an den Tag legen. Empfehlung: Überlassen Sie nichts dem Zufall, wenn es darum geht, dass Ihre Performance von der Führungsebene anerkannt wird. Halten Sie Ihre Bemühungen, deren Impact sowie skalierbare und wiederverwendbare Muster fest. 2. Mindset transformieren Eine der größeren Herausforderungen für Devops-Profis, die einen CTO-Job landen wollen, ist der dafür nötige Mindset-Wechsel. Es sollte nicht mehr nur um die heute anstehenden Tasks gehen, sondern darum, Tasks zu priorisieren und längerfristige Umsetzungsentscheidungen zu beeinflussen. Der Weg zum Technologieentscheider beinhaltet: Architekturen zu planen, Governance zu etablieren und Standards zu verankern, mit denen sich Teams selbst organisieren können.   Martin Davis, Managing Partner bei der Managementberatung Dunelm Associates, empfiehlt Devops-Profis mit CTO-Ambitionen, sich folgende drei Fragen zu stellen, wenn es darum geht, Plattformen und Technologien zu bewerten und zu einer strategischeren Denkweise zu kommen: Wie gut sind Technologien – sowohl aus geschäftlicher als auch aus technologischer Perspektive – für zukünftige Erweiterungen gerüstet? Sind die Technologien anpassbar, wenn sich die Voraussetzungen verändern? Wie sieht es mit Blick auf die Integration anderer Tools aus? „Bleiben Sie pragmatisch und stets bereit, frühere Entscheidungen zu verwerfen, wenn sich die Umstände ändern“, rät Davis. Empfehlung: Vom Ad-Hoc-Problemlöser- zum Leadership-Mindset zu kommen, ist eine echte Herausforderung. Wenn Sie sie angehen möchten, sollten Sie lernen, einen Schritt zurückzutreten, das große Ganze zu sehen – und Ihr Team in Technologieentscheidungen einbeziehen. 3. Knowhow ausbauen Sich eine Handvoll Methoden und Technologien anzueignen, reicht für eine C-Level-Rolle nicht aus. Von CTOs wird erwartet: Innovationen voranzutreiben, Architekturmuster zu etablieren, den Software Development Lifecycle vollständig im Blick zu haben, mit anderen Teams und Führungskräften zusammenzuarbeiten, sowie manchmal auch bestimmte IT-Operations-Aspekte zu managen. Alok Uniyal, SVP beim IT-Dienstleister Infosys, empfiehlt Devops-Experten, die für die Rolle des CTO in Betracht gezogen werden wollen, sich ein möglichst breites Spektrum an Skills anzueignen: “Es kommt darauf an, Führungsqualitäten an den Tag zu legen. Und darauf, zu demonstrieren, dass Sie alle technologischen Workflows im Unternehmen sowie die wichtigsten Technologietrends und Innovationen der Branche verstehen.“ Um das umzusetzen, bedarf es auch, sich dem Konzept des lebenslangen Lernens zu verschreiben. Sich technologische Expertise über Kurse und Fortbildungen anzueignen, kostet enorm viel Zeit – die Sie wahrscheinlich nicht haben. Deshalb gilt es, effiziente Wege zu finden, sich anderweitig weiterzubilden. Zum Beispiel über das eigene Netzwerk oder Mentoren.   Empfehlung: Integrieren Sie Ihre Lernbemühungen in Ihre Sprint Commitments und halten Sie Best Practices fest – idealerweise schriftlich. Das kann dazu beitragen, Informationen besser zu behalten. 4. Komfortzone verlassen Herausforderungen auf unbekanntem Terrain zu suchen, ist auf dem Weg zu einer C-Level-Rolle ebenfalls eine wichtige Komponente. Das schult darin: zuzuhören, Dinge zu hinterfragen, und Denkmuster in Frage zu stellen. Sie könnten sich zum Beispiel freiwillig melden, um einen größeren Incident-Response-Prozess zu managen. Das macht Sie damit vertraut, unter Druck Probleme lösen zu müssen. Darüber hinaus würde so eine Initiative auch zu einem besseren Verständnis darüber beitragen, warum Observability und Monitoring-Systeme von entscheidender Bedeutung sind. Wichtiger ist für CTO-Aspiranten allerdings, sich an Initiativen beteiligen, die erfordern, Stakeholder, Kunden und Business-Teams einzubeziehen. Im Folgenden ein paar Ideen: Leiten Sie eine Journey-Mapping-Übung, um zu dokumentieren, wie die Endbenutzer durch kritische Transaktionen geleitet werden und Schwachstellen zu ermitteln. Beteiligen Sie sich an einem Change-Management-Programm und machen Sie sich mit den zugehörigen Methoden vertraut. Das unterstützt Sie dabei, Endbenutzer schneller dazu zu bringen, eine neue Technologie zu akzeptieren. Nehmen Sie an Kundenterminen teil oder vernetzen Sie sich mit operativen Teams, um aus erster Hand zu erfahren, wie gut – oder schlecht – die Technologie für sie funktioniert. Empfehlung: Eine Position als CTO anzustreben, heißt auch, weniger Zeit mit Technologie und mehr Zeit mit Menschen zu verbringen. Auch dabei sollten Sie nicht darauf warten, Erfahrungen sammeln zu können, sondern diese aktiv suchen und wahrnehmen. Dass Sie sich dabei besonders anfangs stark unwohl fühlen, ist normal und legt sich mit der Zeit. 5. Vision entwickeln – und abliefern Über Strategien und Roadmaps hinaus sind gute CTOs auch Visionäre. Sie definieren und formulieren Ziele und tragen dafür Sorge, dass diese von Führungskräften und Mitarbeitern angenommen und verfolgt werden. Erst das ermöglicht, wettbewerbsfähige, technologische Lösungen zu schaffen und parallel Risiken zu reduzieren sowie das Security-Niveau zu optimieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

5 Wege zum CTO-Job​ Zu Höherem berufen?Gorodenkoff | shutterstock.com

Als ich in den 1990ern meinen Job als CTO angetreten habe, war ich Mitte 20 und entsprechend unerfahren. Mein Geschäftssinn war sozusagen noch im Entwicklungsstadium. Und obwohl ich damals ein passabler Softwareentwickler war, waren es nicht in erster Linie meine Architektur- oder Coding-Skills, die mich in C-Level-Reichweite gebracht haben.

Von allen technischen Skills waren für mich die im Bereich Devops am wichtigsten. Natürlich war der Begriff damals noch nicht erfunden – keine Spur von CI/CD oder Infrastructure as Code. Aber ich habe auch damals:

Builds automatisiert,

Skripte für die Implementierungen geschrieben,

Infrastrukturkonfigurationen standardisiert, und

die System-Performance überwacht.

In diesem Artikel möchte ich Mitarbeitern in Devops-Positionen – mit Unterstützung einiger Technologieentscheider – fünf Tipps an die Hand geben, um sich für eine mögliche CTO-Rolle in Position zu bringen.

1. Dinge in die Hand nehmen

Wenn Sie für Beförderungen und höhere Verantwortung in Betracht gezogen werden möchten, sollten Sie sich zunächst auf Ihre Fachgebiete, Ihr Netzwerk und Ihr Team konzentrieren. Allerdings sollten Sie Ihren Fokus verlagern: Statt nur Tasks zu erledigen, gilt es, mehr zu tun und zu wollen. Etablieren Sie eine Methode oder eine Plattform, die gut ankommt – und zeigen Sie deren Vorteile für die Organisation auf.

Speziell Devops Engineers können sich für eine Führungsrolle positionieren, indem sie sich auf Initiativen mit Business Impact konzentrieren und Systeme entwickeln, die die Teams nutzen möchten. Gehen Sie dabei idealerweise iterativ vor und bevorzugen Sie Lösungen, die dabei unterstützen, in Schlüsselbereichen kontinuierliche Verbesserungen zu erzielen.

Ein anderer, wichtiger Bereich, den Sie ins Auge fassen sollten, sind Platform-Engineering-Ansätze. Die optimieren die Developer Experience und unterstützen dabei, Self-Service-Lösungen zu realisieren. Wenn es darum geht, Shift-Left– und Continuous-Testing-Strategien zu verankern, können Sie ebenfalls Führungsqualitäten an den Tag legen.

Empfehlung: Überlassen Sie nichts dem Zufall, wenn es darum geht, dass Ihre Performance von der Führungsebene anerkannt wird. Halten Sie Ihre Bemühungen, deren Impact sowie skalierbare und wiederverwendbare Muster fest.

2. Mindset transformieren

Eine der größeren Herausforderungen für Devops-Profis, die einen CTO-Job landen wollen, ist der dafür nötige Mindset-Wechsel. Es sollte nicht mehr nur um die heute anstehenden Tasks gehen, sondern darum, Tasks zu priorisieren und längerfristige Umsetzungsentscheidungen zu beeinflussen. Der Weg zum Technologieentscheider beinhaltet:

Architekturen zu planen,

Governance zu etablieren und

Standards zu verankern, mit denen sich Teams selbst organisieren können.  

Martin Davis, Managing Partner bei der Managementberatung Dunelm Associates, empfiehlt Devops-Profis mit CTO-Ambitionen, sich folgende drei Fragen zu stellen, wenn es darum geht, Plattformen und Technologien zu bewerten und zu einer strategischeren Denkweise zu kommen:

Wie gut sind Technologien – sowohl aus geschäftlicher als auch aus technologischer Perspektive – für zukünftige Erweiterungen gerüstet?

Sind die Technologien anpassbar, wenn sich die Voraussetzungen verändern?

Wie sieht es mit Blick auf die Integration anderer Tools aus?

„Bleiben Sie pragmatisch und stets bereit, frühere Entscheidungen zu verwerfen, wenn sich die Umstände ändern“, rät Davis.

Empfehlung: Vom Ad-Hoc-Problemlöser- zum Leadership-Mindset zu kommen, ist eine echte Herausforderung. Wenn Sie sie angehen möchten, sollten Sie lernen, einen Schritt zurückzutreten, das große Ganze zu sehen – und Ihr Team in Technologieentscheidungen einbeziehen.

3. Knowhow ausbauen

Sich eine Handvoll Methoden und Technologien anzueignen, reicht für eine C-Level-Rolle nicht aus. Von CTOs wird erwartet:

Innovationen voranzutreiben,

Architekturmuster zu etablieren,

den Software Development Lifecycle vollständig im Blick zu haben,

mit anderen Teams und Führungskräften zusammenzuarbeiten, sowie

manchmal auch bestimmte IT-Operations-Aspekte zu managen.

Alok Uniyal, SVP beim IT-Dienstleister Infosys, empfiehlt Devops-Experten, die für die Rolle des CTO in Betracht gezogen werden wollen, sich ein möglichst breites Spektrum an Skills anzueignen: “Es kommt darauf an, Führungsqualitäten an den Tag zu legen. Und darauf, zu demonstrieren, dass Sie alle technologischen Workflows im Unternehmen sowie die wichtigsten Technologietrends und Innovationen der Branche verstehen.“

Um das umzusetzen, bedarf es auch, sich dem Konzept des lebenslangen Lernens zu verschreiben. Sich technologische Expertise über Kurse und Fortbildungen anzueignen, kostet enorm viel Zeit – die Sie wahrscheinlich nicht haben. Deshalb gilt es, effiziente Wege zu finden, sich anderweitig weiterzubilden. Zum Beispiel über das eigene Netzwerk oder Mentoren.  

Empfehlung: Integrieren Sie Ihre Lernbemühungen in Ihre Sprint Commitments und halten Sie Best Practices fest – idealerweise schriftlich. Das kann dazu beitragen, Informationen besser zu behalten.

4. Komfortzone verlassen

Herausforderungen auf unbekanntem Terrain zu suchen, ist auf dem Weg zu einer C-Level-Rolle ebenfalls eine wichtige Komponente. Das schult darin:

zuzuhören,

Dinge zu hinterfragen, und

Denkmuster in Frage zu stellen.

Sie könnten sich zum Beispiel freiwillig melden, um einen größeren Incident-Response-Prozess zu managen. Das macht Sie damit vertraut, unter Druck Probleme lösen zu müssen. Darüber hinaus würde so eine Initiative auch zu einem besseren Verständnis darüber beitragen, warum Observability und Monitoring-Systeme von entscheidender Bedeutung sind.

Wichtiger ist für CTO-Aspiranten allerdings, sich an Initiativen beteiligen, die erfordern, Stakeholder, Kunden und Business-Teams einzubeziehen. Im Folgenden ein paar Ideen:

Leiten Sie eine Journey-Mapping-Übung, um zu dokumentieren, wie die Endbenutzer durch kritische Transaktionen geleitet werden und Schwachstellen zu ermitteln.

Beteiligen Sie sich an einem Change-Management-Programm und machen Sie sich mit den zugehörigen Methoden vertraut. Das unterstützt Sie dabei, Endbenutzer schneller dazu zu bringen, eine neue Technologie zu akzeptieren.

Nehmen Sie an Kundenterminen teil oder vernetzen Sie sich mit operativen Teams, um aus erster Hand zu erfahren, wie gut – oder schlecht – die Technologie für sie funktioniert.

Empfehlung: Eine Position als CTO anzustreben, heißt auch, weniger Zeit mit Technologie und mehr Zeit mit Menschen zu verbringen. Auch dabei sollten Sie nicht darauf warten, Erfahrungen sammeln zu können, sondern diese aktiv suchen und wahrnehmen. Dass Sie sich dabei besonders anfangs stark unwohl fühlen, ist normal und legt sich mit der Zeit.

5. Vision entwickeln – und abliefern

Über Strategien und Roadmaps hinaus sind gute CTOs auch Visionäre. Sie definieren und formulieren Ziele und tragen dafür Sorge, dass diese von Führungskräften und Mitarbeitern angenommen und verfolgt werden.

Erst das ermöglicht, wettbewerbsfähige, technologische Lösungen zu schaffen und parallel Risiken zu reduzieren sowie das Security-Niveau zu optimieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

5 Wege zum CTO-Job​ Weiterlesen »

Schlechte Datenbasis bremst GenAI-Einführung in Deutschland​

Allgemein

In deutschen Unternehmen fehlt oft eine solide Datengrundlage, um mit GenAI-Projekten voranzukommen.PeopleImages.com – Yuri A/Shutterstock.com Mit generativer künstlicher Intelligenz (GenAI) hat sich der weltweite Wettbewerb in den vergangenen Jahren weiter zugespitzt, verspricht der Einsatz der Technologie doch zumindest mittelfristig zahlreiche Vorteile, etwa auf Service-, Kosten- und Umsatzseite. Wie eine Umfrage von Informatica ergab, drohen deutsche Unternehmen hier jedoch zurückzufallen: Nur 34 Prozent der hiesigen Teilnehmer haben generative KI bereits in ihre Geschäftspraktiken integriert – im Vergleich zu 63 Prozent in UK, 51 Prozent in der APAC-Region und 48 Prozent in den USA.   Grundlage der Informatica-Studie „CDO Insights 2025“ (Download gegen Daten) war eine Umfrage unter weltweit 600 Datenverantwortlichen von Großunternehmen (mit mehr als 500 Millionen Dollar Jahresumsatz) Ende vergangenen Jahres.  Zögerliche Investitionen  Zumindest, was die Investitionen angeht, ist hier für die nahe Zukunft kaum mit einer Beschleunigung zu rechnen. Zwar erwarten zwar 72 Prozent der deutschen Unternehmen, die GenAI eingeführt haben oder einführen wollen, für 2025 eine Zunahme der GenAI-Investitionen. In den USA liegt diese Zahl laut Umfrage jedoch bei 93 Prozent, in der APAC-Region bei 86 Prozent und in Frankreich bei 80 Prozent. Allerdings wollen deutsche Unternehmen im internationalen Vergleich in den nächsten sechs Monaten besonders stark investieren und ihre Mitarbeiter intensiv schulen.  Das Problem: Obwohl die hiesigen Chief Data Officers (CDO) laut Umfrage den höchsten Druck verspüren, hier an Tempo zu gewinnen, kommen sie langsamer vom Fleck als gewünscht. So blieb die Geschwindigkeit bei gut einem Drittel (35 Prozent) in den letzten Monaten gleichmäßig. Weitere 35 Prozent der deutschen Vertreter erklärten, sie wollen sogar etwas auf die Bremse treten, um unklare Faktoren zu klären.  Dieser Wert ist mehr als doppelt so hoch wie in den USA (14 Prozent) und dem APAC-Raum (17 Prozent) – was aber nicht unbedingt schlecht sein muss. So belegten die weltweiten Zahlen laut Informatica, dass viele Unternehmen weiterhin mit isolierten KI-Piloten hantierten, ohne sich vorher mit den zugrunde liegenden Problemen auseinanderzusetzen.   Ebenfalls positiv ist der Umstand, dass die deutschen Befragten im internationalen Vergleich in den letzten zwölf Monaten weniger Hindernisse sahen, die die KI-Initiativen komplett zum Erliegen bringen. Allerdings geben 74 Prozent der Befragten an, weniger als die Hälfte ihrer GenAI-Piloten erfolgreich in die Produktion überführt zu haben. Als Gründe hierfür nennen sie:   mangelnde technische Reife und Interoperabilität (48 Prozent), sowie  Defizite bei Qualität, Vollständigkeit und Einsatzbereitschaft der Daten (42 Prozent).  Unzuverlässige Daten  Wie die Studie ergab, stellt die Zuverlässigkeit der Daten (94 Prozent) die größte Barriere dar, wenn es darum geht, GenAI-Initiativen von der Pilotphase in die Produktion zu überführen. Zu den größten datenbezogenen Herausforderungen im Zusammenhang mit der Einführung von GenAI und LLMs gehören dabei für deutsche Unternehmen:   Privatsphäre und Datenschutz (50 Prozent),   die ethische Nutzung von KI (50 Prozent) und die Datenqualität (41 Prozent).   Im internationalen Vergleich sticht Deutschland dabei in puncto KI-Ethik besonders hervor: Nur 30 Prozent in den USA und 42 Prozent in den APAC-Staaten sehen das als Hindernis. Hier rechnet knapp die Hälfte der deutschen Datenverantwortlichen (48 Prozent) damit, dass entsprechende Mitarbeiterschulungen bereits in den nächsten sechs Monaten Erfolg zeigen – verglichen mit jeweils einem Drittel der Umfrageteilnehmer aus den USA und dem APAC-Raum.  Data Literacy als größte Herausforderung  Ähnlich wie für die KI-Projekte selbst sitzt hierzulande auch das Geld für Datenmanagement nicht sehr locker. Der Studie zufolge erwarten hier nur 66 Prozent der deutschen Datenverantwortlichen eine Zunahme an Investitionen im Jahr 2025. Im Gegensatz dazu rechnen damit 93 Prozent in den USA und 86 Prozent im APAC-Raum.   Investitionsbedarf sehen die Deutschen dabei insbesondere bei der Datenkompetenz mit 56 Prozent der Nennungen – verglichen mit 45 Prozent in den USA und 48 Prozent in APAC. Vergleichsweise weniger häufig genannt wurden hierzulande Investitionen,   um Datenschutz und Sicherheit zu verbessern (37 Prozent) oder um die sich ändernden rechtlichen Anforderungen zu erfüllen (30 Prozent).  Unrealistische Erwartungen  Die Studie gibt auch Hinweise darauf, warum es schwerfällt, mehr Investitionen für GenAI-Projekte zu erhalten. So finden es 96 Prozent der deutschen Datenverantwortlichen schwierig, den geschäftlichen Nutzen von KI-Initiativen zu belegen. Schuld daran sind demnach insbesondere:  Einschränkungen in Bezug auf Cybersicherheit und Datenschutz (56 Prozent),  mangelndes Vertrauen in die Qualität der Daten (48 Prozent),   fehlende KPIs zu Beginn des Pilotprojekts (37 Prozent) und   die Zuverlässigkeit der Ergebnisse (35 Prozent).  Gleichzeitig verwies ein Großteil von ihnen (82 Prozent) auf unrealistische Erwartungen im Unternehmen, was den Return on Invest (ROI) bei GenAI betrifft. Angesichts der aktuellen Hauptziele von GenAI-Investitionen ist das wenig verwunderlich. Hier wurden statt leicht messbarer Werte wie höherer Umsatz oder niedrigere Kosten vor allem eine verbesserte Customer Experience (56 Prozent), eine effektivere Verwaltung von Risiken und Einhaltung von Vorschriften (43 Prozent) und mehr betriebliche Effizienz (37 Prozent) genannt.  „Die Ergebnisse der Studie bestätigen, dass die Schaffung einer soliden Datengrundlage von Anfang an der Schlüssel ist, um Vertrauen in die GenAI-Bemühungen eines Unternehmens zu schaffen“, erklärt Emilio Valdés, Senior Vice President des Bereichs EMEA and LATAM Sales bei Informatica. Investitionen in grundlegende Bereiche wie die Kompetenzen der Mitarbeitenden und eine zeitgemäße Datenmanagement-Strategie seien erforderlich, um die Grundlage für die Nutzung von KI zu schaffen und davon zu profitieren.  

Schlechte Datenbasis bremst GenAI-Einführung in Deutschland​ In deutschen Unternehmen fehlt oft eine solide Datengrundlage, um mit GenAI-Projekten voranzukommen.PeopleImages.com – Yuri A/Shutterstock.com

Mit generativer künstlicher Intelligenz (GenAI) hat sich der weltweite Wettbewerb in den vergangenen Jahren weiter zugespitzt, verspricht der Einsatz der Technologie doch zumindest mittelfristig zahlreiche Vorteile, etwa auf Service-, Kosten- und Umsatzseite. Wie eine Umfrage von Informatica ergab, drohen deutsche Unternehmen hier jedoch zurückzufallen: Nur 34 Prozent der hiesigen Teilnehmer haben generative KI bereits in ihre Geschäftspraktiken integriert – im Vergleich zu 63 Prozent in UK, 51 Prozent in der APAC-Region und 48 Prozent in den USA.  

Grundlage der Informatica-Studie „CDO Insights 2025“ (Download gegen Daten) war eine Umfrage unter weltweit 600 Datenverantwortlichen von Großunternehmen (mit mehr als 500 Millionen Dollar Jahresumsatz) Ende vergangenen Jahres. 

Zögerliche Investitionen 

Zumindest, was die Investitionen angeht, ist hier für die nahe Zukunft kaum mit einer Beschleunigung zu rechnen. Zwar erwarten zwar 72 Prozent der deutschen Unternehmen, die GenAI eingeführt haben oder einführen wollen, für 2025 eine Zunahme der GenAI-Investitionen. In den USA liegt diese Zahl laut Umfrage jedoch bei 93 Prozent, in der APAC-Region bei 86 Prozent und in Frankreich bei 80 Prozent. Allerdings wollen deutsche Unternehmen im internationalen Vergleich in den nächsten sechs Monaten besonders stark investieren und ihre Mitarbeiter intensiv schulen. 

Das Problem: Obwohl die hiesigen Chief Data Officers (CDO) laut Umfrage den höchsten Druck verspüren, hier an Tempo zu gewinnen, kommen sie langsamer vom Fleck als gewünscht. So blieb die Geschwindigkeit bei gut einem Drittel (35 Prozent) in den letzten Monaten gleichmäßig. Weitere 35 Prozent der deutschen Vertreter erklärten, sie wollen sogar etwas auf die Bremse treten, um unklare Faktoren zu klären. 

Dieser Wert ist mehr als doppelt so hoch wie in den USA (14 Prozent) und dem APAC-Raum (17 Prozent) – was aber nicht unbedingt schlecht sein muss. So belegten die weltweiten Zahlen laut Informatica, dass viele Unternehmen weiterhin mit isolierten KI-Piloten hantierten, ohne sich vorher mit den zugrunde liegenden Problemen auseinanderzusetzen.  

Ebenfalls positiv ist der Umstand, dass die deutschen Befragten im internationalen Vergleich in den letzten zwölf Monaten weniger Hindernisse sahen, die die KI-Initiativen komplett zum Erliegen bringen. Allerdings geben 74 Prozent der Befragten an, weniger als die Hälfte ihrer GenAI-Piloten erfolgreich in die Produktion überführt zu haben. Als Gründe hierfür nennen sie:  

mangelnde technische Reife und Interoperabilität (48 Prozent), sowie 

Defizite bei Qualität, Vollständigkeit und Einsatzbereitschaft der Daten (42 Prozent). 

Unzuverlässige Daten 

Wie die Studie ergab, stellt die Zuverlässigkeit der Daten (94 Prozent) die größte Barriere dar, wenn es darum geht, GenAI-Initiativen von der Pilotphase in die Produktion zu überführen. Zu den größten datenbezogenen Herausforderungen im Zusammenhang mit der Einführung von GenAI und LLMs gehören dabei für deutsche Unternehmen:  

Privatsphäre und Datenschutz (50 Prozent),  

die ethische Nutzung von KI (50 Prozent) und

die Datenqualität (41 Prozent).  

Im internationalen Vergleich sticht Deutschland dabei in puncto KI-Ethik besonders hervor: Nur 30 Prozent in den USA und 42 Prozent in den APAC-Staaten sehen das als Hindernis. Hier rechnet knapp die Hälfte der deutschen Datenverantwortlichen (48 Prozent) damit, dass entsprechende Mitarbeiterschulungen bereits in den nächsten sechs Monaten Erfolg zeigen – verglichen mit jeweils einem Drittel der Umfrageteilnehmer aus den USA und dem APAC-Raum. 

Data Literacy als größte Herausforderung 

Ähnlich wie für die KI-Projekte selbst sitzt hierzulande auch das Geld für Datenmanagement nicht sehr locker. Der Studie zufolge erwarten hier nur 66 Prozent der deutschen Datenverantwortlichen eine Zunahme an Investitionen im Jahr 2025. Im Gegensatz dazu rechnen damit 93 Prozent in den USA und 86 Prozent im APAC-Raum.  

Investitionsbedarf sehen die Deutschen dabei insbesondere bei der Datenkompetenz mit 56 Prozent der Nennungen – verglichen mit 45 Prozent in den USA und 48 Prozent in APAC. Vergleichsweise weniger häufig genannt wurden hierzulande Investitionen,  

um Datenschutz und Sicherheit zu verbessern (37 Prozent) oder

um die sich ändernden rechtlichen Anforderungen zu erfüllen (30 Prozent). 

Unrealistische Erwartungen 

Die Studie gibt auch Hinweise darauf, warum es schwerfällt, mehr Investitionen für GenAI-Projekte zu erhalten. So finden es 96 Prozent der deutschen Datenverantwortlichen schwierig, den geschäftlichen Nutzen von KI-Initiativen zu belegen. Schuld daran sind demnach insbesondere: 

Einschränkungen in Bezug auf Cybersicherheit und Datenschutz (56 Prozent), 

mangelndes Vertrauen in die Qualität der Daten (48 Prozent),  

fehlende KPIs zu Beginn des Pilotprojekts (37 Prozent) und  

die Zuverlässigkeit der Ergebnisse (35 Prozent). 

Gleichzeitig verwies ein Großteil von ihnen (82 Prozent) auf unrealistische Erwartungen im Unternehmen, was den Return on Invest (ROI) bei GenAI betrifft. Angesichts der aktuellen Hauptziele von GenAI-Investitionen ist das wenig verwunderlich. Hier wurden statt leicht messbarer Werte wie höherer Umsatz oder niedrigere Kosten vor allem eine verbesserte Customer Experience (56 Prozent), eine effektivere Verwaltung von Risiken und Einhaltung von Vorschriften (43 Prozent) und mehr betriebliche Effizienz (37 Prozent) genannt. 

„Die Ergebnisse der Studie bestätigen, dass die Schaffung einer soliden Datengrundlage von Anfang an der Schlüssel ist, um Vertrauen in die GenAI-Bemühungen eines Unternehmens zu schaffen“, erklärt Emilio Valdés, Senior Vice President des Bereichs EMEA and LATAM Sales bei Informatica. Investitionen in grundlegende Bereiche wie die Kompetenzen der Mitarbeitenden und eine zeitgemäße Datenmanagement-Strategie seien erforderlich, um die Grundlage für die Nutzung von KI zu schaffen und davon zu profitieren. 

Schlechte Datenbasis bremst GenAI-Einführung in Deutschland​ Weiterlesen »

SAP baut Vorstand um​

Allgemein

SAP baut seinen Führungszirkel deutlich aus.SAP SAP startet mit einem neuen Vorstand ins Geschäftsjahr 2025. Der deutsche Softwarekonzern teilte mit, dass der 39-jährige Sebastian Steinhäuser in den Vorstand aufrückt. Er soll künftig den neu geschaffenen Vorstandsbereich Strategy & Operations leiten und in dieser Position die Umsetzung der SAP-Strategie weiter vorantreiben sowie Unternehmensabläufe vereinfachen. Durch die Integration von Strategy & Operations mit Global Marketing, das von der neu ernannten Chief Marketing Officer (CMO) Ada Agrait geleitet wird, soll die Zusammenarbeit verbessert und das digitale Erlebnis für Kunden und Partner gestärkt werden, hieß es in einer Mitteilung SAPs. Steinhäuser kam 2020 zur SAP und hatte seitdem verschiedene Rollen inne, darunter die des Chief Strategy Officer. In dieser Funktion leitete er auch die Wachstumsfelder Business Transformation Management, Business Network und Sustainability. Im Jahr 2024 wurde er zum Chief Strategy & Operations Officer ernannt. Sein Verantwortungsbereich erweiterte sich um die Bereiche Geschäftsabläufe, Prozesse und IT sowie Partnernetzwerk und kommerzielle Funktionen. Vor seinem Eintritt bei SAP arbeitete Steinhäuser bei der Boston Consulting Group. SAP hatte bereits im August 2024 seinen Management-Zirkel kräftig durcheinandergewirbelt. Mit Scott Russell und Julia White verließen vor einem halben Jahr überraschend der Vertriebschef und die Marketing-Leiterin SAP. Steinhäuser – Zukunftsarchitekt von SAP „Seit 2020 hat Sebastian Steinhäuser maßgeblich an der Unternehmensstrategie von SAP mitgewirkt“, sagte Pekka Ala-Pietilä, Vorsitzender des Aufsichtsrats von SAP SE. „Wir sehen ihn als wichtige Führungspersönlichkeit und Architekten der Zukunft von SAP.“ Der Aufsichtsrat von SAP verlängerte außerdem den Vertrag von Vorstandsmitglied Thomas Saueressig, Leiter des Bereichs Customer Services & Delivery, um weitere drei Jahre bis 2028. „Seine Beiträge waren und sind entscheidend, dass mehr und mehr SAP-Kunden den Weg in die Cloud wählen“, kommentierte Ala-Pietilä die Personalie. SAPs Aufsichtsratschef Pekka Ala-Pietilä sieht Sebastian Steinhäuser als wichtige Führungspersönlichkeit für SAP.SAP Auch in der zweiten Management-Reihe gibt es Veränderungen in Walldorf. SAP stellte einen neuen Chief Technology Officer und zwei neue Chief Revenue Officer vor. Philipp Herzig übernimmt die Rolle des weltweiten CTO bei SAP, zusätzlich zu seiner derzeitigen Position als Chief AI Officer. In seiner neuen Position soll Herzig die Bereiche Technologie-Strategie, Innovation, Forschung sowie Unternehmensentwicklung von SAP überwachen. Zudem steht in seinem Hausaufgabenheft, den Erfolg der Business AI und Nachhaltigkeitseinheiten von SAP sicherzustellen und weiter Innovationen für SAP-Kunden und -Partner voranzutreiben. Der CTO-Posten bei SAP war seit September 2024 vakant, nachdem der bis dato amtierende Technikchef Jürgen Müller gehen musste. Jan Gilg und Emmanuel (Manos) Raptopoulos werden künftig gemeinsam als Chief Revenue Officer die SAP Customer Success Organisation leiten. Gilg, derzeit Präsident und Chief Product Officer von Cloud ERP, wird dann SAP Americas und die globale SAP Business Suite übernehmen. Raptopoulos, aktuell Regionalpräsident von SAP EMEA, wird zusätzlich die Regionen SAP MEE und SAP APAC leiten. SAP-Strategie: AI-first, Suite first Herzig, Gilg und Raptopoulos berichten an den SAP-Vorstandsvorsitzenden Christian Klein und gehören künftig dem neu gebildeten erweiterten Vorstand von SAP an. Dieser soll als strategisches Beratungsgremium handeln, um die Umsetzung der „AI first, Suite first“-Strategie des Unternehmens voranzutreiben. „Auf globaler Ebene sollen so wichtige Initiativen ausgerichtet und deren reibungslose Umsetzung im gesamten Unternehmen sichergestellt werden“, verlautete von Seiten des Konzerns. Der SAP-Vorstand bleibe hierbei das oberste Leitungsorgan der SAP SE. Philipp Herzig übernimmt neben dem AI-Ressort auch die Rolle des Chief Technology Officer (CTO) bei SAP.SAP SE Neben Herzig, Gilg und Raptopoulos gehören dem erweiterten Führungsgremium Ada Agrait (Chief Marketing Officer), Michael Ameling (General Manager BTP), Sebastian Behrendt (Head of Global Finance), Thomas Pfiester (Head of Global Customer Engagement) und Monika Schaller (Chief Communications Officer) an. Ein General Manager für den Bereich Business Suite im erweiterten Vorstandsteam soll noch ernannt werden. Mit Agrait, Schaller und Chief People Officer Gina Vargiu-Breuer finden sich damit drei weibliche Managerinnen im 15-köpfigen Führungszirkel der SAP – gerade einmal 20 Prozent. 

SAP baut Vorstand um​ SAP baut seinen Führungszirkel deutlich aus.SAP

SAP startet mit einem neuen Vorstand ins Geschäftsjahr 2025. Der deutsche Softwarekonzern teilte mit, dass der 39-jährige Sebastian Steinhäuser in den Vorstand aufrückt. Er soll künftig den neu geschaffenen Vorstandsbereich Strategy & Operations leiten und in dieser Position die Umsetzung der SAP-Strategie weiter vorantreiben sowie Unternehmensabläufe vereinfachen. Durch die Integration von Strategy & Operations mit Global Marketing, das von der neu ernannten Chief Marketing Officer (CMO) Ada Agrait geleitet wird, soll die Zusammenarbeit verbessert und das digitale Erlebnis für Kunden und Partner gestärkt werden, hieß es in einer Mitteilung SAPs.

Steinhäuser kam 2020 zur SAP und hatte seitdem verschiedene Rollen inne, darunter die des Chief Strategy Officer. In dieser Funktion leitete er auch die Wachstumsfelder Business Transformation Management, Business Network und Sustainability. Im Jahr 2024 wurde er zum Chief Strategy & Operations Officer ernannt. Sein Verantwortungsbereich erweiterte sich um die Bereiche Geschäftsabläufe, Prozesse und IT sowie Partnernetzwerk und kommerzielle Funktionen. Vor seinem Eintritt bei SAP arbeitete Steinhäuser bei der Boston Consulting Group.

SAP hatte bereits im August 2024 seinen Management-Zirkel kräftig durcheinandergewirbelt. Mit Scott Russell und Julia White verließen vor einem halben Jahr überraschend der Vertriebschef und die Marketing-Leiterin SAP.

Steinhäuser – Zukunftsarchitekt von SAP

„Seit 2020 hat Sebastian Steinhäuser maßgeblich an der Unternehmensstrategie von SAP mitgewirkt“, sagte Pekka Ala-Pietilä, Vorsitzender des Aufsichtsrats von SAP SE. „Wir sehen ihn als wichtige Führungspersönlichkeit und Architekten der Zukunft von SAP.“ Der Aufsichtsrat von SAP verlängerte außerdem den Vertrag von Vorstandsmitglied Thomas Saueressig, Leiter des Bereichs Customer Services & Delivery, um weitere drei Jahre bis 2028. „Seine Beiträge waren und sind entscheidend, dass mehr und mehr SAP-Kunden den Weg in die Cloud wählen“, kommentierte Ala-Pietilä die Personalie.

SAPs Aufsichtsratschef Pekka Ala-Pietilä sieht Sebastian Steinhäuser als wichtige Führungspersönlichkeit für SAP.SAP

Auch in der zweiten Management-Reihe gibt es Veränderungen in Walldorf. SAP stellte einen neuen Chief Technology Officer und zwei neue Chief Revenue Officer vor. Philipp Herzig übernimmt die Rolle des weltweiten CTO bei SAP, zusätzlich zu seiner derzeitigen Position als Chief AI Officer. In seiner neuen Position soll Herzig die Bereiche Technologie-Strategie, Innovation, Forschung sowie Unternehmensentwicklung von SAP überwachen. Zudem steht in seinem Hausaufgabenheft, den Erfolg der Business AI und Nachhaltigkeitseinheiten von SAP sicherzustellen und weiter Innovationen für SAP-Kunden und -Partner voranzutreiben. Der CTO-Posten bei SAP war seit September 2024 vakant, nachdem der bis dato amtierende Technikchef Jürgen Müller gehen musste.

Jan Gilg und Emmanuel (Manos) Raptopoulos werden künftig gemeinsam als Chief Revenue Officer die SAP Customer Success Organisation leiten. Gilg, derzeit Präsident und Chief Product Officer von Cloud ERP, wird dann SAP Americas und die globale SAP Business Suite übernehmen. Raptopoulos, aktuell Regionalpräsident von SAP EMEA, wird zusätzlich die Regionen SAP MEE und SAP APAC leiten.

SAP-Strategie: AI-first, Suite first

Herzig, Gilg und Raptopoulos berichten an den SAP-Vorstandsvorsitzenden Christian Klein und gehören künftig dem neu gebildeten erweiterten Vorstand von SAP an. Dieser soll als strategisches Beratungsgremium handeln, um die Umsetzung der „AI first, Suite first“-Strategie des Unternehmens voranzutreiben. „Auf globaler Ebene sollen so wichtige Initiativen ausgerichtet und deren reibungslose Umsetzung im gesamten Unternehmen sichergestellt werden“, verlautete von Seiten des Konzerns. Der SAP-Vorstand bleibe hierbei das oberste Leitungsorgan der SAP SE.

Philipp Herzig übernimmt neben dem AI-Ressort auch die Rolle des Chief Technology Officer (CTO) bei SAP.SAP SE

Neben Herzig, Gilg und Raptopoulos gehören dem erweiterten Führungsgremium Ada Agrait (Chief Marketing Officer), Michael Ameling (General Manager BTP), Sebastian Behrendt (Head of Global Finance), Thomas Pfiester (Head of Global Customer Engagement) und Monika Schaller (Chief Communications Officer) an. Ein General Manager für den Bereich Business Suite im erweiterten Vorstandsteam soll noch ernannt werden. Mit Agrait, Schaller und Chief People Officer Gina Vargiu-Breuer finden sich damit drei weibliche Managerinnen im 15-köpfigen Führungszirkel der SAP – gerade einmal 20 Prozent.

SAP baut Vorstand um​ Weiterlesen »

Tutorial: Generics in Java nutzen​

Allgemein

: Lesen Sie, wie Generics in Java optimale Wirkung entfalten.THP Creative | shutterstock.com Mit Version 5 von Java wurden Generics eingeführt. Sie verbessern die Typsicherheit des Codes und machen ihn leichter lesbar. Das trägt auch dazu bei, Fehler zur Laufzeit wie ClassCastException zu verhindern. Dieser tritt auf, wenn Objekte in inkompatible Typen umgewandelt werden sollen. Dieses Tutorial beschäftigt sich eingehend mit dem Thema Generics in Java und vermittelt Ihnen: welchen Mehrwert Generics bringen, wie Sie diese im Java Collection Framework nutzen, wie Sie Generic Types in Java konkret einsetzen (inklusive Beispielen), und   was mit Blick auf Raw Types und Generics zu beachten ist. Was Generics bringen Generics werden gängigerweise innerhalb des Java Collection Frameworks genutzt mit: java.util.List, java.util.Set und java.util.Map. Darüber hinaus sind sie auch in anderen Teilen von Java zu finden, beispielsweise in: java.lang.Class, java.lang.Comparable und java.lang.ThreadLocal. Bevor Generics eingeführt wurden, mangelte es Java-Code regelmäßig an Type Safety. Hier ein Beispiel für Java-Code im Prä-Generics-Zeitalter: List integerList = new ArrayList(); integerList.add(1); integerList.add(2); integerList.add(3); for (Object element : integerList) { Integer num = (Integer) element; // Cast is necessary System.out.println(num); } Mit diesem Code sollen Integer-Objekte in einer Liste gespeichert werden. Dabei können Sie jederzeit weitere Typen hinzufügen, etwa einen String: integerList.add(“Hello”); Würden Sie versuchen, den String in einen Integer umzuwandeln, würde dieser Code zur Laufzeit eine ClassCastException verursachen. Mit Hilfe von Generics lässt sich dieses Problem lösen und der Fehler zur Laufzeit vermeiden. Dazu nutzen wir sie, um die Typen von Objekten zu spezifizieren, die eine Liste enthalten darf. In diesem Fall können wir auf einen Class Cast verzichten, was dazu führt, dass der Code sicherer wird und leichter zu verstehen ist:    List integerList = new ArrayList(); integerList.add(1); integerList.add(2); integerList.add(3); for (Integer num : integerList) { System.out.println(num); } List bedeutet „eine Liste von Integer-Objekten“. Auf Grundlage dieser Anweisung stellt der Compiler sicher, dass ausschließlich Integer-Objekte zur Liste hinzugefügt werden können. Generics im Java Collections Framework Um eine Typprüfung während der Kompilierung zu ermöglichen und die Notwendigkeit einer expliziten Typumwandlung zu beseitigen, sind Generics im Java Collections Framework integriert. Wenn Sie eine Collection mit Generics nutzen, spezifizieren Sie den Typ der Elemente, die erstere enthalten soll. Der Java-Compiler nutzt diese Spezifikation, um sicherzustellen, dass nicht versehentlich ein inkompatibles Objekt in die Collection einfließt. Das reduziert Fehler und macht den Code besser lesbar. Um zu veranschaulichen, wie Generics im Java Collections Framework angewendet werden, werfen wir im Folgenden einen Blick auf drei Beispiele. Namenskonventionen für GenericsGeneric Types können Sie in jeder beliebigen Klasse deklarieren und dafür jeden beliebigen Namen verwenden. Vorzugsweise sollten Sie sich dabei aber auf eine Namenskonvention verlassen. In Java bestehen die Namen von Typparametern in der Regel aus einzelnen Großbuchstaben. Dabei steht:E für Element,K für Key,V für Value, undT für Type.Insofern sollten Sie davon absehen, bedeutungslose Benennungen wie „X“, „Y“ oder „Z“ zu verwenden. List und ArrayList Im zuletzt angeführten Code-Beispiel haben wir bereits eine einfachere Möglichkeit gesehen, um ArrayList zu nutzen. Dieses Konzept sehen wir uns nun genauer an, indem wir einen Blick darauf werfen, wie das List-Interface deklariert wird:   public interface List extends SequencedCollection { … } In diesem Code deklarieren wir unsere generische Variable als „E“. Diese kann durch jeden beliebigen Objekttyp ersetzt werden. Sehen wir uns nun an, wie die Variable E durch den gewünschten Typ für unsere List ersetzt wird. Im folgenden Code ersetzen wir die Variable durch : List list = new ArrayList(); list.add(“Java”); list.add(“Challengers”); // list.add(1); // This line would cause a compile-time error. Hier spezifiziert List, dass die Liste lediglich String-Objekte enthalten kann. Eine Integer hinzuzufügen, führt zu einem Kompilierungsfehler, wie Sie in der letzten Code-Zeile sehen. Set und HashSet Das Set-Interface ähnelt dem von List: public interface Set extends Collection { … } Wir ersetzen zudem durch , so dass wir nur einen Double-Wert in das entsprechende Set einfügen können: Set doubles = new HashSet(); doubles.add(1.5); doubles.add(2.5); // doubles.add(“three”); // Compile-time error double sum = 0.0; for (double d : doubles) { sum += d; } Set gewährleistet, dass nur Double-Werte hinzugefügt werden können. Das verhindert Laufzeitfehler, die durch nicht korrektes Casting entstehen können. Map und HashMap Wir können so viele generische Typen deklarieren, wie wir möchten. Im folgenden ein Key-Value-Datenstrukturbeispiel in Form einer Map: public interface Map { … } Nun ersetzen wir den Key-Type K durch String und den Value-Type V durch Integer: Map map = new HashMap(); map.put(“Duke”, 30); map.put(“Juggy”, 25); // map.put(1, 100); // This line would cause a compile-time error Dieses Beispiel zeigt eine HashMap, die String-Keys Integer-Values zuordnet. Einen Key vom Typ Integer hinzuzufügen, ist nicht erlaubt und führt zu einem Kompilierungsfehler. Generic Types in Java nutzen – Beispiele Im nächsten Schritt sehen wir uns einige Beispiele an, um besser zu durchdringen, wie Generic Types in Java deklariert und verwendet werden. Generics mit beliebigen Objekten nutzen Generic Types lassen sich jeder Klasse deklarieren – es muss sich nicht um einen Collection-Typ handeln. Im folgenden Code-Beispiel deklarieren wir den Generic Type E, um jedes Element innerhalb der Box-Klasse zu manipulieren. Zu beachten ist dabei, dass der Generic Type nach dem Klassennamen deklariert wird. Erst dann können wir ihn als Attribut, Konstruktor, Methodenparameter und Methodenrückgabetyp nutzen: // Define a generic class Box with a generic type parameter E public class Box { // Variable to hold an object of type E private E content; public Box(E content) { this.content = content; } public E getContent() { return content; } public void setContent(E content) { this.content = content; } public static void main(String[] args) { // Create a Box to hold an Integer Box integerBox = new Box(123); System.out.println(“Integer Box contains: ” + integerBox.getContent()); // Create a Box to hold a String Box stringBox = new Box(“Hello World”); stringBox.setContent(“Java Challengers”); System.out.println(“String Box contains: ” + stringBox.getContent()); } } Der Output dieses Beispiels lautet: Integer Box contains: 123 String Box contains: Java Challengers Zu beachten ist dabei: Die Box-Klasse verwendet den Typparameter E als Platzhalter für das Objekt, das die Box enthalten wird. Dadurch lässt sich Box mit jedem Objekttyp verwenden. Der Konstruktor initialisiert eine neue Instanz der Box-Klasse mit dem bereitgestellten Inhalt. Der E-Typ stellt dabei sicher, dass der Konstruktor jeden Objekttyp akzeptieren kann, der bei der Erstellung der Instanz definiert wurde – und gewährleistet so die Typsicherheit. getContent gibt den aktuellen Inhalt von Box zurück. Durch die Rückgabe von E wird sichergestellt, dass er dem Generic Type entspricht, der bei der Erstellung der Instanz angegeben wurde –  und der richtige Typ bereitgestellt wird. Casting ist dazu nicht erforderlich. setContent aktualisiert den Inhalt von Box. Weil E als Parameter verwendet wird, ist sichergestellt, dass nur ein Objekt des richtigen Typs als neuer Inhalt festgelegt werden kann. Das gewährleistet umfassende Type Safety, solange die Instanz genutzt wird. In der main-Methode werden zwei Box-Objekte erstellt: integerBox enthält eine Integer, stringBox einen String. Jede Box-Instanz arbeitet mit ihrem spezifischen Datentyp. Dieses Beispiel veranschaulicht, wie Generics in Java grundlegend implementiert und verwendet werden. Es unterstreicht, wie Objekte beliebigen Typs „type-safe“ erstellt und bearbeitet werden können. Generics mit unterschiedlichen Datentypen nutzen Sie können so viele Typen als generisch deklarieren, wie Sie möchten. In der folgenden Pair-Klasse können wir so die generischen Werte hinzufügen: class Pair { private K key; private V value; public Pair(K key, V value) { this.key = key; this.value = value; } public K getKey() { return key; } public V getValue() { return value; } public void setKey(K key) { this.key = key; } public void setValue(V value) { this.value = value; } } public class GenericsDemo { public static void main(String[] args) { Pair person = new Pair(“Duke”, 30); System.out.println(“Name: ” + person.getKey()); System.out.println(“Age: ” + person.getValue()); person.setValue(31); System.out.println(“Updated Age: ” + person.getValue()); } } Dieser Code erzeugt folgenden Output: Name: Duke Age: 30 Updated Age: 31 Zu beachten ist dabei: Die generische Klasse Pair weist zwei Typparameter auf, wodurch sie für jeden Datentyp vielseitig einsetzbar ist. Konstruktoren und Methoden in der Pair-Klasse verwenden diese Typparameter, was striktes Type Checking ermöglicht. Ein Pair-Objekt wird erstellt, um einen String (den Namen einer Person) und einen Integer (ihr Alter) zu speichern. Accessors (getKey und getValue) sowie Mutators (setKey und setValue) manipulieren und rufen die Pair-Daten ab. Die Pair-Klasse kann verwandte Informationen speichern und managen und ist dabei nicht an bestimmte Datentypen gebunden. Dieses Beispiel demonstriert, wie Generics zu wiederverwendbaren, typsicheren Komponenten mit unterschiedlichen Datentypen beitragen – und zur Wiederverwendbarkeit und besseren Wartbarkeit von Code. Generic Types innerhalb einer Methode deklarieren Sie können Generic Types auch direkt innerhalb einer Methode deklarieren. Das bewerkstelligen Sie, indem Sie den Generic Type vor dem Rückgabetyp der Methodensignatur deklarieren: public class GenericMethodDemo { // Declare generic type and print elements with the chosen type public static void printArray(T[] array) { for (T element : array) { System.out.print(element + ” “); } System.out.println(); } public static void main(String[] args) { // Using the generic method with an Integer array Integer[] intArray = {1, 2, 3, 4}; printArray(intArray); // Using the generic method with a String array String[] stringArray = {“Java”, “Challengers”}; printArray(stringArray); } } Der Output sieht wie folgt aus: 1 2 3 4 Java Challengers Raw Types vs. Generics Bei einem Raw Type handelt es sich im Grunde um den Namen einer Generic Class (beziehungsweise eines Generic Interface), jedoch ohne Typargumente. Diese waren vor der Generics-Einführung in Java 5 weit verbreitet. Heutzutage kommen Sie vor allem zum Einsatz, um die Kompatibilität mit Legacy-Code oder die Interoperabilität mit nicht-generischen APIs zu gewährleisten. Es empfiehlt sich also, zu wissen, wie Raw Types im Code zu erkennen und zu verwenden sind. Ein gängiges Beispiel für den Raw-Type-Einsatz ist, eine List ohne Typparameter zu deklarieren: List rawList = new ArrayList(); In diesem Beispiel deklariert List rawList eine Liste ohne generischen Typparameter. rawList kann jeden Objekttyp enthalten, einschließlich Integer, String, Double und so weiter. Weil kein Typ spezifiziert ist, wird im Rahmen der Kompilierung nicht überprüft, welche Objekttypen der Liste hinzugefügt werden. Compiler-Warnung bei Raw Types Der Java-Compiler sendet Warnmeldungen bezüglich der Verwendung von Raw Types in Java. Diese werden generiert, um Entwickler auf potenzielle Risiken im Zusammenhang mit der Typsicherheit hinzuweisen, wenn Raw- statt Generic Types verwendet werden. Wie Sie Generics nutzen, überprüft der Compiler die Objekttypen in den Collections (wie List und Set), die Rückgabetypen von Methoden und die Parameter. Das geschieht, um sicherzustellen, dass diese mit den deklarierten Generic Types übereinstimmen. Das verhindert gängige Bugs wie ClassCastException zur Laufzeit. Wenn Sie einen Raw Type nutzen, kann der Compiler diese Prüfungen nicht durchführen. Das liegt daran, dass Raw Types nicht den Typ der Objekte spezifizieren, die sie enthalten. Infolgedessen gibt der Compiler Warnmeldungen aus, um darauf aufmerksam zu machen, dass die Type-Safety-Mechanismen der Generics umgangen werden. Beispiel für eine Compiler-Warnung Im Folgenden ein simples Beispiel, das veranschaulicht, wie die Compiler-Warnung aussieht, wenn Raw Types zum Einsatz kommen: List list = new ArrayList(); // Warning: Raw use of parameterized class ‘List’ list.add(“hello”); list.add(1); Wenn Sie diesen Code kompilieren, gibt der Java-Compiler in der Regel eine Meldung aus, wie beispeislweise: Note: SomeFile.java uses unchecked or unsafe operations. Note: Recompile with -Xlint:unchecked for details. Wenn Sie mit der Flag -Xlint:unchecked kompilieren, erhalten Sie detailliertere Informationen darüber, wo und warum diese Warnmeldung generiert wurde: warning: [unchecked] unchecked call to add(E) as a member of the raw type List list.add(“hello”); ^ where E is a type-variable: E extends Object declared in interface List Wenn Sie sicher sind, dass es keine Risiken birgt, Raw Types in Ihrem Code zu verwenden (oder Sie mit Legacy-Code arbeiten, der sich nicht so einfach für die Nutzung von Generics umgestalten lässt), können Sie @SuppressWarnings(„unchecked“) nutzen, um diese auszublenden. Das sollten Sie mit Bedacht nutzen, schließlich könnten dabei andere, echte Probleme unter den Tisch fallen. Raw Types verwenden – die Folgen Zwar sind Raw Types mit Blick auf die Abwärtskompatibilität nützlich. Allerdings hat das auch ganz wesentliche Nachteile. Insbesondere: geht die Type Safety verloren. erhöhen sich die Wartungskosten. Ein Beispiel für ein Type-Safety-Problem: Wenn Sie List (Raw Type) anstelle des generischen List verwenden, erlaubt es der Compiler, beliebige Objekttypen zur Liste hinzuzufügen – nicht nur Strings. Wenn Sie ein Element aus der Liste abrufen und versuchen, es in einen String umzuwandeln, dieses Element aber tatsächlich von einem anderen Typ ist, kann das in Laufzeitfehlern resultieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Tutorial: Generics in Java nutzen​ : Lesen Sie, wie Generics in Java optimale Wirkung entfalten.THP Creative | shutterstock.com

Mit Version 5 von Java wurden Generics eingeführt. Sie verbessern die Typsicherheit des Codes und machen ihn leichter lesbar. Das trägt auch dazu bei, Fehler zur Laufzeit wie ClassCastException zu verhindern. Dieser tritt auf, wenn Objekte in inkompatible Typen umgewandelt werden sollen.

Dieses Tutorial beschäftigt sich eingehend mit dem Thema Generics in Java und vermittelt Ihnen:

welchen Mehrwert Generics bringen,

wie Sie diese im Java Collection Framework nutzen,

wie Sie Generic Types in Java konkret einsetzen (inklusive Beispielen), und  

was mit Blick auf Raw Types und Generics zu beachten ist.

Was Generics bringen

Generics werden gängigerweise innerhalb des Java Collection Frameworks genutzt mit:

java.util.List,

java.util.Set und

java.util.Map.

Darüber hinaus sind sie auch in anderen Teilen von Java zu finden, beispielsweise in:

java.lang.Class,

java.lang.Comparable und

java.lang.ThreadLocal.

Bevor Generics eingeführt wurden, mangelte es Java-Code regelmäßig an Type Safety. Hier ein Beispiel für Java-Code im Prä-Generics-Zeitalter:

List integerList = new ArrayList();

integerList.add(1);
integerList.add(2);
integerList.add(3);

for (Object element : integerList) {
Integer num = (Integer) element; // Cast is necessary
System.out.println(num);
}

Mit diesem Code sollen Integer-Objekte in einer Liste gespeichert werden. Dabei können Sie jederzeit weitere Typen hinzufügen, etwa einen String:

integerList.add(“Hello”);

Würden Sie versuchen, den String in einen Integer umzuwandeln, würde dieser Code zur Laufzeit eine ClassCastException verursachen.

Mit Hilfe von Generics lässt sich dieses Problem lösen und der Fehler zur Laufzeit vermeiden. Dazu nutzen wir sie, um die Typen von Objekten zu spezifizieren, die eine Liste enthalten darf. In diesem Fall können wir auf einen Class Cast verzichten, was dazu führt, dass der Code sicherer wird und leichter zu verstehen ist:   

List integerList = new ArrayList();

integerList.add(1);
integerList.add(2);
integerList.add(3);

for (Integer num : integerList) {
System.out.println(num);
}

List bedeutet „eine Liste von Integer-Objekten“. Auf Grundlage dieser Anweisung stellt der Compiler sicher, dass ausschließlich Integer-Objekte zur Liste hinzugefügt werden können.

Generics im Java Collections Framework

Um eine Typprüfung während der Kompilierung zu ermöglichen und die Notwendigkeit einer expliziten Typumwandlung zu beseitigen, sind Generics im Java Collections Framework integriert. Wenn Sie eine Collection mit Generics nutzen, spezifizieren Sie den Typ der Elemente, die erstere enthalten soll. Der Java-Compiler nutzt diese Spezifikation, um sicherzustellen, dass nicht versehentlich ein inkompatibles Objekt in die Collection einfließt. Das reduziert Fehler und macht den Code besser lesbar.

Um zu veranschaulichen, wie Generics im Java Collections Framework angewendet werden, werfen wir im Folgenden einen Blick auf drei Beispiele.

Namenskonventionen für GenericsGeneric Types können Sie in jeder beliebigen Klasse deklarieren und dafür jeden beliebigen Namen verwenden. Vorzugsweise sollten Sie sich dabei aber auf eine Namenskonvention verlassen. In Java bestehen die Namen von Typparametern in der Regel aus einzelnen Großbuchstaben. Dabei steht:E für Element,K für Key,V für Value, undT für Type.Insofern sollten Sie davon absehen, bedeutungslose Benennungen wie „X“, „Y“ oder „Z“ zu verwenden.

List und ArrayList

Im zuletzt angeführten Code-Beispiel haben wir bereits eine einfachere Möglichkeit gesehen, um ArrayList zu nutzen. Dieses Konzept sehen wir uns nun genauer an, indem wir einen Blick darauf werfen, wie das List-Interface deklariert wird:  

public interface List extends SequencedCollection { … }

In diesem Code deklarieren wir unsere generische Variable als „E“. Diese kann durch jeden beliebigen Objekttyp ersetzt werden.

Sehen wir uns nun an, wie die Variable E durch den gewünschten Typ für unsere List ersetzt wird. Im folgenden Code ersetzen wir die Variable durch :

List list = new ArrayList();
list.add(“Java”);
list.add(“Challengers”);
// list.add(1); // This line would cause a compile-time error.

Hier spezifiziert List, dass die Liste lediglich String-Objekte enthalten kann. Eine Integer hinzuzufügen, führt zu einem Kompilierungsfehler, wie Sie in der letzten Code-Zeile sehen.

Set und HashSet

Das Set-Interface ähnelt dem von List:

public interface Set extends Collection { … }

Wir ersetzen zudem durch , so dass wir nur einen Double-Wert in das entsprechende Set einfügen können:

Set doubles = new HashSet();
doubles.add(1.5);
doubles.add(2.5);
// doubles.add(“three”); // Compile-time error

double sum = 0.0;
for (double d : doubles) {
sum += d;
}

Set gewährleistet, dass nur Double-Werte hinzugefügt werden können. Das verhindert Laufzeitfehler, die durch nicht korrektes Casting entstehen können.

Map und HashMap

Wir können so viele generische Typen deklarieren, wie wir möchten. Im folgenden ein Key-Value-Datenstrukturbeispiel in Form einer Map:

public interface Map { … }

Nun ersetzen wir den Key-Type K durch String und den Value-Type V durch Integer:

Map map = new HashMap();
map.put(“Duke”, 30);
map.put(“Juggy”, 25);
// map.put(1, 100); // This line would cause a compile-time error

Dieses Beispiel zeigt eine HashMap, die String-Keys Integer-Values zuordnet. Einen Key vom Typ Integer hinzuzufügen, ist nicht erlaubt und führt zu einem Kompilierungsfehler.

Generic Types in Java nutzen – Beispiele

Im nächsten Schritt sehen wir uns einige Beispiele an, um besser zu durchdringen, wie Generic Types in Java deklariert und verwendet werden.

Generics mit beliebigen Objekten nutzen

Generic Types lassen sich jeder Klasse deklarieren – es muss sich nicht um einen Collection-Typ handeln. Im folgenden Code-Beispiel deklarieren wir den Generic Type E, um jedes Element innerhalb der Box-Klasse zu manipulieren. Zu beachten ist dabei, dass der Generic Type nach dem Klassennamen deklariert wird. Erst dann können wir ihn als Attribut, Konstruktor, Methodenparameter und Methodenrückgabetyp nutzen:

// Define a generic class Box with a generic type parameter E
public class Box {
// Variable to hold an object of type E
private E content;

public Box(E content) { this.content = content; }
public E getContent() { return content; }
public void setContent(E content) { this.content = content; }

public static void main(String[] args) {
// Create a Box to hold an Integer
Box integerBox = new Box(123);
System.out.println(“Integer Box contains: ” + integerBox.getContent());

// Create a Box to hold a String
Box stringBox = new Box(“Hello World”);
stringBox.setContent(“Java Challengers”);
System.out.println(“String Box contains: ” + stringBox.getContent());
}
}

Der Output dieses Beispiels lautet:

Integer Box contains: 123
String Box contains: Java Challengers

Zu beachten ist dabei:

Die Box-Klasse verwendet den Typparameter E als Platzhalter für das Objekt, das die Box enthalten wird. Dadurch lässt sich Box mit jedem Objekttyp verwenden.

Der Konstruktor initialisiert eine neue Instanz der Box-Klasse mit dem bereitgestellten Inhalt. Der E-Typ stellt dabei sicher, dass der Konstruktor jeden Objekttyp akzeptieren kann, der bei der Erstellung der Instanz definiert wurde – und gewährleistet so die Typsicherheit.

getContent gibt den aktuellen Inhalt von Box zurück. Durch die Rückgabe von E wird sichergestellt, dass er dem Generic Type entspricht, der bei der Erstellung der Instanz angegeben wurde –  und der richtige Typ bereitgestellt wird. Casting ist dazu nicht erforderlich.

setContent aktualisiert den Inhalt von Box. Weil E als Parameter verwendet wird, ist sichergestellt, dass nur ein Objekt des richtigen Typs als neuer Inhalt festgelegt werden kann. Das gewährleistet umfassende Type Safety, solange die Instanz genutzt wird.

In der main-Methode werden zwei Box-Objekte erstellt: integerBox enthält eine Integer, stringBox einen String.

Jede Box-Instanz arbeitet mit ihrem spezifischen Datentyp.

Dieses Beispiel veranschaulicht, wie Generics in Java grundlegend implementiert und verwendet werden. Es unterstreicht, wie Objekte beliebigen Typs „type-safe“ erstellt und bearbeitet werden können.

Generics mit unterschiedlichen Datentypen nutzen

Sie können so viele Typen als generisch deklarieren, wie Sie möchten. In der folgenden Pair-Klasse können wir so die generischen Werte hinzufügen:

class Pair {
private K key;
private V value;

public Pair(K key, V value) {
this.key = key;
this.value = value;
}

public K getKey() {
return key;
}

public V getValue() {
return value;
}

public void setKey(K key) {
this.key = key;
}
public void setValue(V value) {
this.value = value;
}
}

public class GenericsDemo {
public static void main(String[] args) {
Pair person = new Pair(“Duke”, 30);

System.out.println(“Name: ” + person.getKey());
System.out.println(“Age: ” + person.getValue());

person.setValue(31);
System.out.println(“Updated Age: ” + person.getValue());
}
}

Dieser Code erzeugt folgenden Output:

Name: Duke
Age: 30
Updated Age: 31

Zu beachten ist dabei:

Die generische Klasse Pair weist zwei Typparameter auf, wodurch sie für jeden Datentyp vielseitig einsetzbar ist.

Konstruktoren und Methoden in der Pair-Klasse verwenden diese Typparameter, was striktes Type Checking ermöglicht.

Ein Pair-Objekt wird erstellt, um einen String (den Namen einer Person) und einen Integer (ihr Alter) zu speichern.

Accessors (getKey und getValue) sowie Mutators (setKey und setValue) manipulieren und rufen die Pair-Daten ab.

Die Pair-Klasse kann verwandte Informationen speichern und managen und ist dabei nicht an bestimmte Datentypen gebunden.

Dieses Beispiel demonstriert, wie Generics zu wiederverwendbaren, typsicheren Komponenten mit unterschiedlichen Datentypen beitragen – und zur Wiederverwendbarkeit und besseren Wartbarkeit von Code.

Generic Types innerhalb einer Methode deklarieren

Sie können Generic Types auch direkt innerhalb einer Methode deklarieren. Das bewerkstelligen Sie, indem Sie den Generic Type vor dem Rückgabetyp der Methodensignatur deklarieren:

public class GenericMethodDemo {

// Declare generic type and print elements with the chosen type
public static void printArray(T[] array) {
for (T element : array) {
System.out.print(element + ” “);
}
System.out.println();
}

public static void main(String[] args) {
// Using the generic method with an Integer array
Integer[] intArray = {1, 2, 3, 4};
printArray(intArray);

// Using the generic method with a String array
String[] stringArray = {“Java”, “Challengers”};
printArray(stringArray);
}
}

Der Output sieht wie folgt aus:

1 2 3 4
Java Challengers

Raw Types vs. Generics

Bei einem Raw Type handelt es sich im Grunde um den Namen einer Generic Class (beziehungsweise eines Generic Interface), jedoch ohne Typargumente. Diese waren vor der Generics-Einführung in Java 5 weit verbreitet. Heutzutage kommen Sie vor allem zum Einsatz, um die Kompatibilität mit Legacy-Code oder die Interoperabilität mit nicht-generischen APIs zu gewährleisten. Es empfiehlt sich also, zu wissen, wie Raw Types im Code zu erkennen und zu verwenden sind.

Ein gängiges Beispiel für den Raw-Type-Einsatz ist, eine List ohne Typparameter zu deklarieren:

List rawList = new ArrayList();

In diesem Beispiel deklariert List rawList eine Liste ohne generischen Typparameter. rawList kann jeden Objekttyp enthalten, einschließlich Integer, String, Double und so weiter. Weil kein Typ spezifiziert ist, wird im Rahmen der Kompilierung nicht überprüft, welche Objekttypen der Liste hinzugefügt werden.

Compiler-Warnung bei Raw Types

Der Java-Compiler sendet Warnmeldungen bezüglich der Verwendung von Raw Types in Java. Diese werden generiert, um Entwickler auf potenzielle Risiken im Zusammenhang mit der Typsicherheit hinzuweisen, wenn Raw- statt Generic Types verwendet werden.

Wie Sie Generics nutzen, überprüft der Compiler die Objekttypen in den Collections (wie List und Set), die Rückgabetypen von Methoden und die Parameter. Das geschieht, um sicherzustellen, dass diese mit den deklarierten Generic Types übereinstimmen. Das verhindert gängige Bugs wie ClassCastException zur Laufzeit.

Wenn Sie einen Raw Type nutzen, kann der Compiler diese Prüfungen nicht durchführen. Das liegt daran, dass Raw Types nicht den Typ der Objekte spezifizieren, die sie enthalten. Infolgedessen gibt der Compiler Warnmeldungen aus, um darauf aufmerksam zu machen, dass die Type-Safety-Mechanismen der Generics umgangen werden.

Beispiel für eine Compiler-Warnung

Im Folgenden ein simples Beispiel, das veranschaulicht, wie die Compiler-Warnung aussieht, wenn Raw Types zum Einsatz kommen:

List list = new ArrayList(); // Warning: Raw use of parameterized class ‘List’
list.add(“hello”);
list.add(1);

Wenn Sie diesen Code kompilieren, gibt der Java-Compiler in der Regel eine Meldung aus, wie beispeislweise:

Note: SomeFile.java uses unchecked or unsafe operations.
Note: Recompile with -Xlint:unchecked for details.

Wenn Sie mit der Flag -Xlint:unchecked kompilieren, erhalten Sie detailliertere Informationen darüber, wo und warum diese Warnmeldung generiert wurde:

warning: [unchecked] unchecked call to add(E) as a member of the raw type List
list.add(“hello”);
^

where E is a type-variable:
E extends Object declared in interface List

Wenn Sie sicher sind, dass es keine Risiken birgt, Raw Types in Ihrem Code zu verwenden (oder Sie mit Legacy-Code arbeiten, der sich nicht so einfach für die Nutzung von Generics umgestalten lässt), können Sie @SuppressWarnings(„unchecked“) nutzen, um diese auszublenden. Das sollten Sie mit Bedacht nutzen, schließlich könnten dabei andere, echte Probleme unter den Tisch fallen.

Raw Types verwenden – die Folgen

Zwar sind Raw Types mit Blick auf die Abwärtskompatibilität nützlich. Allerdings hat das auch ganz wesentliche Nachteile. Insbesondere:

geht die Type Safety verloren.

erhöhen sich die Wartungskosten.

Ein Beispiel für ein Type-Safety-Problem: Wenn Sie List (Raw Type) anstelle des generischen List verwenden, erlaubt es der Compiler, beliebige Objekttypen zur Liste hinzuzufügen – nicht nur Strings. Wenn Sie ein Element aus der Liste abrufen und versuchen, es in einen String umzuwandeln, dieses Element aber tatsächlich von einem anderen Typ ist, kann das in Laufzeitfehlern resultieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Tutorial: Generics in Java nutzen​ Weiterlesen »

Heimliche Schlupflöcher im AI Act​

Allgemein

Bedenken über Grundrechtsverletzungen aufgrund „nationaler Sicherheit“: AI Act könnte Anonymität gefährden. shutterstock.com – Ivan Marc Ab Februar 2025 treten die ersten Regelungen des AI Acts in Kraft, um die Gefahren der Künstlichen Intelligenz (KI) zu begrenzen. Das Gesetz enthält jedoch zahlreiche Ausnahmen, insbesondere durch Schlupflöcher, die von Frankreich ausgehandelt wurden. Wie weitreichend sich dies auf Europas Grundrechte auswirken könnte, wurde von Investigate Europe, einem Journalistenteam aus elf europäischen Staaten, recherchiert. Private Unternehmen und Drittstaaten schauen zu Eine dieser Ausnahmen bezieht sich auf die Nutzung von Gesichtserkennungssystemen im öffentlichen Raum. Generell ist sie verboten, sollte jedoch die „nationale Sicherheit“ bedroht sein, ist es Behörden gestattet, KI-Überwachung einzusetzen. Kritiker befürchten, dass dies auch bei legitimen Veranstaltungen wie Klimaprotesten oder politischen Demonstrationen der Fall sein könnte. Frankreich hat bereits demonstriert, wann es gewillt ist, diese Technologie zu nutzen: Bei den Olympischen Spielen 2024, kam KI-gestützte Videoüberwachung bereits zum Einsatz. Amnesty International warnt deshalb vor einer „ernsthaften Bedrohung für bürgerliche Freiheiten“, da solche Maßnahmen künftig zur Regel werden könnten. Nutznießer solcher Praktiken könnten private Unternehmen und Drittstaaten sein. Sie wären in der Lage, EU-Bürger zu überwachen, sofern sie den Sicherheitsbehörden die verwendete KI-Technologie bereitstellen. Mehrere Staaten unterstützen Frankreichs Forderung Gefordert wurde der KI-Einsatz in einer Sitzung des Ausschusses der Ständigen Vertreter (COREPER) im Jahr 2022. Ursprünglich sollte Echtzeit-Gesichtserkennung im öffentlichen Raum nur dem Militär erlaubt sein. In einer späteren Sitzung unterstützten mehrere Staaten Forderung Frankreichs, darunter Italien, Schweden, Finnland, Tschechien, Litauen, Rumänien, Ungarn und Bulgarien. In einer COREPER-Sitzung 2023 forderten dann Dänemark, die Niederlande, Portugal und die Slowakei ein verhältnismäßiges Verbot, das nur bei Diskriminierungsgefahr gelten solle. Zugleich sprachen sich diese Staaten gegen ein umfassendes Verbot für die Strafverfolgung aus. Umstrittene biometrische Kategorisierungssysteme in der EU Tritt der AI Act am 2. Februar 2025 in Kraft bleiben einige Bereiche zum Teil von der Überwachungswut unangetastet. Dazu zählt etwa Emotionserkennung am Arbeitsplatz, in Schulen und Geschäften. Arbeitgeber dürfen damit keine Emotionen ihrer Mitarbeiter analysieren. Sicherheitsbehörden und Grenzschützer sind jedoch dank des Einflusses Frankreichs und anderer Länder auch hier von diesem Verbot ausgenommen. Biometrische Kategorisierungssysteme, die ethnische Zugehörigkeit oder sexuelle Orientierung bestimmen, sind umstritten. Das neue EU-Gesetz verbietet ihren Einsatz, erlaubt jedoch Ausnahmen für Strafverfolgungsbehörden, insbesondere auf Frankreichs Drängen, um Personen zu identifizieren, die gewalttätigen Extremismus oder ein terroristisches Risiko darstellen. Gesichtserkennungssoftware darf in Echtzeit bei Ermittlungen zu bestimmten Straftaten eingesetzt werden. In diesem Kontext fordern mehrere Staaten, einschließlich Frankreich, diese Liste noch zu erweitern. Griechenland plädierte dafür, Gefängnisse und Grenzgebiete von Verboten auszunehmen, um dort Echtzeitüberwachung zu ermöglichen. Grundrechtsverstöße und EU-Recht Ein Jurist der Fraktion der Europäischen Volkspartei (EVP) kritisiert den AI Act als Verstoß gegen Grundrechte und EU-Recht. Die Rechtswissenschaftlerin Plixavra Vogiatzoglou der Universität Amsterdam betont, dass die nationalen Sicherheitsausnahmen Urteilen des Europäischen Gerichtshofs widersprechen. Organisationen wie European Digital Rights warnen zudem, dass solche Systeme die Anonymität im öffentlichen Raum gefährden und der AI Act Grundrechte in Europa einschränken könnte. In den letzten Verhandlungen des AI Acts am 6. Dezember 2023 drängte zudem die spanische Ratspräsidentschaft auf eine schnelle Verabschiedung vor den Europawahlen 2024. Ziel war es, das Erstarken rechtsradikaler Parteien zu verhindern. Schließlich wurde beschlossen, dass jede KI-gestützte Überwachungstechnologie von einer unabhängigen nationalen Behörde zugelassen werden muss. Selbstzertifizierung möglich Hochrisikotechnologien wie Echtzeitüberwachung einzusetzen, erfordert normalerweise einen Gerichtsbeschluss, die Registrierung in einer europäischen Datenbank und eine Folgenabschätzung. In den Verhandlungen wurde jedoch eine Lockerung eingeführt: Anbieter können selbst entscheiden, ob ihr Produkt als Hochrisikotechnologie gilt. Dafür müssen sie eine Selbstzertifizierung ausfüllen. Ein internes Arbeitspapier des juristischen Dienstes des Europäischen Parlaments kritisiert diese Lockerung, da sie den KI-Anbietern zu viel Spielraum lässt und das Ziel des AI Acts, das Risiko von Hochrisiko-KI-Systemen zu regulieren, gefährdet. Zugleich warnten Verhandlungspartner wie die französische Regierung, dass Unternehmen, wenn ihnen der breite Einsatz von KI-Technologien untersagt wird, in Regionen ohne digitale Grundrechte abwandern könnten. 

Heimliche Schlupflöcher im AI Act​ Bedenken über Grundrechtsverletzungen aufgrund „nationaler Sicherheit“: AI Act könnte Anonymität gefährden.
shutterstock.com – Ivan Marc

Ab Februar 2025 treten die ersten Regelungen des AI Acts in Kraft, um die Gefahren der Künstlichen Intelligenz (KI) zu begrenzen. Das Gesetz enthält jedoch zahlreiche Ausnahmen, insbesondere durch Schlupflöcher, die von Frankreich ausgehandelt wurden. Wie weitreichend sich dies auf Europas Grundrechte auswirken könnte, wurde von Investigate Europe, einem Journalistenteam aus elf europäischen Staaten, recherchiert.

Private Unternehmen und Drittstaaten schauen zu

Eine dieser Ausnahmen bezieht sich auf die Nutzung von Gesichtserkennungssystemen im öffentlichen Raum. Generell ist sie verboten, sollte jedoch die „nationale Sicherheit“ bedroht sein, ist es Behörden gestattet, KI-Überwachung einzusetzen. Kritiker befürchten, dass dies auch bei legitimen Veranstaltungen wie Klimaprotesten oder politischen Demonstrationen der Fall sein könnte.

Frankreich hat bereits demonstriert, wann es gewillt ist, diese Technologie zu nutzen: Bei den Olympischen Spielen 2024, kam KI-gestützte Videoüberwachung bereits zum Einsatz. Amnesty International warnt deshalb vor einer „ernsthaften Bedrohung für bürgerliche Freiheiten“, da solche Maßnahmen künftig zur Regel werden könnten.

Nutznießer solcher Praktiken könnten private Unternehmen und Drittstaaten sein. Sie wären in der Lage, EU-Bürger zu überwachen, sofern sie den Sicherheitsbehörden die verwendete KI-Technologie bereitstellen.

Mehrere Staaten unterstützen Frankreichs Forderung

Gefordert wurde der KI-Einsatz in einer Sitzung des Ausschusses der Ständigen Vertreter (COREPER) im Jahr 2022. Ursprünglich sollte Echtzeit-Gesichtserkennung im öffentlichen Raum nur dem Militär erlaubt sein. In einer späteren Sitzung unterstützten mehrere Staaten Forderung Frankreichs, darunter

Italien,

Schweden,

Finnland,

Tschechien,

Litauen,

Rumänien,

Ungarn und

Bulgarien.

In einer COREPER-Sitzung 2023 forderten dann Dänemark, die Niederlande, Portugal und die Slowakei ein verhältnismäßiges Verbot, das nur bei Diskriminierungsgefahr gelten solle. Zugleich sprachen sich diese Staaten gegen ein umfassendes Verbot für die Strafverfolgung aus.

Umstrittene biometrische Kategorisierungssysteme in der EU

Tritt der AI Act am 2. Februar 2025 in Kraft bleiben einige Bereiche zum Teil von der Überwachungswut unangetastet. Dazu zählt etwa Emotionserkennung am Arbeitsplatz, in Schulen und Geschäften. Arbeitgeber dürfen damit keine Emotionen ihrer Mitarbeiter analysieren. Sicherheitsbehörden und Grenzschützer sind jedoch dank des Einflusses Frankreichs und anderer Länder auch hier von diesem Verbot ausgenommen.

Biometrische Kategorisierungssysteme, die ethnische Zugehörigkeit oder sexuelle Orientierung bestimmen, sind umstritten. Das neue EU-Gesetz verbietet ihren Einsatz, erlaubt jedoch Ausnahmen für Strafverfolgungsbehörden, insbesondere auf Frankreichs Drängen, um Personen zu identifizieren, die gewalttätigen Extremismus oder ein terroristisches Risiko darstellen.

Gesichtserkennungssoftware darf in Echtzeit bei Ermittlungen zu bestimmten Straftaten eingesetzt werden. In diesem Kontext fordern mehrere Staaten, einschließlich Frankreich, diese Liste noch zu erweitern. Griechenland plädierte dafür, Gefängnisse und Grenzgebiete von Verboten auszunehmen, um dort Echtzeitüberwachung zu ermöglichen.

Grundrechtsverstöße und EU-Recht

Ein Jurist der Fraktion der Europäischen Volkspartei (EVP) kritisiert den AI Act als Verstoß gegen Grundrechte und EU-Recht. Die Rechtswissenschaftlerin Plixavra Vogiatzoglou der Universität Amsterdam betont, dass die nationalen Sicherheitsausnahmen Urteilen des Europäischen Gerichtshofs widersprechen.

Organisationen wie European Digital Rights warnen zudem, dass solche Systeme die Anonymität im öffentlichen Raum gefährden und der AI Act Grundrechte in Europa einschränken könnte. In den letzten Verhandlungen des AI Acts am 6. Dezember 2023 drängte zudem die spanische Ratspräsidentschaft auf eine schnelle Verabschiedung vor den Europawahlen 2024. Ziel war es, das Erstarken rechtsradikaler Parteien zu verhindern. Schließlich wurde beschlossen, dass jede KI-gestützte Überwachungstechnologie von einer unabhängigen nationalen Behörde zugelassen werden muss.

Selbstzertifizierung möglich

Hochrisikotechnologien wie Echtzeitüberwachung einzusetzen, erfordert normalerweise

einen Gerichtsbeschluss,

die Registrierung in einer europäischen Datenbank und

eine Folgenabschätzung.

In den Verhandlungen wurde jedoch eine Lockerung eingeführt: Anbieter können selbst entscheiden, ob ihr Produkt als Hochrisikotechnologie gilt. Dafür müssen sie eine Selbstzertifizierung ausfüllen.

Ein internes Arbeitspapier des juristischen Dienstes des Europäischen Parlaments kritisiert diese Lockerung, da sie den KI-Anbietern zu viel Spielraum lässt und das Ziel des AI Acts, das Risiko von Hochrisiko-KI-Systemen zu regulieren, gefährdet. Zugleich warnten Verhandlungspartner wie die französische Regierung, dass Unternehmen, wenn ihnen der breite Einsatz von KI-Technologien untersagt wird, in Regionen ohne digitale Grundrechte abwandern könnten.

Heimliche Schlupflöcher im AI Act​ Weiterlesen »

Meta will 65 Milliarden in KI-Infrastruktur investieren​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Meta will in Louisiana ein Rechenzentrum mit 2 GW Leistung bauen. dotshock/Shutterstock.com Um seine KI-Infrastruktur auszubauen und einen „KI-Ingenieur“-Agenten zu entwickeln, will Meta noch in diesem Jahr 60 bis 65 Milliarden Dollar investieren Zudem plant der Konzern, ein neues Rechenzentrum zu bauen. Das sogenannte „Richland Parish Center Data Center“ soll im Nordosten von Louisiana entstehen. Laut einem Facebook-Post von Mark Zuckerberg, CEO von Meta, soll das Rechenzentrum eine Leistung von 2 Gigawatt (GW) haben. Noch in diesem Jahr will man etwa 1 GW Rechenleistung online bringen und dafür mehr als 1,3 Millionen GPUs verbauen. Neues Meta-RZ in Louisiana Die Arbeiten an dem vier Millionen Quadratmeter großen und zehn Milliarden Dollar teuren Rechenzentrum auf einem 2.250 Hektar großen Gelände sollen bis 2030 andauern. Nach seiner Fertigstellung sei es das größte von mehr als 20 Meta-Rechenzentren weltweit, heißt es. In Sachen Stromverbrauch hat sich Meta dazu verpflichtet, mit 100 Prozent sauberer und erneuerbarer Energie zu arbeiten. Zudem will man mehr als 200 Millionen Dollar in die Verbesserung der lokalen Infrastruktur investieren. KI soll Code beisteuern Ferner schreibt Zuckerberg in seinem Facebook-Post, dass Meta auch seine KI-Teams „erheblich“ erweitern werde. Ferner plane man einen KI-Agenten für KI-Ingenieure zu entwickeln. Dieser soll dann Code für die F&E-Bemühungen von Meta beisteuern. Die jetzt veröffentlichen Investitionspläne für 2025 sind eine Steigerung von 50 Prozent gegenüber den Ausgaben des Vorjahres. Und Zuckerberg will in den nächsten Jahren weiter investieren. „Wir haben das Kapital“, so der Meta-Chef. Verglichen mit dem 500 Milliarden Dollar schweren Stargate-Projekt wirken Zuckerbergs Investitionen jedoch eher wie Peanuts. Zumal es sich dort um eine branchenweite Zusammenarbeit handelt, bei der OpenAI, Oracle, SoftBank, MGX, Arm, Nvidia und Microsoft mit im Boot sind. 

Meta will 65 Milliarden in KI-Infrastruktur investieren​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Meta will in Louisiana ein Rechenzentrum mit 2 GW Leistung bauen.
dotshock/Shutterstock.com

Um seine KI-Infrastruktur auszubauen und einen „KI-Ingenieur“-Agenten zu entwickeln, will Meta noch in diesem Jahr 60 bis 65 Milliarden Dollar investieren Zudem plant der Konzern, ein neues Rechenzentrum zu bauen. Das sogenannte „Richland Parish Center Data Center“ soll im Nordosten von Louisiana entstehen.

Laut einem Facebook-Post von Mark Zuckerberg, CEO von Meta, soll das Rechenzentrum eine Leistung von 2 Gigawatt (GW) haben. Noch in diesem Jahr will man etwa 1 GW Rechenleistung online bringen und dafür mehr als 1,3 Millionen GPUs verbauen.

Neues Meta-RZ in Louisiana

Die Arbeiten an dem vier Millionen Quadratmeter großen und zehn Milliarden Dollar teuren Rechenzentrum auf einem 2.250 Hektar großen Gelände sollen bis 2030 andauern. Nach seiner Fertigstellung sei es das größte von mehr als 20 Meta-Rechenzentren weltweit, heißt es.

In Sachen Stromverbrauch hat sich Meta dazu verpflichtet, mit 100 Prozent sauberer und erneuerbarer Energie zu arbeiten. Zudem will man mehr als 200 Millionen Dollar in die Verbesserung der lokalen Infrastruktur investieren.

KI soll Code beisteuern

Ferner schreibt Zuckerberg in seinem Facebook-Post, dass Meta auch seine KI-Teams „erheblich“ erweitern werde. Ferner plane man einen KI-Agenten für KI-Ingenieure zu entwickeln. Dieser soll dann Code für die F&E-Bemühungen von Meta beisteuern.

Die jetzt veröffentlichen Investitionspläne für 2025 sind eine Steigerung von 50 Prozent gegenüber den Ausgaben des Vorjahres. Und Zuckerberg will in den nächsten Jahren weiter investieren. „Wir haben das Kapital“, so der Meta-Chef.

Verglichen mit dem 500 Milliarden Dollar schweren Stargate-Projekt wirken Zuckerbergs Investitionen jedoch eher wie Peanuts. Zumal es sich dort um eine branchenweite Zusammenarbeit handelt, bei der OpenAI, Oracle, SoftBank, MGX, Arm, Nvidia und Microsoft mit im Boot sind.

Meta will 65 Milliarden in KI-Infrastruktur investieren​ Weiterlesen »

Nach oben scrollen
×