Computerhaus Quickborn

Januar 2025

KI bekämpft Krebs​

Allgemein

Ein Deep-Learning-Ansatz hilft, Krebsarten zu erkennen und relevante Biomarker-Signaturen zu identifizieren. shutterstock.com – r.classen Die personalisierte Medizin will Behandlungen individuell auf Patientinnen und Patienten abstimmen. Derzeit basiert sie auf einer begrenzten Anzahl von Parametern, die zur Vorhersage des Krankheitsverlaufs herangezogen werden. Diese Parameter können komplexe Krankheitsverläufe wie Krebs oft nicht ausreichend erfassen. Ein Forschungsteam der Medizinischen Fakultät der Universität Duisburg-Essen (UDE), der Ludwig-Maximilians-Universität München (LMU) und des Berlin Institute for the Foundations of Learning and Data (BIFOLD) an der Technischen Universität Berlin hat mithilfe von Künstlicher Intelligenz (KI) einen neuen Lösungsansatz entwickelt. Auf Grundlage der Smart-Hospital-Infrastruktur des UDE wurden die Daten von 15.726 Patienten ausgewertet, die zwischen 2007 und 2022 eine systemische Krebsbehandlung erhielten. Identifikation von Schlüsselfaktoren und Wechselwirkungen Die Forscher untersuchten das Gesamtüberleben (OS) – die Zeit vom Behandlungsbeginn bis zum Tod – sowie die Zeit bis zur nächsten Therapie (TTNT). Analysiert wurden 350 Parameter, darunter klinische Daten, Laborwerte, Bildgebung und genetische Tumorprofile. Dabei identifizierte das neuronale Netzwerk Schlüsselfaktoren und prognostisch relevante Wechselwirkungen zwischen den Parametern. Einzelne Marker können das komplexe Zusammenspiel von patienten- und tumorspezifischen Variablen jedoch nicht vollständig erfassen. Deshalb ist die Integration verschiedener Datenquellen entscheidend, so die Forscher. Deep-Learning-Ansatz erkennt prognostische Muster unabhängig von Krebsarten Fortschritte im maschinellen Lernen und erklärbarer KI (xAI) ermöglichen hierbei eine präzisere Modellierung und die Krebsbehandlung personalisiert und datenbasiert zu gestalten. Der Deep-Learning-Ansatz der Forscher erkennt prognostische Muster unabhängig von der Krebsart und identifiziert relevante Biomarker-Signaturen ohne Vorwissen. Dies hilft Ärzten, patientenspezifische Informationen zu priorisieren und Therapien anzupassen. Die Methode wurde an 3.288 Lungenkrebspatienten validiert. Es zeigte sich, dass xAI Patientenergebnisse entschlüsseln und maßgeschneiderte Behandlungsempfehlungen auf Basis multimodaler Real-World-Daten liefern kann. Insgesamt identifizierte xAI 114 Schlüsselmarker und 1.373 prognostische Wechselwirkungen. Potenzial der KI-Methode für Notfälle und schnelle Diagnosen In der klinischen Onkologie werden derzeit starre Bewertungssysteme wie Tumorstadien verwendet, die individuelle Unterschiede wie Geschlecht, Ernährungszustand oder Begleiterkrankungen wenig berücksichtigen. Durch xAI können diese komplexen Zusammenhänge entschlüsselt und die Krebsmedizin stärker personalisiert werden. Die Ergebnisse zeigen, dass KI klinische Messwerte im Zusammenhang analysieren kann, um eine personalisierte, datengetriebene Krebstherapie zu ermöglichen. Die Methode könnte auch in Notfällen verwendet werden, um diagnostische Parameter schnell zu bewerten. Die Forscher hoffen, mit ihrer Technologie komplexe, krebsübergreifende Zusammenhänge zu entschlüsseln, die bisher unentdeckt geblieben sind. In Zusammenarbeit mit dem Nationalen Centrum für Tumorerkrankungen (NCT) und dem Bayerischen Zentrum für Krebsforschung (BZKF) wollen sie den Patientennutzen ihrer Technologie in klinischen Studien nachweisen. 

KI bekämpft Krebs​ Ein Deep-Learning-Ansatz hilft, Krebsarten zu erkennen und relevante Biomarker-Signaturen zu identifizieren.
shutterstock.com – r.classen

Die personalisierte Medizin will Behandlungen individuell auf Patientinnen und Patienten abstimmen. Derzeit basiert sie auf einer begrenzten Anzahl von Parametern, die zur Vorhersage des Krankheitsverlaufs herangezogen werden. Diese Parameter können komplexe Krankheitsverläufe wie Krebs oft nicht ausreichend erfassen. Ein Forschungsteam der Medizinischen Fakultät der Universität Duisburg-Essen (UDE), der Ludwig-Maximilians-Universität München (LMU) und des Berlin Institute for the Foundations of Learning and Data (BIFOLD) an der Technischen Universität Berlin hat mithilfe von Künstlicher Intelligenz (KI) einen neuen Lösungsansatz entwickelt.

Auf Grundlage der Smart-Hospital-Infrastruktur des UDE wurden die Daten von 15.726 Patienten ausgewertet, die zwischen 2007 und 2022 eine systemische Krebsbehandlung erhielten.

Identifikation von Schlüsselfaktoren und Wechselwirkungen

Die Forscher untersuchten das Gesamtüberleben (OS) – die Zeit vom Behandlungsbeginn bis zum Tod – sowie die Zeit bis zur nächsten Therapie (TTNT).

Analysiert wurden 350 Parameter, darunter

klinische Daten,

Laborwerte,

Bildgebung und

genetische Tumorprofile.

Dabei identifizierte das neuronale Netzwerk Schlüsselfaktoren und prognostisch relevante Wechselwirkungen zwischen den Parametern. Einzelne Marker können das komplexe Zusammenspiel von patienten- und tumorspezifischen Variablen jedoch nicht vollständig erfassen. Deshalb ist die Integration verschiedener Datenquellen entscheidend, so die Forscher.

Deep-Learning-Ansatz erkennt prognostische Muster unabhängig von Krebsarten

Fortschritte im maschinellen Lernen und erklärbarer KI (xAI) ermöglichen hierbei eine präzisere Modellierung und die Krebsbehandlung personalisiert und datenbasiert zu gestalten. Der Deep-Learning-Ansatz der Forscher erkennt prognostische Muster unabhängig von der Krebsart und identifiziert relevante Biomarker-Signaturen ohne Vorwissen. Dies hilft Ärzten, patientenspezifische Informationen zu priorisieren und Therapien anzupassen.

Die Methode wurde an 3.288 Lungenkrebspatienten validiert. Es zeigte sich, dass xAI Patientenergebnisse entschlüsseln und maßgeschneiderte Behandlungsempfehlungen auf Basis multimodaler Real-World-Daten liefern kann. Insgesamt identifizierte xAI 114 Schlüsselmarker und 1.373 prognostische Wechselwirkungen.

Potenzial der KI-Methode für Notfälle und schnelle Diagnosen

In der klinischen Onkologie werden derzeit starre Bewertungssysteme wie Tumorstadien verwendet, die individuelle Unterschiede wie Geschlecht, Ernährungszustand oder Begleiterkrankungen wenig berücksichtigen. Durch xAI können diese komplexen Zusammenhänge entschlüsselt und die Krebsmedizin stärker personalisiert werden.

Die Ergebnisse zeigen, dass KI klinische Messwerte im Zusammenhang analysieren kann, um eine personalisierte, datengetriebene Krebstherapie zu ermöglichen. Die Methode könnte auch in Notfällen verwendet werden, um diagnostische Parameter schnell zu bewerten.

Die Forscher hoffen, mit ihrer Technologie komplexe, krebsübergreifende Zusammenhänge zu entschlüsseln, die bisher unentdeckt geblieben sind. In Zusammenarbeit mit dem Nationalen Centrum für Tumorerkrankungen (NCT) und dem Bayerischen Zentrum für Krebsforschung (BZKF) wollen sie den Patientennutzen ihrer Technologie in klinischen Studien nachweisen.

KI bekämpft Krebs​ Weiterlesen »

Deutschland braucht neue Rechenzentren – aber schnell​

Allgemein

Anna Klaft, Vorstandsvorsitzende der German Datacenter Association, befürchtet, dass der Digitalstandort Deutschland ins Hintertreffen gerät. German Datacenter Association / Steffen Herre Auf den ersten Blick lesen sich die Zahlen vielversprechend: Deutschland hat seine RZ-Kapazität von 2010 bis 2024 mehr als verdoppelt – auf über 2.730 MW. Und bis 2030 wird ein weiteres Wachstum auf über 4.800 MW erwartet. Dabei verteilt sich die Rechenpower auf rund 2.000 größere Collocation-Rechenzentren sowie etwa 50.000 kleinere IT-Installationen. Eine genauere Betrachtung offenbart etwas anderes: Deutschlands Data-Center-Kapazität ist ein Armutszeugnis. Nur zum Vergleich: Allein Meta baut für sich ein Rechenzentrum mit 2 GW Leistung. Davon soll noch in diesem Jahr 1 GW an Rechenpower online gehen. Und die anderen Big-Tech-Player in den USA haben ähnliche Pläne. Global nur Kreisklasse Auch wenn Deutschland mit seinen Kapazitäten der größte Rechenzentrumsstandort in Europa ist – im globalen Vergleich spielen wir nur in der Kreisklasse. Selbst der anvisierte Ausbau auf 4,8 GW ist im Zeitalter der digitalen Transformation und KI nur der berühmte Tropfen auf den heißen Stein. So wollen die USA ihre Kapazitäten von heute knapp 50 GW bis 2030 auf über 90 GW erhöhen. Die aufstrebende Digitalmacht China plant eine Erweiterung von heute geschätzt 40 GW auf über 60 GW. Und noch ein weiterer Aspekt sollte in den Diskussionen um die digitale Zukunft nicht vergessen werden: In Sachen Cloud-Services ist die Exportnation Deutschland primär ein Importland. Folgerichtig warnt deshalb Anna Klaft, Vorstandsvorsitzende der German Datacenter Association (GDA): „Deutschland steht an einem Scheideweg: Entweder wir schaffen jetzt die nötigen Rahmenbedingungen für eine leistungsfähige digitale Infrastruktur – oder wir verlieren den Anschluss im internationalen Wettbewerb. Rechenzentren sind das Rückgrat dieser Infrastruktur, und es ist höchste Zeit, dass die Politik dies nicht nur anerkennt, sondern auch handelt.“ Bezahlbarer Strom fehlt Wie RZ-Betreiber Jerome Evans im COMPUTERWOCHE-Interview schlägt Klaft in die gleiche Kerbe: „Ohne bezahlbaren und nachhaltig erzeugten Strom droht der Digitalstandort Deutschland ins Hintertreffen zu geraten.“ Immerhin scheint die Politik mittlerweile erkannt zu haben, dass Handlungsbedarf besteht. So resümierte Christina Decker, Abteilungsleiterin für Digital- und Innovationspolitik im Bundesministerium für Wirtschaft und Klimaschutz, auf einer GDA-Veranstaltung: „Deutschland soll ein global führender Digital- und KI-Standort werden. Dafür sind ausreichend Rechenzentren erforderlich. Wir wollen deshalb Deutschland als führenden Rechenzentrumsstandort in Europa stärken, auch im Vergleich zu nichteuropäischen Ländern.“ Gutachten zum RZ-Standort Deutschland Ein Gutachten des BMWK analysiert die Entwicklung des RZ-Standorts Deutschland. Bundesministeriums für Wirtschaft und Klimaschutz Immerhin hat das Habeck-Ministerium mittlerweile ein Gutachten zu „Stand und Entwicklung des Rechenzentrumsstandorts Deutschland“ vorgelegt. Es analysiert die Herausforderungen und Schwächen sowie mögliche Handlungsoptionen. Herausforderungen: Fachkräftemangel Langsame Prozesse der öffentlichen Hand Regulatorik Fehlende digitale Infrastruktur Energieversorgung und -verbrauch Handlungsoptionen Vor diesem Hintergrund kommt das Gutachten zu mehreren Handlungsempfehlungen, um den Digital- und RZ-Standort Deutschland auszubauen. Mit Blick auf den Fachkräftemangel hebt das Gutachten folgenden Aspekt hervor: Deutschland habe zwar eine starke mittelständische IT-Dienstleisterstruktur, es fehle aber im Vergleich zu den USA an Fachkräften zum Aufbau großer, skalierbarer IT-Installationen. Hier sollten gezielt Initiativen zur Entwicklung von entsprechenden IT-Kenntnissen geschaffen werden – das gelte auch für die Bereiche der Gewerke, Kälte- und Klima- sowie Elektrotechnik, wo ebenfalls ein Mangel herrsche. In Bezug auf die öffentliche Hand wird eine Standardisierung der Prozesse mit anschließender Digitalisierung empfohlen, um so Genehmigungsverfahren etc. zu beschleunigen. Mit Blick auf die Regulatorik werden beschleunigte Genehmigungsverfahren für Rechenzentren nahegelegt . Daneben schlägt das Gutachten regulatorische Anpassungen vor, etwa die Einführung eines deutschlandweiten Wärmenetzregisters, das mehr Transparenz über die Verfügbarkeit und Nutzung von Wärmenetzen bieten könnte. Digitale Netze ausbauen Mit Blick auf die fehlende digitale Infrastruktur sollte ein flächendeckender Glasfaser- und 5G-Ausbau (künftig 6G) Teil einer Digitalisierungsvision sein. Dies ermögliche mehr Flexibilität und geografische Diversität bei der Ansiedlung von Rechenzentren. Eine verbesserte digitale Infrastruktur würde zudem die Attraktivität des Standorts für ausländische Investoren steigern, die insbesondere mit Blick auf Hochleistungs- und KI-Rechenzentren auf diesbezügliche Anbindungen schauen, um Kosten und Latenzzeiten zu reduzieren. In Sachen Energie fordert das Gutachten eine Verpflichtung der IT-Betreiber zu Effizienzsteigerungen. Zudem könnte der Rechenzentrumsstandort Deutschland von dem umfassenden regulatorischen Rahmen hinsichtlich Energieeffizienz durch das EnEfG profitieren. Ein Punkt, den GDA-Chefin Klaft anders sieht, wenn sie ein realistisches Energieeffizienzgesetz anmahnt. Darüber hinaus fordert Klaft klare und investitionsfreundliche Rahmenbedingungen für den Kapazitätsausbau: „Wir brauchen endlich Planungssicherheit: Einen beschleunigten Ausbau der Netzinfrastruktur und faire Rahmenbedingungen im europäischen Wettbewerb. Die Zeit der parteipolitischen Manöver und Verzögerung muss vorbei sein.“ 

Deutschland braucht neue Rechenzentren – aber schnell​ Anna Klaft, Vorstandsvorsitzende der German Datacenter Association, befürchtet, dass der Digitalstandort Deutschland ins Hintertreffen gerät.
German Datacenter Association / Steffen Herre

Auf den ersten Blick lesen sich die Zahlen vielversprechend: Deutschland hat seine RZ-Kapazität von 2010 bis 2024 mehr als verdoppelt – auf über 2.730 MW. Und bis 2030 wird ein weiteres Wachstum auf über 4.800 MW erwartet. Dabei verteilt sich die Rechenpower auf rund 2.000 größere Collocation-Rechenzentren sowie etwa 50.000 kleinere IT-Installationen.

Eine genauere Betrachtung offenbart etwas anderes: Deutschlands Data-Center-Kapazität ist ein Armutszeugnis. Nur zum Vergleich: Allein Meta baut für sich ein Rechenzentrum mit 2 GW Leistung. Davon soll noch in diesem Jahr 1 GW an Rechenpower online gehen. Und die anderen Big-Tech-Player in den USA haben ähnliche Pläne.

Global nur Kreisklasse

Auch wenn Deutschland mit seinen Kapazitäten der größte Rechenzentrumsstandort in Europa ist – im globalen Vergleich spielen wir nur in der Kreisklasse. Selbst der anvisierte Ausbau auf 4,8 GW ist im Zeitalter der digitalen Transformation und KI nur der berühmte Tropfen auf den heißen Stein.

So wollen die USA ihre Kapazitäten von heute knapp 50 GW bis 2030 auf über 90 GW erhöhen. Die aufstrebende Digitalmacht China plant eine Erweiterung von heute geschätzt 40 GW auf über 60 GW. Und noch ein weiterer Aspekt sollte in den Diskussionen um die digitale Zukunft nicht vergessen werden: In Sachen Cloud-Services ist die Exportnation Deutschland primär ein Importland.

Folgerichtig warnt deshalb Anna Klaft, Vorstandsvorsitzende der German Datacenter Association (GDA): „Deutschland steht an einem Scheideweg: Entweder wir schaffen jetzt die nötigen Rahmenbedingungen für eine leistungsfähige digitale Infrastruktur – oder wir verlieren den Anschluss im internationalen Wettbewerb. Rechenzentren sind das Rückgrat dieser Infrastruktur, und es ist höchste Zeit, dass die Politik dies nicht nur anerkennt, sondern auch handelt.“

Bezahlbarer Strom fehlt

Wie RZ-Betreiber Jerome Evans im COMPUTERWOCHE-Interview schlägt Klaft in die gleiche Kerbe: „Ohne bezahlbaren und nachhaltig erzeugten Strom droht der Digitalstandort Deutschland ins Hintertreffen zu geraten.“ Immerhin scheint die Politik mittlerweile erkannt zu haben, dass Handlungsbedarf besteht.

So resümierte Christina Decker, Abteilungsleiterin für Digital- und Innovationspolitik im Bundesministerium für Wirtschaft und Klimaschutz, auf einer GDA-Veranstaltung: „Deutschland soll ein global führender Digital- und KI-Standort werden. Dafür sind ausreichend Rechenzentren erforderlich. Wir wollen deshalb Deutschland als führenden Rechenzentrumsstandort in Europa stärken, auch im Vergleich zu nichteuropäischen Ländern.“

Gutachten zum RZ-Standort Deutschland

Ein Gutachten des BMWK analysiert die Entwicklung des RZ-Standorts Deutschland.
Bundesministeriums für Wirtschaft und Klimaschutz

Immerhin hat das Habeck-Ministerium mittlerweile ein Gutachten zu „Stand und Entwicklung des Rechenzentrumsstandorts Deutschland“ vorgelegt. Es analysiert die Herausforderungen und Schwächen sowie mögliche Handlungsoptionen.

Herausforderungen:

Fachkräftemangel

Langsame Prozesse der öffentlichen Hand

Regulatorik

Fehlende digitale Infrastruktur

Energieversorgung und -verbrauch

Handlungsoptionen

Vor diesem Hintergrund kommt das Gutachten zu mehreren Handlungsempfehlungen, um den Digital- und RZ-Standort Deutschland auszubauen. Mit Blick auf den Fachkräftemangel hebt das Gutachten folgenden Aspekt hervor: Deutschland habe zwar eine starke mittelständische IT-Dienstleisterstruktur, es fehle aber im Vergleich zu den USA an Fachkräften zum Aufbau großer, skalierbarer IT-Installationen. Hier sollten gezielt Initiativen zur Entwicklung von entsprechenden IT-Kenntnissen geschaffen werden – das gelte auch für die Bereiche der Gewerke, Kälte- und Klima- sowie Elektrotechnik, wo ebenfalls ein Mangel herrsche.

In Bezug auf die öffentliche Hand wird eine Standardisierung der Prozesse mit anschließender Digitalisierung empfohlen, um so Genehmigungsverfahren etc. zu beschleunigen. Mit Blick auf die Regulatorik werden beschleunigte Genehmigungsverfahren für Rechenzentren nahegelegt . Daneben schlägt das Gutachten regulatorische Anpassungen vor, etwa die Einführung eines deutschlandweiten Wärmenetzregisters, das mehr Transparenz über die Verfügbarkeit und Nutzung von Wärmenetzen bieten könnte.

Digitale Netze ausbauen

Mit Blick auf die fehlende digitale Infrastruktur sollte ein flächendeckender Glasfaser- und 5G-Ausbau (künftig 6G) Teil einer Digitalisierungsvision sein. Dies ermögliche mehr Flexibilität und geografische Diversität bei der Ansiedlung von Rechenzentren. Eine verbesserte digitale Infrastruktur würde zudem die Attraktivität des Standorts für ausländische Investoren steigern, die insbesondere mit Blick auf Hochleistungs- und KI-Rechenzentren auf diesbezügliche Anbindungen schauen, um Kosten und Latenzzeiten zu reduzieren.

In Sachen Energie fordert das Gutachten eine Verpflichtung der IT-Betreiber zu Effizienzsteigerungen. Zudem könnte der Rechenzentrumsstandort Deutschland von dem umfassenden regulatorischen Rahmen hinsichtlich Energieeffizienz durch das EnEfG profitieren. Ein Punkt, den GDA-Chefin Klaft anders sieht, wenn sie ein realistisches Energieeffizienzgesetz anmahnt.

Darüber hinaus fordert Klaft klare und investitionsfreundliche Rahmenbedingungen für den Kapazitätsausbau: „Wir brauchen endlich Planungssicherheit: Einen beschleunigten Ausbau der Netzinfrastruktur und faire Rahmenbedingungen im europäischen Wettbewerb. Die Zeit der parteipolitischen Manöver und Verzögerung muss vorbei sein.“

Deutschland braucht neue Rechenzentren – aber schnell​ Weiterlesen »

DSGVO – fehlt den Behörden der Biss?​

Allgemein

width=”2486″ height=”1398″ sizes=”(max-width: 2486px) 100vw, 2486px”>Geldbußen und deren strikte Eintreibung sind ein probates Mittel, alle Beteiligten daran zu erinnern, sich tunlichst an die Regeln zu halten.AVN Photo Lab – shutterstock.com Im vergangenen Jahr haben Datenschutzbehörden in Europa Bußgelder in Höhe von 1,2 Milliarden Euro verhängt. Das geht aus der siebten Ausgabe des “GDPR Fines and Data Breach Survey” der Wirtschaftskanzlei DLA Piper hervor. Für den Zeitraum seit dem 28. Januar 2024 bedeutet dies einen Rückgang von 33 Prozent gegenüber den Strafen des vorangegangenen Jahres . Damit sei erstmals ein Rückgang der Bußgelder im Jahresvergleich zu verzeichnen, hieß es. Allerdings sei dies auch auf Sondereffekte 2023 zurückzuführen. Damals verdonnerte Irland Meta zu einer Rekordstrafe von 1,2 Milliarden Euro. Im Jahr 2024 wurden keine vergleichbaren Bußgelder verhängt.  Insgesamt summieren sich die seit Inkrafttreten der DSGVO im Mai 2018 verhängten Strafen auf 5,88 Milliarden Euro. Zahlen mussten vor allem große Technologiekonzerne und Social-Media-Giganten. Fast alle der zehn höchsten seit 2018 verhängten Geldbußen betreffen die Tech-Branche, darunter fallen auch die in 2024 von der irischen Datenschutzbehörde verhängten Bußgelder in Höhe von 310 Millionen Euro gegen LinkedIn und die 251-Millionen-Euro-Strafe für Meta.  Datenschutzanforderungen: Digitaler Fortschritt – trotz DSGVO-Korsett Irland verhängt mit großem Abstand weiterhin die meisten Geldbußen – seit Mai 2018 mittlerweile 3,5 Milliarden Euro. Zum Vergleich: In Deutschland wurden seit Inkrafttreten der DSGVO Bußgelder im Gesamtvolumen von 89,1 Millionen Euro verhängt. Ein Fokus der deutschen Datenschutzbehörden liege DLA Piper zufolge dabei auf Verstößen gegen die Integrität und Vertraulichkeit sowie die Sicherheit der Datenverarbeitung.  “DSGVO bleibt ein starkes Instrument” „Die diesjährigen Ergebnisse zeigen, dass die Datenschutzbehörden in Europa weiterhin eine klare Linie verfolgen“, kommentierte Jan Geert Meents, Partner der deutschen Praxisgruppe Intellectual Property & Technology (IPT) bei DLA Piper, die aktuellen Studienergebnisse. Der Rückgang des Gesamtvolumens der Bußgelder sei schließlich auf außergewöhnliche Ereignisse im Vorjahr zurückzuführen und bedeute keine Abschwächung der regulatorischen Aktivitäten. „Die DSGVO bleibt ein starkes Instrument, um den Datenschutz zu gewährleisten und die Einhaltung zu fördern. Dies gilt insbesondere auch für Deutschland.“  Chinesische Firmen zapfen europäische Daten ab Auf Seiten von Datenschutzaktivisten beurteilt man die aktuelle Situation hinsichtlich Verfahren und Bußgeldern dagegen deutlich nüchterner. Der Verein noyb mit seinem Vorstandsvorsitzenden Max Schrems spricht sogar von “Untätigkeit der nationalen Datenschutzbehörden”. Im Durchschnitt würden nur 1,3 Prozent aller Fälle vor den Datenschutzbehörden zu einer Geldstrafe führen, berichten die Aktivisten unter Berufung auf Statistiken des Europäischen Datenschutzausschusses (EDSA). Verfahren dauern zu lang Die Vorstellung, mit der DSGVO eine Wende hin zu einem ernsthaften Umgang mit Datenschutz erreicht zu haben, habe sich größtenteils als Wunschdenken erwiesen, hieß es in einer Mitteilung des noyb. „Die europäischen Datenschutzbehörden haben alle erforderlichen Mittel, um DSGVO-Verstöße angemessen zu ahnden und Bußgelder zu verhängen“, stellt Schrems klar. „Stattdessen ziehen sich die Verhandlungen oft über Jahre hinweg in die Länge – und enden nur selten im Sinne der Betroffenen.“  Die Aktivisten sprechen von einem spezifischen Phänomen des Datenschutzes. 2022 seien beispielsweise bei der spanischen Datenschutzbehörde 15.128 Beschwerden eingegangen. Allerdings seien gerade einmal 378 Geldstrafen verhängt worden – einschließlich offensichtlicher Verstöße wie unbeantwortete Auskunftsersuchen oder unzulässige Cookie-Banner, die theoretisch schnell und standardisiert behandelt werden könnten. Die noyb-Verantwortlichen führen zum Vergleich an: 2022 wurden in Spanien 3,7 Millionen Strafzettel für Geschwindigkeitsübertretungen ausgestellt. Ähnliche Verhältnisse würden für praktisch alle anderen EU-Mitgliedstaaten gelten.  Datenschutzbehörden fehlt die Motivation, das ihnen anvertraute Recht auch durchzusetzen, moniert Max Schrems, Vorstandsvorsitzender des noyb.David Bohmann PID „Irgendwie fehlt nur Datenschutzbehörden die notwendige Motivation, das ihnen anvertraute Recht auch tatsächlich durchzusetzen“, moniert Schrems. „In allen anderen Bereichen führen Gesetzesverstöße regelmäßig zu Geldstrafen und ernsthaften Sanktionen.“ Datenschutzbehörden handelten oft eher im Interesse der Unternehmen als der betroffenen Personen, mutmaßt der Aktivist.  Geldbußen motivieren zur Einhaltung der Compliance Dabei seien es gerade Geldbußen, die die Unternehmen zur Einhaltung der Gesetze motivieren, berichtet der Verein unter Berufung auf eine eigene Umfrage. Gut zwei Drittel der Befragten hätten angegeben, dass Entscheidungen der Datenschutzbehörde, die ihr eigenes Unternehmen betreffen und eine Geldstrafe beinhalten, zu mehr Compliance führten. Gut sechs von zehn Befragten räumten außerdem ein, dass selbst Bußgelder gegen andere Organisationen Einfluss auf das eigene Unternehmen haben.  Tatsächlich könnte sich der Fokus der Datenschutzbehörden etwas verschieben, was in der Konsequenz zu mehr Bußgeldbescheiden führen könnte. DLA Piper verweist auf eine Ankündigung der niederländischen Datenschutzbehörde. Diese will überprüfen, ob die Geschäftsführer von Clearview AI persönlich für zahlreiche DSGVO-Verstöße haftbar gemacht werden könnten, nachdem ein Bußgeld in Höhe von 30,5 Millionen Euro gegen das Unternehmen verhängt worden war. „Diese Untersuchung könnte einen möglichen Wandel im Fokus der Regulierungsbehörden hin zu einer persönlichen Haftung und mehr individueller Verantwortlichkeit signalisieren“, interpretieren die Rechtsexperten den Schritt.  Persönliche Haftung – neue Phase in der DSGVO-Durchsetzung „Die zunehmende Fokussierung auf die persönliche Haftung von Führungskräften markiert eine neue Phase in der DSGVO-Durchsetzung“, kommentiert Verena Grentzenberg, Partnerin der Praxisgruppe IPT von DLA Piper in Deutschland mit Fokus auf Datenschutz. „Dies setzt ein klares Signal an Unternehmen, dass Verstöße gegen den Datenschutz nicht ohne Konsequenzen bleiben – auch nicht auf der Ebene der handelnden Personen.“  

DSGVO – fehlt den Behörden der Biss?​ width=”2486″ height=”1398″ sizes=”(max-width: 2486px) 100vw, 2486px”>Geldbußen und deren strikte Eintreibung sind ein probates Mittel, alle Beteiligten daran zu erinnern, sich tunlichst an die Regeln zu halten.AVN Photo Lab – shutterstock.com

Im vergangenen Jahr haben Datenschutzbehörden in Europa Bußgelder in Höhe von 1,2 Milliarden Euro verhängt. Das geht aus der siebten Ausgabe des “GDPR Fines and Data Breach Survey” der Wirtschaftskanzlei DLA Piper hervor. Für den Zeitraum seit dem 28. Januar 2024 bedeutet dies einen Rückgang von 33 Prozent gegenüber den Strafen des vorangegangenen Jahres . Damit sei erstmals ein Rückgang der Bußgelder im Jahresvergleich zu verzeichnen, hieß es. Allerdings sei dies auch auf Sondereffekte 2023 zurückzuführen. Damals verdonnerte Irland Meta zu einer Rekordstrafe von 1,2 Milliarden Euro. Im Jahr 2024 wurden keine vergleichbaren Bußgelder verhängt. 

Insgesamt summieren sich die seit Inkrafttreten der DSGVO im Mai 2018 verhängten Strafen auf 5,88 Milliarden Euro. Zahlen mussten vor allem große Technologiekonzerne und Social-Media-Giganten. Fast alle der zehn höchsten seit 2018 verhängten Geldbußen betreffen die Tech-Branche, darunter fallen auch die in 2024 von der irischen Datenschutzbehörde verhängten Bußgelder in Höhe von 310 Millionen Euro gegen LinkedIn und die 251-Millionen-Euro-Strafe für Meta. 

Datenschutzanforderungen: Digitaler Fortschritt – trotz DSGVO-Korsett

Irland verhängt mit großem Abstand weiterhin die meisten Geldbußen – seit Mai 2018 mittlerweile 3,5 Milliarden Euro. Zum Vergleich: In Deutschland wurden seit Inkrafttreten der DSGVO Bußgelder im Gesamtvolumen von 89,1 Millionen Euro verhängt. Ein Fokus der deutschen Datenschutzbehörden liege DLA Piper zufolge dabei auf Verstößen gegen die Integrität und Vertraulichkeit sowie die Sicherheit der Datenverarbeitung. 

“DSGVO bleibt ein starkes Instrument”

„Die diesjährigen Ergebnisse zeigen, dass die Datenschutzbehörden in Europa weiterhin eine klare Linie verfolgen“, kommentierte Jan Geert Meents, Partner der deutschen Praxisgruppe Intellectual Property & Technology (IPT) bei DLA Piper, die aktuellen Studienergebnisse. Der Rückgang des Gesamtvolumens der Bußgelder sei schließlich auf außergewöhnliche Ereignisse im Vorjahr zurückzuführen und bedeute keine Abschwächung der regulatorischen Aktivitäten. „Die DSGVO bleibt ein starkes Instrument, um den Datenschutz zu gewährleisten und die Einhaltung zu fördern. Dies gilt insbesondere auch für Deutschland.“ 

Chinesische Firmen zapfen europäische Daten ab

Auf Seiten von Datenschutzaktivisten beurteilt man die aktuelle Situation hinsichtlich Verfahren und Bußgeldern dagegen deutlich nüchterner. Der Verein noyb mit seinem Vorstandsvorsitzenden Max Schrems spricht sogar von “Untätigkeit der nationalen Datenschutzbehörden”. Im Durchschnitt würden nur 1,3 Prozent aller Fälle vor den Datenschutzbehörden zu einer Geldstrafe führen, berichten die Aktivisten unter Berufung auf Statistiken des Europäischen Datenschutzausschusses (EDSA).

Verfahren dauern zu lang

Die Vorstellung, mit der DSGVO eine Wende hin zu einem ernsthaften Umgang mit Datenschutz erreicht zu haben, habe sich größtenteils als Wunschdenken erwiesen, hieß es in einer Mitteilung des noyb. „Die europäischen Datenschutzbehörden haben alle erforderlichen Mittel, um DSGVO-Verstöße angemessen zu ahnden und Bußgelder zu verhängen“, stellt Schrems klar. „Stattdessen ziehen sich die Verhandlungen oft über Jahre hinweg in die Länge – und enden nur selten im Sinne der Betroffenen.“ 

Die Aktivisten sprechen von einem spezifischen Phänomen des Datenschutzes. 2022 seien beispielsweise bei der spanischen Datenschutzbehörde 15.128 Beschwerden eingegangen. Allerdings seien gerade einmal 378 Geldstrafen verhängt worden – einschließlich offensichtlicher Verstöße wie unbeantwortete Auskunftsersuchen oder unzulässige Cookie-Banner, die theoretisch schnell und standardisiert behandelt werden könnten. Die noyb-Verantwortlichen führen zum Vergleich an: 2022 wurden in Spanien 3,7 Millionen Strafzettel für Geschwindigkeitsübertretungen ausgestellt. Ähnliche Verhältnisse würden für praktisch alle anderen EU-Mitgliedstaaten gelten. 

Datenschutzbehörden fehlt die Motivation, das ihnen anvertraute Recht auch durchzusetzen, moniert Max Schrems, Vorstandsvorsitzender des noyb.David Bohmann PID

„Irgendwie fehlt nur Datenschutzbehörden die notwendige Motivation, das ihnen anvertraute Recht auch tatsächlich durchzusetzen“, moniert Schrems. „In allen anderen Bereichen führen Gesetzesverstöße regelmäßig zu Geldstrafen und ernsthaften Sanktionen.“ Datenschutzbehörden handelten oft eher im Interesse der Unternehmen als der betroffenen Personen, mutmaßt der Aktivist. 

Geldbußen motivieren zur Einhaltung der Compliance

Dabei seien es gerade Geldbußen, die die Unternehmen zur Einhaltung der Gesetze motivieren, berichtet der Verein unter Berufung auf eine eigene Umfrage. Gut zwei Drittel der Befragten hätten angegeben, dass Entscheidungen der Datenschutzbehörde, die ihr eigenes Unternehmen betreffen und eine Geldstrafe beinhalten, zu mehr Compliance führten. Gut sechs von zehn Befragten räumten außerdem ein, dass selbst Bußgelder gegen andere Organisationen Einfluss auf das eigene Unternehmen haben. 

Tatsächlich könnte sich der Fokus der Datenschutzbehörden etwas verschieben, was in der Konsequenz zu mehr Bußgeldbescheiden führen könnte. DLA Piper verweist auf eine Ankündigung der niederländischen Datenschutzbehörde. Diese will überprüfen, ob die Geschäftsführer von Clearview AI persönlich für zahlreiche DSGVO-Verstöße haftbar gemacht werden könnten, nachdem ein Bußgeld in Höhe von 30,5 Millionen Euro gegen das Unternehmen verhängt worden war. „Diese Untersuchung könnte einen möglichen Wandel im Fokus der Regulierungsbehörden hin zu einer persönlichen Haftung und mehr individueller Verantwortlichkeit signalisieren“, interpretieren die Rechtsexperten den Schritt. 

Persönliche Haftung – neue Phase in der DSGVO-Durchsetzung

„Die zunehmende Fokussierung auf die persönliche Haftung von Führungskräften markiert eine neue Phase in der DSGVO-Durchsetzung“, kommentiert Verena Grentzenberg, Partnerin der Praxisgruppe IPT von DLA Piper in Deutschland mit Fokus auf Datenschutz. „Dies setzt ein klares Signal an Unternehmen, dass Verstöße gegen den Datenschutz nicht ohne Konsequenzen bleiben – auch nicht auf der Ebene der handelnden Personen.“ 

DSGVO – fehlt den Behörden der Biss?​ Weiterlesen »

US-Justizministerium will HPEs Juniper-Kauf blockieren​

Allgemein

Zieht das DoJ bei der Netzwerker-Ehe den Stecker?Gorodenkoff / Shutterstock Nach monatelangen Spekulationen hat das US-Justizministerium Klage eingereicht, um den 14-Milliarden-Dollar-Verkauf von Juniper Networks an Hewlett Packard Enterprise zu blockieren. Als größtes Problem bei dem geplanten Kauf nannte das Department of Justice (DoJ) dabei den eingeschränkten Wettbewerb im Wireless-Bereich. In ihrer Erklärung wies die Behörde darauf hin, dass HPE und Juniper nach dem Marktführer Cisco Systems die zweit-, beziehungsweise drittgrößten Anbieter von WLAN-Lösungen für Unternehmen in den USA seien.  Zu große Marktmacht, zu kleine Konkurrenz  „Diese geplante Übernahme birgt das Risiko, den Wettbewerb in einem äußerst wichtigen Technologiemarkt erheblich zu verringern, und stellt somit genau die Bedrohung dar, die durch den Clayton Act verhindert werden sollte“, schreibt das Justizministerium in einer Erklärung und hält fest: “Sie sollte blockiert werden.“  Gleichzeitig weist das DoJ darauf hin, dass es andere Anbieter von WLAN-Equipment für Unternehmen schwer hätten, sich neu zu positionieren oder zu expandieren, um die Position einer unabhängigen Juniper Networks zu übernehmen. Aktuell seien nur eine Handvoll WLAN-Anbieter gut positioniert, um die fortschrittlichsten Anwendungsfälle zu bewältigen. Zudem hätten kleine Wettbewerber aufgrund ihrer überschaubaren Vertriebs- und Serviceteams Nachteile, da dies notwendige Komponenten seien, um sich den von Enterprise-Kunden verlangten Ruf für zuverlässigen Service zu erarbeiten.  „Selbst gut ausgestattete Networking-Anbieter aus angrenzenden Bereichen stellen wahrscheinlich nicht sofort eine starke Alternative zu Cisco und HPE dar“, befindet die Bundesbehörde. Mehrere dieser Provider hätten mit einem schlechten Ruf zu kämpfen und verfügten nicht über die Vertriebsnetze für ein schnelles Wachstum auf dem Enterprise-WLAN-Markt.  Laut Berechnungen des DoJ würden Cisco und HPE im Falle eines Abschlusses des Geschäfts weit über 70 Prozent des US-Marktes kontrollieren. Der Deal setze zudem dem „starken, direkten Wettbewerb“ zwischen HPE und Juniper ein Ende.  KI als Kernstück des Angebots von HPE für Juniper  Als HPE den Deal im Januar vergangenen Jahres bekannt ab, prognostizierte das Unternehmen, dass es mit Hilfe von Junipers – teilweise überlappender – Produktpalette für Campus- und Rechenzentrumsnetze sein Netzwerkgeschäft verdoppeln würde. Junipers Enterprise-Networking-Sparte war im ersten Quartal 2022 zum ersten Mal in der Firmengeschichte der größte seiner drei Kernbereiche (Cloud, Service Provider und Enterprise) und ist seitdem weiter gewachsen.  Bei dem Kauf geht es in erster Linie um Junipers KI-Technologie. HPE könnte sich mit dem Deal die Cloud-basierte Mist-AI-Familie von Juniper sichern, mit der drahtgebundene und drahtlose Netzwerke proaktiv verwaltet werden. Außerdem entwickelte Juniper mit Marvis einen KI-gestützten virtuellen Netzwerkassistenten für Mist. Marvis kann unzählige Netzwerkprobleme erkennen, beschreiben und beheben, darunter:  anhaltend ausfallende LAN- oder WLAN-Clients,   defekte Kabel,   Lücken in der Abdeckung von Access Points,   problematische WAN-Verbindungen, oder   unzureichende Funkkapazität.  „KI erfordert eine moderne Netzwerkgrundlage, vom Client bis zur Cloud, um Daten zu verbinden, und diese Grundlage wird genauso wichtig sein wie das Silizium, um die Leistung und den Wert der KI beim Übergang der Welt zu dieser Art von beschleunigter Datenverarbeitung zu erschließen“, erklärte HPE-CEO Antonio Neri Ende 2024 auf der HPE Discover in Barcelona. Die Kombination von HPE und Juniper werde das Netz der Zukunft dabei einen großen Schritt nach vorne bringen.   „Der Juniper-Deal wird ein wesentlicher Teil des Puzzles sein“, so der HPE-Chef damals zuversichtlich. „Denn gemeinsam erwarten wir eine Reihe sicherer KI-nativer Netzwerklösungen, die in allen Segmenten – Enterprise, Cloud und Service Provider – ein außergewöhnliches Benutzererlebnis bieten.“  Inwieweit sich diese Vision nach dem Veto des US-Justizministeriums umsetzen lässt, ist fraglich. Beobachter halten es jedoch für möglich, dass die Transaktion mit einigen Anpassungen – beispielsweise der Veräußerung bestimmter Technologien – doch noch über die Bühne gehen kann.  HPE und Juniper verteidigen Deal  Immerhin wollen die beiden Fusionspartner den Einspruch des DoJ nicht so einfach hinnehmen. Innerhalb weniger Stunden nach der Ankündigung des Justizministeriums reagierten HPE und Juniper auf die Einreichung einer Beschwerde mit einer Stellungnahme.  „Wir werden uns energisch gegen die überzogene Auslegung der Kartellgesetze durch das Justizministerium zur Wehr setzen und aufzeigen, wie diese Transaktion den Kunden mehr Innovation und Auswahl bieten, die Dynamik auf dem Netzwerkmarkt durch mehr Wettbewerb positiv verändern und das Rückgrat der US-Netzwerkinfrastruktur stärken wird“, verkündeten die beiden Unternehmen bekannt und verwiesen auf die positiven Bescheide anderer Kartellbehörden, die den Deal geprüft haben. Die geplante Übernahme werde Kunden jeder Größe ein modernes, sicheres Netzwerk bieten, das mit KI und für KI aufgebaut wurde, um eine bessere Benutzer- und Betreibererfahrung zu gewährleisten – und mehr Wettbewerb schaffen, nicht weniger – so die Argumentation von HPE und Juniper.  

US-Justizministerium will HPEs Juniper-Kauf blockieren​ Zieht das DoJ bei der Netzwerker-Ehe den Stecker?Gorodenkoff / Shutterstock

Nach monatelangen Spekulationen hat das US-Justizministerium Klage eingereicht, um den 14-Milliarden-Dollar-Verkauf von Juniper Networks an Hewlett Packard Enterprise zu blockieren. Als größtes Problem bei dem geplanten Kauf nannte das Department of Justice (DoJ) dabei den eingeschränkten Wettbewerb im Wireless-Bereich. In ihrer Erklärung wies die Behörde darauf hin, dass HPE und Juniper nach dem Marktführer Cisco Systems die zweit-, beziehungsweise drittgrößten Anbieter von WLAN-Lösungen für Unternehmen in den USA seien. 

Zu große Marktmacht, zu kleine Konkurrenz 

„Diese geplante Übernahme birgt das Risiko, den Wettbewerb in einem äußerst wichtigen Technologiemarkt erheblich zu verringern, und stellt somit genau die Bedrohung dar, die durch den Clayton Act verhindert werden sollte“, schreibt das Justizministerium in einer Erklärung und hält fest: “Sie sollte blockiert werden.“ 

Gleichzeitig weist das DoJ darauf hin, dass es andere Anbieter von WLAN-Equipment für Unternehmen schwer hätten, sich neu zu positionieren oder zu expandieren, um die Position einer unabhängigen Juniper Networks zu übernehmen. Aktuell seien nur eine Handvoll WLAN-Anbieter gut positioniert, um die fortschrittlichsten Anwendungsfälle zu bewältigen. Zudem hätten kleine Wettbewerber aufgrund ihrer überschaubaren Vertriebs- und Serviceteams Nachteile, da dies notwendige Komponenten seien, um sich den von Enterprise-Kunden verlangten Ruf für zuverlässigen Service zu erarbeiten. 

„Selbst gut ausgestattete Networking-Anbieter aus angrenzenden Bereichen stellen wahrscheinlich nicht sofort eine starke Alternative zu Cisco und HPE dar“, befindet die Bundesbehörde. Mehrere dieser Provider hätten mit einem schlechten Ruf zu kämpfen und verfügten nicht über die Vertriebsnetze für ein schnelles Wachstum auf dem Enterprise-WLAN-Markt. 

Laut Berechnungen des DoJ würden Cisco und HPE im Falle eines Abschlusses des Geschäfts weit über 70 Prozent des US-Marktes kontrollieren. Der Deal setze zudem dem „starken, direkten Wettbewerb“ zwischen HPE und Juniper ein Ende. 

KI als Kernstück des Angebots von HPE für Juniper 

Als HPE den Deal im Januar vergangenen Jahres bekannt ab, prognostizierte das Unternehmen, dass es mit Hilfe von Junipers – teilweise überlappender – Produktpalette für Campus- und Rechenzentrumsnetze sein Netzwerkgeschäft verdoppeln würde. Junipers Enterprise-Networking-Sparte war im ersten Quartal 2022 zum ersten Mal in der Firmengeschichte der größte seiner drei Kernbereiche (Cloud, Service Provider und Enterprise) und ist seitdem weiter gewachsen. 

Bei dem Kauf geht es in erster Linie um Junipers KI-Technologie. HPE könnte sich mit dem Deal die Cloud-basierte Mist-AI-Familie von Juniper sichern, mit der drahtgebundene und drahtlose Netzwerke proaktiv verwaltet werden. Außerdem entwickelte Juniper mit Marvis einen KI-gestützten virtuellen Netzwerkassistenten für Mist. Marvis kann unzählige Netzwerkprobleme erkennen, beschreiben und beheben, darunter: 

anhaltend ausfallende LAN- oder WLAN-Clients,  

defekte Kabel,  

Lücken in der Abdeckung von Access Points,  

problematische WAN-Verbindungen, oder  

unzureichende Funkkapazität. 

„KI erfordert eine moderne Netzwerkgrundlage, vom Client bis zur Cloud, um Daten zu verbinden, und diese Grundlage wird genauso wichtig sein wie das Silizium, um die Leistung und den Wert der KI beim Übergang der Welt zu dieser Art von beschleunigter Datenverarbeitung zu erschließen“, erklärte HPE-CEO Antonio Neri Ende 2024 auf der HPE Discover in Barcelona. Die Kombination von HPE und Juniper werde das Netz der Zukunft dabei einen großen Schritt nach vorne bringen.  

„Der Juniper-Deal wird ein wesentlicher Teil des Puzzles sein“, so der HPE-Chef damals zuversichtlich. „Denn gemeinsam erwarten wir eine Reihe sicherer KI-nativer Netzwerklösungen, die in allen Segmenten – Enterprise, Cloud und Service Provider – ein außergewöhnliches Benutzererlebnis bieten.“ 

Inwieweit sich diese Vision nach dem Veto des US-Justizministeriums umsetzen lässt, ist fraglich. Beobachter halten es jedoch für möglich, dass die Transaktion mit einigen Anpassungen – beispielsweise der Veräußerung bestimmter Technologien – doch noch über die Bühne gehen kann. 

HPE und Juniper verteidigen Deal 

Immerhin wollen die beiden Fusionspartner den Einspruch des DoJ nicht so einfach hinnehmen. Innerhalb weniger Stunden nach der Ankündigung des Justizministeriums reagierten HPE und Juniper auf die Einreichung einer Beschwerde mit einer Stellungnahme. 

„Wir werden uns energisch gegen die überzogene Auslegung der Kartellgesetze durch das Justizministerium zur Wehr setzen und aufzeigen, wie diese Transaktion den Kunden mehr Innovation und Auswahl bieten, die Dynamik auf dem Netzwerkmarkt durch mehr Wettbewerb positiv verändern und das Rückgrat der US-Netzwerkinfrastruktur stärken wird“, verkündeten die beiden Unternehmen bekannt und verwiesen auf die positiven Bescheide anderer Kartellbehörden, die den Deal geprüft haben. Die geplante Übernahme werde Kunden jeder Größe ein modernes, sicheres Netzwerk bieten, das mit KI und für KI aufgebaut wurde, um eine bessere Benutzer- und Betreibererfahrung zu gewährleisten – und mehr Wettbewerb schaffen, nicht weniger – so die Argumentation von HPE und Juniper. 

US-Justizministerium will HPEs Juniper-Kauf blockieren​ Weiterlesen »

Hugging Face rekonstruiert DeepSeek R1​

Allgemein

Geht’s um Open Source, will Hugging Face keine Abstriche machen.Tada Images | shutterstock.com Das chinesische KI-Startup DeepSeek AI und sein KI-Modell R1 sind in aller Munde. Nicht nur, weil das Large Language Model (LLM) der Chinesen ohne Einschränkungen kommerziell genutzt werden kann. Nun haben die KI-Experten von Hugging Face ein neues Projekt angekündigt, in dessen Rahmen sie DeepSeek R1 rekonstruieren wollen – allerdings in vollständig quelloffener Form. Open-R1 – das bessere DeepSeek R1? „Der Release von DeepSeek R1 ist ein Segen für die Community, aber nicht vollständig transparent: Zwar sind die Modellgewichtungen öffentlich verfügbar, die Datensätze und der Code, die genutzt wurden, um das Modell zu trainieren, aber nicht“, konstatieren Hugging-Face-Experten im Blogbeitrag zum Open-R1-Projekt, der weitere, technische Details zur geplanten Umsetzung enthält. Aus Sicht von Hugging Face blieben mit Blick auf die Veröffentlichung von DeepSeek R1 im Wesentlichen drei Fragen offen: Wie wurden die Reasoning-spezifischen Datensätze kuratiert? Welche Hyperparameter funktionieren am besten und welche Unterschiede gibt es zwischen den verschiedenen Modellfamilien und Skalierungsebenen? Welche Kompromisse wurden beim Modelltraining mit Blick auf Rechenleistung und Daten gemacht? Das Ziel von Open-R1 sei es, diese fehlenden Teile zu ergänzen, damit auf dieser Grundlage ähnliche oder bessere Modelle entstehen könnten: „Mit Open-R1 wollen wir Transparenz darüber schaffen, wie Reinforcement Learning das Reasoning von KI-Modellen vorantreibt und der Open-Source-Community entsprechende, reproduzierbare Insights zur Verfügung stellen“, stellen die Hugging-Face-Autoren in Aussicht. Open R1, an open attempt by @huggingface to repro DeepSeek R1 training, is the most interesting and potentially impactful open source project in the world today(link in reply) pic.twitter.com/fjCiOVSA1K— Jared Palmer (@jaredpalmer) January 27, 2025 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Hugging Face rekonstruiert DeepSeek R1​ Geht’s um Open Source, will Hugging Face keine Abstriche machen.Tada Images | shutterstock.com

Das chinesische KI-Startup DeepSeek AI und sein KI-Modell R1 sind in aller Munde. Nicht nur, weil das Large Language Model (LLM) der Chinesen ohne Einschränkungen kommerziell genutzt werden kann.

Nun haben die KI-Experten von Hugging Face ein neues Projekt angekündigt, in dessen Rahmen sie DeepSeek R1 rekonstruieren wollen – allerdings in vollständig quelloffener Form.

Open-R1 – das bessere DeepSeek R1?

„Der Release von DeepSeek R1 ist ein Segen für die Community, aber nicht vollständig transparent: Zwar sind die Modellgewichtungen öffentlich verfügbar, die Datensätze und der Code, die genutzt wurden, um das Modell zu trainieren, aber nicht“, konstatieren Hugging-Face-Experten im Blogbeitrag zum Open-R1-Projekt, der weitere, technische Details zur geplanten Umsetzung enthält. Aus Sicht von Hugging Face blieben mit Blick auf die Veröffentlichung von DeepSeek R1 im Wesentlichen drei Fragen offen:

Wie wurden die Reasoning-spezifischen Datensätze kuratiert?

Welche Hyperparameter funktionieren am besten und welche Unterschiede gibt es zwischen den verschiedenen Modellfamilien und Skalierungsebenen?

Welche Kompromisse wurden beim Modelltraining mit Blick auf Rechenleistung und Daten gemacht?

Das Ziel von Open-R1 sei es, diese fehlenden Teile zu ergänzen, damit auf dieser Grundlage ähnliche oder bessere Modelle entstehen könnten: „Mit Open-R1 wollen wir Transparenz darüber schaffen, wie Reinforcement Learning das Reasoning von KI-Modellen vorantreibt und der Open-Source-Community entsprechende, reproduzierbare Insights zur Verfügung stellen“, stellen die Hugging-Face-Autoren in Aussicht.

Open R1, an open attempt by @huggingface to repro DeepSeek R1 training, is the most interesting and potentially impactful open source project in the world today(link in reply) pic.twitter.com/fjCiOVSA1K— Jared Palmer (@jaredpalmer) January 27, 2025

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Hugging Face rekonstruiert DeepSeek R1​ Weiterlesen »

SAP S/4HANA-Umstieg – komplex, aber unausweichlich​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?quality=50&strip=all 1422w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der Pfad in Richtung S/4HANA ist mühsam – wer weiter auf SAP setzen möchte, wird den Weg jedoch gehen müssen.Imageflow / Shutterstock Auch zehn Jahre nach Release sorgt die ERP-Umstellung auf SAP S/4HANA für ein schlechtes Gewissen in den Hinterköpfen vieler Entscheider, IT-Verantwortlicher und noch viel mehr Beteiligter, als man auf den ersten Blick glauben mag. ERP, respektive Cloud-ERP ist für so viele Rollen und Unternehmen relevant, dass hierin vielleicht schon die Erklärung für den jahrelangen Aufschub liegt: Die eingesetzte ERP-Lösung betrifft in manchen Branchen gerne 60 bis 80 Prozent der Mitarbeitenden. Entsprechend hoch ist die “Transformationsschwelle” vor allem auf organisatorischer Ebene. Informationen zu den Partner-Paketen der Studie “SAP S/4HANA / Cloud-ERP“ Das ist jedoch nicht die einzige Erklärung dafür, warum vergleichsweise viele Projekte trotz eigentlich “harter” Deadline, also dem End of Life der Vorgänger, nicht angegangen wurden.  Viele Unternehmen haben die Zeit auch ganz bewusst genutzt, sagt Philipp Rockel von der IT-Beratung All4One: “Warum soll ich – auch rückblickend auf die Pandemie – verfrühte Risiken eingehen, wenn ich auch erstmal beobachten und die Lage sondieren kann?” So ein eher konservatives Vorgehen wäre hierzulande auch nichts ungewöhnliches: “Die Mentalität in Deutschland spielt bei der Beantwortung der Frage ‘warum haben so viele noch nicht migriert?’ definitiv eine Rolle, Stichwort ‘Aufschieberitis’. Das Argument ‘Es ist ja noch Zeit’ war in den vergangenen Jahren nicht unpopulär.” Dabei ginge es aber gar nicht um die Sinnhaftigkeit von Cloud-ERP an sich. Diese sei eher gesetzt. Stattdessen stehen vor allem Details im Vordergrund, zum Beispiel die Beantwortung der Frage, ob es eine Public Cloud (GROW with SAP) oder eine Private Cloud (RISE with SAP) sein soll. Der Computerwoche-Roundtable zum Thema S/4HANA lieferte ein aktualisiertes Bild zum aktuellen Stand der Transformation und lieferte vor allem Erklärungsansätze dafür, warum es doch zäher vorangeht als ursprünglich angenommen. “In den vergangenen Jahren wurden vor allem die kleineren Migrationsprojekte, also die Low Hanging Fruits angegangen”, weiß Peter Büermann von Microsoft. “Jetzt, während die Zeit knapp wird, sind vor allem noch die komplexen Projekte übrig, die selektive Datenmigration erfordern.” Gleichzeitig spürt er eine gewisse Aufbruchsstimmung im Markt: “Die Änderungsdynamik war noch nie so schnell wie jetzt, aber sie wird nie wieder so langsam sein wie heute.” Für ihn hat eine erfolgreiche Migration auch etwas mit stringenter Organisation zu tun: “Bei den besonders erfolgreichen Projekten konnte man schon den Trend beobachten, dass es sich eher um Top-Down-getriebene Entscheidungen handelte. Danach folgt dann das konkrete Transformationsprojekt. Durch die globale Initiative ist es meist leichter, Geschäftseinheiten zusammenzubringen und Synergien beziehungsweise Effizienzen zu heben.” Bei S/4HANA verhält es sich ähnlich wie bei vielen anderen IT-Querschnittsthemen: Transformation ist nicht nur eine technische, sondern auch eine organisatorische Herausforderung. “Eine Transformation erfordert viel Energie und Zeit. Sie bietet aber die Chance, die Prozesswelt durchgängig zu optimieren und effizientere Arbeitsweisen einzuführen”, findet Jürgen Alexander Lehmann von Elfsights. Besonders in hochregulierten Branchen – wie der Finanz- oder Pharmaindustrie – treten komplexe Szenarien auf, bei denen bestehende Systeme nahtlos integriert werden müssen. “SAP-Projekte haben oft große organisatorische Auswirkungen”, stellt auch Steffen Würth von Spirit21 klar. “Ein gescheitertes Projekt kann durchaus einen Job kosten.” Entsprechend hoch sei deswegen auch die Schwelle im Management. Beratungsunternehmen müssen diesen Faktor adressieren. “Die Angst vor HANA zu nehmen, ist zentral. Anwender müssen Vertrauen in den Transformationsprozess gewinnen.” Studie “SAP S/4HANA / Cloud-ERP”: Sie können sich noch beteiligen!Zum Thema SAP S/4HANA / Cloud-ERP führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). Harmonisierung von Prozessen als Erfolgsfaktor Ein wiederkehrendes Thema in der Diskussion ist die Notwendigkeit, nicht nur bestehende Systeme zu ersetzen, sondern auch Geschäftsprozesse grundlegend zu überdenken. Nur durch die Harmonisierung und Standardisierung von Prozessen können Unternehmen die vollen Vorteile von SAP S/4HANA nutzen. Dies erfordert jedoch eine enge Abstimmung zwischen IT-Abteilungen, Geschäftseinheiten und externen Partnern. “Die Herausforderungen beim S/4HANA-Umstieg liegen vor allem in der Revision von Prozessen jenseits aller Technik”, stellt Timo Saltan von USU fest. “Da spielen personelle Aspekte genauso eine Rolle wie organisationale. Insbesondere die Kommunikation ist für die Transformation zentral. Im Transformationsprozess werden Schwachstellen sichtbar, die bisher ignoriert wurden. IT und SAP werden in vielen Unternehmen leider getrennt betrachtet. Das ist gewissermaßen ein ‘Silo im Silo’. Eine Umstellung hat auch spürbare kommerzielle Auswirkungen, weil ERP das gesamte Unternehmen wie ein Gefäß durchzieht.” Neben der Komplexität gibt es allerdings noch so einen Elefanten im (virtuellen) Raum, der vor allem in Zeiten wirtschaftlicher Knappheit hervortritt: Die Kosten seien heute viel häufiger ein Thema, weil Unternehmen bei den Budgets heute genauer hinsehen. “Natürlich wissen wir, dass dieses Projekt mit hohen Kosten verbunden ist, stellt Philipp Rockel klar. “Am Ende des Tages ist es jedoch eine notwendige Investition. Wichtig ist aktiv auf die Interessenten und Kunden zugehen, und das Thema Organizational Change Management (OCM) hervorzuheben. Das spielt bei einer Migration wie dieser eine zentrale Rolle. Die Projektbeteiligten müssen im Tagesgeschäft bis zu 55 Prozent Ihrer Arbeit in das Projekt investieren – je nach Phase, versteht sich – und das über einen langen Zeitraum. Auch das muss vom Management einkalkuliert sein.” Alles in allem alternativlos Trotz der bestehenden Herausforderungen herrscht Konsens bei den Experten, dass es vor allem in den Kernanwendungen kaum eine Alternative gibt. Das Aleinstellungsmerkmal von SAP sein nun mal die tiefe Integration der Lösung in betriebswirtschaftliche Prozesse. Ein Wechsel sei darum, vor allem, wenn ein bestimmter Reifegrad erreicht sei, ein kaum realisierbares Szenario. “SAP bietet speziell im ERP Core eine zuverlässige Stabilität in der Lösung und ist speziell im Medium und Large Enterprise Segment eine gute Option”, stellt Christian Jendreczek von Infopulse klar. In den “LoB-Lösungen” (Lines of Business) gebe es auch durchaus alternative Angebote, wie zum Beispiel im Bereich AI, CoPilot oder ESG. „Hybridlösungen gewinnen an Bedeutung. Unternehmen bleiben in der Regel bei SAP, nutzen aber für spezielle Anwendungen wie CRM auch starke Angebote anderer Anbieter“, findet auch Marielle Verschoor von Informatica. Auch für Philipp Rockel liegt die Zukunft im Mix: “Wir werden in der Cloud einen Best-of-Breed-Ansatz sehen, Stichwort SAP BTP oder auch Azure. Innovationen setzen eine zukunftssichere und skalierbare IT-Landschaft voraus.” Die Realisierung einer solchen Landschaft müsse erste Priorität haben. “Warten hilft da nicht wirklich denn wer nicht mit der Zeit geht, geht mit der Zeit.” Informationen zu den Partner-Paketen der Studie “SAP S/4HANA / Cloud-ERP“ Teilnehmer des Roundtables “SAP S/4HANA / Cloud-ERP” Philipp Rockel, All for One Group: „Die Story hinter der Migration muss vom Management klar sein und das: „Warum machen wir das?“ Die IT-Strategie, abgeleitet aus den Unternehmeszielen, Zuversicht für bestehendes Personal und vor allem die Mehrwerte gilt es hervorzuheben, die damit einhergehen.“ All for One Group SE Jürgen Alexander Lehmann, Elfsights: „Die Transformation geht sehr tief ins Herz des Unternehmens. Es erfordert eine ganzheitliche Sicht auf Prozesse und Organisation sowie ein integriertes Change Management.“ Elfsights GmbH srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?quality=50&strip=all 4199w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Christian Jendreczek, Infopulse: „Ein Transformationsprozess im ERP-Bereich kann sehr umfangreich und komplex sein – je nachdem wie gut die aktuelle ERP-Lösung die Business-Anforderungen abdeckt und welcher Transformationspfad (Grad des Redesigns) gewäht wird.“ Infopulse Europe GmbH srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?quality=50&strip=all 4267w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Marielle Verschoor, Informatica: „S/4HANA ist nur ein Teil des Transformationsprozesses. Wichtiger ist, die gesamten Geschäftsprozesse und Ziele ganzheitlich zu betrachten, um über rein technische Änderungen hinauszugehen.“Informatica GmbH Peter Bueermann, Microsoft: „Bei aller Torschlusspanik muss man aber auch das Positive sehen, nämlich die vielen tausend Unternehmen, die schon erfolgreich zu SAP RISE und in andere SAP-Cloud-Lösungen migriert haben.“ Microsoft Deutschland GmbH Steffen Würth, SPIRIT/21: „Über die Jahre hat sich HANA ständig weiterentwickelt, so dass es eigentlich erst jetzt für komplexe Infrastrukturen geeignet ist.“SPIRIT/21 GmbH Timur Saltan, USU: „Unternehmen, die lange gewartet haben, kommen jetzt in Zugzwang – und müssen mitunter Nachteile in Kauf nehmen. Wer zu spät einsteigt, verliert Credits bei der Anrechnung und muss schnell reagieren, um noch das Beste rauszuholen.“ USU GmbH 

SAP S/4HANA-Umstieg – komplex, aber unausweichlich​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?quality=50&strip=all 1422w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der Pfad in Richtung S/4HANA ist mühsam – wer weiter auf SAP setzen möchte, wird den Weg jedoch gehen müssen.Imageflow / Shutterstock

Auch zehn Jahre nach Release sorgt die ERP-Umstellung auf SAP S/4HANA für ein schlechtes Gewissen in den Hinterköpfen vieler Entscheider, IT-Verantwortlicher und noch viel mehr Beteiligter, als man auf den ersten Blick glauben mag. ERP, respektive Cloud-ERP ist für so viele Rollen und Unternehmen relevant, dass hierin vielleicht schon die Erklärung für den jahrelangen Aufschub liegt: Die eingesetzte ERP-Lösung betrifft in manchen Branchen gerne 60 bis 80 Prozent der Mitarbeitenden. Entsprechend hoch ist die “Transformationsschwelle” vor allem auf organisatorischer Ebene.

Informationen zu den Partner-Paketen der Studie “SAP S/4HANA / Cloud-ERP“

Das ist jedoch nicht die einzige Erklärung dafür, warum vergleichsweise viele Projekte trotz eigentlich “harter” Deadline, also dem End of Life der Vorgänger, nicht angegangen wurden. 

Viele Unternehmen haben die Zeit auch ganz bewusst genutzt, sagt Philipp Rockel von der IT-Beratung All4One: “Warum soll ich – auch rückblickend auf die Pandemie – verfrühte Risiken eingehen, wenn ich auch erstmal beobachten und die Lage sondieren kann?” So ein eher konservatives Vorgehen wäre hierzulande auch nichts ungewöhnliches: “Die Mentalität in Deutschland spielt bei der Beantwortung der Frage ‘warum haben so viele noch nicht migriert?’ definitiv eine Rolle, Stichwort ‘Aufschieberitis’. Das Argument ‘Es ist ja noch Zeit’ war in den vergangenen Jahren nicht unpopulär.” Dabei ginge es aber gar nicht um die Sinnhaftigkeit von Cloud-ERP an sich. Diese sei eher gesetzt. Stattdessen stehen vor allem Details im Vordergrund, zum Beispiel die Beantwortung der Frage, ob es eine Public Cloud (GROW with SAP) oder eine Private Cloud (RISE with SAP) sein soll.

Der Computerwoche-Roundtable zum Thema S/4HANA lieferte ein aktualisiertes Bild zum aktuellen Stand der Transformation und lieferte vor allem Erklärungsansätze dafür, warum es doch zäher vorangeht als ursprünglich angenommen.

“In den vergangenen Jahren wurden vor allem die kleineren Migrationsprojekte, also die Low Hanging Fruits angegangen”, weiß Peter Büermann von Microsoft. “Jetzt, während die Zeit knapp wird, sind vor allem noch die komplexen Projekte übrig, die selektive Datenmigration erfordern.” Gleichzeitig spürt er eine gewisse Aufbruchsstimmung im Markt: “Die Änderungsdynamik war noch nie so schnell wie jetzt, aber sie wird nie wieder so langsam sein wie heute.”

Für ihn hat eine erfolgreiche Migration auch etwas mit stringenter Organisation zu tun:

“Bei den besonders erfolgreichen Projekten konnte man schon den Trend beobachten, dass es sich eher um Top-Down-getriebene Entscheidungen handelte. Danach folgt dann das konkrete Transformationsprojekt. Durch die globale Initiative ist es meist leichter, Geschäftseinheiten zusammenzubringen und Synergien beziehungsweise Effizienzen zu heben.”

Bei S/4HANA verhält es sich ähnlich wie bei vielen anderen IT-Querschnittsthemen: Transformation ist nicht nur eine technische, sondern auch eine organisatorische Herausforderung. “Eine Transformation erfordert viel Energie und Zeit. Sie bietet aber die Chance, die Prozesswelt durchgängig zu optimieren und effizientere Arbeitsweisen einzuführen”, findet Jürgen Alexander Lehmann von Elfsights. Besonders in hochregulierten Branchen – wie der Finanz- oder Pharmaindustrie – treten komplexe Szenarien auf, bei denen bestehende Systeme nahtlos integriert werden müssen.

“SAP-Projekte haben oft große organisatorische Auswirkungen”, stellt auch Steffen Würth von Spirit21 klar. “Ein gescheitertes Projekt kann durchaus einen Job kosten.” Entsprechend hoch sei deswegen auch die Schwelle im Management. Beratungsunternehmen müssen diesen Faktor adressieren. “Die Angst vor HANA zu nehmen, ist zentral. Anwender müssen Vertrauen in den Transformationsprozess gewinnen.”

Studie “SAP S/4HANA / Cloud-ERP”: Sie können sich noch beteiligen!Zum Thema SAP S/4HANA / Cloud-ERP führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

Harmonisierung von Prozessen als Erfolgsfaktor

Ein wiederkehrendes Thema in der Diskussion ist die Notwendigkeit, nicht nur bestehende Systeme zu ersetzen, sondern auch Geschäftsprozesse grundlegend zu überdenken. Nur durch die Harmonisierung und Standardisierung von Prozessen können Unternehmen die vollen Vorteile von SAP S/4HANA nutzen. Dies erfordert jedoch eine enge Abstimmung zwischen IT-Abteilungen, Geschäftseinheiten und externen Partnern.

“Die Herausforderungen beim S/4HANA-Umstieg liegen vor allem in der Revision von Prozessen jenseits aller Technik”, stellt Timo Saltan von USU fest. “Da spielen personelle Aspekte genauso eine Rolle wie organisationale. Insbesondere die Kommunikation ist für die Transformation zentral. Im Transformationsprozess werden Schwachstellen sichtbar, die bisher ignoriert wurden. IT und SAP werden in vielen Unternehmen leider getrennt betrachtet. Das ist gewissermaßen ein ‘Silo im Silo’. Eine Umstellung hat auch spürbare kommerzielle Auswirkungen, weil ERP das gesamte Unternehmen wie ein Gefäß durchzieht.”

Neben der Komplexität gibt es allerdings noch so einen Elefanten im (virtuellen) Raum, der vor allem in Zeiten wirtschaftlicher Knappheit hervortritt: Die Kosten seien heute viel häufiger ein Thema, weil Unternehmen bei den Budgets heute genauer hinsehen. “Natürlich wissen wir, dass dieses Projekt mit hohen Kosten verbunden ist, stellt Philipp Rockel klar. “Am Ende des Tages ist es jedoch eine notwendige Investition. Wichtig ist aktiv auf die Interessenten und Kunden zugehen, und das Thema Organizational Change Management (OCM) hervorzuheben. Das spielt bei einer Migration wie dieser eine zentrale Rolle. Die Projektbeteiligten müssen im Tagesgeschäft bis zu 55 Prozent Ihrer Arbeit in das Projekt investieren – je nach Phase, versteht sich – und das über einen langen Zeitraum. Auch das muss vom Management einkalkuliert sein.”

Alles in allem alternativlos

Trotz der bestehenden Herausforderungen herrscht Konsens bei den Experten, dass es vor allem in den Kernanwendungen kaum eine Alternative gibt. Das Aleinstellungsmerkmal von SAP sein nun mal die tiefe Integration der Lösung in betriebswirtschaftliche Prozesse.

Ein Wechsel sei darum, vor allem, wenn ein bestimmter Reifegrad erreicht sei, ein kaum realisierbares Szenario.

“SAP bietet speziell im ERP Core eine zuverlässige Stabilität in der Lösung und ist speziell im Medium und Large Enterprise Segment eine gute Option”, stellt Christian Jendreczek von Infopulse klar. In den “LoB-Lösungen” (Lines of Business) gebe es auch durchaus alternative Angebote, wie zum Beispiel im Bereich AI, CoPilot oder ESG.

„Hybridlösungen gewinnen an Bedeutung. Unternehmen bleiben in der Regel bei SAP, nutzen aber für spezielle Anwendungen wie CRM auch starke Angebote anderer Anbieter“, findet auch Marielle Verschoor von Informatica.

Auch für Philipp Rockel liegt die Zukunft im Mix: “Wir werden in der Cloud einen Best-of-Breed-Ansatz sehen, Stichwort SAP BTP oder auch Azure. Innovationen setzen eine zukunftssichere und skalierbare IT-Landschaft voraus.” Die Realisierung einer solchen Landschaft müsse erste Priorität haben. “Warten hilft da nicht wirklich denn wer nicht mit der Zeit geht, geht mit der Zeit.”

Informationen zu den Partner-Paketen der Studie “SAP S/4HANA / Cloud-ERP“

Teilnehmer des Roundtables “SAP S/4HANA / Cloud-ERP”

Philipp Rockel, All for One Group:
„Die Story hinter der Migration muss vom Management klar sein und das: „Warum machen wir das?“ Die IT-Strategie, abgeleitet aus den Unternehmeszielen, Zuversicht für bestehendes Personal und vor allem die Mehrwerte gilt es hervorzuheben, die damit einhergehen.“
All for One Group SE

Jürgen Alexander Lehmann, Elfsights:
„Die Transformation geht sehr tief ins Herz des Unternehmens. Es erfordert eine ganzheitliche Sicht auf Prozesse und Organisation sowie ein integriertes Change Management.“
Elfsights GmbH

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?quality=50&strip=all 4199w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Christian Jendreczek, Infopulse:
„Ein Transformationsprozess im ERP-Bereich kann sehr umfangreich und komplex sein – je nachdem wie gut die aktuelle ERP-Lösung die Business-Anforderungen abdeckt und welcher Transformationspfad (Grad des Redesigns) gewäht wird.“
Infopulse Europe GmbH

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?quality=50&strip=all 4267w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Marielle Verschoor, Informatica: „S/4HANA ist nur ein Teil des Transformationsprozesses. Wichtiger ist, die gesamten Geschäftsprozesse und Ziele ganzheitlich zu betrachten, um über rein technische Änderungen hinauszugehen.“Informatica GmbH

Peter Bueermann, Microsoft:
„Bei aller Torschlusspanik muss man aber auch das Positive sehen, nämlich die vielen tausend Unternehmen, die schon erfolgreich zu SAP RISE und in andere SAP-Cloud-Lösungen migriert haben.“
Microsoft Deutschland GmbH

Steffen Würth, SPIRIT/21: „Über die Jahre hat sich HANA ständig weiterentwickelt, so dass es eigentlich erst jetzt für komplexe Infrastrukturen geeignet ist.“SPIRIT/21 GmbH

Timur Saltan, USU:
„Unternehmen, die lange gewartet haben, kommen jetzt in Zugzwang – und müssen mitunter Nachteile in Kauf nehmen. Wer zu spät einsteigt, verliert Credits bei der Anrechnung und muss schnell reagieren, um noch das Beste rauszuholen.“
USU GmbH

SAP S/4HANA-Umstieg – komplex, aber unausweichlich​ Weiterlesen »

So gehen GenAI und Datenschutz zusammen​

Allgemein

Generative künstliche Intelligenz und Datenschutz müssen sich nicht ausschließen – im Gegenteil.Chizhevskaya Ekaterina | shutterstock.com Für Unternehmen, die sich die Performanz von Large Language Models (LLMs) zunutze machen möchten, dabei aber hohe Ansprüche an Datenschutz und-sicherheit haben, entwickelt sich Federated Learning zurzeit zu einem bahnbrechenden Ansatz. Statt sensible Daten an einen KI-Anbieter zu übermitteln oder auf isolierte Small Language Models (SLMs) zu setzen, ermöglicht ein Federated-Learning-Ansatz, KI-Modelle mit spezifischen Datensätzen zu trainieren – die dabei dort bleiben, wo sie sind. Die damit einhergehende, enge Integration von privaten Unternehmensdaten und ausgefeilten LLM-Funktionen ermöglicht  Unternehmen, ihre proprietären Informationen und ihr umfassendes Wissen mit Modellen wie GPT-4 oder Google Gemini zu nutzen – ohne dabei den Datenschutz zu gefährden. In diesem Artikel werfen wir einen Blick auf die Vorteile, die sich mit einem Federated-Learning-Ansatz für KI-Systeme verwirklichen lassen – und darauf, wie Sie das idealerweise angehen. Föderierte Benefits Ein föderierter KI-Ansatz bietet erhebliche Kostenvorteile: Organisationen können auf die vorhandenen Cloud-Ressourcen zurückgreifen, die ihre Daten bereits enthalten – statt eine separate KI-Infrastruktur aufbauen und umfangreiche Datenmigrationen bezahlen zu müssen. Neue Frameworks ermöglichen zudem, Edge-basierte SLMs und Cloud-basierte LLMs nahtlos zu integrieren. Das schafft eine hybride Architektur, die den Nutzen maximiert und parallel die Risiken minimiert. Besonders wertvoll ist ein solcher Ansatz für Unternehmen und Organisationen, die mit sensiblen Daten arbeiten oder bestimmte Regularien einhalten müssen. Darüber hinaus ist ein föderierter KI-Ansatz aber auch aus architektonischer Perspektive einfacher und somit schneller realisierbar. Zudem ermöglicht er auch mehr LLM-Optionen: In diesem Ansatz können Sie auch Modelle nutzen, die nicht Teil Ihres Ökosystems sind, aber möglicherweise besser zu Ihrer Anwendung passen. Dabei könnte es sich zum Beispiel um branchenspezifische Modelle handeln, die zunehmend populärer werden. Meiner Einschätzung nach ist Federated Learning angesichts der damit einhergehenden architektonischen und finanziellen Vorteile auf dem besten Weg, sich zum neuen Standard-Ansatz zu entwickeln, wenn es darum geht, Generative AI im Unternehmen zu implementieren. Federated-Learning-Roadmap für KI Der Weg zum föderierten Lernen beginnt damit, Ihre Datenlandschaft gründlich zu durchblicken. Starten Sie mit einem umfassenden Assessment darüber, wo sich Ihre Daten befinden, wie sie gemanagt werden, und wie sich die Datenflüsse innerhalb der Organisation gestalten. Diese Grundlage gibt Aufschluss über die potenziellen Integrationspunkte für Federated-Learning-Systeme und deckt Infrastrukturlücken auf. Die technische Vorarbeit erfordert ebenfalls viel Liebe zum Detail. Ihre Organisation benötigt: standardisierte Data-Labeling-Prozesse, robuste Edge-Computing-Funktionen (bei Bedarf), sowie zuverlässige Connectivity zwischen den Datenquellen. In diesem Zuge sollten Sie auch Testing-Umgebungen erstellen, die Ihre Datenverteilung in der Produktion möglichst exakt widerspiegeln. Ebenso wichtig für den Erfolg einer solchen Initiative: die Readiness innerhalb der Organisation. Stellen Sie Teams zusammen, die Datenwissenschaftler, Sicherheits- und Fachexperten zusammenbringen. Diese funktionsübergreifenden Teams sollten gemeinschaftlich ein Governance-Framework und Erfolgsmetriken zu definieren. Dabei sollten Sie auch daran denken, Data-Sharing-Vereinbarungen zwischen den Abteilungen aufzusetzen. Die sind essenziell dafür, dass der Federated-Learning-Ansatz effektiv funktioniert. Geht es dann an die Umsetzung, empfiehlt es sich, klein anzufangen. Identifizieren Sie abgeschlossene Use Cases, die als Pilotprojekt in Frage kommen und wählen Sie Technologiepartner aus, die Ihre spezifischen Bedürfnisse verstehen. Definieren Sie klare Erfolgskriterien für diese ersten Projekte und schaffen Sie ein robustes Monitoring, um jederzeit im Blick zu haben, wie es um den Fortschritt steht. Das Ziel besteht dabei nicht darin, sich kopfüber in komplexe, föderierte Lernsysteme zu stürzen, sondern eine solide Grundlage dafür zu schaffen, die künftige KI-Infrastruktur Ihres Unternehmens zu unterstützen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So gehen GenAI und Datenschutz zusammen​ Generative künstliche Intelligenz und Datenschutz müssen sich nicht ausschließen – im Gegenteil.Chizhevskaya Ekaterina | shutterstock.com

Für Unternehmen, die sich die Performanz von Large Language Models (LLMs) zunutze machen möchten, dabei aber hohe Ansprüche an Datenschutz und-sicherheit haben, entwickelt sich Federated Learning zurzeit zu einem bahnbrechenden Ansatz. Statt sensible Daten an einen KI-Anbieter zu übermitteln oder auf isolierte Small Language Models (SLMs) zu setzen, ermöglicht ein Federated-Learning-Ansatz, KI-Modelle mit spezifischen Datensätzen zu trainieren – die dabei dort bleiben, wo sie sind.

Die damit einhergehende, enge Integration von privaten Unternehmensdaten und ausgefeilten LLM-Funktionen ermöglicht  Unternehmen, ihre proprietären Informationen und ihr umfassendes Wissen mit Modellen wie GPT-4 oder Google Gemini zu nutzen – ohne dabei den Datenschutz zu gefährden.

In diesem Artikel werfen wir einen Blick auf die Vorteile, die sich mit einem Federated-Learning-Ansatz für KI-Systeme verwirklichen lassen – und darauf, wie Sie das idealerweise angehen.

Föderierte Benefits

Ein föderierter KI-Ansatz bietet erhebliche Kostenvorteile: Organisationen können auf die vorhandenen Cloud-Ressourcen zurückgreifen, die ihre Daten bereits enthalten – statt eine separate KI-Infrastruktur aufbauen und umfangreiche Datenmigrationen bezahlen zu müssen.

Neue Frameworks ermöglichen zudem, Edge-basierte SLMs und Cloud-basierte LLMs nahtlos zu integrieren. Das schafft eine hybride Architektur, die den Nutzen maximiert und parallel die Risiken minimiert. Besonders wertvoll ist ein solcher Ansatz für Unternehmen und Organisationen, die mit sensiblen Daten arbeiten oder bestimmte Regularien einhalten müssen. Darüber hinaus ist ein föderierter KI-Ansatz aber auch aus architektonischer Perspektive einfacher und somit schneller realisierbar.

Zudem ermöglicht er auch mehr LLM-Optionen: In diesem Ansatz können Sie auch Modelle nutzen, die nicht Teil Ihres Ökosystems sind, aber möglicherweise besser zu Ihrer Anwendung passen. Dabei könnte es sich zum Beispiel um branchenspezifische Modelle handeln, die zunehmend populärer werden.

Meiner Einschätzung nach ist Federated Learning angesichts der damit einhergehenden architektonischen und finanziellen Vorteile auf dem besten Weg, sich zum neuen Standard-Ansatz zu entwickeln, wenn es darum geht, Generative AI im Unternehmen zu implementieren.

Federated-Learning-Roadmap für KI

Der Weg zum föderierten Lernen beginnt damit, Ihre Datenlandschaft gründlich zu durchblicken. Starten Sie mit einem umfassenden Assessment darüber,

wo sich Ihre Daten befinden,

wie sie gemanagt werden, und

wie sich die Datenflüsse innerhalb der Organisation gestalten.

Diese Grundlage gibt Aufschluss über die potenziellen Integrationspunkte für Federated-Learning-Systeme und deckt Infrastrukturlücken auf.

Die technische Vorarbeit erfordert ebenfalls viel Liebe zum Detail. Ihre Organisation benötigt:

standardisierte Data-Labeling-Prozesse,

robuste Edge-Computing-Funktionen (bei Bedarf), sowie

zuverlässige Connectivity zwischen den Datenquellen.

In diesem Zuge sollten Sie auch Testing-Umgebungen erstellen, die Ihre Datenverteilung in der Produktion möglichst exakt widerspiegeln.

Ebenso wichtig für den Erfolg einer solchen Initiative: die Readiness innerhalb der Organisation. Stellen Sie Teams zusammen, die Datenwissenschaftler, Sicherheits- und Fachexperten zusammenbringen. Diese funktionsübergreifenden Teams sollten gemeinschaftlich ein Governance-Framework und Erfolgsmetriken zu definieren. Dabei sollten Sie auch daran denken, Data-Sharing-Vereinbarungen zwischen den Abteilungen aufzusetzen. Die sind essenziell dafür, dass der Federated-Learning-Ansatz effektiv funktioniert.

Geht es dann an die Umsetzung, empfiehlt es sich, klein anzufangen. Identifizieren Sie abgeschlossene Use Cases, die als Pilotprojekt in Frage kommen und wählen Sie Technologiepartner aus, die Ihre spezifischen Bedürfnisse verstehen. Definieren Sie klare Erfolgskriterien für diese ersten Projekte und schaffen Sie ein robustes Monitoring, um jederzeit im Blick zu haben, wie es um den Fortschritt steht.

Das Ziel besteht dabei nicht darin, sich kopfüber in komplexe, föderierte Lernsysteme zu stürzen, sondern eine solide Grundlage dafür zu schaffen, die künftige KI-Infrastruktur Ihres Unternehmens zu unterstützen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So gehen GenAI und Datenschutz zusammen​ Weiterlesen »

KI vor dem Sprung auf das nächste Level​

Allgemein

KI hat viel versprochen. Doch um die Werte zu heben, die in der Technik stecken, braucht es noch einige Grundlagenarbeit. Shutterstock/HighDispersion Der KI-Einsatz in Organisationen befindet sich im deutschsprachigen Raum in einer entscheidenden Phase: Unternehmen muss es gelingen, vom Proof of Concept auf echte KI-Projekte umzusteigen, die den Wertbeitrag zeigen und so die Transformation verstetigen. Zwar naht das Tal der Tränen im Hype Cycle von Gartner, und auch die Wirtschaftskrise passt irgendwie nicht in den Zeitplan. Aber zumindest sind die grundsätzlichen Rahmenbedingungen intakt, wie eine aktuelle Befragung unterstreicht. Große Bedeutung, große Investitionen Laut der Studie „AI-ready Enterprise“ der COMPUTERWOCHE stehen die KI-Ampeln in vielen grundlegenden Fragen auf grün. So ist nur jede siebte befragte Person der Ansicht, dass KI kaum oder keine Relevanz für ihr Unternehmen hat. Das gleiche Bild bei der Frage in Bezug auf Investitionen: Hier räumen gerade einmal elf Prozent der KI eine niedrige bis keine Priorität ein. Mit der Folge, dass sich die Budgets für KI-Projekte durchaus sehen lassen können. Der COMPUTERWOCHE-Studie zufolge gehen fast 57 Prozent der befragten Unternehmen davon aus, dass ihre KI-Budgets im Jahr 2025 stark oder sehr stark steigen werden, also um mindestens fünf beziehungsweise zehn Prozent. Christian Heinrichs, Senior Director, Sales Engineering bei UiPath, bezeichnet es als wichtigste Erkenntnis der Untersuchung, dass „Unternehmen trotz wirtschaftlicher Herausforderungen weiterhin in KI investieren und sie als kritischen Bestandteil zukünftiger Geschäftsmodelle betrachten“. Der Anteil der Firmen, die mit sinkenden KI-Budgets rechnen, beträgt laut Studie nur knapp vier Prozent. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5LyDXcO77nKawkSI41MMIo?utm_source=oembed”> KI-Budgets wachsen – aber nicht in den Himmel Verglichen mit der Befragung aus dem Vorjahr, sind die Investitionsaussichten zwar leicht zurückgegangen – hier schlägt die schlechte Konjunktur zu Buche. „Erstaunlich ist jedoch, dass über zehn Prozent der Studienteilnehmer immer noch keine konkreten Budgets für KI-Projekte zugewiesen haben“, sagt Max Pillong, Business Director Artificial Intelligence & Data Analytics bei Lufthansa Industry Solutions. „Ohne die notwendigen Investitionen werden Unternehmen das Thema KI nicht durchdringen können – schließlich geht es nicht um die Einführung einer neuen Software, sondern um ein ganzheitliches Neudenken unserer Art und Weise zu arbeiten.“ Max Pillong, Business Director Artificial Intelligence & Data Analytics, Lufthansa Industry Solutions: „Unternehmen müssen erkennen, dass KI ein unverzichtbarer Teil unserer zukünftigen Arbeitsweise ist. Nicht zuletzt durch den bevorstehenden Generationswechsel in der Arbeitswelt werden neue Technologien immer wichtiger. Ein Unternehmen, das den Einsatz von generativer KI zur Unterstützung des Arbeitsalltags nicht ermöglicht oder gar verbietet, wird in Zukunft weder wettbewerbsfähig noch ein attraktiver Arbeitgeber sein. Dies lässt sich zwar schwer in eine konkrete Return-on-Investment-Rechnung übersetzen, sollte aber Signal genug sein, diese spannende Technologie trotzdem einzuführen.” Jörg Meisinger / Lufthansa Industry Solutions GmbH & Co. KG Durchwachsener Reifegrad für KI Auch die grundsätzliche AI-Readiness von Unternehmen habe laut Pillong noch Luft nach oben, da hiesige Firmen selten als First Mover oder Early Adopter von KI-Technologien unterwegs seien. „Die Gründe liegen meiner Meinung nach an einer gewissen Skepsis im Management, aber auch an regulatorischen Hürden bei der Einführung neuer Technologien.“ Er empfiehlt für den Weg zur AI-Readiness die Entwicklung von Commodity-AI-Tools, beispielsweise ein „EnterpriseGPT“ mit Zugriff auf interne Daten. Unternehmen können laut Pillong auf diese Weise „erste Erfahrungen mit dem Betrieb der Use Cases und der dafür notwendigen Infrastruktur sammeln, die Erwartungshaltung der Nutzer schärfen und die AI Literacy der Mitarbeitenden im praktischen Einsatz verbessern“. Generative KI einführen: Daran scheitern GenAI-Rollouts Vom Probieren zum Use Case Die COMPUTERWOCHE-Studie zeigt bezüglich der Selbstbewertung des Status quo von KI-Vorhaben ebenfalls ein durchmischtes Bild. Über den Daumen gepeilt, arbeitet eine Hälfte der Befragten noch an der KI-Awareness sowie an ersten Pilotprojekten. Die andere Hälfte verortet sich zu gleichen Teilen in der Scale-Up-Phase sowie im unternehmensweiten Roll-Out beziehungsweise produktiven Einsatz von KI-Modulen. Hier gilt das IT-Organisations-Paradigma: Größer ist tendenziell weiter. Christian Heinrichs, Senior Director, Sales Engineering, UiPath: „Die Regulierungsanforderungen für KI-Tools etwa in Bezug auf DORA, den AI Act oder den Datenschutz sollten weit oben auf der Anforderungsliste eines jeden Unternehmens stehen. Darüber hinaus sind auch die Interoperabilität und Integration von KI-Tools mit anderen Anwendungen eine Schlüsselanforderung, um den maximalen Nutzen zu erzielen. Eine Softwareplattform, die neben eigenen Agentic AI Tools auch Funktionalitäten, wie Prozessanalyse & -automatisierung, Ideen-Management, Communications Mining oder Intelligent Document Processing umfasst, sollte sich möglichst anbieteragnostisch mit Software anderer Anbieter verknüpfen lassen. So können Sparpotenziale und Umsatzsteigerungen realisiert werden, ohne die Governance zu vernachlässigen.” UiPath GmbH Strukturen und Fachwissen aufbauen UiPath-Manager Heinrichs sieht folglich noch Herausforderungen für die AI-Readiness. Zwar hätten einige Unternehmen bereits KI-Projekte initiiert und die Bedeutung für ihre Zukunft erkannt. „Allerdings gibt es noch große Lücken, insbesondere in Bezug auf Datenökosysteme, IT-Infrastruktur und notwendige Expertise.“ Der letzte Punkt – fehlendes KI-Fachwissen – kam auch in der Studie deutlich ans Licht, er gilt als einer der stärksten Bremsfaktoren. Neben Investitionen in Dateninfrastruktur und -management empfiehlt Heinrichs, die Strategie für KI und Prozessautomatisierung auf die Geschäftsziele auszurichten und KI-spezifisches Fachwissen aufzubauen – intern sowie über externe Partnerschaften. „Zudem müssen auch alle Mitarbeiter in die Ideenfindung und KI-Anwendung eingebunden werden.“ Business, IT und KI im Einklang Neben der finanziellen Ausstattung und der Fähigkeit, das Momentum für die KI-Transformation umzusetzen, gibt es noch eine weitere Hürde: das Alignment von Business und IT. Denn funktionierende KI-Anwendungsfälle sind auf ein harmonisches Zusammenspiel der Einheiten angewiesen. „Sowohl die notwendige Infrastruktur als auch die potenziellen Use Cases erfordern ein unternehmensweites Umdenken darüber, wie wir Daten vorhalten, Prozesse dokumentieren oder mit virtuellen Assistenzsystemen interagieren“, sagt KI-Experte Pillong von Lufthansa Industry Solutions. Die Anwendungsfälle selbst sollten daher immer in enger Zusammenarbeit zwischen IT und Fachbereich entstehen, um auch wirklich sinnvolle Lösungen zu schaffen. „So erarbeiten sich IT-Organisationen im Unternehmen einen größeren Stellenwert.“ Bis es so weit ist, müssen die Budgetanforderungen der KI mit der restlichen Nachfrage konkurrieren. „Wie Unternehmen hier die Trennung hinbekommen und ob es mittelfristig noch eine Trennung gibt, bleibt abzuwarten“, merkt UiPath-Manager Heinrichs an. Zumal jede KI auch Software ist und jeder Software-Service über kurz oder lang auch aus KI-Komponenten bestehen werde. Eine positive Überraschung sei jedenfalls, dass fast zwei Drittel der befragten Organisationen in der Studie mit ihren ersten KI-Initiativen grundsätzlich zufrieden sind. „Jedoch erwarten die meisten Firmen nun Ergebnisse, die den bisherigen Hype und die damit verbundenen Hoffnungen rechtfertigen.“ Die neue Studie “AI-ready Enterprise 2024” von CIO Research Services Research Services: Daniela Petrini Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: NICE Systems GmbH; Lufthansa Industry Solutions GmbH & Co. KG; UiPath GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 313 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 12. bis 19. September 2024 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

KI vor dem Sprung auf das nächste Level​ KI hat viel versprochen. Doch um die Werte zu heben, die in der Technik stecken, braucht es noch einige Grundlagenarbeit. Shutterstock/HighDispersion

Der KI-Einsatz in Organisationen befindet sich im deutschsprachigen Raum in einer entscheidenden Phase: Unternehmen muss es gelingen, vom Proof of Concept auf echte KI-Projekte umzusteigen, die den Wertbeitrag zeigen und so die Transformation verstetigen. Zwar naht das Tal der Tränen im Hype Cycle von Gartner, und auch die Wirtschaftskrise passt irgendwie nicht in den Zeitplan. Aber zumindest sind die grundsätzlichen Rahmenbedingungen intakt, wie eine aktuelle Befragung unterstreicht.

Große Bedeutung, große Investitionen

Laut der Studie „AI-ready Enterprise“ der COMPUTERWOCHE stehen die KI-Ampeln in vielen grundlegenden Fragen auf grün. So ist nur jede siebte befragte Person der Ansicht, dass KI kaum oder keine Relevanz für ihr Unternehmen hat. Das gleiche Bild bei der Frage in Bezug auf Investitionen: Hier räumen gerade einmal elf Prozent der KI eine niedrige bis keine Priorität ein. Mit der Folge, dass sich die Budgets für KI-Projekte durchaus sehen lassen können.

Der COMPUTERWOCHE-Studie zufolge gehen fast 57 Prozent der befragten Unternehmen davon aus, dass ihre KI-Budgets im Jahr 2025 stark oder sehr stark steigen werden, also um mindestens fünf beziehungsweise zehn Prozent. Christian Heinrichs, Senior Director, Sales Engineering bei UiPath, bezeichnet es als wichtigste Erkenntnis der Untersuchung, dass „Unternehmen trotz wirtschaftlicher Herausforderungen weiterhin in KI investieren und sie als kritischen Bestandteil zukünftiger Geschäftsmodelle betrachten“. Der Anteil der Firmen, die mit sinkenden KI-Budgets rechnen, beträgt laut Studie nur knapp vier Prozent.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5LyDXcO77nKawkSI41MMIo?utm_source=oembed”>

KI-Budgets wachsen – aber nicht in den Himmel

Verglichen mit der Befragung aus dem Vorjahr, sind die Investitionsaussichten zwar leicht zurückgegangen – hier schlägt die schlechte Konjunktur zu Buche. „Erstaunlich ist jedoch, dass über zehn Prozent der Studienteilnehmer immer noch keine konkreten Budgets für KI-Projekte zugewiesen haben“, sagt Max Pillong, Business Director Artificial Intelligence & Data Analytics bei Lufthansa Industry Solutions. „Ohne die notwendigen Investitionen werden Unternehmen das Thema KI nicht durchdringen können – schließlich geht es nicht um die Einführung einer neuen Software, sondern um ein ganzheitliches Neudenken unserer Art und Weise zu arbeiten.“

Max Pillong, Business Director Artificial Intelligence & Data Analytics, Lufthansa Industry Solutions:
„Unternehmen müssen erkennen, dass KI ein unverzichtbarer Teil unserer zukünftigen Arbeitsweise ist. Nicht zuletzt durch den bevorstehenden Generationswechsel in der Arbeitswelt werden neue Technologien immer wichtiger. Ein Unternehmen, das den Einsatz von generativer KI zur Unterstützung des Arbeitsalltags nicht ermöglicht oder gar verbietet, wird in Zukunft weder wettbewerbsfähig noch ein attraktiver Arbeitgeber sein. Dies lässt sich zwar schwer in eine konkrete Return-on-Investment-Rechnung übersetzen, sollte aber Signal genug sein, diese spannende Technologie trotzdem einzuführen.”
Jörg Meisinger / Lufthansa Industry Solutions GmbH & Co. KG

Durchwachsener Reifegrad für KI

Auch die grundsätzliche AI-Readiness von Unternehmen habe laut Pillong noch Luft nach oben, da hiesige Firmen selten als First Mover oder Early Adopter von KI-Technologien unterwegs seien. „Die Gründe liegen meiner Meinung nach an einer gewissen Skepsis im Management, aber auch an regulatorischen Hürden bei der Einführung neuer Technologien.“ Er empfiehlt für den Weg zur AI-Readiness die Entwicklung von Commodity-AI-Tools, beispielsweise ein „EnterpriseGPT“ mit Zugriff auf interne Daten. Unternehmen können laut Pillong auf diese Weise „erste Erfahrungen mit dem Betrieb der Use Cases und der dafür notwendigen Infrastruktur sammeln, die Erwartungshaltung der Nutzer schärfen und die AI Literacy der Mitarbeitenden im praktischen Einsatz verbessern“.

Generative KI einführen: Daran scheitern GenAI-Rollouts

Vom Probieren zum Use Case

Die COMPUTERWOCHE-Studie zeigt bezüglich der Selbstbewertung des Status quo von KI-Vorhaben ebenfalls ein durchmischtes Bild. Über den Daumen gepeilt, arbeitet eine Hälfte der Befragten noch an der KI-Awareness sowie an ersten Pilotprojekten. Die andere Hälfte verortet sich zu gleichen Teilen in der Scale-Up-Phase sowie im unternehmensweiten Roll-Out beziehungsweise produktiven Einsatz von KI-Modulen. Hier gilt das IT-Organisations-Paradigma: Größer ist tendenziell weiter.

Christian Heinrichs, Senior Director, Sales Engineering, UiPath:
„Die Regulierungsanforderungen für KI-Tools etwa in Bezug auf DORA, den AI Act oder den Datenschutz sollten weit oben auf der Anforderungsliste eines jeden Unternehmens stehen. Darüber hinaus sind auch die Interoperabilität und Integration von KI-Tools mit anderen Anwendungen eine Schlüsselanforderung, um den maximalen Nutzen zu erzielen. Eine Softwareplattform, die neben eigenen Agentic AI Tools auch Funktionalitäten, wie Prozessanalyse & -automatisierung, Ideen-Management, Communications Mining oder Intelligent Document Processing umfasst, sollte sich möglichst anbieteragnostisch mit Software anderer Anbieter verknüpfen lassen. So können Sparpotenziale und Umsatzsteigerungen realisiert werden, ohne die Governance zu vernachlässigen.”
UiPath GmbH

Strukturen und Fachwissen aufbauen

UiPath-Manager Heinrichs sieht folglich noch Herausforderungen für die AI-Readiness. Zwar hätten einige Unternehmen bereits KI-Projekte initiiert und die Bedeutung für ihre Zukunft erkannt. „Allerdings gibt es noch große Lücken, insbesondere in Bezug auf Datenökosysteme, IT-Infrastruktur und notwendige Expertise.“ Der letzte Punkt – fehlendes KI-Fachwissen – kam auch in der Studie deutlich ans Licht, er gilt als einer der stärksten Bremsfaktoren.

Neben Investitionen in Dateninfrastruktur und -management empfiehlt Heinrichs, die Strategie für KI und Prozessautomatisierung auf die Geschäftsziele auszurichten und KI-spezifisches Fachwissen aufzubauen – intern sowie über externe Partnerschaften. „Zudem müssen auch alle Mitarbeiter in die Ideenfindung und KI-Anwendung eingebunden werden.“

Business, IT und KI im Einklang

Neben der finanziellen Ausstattung und der Fähigkeit, das Momentum für die KI-Transformation umzusetzen, gibt es noch eine weitere Hürde: das Alignment von Business und IT. Denn funktionierende KI-Anwendungsfälle sind auf ein harmonisches Zusammenspiel der Einheiten angewiesen. „Sowohl die notwendige Infrastruktur als auch die potenziellen Use Cases erfordern ein unternehmensweites Umdenken darüber, wie wir Daten vorhalten, Prozesse dokumentieren oder mit virtuellen Assistenzsystemen interagieren“, sagt KI-Experte Pillong von Lufthansa Industry Solutions. Die Anwendungsfälle selbst sollten daher immer in enger Zusammenarbeit zwischen IT und Fachbereich entstehen, um auch wirklich sinnvolle Lösungen zu schaffen. „So erarbeiten sich IT-Organisationen im Unternehmen einen größeren Stellenwert.“

Bis es so weit ist, müssen die Budgetanforderungen der KI mit der restlichen Nachfrage konkurrieren. „Wie Unternehmen hier die Trennung hinbekommen und ob es mittelfristig noch eine Trennung gibt, bleibt abzuwarten“, merkt UiPath-Manager Heinrichs an. Zumal jede KI auch Software ist und jeder Software-Service über kurz oder lang auch aus KI-Komponenten bestehen werde. Eine positive Überraschung sei jedenfalls, dass fast zwei Drittel der befragten Organisationen in der Studie mit ihren ersten KI-Initiativen grundsätzlich zufrieden sind. „Jedoch erwarten die meisten Firmen nun Ergebnisse, die den bisherigen Hype und die damit verbundenen Hoffnungen rechtfertigen.“

Die neue Studie “AI-ready Enterprise 2024” von CIO Research Services
Research Services: Daniela Petrini

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: NICE Systems GmbH; Lufthansa Industry Solutions GmbH & Co. KG; UiPath GmbH

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 313 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 12. bis 19. September 2024

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

KI vor dem Sprung auf das nächste Level​ Weiterlesen »

Neue Alibaba-KI stellt DeepSeek-V3 in den Schatten​

Allgemein

Nach DeepSeek hat nun auch Alibaba KI-Geist aus der Flasche gelassen.Mojahid Mottakin/Shutterstock Die chinesische Alibaba Group hat eine verbesserte Version ihres KI-Modells Qwen 2.5 auf den Markt gebracht, das angeblich die LLMs (Large Language Models) von DeepSeek, OpenAI und Meta in den Schatten stellt. „Qwen 2.5-Max übertrifft […] fast durchweg GPT-4o, DeepSeek-V3 und Llama-3.1-405B“, verkündet die Cloud-Einheit von Alibaba per WeChat, wie Reuters berichtet.  Auf seiner GitHub-Seite zeigt das Unternehmen Benchmarking-Ergebnisse, die darauf hindeuten, dass seine Instruktionsmodelle – die für Aufgaben wie Chat und Programmierung entwickelt wurden – GPT-4o, DeepSeek-V3 und Llama-3.1-405B meist übertrafen, während sie eine vergleichbare Leistung wie Claude 3.5-Sonnet erbrachten.  Die Vorstellung kommt kurz nach dem bahnbrechenden Markteintritt von DeepSeek, also dem Debüt seines KI-Assistenten auf Basis des DeepSeek-V3-Modells am 10. Januar und der Veröffentlichung seines Open-Source-R1-Modells am 20. Januar.  Der Umstand, dass Training des V3-Modells (angeblich) nur 5,6 Millionen Dollar kostete, verglichen mit den geschätzten 78 Millionen Dollar bei OpenAI für GPT-4o, versetzte das Silicon Valley in Schockstarre, schickte die Technologieaktien auf Talfahrt und veranlasste die Investoren dazu, die Nachhaltigkeit des auf hohen Ausgaben basierenden Ansatzes der großen US-KI-Firmen in Frage zu stellen.  Chinas KI-Wettlauf heizt sich auf  Dass nun kurz darauf auch Alibaba ein verbessertes LLM vorstellt, noch dazu während der Feiertage zum chinesischen Neujahresfest, unterstreicht den wachsenden Wettbewerbsdruck, der durch DeepSeeks Vorstoß entstanden ist. Diesen spüren augenscheinlich nicht nur westliche Akteure, sondern auch chinesischen Technologieunternehmen.  „Der KI-Modellkrieg ist nicht mehr nur ein Kampf zwischen China und den USA – auch der Wettbewerb innerhalb Chinas verschärft sich, da Unternehmen wie DeepSeek, Alibaba und andere ihre Modelle innovieren und optimieren, um einen großen Inlandsmarkt zu bedienen“, erklärt Neil Shah, Partner und Mitbegründer von Counterpoint Research. Er ergänzt: „Chinesische Unternehmen werden aufgrund von Ressourcenbeschränkungen, einschließlich des begrenzten Zugangs zu den fortschrittlichsten Halbleitern, globalen Daten, Tools, Infrastrukturen und Zielgruppen, zu weiteren Innovationen gedrängt.“  Der Wettlauf um sparsame KI  Diese Entwicklung spiele den Entscheidern in Unternehmen in die Hände und erhöhe den Preisdruck auf KI-Anwendungen, die mit teureren Modellen erstellt wurden, so Shah weiter. “Solche Durchbrüche werden Unternehmen dazu zwingen, die Wirtschaftlichkeit von KI-Investitionen und ihre Wahl von Modellen und Anbietern zu überdenken oder zumindest zu überdenken“, prognostiziert der Analyst.  DeepSeek treibt unmittelbare Preisüberlegungen in zwei Schlüsselbereichen der KI voran:  die Kosten für Roh-Token und   die Ausgaben für die Modellentwicklung.   Diese Faktoren könnten KI-Unternehmen weltweit dazu zwingen, die Optimierung ihrer Modelle in Betracht zu ziehen, um wettbewerbsfähig zu bleiben. „Der Erfolg von DeepSeek unterstreicht auch die Leistungsfähigkeit von Open Source und stärkt das Argument, dass quelloffene KI-Lösungen mittelfristig zu einem dominierenden Marktsegment werden könnten“, erklärt Hyoun Park, CEO und Chefanalyst bei Amalgam Insights. “Wenn das geschieht, könnten Unternehmen mit starken Open-Source-Geschäftsmodellen– wie IBM Red Hat und Canonical – einspringen und KI-bezogene Managed Services schnell skalieren.“  Der geopolitische Vorteil bleibt – etwas  Die Geopolitik bleibt ein Joker für westliche KI-Firmen, der den Markt möglicherweise zu ihren Gunsten kippen lässt, indem er die Übernahme chinesischer Modelle in bestimmten Regionen einschränkt. Gleichzeitig wird China wahrscheinlich die Kontrollen für die Nutzung westlicher KI-Modelle verschärfen, was die Einschränkungen widerspiegelt, die bei anderen technischen Anwendungen zu beobachten sind.  Unternehmen sollten zunächst prüfen, ob diese Modelle den globalen Datenschutz- und Regulierungsstandards entsprechen, bevor sie sie in großem Umfang einsetzen, bremst IDC-Analyst Sharath Srinivasamurthy die Euphorie. „Die Fortschritte von DeepSeek könnten zu besser zugänglichen und erschwinglicheren KI-Lösungen führen, aber sie erfordern auch, strategische, wettbewerbsbezogenen, qualitativen und sicherheitsbezogenen Faktoren sorgfältig abzuwägen“, so der stellvertretende Vice President Research bei IDC.  

Neue Alibaba-KI stellt DeepSeek-V3 in den Schatten​ Nach DeepSeek hat nun auch Alibaba KI-Geist aus der Flasche gelassen.Mojahid Mottakin/Shutterstock

Die chinesische Alibaba Group hat eine verbesserte Version ihres KI-Modells Qwen 2.5 auf den Markt gebracht, das angeblich die LLMs (Large Language Models) von DeepSeek, OpenAI und Meta in den Schatten stellt. „Qwen 2.5-Max übertrifft fast durchweg GPT-4o, DeepSeek-V3 und Llama-3.1-405B“, verkündet die Cloud-Einheit von Alibaba per WeChat, wie Reuters berichtet. 

Auf seiner GitHub-Seite zeigt das Unternehmen Benchmarking-Ergebnisse, die darauf hindeuten, dass seine Instruktionsmodelle – die für Aufgaben wie Chat und Programmierung entwickelt wurden – GPT-4o, DeepSeek-V3 und Llama-3.1-405B meist übertrafen, während sie eine vergleichbare Leistung wie Claude 3.5-Sonnet erbrachten. 

Die Vorstellung kommt kurz nach dem bahnbrechenden Markteintritt von DeepSeek, also dem Debüt seines KI-Assistenten auf Basis des DeepSeek-V3-Modells am 10. Januar und der Veröffentlichung seines Open-Source-R1-Modells am 20. Januar. 

Der Umstand, dass Training des V3-Modells (angeblich) nur 5,6 Millionen Dollar kostete, verglichen mit den geschätzten 78 Millionen Dollar bei OpenAI für GPT-4o, versetzte das Silicon Valley in Schockstarre, schickte die Technologieaktien auf Talfahrt und veranlasste die Investoren dazu, die Nachhaltigkeit des auf hohen Ausgaben basierenden Ansatzes der großen US-KI-Firmen in Frage zu stellen. 

Chinas KI-Wettlauf heizt sich auf 

Dass nun kurz darauf auch Alibaba ein verbessertes LLM vorstellt, noch dazu während der Feiertage zum chinesischen Neujahresfest, unterstreicht den wachsenden Wettbewerbsdruck, der durch DeepSeeks Vorstoß entstanden ist. Diesen spüren augenscheinlich nicht nur westliche Akteure, sondern auch chinesischen Technologieunternehmen. 

„Der KI-Modellkrieg ist nicht mehr nur ein Kampf zwischen China und den USA – auch der Wettbewerb innerhalb Chinas verschärft sich, da Unternehmen wie DeepSeek, Alibaba und andere ihre Modelle innovieren und optimieren, um einen großen Inlandsmarkt zu bedienen“, erklärt Neil Shah, Partner und Mitbegründer von Counterpoint Research. Er ergänzt: „Chinesische Unternehmen werden aufgrund von Ressourcenbeschränkungen, einschließlich des begrenzten Zugangs zu den fortschrittlichsten Halbleitern, globalen Daten, Tools, Infrastrukturen und Zielgruppen, zu weiteren Innovationen gedrängt.“ 

Der Wettlauf um sparsame KI 

Diese Entwicklung spiele den Entscheidern in Unternehmen in die Hände und erhöhe den Preisdruck auf KI-Anwendungen, die mit teureren Modellen erstellt wurden, so Shah weiter. “Solche Durchbrüche werden Unternehmen dazu zwingen, die Wirtschaftlichkeit von KI-Investitionen und ihre Wahl von Modellen und Anbietern zu überdenken oder zumindest zu überdenken“, prognostiziert der Analyst. 

DeepSeek treibt unmittelbare Preisüberlegungen in zwei Schlüsselbereichen der KI voran: 

die Kosten für Roh-Token und  

die Ausgaben für die Modellentwicklung.  

Diese Faktoren könnten KI-Unternehmen weltweit dazu zwingen, die Optimierung ihrer Modelle in Betracht zu ziehen, um wettbewerbsfähig zu bleiben. „Der Erfolg von DeepSeek unterstreicht auch die Leistungsfähigkeit von Open Source und stärkt das Argument, dass quelloffene KI-Lösungen mittelfristig zu einem dominierenden Marktsegment werden könnten“, erklärt Hyoun Park, CEO und Chefanalyst bei Amalgam Insights. “Wenn das geschieht, könnten Unternehmen mit starken Open-Source-Geschäftsmodellen– wie IBM Red Hat und Canonical – einspringen und KI-bezogene Managed Services schnell skalieren.“ 

Der geopolitische Vorteil bleibt – etwas 

Die Geopolitik bleibt ein Joker für westliche KI-Firmen, der den Markt möglicherweise zu ihren Gunsten kippen lässt, indem er die Übernahme chinesischer Modelle in bestimmten Regionen einschränkt. Gleichzeitig wird China wahrscheinlich die Kontrollen für die Nutzung westlicher KI-Modelle verschärfen, was die Einschränkungen widerspiegelt, die bei anderen technischen Anwendungen zu beobachten sind. 

Unternehmen sollten zunächst prüfen, ob diese Modelle den globalen Datenschutz- und Regulierungsstandards entsprechen, bevor sie sie in großem Umfang einsetzen, bremst IDC-Analyst Sharath Srinivasamurthy die Euphorie. „Die Fortschritte von DeepSeek könnten zu besser zugänglichen und erschwinglicheren KI-Lösungen führen, aber sie erfordern auch, strategische, wettbewerbsbezogenen, qualitativen und sicherheitsbezogenen Faktoren sorgfältig abzuwägen“, so der stellvertretende Vice President Research bei IDC. 

Neue Alibaba-KI stellt DeepSeek-V3 in den Schatten​ Weiterlesen »

Mercedes-Benz migriert zu RISE with SAP​

Allgemein

width=”4950″ height=”2784″ sizes=”(max-width: 4950px) 100vw, 4950px”>Katrin Lehmann, Group CIO Mercedes-Benz, will mit der Migration zu RISE with SAP Freiraum für Innovationen schaffen.Mercedes-Benz Mit der Migration zu RISE with SAP geht Mercedes-Benz den nächsten Schritt in Richtung zukunftssichere IT-Infrastruktur. Gleichzeitig setzt das Unternehmen auf eine Single-Cloudanbieter-Strategie mit AWS. Auf diese Weise will der Konzern mehr Zuverlässigkeit, Standardisierung und effizientere Geschäftsprozesse erreichen. Zudem sollen diese Schritte die Wettbewerbsfähigkeit steigern Von der Partnerschaft mit SAP verspricht sich das Unternehmen eine Beschleunigung des Wandels und mehr Innovation und Flexibilität. Nach der Vertragsunterzeichnung im Dezember 2024 folgt nun die schrittweise Implementierung. Migration auf AWS Dabei werden entscheidende SAP-Applikationen entlang der Wertschöpfungskette auf Amazon Web Services (AWS) migriert. Mercedes-Benz setzt auf den Cloud-Dienst von Amazon, um die IT-Landschaft effizienter zu gestalten, heißt es. In der IT setzt Mercedes-Benz auf konsequente Standardisierung. Mercedes-Benz Katrin Lehmann, CIO der Mercedes-Benz AG, erklärt die Entscheidung so: „Wir sind Tech-Frontrunner im Konzern und brauchen eine zukunftsfähige IT-Infrastruktur, um Menschen und Technologien bestmöglich zu vernetzen.“ Dabei biete die Migration zu RISE with SAP auf AWS, so die CIO, die Möglichkeit, Prozesse entlang der Wertschöpfungskette schlanker und effizienter zu gestalten. Freiraum für Innovationen schaffen Für zusätzliches Tempo soll dabei eine radikale Standardisierung und die Verknüpfung mit integrierten KI-Modellen sorgen. „So schaffen wir uns Freiraum für Innovationen“, unterstreicht Lehmann. Weiter heißt es, durch die Kombination der Cloud-Strategie mit künftigen Entwicklungen der SAP-Landschaft auf S/4HANA profitiere das Unternehmen von kontinuierlichen Updates. Das ermögliche ein effizienteres Arbeiten mit neuesten Technologien, auch in Hinblick auf KI. Auf diese Weise will das Unternehmen viele Prozesse beschleunigen – von Finance- und Controlling-Applikationen über Logistik bis hin zum After Sales. Geschäftsabläufe automatisieren Ein weiteres Ziel ist, mit den Services und Tools von RISE with SAP Geschäftsabläufe weiter zu automatisieren. Mit der Fokussierung auf AWS als einzigen Cloud-Anbieter will Mercedes-Benz die Komplexität der IT reduzieren und die Nutzung seiner Applikationen einfacher und sicherer machen. 

Mercedes-Benz migriert zu RISE with SAP​ width=”4950″ height=”2784″ sizes=”(max-width: 4950px) 100vw, 4950px”>Katrin Lehmann, Group CIO Mercedes-Benz, will mit der Migration zu RISE with SAP Freiraum für Innovationen schaffen.Mercedes-Benz

Mit der Migration zu RISE with SAP geht Mercedes-Benz den nächsten Schritt in Richtung zukunftssichere IT-Infrastruktur. Gleichzeitig setzt das Unternehmen auf eine Single-Cloudanbieter-Strategie mit AWS. Auf diese Weise will der Konzern mehr Zuverlässigkeit, Standardisierung und effizientere Geschäftsprozesse erreichen. Zudem sollen diese Schritte die Wettbewerbsfähigkeit steigern

Von der Partnerschaft mit SAP verspricht sich das Unternehmen eine Beschleunigung des Wandels und mehr Innovation und Flexibilität. Nach der Vertragsunterzeichnung im Dezember 2024 folgt nun die schrittweise Implementierung.

Migration auf AWS

Dabei werden entscheidende SAP-Applikationen entlang der Wertschöpfungskette auf Amazon Web Services (AWS) migriert. Mercedes-Benz setzt auf den Cloud-Dienst von Amazon, um die IT-Landschaft effizienter zu gestalten, heißt es.

In der IT setzt Mercedes-Benz auf konsequente Standardisierung.
Mercedes-Benz

Katrin Lehmann, CIO der Mercedes-Benz AG, erklärt die Entscheidung so: „Wir sind Tech-Frontrunner im Konzern und brauchen eine zukunftsfähige IT-Infrastruktur, um Menschen und Technologien bestmöglich zu vernetzen.“ Dabei biete die Migration zu RISE with SAP auf AWS, so die CIO, die Möglichkeit, Prozesse entlang der Wertschöpfungskette schlanker und effizienter zu gestalten.

Freiraum für Innovationen schaffen

Für zusätzliches Tempo soll dabei eine radikale Standardisierung und die Verknüpfung mit integrierten KI-Modellen sorgen. „So schaffen wir uns Freiraum für Innovationen“, unterstreicht Lehmann.

Weiter heißt es, durch die Kombination der Cloud-Strategie mit künftigen Entwicklungen der SAP-Landschaft auf S/4HANA profitiere das Unternehmen von kontinuierlichen Updates. Das ermögliche ein effizienteres Arbeiten mit neuesten Technologien, auch in Hinblick auf KI. Auf diese Weise will das Unternehmen viele Prozesse beschleunigen – von Finance- und Controlling-Applikationen über Logistik bis hin zum After Sales.

Geschäftsabläufe automatisieren

Ein weiteres Ziel ist, mit den Services und Tools von RISE with SAP Geschäftsabläufe weiter zu automatisieren. Mit der Fokussierung auf AWS als einzigen Cloud-Anbieter will Mercedes-Benz die Komplexität der IT reduzieren und die Nutzung seiner Applikationen einfacher und sicherer machen.

Mercedes-Benz migriert zu RISE with SAP​ Weiterlesen »

ServiceNow will Ordnung ins KI-Agenten-Chaos bringen​

Allgemein

Geht es nach ServiceNow (und anderen Anbietern), sollen KI-Agenten bald zahlreiche Aufgaben im Business-Umfeld selbstständig erledigen können.JLco Julia Amaral/Shutterstock Gibt es einen sicheren Trend für 2025 und darüber hinaus, so sind das KI-Agenten, die komplexe Geschäftsprozesse unabhängig übernehmen können. Dieser Ansicht ist auch ServiceNow. „Wir glauben fest daran, dass Agentic AI die nächste Evolutionsstufe für ServiceNow darstellt“, erklärt Dorit Zilbershot, Vice President, Product Management, AI, im CW-Gespräch. „Wir haben in den letzten zwanzig Jahren Workflows automatisiert. Agenten bieten uns eine neue Möglichkeit, unstrukturierte Workflows voranzutreiben. Sie sind anpassungsfähig, interaktiv und bringen dem Unternehmen wirklich mehr Wert.“  Die Agenten kommen  Seine ersten KI-Agenten hatte ServiceNow bereits im September 2024 vorgestellt. Um in diesem Bereich voranzukommen, gab ServiceNow erst vor kurzem die Übernahme von Cuein bekannt. Die Technologie des KI-Startups, von Cuein selbst als „Copilot für Customer Experience Teams“ bezeichnet, ist darauf ausgelegt, fragmentierte Konversationen zu interpretieren und umfassende Erkenntnisse zu liefern. Diese können die KI-Agenten nutzen, um fundierte Entscheidungen zu treffen und entsprechend zu handeln.  „Cuein kann uns dabei helfen, mit unserem Agentic-AI-Fahrplan schneller voranzukommen“, so Zilbershot. „Wir können damit schneller Gespräche und Interaktionen in strukturierte Arbeitsabläufe umwandeln, erhalten Echtzeit-Einblicke in KI-Agenten und können ihre Arbeit quantifizieren.“  Wenngleich aktuell KI-Agenten und Copilots wie Pilze aus dem Boden schießen, sieht sich das Unternehmen dabei in einer optimalen Ausgangsposition. Der ServiceNow-Managerin zufolge gebe es eine Reihe von Unterscheidungsmerkmalen gegenüber der Konkurrenz.   Dazu zähle zum einen eine hybride Plattform, die sowohl agentenbasierte als auch regelbasierte Arbeitsabläufe unterstützt, erklärt Zilbershot. Dies ermögliche es, KI-Agenten für unvorhersehbare Anwendungsfälle einzusetzen, die Anpassungsfähigkeit und Interaktion mit Menschen erfordern, während gleichzeitig strukturierte Arbeitsabläufe beibehalten werden könnten.  srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?quality=50&strip=all 3248w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=2048%2C1151&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Dorit Zilbershot, Vice President, Product Management, AI bei ServiceNowServiceNow Außerdem hätten die KI-Agenten von ServiceNow Zugriff auf alle Analysefähigkeiten, Arbeitsabläufe der Kunden der letzten zwanzig Jahre und Informationen innerhalb und außerhalb von ServiceNow. So könnten die Kunden, von Anfang an von agentenbasierter KI profitieren, so die KI-Expertin: „Es ist im Grunde so, als hätte man einen neuen Mitarbeiter, der bereits alles über das Unternehmen weiß, ohne irgendeine Schulung.“  Zusätzlich stelle ServiceNow nun mit AI Agent Orchestrator einen Kontrollturm bereit, der die KI-Agenten verwaltet. Tritt beispielsweise ein Netzwerkproblem auf, so ein von ServiceNow beschriebenes Szenario, verwalte der AI Agent Orchestrator benutzerdefinierte Agenten, die Informationen aus Quellen wie Network Management Software, SIEM (Security Information & Event Management) Systeme und Application Performance Monitoring beziehen, um das Problem zu beheben. Das Problem werde identifiziert, ein Lösungsplan erstellt und – nachdem ein menschlicher Netzwerkoperator ihn genehmigt habe – ausgeführt. Der AI Agent Orchestrator sorge dabei dafür, dass die KI-Agenten nicht unkontrolliert agieren, sondern auf koordinierten Weise zusammenarbeiten, erklärt Zilbershot. „Sie wollen ja sicher nicht nur diese KI-Agenten einführen und frei im Unternehmen ‚herumlaufen‘ lassen.“   Tausende von KI-Agenten geplant Bei der von ServiceNow anvisierten Mengen von KI-Agenten im Unternehmen wäre das auch nicht ratsam. Um die dringlichsten Probleme der Kunden zu lösen, will der Automatisierungsexperte zahlreiche sofort einsatzbereite AI Agents auf der Now Platform bereitstellen. Diese könnten autonom Anwendungsfälle wie Probleme mit Passwörtern oder auf dem Anwender-PC installierter Software lösen oder Zeiten für die Einarbeitung eines neuen Mitarbeiters einzubuchen, führt Zilbershot auf.  Der Managerin zufolge kommen täglich neue KI-Agenten dazu und bis Mai sollen bereits mehrere Tausend solcher kleinen Helfer zur Verfügung stehen. Weitere AI Agents, die von Partnern wie Accenture, Cognizant und Deloitte entwickelt und veröffentlicht werden, fänden sich im ServiceNow Store.   Darüber hinaus können Unternehmen im neuen ServiceNow AI Agent Studio auch selbst individuelle AI Agents erstellen und implementieren, die sich nahtlos in unternehmensweite Workflows und Daten integrieren sollen. Laut SeviceNow ist dies über eine sprachbasierte No-Code-Oberfläche möglich, in der die Anwender das gewünschte Ergebnis, die Rolle der AI Agents und die Prozesse, die sie aufbauen möchten, in natürlicher Sprache beschreiben. Wie Zilbershot betont, müsse man dazu auch keine speziellen Prompts verwenden. Das System übernehme dann im Hintergrund die Verarbeitung, um die Sprache in Eingabeaufforderungen umzuwandeln.  ServiceNow AI Agent Orchestrator und AI Agent Studio sollen ab März 2025 für Pro-Plus- und Enterprise-Plus-Kunden verfügbar sein.  

ServiceNow will Ordnung ins KI-Agenten-Chaos bringen​ Geht es nach ServiceNow (und anderen Anbietern), sollen KI-Agenten bald zahlreiche Aufgaben im Business-Umfeld selbstständig erledigen können.JLco Julia Amaral/Shutterstock

Gibt es einen sicheren Trend für 2025 und darüber hinaus, so sind das KI-Agenten, die komplexe Geschäftsprozesse unabhängig übernehmen können. Dieser Ansicht ist auch ServiceNow. „Wir glauben fest daran, dass Agentic AI die nächste Evolutionsstufe für ServiceNow darstellt“, erklärt Dorit Zilbershot, Vice President, Product Management, AI, im CW-Gespräch. „Wir haben in den letzten zwanzig Jahren Workflows automatisiert. Agenten bieten uns eine neue Möglichkeit, unstrukturierte Workflows voranzutreiben. Sie sind anpassungsfähig, interaktiv und bringen dem Unternehmen wirklich mehr Wert.“ 

Die Agenten kommen 

Seine ersten KI-Agenten hatte ServiceNow bereits im September 2024 vorgestellt. Um in diesem Bereich voranzukommen, gab ServiceNow erst vor kurzem die Übernahme von Cuein bekannt. Die Technologie des KI-Startups, von Cuein selbst als „Copilot für Customer Experience Teams“ bezeichnet, ist darauf ausgelegt, fragmentierte Konversationen zu interpretieren und umfassende Erkenntnisse zu liefern. Diese können die KI-Agenten nutzen, um fundierte Entscheidungen zu treffen und entsprechend zu handeln. 

„Cuein kann uns dabei helfen, mit unserem Agentic-AI-Fahrplan schneller voranzukommen“, so Zilbershot. „Wir können damit schneller Gespräche und Interaktionen in strukturierte Arbeitsabläufe umwandeln, erhalten Echtzeit-Einblicke in KI-Agenten und können ihre Arbeit quantifizieren.“ 

Wenngleich aktuell KI-Agenten und Copilots wie Pilze aus dem Boden schießen, sieht sich das Unternehmen dabei in einer optimalen Ausgangsposition. Der ServiceNow-Managerin zufolge gebe es eine Reihe von Unterscheidungsmerkmalen gegenüber der Konkurrenz.  

Dazu zähle zum einen eine hybride Plattform, die sowohl agentenbasierte als auch regelbasierte Arbeitsabläufe unterstützt, erklärt Zilbershot. Dies ermögliche es, KI-Agenten für unvorhersehbare Anwendungsfälle einzusetzen, die Anpassungsfähigkeit und Interaktion mit Menschen erfordern, während gleichzeitig strukturierte Arbeitsabläufe beibehalten werden könnten. 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?quality=50&strip=all 3248w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=2048%2C1151&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Dorit Zilbershot, Vice President, Product Management, AI bei ServiceNowServiceNow

Außerdem hätten die KI-Agenten von ServiceNow Zugriff auf alle Analysefähigkeiten, Arbeitsabläufe der Kunden der letzten zwanzig Jahre und Informationen innerhalb und außerhalb von ServiceNow. So könnten die Kunden, von Anfang an von agentenbasierter KI profitieren, so die KI-Expertin: „Es ist im Grunde so, als hätte man einen neuen Mitarbeiter, der bereits alles über das Unternehmen weiß, ohne irgendeine Schulung.“ 

Zusätzlich stelle ServiceNow nun mit AI Agent Orchestrator einen Kontrollturm bereit, der die KI-Agenten verwaltet. Tritt beispielsweise ein Netzwerkproblem auf, so ein von ServiceNow beschriebenes Szenario, verwalte der AI Agent Orchestrator benutzerdefinierte Agenten, die Informationen aus Quellen wie Network Management Software, SIEM (Security Information & Event Management) Systeme und Application Performance Monitoring beziehen, um das Problem zu beheben. Das Problem werde identifiziert, ein Lösungsplan erstellt und – nachdem ein menschlicher Netzwerkoperator ihn genehmigt habe – ausgeführt.

Der AI Agent Orchestrator sorge dabei dafür, dass die KI-Agenten nicht unkontrolliert agieren, sondern auf koordinierten Weise zusammenarbeiten, erklärt Zilbershot. „Sie wollen ja sicher nicht nur diese KI-Agenten einführen und frei im Unternehmen ‚herumlaufen‘ lassen.“  

Tausende von KI-Agenten geplant

Bei der von ServiceNow anvisierten Mengen von KI-Agenten im Unternehmen wäre das auch nicht ratsam. Um die dringlichsten Probleme der Kunden zu lösen, will der Automatisierungsexperte zahlreiche sofort einsatzbereite AI Agents auf der Now Platform bereitstellen. Diese könnten autonom Anwendungsfälle wie Probleme mit Passwörtern oder auf dem Anwender-PC installierter Software lösen oder Zeiten für die Einarbeitung eines neuen Mitarbeiters einzubuchen, führt Zilbershot auf. 

Der Managerin zufolge kommen täglich neue KI-Agenten dazu und bis Mai sollen bereits mehrere Tausend solcher kleinen Helfer zur Verfügung stehen. Weitere AI Agents, die von Partnern wie Accenture, Cognizant und Deloitte entwickelt und veröffentlicht werden, fänden sich im ServiceNow Store.  

Darüber hinaus können Unternehmen im neuen ServiceNow AI Agent Studio auch selbst individuelle AI Agents erstellen und implementieren, die sich nahtlos in unternehmensweite Workflows und Daten integrieren sollen. Laut SeviceNow ist dies über eine sprachbasierte No-Code-Oberfläche möglich, in der die Anwender das gewünschte Ergebnis, die Rolle der AI Agents und die Prozesse, die sie aufbauen möchten, in natürlicher Sprache beschreiben. Wie Zilbershot betont, müsse man dazu auch keine speziellen Prompts verwenden. Das System übernehme dann im Hintergrund die Verarbeitung, um die Sprache in Eingabeaufforderungen umzuwandeln. 

ServiceNow AI Agent Orchestrator und AI Agent Studio sollen ab März 2025 für Pro-Plus- und Enterprise-Plus-Kunden verfügbar sein. 

ServiceNow will Ordnung ins KI-Agenten-Chaos bringen​ Weiterlesen »

DeepSeek R1 – gefährlich disruptiv?​

Allgemein

DeepSeek AI hat das Generative-AI-Game quasi über Nacht auf den Kopf gestellt. Das sollten Unternehmen wissen, bevor sie die Anwendung einsetzen.Rokas Tenys | shutterstock.com Ende 2022 löste ChatGPT den KI-Hype der Neuzeit aus und veranlasste die Tech-Industrie, ihre Zukunft neu zu bewerten. Das chinesische Startup DeepSeek AI konnte Ähnliches bewerkstelligen – nur im Laufe eines Wochenendes. Das bis vor kurzem noch unbekannte Jungunternehmen aus dem Reich der Mitte hat sich in kürzester Zeit als potenzieller, neuer KI-Gamechanger hervorgetan und dadurch an der Wall Street für panische Reaktionen gesorgt. Das grundlegende Versprechen des chinesischen Startups: Sein KI-Modell soll dieselbe Performance wie die „westlichen“ Konkurrenzmodelle von OpenAI, Meta und Co. realisieren, aber zu einem Bruchteil der Kosten. Inzwischen zählen auch prominente Tech-Persönlichkeiten zur Fanbase von DeepSeek AI – zum Beispiel Intels ehemaliger CEO Pat Gelsinger. Er ist davon überzeugt, dass das chinesische Startup „dazu beitragen wird, der zunehmend geschlossenen Welt der Foundational AI Models einen Neustart zu ermöglichen“, wie er in einem überschwänglichen Post auf X kundtut: Wisdom is learning the lessons we thought we already knew. DeepSeek reminds us of three important learnings from computing history:1) Computing obeys the gas law. Making it dramatically cheaper will expand the market for it. The markets are getting it wrong, this will make AI…— Pat Gelsinger (@PGelsinger) January 27, 2025 Aus Unternehmensperspektive sollte der virale Über-Nacht-Erfolg der Chinesen allerdings auch kritische Fragen aufwerfen. Zum Beispiel: Wie steht es wirklich um die Performanz von DeepSeek R1? Welche Datenschutzrisiken ergeben sich daraus, das chinesische KI-Modell im Unternehmen einzusetzen? Wie sicher ist DeepSeek R1 eigentlich? In diesem Artikel versuchen wir, den Antworten auf diese Fragen näherzukommen. “Organisationen sollten sich lieber zurückhalten” Glaubt man DeepSeek AI, soll das KI-Modell R1 sein OpenAI-Äquivalent (o1-mini) in diversen mathematischen und logischen Tests übertreffen können. Zu allem Überfluss ist DeepSeeks R1 mit einer MIT-Lizenz ausgestattet, die es uneingeschränkt gestattet, das KI-Modell kommerziell zu nutzen, zu modifizieren und zu vertreiben. Mit seiner „Zero-Day-Disruption“ stellt DeepSeek AI die Preisstrukturen, die OpenAI, Meta und Co. für ihre Modelle vorsehen, erfolgreich in Frage, wie nicht zuletzt die Reaktion an den Börsen zeigen. Die Verunsicherung ist spürbar: Eventuell benötigt man ja gar keine ausufernden Chip-Cluster, wie sie die Hyperscaler propagieren und kann performante KI-Lösungen auch wesentlich günstiger beziehen, respektive entwickeln? Es ist durchaus möglich, dass DeepSeek R1 das Potenzial hat, die Kosten für Generative AI allgemein zu senken und den LLM-Wettbewerb neu anzuheizen. Die anhaltenden Bemühungen der US-Regierung, chinesische Unternehmen von fortschrittlichen KI-Chips fernzuhalten, hat sich durch DeepSeeks KI-Vorstoß nebenbei ebenfalls als wirkungslos erwiesen – und wohl auch dazu beigetragen, dass die westlichen KI-Player davon (besonders) kalt erwischt wurden. Inzwischen stürzen sich bereits weltweit Scharen von Entwicklern – und Mitarbeitern – auf das KI-Modell von DeepSeek, um es auf Herz und Nieren zu testen (auch wenn der API-Zugriff aktuell wegen eines vermuteten DDoS-Angriffs eingeschränkt ist; Stand 30.01.2025). An dieser Stelle warnt der britische Sicherheitsexperte Graham Cluley: „Man kann jedem, der die App installieren und nutzen möchte, nur zur Vorsicht raten, insbesondere wenn dabei sensible Unternehmensdaten ins Spiel kommen. Organisationen sollten sich mit Blick auf eine umfassende Nutzung lieber zurückhalten, bis die Anwendung gründlicher überprüft wurde – so wie sie es bei jeder neuen App tun würden.“ Dennoch ist der Cybersicherheitsexperte davon überzeugt, dass DeepSeek AI den etablierten Silicon-Valley-Playern Sorgen bereiten sollte: „Wenn die Chinesen tatsächlich in der Lage waren, eine wettbewerbsfähige KI zu entwickeln, die die Lösungen etablierter Tech-Giganten mit Blick auf die Entwicklungskosten massiv unterbietet und mit einem Bruchteil der Hardware auskommt, wird das die Karten neu mischen.“ Mit Blick auf das Preis-Leistungs-Versprechen von DeepSeek AI sind nicht wenige Marktbeobachter jedoch skeptisch. Stacy Rasgon, Senior Analyst bei Bernstein Research zum Beispiel: „DeepSeek hat natürlich nicht OpenAI für fünf Millionen Dollar ‚nachgebaut‘“, konstatiert der Experte im Rahmen einer Kundenmitteilung. Er fügt hinzu: „Diese vielzitierte Zahl wurde auf Grundlage eines Mietpreises von zwei Dollar pro GPU-Stunde berechnet. Das kann man machen, entspricht aber nicht wirklich den Tatsachen und berücksichtigt vor allem nicht sämtliche anderen Kosten, die in Zusammenhang mit früheren Forschungsinitiativen zu Architekturen, Algorithmen oder Daten angefallen sind.“   “DeepSeek R1 ist höchst vulnerabel” Der Threat-Intelligence-Anbieter Kela hat sich in einer aktuellen Analyse auch bereits eingehend mit dem Security-Niveau von DeepSeek R1 auseinandergesetzt. Dabei kommen die Sicherheitsexperten zu besorgniserregenden Ergebnissen: „Wir konnten beobachten, dass DeepSeek R1 ChatGPT ähnlich ist, aber signifikant mehr Schwachstellen aufweist. Unser Red Team konnte das Modell in einer Vielzahl von Szenarien jailbreaken und so bösartige Inhalte generieren.“     So konnten die Kela-Experten nach eigener Auskunft DeepSeek R1 ohne Probleme dazu bringen, eine „schadhafte Persona“ anzunehmen – und anschließend unter anderem Tipps dazu auszuspucken, wie man ein professionelles Geldwäschenetzwerk aufzieht. „Wichtig ist in diesem Zusammenhang, dass dieser ‚Evil Jailbreak‘ in GPT-4 und GPT-4o längst durch einen Patch verhindert wird. Bei DeepSeek R1 war das hingegen problemlos möglich, was demonstriert, dass dieses KI-Modell höchst vulnerabel ist“, konstatieren die Experten. Die Forscher konnten DeepSeeks KI-Modell auch dazu bringen, Malware zu generieren und den Prozess dabei Schritt für Schritt aufzudröseln – inklusive einschlägiger Code Snippets. „Das Modell von DeepSeek AI demonstriert eine starke Performance und Effizienz und ist ein potenzieller Herausforderer für die Tech-Giganten. In Sachen Security, Datenschutz und -sicherheit hinkt DeepSeek R1 allerdings hinterher“, resümieren die Kela-Forscher und mahnen Unternehmen zur Vorsicht. Als chinesisches Unternehmen unterliege DeepSeek AI zudem der chinesischen Gesetzgebung und damit auch der Pflicht, bestimmte Daten mit Regierungsbehörden zu teilen, geben die Forscher darüber hinaus zu bedenken und ergänzen: „Das Unternehmen behält sich auch das Recht vor, die In- und Outputs der Benutzer dazu zu nutzen, seine Services zu optimieren – ohne dabei eine klare Opt-Out-Option anzubieten.“ Auch die Sicherheitsexperten von Wiz Security haben sich nach dem überraschenden Hype um DeepSeek AI mit dem chinesischen KI-Startup beschäftigt – beziehungsweise mit seiner externen Security Posture. In diesem Rahmen sind die Wiz-Experten auf eine verheerende Sicherheitslücke gestoßen, wie sie in einem ausführlichen Blogbeitrag darlegen. BREAKING: Internal #DeepSeek database publicly exposed 🚨Wiz Research has discovered “DeepLeak” – a publicly accessible ClickHouse database belonging to DeepSeek, exposing highly sensitive information, including secret keys, plain-text chat messages, backend details, and logs. pic.twitter.com/C7HZTKNO3p— Wiz (@wiz_io) January 29, 2025 Demnach konnten die Security-Forscher im Netz eine öffentlich zugängliche Clickhouse-Datenbank von DeepSeek AI identifizieren, die es ermöglichte, auf sensible interne Daten zuzugreifen: “Dabei wurden unter anderem eine Million Codezeilen offengelegt, die Chat-Verläufe, geheime Schlüssel sowie Backend-Details und weitere hochsensible Informationen enthielten”, konstatieren die Forscher und fügen hinzu, das DeepSeek-Team umgehend über ihre Erkenntnisse informiert zu haben. Die Sicherheitslücke sei daraufhin zügig geschlossen worden. Das ändert jedoch nichts an der Tatsache, dass Cybersicherheit bei DeepSeek AI bislang scheinbar keine Top-Priorität darstellt. Zumindest legt das der Umfang der von Wiz identifizierten Schwachstellen nahe: “Es war möglich, die vollständige Kontrolle über diese Datenbank zu übernehmen – und zwar ohne sich authentifizieren zu müssen. Damit wären potenziell auch Privilege-Escalation-Angriffe innerhalb der DeepSeek-Umgebung möglich gewesen.” Wie die Forscher von Wiz festhalten, drehe sich im Bereich KI Security vieles um futuristische Bedrohungen, während echte Gefahren, die aus grundlegenden Risiken wie versehentlich offengelegten Datenbanken erwachsen, unter den Tisch fallen würden: “Diese fundamentalen Sicherheitsrisiken sollten für Security-Teams weiterhin oberste Priorität haben”, mahnen die Forscher. Angesichts dieser Erkenntnisse sind staatlich verordnete Zensurmaßnahmen (ein chinesischer Host vorausgesetzt) mit Blick auf DeepSeek AI vielleicht noch das geringste Problem:   data-embed-height=”740″>Just a reminder about the cost of censorship byu/jewdai inChatGPT Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

DeepSeek R1 – gefährlich disruptiv?​ DeepSeek AI hat das Generative-AI-Game quasi über Nacht auf den Kopf gestellt. Das sollten Unternehmen wissen, bevor sie die Anwendung einsetzen.Rokas Tenys | shutterstock.com

Ende 2022 löste ChatGPT den KI-Hype der Neuzeit aus und veranlasste die Tech-Industrie, ihre Zukunft neu zu bewerten. Das chinesische Startup DeepSeek AI konnte Ähnliches bewerkstelligen – nur im Laufe eines Wochenendes. Das bis vor kurzem noch unbekannte Jungunternehmen aus dem Reich der Mitte hat sich in kürzester Zeit als potenzieller, neuer KI-Gamechanger hervorgetan und dadurch an der Wall Street für panische Reaktionen gesorgt.

Das grundlegende Versprechen des chinesischen Startups: Sein KI-Modell soll dieselbe Performance wie die „westlichen“ Konkurrenzmodelle von OpenAI, Meta und Co. realisieren, aber zu einem Bruchteil der Kosten. Inzwischen zählen auch prominente Tech-Persönlichkeiten zur Fanbase von DeepSeek AI – zum Beispiel Intels ehemaliger CEO Pat Gelsinger. Er ist davon überzeugt, dass das chinesische Startup „dazu beitragen wird, der zunehmend geschlossenen Welt der Foundational AI Models einen Neustart zu ermöglichen“, wie er in einem überschwänglichen Post auf X kundtut:

Wisdom is learning the lessons we thought we already knew. DeepSeek reminds us of three important learnings from computing history:1) Computing obeys the gas law. Making it dramatically cheaper will expand the market for it. The markets are getting it wrong, this will make AI…— Pat Gelsinger (@PGelsinger) January 27, 2025

Aus Unternehmensperspektive sollte der virale Über-Nacht-Erfolg der Chinesen allerdings auch kritische Fragen aufwerfen. Zum Beispiel:

Wie steht es wirklich um die Performanz von DeepSeek R1?

Welche Datenschutzrisiken ergeben sich daraus, das chinesische KI-Modell im Unternehmen einzusetzen?

Wie sicher ist DeepSeek R1 eigentlich?

In diesem Artikel versuchen wir, den Antworten auf diese Fragen näherzukommen.

“Organisationen sollten sich lieber zurückhalten”

Glaubt man DeepSeek AI, soll das KI-Modell R1 sein OpenAI-Äquivalent (o1-mini) in diversen mathematischen und logischen Tests übertreffen können. Zu allem Überfluss ist DeepSeeks R1 mit einer MIT-Lizenz ausgestattet, die es uneingeschränkt gestattet, das KI-Modell kommerziell zu nutzen, zu modifizieren und zu vertreiben.

Mit seiner „Zero-Day-Disruption“ stellt DeepSeek AI die Preisstrukturen, die OpenAI, Meta und Co. für ihre Modelle vorsehen, erfolgreich in Frage, wie nicht zuletzt die Reaktion an den Börsen zeigen. Die Verunsicherung ist spürbar: Eventuell benötigt man ja gar keine ausufernden Chip-Cluster, wie sie die Hyperscaler propagieren und kann performante KI-Lösungen auch wesentlich günstiger beziehen, respektive entwickeln? Es ist durchaus möglich, dass DeepSeek R1 das Potenzial hat, die Kosten für Generative AI allgemein zu senken und den LLM-Wettbewerb neu anzuheizen.

Die anhaltenden Bemühungen der US-Regierung, chinesische Unternehmen von fortschrittlichen KI-Chips fernzuhalten, hat sich durch DeepSeeks KI-Vorstoß nebenbei ebenfalls als wirkungslos erwiesen – und wohl auch dazu beigetragen, dass die westlichen KI-Player davon (besonders) kalt erwischt wurden. Inzwischen stürzen sich bereits weltweit Scharen von Entwicklern – und Mitarbeitern – auf das KI-Modell von DeepSeek, um es auf Herz und Nieren zu testen (auch wenn der API-Zugriff aktuell wegen eines vermuteten DDoS-Angriffs eingeschränkt ist; Stand 30.01.2025).

An dieser Stelle warnt der britische Sicherheitsexperte Graham Cluley: „Man kann jedem, der die App installieren und nutzen möchte, nur zur Vorsicht raten, insbesondere wenn dabei sensible Unternehmensdaten ins Spiel kommen. Organisationen sollten sich mit Blick auf eine umfassende Nutzung lieber zurückhalten, bis die Anwendung gründlicher überprüft wurde – so wie sie es bei jeder neuen App tun würden.“

Dennoch ist der Cybersicherheitsexperte davon überzeugt, dass DeepSeek AI den etablierten Silicon-Valley-Playern Sorgen bereiten sollte: „Wenn die Chinesen tatsächlich in der Lage waren, eine wettbewerbsfähige KI zu entwickeln, die die Lösungen etablierter Tech-Giganten mit Blick auf die Entwicklungskosten massiv unterbietet und mit einem Bruchteil der Hardware auskommt, wird das die Karten neu mischen.“

Mit Blick auf das Preis-Leistungs-Versprechen von DeepSeek AI sind nicht wenige Marktbeobachter jedoch skeptisch. Stacy Rasgon, Senior Analyst bei Bernstein Research zum Beispiel: „DeepSeek hat natürlich nicht OpenAI für fünf Millionen Dollar ‚nachgebaut‘“, konstatiert der Experte im Rahmen einer Kundenmitteilung. Er fügt hinzu: „Diese vielzitierte Zahl wurde auf Grundlage eines Mietpreises von zwei Dollar pro GPU-Stunde berechnet. Das kann man machen, entspricht aber nicht wirklich den Tatsachen und berücksichtigt vor allem nicht sämtliche anderen Kosten, die in Zusammenhang mit früheren Forschungsinitiativen zu Architekturen, Algorithmen oder Daten angefallen sind.“  

“DeepSeek R1 ist höchst vulnerabel”

Der Threat-Intelligence-Anbieter Kela hat sich in einer aktuellen Analyse auch bereits eingehend mit dem Security-Niveau von DeepSeek R1 auseinandergesetzt. Dabei kommen die Sicherheitsexperten zu besorgniserregenden Ergebnissen: „Wir konnten beobachten, dass DeepSeek R1 ChatGPT ähnlich ist, aber signifikant mehr Schwachstellen aufweist. Unser Red Team konnte das Modell in einer Vielzahl von Szenarien jailbreaken und so bösartige Inhalte generieren.“    

So konnten die Kela-Experten nach eigener Auskunft DeepSeek R1 ohne Probleme dazu bringen, eine „schadhafte Persona“ anzunehmen – und anschließend unter anderem Tipps dazu auszuspucken, wie man ein professionelles Geldwäschenetzwerk aufzieht. „Wichtig ist in diesem Zusammenhang, dass dieser ‚Evil Jailbreak‘ in GPT-4 und GPT-4o längst durch einen Patch verhindert wird. Bei DeepSeek R1 war das hingegen problemlos möglich, was demonstriert, dass dieses KI-Modell höchst vulnerabel ist“, konstatieren die Experten. Die Forscher konnten DeepSeeks KI-Modell auch dazu bringen, Malware zu generieren und den Prozess dabei Schritt für Schritt aufzudröseln – inklusive einschlägiger Code Snippets.

„Das Modell von DeepSeek AI demonstriert eine starke Performance und Effizienz und ist ein potenzieller Herausforderer für die Tech-Giganten. In Sachen Security, Datenschutz und -sicherheit hinkt DeepSeek R1 allerdings hinterher“, resümieren die Kela-Forscher und mahnen Unternehmen zur Vorsicht. Als chinesisches Unternehmen unterliege DeepSeek AI zudem der chinesischen Gesetzgebung und damit auch der Pflicht, bestimmte Daten mit Regierungsbehörden zu teilen, geben die Forscher darüber hinaus zu bedenken und ergänzen: „Das Unternehmen behält sich auch das Recht vor, die In- und Outputs der Benutzer dazu zu nutzen, seine Services zu optimieren – ohne dabei eine klare Opt-Out-Option anzubieten.“

Auch die Sicherheitsexperten von Wiz Security haben sich nach dem überraschenden Hype um DeepSeek AI mit dem chinesischen KI-Startup beschäftigt – beziehungsweise mit seiner externen Security Posture. In diesem Rahmen sind die Wiz-Experten auf eine verheerende Sicherheitslücke gestoßen, wie sie in einem ausführlichen Blogbeitrag darlegen.

BREAKING: Internal #DeepSeek database publicly exposed 🚨Wiz Research has discovered “DeepLeak” – a publicly accessible ClickHouse database belonging to DeepSeek, exposing highly sensitive information, including secret keys, plain-text chat messages, backend details, and logs. pic.twitter.com/C7HZTKNO3p— Wiz (@wiz_io) January 29, 2025

Demnach konnten die Security-Forscher im Netz eine öffentlich zugängliche Clickhouse-Datenbank von DeepSeek AI identifizieren, die es ermöglichte, auf sensible interne Daten zuzugreifen: “Dabei wurden unter anderem eine Million Codezeilen offengelegt, die Chat-Verläufe, geheime Schlüssel sowie Backend-Details und weitere hochsensible Informationen enthielten”, konstatieren die Forscher und fügen hinzu, das DeepSeek-Team umgehend über ihre Erkenntnisse informiert zu haben. Die Sicherheitslücke sei daraufhin zügig geschlossen worden.

Das ändert jedoch nichts an der Tatsache, dass Cybersicherheit bei DeepSeek AI bislang scheinbar keine Top-Priorität darstellt. Zumindest legt das der Umfang der von Wiz identifizierten Schwachstellen nahe: “Es war möglich, die vollständige Kontrolle über diese Datenbank zu übernehmen – und zwar ohne sich authentifizieren zu müssen. Damit wären potenziell auch Privilege-Escalation-Angriffe innerhalb der DeepSeek-Umgebung möglich gewesen.”

Wie die Forscher von Wiz festhalten, drehe sich im Bereich KI Security vieles um futuristische Bedrohungen, während echte Gefahren, die aus grundlegenden Risiken wie versehentlich offengelegten Datenbanken erwachsen, unter den Tisch fallen würden: “Diese fundamentalen Sicherheitsrisiken sollten für Security-Teams weiterhin oberste Priorität haben”, mahnen die Forscher.

Angesichts dieser Erkenntnisse sind staatlich verordnete Zensurmaßnahmen (ein chinesischer Host vorausgesetzt) mit Blick auf DeepSeek AI vielleicht noch das geringste Problem:  

data-embed-height=”740″>Just a reminder about the cost of censorship byu/jewdai inChatGPT

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

DeepSeek R1 – gefährlich disruptiv?​ Weiterlesen »

In Deutschland fehlt der Strom für neue Rechenzentren​

Allgemein

Jerome Evans, Gründer und Geschäftsführer von firstcolo. firstcolo Herr Evans, US-Präsident Trump hat angekündigt, 500 Milliarden Dollar in KI-Rechenzentren zu investieren. Welche Auswirkungen hat das auf die RZ-Branche außerhalb der USA? Jerome Evans: Wenn wir das Thema etwas aus der Distanz betrachten, dann sehen wir, dass Trump sehr viel Dynamik in die Wirtschaftsentwicklung der USA bringt. Viele in Europa, aber auch in Deutschland, unterschätzen noch den langfristigen Einfluss von KI auf die zukünftige Wirtschaftsleistung von Staaten. Das heißt konkret? Jerome Evans: Trump positioniert die USA als KI-Hochburg, mit dem Ziel, einen Großteil der Wertschöpfung in diesem Bereich abzuschöpfen. Das Risiko für Europa ist dabei, dass wir die Souveränität über unsere Daten und die Digitalisierung verlieren. Bleiben die US-amerikanischen KI-Modelle führend, dann sind wir sehr abhängig. Ein Großteil der europäischen Firmen würde dann zusätzliche amerikanische Produkte nutzen und die Wertschöpfung würde aus den USA abgesaugt. Deutschland hat zu wenig Stromkapazität Das bedeutet für Deutschland? Jerome Evans: Die Wirtschaftsleistung in der EU, speziell in Deutschland, wird darunter leiden. Zumal noch hausgemachte Faktoren hinzukommen. So haben wir durch die Energiepolitik der letzten Dekade in Deutschland zu wenig Stromkapazität. Wir haben etwa an unseren Standorten in Frankfurt am Main freie Flächen für neue Rechenzentren. Diese können wir aber nicht ausbauen, da uns die Energieversorger bis 2033 nicht den benötigten Strom bereitstellen können. Ferner dauern die Genehmigungsverfahren zu lange, und es steht zu wenig Investitionskapital zur Verfügung, um die Strominfrastruktur schnell auszubauen. Zudem sind beispielsweise die Stromkosten deutlich höher als in den USA, primär getrieben durch die sehr hohen Netzentgelte in Deutschland. Wir zahlen teilweise das Zwei- bis Dreifache im Vergleich zu einem US-RZ-Betreiber. Wie gelingt es Ihnen dann, trotz höherer Kosten, Kunden für europäische Data Center zu finden? Jerome Evans: Viele Kunden gewinnen wir aufgrund unserer Positionierung alsFull-Service-Provider, dies bedeutet, dass wir unseren Kunden mehr und besseren Service als amerikanische Datacenter-Provider anbieten können. Zudem spielt uns die Regulatorik in die Karten, die verlangt, dass bestimmte Daten auf europäischem Boden beziehungsweise speziell in Deutschland gehostet werden müssen. Aber selbst diese Kunden nutzen oft auch Rechenzentren in anderen Ländern, in welchen die Betriebskosten geringer sind. Können es sich die Kunden aussuchen, gehen sie dahin, wo die Kosten geringer sind – etwa nach Skandinavien mit besseren klimatischen Bedingungen für Data Center. FÜR neue Rechenzentren fehlt hierzulande der Strom.dotshock/Shutterstock.com Sie sprachen davon, dass ein nicht einholbarer Vorsprung der Amerikaner droht. Was fördert diese Entwicklung? Jerome Evans: Die Amerikaner haben eine andere Einstellung zu Risikokapital und gehen mehr Investitionsrisiken ein. Geht die Wette auf, ist der Return on Investment umso höher. Damit steigen die Markteintrittsbarrieren für andere Wettbewerber immer mehr, da der Vorsprung der Tech-Giganten nicht mehr einholbar sein wird. Allein Microsoft oder Meta investieren jeweils 60 bis 80 Milliarden in KI-Rechenzentren in den kommenden Jahren. Solche Summen können europäische Konzerne beziehungsweise RZ-Betreiber nicht aufbringen. Selbst europäische Großprojekte werden häufig nur umgesetzt, wenn sie durch amerikanische Private-Equity-Geber finanziert werden. Europa braucht die Souveränität über die Daten Was müsste sich Ihrer Meinung nach in Europa ändern? Jerome Evans: Die Grundvoraussetzung für ein souveränes Europa ist die Souveränität über die Daten. Dafür braucht es gute Wettbewerbsbedingungen. So muss Strom günstiger und die Regulierung angepasst werden. Ferner muss die Energieherstellung einfacher werden. Deutschland hat eine schwierige Debatte um Atomkraft, während Frankreich beispielsweise einen hohen Nuklearanteil hat. Das europäische Energienetz kann helfen, aber wenn Deutschland nur Strom nimmt, destabilisiert das die Netze. Wird die verfügbare Strommenge nicht ausgebaut, steigen die Preise, was die Wettbewerbsbedingungen für Firmen hier weiter verschlechtert. Also könnten in letzter Konsequenz deutsche Rechenzentren ins Ausland abwandern? Jerome Evans: Ja, der Ausbau in Deutschland ist ein Tropfen auf den heißen Stein im Vergleich mit den angekündigten Rechenzentrumskapazitäten in den USA. Aber auch Länder wie Spanien oder Portugal, die sich besser aufstellen, haben bessere Chancen, internationale Player anzuziehen durch attraktive Standortbedingungen. Sie erwähnten, dass Sie freie Hallen für zusätzliche Rechenzentren haben, aber der Strom fehlt. Warum nutzen Sie keine Photovoltaik oder eigene Stromgeneratoren? Jerome Evans: Wir sind aktuell in der Planungsphase für ein neues Rechenzentrum mit 24 Megawatt Kapazität, während unsere bestehenden Zentren 2 Megawatt haben. Die großen Rechenzentren in den USA denken in ganz anderen Dimensionen, wie das Projekt Stargate mit 2 Gigawatt verdeutlicht. Photovoltaik braucht riesige Flächen, um einen solchen Strombedarf zu decken. Schließlich haben Server-Racks mit KI-Workload einen Strombedarf von 100 bis 200 kW pro Rack, während ein reguläres Server-Rack im Durchschnitt bei 5 bis 7,5 kW liegt. Herkömmliche grüne Energieerzeugungsmethoden reichen dafür schlicht nicht aus. Gaskraftwerke wären zwar eine Option, aber die Kosten pro erzeugter Kilowattstunde wären deutlich höher. Das würde uns noch weniger wettbewerbsfähig machen im internationalen Vergleich. Die Amerikaner arbeiten an Mini-Atomkraftwerken, wäre das eine Lösung? Jerome Evans: Egal ob Mini oder reguläre AKWs, ohne Nuklearstrom wird es nicht funktionieren, den zukünftigen Strombedarf zu decken. Das gilt für alle Länder, einschließlich den USA. Und ohne genügend Stromkapazität gibt es keine relevante Wettbewerbsfähigkeit in der Zukunft. Ohne Atomstrom wird es nicht funktionieren Was bleibt für deutsche Rechenzentrumsbetreiber dann noch übrig? Jerome Evans: Wir haben eine hohe Nachfrage, aber wir können nicht die Nachfrage von internationalen Großkonzernen bedienen. Unsere Strategie ist, auf Kunden im gehobenen Mittelstand sowie im Small-Enterprise-Bereich zu setzen. Wir versuchen, von diesem Wachstum so viel wie möglich mitzunehmen. Ferner ist es wichtig, dass wir mit der Politik im Austausch bleiben, um das Bewusstsein für diese Problematik zu schärfen. So wie Sie die Situation schildern, dürfte eine souveräne europäische Cloud ein Traum bleiben? Jerome Evans: Die Rahmenbedingungen dafür sind schlecht. Die Entwicklungsbudgets in Europa sind im Vergleich zu den USA und Asien sehr gering. Es ist ein Kampf David gegen Goliath. Und was bräuchte David, um das zu ändern? Jerome Evans: Wir brauchen eine höhere Risikobereitschaft der Kapitalgeber, um Produkte auf ähnlichem Qualitätsniveau wie die führenden internationale Player anbieten zu können. Es gibt einige Anbieter wie Schwarz IT, die gute Ambitionen haben. Zudem muss sich die Europäische Union dafür öffnen, KI-Potenziale nicht durch zu viel Regulierung in Bezug auf beispielsweise den Datenschutz zu „erdrücken“. Europa braucht mehr Risikobereitschaft Sie sprachen eingangs von den USA als KI-Hochburg, wo steht Europa? Jerome Evans: Es gibt nur wenige relevante europäische KI-Player. Die letzte Finanzierungsrunde von OpenAI hatte eine Bewertung von 150 Milliarden Euro und das Unternehmen konnte 6 Milliarden Risikokapital einsammeln. Diese Summen sind viel höher als das, was europäische Player zur Verfügung haben. So hat Mistral, als eines der führenden Projekte in Europa, im Juni 2024 rund 600 Millionen Euro Risikokapital erhalten.   Die führenden KI-Köpfe wandern deshalb ab und gehen dahin, wo sie die besten Voraussetzungen vorfinden. Firmen wie Aleph Alpha haben es deshalb sehr schwer, vergleichbare Produkte anzubieten. Sie konzentrieren sich eher auf B2B und Behörden, was eine clevere Entscheidung ist, um nicht unnötig Geld zu verbrennen. Müssen wir uns in letzter Konsequenz in Europa daran gewöhnen, weniger perfektionistisch zu sein und mehr Risiken einzugehen? Jerome Evans: Ja, mehr Risikobereitschaft ist der Schlüssel. In den USA wird mit dem Bau von Rechenzentren schon bei einer Bauvorabgenehmigung begonnen.  Fragen wie die Verfügbarkeit von Strom oder die endgültige Auslegung der Rechenzentren werden dann parallel während der Bauphase geklärt. Das Risiko erscheint zunächst höher, aber der mögliche Ertrag bei Erfolg ist entsprechend größer. Des Weiteren wünsche ich mir mehr politische Unterstützung für Unternehmer und Firmengründer, so wie sie Trump den lokalen Firmen aber auch den internationalen Konzernen in den USA gib 

In Deutschland fehlt der Strom für neue Rechenzentren​ Jerome Evans, Gründer und Geschäftsführer von firstcolo.
firstcolo

Herr Evans, US-Präsident Trump hat angekündigt, 500 Milliarden Dollar in KI-Rechenzentren zu investieren. Welche Auswirkungen hat das auf die RZ-Branche außerhalb der USA?

Jerome Evans: Wenn wir das Thema etwas aus der Distanz betrachten, dann sehen wir, dass Trump sehr viel Dynamik in die Wirtschaftsentwicklung der USA bringt. Viele in Europa, aber auch in Deutschland, unterschätzen noch den langfristigen Einfluss von KI auf die zukünftige Wirtschaftsleistung von Staaten.

Das heißt konkret?

Jerome Evans: Trump positioniert die USA als KI-Hochburg, mit dem Ziel, einen Großteil der Wertschöpfung in diesem Bereich abzuschöpfen. Das Risiko für Europa ist dabei, dass wir die Souveränität über unsere Daten und die Digitalisierung verlieren.

Bleiben die US-amerikanischen KI-Modelle führend, dann sind wir sehr abhängig. Ein Großteil der europäischen Firmen würde dann zusätzliche amerikanische Produkte nutzen und die Wertschöpfung würde aus den USA abgesaugt.

Deutschland hat zu wenig Stromkapazität

Das bedeutet für Deutschland?

Jerome Evans: Die Wirtschaftsleistung in der EU, speziell in Deutschland, wird darunter leiden. Zumal noch hausgemachte Faktoren hinzukommen. So haben wir durch die Energiepolitik der letzten Dekade in Deutschland zu wenig Stromkapazität. Wir haben etwa an unseren Standorten in Frankfurt am Main freie Flächen für neue Rechenzentren. Diese können wir aber nicht ausbauen, da uns die Energieversorger bis 2033 nicht den benötigten Strom bereitstellen können.

Ferner dauern die Genehmigungsverfahren zu lange, und es steht zu wenig Investitionskapital zur Verfügung, um die Strominfrastruktur schnell auszubauen. Zudem sind beispielsweise die Stromkosten deutlich höher als in den USA, primär getrieben durch die sehr hohen Netzentgelte in Deutschland. Wir zahlen teilweise das Zwei- bis Dreifache im Vergleich zu einem US-RZ-Betreiber.

Wie gelingt es Ihnen dann, trotz höherer Kosten, Kunden für europäische Data Center zu finden?

Jerome Evans: Viele Kunden gewinnen wir aufgrund unserer Positionierung alsFull-Service-Provider, dies bedeutet, dass wir unseren Kunden mehr und besseren Service als amerikanische Datacenter-Provider anbieten können. Zudem spielt uns die Regulatorik in die Karten, die verlangt, dass bestimmte Daten auf europäischem Boden beziehungsweise speziell in Deutschland gehostet werden müssen. Aber selbst diese Kunden nutzen oft auch Rechenzentren in anderen Ländern, in welchen die Betriebskosten geringer sind. Können es sich die Kunden aussuchen, gehen sie dahin, wo die Kosten geringer sind – etwa nach Skandinavien mit besseren klimatischen Bedingungen für Data Center.

FÜR neue Rechenzentren fehlt hierzulande der Strom.dotshock/Shutterstock.com

Sie sprachen davon, dass ein nicht einholbarer Vorsprung der Amerikaner droht. Was fördert diese Entwicklung?

Jerome Evans: Die Amerikaner haben eine andere Einstellung zu Risikokapital und gehen mehr Investitionsrisiken ein. Geht die Wette auf, ist der Return on Investment umso höher. Damit steigen die Markteintrittsbarrieren für andere Wettbewerber immer mehr, da der Vorsprung der Tech-Giganten nicht mehr einholbar sein wird.

Allein Microsoft oder Meta investieren jeweils 60 bis 80 Milliarden in KI-Rechenzentren in den kommenden Jahren. Solche Summen können europäische Konzerne beziehungsweise RZ-Betreiber nicht aufbringen. Selbst europäische Großprojekte werden häufig nur umgesetzt, wenn sie durch amerikanische Private-Equity-Geber finanziert werden.

Europa braucht die Souveränität über die Daten

Was müsste sich Ihrer Meinung nach in Europa ändern?

Jerome Evans: Die Grundvoraussetzung für ein souveränes Europa ist die Souveränität über die Daten. Dafür braucht es gute Wettbewerbsbedingungen.

So muss Strom günstiger und die Regulierung angepasst werden. Ferner muss die Energieherstellung einfacher werden. Deutschland hat eine schwierige Debatte um Atomkraft, während Frankreich beispielsweise einen hohen Nuklearanteil hat. Das europäische Energienetz kann helfen, aber wenn Deutschland nur Strom nimmt, destabilisiert das die Netze. Wird die verfügbare Strommenge nicht ausgebaut, steigen die Preise, was die Wettbewerbsbedingungen für Firmen hier weiter verschlechtert.

Also könnten in letzter Konsequenz deutsche Rechenzentren ins Ausland abwandern?

Jerome Evans: Ja, der Ausbau in Deutschland ist ein Tropfen auf den heißen Stein im Vergleich mit den angekündigten Rechenzentrumskapazitäten in den USA. Aber auch Länder wie Spanien oder Portugal, die sich besser aufstellen, haben bessere Chancen, internationale Player anzuziehen durch attraktive Standortbedingungen.

Sie erwähnten, dass Sie freie Hallen für zusätzliche Rechenzentren haben, aber der Strom fehlt. Warum nutzen Sie keine Photovoltaik oder eigene Stromgeneratoren?

Jerome Evans: Wir sind aktuell in der Planungsphase für ein neues Rechenzentrum mit 24 Megawatt Kapazität, während unsere bestehenden Zentren 2 Megawatt haben. Die großen Rechenzentren in den USA denken in ganz anderen Dimensionen, wie das Projekt Stargate mit 2 Gigawatt verdeutlicht.

Photovoltaik braucht riesige Flächen, um einen solchen Strombedarf zu decken. Schließlich haben Server-Racks mit KI-Workload einen Strombedarf von 100 bis 200 kW pro Rack, während ein reguläres Server-Rack im Durchschnitt bei 5 bis 7,5 kW liegt. Herkömmliche grüne Energieerzeugungsmethoden reichen dafür schlicht nicht aus. Gaskraftwerke wären zwar eine Option, aber die Kosten pro erzeugter Kilowattstunde wären deutlich höher. Das würde uns noch weniger wettbewerbsfähig machen im internationalen Vergleich.

Die Amerikaner arbeiten an Mini-Atomkraftwerken, wäre das eine Lösung?

Jerome Evans: Egal ob Mini oder reguläre AKWs, ohne Nuklearstrom wird es nicht funktionieren, den zukünftigen Strombedarf zu decken. Das gilt für alle Länder, einschließlich den USA. Und ohne genügend Stromkapazität gibt es keine relevante Wettbewerbsfähigkeit in der Zukunft.

Ohne Atomstrom wird es nicht funktionieren

Was bleibt für deutsche Rechenzentrumsbetreiber dann noch übrig?

Jerome Evans: Wir haben eine hohe Nachfrage, aber wir können nicht die Nachfrage von internationalen Großkonzernen bedienen. Unsere Strategie ist, auf Kunden im gehobenen Mittelstand sowie im Small-Enterprise-Bereich zu setzen. Wir versuchen, von diesem Wachstum so viel wie möglich mitzunehmen. Ferner ist es wichtig, dass wir mit der Politik im Austausch bleiben, um das Bewusstsein für diese Problematik zu schärfen.

So wie Sie die Situation schildern, dürfte eine souveräne europäische Cloud ein Traum bleiben?

Jerome Evans: Die Rahmenbedingungen dafür sind schlecht. Die Entwicklungsbudgets in Europa sind im Vergleich zu den USA und Asien sehr gering. Es ist ein Kampf David gegen Goliath.

Und was bräuchte David, um das zu ändern?

Jerome Evans: Wir brauchen eine höhere Risikobereitschaft der Kapitalgeber, um Produkte auf ähnlichem Qualitätsniveau wie die führenden internationale Player anbieten zu können. Es gibt einige Anbieter wie Schwarz IT, die gute Ambitionen haben. Zudem muss sich die Europäische Union dafür öffnen, KI-Potenziale nicht durch zu viel Regulierung in Bezug auf beispielsweise den Datenschutz zu „erdrücken“.

Europa braucht mehr Risikobereitschaft

Sie sprachen eingangs von den USA als KI-Hochburg, wo steht Europa?

Jerome Evans: Es gibt nur wenige relevante europäische KI-Player. Die letzte Finanzierungsrunde von OpenAI hatte eine Bewertung von 150 Milliarden Euro und das Unternehmen konnte 6 Milliarden Risikokapital einsammeln. Diese Summen sind viel höher als das, was europäische Player zur Verfügung haben. So hat Mistral, als eines der führenden Projekte in Europa, im Juni 2024 rund 600 Millionen Euro Risikokapital erhalten.  

Die führenden KI-Köpfe wandern deshalb ab und gehen dahin, wo sie die besten Voraussetzungen vorfinden. Firmen wie Aleph Alpha haben es deshalb sehr schwer, vergleichbare Produkte anzubieten. Sie konzentrieren sich eher auf B2B und Behörden, was eine clevere Entscheidung ist, um nicht unnötig Geld zu verbrennen.

Müssen wir uns in letzter Konsequenz in Europa daran gewöhnen, weniger perfektionistisch zu sein und mehr Risiken einzugehen?

Jerome Evans: Ja, mehr Risikobereitschaft ist der Schlüssel. In den USA wird mit dem Bau von Rechenzentren schon bei einer Bauvorabgenehmigung begonnen.  Fragen wie die Verfügbarkeit von Strom oder die endgültige Auslegung der Rechenzentren werden dann parallel während der Bauphase geklärt. Das Risiko erscheint zunächst höher, aber der mögliche Ertrag bei Erfolg ist entsprechend größer. Des Weiteren wünsche ich mir mehr politische Unterstützung für Unternehmer und Firmengründer, so wie sie Trump den lokalen Firmen aber auch den internationalen Konzernen in den USA gib

In Deutschland fehlt der Strom für neue Rechenzentren​ Weiterlesen »

Hey Google, richtig ist besser als schnell!​

Allgemein

Die Gemini-Ära ist laut unserem Autor bislang vor allem enttäuschend.Rokas Tenys | shutterstock.com Wie Sie sich sicher bereits denken können, ist dieser Artikel kein Loblied auf die revolutionären Fähigkeiten generativer künstlicher Intelligenz (Generative AI; GenAI). Statt auf den (mittlerweile etwas schwächelnden) Hype-Train aufzuspringen, sollten wir lieber einen realistischen Blick darauf werfen, wie diese Systeme aktuell funktionieren und was sie leisten können. Tut man das, gelangt man schnell zur Erkenntnis, dass aktuelle GenAI-Ausformungen wie Gemini vor allem eines sind: miserabel schlecht. Dennoch scheinen das alle Beteiligten einfach hinzunehmen und tun so, als wäre das kein Problem. Fast alle. Denn ein Tech-Gigant tanzt dabei aus der Reihe und hat den Hype-Köder scheinbar nicht geschluckt. Stattdessen nimmt dieser Konzern sich die Zeit, eine ausgefeilte Generative-AI-Strategie zu entwickeln und Schritt für Schritt umzusetzen. Damit verfolgt Amazon Web Services (AWS) einen völlig anderen Ansatz als Google und Konsorten – der meiner Meinung nach deutlich erfolgversprechender ist. Dabei bin ich eigentlich kein Fan von Amazon – und seinem Gebaren. Geht es aber um generative KI, zeigt AWS, wie Unternehmen an die Technologie herangehen sollten. Im Folgenden lesen Sie, wie ich zu diesem Schluss komme. Die bizarre Welt von Gemini & Co. Die Financial Times (FT) hat kürzlich einen Artikel veröffentlicht (Zugriff kostenpflichtig), der einen schönen Überblick darüber bietet, wie AWS aktuell alles daransetzt, seine virtuelle Assistenz Alexa mit GenAI aufzurüsten – und sie in „Agentenform“ neu aufzusetzen. Im Gespräch mit der FT teilt Rohit Prasad, Leiter der AGI-Teams bei AWS, mit, dass die „GenAI-Alexa“ vorher noch einige technische Hürden überwinden müsse. „Halluzinationen müssen gegen Null gehen. Das ist in der Branche immer noch ein ungelöstes Problem – aber wir arbeiten hart daran, es zu lösen“, verspricht Prasad im Interview. Offensichtlich hat man bei AWS erkannt, dass Verfehlungen dieser Art der Unternehmens- und Markenreputation nicht zuträglich sind – und will im Gegensatz zur Konkurrenz nicht besonders schnell GenAI-Funktionen bereitstellen – sondern legt lieber Wert darauf, dass diese besonders ausgereift sind. Dass diese Strategie höchst sinnvoll und angebracht ist, beweisen Systeme wie Gemini oder ChatGPT jeden Tag aufs Neue: Sie beeindrucken zwar, wenn es darum geht, (eindeutige) Daten zu verarbeiten, existierende Texte zusammenzufassen oder eng definierte, eindeutig objektive Tasks zu übernehmen. Die Tatsache, die dabei jedoch zuverlässig beiseitegeschoben wird: Diese Tools sind nicht geeignet, um überall eingesetzt zu werden. Generative AI ist nicht zu gebrauchen, wenn sie kreativ sein oder umfassend recherchieren, analysieren und sachliche Antworten liefern soll. Und wir als Benutzer brauchen die Technologie auch nicht in jedem Bereich. Wird sie dennoch überall integriert, so wie Google das derzeit propagiert, könnte das am Ende sogar mehr Schaden als Nutzen bringen. Schließlich kennen generative KI-Systeme das Konzept der Fakten bekanntermaßen nicht: Sie sagen lediglich auf der Grundlage von Wahrscheinlichkeiten Wörter vorher. Die Halluzinationen, die ChatGPT, Gemini und andere Lösungen daraus spinnen, mögen zwar zeitweise amüsant sein, stellen aber auch ein ernstzunehmendes Problem dar. Womit wir wieder bei Amazon wären. Eile mit Weile Bezüglich der kommenden „Agenten-Alexa“ ist vor allem auffällig, dass die Bemühungen von AWS von diversen Marktbeobachtern und Insidern negativ dargestellt werden. So kritisierte etwa Mihail Eric, ehemaliger Research Scientist im Alexa-Team von AWS, den Konzern öffentlich. Das Unternehmen habe es verpasst, mit der neuen Alexa zum unangefochtenen Marktführer im Bereich Conversational AI aufzusteigen. Ironischerweise ist es meiner Auffassung nach genau diese Haltung, die AWS und seine GenAI-Bemühungen von der Konkurrenz abhebt – und die sich auf lange Sicht auszahlen könnte. Denn vor allem Google setzt wirklich alles daran, Generative AI überall einzubinden – egal ob das Sinn macht oder nicht. Und die meisten Menschen begegnen diesen Systemen nicht mit dem nötigen Maß an Skepsis. Sie nehmen sich nicht die Zeit, darüber nachzudenken, wie sie ihre Fragen stellen – oder die KI-Outputs zu überprüfen. Sie stellen Fragen, sehen oder hören Antworten und gehen davon aus, dass diese korrekt sind. Und selbst wenn dabei nur in zehn Prozent der Fälle halluziniert wird, sind solche Lösungen wertlos, weil man sich nicht auf sie verlassen kann. Mit anderen Worten: Google (und alle anderen, die diesem Ansatz verfallen sind), haben kurzfristige Gewinne im Blick und sind dafür bereit, langfristige Einbußen beim Benutzervertrauen hinzunehmen. Zwar hat auch Google schon lange vor dem Release von ChatGPT an generativer KI gearbeitet. Dann sorgte der Hype, den OpenAI Ende 2022 mit seinem Chatbot auslöste, aber offensichtlich dafür, dass man sich beim Suchmaschinenriesen dachte: „Komm egal, das ist jetzt gut genug und muss raus“ – und ein System auf den Markt warf, dass nicht für die Primetime bereit war und es bis heute nicht ist.   Genau an dieser Stelle agiert Amazon Web Services meiner Meinung nach deutlich zielführender: Statt Alexa im Schnellverfahren in ein halbgares GenAI-System zu verwandeln, nimmt sich der Konzern die Zeit, die nötig ist, um ein ausgereiftes Produkt mit einer konsistenten User Experience zu entwickeln. Ob Amazon dieses Muster beibehalten kann oder irgendwann durch den Druck der Investoren dazu getrieben wird, auf die „Passt schon so“-Strategie von Google und Co. umzuschwenken, bleibt abzuwarten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Hey Google, richtig ist besser als schnell!​ Die Gemini-Ära ist laut unserem Autor bislang vor allem enttäuschend.Rokas Tenys | shutterstock.com

Wie Sie sich sicher bereits denken können, ist dieser Artikel kein Loblied auf die revolutionären Fähigkeiten generativer künstlicher Intelligenz (Generative AI; GenAI). Statt auf den (mittlerweile etwas schwächelnden) Hype-Train aufzuspringen, sollten wir lieber einen realistischen Blick darauf werfen, wie diese Systeme aktuell funktionieren und was sie leisten können. Tut man das, gelangt man schnell zur Erkenntnis, dass aktuelle GenAI-Ausformungen wie Gemini vor allem eines sind: miserabel schlecht. Dennoch scheinen das alle Beteiligten einfach hinzunehmen und tun so, als wäre das kein Problem.

Fast alle. Denn ein Tech-Gigant tanzt dabei aus der Reihe und hat den Hype-Köder scheinbar nicht geschluckt. Stattdessen nimmt dieser Konzern sich die Zeit, eine ausgefeilte Generative-AI-Strategie zu entwickeln und Schritt für Schritt umzusetzen. Damit verfolgt Amazon Web Services (AWS) einen völlig anderen Ansatz als Google und Konsorten – der meiner Meinung nach deutlich erfolgversprechender ist. Dabei bin ich eigentlich kein Fan von Amazon – und seinem Gebaren. Geht es aber um generative KI, zeigt AWS, wie Unternehmen an die Technologie herangehen sollten.

Im Folgenden lesen Sie, wie ich zu diesem Schluss komme.

Die bizarre Welt von Gemini & Co.

Die Financial Times (FT) hat kürzlich einen Artikel veröffentlicht (Zugriff kostenpflichtig), der einen schönen Überblick darüber bietet, wie AWS aktuell alles daransetzt, seine virtuelle Assistenz Alexa mit GenAI aufzurüsten – und sie in „Agentenform“ neu aufzusetzen. Im Gespräch mit der FT teilt Rohit Prasad, Leiter der AGI-Teams bei AWS, mit, dass die „GenAI-Alexa“ vorher noch einige technische Hürden überwinden müsse. „Halluzinationen müssen gegen Null gehen. Das ist in der Branche immer noch ein ungelöstes Problem – aber wir arbeiten hart daran, es zu lösen“, verspricht Prasad im Interview.

Offensichtlich hat man bei AWS erkannt, dass Verfehlungen dieser Art der Unternehmens- und Markenreputation nicht zuträglich sind – und will im Gegensatz zur Konkurrenz nicht besonders schnell GenAI-Funktionen bereitstellen – sondern legt lieber Wert darauf, dass diese besonders ausgereift sind. Dass diese Strategie höchst sinnvoll und angebracht ist, beweisen Systeme wie Gemini oder ChatGPT jeden Tag aufs Neue: Sie beeindrucken zwar, wenn es darum geht, (eindeutige) Daten zu verarbeiten, existierende Texte zusammenzufassen oder eng definierte, eindeutig objektive Tasks zu übernehmen. Die Tatsache, die dabei jedoch zuverlässig beiseitegeschoben wird: Diese Tools sind nicht geeignet, um überall eingesetzt zu werden.

Generative AI ist nicht zu gebrauchen, wenn sie kreativ sein oder umfassend recherchieren, analysieren und sachliche Antworten liefern soll. Und wir als Benutzer brauchen die Technologie auch nicht in jedem Bereich. Wird sie dennoch überall integriert, so wie Google das derzeit propagiert, könnte das am Ende sogar mehr Schaden als Nutzen bringen. Schließlich kennen generative KI-Systeme das Konzept der Fakten bekanntermaßen nicht: Sie sagen lediglich auf der Grundlage von Wahrscheinlichkeiten Wörter vorher. Die Halluzinationen, die ChatGPT, Gemini und andere Lösungen daraus spinnen, mögen zwar zeitweise amüsant sein, stellen aber auch ein ernstzunehmendes Problem dar. Womit wir wieder bei Amazon wären.

Eile mit Weile

Bezüglich der kommenden „Agenten-Alexa“ ist vor allem auffällig, dass die Bemühungen von AWS von diversen Marktbeobachtern und Insidern negativ dargestellt werden. So kritisierte etwa Mihail Eric, ehemaliger Research Scientist im Alexa-Team von AWS, den Konzern öffentlich. Das Unternehmen habe es verpasst, mit der neuen Alexa zum unangefochtenen Marktführer im Bereich Conversational AI aufzusteigen. Ironischerweise ist es meiner Auffassung nach genau diese Haltung, die AWS und seine GenAI-Bemühungen von der Konkurrenz abhebt – und die sich auf lange Sicht auszahlen könnte.

Denn vor allem Google setzt wirklich alles daran, Generative AI überall einzubinden – egal ob das Sinn macht oder nicht. Und die meisten Menschen begegnen diesen Systemen nicht mit dem nötigen Maß an Skepsis. Sie nehmen sich nicht die Zeit, darüber nachzudenken, wie sie ihre Fragen stellen – oder die KI-Outputs zu überprüfen. Sie stellen Fragen, sehen oder hören Antworten und gehen davon aus, dass diese korrekt sind. Und selbst wenn dabei nur in zehn Prozent der Fälle halluziniert wird, sind solche Lösungen wertlos, weil man sich nicht auf sie verlassen kann.

Mit anderen Worten: Google (und alle anderen, die diesem Ansatz verfallen sind), haben kurzfristige Gewinne im Blick und sind dafür bereit, langfristige Einbußen beim Benutzervertrauen hinzunehmen. Zwar hat auch Google schon lange vor dem Release von ChatGPT an generativer KI gearbeitet. Dann sorgte der Hype, den OpenAI Ende 2022 mit seinem Chatbot auslöste, aber offensichtlich dafür, dass man sich beim Suchmaschinenriesen dachte: „Komm egal, das ist jetzt gut genug und muss raus“ – und ein System auf den Markt warf, dass nicht für die Primetime bereit war und es bis heute nicht ist.  

Genau an dieser Stelle agiert Amazon Web Services meiner Meinung nach deutlich zielführender: Statt Alexa im Schnellverfahren in ein halbgares GenAI-System zu verwandeln, nimmt sich der Konzern die Zeit, die nötig ist, um ein ausgereiftes Produkt mit einer konsistenten User Experience zu entwickeln. Ob Amazon dieses Muster beibehalten kann oder irgendwann durch den Druck der Investoren dazu getrieben wird, auf die „Passt schon so“-Strategie von Google und Co. umzuschwenken, bleibt abzuwarten. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Hey Google, richtig ist besser als schnell!​ Weiterlesen »

3 Python Web Frameworks für Vorzeige-Frontends​

Allgemein

Wenn Sie interaktive Webseiten erstellen, dabei aber ausschließlich Python nutzen wollen, fahren Sie mit diesen Frameworks besser. Foto: Kurit afshen – shutterstock.com Python hat sich längst als Sprache für serverseitige Frameworks etabliert und unterstützt dabei Projekte jeder Größenordnung und sämtliche Use Cases. Allerdings ist Python bisher auch eher auf das Backend beschränkt – bislang gibt es noch keine wirkliche “Kultur”, Python für Frontend- und Client-seitigen Code zu nutzen. Das liegt auch daran, dass bisherige Versuche, Python am Frontend in JavaScript zu transpilieren oder über WebAssembly auszuführen, eher klobig und bisweilen primitiv umgesetzt wurden. Doch es gibt neue Hoffnung: Einige moderne Web Frameworks ermöglichen es, deklarativen Python-Code im Backend zu schreiben, der programmatisch Frontend-Code generiert. Sie können Python-Objekte verwenden, um HTML-Entitäten und deren JavaScript-gestütztes Verhalten zu beschreiben – und dann das Framework diese Objekte erstellen lassen, wenn sie dem Client übergeben werden. Die folgenden drei Web Frameworks für Python folgen exakt diesem Paradigma. Jedes von ihnen ermöglicht es, Frontend-Code (HTML, CSS und JavaScript) durch Backend-Python-Code zu erzeugen. Die Frontend-Objekte werden dabei durch das Python-Objektmodell dargestellt. 1. Anvil Die Macher des Web Frameworks Anvil versprechen, “Webanwendungen mit nichts anderem als Python zu erstellen”. Allerdings können Sie dabei auch auf Low-Code-Tools mit Drag-and-Drop-Funktion zurückgreifen. Am Ende steht eine vollwertige Webanwendung mit einem interaktiven, JavaScript-basierten Frontend und einem Python-basierten Backend. Anvil bietet dabei zwei grundlegende Ansätze: Der Cloud Service ist in verschiedenen Preisstufen erhältlich und bietet visuelle Build-Tools sowie eine Reihe von Hosting-Optionen. Die quelloffene Laufzeitumgebung von Anvil enthält kein Design-Tool, ermöglicht es aber, Anwendungen mit manuell geschriebenem Code zu erstellen und auszuführen. Anvil-Anwendungen bestehen grundsätzlich aus drei Komponenten: der Benutzeroberfläche (die sich manuell oder mit Low-Code-Tools erstellen lässt), dem clientseitigen Code (der von Python nach JavaScript transpiliert wird), sowie dem serverseitigen Python-Code. Der Anvil-Cloud-Editor generiert automatisch Backend- und Frontend-Code im Stil von Tools wie Qt Design Studio. Er enthält standardmäßig einige Beispiele – etwa eine einfache, statische Applikation ohne Backend-Code, ein simples Ticketing-System und einen vollständigen Onlineshop. Diese dienen potenziell als Template für Ihr eigenes Projekt. Die Cloud-Inkarnation von Anvil bietet ein mächtiges Visual-Design-Tool für UIs. Einmal generiert, können Sie den Code auch jenseits des Tools einsetzen.IDG Darüber hinaus bietet Anvil auch eine nützliche Auswahl an UI-Komponenten, die Sie in Ihre Webseiten einbinden können. Dazu gehört beispielsweise ein Timer, der dafür sorgt, dass Code in bestimmten Intervallen ausgeführt wird – etwa, um Datenquellen nach Aktualisierungen abzufragen. Bei Bedarf können Sie auch Ihr eigenes HTML und eigene Komponenten erstellen. Datenquellen lassen sich über die Cloud hinzufügen und mit Komponenten verdrahten, so dass gängige CRUD-Applikationen sehr flott entstehen. Wenn Sie sich dazu entscheiden, die Anvil Runtime zu nutzen, können Sie Anwendungen manuell schreiben und dabei einige Templates als Startpunkt nutzen. Code-Änderungen werden sofort auf den Anwendungsserver übertragen, was einen schnellen Entwicklungszyklus ermöglicht. Bei den Elementen der Benutzeroberfläche handelt es sich im Wesentlichen um Instanzen von Python-Klassen, deren Ereignis-Handler über Klassenmethoden hinzugefügt werden. Über gut durchdachte allgemeine Methoden lassen sich auch programmatische Verhaltensweisen hinzufügen. Wenn Sie beispielsweise einen Event bei den Children eines Objects auslösen möchten, brauchen Sie dafür keinen Loop. Stattdessen nutzen Sie einfach die raise_event_on_children-Methode für das Container-Objekt. Standardmäßig wird der gesamte JavaScript-Code für eine Anvil-Site automatisch generiert, Sie können bei Bedarf aber auch Ihren eigenen schreiben. In diesem Fall sollten Sie darauf achten, dass dieser nicht mit dem Anvil-Code in Konflikt gerät. Zudem sind einige der Anvil-eigenen Abhängigkeiten etwas veraltet, zum Beispiel Bootstrap 3. Dieses Problem können Sie umgehen, indem Sie ein benutzerdefiniertes Theme erstellen – was nicht leider nicht trivial ist. 2. Reflex Das Reflex-Framework (ehemals bekannt als Pynecone) kann nicht mit dem Design-Toolset von Anvil aufwarten, entspringt jedoch derselben Grundidee: Python-Code zu verwenden, um sowohl das Backend Ihres Web-Stacks zu coden, als auch das Frontend programmatisch zu generieren, ohne dabei auf JavaScript zurückgreifen zu müssen. Zu Pynecone-Zeiten verwendete das Framework selbst sowohl Python als auch die (Long-term Support-Version der) Node.js-Laufzeitumgebung in Kombination mit dem Bun JavaScript Library Manager. Reflex benötigt lediglich Python in Version 3.8 (oder höher) und funktioniert unter Linux und Windows. Benutzern des Microsoft-Betriebssystems wird für eine optimale Performance allerdings empfohlen, das Windows-Subsystem für Linux (WSL) zu nutzen. Um ein neues Reflex-Projekt aufzusetzen, nutzen Sie den reflex-Befehl. Ein Beispiel für eine Reflex-Webanwendung in Python. Der interaktive Chart unterstreicht die Widget-Vielfalt von Reflex.IDG Das Frontend einer Reflex-App kompiliert zu einer React-Anwendung, wobei FastAPI zum Einsatz kommt, um das Python-Backend zu bedienen. Viele gängige Komponenten sind bereits integriert – nicht nur so alltägliche Dinge wie Textlayouts oder Formularverarbeitung, sondern auch: Data Display Objects wie Diagramme, Feedback-Steuerelemente wie Alerts und Fortschrittsbalken sowie Overlay-Objekte wie Modals und Tooltips. Darüber hinaus lassen sich auch benutzerdefinierte React-Komponenten einbinden. Für die Anbindung an Datenquellen enthält Reflex einen Data Layer (SQLAlchemy ORM). Falls Sie eine UI-Komponente anpassen möchten, können die meisten gängigen Modifikationen (wie zum Beispiel CSS-Styling) als Argumente an den Object Constructor übergeben werden, anstatt eine Komponente per Subclassing zu ändern. Für alles andere gibt es benutzerdefiniertes HTML, aber eine Kombination aus den Built-Ins und ihren Optionen sollte für die große Mehrheit der gängigen Projekte ausreichen. Wenn Sie hauptsächlich statische Websites erstellen, bringt Reflex zudem eine praktische Funktion mit, mit der es sich auch als programmatisches Website-Generator-Tool empfiehlt – nämlich eine komplette Webseite in ein statisches Build zu exportieren. 3. NiceGUI Angenommen, Sie möchten einer existierenden Python-App, die über die Kommandozeile oder einen Web Service läuft, ein webbasiertes User Interface hinzufügen – und zwar möglichst schnell. Dann könnten Sie versuchen, ein Frontend in Eigenregie zusammenzuzimmern – oder sich den Aufwand sparen und einfach NiceGUI dafür verwenden. Dieses Python Web Framework nutzt deklarative Syntax, um zu beschreiben, wie UI-Komponenten aussehen und sich verhalten sollen. Das Spektrum an vorgefertigten Komponenten ist dabei breitgefächert und enthält beispielsweise: Buttons, Slider, Text-Label, Eingabefelder, und Datei-Uploader.   Darüber hinaus stehen auch einige Optionen für anspruchsvollere Audio- oder Videoanwendungen zur Verfügung, beispielsweise, um Daten interaktiv zu präsentieren oder 3D-Viualisierungen auf die Beine zu stellen. Dabei erfordert keine Komponente auch nur eine einzige Zeile Browser-Code – NiceGUI übernimmt das vollständig für Sie.   Eine simple NiceGUI-App mit programmatisch generierten Web Widgets. Die resultierede Applikation lässt sich als Standalone-Programm oder über einen Server bereitstellen.IDG Um vorhandenen Code mit NiceGUI zu wrappen, sollten Sie sich zuvor damit auseinandersetzen, wie NiceGUI beispielsweise mit Event Loops und Application State umgeht. Die gute Nachricht vorab: All das läuft über High-Level-Konstrukte innerhalb des NiceGUI-Frameworks selbst ab. Zum Beispiel: können Sie mit dem ui.timer-Objekt definieren, dass Code in bestimmten Intervallen ausgeführt wird; übernehmen ui.clipboard und app.storage die entsprechenden Prozesse; können langlaufende Tasks mit run.cpu_bound einfach an einen Subprozess delegiert werden – oder an einen Thread (run.io_bound). NiceGUI nutzt FastAPI als internes Web Framework – entsprechend folgen die Applikationen demselben Muster. Sie können darüber hinaus auch vorgefertigte Docker-Images als (containerisierte) Version einer NiceGUI-App nutzen. Oder Sie bündeln Ihre App als Standalone-Executable, um sie möglichst einfach zu verteilen. Welches Python Web Framework nutzen? Zusammenfassend lässt sich festhalten: Anvil besticht vor allem mit seinen Tools, um interaktive Benutzeroberflächen mit wenig bis gar keinem Code zu erstellen. Reflex empfiehlt sich, wenn Sie mit einem React-Frontened arbeiten und statische HTML-Seiten rendern möchten. NiceGUI bietet diverse deklarative Abstraktionen um schnell Anwendungen zu erstellen – inklusive Event Handling. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

3 Python Web Frameworks für Vorzeige-Frontends​ Wenn Sie interaktive Webseiten erstellen, dabei aber ausschließlich Python nutzen wollen, fahren Sie mit diesen Frameworks besser.
Foto: Kurit afshen – shutterstock.com

Python hat sich längst als Sprache für serverseitige Frameworks etabliert und unterstützt dabei Projekte jeder Größenordnung und sämtliche Use Cases. Allerdings ist Python bisher auch eher auf das Backend beschränkt – bislang gibt es noch keine wirkliche “Kultur”, Python für Frontend- und Client-seitigen Code zu nutzen. Das liegt auch daran, dass bisherige Versuche, Python am Frontend in JavaScript zu transpilieren oder über WebAssembly auszuführen, eher klobig und bisweilen primitiv umgesetzt wurden.

Doch es gibt neue Hoffnung: Einige moderne Web Frameworks ermöglichen es, deklarativen Python-Code im Backend zu schreiben, der programmatisch Frontend-Code generiert. Sie können Python-Objekte verwenden, um HTML-Entitäten und deren JavaScript-gestütztes Verhalten zu beschreiben – und dann das Framework diese Objekte erstellen lassen, wenn sie dem Client übergeben werden.

Die folgenden drei Web Frameworks für Python folgen exakt diesem Paradigma. Jedes von ihnen ermöglicht es, Frontend-Code (HTML, CSS und JavaScript) durch Backend-Python-Code zu erzeugen. Die Frontend-Objekte werden dabei durch das Python-Objektmodell dargestellt.

1. Anvil

Die Macher des Web Frameworks Anvil versprechen, “Webanwendungen mit nichts anderem als Python zu erstellen”. Allerdings können Sie dabei auch auf Low-Code-Tools mit Drag-and-Drop-Funktion zurückgreifen. Am Ende steht eine vollwertige Webanwendung mit einem interaktiven, JavaScript-basierten Frontend und einem Python-basierten Backend.

Anvil bietet dabei zwei grundlegende Ansätze:

Der Cloud Service ist in verschiedenen Preisstufen erhältlich und bietet visuelle Build-Tools sowie eine Reihe von Hosting-Optionen.

Die quelloffene Laufzeitumgebung von Anvil enthält kein Design-Tool, ermöglicht es aber, Anwendungen mit manuell geschriebenem Code zu erstellen und auszuführen.

Anvil-Anwendungen bestehen grundsätzlich aus drei Komponenten:

der Benutzeroberfläche (die sich manuell oder mit Low-Code-Tools erstellen lässt),

dem clientseitigen Code (der von Python nach JavaScript transpiliert wird), sowie

dem serverseitigen Python-Code.

Der Anvil-Cloud-Editor generiert automatisch Backend- und Frontend-Code im Stil von Tools wie Qt Design Studio. Er enthält standardmäßig einige Beispiele – etwa eine einfache, statische Applikation ohne Backend-Code, ein simples Ticketing-System und einen vollständigen Onlineshop. Diese dienen potenziell als Template für Ihr eigenes Projekt.

Die Cloud-Inkarnation von Anvil bietet ein mächtiges Visual-Design-Tool für UIs. Einmal generiert, können Sie den Code auch jenseits des Tools einsetzen.IDG

Darüber hinaus bietet Anvil auch eine nützliche Auswahl an UI-Komponenten, die Sie in Ihre Webseiten einbinden können. Dazu gehört beispielsweise ein Timer, der dafür sorgt, dass Code in bestimmten Intervallen ausgeführt wird – etwa, um Datenquellen nach Aktualisierungen abzufragen. Bei Bedarf können Sie auch Ihr eigenes HTML und eigene Komponenten erstellen. Datenquellen lassen sich über die Cloud hinzufügen und mit Komponenten verdrahten, so dass gängige CRUD-Applikationen sehr flott entstehen.

Wenn Sie sich dazu entscheiden, die Anvil Runtime zu nutzen, können Sie Anwendungen manuell schreiben und dabei einige Templates als Startpunkt nutzen. Code-Änderungen werden sofort auf den Anwendungsserver übertragen, was einen schnellen Entwicklungszyklus ermöglicht. Bei den Elementen der Benutzeroberfläche handelt es sich im Wesentlichen um Instanzen von Python-Klassen, deren Ereignis-Handler über Klassenmethoden hinzugefügt werden. Über gut durchdachte allgemeine Methoden lassen sich auch programmatische Verhaltensweisen hinzufügen. Wenn Sie beispielsweise einen Event bei den Children eines Objects auslösen möchten, brauchen Sie dafür keinen Loop. Stattdessen nutzen Sie einfach die raise_event_on_children-Methode für das Container-Objekt.

Standardmäßig wird der gesamte JavaScript-Code für eine Anvil-Site automatisch generiert, Sie können bei Bedarf aber auch Ihren eigenen schreiben. In diesem Fall sollten Sie darauf achten, dass dieser nicht mit dem Anvil-Code in Konflikt gerät. Zudem sind einige der Anvil-eigenen Abhängigkeiten etwas veraltet, zum Beispiel Bootstrap 3. Dieses Problem können Sie umgehen, indem Sie ein benutzerdefiniertes Theme erstellen – was nicht leider nicht trivial ist.

2. Reflex

Das Reflex-Framework (ehemals bekannt als Pynecone) kann nicht mit dem Design-Toolset von Anvil aufwarten, entspringt jedoch derselben Grundidee: Python-Code zu verwenden, um sowohl das Backend Ihres Web-Stacks zu coden, als auch das Frontend programmatisch zu generieren, ohne dabei auf JavaScript zurückgreifen zu müssen.

Zu Pynecone-Zeiten verwendete das Framework selbst sowohl Python als auch die (Long-term Support-Version der) Node.js-Laufzeitumgebung in Kombination mit dem Bun JavaScript Library Manager. Reflex benötigt lediglich Python in Version 3.8 (oder höher) und funktioniert unter Linux und Windows. Benutzern des Microsoft-Betriebssystems wird für eine optimale Performance allerdings empfohlen, das Windows-Subsystem für Linux (WSL) zu nutzen. Um ein neues Reflex-Projekt aufzusetzen, nutzen Sie den reflex-Befehl.

Ein Beispiel für eine Reflex-Webanwendung in Python. Der interaktive Chart unterstreicht die Widget-Vielfalt von Reflex.IDG

Das Frontend einer Reflex-App kompiliert zu einer React-Anwendung, wobei FastAPI zum Einsatz kommt, um das Python-Backend zu bedienen. Viele gängige Komponenten sind bereits integriert – nicht nur so alltägliche Dinge wie Textlayouts oder Formularverarbeitung, sondern auch:

Data Display Objects wie Diagramme,

Feedback-Steuerelemente wie Alerts und Fortschrittsbalken sowie

Overlay-Objekte wie Modals und Tooltips.

Darüber hinaus lassen sich auch benutzerdefinierte React-Komponenten einbinden. Für die Anbindung an Datenquellen enthält Reflex einen Data Layer (SQLAlchemy ORM).

Falls Sie eine UI-Komponente anpassen möchten, können die meisten gängigen Modifikationen (wie zum Beispiel CSS-Styling) als Argumente an den Object Constructor übergeben werden, anstatt eine Komponente per Subclassing zu ändern. Für alles andere gibt es benutzerdefiniertes HTML, aber eine Kombination aus den Built-Ins und ihren Optionen sollte für die große Mehrheit der gängigen Projekte ausreichen.

Wenn Sie hauptsächlich statische Websites erstellen, bringt Reflex zudem eine praktische Funktion mit, mit der es sich auch als programmatisches Website-Generator-Tool empfiehlt – nämlich eine komplette Webseite in ein statisches Build zu exportieren.

3. NiceGUI

Angenommen, Sie möchten einer existierenden Python-App, die über die Kommandozeile oder einen Web Service läuft, ein webbasiertes User Interface hinzufügen – und zwar möglichst schnell. Dann könnten Sie versuchen, ein Frontend in Eigenregie zusammenzuzimmern – oder sich den Aufwand sparen und einfach NiceGUI dafür verwenden. Dieses Python Web Framework nutzt deklarative Syntax, um zu beschreiben, wie UI-Komponenten aussehen und sich verhalten sollen.

Das Spektrum an vorgefertigten Komponenten ist dabei breitgefächert und enthält beispielsweise:

Buttons,

Slider,

Text-Label,

Eingabefelder, und

Datei-Uploader.  

Darüber hinaus stehen auch einige Optionen für anspruchsvollere Audio- oder Videoanwendungen zur Verfügung, beispielsweise, um Daten interaktiv zu präsentieren oder 3D-Viualisierungen auf die Beine zu stellen. Dabei erfordert keine Komponente auch nur eine einzige Zeile Browser-Code – NiceGUI übernimmt das vollständig für Sie.  

Eine simple NiceGUI-App mit programmatisch generierten Web Widgets. Die resultierede Applikation lässt sich als Standalone-Programm oder über einen Server bereitstellen.IDG

Um vorhandenen Code mit NiceGUI zu wrappen, sollten Sie sich zuvor damit auseinandersetzen, wie NiceGUI beispielsweise mit Event Loops und Application State umgeht. Die gute Nachricht vorab: All das läuft über High-Level-Konstrukte innerhalb des NiceGUI-Frameworks selbst ab. Zum Beispiel:

können Sie mit dem ui.timer-Objekt definieren, dass Code in bestimmten Intervallen ausgeführt wird;

übernehmen ui.clipboard und app.storage die entsprechenden Prozesse;

können langlaufende Tasks mit run.cpu_bound einfach an einen Subprozess delegiert werden – oder an einen Thread (run.io_bound).

NiceGUI nutzt FastAPI als internes Web Framework – entsprechend folgen die Applikationen demselben Muster. Sie können darüber hinaus auch vorgefertigte Docker-Images als (containerisierte) Version einer NiceGUI-App nutzen. Oder Sie bündeln Ihre App als Standalone-Executable, um sie möglichst einfach zu verteilen.

Welches Python Web Framework nutzen?

Zusammenfassend lässt sich festhalten:

Anvil besticht vor allem mit seinen Tools, um interaktive Benutzeroberflächen mit wenig bis gar keinem Code zu erstellen.

Reflex empfiehlt sich, wenn Sie mit einem React-Frontened arbeiten und statische HTML-Seiten rendern möchten.

NiceGUI bietet diverse deklarative Abstraktionen um schnell Anwendungen zu erstellen – inklusive Event Handling.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

3 Python Web Frameworks für Vorzeige-Frontends​ Weiterlesen »

Software-Entwicklung: 7 Faktoren für garantiertes Scheitern​

Allgemein

Kennen Sie das? Wochen und Monate berichtet der Projektleiter im Leitungskreis zu seinem Projekt. Selbstverständlich darf dabei die klassische Statusampel nicht fehlen. Und diese steht beständig auf Grün: alles ok. Doch eines Tages wechselt die Ampel unvermittelt auf Rot! Konsequenterweise beginnt nun für die Verantwortlichen ein sehr unerfreulicher Aufarbeitungsprozess. Meist gilt die erste Frage dem Schuldigen, die zweite den Ursachen und dann erst widmet man sich den Lösungsmöglichkeiten.Nachfolgend 7 typische Faktoren, die den Misserfolg fast schon garantieren.Faktor 1: Missachten Sie den Faktor MenschIn vielen Jahren als Entwickler, Projektleiter, Coach und Krisenmanager habe ich festgestellt, dass zwischenmenschliche Spannungen das größte Hindernis in der Umsetzung von IT-Projekten darstellen. Stimmt umgekehrt die Chemie zwischen den Mitarbeitern und es herrscht ein offenes, fehlertolerantes Klima, lassen sich für alle Schwierigkeiten Lösungen finden – auch in kritischen Situationen.Es liegt in der Natur des Menschen, Konflikten aus dem Weg zu gehen. Und somit ist es nur natürlich, wenn implizit oder explizit mit Personalführung beauftragte Personen (z.B. der Projektleiter) schlechte Stimmungen komplett ignorieren oder zu lange wegsehen. Doch Konflikte lösen sich meist nicht von alleine. Es bedarf der Ursachenforschung, der Moderation und mindestens die Perspektive auf Veränderung oder Lösung. Manchmal sind es die kleinen Dinge, die eine große Wirkung erzielen, wie z.B. ein neuer Arbeitsplatz für einen Mitarbeiter. Oft sind jedoch größere Aufwände notwendig, wie z.B. die Neuorganisation von Teams, um wieder Ruhe in das Projekt zu bringen. Die schlechteste Alternative ist jedoch die Missachtung des Faktors Mensch. Platz 1.Faktor 2: Zu groß denken oder zu klein machenManche Firmen übernehmen sich mit einem Projekt. Sie unterschätzen die Komplexität, die Risiken und den immensen personellen wie materiellen Aufwand. Ist – unabhängig von den Kosten – meine Organisation überhaupt in der Lage, ein Projekt mit 100 Mitarbeitern zu stemmen? Haben wir genügend Arbeitsplätze, Besprechungsräume, Netzkapazität, Entwicklungsserver etc.? Ist der Betrieb imstande, die Anforderungen eines großen agilen Entwicklungsteams an eine Entwicklungs- und Teststrecke inkl. Continuous Integration/Delivery zu erfüllen? Solchen Fragen vorangestellt, sollte der Business Case realistisch gerechnet worden sein. Ich habe es mehrfach erlebt, dass erst kurz vor dem Start eines gigantischen Projektes klar wurde, dass man das resultierende System eigentlich gar nicht benötigte, weil es nicht in das Geschäftsmodell des Unternehmens passte. Leider war das zuvor niemandem aufgefallen.Ein weiteres, erkennbares Muster: Ein Protagonist möchte die Realisierung einer SW unbedingt, z.B. aus Prestigegründen oder um Mitarbeiter auszulasten, und rechnet die Kosten klein. Ist der spätere Projektleiter nicht stark genug, die Diskrepanz im Rahmen von Entscheidungsgremien darzustellen, entstehen hieraus hohe Krisenpotenziale. Platz 2.Faktor 3: Sich auf Schätzungen und Planungen 100% verlassenEin weit verbreiteter Mythos ist die Verlässlichkeit von Schätzungen und Planungen. Der Begriff des Projektes ist definiert durch seine Einmaligkeit. Vielleicht gab es bereits ähnlich gelagerte Vorhaben, doch grundsätzlich betritt ein Unternehmen mit jedem Projekt Neuland. Das bedeutet, dass Schätzungen immer nur so gut sein können, wie die Erfahrungen der Ersteller und deren Adaptionsfähigkeiten bzgl. des aktuellen Projekts. Pläne können allerdings niemals spontane Ereignisse, Veränderungen hinsichtlich der Anforderungen, der Technologien oder den Eintritt nicht erwarteter Risiken mit einschließen. Letztlich sind Schätzungen und die darauf aufbauenden Pläne nichts weiter als eine Wette auf die Zukunft! Diese Tatsache zu akzeptieren, ist ein erster Schritt nach vorn. Disziplin, Mut und Systematik helfen, mögliche Krisen zu verhindern oder zu lindern. Platz 3.Faktor 4: Das magische PM-Dreieck konsequent missachtenStudium der Informatik, erstes Semester, erste Vorlesung Projektmanagement: “Das magische PM-Dreieck”. Schon sehr früh wird der an Managementaufgaben Interessierte an die Gesetze dieses Dreiecks herangeführt. Diese besagen, dass die Veränderung eines der drei Parameter Zeit, Budget oder Inhalt (Qualität) unweigerlich zu Konsequenzen bei mindestens einem der weiteren Parameter führen.Doch werden diese Gesetze in der Praxis nur zu gerne ignoriert. Wie schon im Kontext von Schätzung und Planung erwähnt, ist ein Projekt etwas Einmaliges und die Wahrscheinlichkeit von nicht geplanten Einflüssen extrem hoch. Deshalb ist es früher oder später in quasi jedem Projekt erforderlich, dass die Verantwortlichen auf diese Einflüsse reagieren. Sind dann jedoch alle Parameter fixiert, d.h. der Kunde fordert weiterhin die Einhaltung von Zeit, Budget und Inhalt, ist das Scheitern nur noch eine Frage der Zeit. Platz 4.Faktor 5: Dokumentation über allesFrei nach Franz Beckenbauer: “We call it a Klassiker!” Obwohl immer mehr Unternehmen auf agile Vorgehensweisen (meist Scrum) setzen, findet man weiterhin Organisationen und Projekte, welche einer umfangreichen Dokumentation den größeren Stellenwert einräumen, als der zu erstellenden Software. Gerade in großen Projekten ist dies ein hohes Risiko. Oftmals arbeitet über Monate oder gar Jahre eine Heerschar von Beratern und Fachbereichsexperten an tausenden Seiten Beschreibungen, welche später von einem anderen Team in SW übersetzt werden. Je umfangreicher die Dokumentation, desto länger die Realisierungszeit und umso unwahrscheinlicher ist es, dass die SW den tatsächlichen Erfordernissen der Anwender entspricht. Reaktionen auf Veränderungen des Marktes sind nicht oder nur mit großem Aufwand und zeitlichen Zugeständnissen möglich. Zwar bietet ein Dokument eine Basis, gegen die das Produkt abgenommen werden kann. Doch leider ist das Geschriebene nicht unbedingt eindeutig und das Ergebnis anders als ursprünglich gedacht. Wie oft habe ich von Fachbereichsmitarbeitern und Endanwendern den Satz gehört: “Oh, das habe ich mir aber ganz anders vorgestellt!”. Platz 5.Faktor 6: Bloß keine ausgewogene ProjektorganisationEin Team von 20 Entwicklern und 1 fachlicher Ansprechpartner? Es bedarf keines Expertenwissens, um zu erkennen, dass dieses Konstrukt früher oder später scheitern wird. Zu Beginn eines Projektes, egal ob Wasserfall oder agil, mag es noch funktionieren, weil die Entwickler mit Frameworks oder der Einrichtung der Umgebungen beschäftigt sind. Doch sehr bald werden die Mitarbeiter Fragen stellen – intensive fachliche Betreuung benötigen. Ein einzelner Fachexperte kann diesem zeitlichen und emotionalen Druck niemals standhalten und benötigt Unterstützung, sowohl personell als auch durch den Realisierungsprozess. Allerdings ist es eine sehr schlechte Idee, dem Personalengpass mit der Beschränkung der Kommunikation zu begegnen.Ebenfalls eine beliebte Idee und ganz weit vorne auf der Skala der typischen Managementfehler: Ein Mitarbeiter sammelt die Fragen der Entwickler, erörtert diese mit dem fachlichen Ansprechpartner und trägt die Antworten wieder zurück. Auf diese Weise erzeugt man einen Flaschenhals par excellence, löst eine extrem hohe Fehlerquote aus und verzögert die Entwicklung maßgeblich. Mein Platz 6 für sicheres Scheitern.Faktor 7: Den Frosch unbedingt langsam erhitzenKennen Sie diese Geschichte? Setzt man einen Frosch in einen Topf mit Wasser und erhitzt dieses kontinuierlich bis zum Kochen, unternimmt der Frosch keinerlei Fluchtversuche. Wirft man ihn direkt in heißes Wasser, springt er sofort heraus.Eine der für mich wichtigsten Erkenntnisse der letzten Jahre ist, dass Mitarbeiter von IT-Projekten mit fortschreitender Dauer einer zunehmenden Betriebsblindheit verfallen. Einmal etablierte Prozesse werden vielleicht in Retrospektiven hinterfragt, aber selten wirklich einschneidend angepasst. Die Fähigkeit der Menschen auf Veränderungen zu reagieren, schwindet umgekehrt proportional zur Dauer eines Projektes. Daher ist die sporadische Beleuchtung (Health Checks) von (insbesondere großen) Projekten durch einen externen, bisher nicht involvierten Berater zu empfehlen, um ausgetretene, potenziell nicht zielführende Pfade zu entdecken. Spätestens nach Erkennen einer ausgewachsenen Krise, ist es nahezu unmöglich, alleine mit dem bestehenden Personal den Turnaround zu schaffen. Platz 7.So kann es sicher gelingenDie beschriebenen typischen Managementfehler stellen lediglich eine kleine Auswahl meiner persönlichen Hitliste von Verhaltensmustern dar, welche den erfolgreichen Abschluss von SW-Entwicklungsprojekten be- oder gar verhindern. Aus der Distanz betrachtet, könnte der Eindruck entstehen, es sei ein Leichtes, die Probleme zu erkennen und bereits in frühen Stadien der Projekte zu korrigieren. Doch vermeintlich unverrückbare Rahmenbedingungen und die angesprochene Betriebsblindheit erschweren es oftmals, die richtigen Entscheidungen zu treffen. Die eingangs erwähnten Statistiken der Standish Group beweisen dies Jahr für Jahr.Ist ein Projekt tatsächlich in Schieflage geraten, empfiehlt sich dringend das Hinzuziehen eines externen Krisenmanagers, der objektiv, frei von Befindlichkeiten und ohne den Ballast einer Projekthistorie analysieren und agieren kann. Allein die Beteiligung eines Sachverständigen, der den Menschen im Projekt zuhört, kann bereits positive Effekte hervorrufen. Durch die Auswahl geeigneter Maßnahmen gelingen auch die Transformation und schließlich der Turnaround.15 Probleme beim Projektmanagement1. Unklare ArbeitslastBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte ErwartungenAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-UnterstützungDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema FIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes HerrschaftswissenProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare EntscheidungsfindungIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende SoftwareExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des AusufernsChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen könnenIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder ZusammenhaltProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener ArbeitsalltagHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige MeetingsMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gutSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernenLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim ProjektmanagementEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden. 

Software-Entwicklung: 7 Faktoren für garantiertes Scheitern​ Kennen Sie das? Wochen und Monate berichtet der Projektleiter im Leitungskreis zu seinem Projekt. Selbstverständlich darf dabei die klassische Statusampel nicht fehlen. Und diese steht beständig auf Grün: alles ok. Doch eines Tages wechselt die Ampel unvermittelt auf Rot! Konsequenterweise beginnt nun für die Verantwortlichen ein sehr unerfreulicher Aufarbeitungsprozess. Meist gilt die erste Frage dem Schuldigen, die zweite den Ursachen und dann erst widmet man sich den Lösungsmöglichkeiten.Nachfolgend 7 typische Faktoren, die den Misserfolg fast schon garantieren.Faktor 1: Missachten Sie den Faktor MenschIn vielen Jahren als Entwickler, Projektleiter, Coach und Krisenmanager habe ich festgestellt, dass zwischenmenschliche Spannungen das größte Hindernis in der Umsetzung von IT-Projekten darstellen. Stimmt umgekehrt die Chemie zwischen den Mitarbeitern und es herrscht ein offenes, fehlertolerantes Klima, lassen sich für alle Schwierigkeiten Lösungen finden – auch in kritischen Situationen.Es liegt in der Natur des Menschen, Konflikten aus dem Weg zu gehen. Und somit ist es nur natürlich, wenn implizit oder explizit mit Personalführung beauftragte Personen (z.B. der Projektleiter) schlechte Stimmungen komplett ignorieren oder zu lange wegsehen. Doch Konflikte lösen sich meist nicht von alleine. Es bedarf der Ursachenforschung, der Moderation und mindestens die Perspektive auf Veränderung oder Lösung. Manchmal sind es die kleinen Dinge, die eine große Wirkung erzielen, wie z.B. ein neuer Arbeitsplatz für einen Mitarbeiter. Oft sind jedoch größere Aufwände notwendig, wie z.B. die Neuorganisation von Teams, um wieder Ruhe in das Projekt zu bringen. Die schlechteste Alternative ist jedoch die Missachtung des Faktors Mensch. Platz 1.Faktor 2: Zu groß denken oder zu klein machenManche Firmen übernehmen sich mit einem Projekt. Sie unterschätzen die Komplexität, die Risiken und den immensen personellen wie materiellen Aufwand. Ist – unabhängig von den Kosten – meine Organisation überhaupt in der Lage, ein Projekt mit 100 Mitarbeitern zu stemmen? Haben wir genügend Arbeitsplätze, Besprechungsräume, Netzkapazität, Entwicklungsserver etc.? Ist der Betrieb imstande, die Anforderungen eines großen agilen Entwicklungsteams an eine Entwicklungs- und Teststrecke inkl. Continuous Integration/Delivery zu erfüllen? Solchen Fragen vorangestellt, sollte der Business Case realistisch gerechnet worden sein. Ich habe es mehrfach erlebt, dass erst kurz vor dem Start eines gigantischen Projektes klar wurde, dass man das resultierende System eigentlich gar nicht benötigte, weil es nicht in das Geschäftsmodell des Unternehmens passte. Leider war das zuvor niemandem aufgefallen.Ein weiteres, erkennbares Muster: Ein Protagonist möchte die Realisierung einer SW unbedingt, z.B. aus Prestigegründen oder um Mitarbeiter auszulasten, und rechnet die Kosten klein. Ist der spätere Projektleiter nicht stark genug, die Diskrepanz im Rahmen von Entscheidungsgremien darzustellen, entstehen hieraus hohe Krisenpotenziale. Platz 2.Faktor 3: Sich auf Schätzungen und Planungen 100% verlassenEin weit verbreiteter Mythos ist die Verlässlichkeit von Schätzungen und Planungen. Der Begriff des Projektes ist definiert durch seine Einmaligkeit. Vielleicht gab es bereits ähnlich gelagerte Vorhaben, doch grundsätzlich betritt ein Unternehmen mit jedem Projekt Neuland. Das bedeutet, dass Schätzungen immer nur so gut sein können, wie die Erfahrungen der Ersteller und deren Adaptionsfähigkeiten bzgl. des aktuellen Projekts. Pläne können allerdings niemals spontane Ereignisse, Veränderungen hinsichtlich der Anforderungen, der Technologien oder den Eintritt nicht erwarteter Risiken mit einschließen. Letztlich sind Schätzungen und die darauf aufbauenden Pläne nichts weiter als eine Wette auf die Zukunft! Diese Tatsache zu akzeptieren, ist ein erster Schritt nach vorn. Disziplin, Mut und Systematik helfen, mögliche Krisen zu verhindern oder zu lindern. Platz 3.Faktor 4: Das magische PM-Dreieck konsequent missachtenStudium der Informatik, erstes Semester, erste Vorlesung Projektmanagement: “Das magische PM-Dreieck”. Schon sehr früh wird der an Managementaufgaben Interessierte an die Gesetze dieses Dreiecks herangeführt. Diese besagen, dass die Veränderung eines der drei Parameter Zeit, Budget oder Inhalt (Qualität) unweigerlich zu Konsequenzen bei mindestens einem der weiteren Parameter führen.Doch werden diese Gesetze in der Praxis nur zu gerne ignoriert. Wie schon im Kontext von Schätzung und Planung erwähnt, ist ein Projekt etwas Einmaliges und die Wahrscheinlichkeit von nicht geplanten Einflüssen extrem hoch. Deshalb ist es früher oder später in quasi jedem Projekt erforderlich, dass die Verantwortlichen auf diese Einflüsse reagieren. Sind dann jedoch alle Parameter fixiert, d.h. der Kunde fordert weiterhin die Einhaltung von Zeit, Budget und Inhalt, ist das Scheitern nur noch eine Frage der Zeit. Platz 4.Faktor 5: Dokumentation über allesFrei nach Franz Beckenbauer: “We call it a Klassiker!” Obwohl immer mehr Unternehmen auf agile Vorgehensweisen (meist Scrum) setzen, findet man weiterhin Organisationen und Projekte, welche einer umfangreichen Dokumentation den größeren Stellenwert einräumen, als der zu erstellenden Software. Gerade in großen Projekten ist dies ein hohes Risiko. Oftmals arbeitet über Monate oder gar Jahre eine Heerschar von Beratern und Fachbereichsexperten an tausenden Seiten Beschreibungen, welche später von einem anderen Team in SW übersetzt werden. Je umfangreicher die Dokumentation, desto länger die Realisierungszeit und umso unwahrscheinlicher ist es, dass die SW den tatsächlichen Erfordernissen der Anwender entspricht. Reaktionen auf Veränderungen des Marktes sind nicht oder nur mit großem Aufwand und zeitlichen Zugeständnissen möglich. Zwar bietet ein Dokument eine Basis, gegen die das Produkt abgenommen werden kann. Doch leider ist das Geschriebene nicht unbedingt eindeutig und das Ergebnis anders als ursprünglich gedacht. Wie oft habe ich von Fachbereichsmitarbeitern und Endanwendern den Satz gehört: “Oh, das habe ich mir aber ganz anders vorgestellt!”. Platz 5.Faktor 6: Bloß keine ausgewogene ProjektorganisationEin Team von 20 Entwicklern und 1 fachlicher Ansprechpartner? Es bedarf keines Expertenwissens, um zu erkennen, dass dieses Konstrukt früher oder später scheitern wird. Zu Beginn eines Projektes, egal ob Wasserfall oder agil, mag es noch funktionieren, weil die Entwickler mit Frameworks oder der Einrichtung der Umgebungen beschäftigt sind. Doch sehr bald werden die Mitarbeiter Fragen stellen – intensive fachliche Betreuung benötigen. Ein einzelner Fachexperte kann diesem zeitlichen und emotionalen Druck niemals standhalten und benötigt Unterstützung, sowohl personell als auch durch den Realisierungsprozess. Allerdings ist es eine sehr schlechte Idee, dem Personalengpass mit der Beschränkung der Kommunikation zu begegnen.Ebenfalls eine beliebte Idee und ganz weit vorne auf der Skala der typischen Managementfehler: Ein Mitarbeiter sammelt die Fragen der Entwickler, erörtert diese mit dem fachlichen Ansprechpartner und trägt die Antworten wieder zurück. Auf diese Weise erzeugt man einen Flaschenhals par excellence, löst eine extrem hohe Fehlerquote aus und verzögert die Entwicklung maßgeblich. Mein Platz 6 für sicheres Scheitern.Faktor 7: Den Frosch unbedingt langsam erhitzenKennen Sie diese Geschichte? Setzt man einen Frosch in einen Topf mit Wasser und erhitzt dieses kontinuierlich bis zum Kochen, unternimmt der Frosch keinerlei Fluchtversuche. Wirft man ihn direkt in heißes Wasser, springt er sofort heraus.Eine der für mich wichtigsten Erkenntnisse der letzten Jahre ist, dass Mitarbeiter von IT-Projekten mit fortschreitender Dauer einer zunehmenden Betriebsblindheit verfallen. Einmal etablierte Prozesse werden vielleicht in Retrospektiven hinterfragt, aber selten wirklich einschneidend angepasst. Die Fähigkeit der Menschen auf Veränderungen zu reagieren, schwindet umgekehrt proportional zur Dauer eines Projektes. Daher ist die sporadische Beleuchtung (Health Checks) von (insbesondere großen) Projekten durch einen externen, bisher nicht involvierten Berater zu empfehlen, um ausgetretene, potenziell nicht zielführende Pfade zu entdecken. Spätestens nach Erkennen einer ausgewachsenen Krise, ist es nahezu unmöglich, alleine mit dem bestehenden Personal den Turnaround zu schaffen. Platz 7.So kann es sicher gelingenDie beschriebenen typischen Managementfehler stellen lediglich eine kleine Auswahl meiner persönlichen Hitliste von Verhaltensmustern dar, welche den erfolgreichen Abschluss von SW-Entwicklungsprojekten be- oder gar verhindern. Aus der Distanz betrachtet, könnte der Eindruck entstehen, es sei ein Leichtes, die Probleme zu erkennen und bereits in frühen Stadien der Projekte zu korrigieren. Doch vermeintlich unverrückbare Rahmenbedingungen und die angesprochene Betriebsblindheit erschweren es oftmals, die richtigen Entscheidungen zu treffen. Die eingangs erwähnten Statistiken der Standish Group beweisen dies Jahr für Jahr.Ist ein Projekt tatsächlich in Schieflage geraten, empfiehlt sich dringend das Hinzuziehen eines externen Krisenmanagers, der objektiv, frei von Befindlichkeiten und ohne den Ballast einer Projekthistorie analysieren und agieren kann. Allein die Beteiligung eines Sachverständigen, der den Menschen im Projekt zuhört, kann bereits positive Effekte hervorrufen. Durch die Auswahl geeigneter Maßnahmen gelingen auch die Transformation und schließlich der Turnaround.15 Probleme beim Projektmanagement1. Unklare ArbeitslastBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte ErwartungenAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-UnterstützungDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema FIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes HerrschaftswissenProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare EntscheidungsfindungIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende SoftwareExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des AusufernsChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen könnenIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder ZusammenhaltProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener ArbeitsalltagHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige MeetingsMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gutSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernenLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim ProjektmanagementEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden.

Software-Entwicklung: 7 Faktoren für garantiertes Scheitern​ Weiterlesen »

Hilfe bei Entlassung: So geht erfolgreiches Outplacement​

Allgemein

Durch gezieltes und faires Outplacement kann der Abschied von Kollegen nach einer Kündigung leichter fallen. Foto: ASDF_MEDIA – shutterstock.comDie wirschaftlichen Folgen des Ukraine-Konflikts haben zu millionenfachen Entlassungen geführt. Gerade für kleine und mittelständische Unternehmen sind diese oftmals mit einem großen administrativen Aufwand und hohen Kosten verbunden. Vor allem dann, wenn es keine eigenen HR-Abteilungen im Unternehmen gibt.Wer dabei schon zu Beginn auf Outplacement setzt, kann nicht nur ungewollte Streitigkeiten vermeiden, sondern auch die Ressourcen seines Unternehmens schützen. Unter Outplacement versteht man die externe Beratung zur beruflichen Neuorientierung zukünftig ausscheidender Mitarbeiter. Die Berater helfen diesen bei der Jobsuche, noch bevor sie ihre alte Anstellung verloren haben. Angefangen bei der Situationsanalyse, werden dazu die individuellen Fähigkeiten bestimmt, der Lebenslauf auf Grundlage der neuesten Standards verfasst sowie ein Interview-Coaching vorgenommen, um bestmöglich auf Bewerbungsgespräche vorbereitet zu sein.Entlassung mit neuer Job-VisionInteressant ist Outplacement für Unternehmen, die ihren Mitarbeitern sagen wollen: “We care”. Die, die bleiben, erkennen darin die Wertschätzung aller und sind umso motivierter. Zudem können durch Outplacement langwierige Rechtsstreitigkeiten umgangen und hohe Abfindungszahlungen vermieden werden, so dass letztlich sowohl Arbeitgeber als auch Arbeitnehmer profitieren.Ein Outplacement und die Vermittlung von qualifizierten Mitarbeitern ist dann besonders sinnvoll, wenn der Betrieb aus Branchen kommt, wo der Fachkräftemangel allgegenwärtig ist. Der Grund: Es ist sehr wahrscheinlich, dass bewährte Fachkräfte, die entlassen werden müssen, in anderen Firmen händeringend gesucht werden. Doch auch beim Outplacement von scheidenden Mitarbeitern sollten folgende fünf Punkte beachtet werden, damit ein reibungsloser Übergang für beide Parteien am Ende auch wirklich funktioniert.1. Suchen Sie das GesprächDie Trennung von Mitarbeitern ist weder für den Vorgesetzten, der die Nachricht überbringt, noch für den Betroffenen, der seinen Arbeitsplatz verliert, angenehm. Leider wird das Gespräch für den Arbeitnehmer nie erfolgreich oder positiv ausgehen. Bedanken etwa wird sich der Mitarbeiter keinesfalls. Und dennoch: Dieses Gespräch gehört zur Führungsaufgabe! Fundamental ist eine gute Vorbereitung. Ziel allen Austauschs sollte immer eine faire und wertschätzende Trennung sein. Bereits im ersten Gespräch sollten das weitere Vorgehen und ein möglicher Outplacement-Prozess besprochen werden.2. Handeln Sie zügigStellen Sie den Mitarbeiter möglichst schnell frei, damit er unmittelbar mit der Neuorientierung beginnen kann. Es gilt den “Abnabelungsprozess” durch eine faire und konstruktive Trennung zu beschleunigen. Eine intensive berufliche Neuorientierung erfordert volle Konzentration und nimmt mehr Zeit in Anspruch, als ein Full-Time-Job zulässt. Gerade dann, wenn der Mitarbeiter auf unterschiedlichen Wegen einen neuen Job sucht oder noch Bewerbungsunterlagen anfertigen muss. Je schneller es beiden Seiten gelingt, den Blick nach vorne zu richten, desto reibungsloser erfolgt der Trennungsprozess.3. Zeigen Sie sich großzügigBieten Sie Outplacement zusätzlich zur Abfindung an. Der Arbeitnehmer profitiert, da er sehr wahrscheinlich schneller einen neuen Job findet. Der Vorteil für das Unternehmen: Je früher der betroffene Mitarbeiter mit der Suche beginnt, desto schneller ist der Trennungsprozess beendet. So können Restlaufzeiten der Arbeitsverträge verkürzt werden und eine potentielle Neuausrichtung besser gelingen. Outplacement als Zusatzleistung ist zudem für das Image des Unternehmens von Bedeutung. Es zeigt: “We care for you”.4. Schaffen Sie TransparenzEs ist wichtig frühzeitig den Betriebsrat einzubeziehen, um den Trennungsprozess aktiv und positiv beeinflussen zu können. Als Sprachrohr der Belegschaft ist der Betriebsrat in jedem Fall an Konzepten interessiert, die die Trennung von einzelnen Mitarbeitern oder einen größeren Personalabbau möglichst verträglich gestalten und berufliche Perspektiven aufzeigen. Viele Betriebsräte haben bereits erkannt, dass die rein monetäre Abfindung mittlerweile weniger wiegt als die professionelle Beratung für die berufliche Neuorientierung.5. Wählen Sie ihren Anbieter mit SorgfaltWählen Sie den Outplacement-Anbieter mit der gleichen Sorgfalt aus, mit der Sie auch andere Zulieferer oder Dienstleister aussuchen. Der Anbieter muss eine klare Kosten- und Leistungsübersicht haben. Haben Sie hierbei die Leistungsbestandteile mit dem höchsten Mehrwert für den Mitarbeiter im Blick. Fragen Sie gezielt nach orts- und zeitunabhängigen Beratungseinheiten, individuellen Beratungsmöglichkeiten und Beratervielfalt.FazitEntlassungen und Umstrukturierungen gehören zur Arbeitswelt und Wirtschaftlichkeit von Unternehmen dazu. Outplacement-Prozesse, die vom Arbeitnehmer initiiert und angeboten werden, sind für den scheidenden Arbeitnehmer aber weit mehr als ein schwacher Trost. Vielmehr ist Outplacement ein wichtiger Baustein für die erfolgreiche Weiterführung der Karriere des Arbeitnehmers. Arbeitgeber können mit Outplacement zeigen, dass Sie sich um ihre Mitarbeiter sorgen und die Unternehmenswerte auch über das Arbeitsverhältnis dieser hinaus Bestand haben.Ratgeber OutplacementHilfestellung nach der Kündigung Foto: Mathias Rosenthal – shutterstock.comUnternehmen, die notgedrungen Kündigungen aussprechen müssen, können die Situation gekündigter Mitarbeiter durch Outplacement erleichtern. Lionstep gibt Tipps, wie gutes Outplacement ablaufen sollte. Das Gespräch suchen Foto: Monkey Business Images – shutterstock.comDie Trennung von Mitarbeitern ist weder für den Vorgesetzten, der die Nachricht überbringt, noch für den Betroffenen, der seinen Arbeitsplatz verliert, angenehm. Und dennoch: Dieses Gespräch gehört zur Führungsaufgabe! Fundamental ist eine gute Vorbereitung. Ziel allen Austauschs sollte immer eine faire und wertschätzende Trennung sein. Bereits im ersten Gespräch sollten das weitere Vorgehen und ein möglicher Outplacement-Prozess besprochen werden. Zügig handeln Foto: TippaPatt – shutterstock.comStellen Sie den Mitarbeiter möglichst schnell frei, damit er unmittelbar mit der Neuorientierung beginnen kann. Es gilt den „Abnabelungsprozess“ durch eine faire und konstruktive Trennung zu beschleunigen. Eine intensive berufliche Neuorientierung erfordert volle Konzentration und nimmt mehr Zeit in Anspruch, als ein Full-Time-Job zulässt. Großzügigkeit zeigen Foto: Gajus – shutterstock.comBieten Sie Outplacement zusätzlich zur Abfindung an. Der Arbeitnehmer profitiert, da er sehr wahrscheinlich schneller einen neuen Job findet. Der Vorteil für das Unternehmen: Je früher der betroffene Mitarbeiter mit der Suche beginnt, desto schneller ist der Trennungsprozess beendet. So können Restlaufzeiten der Arbeitsverträge verkürzt werden und eine potentielle Neuausrichtung besser gelingen. Outplacement als Zusatzleistung ist zudem für das Image des Unternehmens von Bedeutung. Es zeigt: „We care for you“. Transparenz schaffen Foto: Kritchanut – shutterstock.comEs ist wichtig frühzeitig den Betriebsrat einzubeziehen, um den Trennungsprozess aktiv und positiv beeinflussen zu können. Als Sprachrohr der Belegschaft ist der Betriebsrat in jedem Fall an Konzepten interessiert, die die Trennung von einzelnen Mitarbeitern oder einen größeren Personalabbau möglichst verträglich gestalten und berufliche Perspektiven aufzeigen. Sorgfältige Anbieterauswahl Foto: kan_chana – shutterstock.comWählen Sie den Outplacement-Anbieter mit der gleichen Sorgfalt aus, mit der Sie auch andere Zulieferer oder Dienstleister aussuchen. Der Anbieter muss eine klare Kosten- und Leistungsübersicht haben. Haben Sie hierbei die Leistungsbestandteile mit dem höchsten Mehrwert für den Mitarbeiter im Blick. Fragen Sie gezielt nach orts- und zeitunabhängigen Beratungseinheiten, individuellen Beratungsmöglichkeiten und Beratervielfalt. 

Hilfe bei Entlassung: So geht erfolgreiches Outplacement​ Durch gezieltes und faires Outplacement kann der Abschied von Kollegen nach einer Kündigung leichter fallen.
Foto: ASDF_MEDIA – shutterstock.comDie wirschaftlichen Folgen des Ukraine-Konflikts haben zu millionenfachen Entlassungen geführt. Gerade für kleine und mittelständische Unternehmen sind diese oftmals mit einem großen administrativen Aufwand und hohen Kosten verbunden. Vor allem dann, wenn es keine eigenen HR-Abteilungen im Unternehmen gibt.Wer dabei schon zu Beginn auf Outplacement setzt, kann nicht nur ungewollte Streitigkeiten vermeiden, sondern auch die Ressourcen seines Unternehmens schützen. Unter Outplacement versteht man die externe Beratung zur beruflichen Neuorientierung zukünftig ausscheidender Mitarbeiter. Die Berater helfen diesen bei der Jobsuche, noch bevor sie ihre alte Anstellung verloren haben. Angefangen bei der Situationsanalyse, werden dazu die individuellen Fähigkeiten bestimmt, der Lebenslauf auf Grundlage der neuesten Standards verfasst sowie ein Interview-Coaching vorgenommen, um bestmöglich auf Bewerbungsgespräche vorbereitet zu sein.Entlassung mit neuer Job-VisionInteressant ist Outplacement für Unternehmen, die ihren Mitarbeitern sagen wollen: “We care”. Die, die bleiben, erkennen darin die Wertschätzung aller und sind umso motivierter. Zudem können durch Outplacement langwierige Rechtsstreitigkeiten umgangen und hohe Abfindungszahlungen vermieden werden, so dass letztlich sowohl Arbeitgeber als auch Arbeitnehmer profitieren.Ein Outplacement und die Vermittlung von qualifizierten Mitarbeitern ist dann besonders sinnvoll, wenn der Betrieb aus Branchen kommt, wo der Fachkräftemangel allgegenwärtig ist. Der Grund: Es ist sehr wahrscheinlich, dass bewährte Fachkräfte, die entlassen werden müssen, in anderen Firmen händeringend gesucht werden. Doch auch beim Outplacement von scheidenden Mitarbeitern sollten folgende fünf Punkte beachtet werden, damit ein reibungsloser Übergang für beide Parteien am Ende auch wirklich funktioniert.1. Suchen Sie das GesprächDie Trennung von Mitarbeitern ist weder für den Vorgesetzten, der die Nachricht überbringt, noch für den Betroffenen, der seinen Arbeitsplatz verliert, angenehm. Leider wird das Gespräch für den Arbeitnehmer nie erfolgreich oder positiv ausgehen. Bedanken etwa wird sich der Mitarbeiter keinesfalls. Und dennoch: Dieses Gespräch gehört zur Führungsaufgabe! Fundamental ist eine gute Vorbereitung. Ziel allen Austauschs sollte immer eine faire und wertschätzende Trennung sein. Bereits im ersten Gespräch sollten das weitere Vorgehen und ein möglicher Outplacement-Prozess besprochen werden.2. Handeln Sie zügigStellen Sie den Mitarbeiter möglichst schnell frei, damit er unmittelbar mit der Neuorientierung beginnen kann. Es gilt den “Abnabelungsprozess” durch eine faire und konstruktive Trennung zu beschleunigen. Eine intensive berufliche Neuorientierung erfordert volle Konzentration und nimmt mehr Zeit in Anspruch, als ein Full-Time-Job zulässt. Gerade dann, wenn der Mitarbeiter auf unterschiedlichen Wegen einen neuen Job sucht oder noch Bewerbungsunterlagen anfertigen muss. Je schneller es beiden Seiten gelingt, den Blick nach vorne zu richten, desto reibungsloser erfolgt der Trennungsprozess.3. Zeigen Sie sich großzügigBieten Sie Outplacement zusätzlich zur Abfindung an. Der Arbeitnehmer profitiert, da er sehr wahrscheinlich schneller einen neuen Job findet. Der Vorteil für das Unternehmen: Je früher der betroffene Mitarbeiter mit der Suche beginnt, desto schneller ist der Trennungsprozess beendet. So können Restlaufzeiten der Arbeitsverträge verkürzt werden und eine potentielle Neuausrichtung besser gelingen. Outplacement als Zusatzleistung ist zudem für das Image des Unternehmens von Bedeutung. Es zeigt: “We care for you”.4. Schaffen Sie TransparenzEs ist wichtig frühzeitig den Betriebsrat einzubeziehen, um den Trennungsprozess aktiv und positiv beeinflussen zu können. Als Sprachrohr der Belegschaft ist der Betriebsrat in jedem Fall an Konzepten interessiert, die die Trennung von einzelnen Mitarbeitern oder einen größeren Personalabbau möglichst verträglich gestalten und berufliche Perspektiven aufzeigen. Viele Betriebsräte haben bereits erkannt, dass die rein monetäre Abfindung mittlerweile weniger wiegt als die professionelle Beratung für die berufliche Neuorientierung.5. Wählen Sie ihren Anbieter mit SorgfaltWählen Sie den Outplacement-Anbieter mit der gleichen Sorgfalt aus, mit der Sie auch andere Zulieferer oder Dienstleister aussuchen. Der Anbieter muss eine klare Kosten- und Leistungsübersicht haben. Haben Sie hierbei die Leistungsbestandteile mit dem höchsten Mehrwert für den Mitarbeiter im Blick. Fragen Sie gezielt nach orts- und zeitunabhängigen Beratungseinheiten, individuellen Beratungsmöglichkeiten und Beratervielfalt.FazitEntlassungen und Umstrukturierungen gehören zur Arbeitswelt und Wirtschaftlichkeit von Unternehmen dazu. Outplacement-Prozesse, die vom Arbeitnehmer initiiert und angeboten werden, sind für den scheidenden Arbeitnehmer aber weit mehr als ein schwacher Trost. Vielmehr ist Outplacement ein wichtiger Baustein für die erfolgreiche Weiterführung der Karriere des Arbeitnehmers. Arbeitgeber können mit Outplacement zeigen, dass Sie sich um ihre Mitarbeiter sorgen und die Unternehmenswerte auch über das Arbeitsverhältnis dieser hinaus Bestand haben.Ratgeber OutplacementHilfestellung nach der Kündigung
Foto: Mathias Rosenthal – shutterstock.comUnternehmen, die notgedrungen Kündigungen aussprechen müssen, können die Situation gekündigter Mitarbeiter durch Outplacement erleichtern. Lionstep gibt Tipps, wie gutes Outplacement ablaufen sollte. Das Gespräch suchen
Foto: Monkey Business Images – shutterstock.comDie Trennung von Mitarbeitern ist weder für den Vorgesetzten, der die Nachricht überbringt, noch für den Betroffenen, der seinen Arbeitsplatz verliert, angenehm. Und dennoch: Dieses Gespräch gehört zur Führungsaufgabe! Fundamental ist eine gute Vorbereitung. Ziel allen Austauschs sollte immer eine faire und wertschätzende Trennung sein. Bereits im ersten Gespräch sollten das weitere Vorgehen und ein möglicher Outplacement-Prozess besprochen werden. Zügig handeln
Foto: TippaPatt – shutterstock.comStellen Sie den Mitarbeiter möglichst schnell frei, damit er unmittelbar mit der Neuorientierung beginnen kann. Es gilt den „Abnabelungsprozess“ durch eine faire und konstruktive Trennung zu beschleunigen. Eine intensive berufliche Neuorientierung erfordert volle Konzentration und nimmt mehr Zeit in Anspruch, als ein Full-Time-Job zulässt. Großzügigkeit zeigen
Foto: Gajus – shutterstock.comBieten Sie Outplacement zusätzlich zur Abfindung an. Der Arbeitnehmer profitiert, da er sehr wahrscheinlich schneller einen neuen Job findet. Der Vorteil für das Unternehmen: Je früher der betroffene Mitarbeiter mit der Suche beginnt, desto schneller ist der Trennungsprozess beendet. So können Restlaufzeiten der Arbeitsverträge verkürzt werden und eine potentielle Neuausrichtung besser gelingen. Outplacement als Zusatzleistung ist zudem für das Image des Unternehmens von Bedeutung. Es zeigt: „We care for you“. Transparenz schaffen
Foto: Kritchanut – shutterstock.comEs ist wichtig frühzeitig den Betriebsrat einzubeziehen, um den Trennungsprozess aktiv und positiv beeinflussen zu können. Als Sprachrohr der Belegschaft ist der Betriebsrat in jedem Fall an Konzepten interessiert, die die Trennung von einzelnen Mitarbeitern oder einen größeren Personalabbau möglichst verträglich gestalten und berufliche Perspektiven aufzeigen. Sorgfältige Anbieterauswahl
Foto: kan_chana – shutterstock.comWählen Sie den Outplacement-Anbieter mit der gleichen Sorgfalt aus, mit der Sie auch andere Zulieferer oder Dienstleister aussuchen. Der Anbieter muss eine klare Kosten- und Leistungsübersicht haben. Haben Sie hierbei die Leistungsbestandteile mit dem höchsten Mehrwert für den Mitarbeiter im Blick. Fragen Sie gezielt nach orts- und zeitunabhängigen Beratungseinheiten, individuellen Beratungsmöglichkeiten und Beratervielfalt.

Hilfe bei Entlassung: So geht erfolgreiches Outplacement​ Weiterlesen »

Baguette-Banditen schlagen wieder zu (- mit Ransomware und Hohn)​

Allgemein

Wer den Schaden hat, braucht für den Spott nicht zu sorgen. shutterstock.com – Linguist Die Ransomware-Gruppe Hellcat wurde bekannt durch den Angriff auf Schneider Electric, in dem sie Baguettes im Wert von 125.000 Dollar als Lösegeld forderte. Doch dieses aufsehenerregende Verbrechen ist nicht die einzige kriminelle Aktivität der Bande. Seit Mitte 2024 nutzt die Gruppe erfolgreich doppelte Erpressung, indem sie zuerst Daten stiehlt und dann deren Veröffentlichung androht. Besonders auffällig sind ihre Ziele und ihr Hang zur Demütigung der Opfer, denn Daten sowie Zugänge werden zu Preisen angeboten, die deutlich unter denen klassischer Erpressung liegen. Unterschiedliche Opfer, gleiche Taktiken Zu den von Hellcat häufig verwendeten Taktiken, Techniken und Verfahren (TTPs) gehört es, Zero-Day-Schwachstellen in Unternehmens-Tools auszunutzen, um an ihre Beute zu gelangen. Über diese Einstiegspunkte ist es den Kriminellen dann möglich, auf die Infrastruktur des Unternehmens zuzugreifen. Im Falle von Schneider Electric geschah dies über einen zuvor unbekannten Fehler im Atlassian Jira-System. Die dabei gestohlenen 40 GB Daten wollte die Gruppe im Austausch gegen Baguettes wieder freigeben. Gleichzeitig ist die Gruppe auch in anderen Ländern und Kontinenten unterwegs. So behauptete Hellcat noch am selben Tages des Einbruchs bei Schneider Electric, sensible Dokumente des jordanischen Bildungsministeriums kompromittiert zu haben. Darüber hinaus gaben die Verbrecher an, über 500.000 Datensätze des College of Business in Tansania veröffentlicht zu haben. Hierbei soll es sich um persönliche und finanzielle Daten von Studenten, Lehrkräften und Mitarbeitern handeln. Wertvolle Beute für kleines Geld Ebenfalls im Dezember 2024 listete die Gruppe dann ein französisches Energieversorgungsunternehmen im Wert von 7 Milliarden Dollar im Dark Web als Opfer. Hier versuchte die Gruppe, den Root-Zugriff auf einen Server für 500 Dollar zu verkaufen. Später im selben Monat bot die Gruppe auch den Root-Zugang zu einer US-Universität mit einem Umsatz von über 5,6 Milliarden Dollar zum Verkauf an. Der Root-Zugriff auf einen Universitätsserver sollte hier „nur“1.500 Dollar kosten. Diese Strategie, wertvolle Daten und Zugriffe für Geldsummen anzubieten, die deutlich unter dem eigentlichen Wert der Beute liegen, ist Teil der Strategie von Hellcat. Opfer sollen durch die niedrigen Preise zum einen gedemütigt und zum anderen zum Handeln gedrängt werden. Das es hierbei nicht immer um monetäre Bereicherung gehen muss, zeigt ein anderes Beispiel aus dem Nahen Osten. Dort bot die Gruppe für gerade einmal 300 Dollar einen Root-Zugang zu den Servern einer irakischen Stadtregierung an. Ziel sei es hier, kritische öffentliche Dienste zu stören, so Experten. Gehackt werden ist schon schlimm genug Ebenfalls im November setzte Hellcat Pinger, US-Mobilfunkanbieter und App-Entwickler, auf die Liste seiner Opfer. Die Täter behaupteten, 111 GB an Daten gestohlen zu haben, darunter 9 Millionen Benutzerdatensätze, private Nachrichten, Sprachnachrichten, Backend-Systeme, interne Tools und Quellcodes. Sie drohten damit, alle Daten freizugeben, wenn das Unternehmen nicht zahlt. Die Gruppe scheint nur in ausgewählten Fällen öffentlichkeitswirksam ihren Opfern Sonderkonditionen anzubieten. In Bezug auf die US-amerikanischen Geschädigten sind solche nicht bekannt. Wie viele der aufstrebenden Cybercrime-Organisationen nutzt Hellcat ein Ransomware-as-a-Service-Geschäftsmodell. Hierbei bieten die Kriminellen Infrastruktur, Verschlüsselungs-Tools und andere Malware an Partner im Austausch für einen Teil des Gewinns an. Laut Experten sollen die Hauptakteure hochrangige Mitglieder des BreachForum sein. 

Baguette-Banditen schlagen wieder zu (- mit Ransomware und Hohn)​ Wer den Schaden hat, braucht für den Spott nicht zu sorgen.
shutterstock.com – Linguist

Die Ransomware-Gruppe Hellcat wurde bekannt durch den Angriff auf Schneider Electric, in dem sie Baguettes im Wert von 125.000 Dollar als Lösegeld forderte. Doch dieses aufsehenerregende Verbrechen ist nicht die einzige kriminelle Aktivität der Bande.

Seit Mitte 2024 nutzt die Gruppe erfolgreich doppelte Erpressung, indem sie zuerst Daten stiehlt und dann deren Veröffentlichung androht. Besonders auffällig sind ihre Ziele und ihr Hang zur Demütigung der Opfer, denn Daten sowie Zugänge werden zu Preisen angeboten, die deutlich unter denen klassischer Erpressung liegen.

Unterschiedliche Opfer, gleiche Taktiken

Zu den von Hellcat häufig verwendeten Taktiken, Techniken und Verfahren (TTPs) gehört es, Zero-Day-Schwachstellen in Unternehmens-Tools auszunutzen, um an ihre Beute zu gelangen. Über diese Einstiegspunkte ist es den Kriminellen dann möglich, auf die Infrastruktur des Unternehmens zuzugreifen. Im Falle von Schneider Electric geschah dies über einen zuvor unbekannten Fehler im Atlassian Jira-System. Die dabei gestohlenen 40 GB Daten wollte die Gruppe im Austausch gegen Baguettes wieder freigeben.

Gleichzeitig ist die Gruppe auch in anderen Ländern und Kontinenten unterwegs. So behauptete Hellcat noch am selben Tages des Einbruchs bei Schneider Electric, sensible Dokumente des jordanischen Bildungsministeriums kompromittiert zu haben. Darüber hinaus gaben die Verbrecher an, über 500.000 Datensätze des College of Business in Tansania veröffentlicht zu haben. Hierbei soll es sich um persönliche und finanzielle Daten von Studenten, Lehrkräften und Mitarbeitern handeln.

Wertvolle Beute für kleines Geld

Ebenfalls im Dezember 2024 listete die Gruppe dann ein französisches Energieversorgungsunternehmen im Wert von 7 Milliarden Dollar im Dark Web als Opfer. Hier versuchte die Gruppe, den Root-Zugriff auf einen Server für 500 Dollar zu verkaufen. Später im selben Monat bot die Gruppe auch den Root-Zugang zu einer US-Universität mit einem Umsatz von über 5,6 Milliarden Dollar zum Verkauf an. Der Root-Zugriff auf einen Universitätsserver sollte hier „nur“1.500 Dollar kosten.

Diese Strategie, wertvolle Daten und Zugriffe für Geldsummen anzubieten, die deutlich unter dem eigentlichen Wert der Beute liegen, ist Teil der Strategie von Hellcat. Opfer sollen durch die niedrigen Preise zum einen gedemütigt und zum anderen zum Handeln gedrängt werden. Das es hierbei nicht immer um monetäre Bereicherung gehen muss, zeigt ein anderes Beispiel aus dem Nahen Osten. Dort bot die Gruppe für gerade einmal 300 Dollar einen Root-Zugang zu den Servern einer irakischen Stadtregierung an. Ziel sei es hier, kritische öffentliche Dienste zu stören, so Experten.

Gehackt werden ist schon schlimm genug

Ebenfalls im November setzte Hellcat Pinger, US-Mobilfunkanbieter und App-Entwickler, auf die Liste seiner Opfer. Die Täter behaupteten, 111 GB an Daten gestohlen zu haben, darunter

9 Millionen Benutzerdatensätze,

private Nachrichten,

Sprachnachrichten,

Backend-Systeme,

interne Tools und

Quellcodes.

Sie drohten damit, alle Daten freizugeben, wenn das Unternehmen nicht zahlt.

Die Gruppe scheint nur in ausgewählten Fällen öffentlichkeitswirksam ihren Opfern Sonderkonditionen anzubieten. In Bezug auf die US-amerikanischen Geschädigten sind solche nicht bekannt.

Wie viele der aufstrebenden Cybercrime-Organisationen nutzt Hellcat ein Ransomware-as-a-Service-Geschäftsmodell. Hierbei bieten die Kriminellen Infrastruktur, Verschlüsselungs-Tools und andere Malware an Partner im Austausch für einen Teil des Gewinns an. Laut Experten sollen die Hauptakteure hochrangige Mitglieder des BreachForum sein.

Baguette-Banditen schlagen wieder zu (- mit Ransomware und Hohn)​ Weiterlesen »

Wie Open Source KI-Agenten auf Trab bringt​

Allgemein

KI-Agenten werden immer beliebter – und dank Open-Source-Technik bald auch schneller. shutterstock.com – Master1305 KI-Agenten sind die neuen Stars am Firmament der Künstlichen Intelligenz (KI). Laut Gartner wird bis zum Jahr 2028 jede dritte Unternehmenssoftware agentenbasierte KI-Technik nutzen und es ermöglichen, dass 15 Prozent der täglichen Arbeitsentscheidungen autonom getroffen werden. Voraussetzung für den Erfolg von Agentic AI ist allerdings, dass die KI-Agenten in der Lage sind, nicht nur sicher und genau, sondern auch relativ schnell Aufgaben in digitalen Umgebungen auszuführen. Aktuell hapert es hier noch, und viele Unternehmen haben immer noch mit niedrigen Durchsätzen bei ihren Modellen zu kämpfen. Schnellere Agenten dank Open-Source Eine Lösung für dieses Problem könnte von Katanemo kommen, ein 2022 in den USA gegründetes Startup, das eine intelligente Infrastruktur für KI-native Anwendungen aufbaut. Katanemo stellt mit Arch-Function eine Sammlung hochmoderner großer Sprachmodelle (LLMs) als Open Source zur Verfügung. Diese LLMs versprechen ultraschnelle Geschwindigkeiten bei Funktionsaufrufen, die für agentenbasierte Arbeitsabläufe von entscheidender Bedeutung sind. Wie Salman Paracha, Gründer und CEO von Katanemo auf X ausführt, sind die neuen quelloffenen Modelle fast zwölfmal schneller als GPT-4 von OpenAI. Sie überträfensogar die Angebote von Anthropic und böten gleichzeitig erhebliche Kosteneinsparungen. Paracha zufolge sind die Arch-Function LLMs, die auf Qwen 2.5 mit 3B- und 7B-Parametern basieren, für die Verarbeitung von Funktionsaufrufen ausgelegt. Das soll ihnen im Wesentlichen die Interaktion mit externen Tools und Systemen zur Ausführung digitaler Aufgaben und den Zugriff auf aktuelle Informationen ermöglicht. Den Großen der Branche den Kampf angesagt Sie sollen in der Lage sein, komplexe Funktionssignaturen zu verstehen, Parameter zu identifizieren und präzise Aufrufe auszuführen. Dies soll Unternehmen die Entwicklung agentenbasierter Anwendungen und personalisierter Workflows, etwa für Versicherungsansprüche oder Werbekampagnen erleichtern. Im Vergleich zu GPT-4 vom (Noch-)Platzhirsch OpenAI bietet Arch-Function-3B dabei laut den Entwicklern eine 12-fache Durchsatzsteigerung und 44-fache Kosteneinsparungen. Ähnliche Vorteile wurden gegenüber GPT-4o und Claude 3.5 Sonnet festgestellt. Die Benchmarks wurden auf einem kostengünstigeren L40S Nvidia-Grafikprozessor durchgeführt. 

Wie Open Source KI-Agenten auf Trab bringt​ KI-Agenten werden immer beliebter – und dank Open-Source-Technik bald auch schneller.
shutterstock.com – Master1305

KI-Agenten sind die neuen Stars am Firmament der Künstlichen Intelligenz (KI). Laut Gartner wird bis zum Jahr 2028 jede dritte Unternehmenssoftware agentenbasierte KI-Technik nutzen und es ermöglichen, dass 15 Prozent der täglichen Arbeitsentscheidungen autonom getroffen werden.

Voraussetzung für den Erfolg von Agentic AI ist allerdings, dass die KI-Agenten in der Lage sind, nicht nur sicher und genau, sondern auch relativ schnell Aufgaben in digitalen Umgebungen auszuführen. Aktuell hapert es hier noch, und viele Unternehmen haben immer noch mit niedrigen Durchsätzen bei ihren Modellen zu kämpfen.

Schnellere Agenten dank Open-Source

Eine Lösung für dieses Problem könnte von Katanemo kommen, ein 2022 in den USA gegründetes Startup, das eine intelligente Infrastruktur für KI-native Anwendungen aufbaut. Katanemo stellt mit Arch-Function eine Sammlung hochmoderner großer Sprachmodelle (LLMs) als Open Source zur Verfügung. Diese LLMs versprechen ultraschnelle Geschwindigkeiten bei Funktionsaufrufen, die für agentenbasierte Arbeitsabläufe von entscheidender Bedeutung sind.

Wie Salman Paracha, Gründer und CEO von Katanemo auf X ausführt, sind die neuen quelloffenen Modelle fast zwölfmal schneller als GPT-4 von OpenAI. Sie überträfensogar die Angebote von Anthropic und böten gleichzeitig erhebliche Kosteneinsparungen.

Paracha zufolge sind die Arch-Function LLMs, die auf Qwen 2.5 mit 3B- und 7B-Parametern basieren, für die Verarbeitung von Funktionsaufrufen ausgelegt. Das soll ihnen im Wesentlichen die Interaktion mit externen Tools und Systemen zur Ausführung digitaler Aufgaben und den Zugriff auf aktuelle Informationen ermöglicht.

Den Großen der Branche den Kampf angesagt

Sie sollen in der Lage sein, komplexe Funktionssignaturen zu verstehen, Parameter zu identifizieren und präzise Aufrufe auszuführen. Dies soll Unternehmen die Entwicklung agentenbasierter Anwendungen und personalisierter Workflows, etwa für Versicherungsansprüche oder Werbekampagnen erleichtern.

Im Vergleich zu GPT-4 vom (Noch-)Platzhirsch OpenAI bietet Arch-Function-3B dabei laut den Entwicklern eine 12-fache Durchsatzsteigerung und 44-fache Kosteneinsparungen. Ähnliche Vorteile wurden gegenüber GPT-4o und Claude 3.5 Sonnet festgestellt. Die Benchmarks wurden auf einem kostengünstigeren L40S Nvidia-Grafikprozessor durchgeführt.

Wie Open Source KI-Agenten auf Trab bringt​ Weiterlesen »

Ist Trump der Booster für Europas digitale Souveränität?​

Allgemein

Auf europäische Unternehmen, die Daten in die USA transferieren wollen, kommen mit US-Präsident Trump stürmische Zeiten zu. Viktollio/Shutterstock.com Bis zur Amtseinführung von US-Präsident Trump am 20. Januar 2025 schien die digitale Welt in Ordnung zu sein. Gestützt auf das durchaus umstrittene (Stichwort Schrems III) Data Privacy Framework – bestätigt durch eine Executive Order von Ex-Präsident Joe Biden – konnten europäische Unternehmen Compliance-gerecht ihre Daten in die USA transferieren. Doch damit könnte bald Schluss sein. So weist der Digitalverband Bitkom darauf hin, dass ein zentrales Gremium für die Überwachung des Abkommens durch die neue US-Politik ebenso auf der Kippe steht wie der Präsidialerlass insgesamt. Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung, warnt deshalb, „Unternehmen sollten sich bereits heute Gedanken machen, ob und auf welcher Rechtsgrundlage sie derzeit Daten in die USA transferieren“. Big Tech diktiert die Standards Eine Alternative zum Data Privacy Framework könnte die Nutzung von Standardvertragsklauseln sein. Diese wurden von der EU-Kommission vorformuliert und verpflichten beide Vertragsparteien, ein angemessenes Datenschutzniveau einzuhalten. Allerdings ist der rechtliche Aspekt nur eine Seite der Medaille. Auf der anderen Seite, so Christine Knackfuß-Nikolic, CTO bei T-Systems, verfügten die großen US-Cloud-Anbieter (Big Tech) wie Amazon Web Services, Microsoft Azure und Google Cloud über 70 Prozent Marktanteil im europäischen Cloud-Markt: „Damit diktieren sie nicht nur die technologischen Standards, sie haben auch Einfluss auf die wirtschaftlichen und rechtlichen Bedingungen, unter denen europäische Kunden arbeiten.“ Digitale Souveränität für Europa Europa muss seine digitale Souveränität stärken, fordert T-Systems-CTO Christine Knackfuß-Nikolic. T-Systems Vor diesem Hintergrund und mit Blick auf den Amtsantritt von US-Präsident Trump hält sie es für dringend geboten, dass Europa seine digitale Souveränität stärkt. Zumal das technische Wettrüsten – wie die Ankündigungen von Stargate und Deepseek zeigen – weiter zunimmt. Gemeinsam mit Partnern wie Fraunhofer, IONOS, SAP und Schwarz Digits haben Deutsche Telekom und T-Systems deshalb im Rahmen einer von der Deutschen Akademie der Technikwissenschaften acatech koordinierten Taskforce konkrete Handlungsempfehlungen entwickelt, um ein entsprechendes Angebot zu schaffen. Gleichzeitig will man damit die europäische Initiative „8ra“ unterstützen. Mit 8ra zur EU-Super-Cloud Die Vision hinter 8ra: Eine „Super-Cloud“, die die gebündelte Power eines europaweiten Netzwerks mit den Vorteilen der Hyperscaler vereint. Sie soll dort punkten, wo die Hyperscaler Schwächen zeigen: bei der digitalen Souveränität. Ziel ist es, europäische Unternehmen zu schützen und zu stärken, indem sensible Daten sicher in eigenen Rechenzentren bleiben. Laut Knackfuß-Nikolic arbeiten bereits heute zwölf EU-Mitgliedstaaten und rund 150 Partner, darunter Branchenriesen wie SAP, Siemens, Bosch, Telefónica, Orange und Airbus an diesem offenen, europäischen Betriebssystem. Es soll eine einfache Daten- und Anwendungsmigration zwischen Cloud-Anbietern ermöglichen. Ziel 2030: 100.000 RZs in der EU Das Fernziel bis 2030 dabei: 10.000 vernetzte Edge-Cloud-Knoten. Perspektivisch könnten zudem 100.000 Rechenzentren in ganz Europa entstehen. Für die europäische Wirtschaft liegen die Vorteile und Chancen von 8ra nach Ansicht der CTO auf der Hand, nämlich: – höhere Leistungskraft, – ständige Leistungssteigerung durch neue Technologien, – Resilienz durch verteilte Infrastruktur, – Nachhaltigkeit und Energieeffizienz, – Sicherheit und Datenschutz. Mit Blick auf US-Präsident Trump appelliert Knackfuß-Nikolic: „Es ist wichtig, dass wir Europäer jetzt handeln und unsere digitale Zukunft in die Hand nehmen. Gemeinsam. Für eine vereinte, starke und sichere Cloud – Made in Europe.“ 

Ist Trump der Booster für Europas digitale Souveränität?​ Auf europäische Unternehmen, die Daten in die USA transferieren wollen, kommen mit US-Präsident Trump stürmische Zeiten zu.
Viktollio/Shutterstock.com

Bis zur Amtseinführung von US-Präsident Trump am 20. Januar 2025 schien die digitale Welt in Ordnung zu sein. Gestützt auf das durchaus umstrittene (Stichwort Schrems III) Data Privacy Framework – bestätigt durch eine Executive Order von Ex-Präsident Joe Biden – konnten europäische Unternehmen Compliance-gerecht ihre Daten in die USA transferieren.

Doch damit könnte bald Schluss sein. So weist der Digitalverband Bitkom darauf hin, dass ein zentrales Gremium für die Überwachung des Abkommens durch die neue US-Politik ebenso auf der Kippe steht wie der Präsidialerlass insgesamt. Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung, warnt deshalb, „Unternehmen sollten sich bereits heute Gedanken machen, ob und auf welcher Rechtsgrundlage sie derzeit Daten in die USA transferieren“.

Big Tech diktiert die Standards

Eine Alternative zum Data Privacy Framework könnte die Nutzung von Standardvertragsklauseln sein. Diese wurden von der EU-Kommission vorformuliert und verpflichten beide Vertragsparteien, ein angemessenes Datenschutzniveau einzuhalten. Allerdings ist der rechtliche Aspekt nur eine Seite der Medaille.

Auf der anderen Seite, so Christine Knackfuß-Nikolic, CTO bei T-Systems, verfügten die großen US-Cloud-Anbieter (Big Tech) wie Amazon Web Services, Microsoft Azure und Google Cloud über 70 Prozent Marktanteil im europäischen Cloud-Markt: „Damit diktieren sie nicht nur die technologischen Standards, sie haben auch Einfluss auf die wirtschaftlichen und rechtlichen Bedingungen, unter denen europäische Kunden arbeiten.“

Digitale Souveränität für Europa

Europa muss seine digitale Souveränität stärken, fordert T-Systems-CTO Christine Knackfuß-Nikolic.
T-Systems

Vor diesem Hintergrund und mit Blick auf den Amtsantritt von US-Präsident Trump hält sie es für dringend geboten, dass Europa seine digitale Souveränität stärkt. Zumal das technische Wettrüsten – wie die Ankündigungen von Stargate und Deepseek zeigen – weiter zunimmt.

Gemeinsam mit Partnern wie Fraunhofer, IONOS, SAP und Schwarz Digits haben Deutsche Telekom und T-Systems deshalb im Rahmen einer von der Deutschen Akademie der Technikwissenschaften acatech koordinierten Taskforce konkrete Handlungsempfehlungen entwickelt, um ein entsprechendes Angebot zu schaffen. Gleichzeitig will man damit die europäische Initiative „8ra“ unterstützen.

Mit 8ra zur EU-Super-Cloud

Die Vision hinter 8ra: Eine „Super-Cloud“, die die gebündelte Power eines europaweiten Netzwerks mit den Vorteilen der Hyperscaler vereint. Sie soll dort punkten, wo die Hyperscaler Schwächen zeigen: bei der digitalen Souveränität. Ziel ist es, europäische Unternehmen zu schützen und zu stärken, indem sensible Daten sicher in eigenen Rechenzentren bleiben.

Laut Knackfuß-Nikolic arbeiten bereits heute zwölf EU-Mitgliedstaaten und rund 150 Partner, darunter Branchenriesen wie SAP, Siemens, Bosch, Telefónica, Orange und Airbus an diesem offenen, europäischen Betriebssystem. Es soll eine einfache Daten- und Anwendungsmigration zwischen Cloud-Anbietern ermöglichen.

Ziel 2030: 100.000 RZs in der EU

Das Fernziel bis 2030 dabei: 10.000 vernetzte Edge-Cloud-Knoten. Perspektivisch könnten zudem 100.000 Rechenzentren in ganz Europa entstehen. Für die europäische Wirtschaft liegen die Vorteile und Chancen von 8ra nach Ansicht der CTO auf der Hand, nämlich:

– höhere Leistungskraft,

– ständige Leistungssteigerung durch neue Technologien,

– Resilienz durch verteilte Infrastruktur,

– Nachhaltigkeit und Energieeffizienz,

– Sicherheit und Datenschutz.

Mit Blick auf US-Präsident Trump appelliert Knackfuß-Nikolic: „Es ist wichtig, dass wir Europäer jetzt handeln und unsere digitale Zukunft in die Hand nehmen. Gemeinsam. Für eine vereinte, starke und sichere Cloud – Made in Europe.“

Ist Trump der Booster für Europas digitale Souveränität?​ Weiterlesen »

Nach oben scrollen
×