Computerhaus Quickborn

Januar 2025

KI bekämpft Krebs​

KI bekämpft Krebs​

Allgemein

Ein Deep-Learning-Ansatz hilft, Krebsarten zu erkennen und relevante Biomarker-Signaturen zu identifizieren. shutterstock.com – r.classen Die personalisierte Medizin will Behandlungen individuell auf Patientinnen und Patienten abstimmen. Derzeit basiert sie auf einer begrenzten Anzahl von Parametern, die zur Vorhersage des Krankheitsverlaufs herangezogen werden. Diese Parameter können komplexe Krankheitsverläufe wie Krebs oft nicht ausreichend erfassen. Ein Forschungsteam der Medizinischen Fakultät der Universität Duisburg-Essen (UDE), der Ludwig-Maximilians-Universität München (LMU) und des Berlin Institute for the Foundations of Learning and Data (BIFOLD) an der Technischen Universität Berlin hat mithilfe von Künstlicher Intelligenz (KI) einen neuen Lösungsansatz entwickelt. Auf Grundlage der Smart-Hospital-Infrastruktur des UDE wurden die Daten von 15.726 Patienten ausgewertet, die zwischen 2007 und 2022 eine systemische Krebsbehandlung erhielten. Identifikation von Schlüsselfaktoren und Wechselwirkungen Die Forscher untersuchten das Gesamtüberleben (OS) – die Zeit vom Behandlungsbeginn bis zum Tod – sowie die Zeit bis zur nächsten Therapie (TTNT). Analysiert wurden 350 Parameter, darunter klinische Daten, Laborwerte, Bildgebung und genetische Tumorprofile. Dabei identifizierte das neuronale Netzwerk Schlüsselfaktoren und prognostisch relevante Wechselwirkungen zwischen den Parametern. Einzelne Marker können das komplexe Zusammenspiel von patienten- und tumorspezifischen Variablen jedoch nicht vollständig erfassen. Deshalb ist die Integration verschiedener Datenquellen entscheidend, so die Forscher. Deep-Learning-Ansatz erkennt prognostische Muster unabhängig von Krebsarten Fortschritte im maschinellen Lernen und erklärbarer KI (xAI) ermöglichen hierbei eine präzisere Modellierung und die Krebsbehandlung personalisiert und datenbasiert zu gestalten. Der Deep-Learning-Ansatz der Forscher erkennt prognostische Muster unabhängig von der Krebsart und identifiziert relevante Biomarker-Signaturen ohne Vorwissen. Dies hilft Ärzten, patientenspezifische Informationen zu priorisieren und Therapien anzupassen. Die Methode wurde an 3.288 Lungenkrebspatienten validiert. Es zeigte sich, dass xAI Patientenergebnisse entschlüsseln und maßgeschneiderte Behandlungsempfehlungen auf Basis multimodaler Real-World-Daten liefern kann. Insgesamt identifizierte xAI 114 Schlüsselmarker und 1.373 prognostische Wechselwirkungen. Potenzial der KI-Methode für Notfälle und schnelle Diagnosen In der klinischen Onkologie werden derzeit starre Bewertungssysteme wie Tumorstadien verwendet, die individuelle Unterschiede wie Geschlecht, Ernährungszustand oder Begleiterkrankungen wenig berücksichtigen. Durch xAI können diese komplexen Zusammenhänge entschlüsselt und die Krebsmedizin stärker personalisiert werden. Die Ergebnisse zeigen, dass KI klinische Messwerte im Zusammenhang analysieren kann, um eine personalisierte, datengetriebene Krebstherapie zu ermöglichen. Die Methode könnte auch in Notfällen verwendet werden, um diagnostische Parameter schnell zu bewerten. Die Forscher hoffen, mit ihrer Technologie komplexe, krebsübergreifende Zusammenhänge zu entschlüsseln, die bisher unentdeckt geblieben sind. In Zusammenarbeit mit dem Nationalen Centrum für Tumorerkrankungen (NCT) und dem Bayerischen Zentrum für Krebsforschung (BZKF) wollen sie den Patientennutzen ihrer Technologie in klinischen Studien nachweisen. 

KI bekämpft Krebs​ Ein Deep-Learning-Ansatz hilft, Krebsarten zu erkennen und relevante Biomarker-Signaturen zu identifizieren.
shutterstock.com – r.classen

Die personalisierte Medizin will Behandlungen individuell auf Patientinnen und Patienten abstimmen. Derzeit basiert sie auf einer begrenzten Anzahl von Parametern, die zur Vorhersage des Krankheitsverlaufs herangezogen werden. Diese Parameter können komplexe Krankheitsverläufe wie Krebs oft nicht ausreichend erfassen. Ein Forschungsteam der Medizinischen Fakultät der Universität Duisburg-Essen (UDE), der Ludwig-Maximilians-Universität München (LMU) und des Berlin Institute for the Foundations of Learning and Data (BIFOLD) an der Technischen Universität Berlin hat mithilfe von Künstlicher Intelligenz (KI) einen neuen Lösungsansatz entwickelt.

Auf Grundlage der Smart-Hospital-Infrastruktur des UDE wurden die Daten von 15.726 Patienten ausgewertet, die zwischen 2007 und 2022 eine systemische Krebsbehandlung erhielten.

Identifikation von Schlüsselfaktoren und Wechselwirkungen

Die Forscher untersuchten das Gesamtüberleben (OS) – die Zeit vom Behandlungsbeginn bis zum Tod – sowie die Zeit bis zur nächsten Therapie (TTNT).

Analysiert wurden 350 Parameter, darunter

klinische Daten,

Laborwerte,

Bildgebung und

genetische Tumorprofile.

Dabei identifizierte das neuronale Netzwerk Schlüsselfaktoren und prognostisch relevante Wechselwirkungen zwischen den Parametern. Einzelne Marker können das komplexe Zusammenspiel von patienten- und tumorspezifischen Variablen jedoch nicht vollständig erfassen. Deshalb ist die Integration verschiedener Datenquellen entscheidend, so die Forscher.

Deep-Learning-Ansatz erkennt prognostische Muster unabhängig von Krebsarten

Fortschritte im maschinellen Lernen und erklärbarer KI (xAI) ermöglichen hierbei eine präzisere Modellierung und die Krebsbehandlung personalisiert und datenbasiert zu gestalten. Der Deep-Learning-Ansatz der Forscher erkennt prognostische Muster unabhängig von der Krebsart und identifiziert relevante Biomarker-Signaturen ohne Vorwissen. Dies hilft Ärzten, patientenspezifische Informationen zu priorisieren und Therapien anzupassen.

Die Methode wurde an 3.288 Lungenkrebspatienten validiert. Es zeigte sich, dass xAI Patientenergebnisse entschlüsseln und maßgeschneiderte Behandlungsempfehlungen auf Basis multimodaler Real-World-Daten liefern kann. Insgesamt identifizierte xAI 114 Schlüsselmarker und 1.373 prognostische Wechselwirkungen.

Potenzial der KI-Methode für Notfälle und schnelle Diagnosen

In der klinischen Onkologie werden derzeit starre Bewertungssysteme wie Tumorstadien verwendet, die individuelle Unterschiede wie Geschlecht, Ernährungszustand oder Begleiterkrankungen wenig berücksichtigen. Durch xAI können diese komplexen Zusammenhänge entschlüsselt und die Krebsmedizin stärker personalisiert werden.

Die Ergebnisse zeigen, dass KI klinische Messwerte im Zusammenhang analysieren kann, um eine personalisierte, datengetriebene Krebstherapie zu ermöglichen. Die Methode könnte auch in Notfällen verwendet werden, um diagnostische Parameter schnell zu bewerten.

Die Forscher hoffen, mit ihrer Technologie komplexe, krebsübergreifende Zusammenhänge zu entschlüsseln, die bisher unentdeckt geblieben sind. In Zusammenarbeit mit dem Nationalen Centrum für Tumorerkrankungen (NCT) und dem Bayerischen Zentrum für Krebsforschung (BZKF) wollen sie den Patientennutzen ihrer Technologie in klinischen Studien nachweisen.

KI bekämpft Krebs​ Read More »

Deutschland braucht neue Rechenzentren – aber schnell​

Deutschland braucht neue Rechenzentren – aber schnell​

Allgemein

Anna Klaft, Vorstandsvorsitzende der German Datacenter Association, befürchtet, dass der Digitalstandort Deutschland ins Hintertreffen gerät. German Datacenter Association / Steffen Herre Auf den ersten Blick lesen sich die Zahlen vielversprechend: Deutschland hat seine RZ-Kapazität von 2010 bis 2024 mehr als verdoppelt – auf über 2.730 MW. Und bis 2030 wird ein weiteres Wachstum auf über 4.800 MW erwartet. Dabei verteilt sich die Rechenpower auf rund 2.000 größere Collocation-Rechenzentren sowie etwa 50.000 kleinere IT-Installationen. Eine genauere Betrachtung offenbart etwas anderes: Deutschlands Data-Center-Kapazität ist ein Armutszeugnis. Nur zum Vergleich: Allein Meta baut für sich ein Rechenzentrum mit 2 GW Leistung. Davon soll noch in diesem Jahr 1 GW an Rechenpower online gehen. Und die anderen Big-Tech-Player in den USA haben ähnliche Pläne. Global nur Kreisklasse Auch wenn Deutschland mit seinen Kapazitäten der größte Rechenzentrumsstandort in Europa ist – im globalen Vergleich spielen wir nur in der Kreisklasse. Selbst der anvisierte Ausbau auf 4,8 GW ist im Zeitalter der digitalen Transformation und KI nur der berühmte Tropfen auf den heißen Stein. So wollen die USA ihre Kapazitäten von heute knapp 50 GW bis 2030 auf über 90 GW erhöhen. Die aufstrebende Digitalmacht China plant eine Erweiterung von heute geschätzt 40 GW auf über 60 GW. Und noch ein weiterer Aspekt sollte in den Diskussionen um die digitale Zukunft nicht vergessen werden: In Sachen Cloud-Services ist die Exportnation Deutschland primär ein Importland. Folgerichtig warnt deshalb Anna Klaft, Vorstandsvorsitzende der German Datacenter Association (GDA): „Deutschland steht an einem Scheideweg: Entweder wir schaffen jetzt die nötigen Rahmenbedingungen für eine leistungsfähige digitale Infrastruktur – oder wir verlieren den Anschluss im internationalen Wettbewerb. Rechenzentren sind das Rückgrat dieser Infrastruktur, und es ist höchste Zeit, dass die Politik dies nicht nur anerkennt, sondern auch handelt.“ Bezahlbarer Strom fehlt Wie RZ-Betreiber Jerome Evans im COMPUTERWOCHE-Interview schlägt Klaft in die gleiche Kerbe: „Ohne bezahlbaren und nachhaltig erzeugten Strom droht der Digitalstandort Deutschland ins Hintertreffen zu geraten.“ Immerhin scheint die Politik mittlerweile erkannt zu haben, dass Handlungsbedarf besteht. So resümierte Christina Decker, Abteilungsleiterin für Digital- und Innovationspolitik im Bundesministerium für Wirtschaft und Klimaschutz, auf einer GDA-Veranstaltung: „Deutschland soll ein global führender Digital- und KI-Standort werden. Dafür sind ausreichend Rechenzentren erforderlich. Wir wollen deshalb Deutschland als führenden Rechenzentrumsstandort in Europa stärken, auch im Vergleich zu nichteuropäischen Ländern.“ Gutachten zum RZ-Standort Deutschland Ein Gutachten des BMWK analysiert die Entwicklung des RZ-Standorts Deutschland. Bundesministeriums für Wirtschaft und Klimaschutz Immerhin hat das Habeck-Ministerium mittlerweile ein Gutachten zu „Stand und Entwicklung des Rechenzentrumsstandorts Deutschland“ vorgelegt. Es analysiert die Herausforderungen und Schwächen sowie mögliche Handlungsoptionen. Herausforderungen: Fachkräftemangel Langsame Prozesse der öffentlichen Hand Regulatorik Fehlende digitale Infrastruktur Energieversorgung und -verbrauch Handlungsoptionen Vor diesem Hintergrund kommt das Gutachten zu mehreren Handlungsempfehlungen, um den Digital- und RZ-Standort Deutschland auszubauen. Mit Blick auf den Fachkräftemangel hebt das Gutachten folgenden Aspekt hervor: Deutschland habe zwar eine starke mittelständische IT-Dienstleisterstruktur, es fehle aber im Vergleich zu den USA an Fachkräften zum Aufbau großer, skalierbarer IT-Installationen. Hier sollten gezielt Initiativen zur Entwicklung von entsprechenden IT-Kenntnissen geschaffen werden – das gelte auch für die Bereiche der Gewerke, Kälte- und Klima- sowie Elektrotechnik, wo ebenfalls ein Mangel herrsche. In Bezug auf die öffentliche Hand wird eine Standardisierung der Prozesse mit anschließender Digitalisierung empfohlen, um so Genehmigungsverfahren etc. zu beschleunigen. Mit Blick auf die Regulatorik werden beschleunigte Genehmigungsverfahren für Rechenzentren nahegelegt . Daneben schlägt das Gutachten regulatorische Anpassungen vor, etwa die Einführung eines deutschlandweiten Wärmenetzregisters, das mehr Transparenz über die Verfügbarkeit und Nutzung von Wärmenetzen bieten könnte. Digitale Netze ausbauen Mit Blick auf die fehlende digitale Infrastruktur sollte ein flächendeckender Glasfaser- und 5G-Ausbau (künftig 6G) Teil einer Digitalisierungsvision sein. Dies ermögliche mehr Flexibilität und geografische Diversität bei der Ansiedlung von Rechenzentren. Eine verbesserte digitale Infrastruktur würde zudem die Attraktivität des Standorts für ausländische Investoren steigern, die insbesondere mit Blick auf Hochleistungs- und KI-Rechenzentren auf diesbezügliche Anbindungen schauen, um Kosten und Latenzzeiten zu reduzieren. In Sachen Energie fordert das Gutachten eine Verpflichtung der IT-Betreiber zu Effizienzsteigerungen. Zudem könnte der Rechenzentrumsstandort Deutschland von dem umfassenden regulatorischen Rahmen hinsichtlich Energieeffizienz durch das EnEfG profitieren. Ein Punkt, den GDA-Chefin Klaft anders sieht, wenn sie ein realistisches Energieeffizienzgesetz anmahnt. Darüber hinaus fordert Klaft klare und investitionsfreundliche Rahmenbedingungen für den Kapazitätsausbau: „Wir brauchen endlich Planungssicherheit: Einen beschleunigten Ausbau der Netzinfrastruktur und faire Rahmenbedingungen im europäischen Wettbewerb. Die Zeit der parteipolitischen Manöver und Verzögerung muss vorbei sein.“ 

Deutschland braucht neue Rechenzentren – aber schnell​ Anna Klaft, Vorstandsvorsitzende der German Datacenter Association, befürchtet, dass der Digitalstandort Deutschland ins Hintertreffen gerät.
German Datacenter Association / Steffen Herre

Auf den ersten Blick lesen sich die Zahlen vielversprechend: Deutschland hat seine RZ-Kapazität von 2010 bis 2024 mehr als verdoppelt – auf über 2.730 MW. Und bis 2030 wird ein weiteres Wachstum auf über 4.800 MW erwartet. Dabei verteilt sich die Rechenpower auf rund 2.000 größere Collocation-Rechenzentren sowie etwa 50.000 kleinere IT-Installationen.

Eine genauere Betrachtung offenbart etwas anderes: Deutschlands Data-Center-Kapazität ist ein Armutszeugnis. Nur zum Vergleich: Allein Meta baut für sich ein Rechenzentrum mit 2 GW Leistung. Davon soll noch in diesem Jahr 1 GW an Rechenpower online gehen. Und die anderen Big-Tech-Player in den USA haben ähnliche Pläne.

Global nur Kreisklasse

Auch wenn Deutschland mit seinen Kapazitäten der größte Rechenzentrumsstandort in Europa ist – im globalen Vergleich spielen wir nur in der Kreisklasse. Selbst der anvisierte Ausbau auf 4,8 GW ist im Zeitalter der digitalen Transformation und KI nur der berühmte Tropfen auf den heißen Stein.

So wollen die USA ihre Kapazitäten von heute knapp 50 GW bis 2030 auf über 90 GW erhöhen. Die aufstrebende Digitalmacht China plant eine Erweiterung von heute geschätzt 40 GW auf über 60 GW. Und noch ein weiterer Aspekt sollte in den Diskussionen um die digitale Zukunft nicht vergessen werden: In Sachen Cloud-Services ist die Exportnation Deutschland primär ein Importland.

Folgerichtig warnt deshalb Anna Klaft, Vorstandsvorsitzende der German Datacenter Association (GDA): „Deutschland steht an einem Scheideweg: Entweder wir schaffen jetzt die nötigen Rahmenbedingungen für eine leistungsfähige digitale Infrastruktur – oder wir verlieren den Anschluss im internationalen Wettbewerb. Rechenzentren sind das Rückgrat dieser Infrastruktur, und es ist höchste Zeit, dass die Politik dies nicht nur anerkennt, sondern auch handelt.“

Bezahlbarer Strom fehlt

Wie RZ-Betreiber Jerome Evans im COMPUTERWOCHE-Interview schlägt Klaft in die gleiche Kerbe: „Ohne bezahlbaren und nachhaltig erzeugten Strom droht der Digitalstandort Deutschland ins Hintertreffen zu geraten.“ Immerhin scheint die Politik mittlerweile erkannt zu haben, dass Handlungsbedarf besteht.

So resümierte Christina Decker, Abteilungsleiterin für Digital- und Innovationspolitik im Bundesministerium für Wirtschaft und Klimaschutz, auf einer GDA-Veranstaltung: „Deutschland soll ein global führender Digital- und KI-Standort werden. Dafür sind ausreichend Rechenzentren erforderlich. Wir wollen deshalb Deutschland als führenden Rechenzentrumsstandort in Europa stärken, auch im Vergleich zu nichteuropäischen Ländern.“

Gutachten zum RZ-Standort Deutschland

Ein Gutachten des BMWK analysiert die Entwicklung des RZ-Standorts Deutschland.
Bundesministeriums für Wirtschaft und Klimaschutz

Immerhin hat das Habeck-Ministerium mittlerweile ein Gutachten zu „Stand und Entwicklung des Rechenzentrumsstandorts Deutschland“ vorgelegt. Es analysiert die Herausforderungen und Schwächen sowie mögliche Handlungsoptionen.

Herausforderungen:

Fachkräftemangel

Langsame Prozesse der öffentlichen Hand

Regulatorik

Fehlende digitale Infrastruktur

Energieversorgung und -verbrauch

Handlungsoptionen

Vor diesem Hintergrund kommt das Gutachten zu mehreren Handlungsempfehlungen, um den Digital- und RZ-Standort Deutschland auszubauen. Mit Blick auf den Fachkräftemangel hebt das Gutachten folgenden Aspekt hervor: Deutschland habe zwar eine starke mittelständische IT-Dienstleisterstruktur, es fehle aber im Vergleich zu den USA an Fachkräften zum Aufbau großer, skalierbarer IT-Installationen. Hier sollten gezielt Initiativen zur Entwicklung von entsprechenden IT-Kenntnissen geschaffen werden – das gelte auch für die Bereiche der Gewerke, Kälte- und Klima- sowie Elektrotechnik, wo ebenfalls ein Mangel herrsche.

In Bezug auf die öffentliche Hand wird eine Standardisierung der Prozesse mit anschließender Digitalisierung empfohlen, um so Genehmigungsverfahren etc. zu beschleunigen. Mit Blick auf die Regulatorik werden beschleunigte Genehmigungsverfahren für Rechenzentren nahegelegt . Daneben schlägt das Gutachten regulatorische Anpassungen vor, etwa die Einführung eines deutschlandweiten Wärmenetzregisters, das mehr Transparenz über die Verfügbarkeit und Nutzung von Wärmenetzen bieten könnte.

Digitale Netze ausbauen

Mit Blick auf die fehlende digitale Infrastruktur sollte ein flächendeckender Glasfaser- und 5G-Ausbau (künftig 6G) Teil einer Digitalisierungsvision sein. Dies ermögliche mehr Flexibilität und geografische Diversität bei der Ansiedlung von Rechenzentren. Eine verbesserte digitale Infrastruktur würde zudem die Attraktivität des Standorts für ausländische Investoren steigern, die insbesondere mit Blick auf Hochleistungs- und KI-Rechenzentren auf diesbezügliche Anbindungen schauen, um Kosten und Latenzzeiten zu reduzieren.

In Sachen Energie fordert das Gutachten eine Verpflichtung der IT-Betreiber zu Effizienzsteigerungen. Zudem könnte der Rechenzentrumsstandort Deutschland von dem umfassenden regulatorischen Rahmen hinsichtlich Energieeffizienz durch das EnEfG profitieren. Ein Punkt, den GDA-Chefin Klaft anders sieht, wenn sie ein realistisches Energieeffizienzgesetz anmahnt.

Darüber hinaus fordert Klaft klare und investitionsfreundliche Rahmenbedingungen für den Kapazitätsausbau: „Wir brauchen endlich Planungssicherheit: Einen beschleunigten Ausbau der Netzinfrastruktur und faire Rahmenbedingungen im europäischen Wettbewerb. Die Zeit der parteipolitischen Manöver und Verzögerung muss vorbei sein.“

Deutschland braucht neue Rechenzentren – aber schnell​ Read More »

DSGVO – fehlt den Behörden der Biss?​

DSGVO – fehlt den Behörden der Biss?​

Allgemein

width=”2486″ height=”1398″ sizes=”(max-width: 2486px) 100vw, 2486px”>Geldbußen und deren strikte Eintreibung sind ein probates Mittel, alle Beteiligten daran zu erinnern, sich tunlichst an die Regeln zu halten.AVN Photo Lab – shutterstock.com Im vergangenen Jahr haben Datenschutzbehörden in Europa Bußgelder in Höhe von 1,2 Milliarden Euro verhängt. Das geht aus der siebten Ausgabe des “GDPR Fines and Data Breach Survey” der Wirtschaftskanzlei DLA Piper hervor. Für den Zeitraum seit dem 28. Januar 2024 bedeutet dies einen Rückgang von 33 Prozent gegenüber den Strafen des vorangegangenen Jahres . Damit sei erstmals ein Rückgang der Bußgelder im Jahresvergleich zu verzeichnen, hieß es. Allerdings sei dies auch auf Sondereffekte 2023 zurückzuführen. Damals verdonnerte Irland Meta zu einer Rekordstrafe von 1,2 Milliarden Euro. Im Jahr 2024 wurden keine vergleichbaren Bußgelder verhängt.  Insgesamt summieren sich die seit Inkrafttreten der DSGVO im Mai 2018 verhängten Strafen auf 5,88 Milliarden Euro. Zahlen mussten vor allem große Technologiekonzerne und Social-Media-Giganten. Fast alle der zehn höchsten seit 2018 verhängten Geldbußen betreffen die Tech-Branche, darunter fallen auch die in 2024 von der irischen Datenschutzbehörde verhängten Bußgelder in Höhe von 310 Millionen Euro gegen LinkedIn und die 251-Millionen-Euro-Strafe für Meta.  Datenschutzanforderungen: Digitaler Fortschritt – trotz DSGVO-Korsett Irland verhängt mit großem Abstand weiterhin die meisten Geldbußen – seit Mai 2018 mittlerweile 3,5 Milliarden Euro. Zum Vergleich: In Deutschland wurden seit Inkrafttreten der DSGVO Bußgelder im Gesamtvolumen von 89,1 Millionen Euro verhängt. Ein Fokus der deutschen Datenschutzbehörden liege DLA Piper zufolge dabei auf Verstößen gegen die Integrität und Vertraulichkeit sowie die Sicherheit der Datenverarbeitung.  “DSGVO bleibt ein starkes Instrument” „Die diesjährigen Ergebnisse zeigen, dass die Datenschutzbehörden in Europa weiterhin eine klare Linie verfolgen“, kommentierte Jan Geert Meents, Partner der deutschen Praxisgruppe Intellectual Property & Technology (IPT) bei DLA Piper, die aktuellen Studienergebnisse. Der Rückgang des Gesamtvolumens der Bußgelder sei schließlich auf außergewöhnliche Ereignisse im Vorjahr zurückzuführen und bedeute keine Abschwächung der regulatorischen Aktivitäten. „Die DSGVO bleibt ein starkes Instrument, um den Datenschutz zu gewährleisten und die Einhaltung zu fördern. Dies gilt insbesondere auch für Deutschland.“  Chinesische Firmen zapfen europäische Daten ab Auf Seiten von Datenschutzaktivisten beurteilt man die aktuelle Situation hinsichtlich Verfahren und Bußgeldern dagegen deutlich nüchterner. Der Verein noyb mit seinem Vorstandsvorsitzenden Max Schrems spricht sogar von “Untätigkeit der nationalen Datenschutzbehörden”. Im Durchschnitt würden nur 1,3 Prozent aller Fälle vor den Datenschutzbehörden zu einer Geldstrafe führen, berichten die Aktivisten unter Berufung auf Statistiken des Europäischen Datenschutzausschusses (EDSA). Verfahren dauern zu lang Die Vorstellung, mit der DSGVO eine Wende hin zu einem ernsthaften Umgang mit Datenschutz erreicht zu haben, habe sich größtenteils als Wunschdenken erwiesen, hieß es in einer Mitteilung des noyb. „Die europäischen Datenschutzbehörden haben alle erforderlichen Mittel, um DSGVO-Verstöße angemessen zu ahnden und Bußgelder zu verhängen“, stellt Schrems klar. „Stattdessen ziehen sich die Verhandlungen oft über Jahre hinweg in die Länge – und enden nur selten im Sinne der Betroffenen.“  Die Aktivisten sprechen von einem spezifischen Phänomen des Datenschutzes. 2022 seien beispielsweise bei der spanischen Datenschutzbehörde 15.128 Beschwerden eingegangen. Allerdings seien gerade einmal 378 Geldstrafen verhängt worden – einschließlich offensichtlicher Verstöße wie unbeantwortete Auskunftsersuchen oder unzulässige Cookie-Banner, die theoretisch schnell und standardisiert behandelt werden könnten. Die noyb-Verantwortlichen führen zum Vergleich an: 2022 wurden in Spanien 3,7 Millionen Strafzettel für Geschwindigkeitsübertretungen ausgestellt. Ähnliche Verhältnisse würden für praktisch alle anderen EU-Mitgliedstaaten gelten.  Datenschutzbehörden fehlt die Motivation, das ihnen anvertraute Recht auch durchzusetzen, moniert Max Schrems, Vorstandsvorsitzender des noyb.David Bohmann PID „Irgendwie fehlt nur Datenschutzbehörden die notwendige Motivation, das ihnen anvertraute Recht auch tatsächlich durchzusetzen“, moniert Schrems. „In allen anderen Bereichen führen Gesetzesverstöße regelmäßig zu Geldstrafen und ernsthaften Sanktionen.“ Datenschutzbehörden handelten oft eher im Interesse der Unternehmen als der betroffenen Personen, mutmaßt der Aktivist.  Geldbußen motivieren zur Einhaltung der Compliance Dabei seien es gerade Geldbußen, die die Unternehmen zur Einhaltung der Gesetze motivieren, berichtet der Verein unter Berufung auf eine eigene Umfrage. Gut zwei Drittel der Befragten hätten angegeben, dass Entscheidungen der Datenschutzbehörde, die ihr eigenes Unternehmen betreffen und eine Geldstrafe beinhalten, zu mehr Compliance führten. Gut sechs von zehn Befragten räumten außerdem ein, dass selbst Bußgelder gegen andere Organisationen Einfluss auf das eigene Unternehmen haben.  Tatsächlich könnte sich der Fokus der Datenschutzbehörden etwas verschieben, was in der Konsequenz zu mehr Bußgeldbescheiden führen könnte. DLA Piper verweist auf eine Ankündigung der niederländischen Datenschutzbehörde. Diese will überprüfen, ob die Geschäftsführer von Clearview AI persönlich für zahlreiche DSGVO-Verstöße haftbar gemacht werden könnten, nachdem ein Bußgeld in Höhe von 30,5 Millionen Euro gegen das Unternehmen verhängt worden war. „Diese Untersuchung könnte einen möglichen Wandel im Fokus der Regulierungsbehörden hin zu einer persönlichen Haftung und mehr individueller Verantwortlichkeit signalisieren“, interpretieren die Rechtsexperten den Schritt.  Persönliche Haftung – neue Phase in der DSGVO-Durchsetzung „Die zunehmende Fokussierung auf die persönliche Haftung von Führungskräften markiert eine neue Phase in der DSGVO-Durchsetzung“, kommentiert Verena Grentzenberg, Partnerin der Praxisgruppe IPT von DLA Piper in Deutschland mit Fokus auf Datenschutz. „Dies setzt ein klares Signal an Unternehmen, dass Verstöße gegen den Datenschutz nicht ohne Konsequenzen bleiben – auch nicht auf der Ebene der handelnden Personen.“  

DSGVO – fehlt den Behörden der Biss?​ width=”2486″ height=”1398″ sizes=”(max-width: 2486px) 100vw, 2486px”>Geldbußen und deren strikte Eintreibung sind ein probates Mittel, alle Beteiligten daran zu erinnern, sich tunlichst an die Regeln zu halten.AVN Photo Lab – shutterstock.com

Im vergangenen Jahr haben Datenschutzbehörden in Europa Bußgelder in Höhe von 1,2 Milliarden Euro verhängt. Das geht aus der siebten Ausgabe des “GDPR Fines and Data Breach Survey” der Wirtschaftskanzlei DLA Piper hervor. Für den Zeitraum seit dem 28. Januar 2024 bedeutet dies einen Rückgang von 33 Prozent gegenüber den Strafen des vorangegangenen Jahres . Damit sei erstmals ein Rückgang der Bußgelder im Jahresvergleich zu verzeichnen, hieß es. Allerdings sei dies auch auf Sondereffekte 2023 zurückzuführen. Damals verdonnerte Irland Meta zu einer Rekordstrafe von 1,2 Milliarden Euro. Im Jahr 2024 wurden keine vergleichbaren Bußgelder verhängt. 

Insgesamt summieren sich die seit Inkrafttreten der DSGVO im Mai 2018 verhängten Strafen auf 5,88 Milliarden Euro. Zahlen mussten vor allem große Technologiekonzerne und Social-Media-Giganten. Fast alle der zehn höchsten seit 2018 verhängten Geldbußen betreffen die Tech-Branche, darunter fallen auch die in 2024 von der irischen Datenschutzbehörde verhängten Bußgelder in Höhe von 310 Millionen Euro gegen LinkedIn und die 251-Millionen-Euro-Strafe für Meta. 

Datenschutzanforderungen: Digitaler Fortschritt – trotz DSGVO-Korsett

Irland verhängt mit großem Abstand weiterhin die meisten Geldbußen – seit Mai 2018 mittlerweile 3,5 Milliarden Euro. Zum Vergleich: In Deutschland wurden seit Inkrafttreten der DSGVO Bußgelder im Gesamtvolumen von 89,1 Millionen Euro verhängt. Ein Fokus der deutschen Datenschutzbehörden liege DLA Piper zufolge dabei auf Verstößen gegen die Integrität und Vertraulichkeit sowie die Sicherheit der Datenverarbeitung. 

“DSGVO bleibt ein starkes Instrument”

„Die diesjährigen Ergebnisse zeigen, dass die Datenschutzbehörden in Europa weiterhin eine klare Linie verfolgen“, kommentierte Jan Geert Meents, Partner der deutschen Praxisgruppe Intellectual Property & Technology (IPT) bei DLA Piper, die aktuellen Studienergebnisse. Der Rückgang des Gesamtvolumens der Bußgelder sei schließlich auf außergewöhnliche Ereignisse im Vorjahr zurückzuführen und bedeute keine Abschwächung der regulatorischen Aktivitäten. „Die DSGVO bleibt ein starkes Instrument, um den Datenschutz zu gewährleisten und die Einhaltung zu fördern. Dies gilt insbesondere auch für Deutschland.“ 

Chinesische Firmen zapfen europäische Daten ab

Auf Seiten von Datenschutzaktivisten beurteilt man die aktuelle Situation hinsichtlich Verfahren und Bußgeldern dagegen deutlich nüchterner. Der Verein noyb mit seinem Vorstandsvorsitzenden Max Schrems spricht sogar von “Untätigkeit der nationalen Datenschutzbehörden”. Im Durchschnitt würden nur 1,3 Prozent aller Fälle vor den Datenschutzbehörden zu einer Geldstrafe führen, berichten die Aktivisten unter Berufung auf Statistiken des Europäischen Datenschutzausschusses (EDSA).

Verfahren dauern zu lang

Die Vorstellung, mit der DSGVO eine Wende hin zu einem ernsthaften Umgang mit Datenschutz erreicht zu haben, habe sich größtenteils als Wunschdenken erwiesen, hieß es in einer Mitteilung des noyb. „Die europäischen Datenschutzbehörden haben alle erforderlichen Mittel, um DSGVO-Verstöße angemessen zu ahnden und Bußgelder zu verhängen“, stellt Schrems klar. „Stattdessen ziehen sich die Verhandlungen oft über Jahre hinweg in die Länge – und enden nur selten im Sinne der Betroffenen.“ 

Die Aktivisten sprechen von einem spezifischen Phänomen des Datenschutzes. 2022 seien beispielsweise bei der spanischen Datenschutzbehörde 15.128 Beschwerden eingegangen. Allerdings seien gerade einmal 378 Geldstrafen verhängt worden – einschließlich offensichtlicher Verstöße wie unbeantwortete Auskunftsersuchen oder unzulässige Cookie-Banner, die theoretisch schnell und standardisiert behandelt werden könnten. Die noyb-Verantwortlichen führen zum Vergleich an: 2022 wurden in Spanien 3,7 Millionen Strafzettel für Geschwindigkeitsübertretungen ausgestellt. Ähnliche Verhältnisse würden für praktisch alle anderen EU-Mitgliedstaaten gelten. 

Datenschutzbehörden fehlt die Motivation, das ihnen anvertraute Recht auch durchzusetzen, moniert Max Schrems, Vorstandsvorsitzender des noyb.David Bohmann PID

„Irgendwie fehlt nur Datenschutzbehörden die notwendige Motivation, das ihnen anvertraute Recht auch tatsächlich durchzusetzen“, moniert Schrems. „In allen anderen Bereichen führen Gesetzesverstöße regelmäßig zu Geldstrafen und ernsthaften Sanktionen.“ Datenschutzbehörden handelten oft eher im Interesse der Unternehmen als der betroffenen Personen, mutmaßt der Aktivist. 

Geldbußen motivieren zur Einhaltung der Compliance

Dabei seien es gerade Geldbußen, die die Unternehmen zur Einhaltung der Gesetze motivieren, berichtet der Verein unter Berufung auf eine eigene Umfrage. Gut zwei Drittel der Befragten hätten angegeben, dass Entscheidungen der Datenschutzbehörde, die ihr eigenes Unternehmen betreffen und eine Geldstrafe beinhalten, zu mehr Compliance führten. Gut sechs von zehn Befragten räumten außerdem ein, dass selbst Bußgelder gegen andere Organisationen Einfluss auf das eigene Unternehmen haben. 

Tatsächlich könnte sich der Fokus der Datenschutzbehörden etwas verschieben, was in der Konsequenz zu mehr Bußgeldbescheiden führen könnte. DLA Piper verweist auf eine Ankündigung der niederländischen Datenschutzbehörde. Diese will überprüfen, ob die Geschäftsführer von Clearview AI persönlich für zahlreiche DSGVO-Verstöße haftbar gemacht werden könnten, nachdem ein Bußgeld in Höhe von 30,5 Millionen Euro gegen das Unternehmen verhängt worden war. „Diese Untersuchung könnte einen möglichen Wandel im Fokus der Regulierungsbehörden hin zu einer persönlichen Haftung und mehr individueller Verantwortlichkeit signalisieren“, interpretieren die Rechtsexperten den Schritt. 

Persönliche Haftung – neue Phase in der DSGVO-Durchsetzung

„Die zunehmende Fokussierung auf die persönliche Haftung von Führungskräften markiert eine neue Phase in der DSGVO-Durchsetzung“, kommentiert Verena Grentzenberg, Partnerin der Praxisgruppe IPT von DLA Piper in Deutschland mit Fokus auf Datenschutz. „Dies setzt ein klares Signal an Unternehmen, dass Verstöße gegen den Datenschutz nicht ohne Konsequenzen bleiben – auch nicht auf der Ebene der handelnden Personen.“ 

DSGVO – fehlt den Behörden der Biss?​ Read More »

US-Justizministerium will HPEs Juniper-Kauf blockieren​

US-Justizministerium will HPEs Juniper-Kauf blockieren​

Allgemein

Zieht das DoJ bei der Netzwerker-Ehe den Stecker?Gorodenkoff / Shutterstock Nach monatelangen Spekulationen hat das US-Justizministerium Klage eingereicht, um den 14-Milliarden-Dollar-Verkauf von Juniper Networks an Hewlett Packard Enterprise zu blockieren. Als größtes Problem bei dem geplanten Kauf nannte das Department of Justice (DoJ) dabei den eingeschränkten Wettbewerb im Wireless-Bereich. In ihrer Erklärung wies die Behörde darauf hin, dass HPE und Juniper nach dem Marktführer Cisco Systems die zweit-, beziehungsweise drittgrößten Anbieter von WLAN-Lösungen für Unternehmen in den USA seien.  Zu große Marktmacht, zu kleine Konkurrenz  „Diese geplante Übernahme birgt das Risiko, den Wettbewerb in einem äußerst wichtigen Technologiemarkt erheblich zu verringern, und stellt somit genau die Bedrohung dar, die durch den Clayton Act verhindert werden sollte“, schreibt das Justizministerium in einer Erklärung und hält fest: “Sie sollte blockiert werden.“  Gleichzeitig weist das DoJ darauf hin, dass es andere Anbieter von WLAN-Equipment für Unternehmen schwer hätten, sich neu zu positionieren oder zu expandieren, um die Position einer unabhängigen Juniper Networks zu übernehmen. Aktuell seien nur eine Handvoll WLAN-Anbieter gut positioniert, um die fortschrittlichsten Anwendungsfälle zu bewältigen. Zudem hätten kleine Wettbewerber aufgrund ihrer überschaubaren Vertriebs- und Serviceteams Nachteile, da dies notwendige Komponenten seien, um sich den von Enterprise-Kunden verlangten Ruf für zuverlässigen Service zu erarbeiten.  „Selbst gut ausgestattete Networking-Anbieter aus angrenzenden Bereichen stellen wahrscheinlich nicht sofort eine starke Alternative zu Cisco und HPE dar“, befindet die Bundesbehörde. Mehrere dieser Provider hätten mit einem schlechten Ruf zu kämpfen und verfügten nicht über die Vertriebsnetze für ein schnelles Wachstum auf dem Enterprise-WLAN-Markt.  Laut Berechnungen des DoJ würden Cisco und HPE im Falle eines Abschlusses des Geschäfts weit über 70 Prozent des US-Marktes kontrollieren. Der Deal setze zudem dem „starken, direkten Wettbewerb“ zwischen HPE und Juniper ein Ende.  KI als Kernstück des Angebots von HPE für Juniper  Als HPE den Deal im Januar vergangenen Jahres bekannt ab, prognostizierte das Unternehmen, dass es mit Hilfe von Junipers – teilweise überlappender – Produktpalette für Campus- und Rechenzentrumsnetze sein Netzwerkgeschäft verdoppeln würde. Junipers Enterprise-Networking-Sparte war im ersten Quartal 2022 zum ersten Mal in der Firmengeschichte der größte seiner drei Kernbereiche (Cloud, Service Provider und Enterprise) und ist seitdem weiter gewachsen.  Bei dem Kauf geht es in erster Linie um Junipers KI-Technologie. HPE könnte sich mit dem Deal die Cloud-basierte Mist-AI-Familie von Juniper sichern, mit der drahtgebundene und drahtlose Netzwerke proaktiv verwaltet werden. Außerdem entwickelte Juniper mit Marvis einen KI-gestützten virtuellen Netzwerkassistenten für Mist. Marvis kann unzählige Netzwerkprobleme erkennen, beschreiben und beheben, darunter:  anhaltend ausfallende LAN- oder WLAN-Clients,   defekte Kabel,   Lücken in der Abdeckung von Access Points,   problematische WAN-Verbindungen, oder   unzureichende Funkkapazität.  „KI erfordert eine moderne Netzwerkgrundlage, vom Client bis zur Cloud, um Daten zu verbinden, und diese Grundlage wird genauso wichtig sein wie das Silizium, um die Leistung und den Wert der KI beim Übergang der Welt zu dieser Art von beschleunigter Datenverarbeitung zu erschließen“, erklärte HPE-CEO Antonio Neri Ende 2024 auf der HPE Discover in Barcelona. Die Kombination von HPE und Juniper werde das Netz der Zukunft dabei einen großen Schritt nach vorne bringen.   „Der Juniper-Deal wird ein wesentlicher Teil des Puzzles sein“, so der HPE-Chef damals zuversichtlich. „Denn gemeinsam erwarten wir eine Reihe sicherer KI-nativer Netzwerklösungen, die in allen Segmenten – Enterprise, Cloud und Service Provider – ein außergewöhnliches Benutzererlebnis bieten.“  Inwieweit sich diese Vision nach dem Veto des US-Justizministeriums umsetzen lässt, ist fraglich. Beobachter halten es jedoch für möglich, dass die Transaktion mit einigen Anpassungen – beispielsweise der Veräußerung bestimmter Technologien – doch noch über die Bühne gehen kann.  HPE und Juniper verteidigen Deal  Immerhin wollen die beiden Fusionspartner den Einspruch des DoJ nicht so einfach hinnehmen. Innerhalb weniger Stunden nach der Ankündigung des Justizministeriums reagierten HPE und Juniper auf die Einreichung einer Beschwerde mit einer Stellungnahme.  „Wir werden uns energisch gegen die überzogene Auslegung der Kartellgesetze durch das Justizministerium zur Wehr setzen und aufzeigen, wie diese Transaktion den Kunden mehr Innovation und Auswahl bieten, die Dynamik auf dem Netzwerkmarkt durch mehr Wettbewerb positiv verändern und das Rückgrat der US-Netzwerkinfrastruktur stärken wird“, verkündeten die beiden Unternehmen bekannt und verwiesen auf die positiven Bescheide anderer Kartellbehörden, die den Deal geprüft haben. Die geplante Übernahme werde Kunden jeder Größe ein modernes, sicheres Netzwerk bieten, das mit KI und für KI aufgebaut wurde, um eine bessere Benutzer- und Betreibererfahrung zu gewährleisten – und mehr Wettbewerb schaffen, nicht weniger – so die Argumentation von HPE und Juniper.  

US-Justizministerium will HPEs Juniper-Kauf blockieren​ Zieht das DoJ bei der Netzwerker-Ehe den Stecker?Gorodenkoff / Shutterstock

Nach monatelangen Spekulationen hat das US-Justizministerium Klage eingereicht, um den 14-Milliarden-Dollar-Verkauf von Juniper Networks an Hewlett Packard Enterprise zu blockieren. Als größtes Problem bei dem geplanten Kauf nannte das Department of Justice (DoJ) dabei den eingeschränkten Wettbewerb im Wireless-Bereich. In ihrer Erklärung wies die Behörde darauf hin, dass HPE und Juniper nach dem Marktführer Cisco Systems die zweit-, beziehungsweise drittgrößten Anbieter von WLAN-Lösungen für Unternehmen in den USA seien. 

Zu große Marktmacht, zu kleine Konkurrenz 

„Diese geplante Übernahme birgt das Risiko, den Wettbewerb in einem äußerst wichtigen Technologiemarkt erheblich zu verringern, und stellt somit genau die Bedrohung dar, die durch den Clayton Act verhindert werden sollte“, schreibt das Justizministerium in einer Erklärung und hält fest: “Sie sollte blockiert werden.“ 

Gleichzeitig weist das DoJ darauf hin, dass es andere Anbieter von WLAN-Equipment für Unternehmen schwer hätten, sich neu zu positionieren oder zu expandieren, um die Position einer unabhängigen Juniper Networks zu übernehmen. Aktuell seien nur eine Handvoll WLAN-Anbieter gut positioniert, um die fortschrittlichsten Anwendungsfälle zu bewältigen. Zudem hätten kleine Wettbewerber aufgrund ihrer überschaubaren Vertriebs- und Serviceteams Nachteile, da dies notwendige Komponenten seien, um sich den von Enterprise-Kunden verlangten Ruf für zuverlässigen Service zu erarbeiten. 

„Selbst gut ausgestattete Networking-Anbieter aus angrenzenden Bereichen stellen wahrscheinlich nicht sofort eine starke Alternative zu Cisco und HPE dar“, befindet die Bundesbehörde. Mehrere dieser Provider hätten mit einem schlechten Ruf zu kämpfen und verfügten nicht über die Vertriebsnetze für ein schnelles Wachstum auf dem Enterprise-WLAN-Markt. 

Laut Berechnungen des DoJ würden Cisco und HPE im Falle eines Abschlusses des Geschäfts weit über 70 Prozent des US-Marktes kontrollieren. Der Deal setze zudem dem „starken, direkten Wettbewerb“ zwischen HPE und Juniper ein Ende. 

KI als Kernstück des Angebots von HPE für Juniper 

Als HPE den Deal im Januar vergangenen Jahres bekannt ab, prognostizierte das Unternehmen, dass es mit Hilfe von Junipers – teilweise überlappender – Produktpalette für Campus- und Rechenzentrumsnetze sein Netzwerkgeschäft verdoppeln würde. Junipers Enterprise-Networking-Sparte war im ersten Quartal 2022 zum ersten Mal in der Firmengeschichte der größte seiner drei Kernbereiche (Cloud, Service Provider und Enterprise) und ist seitdem weiter gewachsen. 

Bei dem Kauf geht es in erster Linie um Junipers KI-Technologie. HPE könnte sich mit dem Deal die Cloud-basierte Mist-AI-Familie von Juniper sichern, mit der drahtgebundene und drahtlose Netzwerke proaktiv verwaltet werden. Außerdem entwickelte Juniper mit Marvis einen KI-gestützten virtuellen Netzwerkassistenten für Mist. Marvis kann unzählige Netzwerkprobleme erkennen, beschreiben und beheben, darunter: 

anhaltend ausfallende LAN- oder WLAN-Clients,  

defekte Kabel,  

Lücken in der Abdeckung von Access Points,  

problematische WAN-Verbindungen, oder  

unzureichende Funkkapazität. 

„KI erfordert eine moderne Netzwerkgrundlage, vom Client bis zur Cloud, um Daten zu verbinden, und diese Grundlage wird genauso wichtig sein wie das Silizium, um die Leistung und den Wert der KI beim Übergang der Welt zu dieser Art von beschleunigter Datenverarbeitung zu erschließen“, erklärte HPE-CEO Antonio Neri Ende 2024 auf der HPE Discover in Barcelona. Die Kombination von HPE und Juniper werde das Netz der Zukunft dabei einen großen Schritt nach vorne bringen.  

„Der Juniper-Deal wird ein wesentlicher Teil des Puzzles sein“, so der HPE-Chef damals zuversichtlich. „Denn gemeinsam erwarten wir eine Reihe sicherer KI-nativer Netzwerklösungen, die in allen Segmenten – Enterprise, Cloud und Service Provider – ein außergewöhnliches Benutzererlebnis bieten.“ 

Inwieweit sich diese Vision nach dem Veto des US-Justizministeriums umsetzen lässt, ist fraglich. Beobachter halten es jedoch für möglich, dass die Transaktion mit einigen Anpassungen – beispielsweise der Veräußerung bestimmter Technologien – doch noch über die Bühne gehen kann. 

HPE und Juniper verteidigen Deal 

Immerhin wollen die beiden Fusionspartner den Einspruch des DoJ nicht so einfach hinnehmen. Innerhalb weniger Stunden nach der Ankündigung des Justizministeriums reagierten HPE und Juniper auf die Einreichung einer Beschwerde mit einer Stellungnahme. 

„Wir werden uns energisch gegen die überzogene Auslegung der Kartellgesetze durch das Justizministerium zur Wehr setzen und aufzeigen, wie diese Transaktion den Kunden mehr Innovation und Auswahl bieten, die Dynamik auf dem Netzwerkmarkt durch mehr Wettbewerb positiv verändern und das Rückgrat der US-Netzwerkinfrastruktur stärken wird“, verkündeten die beiden Unternehmen bekannt und verwiesen auf die positiven Bescheide anderer Kartellbehörden, die den Deal geprüft haben. Die geplante Übernahme werde Kunden jeder Größe ein modernes, sicheres Netzwerk bieten, das mit KI und für KI aufgebaut wurde, um eine bessere Benutzer- und Betreibererfahrung zu gewährleisten – und mehr Wettbewerb schaffen, nicht weniger – so die Argumentation von HPE und Juniper. 

US-Justizministerium will HPEs Juniper-Kauf blockieren​ Read More »

Hugging Face rekonstruiert DeepSeek R1​

Hugging Face rekonstruiert DeepSeek R1​

Allgemein

Geht’s um Open Source, will Hugging Face keine Abstriche machen.Tada Images | shutterstock.com Das chinesische KI-Startup DeepSeek AI und sein KI-Modell R1 sind in aller Munde. Nicht nur, weil das Large Language Model (LLM) der Chinesen ohne Einschränkungen kommerziell genutzt werden kann. Nun haben die KI-Experten von Hugging Face ein neues Projekt angekündigt, in dessen Rahmen sie DeepSeek R1 rekonstruieren wollen – allerdings in vollständig quelloffener Form. Open-R1 – das bessere DeepSeek R1? „Der Release von DeepSeek R1 ist ein Segen für die Community, aber nicht vollständig transparent: Zwar sind die Modellgewichtungen öffentlich verfügbar, die Datensätze und der Code, die genutzt wurden, um das Modell zu trainieren, aber nicht“, konstatieren Hugging-Face-Experten im Blogbeitrag zum Open-R1-Projekt, der weitere, technische Details zur geplanten Umsetzung enthält. Aus Sicht von Hugging Face blieben mit Blick auf die Veröffentlichung von DeepSeek R1 im Wesentlichen drei Fragen offen: Wie wurden die Reasoning-spezifischen Datensätze kuratiert? Welche Hyperparameter funktionieren am besten und welche Unterschiede gibt es zwischen den verschiedenen Modellfamilien und Skalierungsebenen? Welche Kompromisse wurden beim Modelltraining mit Blick auf Rechenleistung und Daten gemacht? Das Ziel von Open-R1 sei es, diese fehlenden Teile zu ergänzen, damit auf dieser Grundlage ähnliche oder bessere Modelle entstehen könnten: „Mit Open-R1 wollen wir Transparenz darüber schaffen, wie Reinforcement Learning das Reasoning von KI-Modellen vorantreibt und der Open-Source-Community entsprechende, reproduzierbare Insights zur Verfügung stellen“, stellen die Hugging-Face-Autoren in Aussicht. Open R1, an open attempt by @huggingface to repro DeepSeek R1 training, is the most interesting and potentially impactful open source project in the world today(link in reply) pic.twitter.com/fjCiOVSA1K— Jared Palmer (@jaredpalmer) January 27, 2025 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Hugging Face rekonstruiert DeepSeek R1​ Geht’s um Open Source, will Hugging Face keine Abstriche machen.Tada Images | shutterstock.com

Das chinesische KI-Startup DeepSeek AI und sein KI-Modell R1 sind in aller Munde. Nicht nur, weil das Large Language Model (LLM) der Chinesen ohne Einschränkungen kommerziell genutzt werden kann.

Nun haben die KI-Experten von Hugging Face ein neues Projekt angekündigt, in dessen Rahmen sie DeepSeek R1 rekonstruieren wollen – allerdings in vollständig quelloffener Form.

Open-R1 – das bessere DeepSeek R1?

„Der Release von DeepSeek R1 ist ein Segen für die Community, aber nicht vollständig transparent: Zwar sind die Modellgewichtungen öffentlich verfügbar, die Datensätze und der Code, die genutzt wurden, um das Modell zu trainieren, aber nicht“, konstatieren Hugging-Face-Experten im Blogbeitrag zum Open-R1-Projekt, der weitere, technische Details zur geplanten Umsetzung enthält. Aus Sicht von Hugging Face blieben mit Blick auf die Veröffentlichung von DeepSeek R1 im Wesentlichen drei Fragen offen:

Wie wurden die Reasoning-spezifischen Datensätze kuratiert?

Welche Hyperparameter funktionieren am besten und welche Unterschiede gibt es zwischen den verschiedenen Modellfamilien und Skalierungsebenen?

Welche Kompromisse wurden beim Modelltraining mit Blick auf Rechenleistung und Daten gemacht?

Das Ziel von Open-R1 sei es, diese fehlenden Teile zu ergänzen, damit auf dieser Grundlage ähnliche oder bessere Modelle entstehen könnten: „Mit Open-R1 wollen wir Transparenz darüber schaffen, wie Reinforcement Learning das Reasoning von KI-Modellen vorantreibt und der Open-Source-Community entsprechende, reproduzierbare Insights zur Verfügung stellen“, stellen die Hugging-Face-Autoren in Aussicht.

Open R1, an open attempt by @huggingface to repro DeepSeek R1 training, is the most interesting and potentially impactful open source project in the world today(link in reply) pic.twitter.com/fjCiOVSA1K— Jared Palmer (@jaredpalmer) January 27, 2025

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Hugging Face rekonstruiert DeepSeek R1​ Read More »

Vertragsmodelle: So rechnen Sie agile Projekte ab​

Vertragsmodelle: So rechnen Sie agile Projekte ab​

Allgemein

Grundsätzlich geht es bei der passsenden Vertragsgestaltung und Abrechnung bei agilen Projekten darum, dass sich beide Parteien auf die gemeinschaftliche Schaffung von Mehrwert einigen und in Abwägung der Bedürfnisse beider Partner das passende Modell gewählt wird. Foto: CrizzyStudio – shutterstock.comKeine fixen Projektpläne, unzureichende Steuerung und hohes Fehleraufkommen: Hartnäckig hält sich das Vorurteil, dass in agilen Projekten Chaos und Laisser-faire-Haltung herrschen. Aus Controlling-Sicht führt dies häufig zu einer gefühlten Budget-Unsicherheit. Um dieser bei einem Kunden oder im eigenen Unternehmen entgegenzuwirken, gilt es zunächst, den Finanzexperten die Logik der neuen Form des agilen Projektmanagements nahezubringen – am besten in einer Gegenüberstellung mit der ihnen vertrauten Wasserfallmethode. Als wesentlicher Unterschied kristallisiert sich dabei heraus, dass klassische Werkverträge darauf basieren, zu Beginn des Projektes den Liefergegenstand möglichst genau zu beschreiben. Das heißt: Der Inhalt steht fest, Zeit und Budget sind typischerweise geschätzt. Bei einem agilen Projekt hingegen sind bei den gängigen Abrechnungsformen Zeit und Budget fix, während der Inhalt oder Scope geschätzt wird. Aufgrund dieser Tatsache entsteht bei den Finanzexperten im Unternehmen ein Unsicherheitsgefühl. Beschäftigten sie sich jedoch näher mit den jeweiligen Besonderheiten der beiden Abrechnungsmethoden, relativiert sich dieses erfahrungsgemäß deutlich.Vermeintliche Budget-Sicherheit in WasserfallprojektenSo hat bei einem klassischen Wasserfallprojekt der Projektleiter ein detailliertes Pflichten- und Lastenheft, das er abarbeitet. Erfahrungsgemäß gibt es dazu aber im Laufe des Projekts zahlreiche Change Requests, die am Ende in Summe häufig sogar teurer kommen als der ursprünglich kalkulierte Preis. Oder anders formuliert: Es ist eine Illusion, dass ein komplett dokumentiertes Projekt so läuft, wie im Vorhinein geplant. Oftmals sind nach einer langen Planungsphase die Pflichten- und Lastenhefte an dem Tag, an dem sie abgeliefert werden, bereits veraltet. Und so bergen gerade Vertragswerke, die auf der Wasserfallmethode beruhen und vermeintlich Budget-Sicherheit bieten, hohe Risiken.Auf der anderen Seite werden agile Projekte sehr wohl gesteuert – allerdings in dem Wissen, dass es in einer schnelllebigen Wirtschaftswelt immer Unsicherheiten gibt und sich die Rahmenbedingungen und Anforderungen zum Beispiel an eine zu entwickelnde Software permanent verändern. Konkret heißt das: Im sogenannten Projekt-Backlog werden zunächst lediglich die Headlines für das gesamte Projekt aufgeschrieben. Erst wenn das Team die betreffenden Themen bearbeitet, werden sie detailliert ausgearbeitet. Für den nächsten Sprint wird jeweils das Thema ausgewählt, das die höchste Wertschöpfung für den Kunden verspricht. Auch das Backlog wird permanent angepasst. Dies führt jedoch keineswegs zu Chaos, da die Teams bewährten Frameworks wie zum Beispiel Scrum folgen, durch die auch der Erfolg engmaschig kontrolliert wird. So wird in jedem Sprint überprüft, ob die Inhalte wertschöpfend sind oder nicht. Hinzu kommt außerdem, dass die Steuerung der Wertschöpfung beim Product Owner liegt, der in der Regel von Kundenseite eingesetzt wird. Er entscheidet, an welchen Themen gearbeitet wird. Auf diese Weise ist der Projektfortschritt für den Kunden zu jedem Zeitpunkt transparent. Run-Rate: Häufig angeboten, aber nicht idealDiese Gegenüberstellung zeigt, dass der Kunde bei gut gesteuerten agilen Projekten grundsätzlich sogar eine höhere Transparenz und Kostenkontrolle hat als bei klassischen Wasserfallprojekten. Doch was bedeuten die Besonderheiten agiler Projekte nun genau für deren Abrechnung? Aufbauend auf der Logik der agilen Projekte – der Scope ist geschätzt beziehungsweise flexibel und der Kunde steuert die Wertschöpfung selbst – rechnen Beratungsunternehmen häufig über eine sogenannte Run-Rate ab. Das bedeutet: Das Beratungsunternehmen stellt ein Team zur Verfügung und der Kunde zahlt pro Zeit. Als Product Owner ist der Kunde selbst für den Inhalt verantwortlich. Das ist aus Auftragnehmersicht das einfachste Modell, aus Sicht des Auftraggebers jedoch das riskanteste, weil er das komplette Risiko einer Fehlentwicklung trägt. Fairer ist es daher, gerade auch nach der Philosophie der agilen Methoden, die auf ein vertrauensvolles Miteinander und kontinuierliche Kommunikation und Abstimmung setzen, das Risiko zu teilen. Eine Möglichkeit ist, ein niedrigeres Fixum für die eingesetzten Ressourcen zu vereinbaren und eine Prämie für erreichte Ziele – zum Beispiel für so genannte Releases oder gelieferte Story Points. Ebenfalls fair ist es, Exit-Möglichkeiten für beide Seiten zu schaffen. Das Unternehmen beauftragt zum Beispiel zunächst fünf Sprints und schaut danach, wie sich die Leistung des Teams entwickelt hat. Dann kann es entscheiden, ob es in dieser Konstellation weitergehen soll. Königsweg: Agiler Festpreis plus RisikoteilungDer Königsweg bei der Abrechnung agiler Projekte ist jedoch der sogenannte agile Festpreis. Dieser bedeutet zwar mehr Aufwand bei der Vertragsausgestaltung und ist deshalb oft noch die Ausnahme. Dem Kunden bietet er aber über die aufgezeigten Steuerungs- und Kontrollmechanismen hinaus eine höhere Planungssicherheit. Das grundsätzliche Problem, das hier im Unterschied zur Wasserfallmethode entsteht, ist die Beschreibung dessen, was geliefert werden soll. Denn es gibt zwar eine Idee und Vision vom Nutzen der zu liefernden Features, aber noch keinen konkreten Plan für deren Umsetzung. Dies ist eine Stärke der agilen Projektarbeit, weil keine Leistungen festgeschrieben werden, die zum Zeitpunkt der Umsetzung womöglich nicht mehr wertschöpfend sind. Es erschwert jedoch die Beschreibung des Vertragsgegenstands.Um dennoch auch für agile Projekte einen Festpreis zu ermitteln, setzten sich Unternehmen und Lieferant zusammen und definieren gemeinsam die Ziele für das Projekt. Im Fokus stehen dabei der Business Value für den Kunden und die Vision davon, was mit dem Projekt genau erreicht werden soll. Um auch das “Wie” zumindest grob zu spezifizieren, wird ein initiales Backlog erarbeitet – also die Liste von Inhalten, die nach heutigem Kenntnisstand zu diesem Projekt zu liefern sind. Für dieses Backlog wird der Aufwand geschätzt. Dazu herangezogen werden Referenzarbeiten, für die man eine bestimmte Anzahl von Leuten und Tagen oder eine bestimmte Anzahl von Story Points benötigt hat. Auf diese Weise wird anhand verschiedenster Vergleichsobjekte der Aufwand des aktuellen Projekts geschätzt. In der Logik der agilen Formate weitergedacht, gibt das Backlog nun den Rahmen vor. Von vornherein ist aber klar, dass es zu Änderungen kommen wird. Erfahrungsgemäß werden im Laufe der Zeit sogar ganze Themenkomplexe ausgetauscht, was für beide Vertragspartner in Ordnung ist, solange sich dadurch der Aufwand nicht gravierend ändert. Für den Fall, dass dies dennoch geschieht, gilt es, sich auch in Bezug auf den ermittelten Festpreis Gedanken zur Risikoverteilung und möglichen Exit-Optionen zu machen. Möglich ist zum Beispiel: Nach Erreichen eines vereinbarten Budget-Limits werden die Kosten so weit heruntergefahren, dass der Lieferant nur noch kostendeckend arbeitet. Man teilt sich das Risiko des Überziehens des Projektrahmens zu mehr oder weniger gleichen Teilen. Zudem sind auch bei einem agilen Festpreis Vereinbarungen wie die Abrechnung nach dem Erreichen bestimmter Meilensteine realisierbar. Möglich im Sinne einer höheren Budget-Sicherheit ist jedoch gerade auch bei agilen Projekten die Abrechnung beziehungsweise Vertragsgestaltung nach dem Prinzip “Design to Cost”. Bei diesem gibt das Unternehmen für ein Feature oder einen Liefergegenstand ein gewisses Budget vor, zum Beispiel 50.000 Euro. Dann kann man nach der Logik agiler Projekte fragen: Was können wir für 50.000 Euro liefern? Nach dem Iterationsprinzip werden zum Beispiel die wichtigsten Funktionalitäten für eine Software zuerst programmiert. Was nicht mehr in den Rahmen passt, wird gestrichen.Gemeinschaftliche Schaffung eines MehrwertsGrundsätzlich geht es bei der Frage nach der passsenden Vertragsgestaltung und Abrechnung bei agilen Projekten darum, dass sich beide Parteien auf die gemeinschaftliche Schaffung von Mehrwert einigen und in Abwägung der Bedürfnisse beider Partner das passende Modell gewählt wird – was für den Kunden in der Regel auch Vorteile gegenüber der üblichen Vertragsgestaltung bei der Wasserfallmethode bietet. So ist beispielsweise ein klarer Risikosplit ein Ansatz, der hier eher selten gewählt wird. Dasselbe gilt für den Design-to-Cost-Ansatz, der jedoch dem Bedürfnis vieler Unternehmen nach Budget-Sicherheit entspricht. Insgesamt zeigt die Erfahrung, dass in agilen Projekten aufgrund der deutlich höheren Kommunikationsdichte und tieferen Einbindung der Stakeholder am Ende die Zufriedenheit größer ist. Auch durch die tagtägliche Kommunikation über den Projektfortschritt, die durch die agilen Frameworks vorgegeben ist, entstehen keine größeren Black Boxes, bei denen der Kunde nicht weiß, was der Lieferant gerade tut. Die extreme Transparenz in einem agilen Projekt sorgt zudem dafür, dass Dinge, die nicht gut laufen, sehr schnell erkannt werden und im Sinne des Kunden nachgebessert werden kann. Auch die Controller, die sich mit der agilen Projektarbeit näher beschäftigen, erkennen in der Regel, dass die Steuerung des zu erreichenden Mehrwertes hier deutlich besser gelingt und lassen sich auch von den Vorteilen passender Abrechnungsmodelle überzeugen. (pg)Warum agile Organisationen und Methoden effizienter sind9 Gründe, weshalb agile Unternehmen ihr Business und Krisen besser meistern Foto: Mikko Lemola – shutterstock.comAgile Methoden haben in vielen Unternehmen zwar schon Einzug gehalten, meist aber nur in Einzelbereichen wie zum Beispiel der IT. Eine Studie der Technologieberatung BearingPoint zeigt jedoch, dass Unternehmen mit einer durchgängig agilen Organisation sowie in der Unternehmenskultur verankertem agilen Mindset den Alltag und Krisen schneller und besser meistern. Gute Gründe für mehr Agilität. Vereinfachte Prozesse Foto: Tashatuvango – shutterstock.comAgile Organisationen zeichnen sich durch hohe End-to-End-Prozessverantwortung, schlanke Prozesse, hohe Prozessautomatisierung und -standardisierung aus. Je leichtgewichtiger und standardisierter Prozesse sind, umso kosteneffizienter können Organisationen agieren.Vereinfachte Steuerungslogik Foto: keport – shutterstock.comOrganisationen, die in Abhängigkeit von Prioritätsänderungen flexibler steuern können, sind in Krisenzeiten besser in der Lage, schnell auf geänderte Parameter zu reagieren. Vereinfachte Organisationsstruktur Foto: patpitchaya – shutterstock.comAgile Organisationen zeichnen sich dadurch aus, dass anhand der Wertschöpfungskette durchgängig verantwortliche, autonome und cross-funktionale Teams aufgebaut und Abteilungsgrenzen aufgelöst werden. In Krisenzeiten profitieren agile Organisationen durch bessere Zusammenarbeit über Teams, Abteilungen oder Business Units hinweg. Höherer Innovationsgrad Foto: Olivier Le Moal – shutterstock.comInterdisziplinäre Teams wirken als Brutkasten für innovative Ideen und Ansätze. Außerdem verfügen agile Organisationen öfter über offene Ökosysteme und profitieren in Krisenzeiten von diesem Netzwerk.Schnelle Reaktionsfähigkeit Foto: TippaPatt – shutterstock.comEs gilt, die Krise als Chance zu sehen und Änderungen willkommen zu heißen. Strukturen und Prozesse wie agiles Portfolio Management oder Objektive and Key Results helfen kontinuierlich neu zu bewerten. Agile Organisationen arbeiten iterativ mit vielen Feedback-Schleifen und das ständige Hinterfragen und Reagieren auf Änderung ist Teil ihrer DNA.Kundennähe und Kundenzentriertheit Foto: Tashatuvango – shutterstock.comGerade in Krisenzeiten muss den Kundenbedürfnissen entsprechend noch zielgerichteter agiert werden. Schnelles Feedback ist hier extrem wertvoll. Als Organisation muss bewusst auch mit Teilprodukten auf den Markt zu gegangen werden, um etwaige Kundenwünsche oder Adaptionen früh genug berücksichtigen zu können. Hohe Selbstorganisation und Teamwork Foto: Sergey Nivens – shutterstock.comTeams, die es gewohnt sind, auch selbst Entscheidungen zu treffen, sind in Krisenzeiten flexibler und besser vorbereitet. Organisationen, deren Management sehr stark auf Selbstorganisation setzt und Entscheidungsbefugnisse weitgehend an die agilen Teams delegiert haben, sind schneller, was auch in Krisenzeiten ein immenser Vorteil ist.Neuer Leadership-Stil Foto: thodonal88 – shutterstock.comFührungskräfte sind in Krisenzeiten besonders gefordert und profitieren von Skills, die für agile Organisationen typisch sind. Eine starke und offene Kommunikation kann Sorgen und Unsicherheiten ausräumen und psychologische Sicherheit vermitteln. Führungskräfte, denen es gelingt, eine nachhaltige Fehlerkultur zu etablieren, fördern nicht nur das kontinuierliche Lernen, sondern sorgen auch dafür, dass Mitarbeiter bereit sind, Entscheidungen und Risiken zu treffen. Technologie-Führerschaft Foto: Preechar Bowonkitwanchai – shutterstock.comAgile Organisationen zeichnen sich durch eine Technologieführerschaft und den Einsatz moderner State-of-the-Art-Technologien aus. Organisationen, die bereits vor der Krise begonnen haben, ihre Kernsysteme auf eine Micro-Service-Architektur mit losen gekoppelten Services umzubauen und den Einsatz von Continuous-Integration-Systemen forciert haben, sind in der Lage, schneller und unabhängiger zu produzieren und kontinuierlich Releases zu veröffentlichen. 

Vertragsmodelle: So rechnen Sie agile Projekte ab​ Grundsätzlich geht es bei der passsenden Vertragsgestaltung und Abrechnung bei agilen Projekten darum, dass sich beide Parteien auf die gemeinschaftliche Schaffung von Mehrwert einigen und in Abwägung der Bedürfnisse beider Partner das passende Modell gewählt wird.
Foto: CrizzyStudio – shutterstock.comKeine fixen Projektpläne, unzureichende Steuerung und hohes Fehleraufkommen: Hartnäckig hält sich das Vorurteil, dass in agilen Projekten Chaos und Laisser-faire-Haltung herrschen. Aus Controlling-Sicht führt dies häufig zu einer gefühlten Budget-Unsicherheit. Um dieser bei einem Kunden oder im eigenen Unternehmen entgegenzuwirken, gilt es zunächst, den Finanzexperten die Logik der neuen Form des agilen Projektmanagements nahezubringen – am besten in einer Gegenüberstellung mit der ihnen vertrauten Wasserfallmethode. Als wesentlicher Unterschied kristallisiert sich dabei heraus, dass klassische Werkverträge darauf basieren, zu Beginn des Projektes den Liefergegenstand möglichst genau zu beschreiben. Das heißt: Der Inhalt steht fest, Zeit und Budget sind typischerweise geschätzt. Bei einem agilen Projekt hingegen sind bei den gängigen Abrechnungsformen Zeit und Budget fix, während der Inhalt oder Scope geschätzt wird. Aufgrund dieser Tatsache entsteht bei den Finanzexperten im Unternehmen ein Unsicherheitsgefühl. Beschäftigten sie sich jedoch näher mit den jeweiligen Besonderheiten der beiden Abrechnungsmethoden, relativiert sich dieses erfahrungsgemäß deutlich.Vermeintliche Budget-Sicherheit in WasserfallprojektenSo hat bei einem klassischen Wasserfallprojekt der Projektleiter ein detailliertes Pflichten- und Lastenheft, das er abarbeitet. Erfahrungsgemäß gibt es dazu aber im Laufe des Projekts zahlreiche Change Requests, die am Ende in Summe häufig sogar teurer kommen als der ursprünglich kalkulierte Preis. Oder anders formuliert: Es ist eine Illusion, dass ein komplett dokumentiertes Projekt so läuft, wie im Vorhinein geplant. Oftmals sind nach einer langen Planungsphase die Pflichten- und Lastenhefte an dem Tag, an dem sie abgeliefert werden, bereits veraltet. Und so bergen gerade Vertragswerke, die auf der Wasserfallmethode beruhen und vermeintlich Budget-Sicherheit bieten, hohe Risiken.Auf der anderen Seite werden agile Projekte sehr wohl gesteuert – allerdings in dem Wissen, dass es in einer schnelllebigen Wirtschaftswelt immer Unsicherheiten gibt und sich die Rahmenbedingungen und Anforderungen zum Beispiel an eine zu entwickelnde Software permanent verändern. Konkret heißt das: Im sogenannten Projekt-Backlog werden zunächst lediglich die Headlines für das gesamte Projekt aufgeschrieben. Erst wenn das Team die betreffenden Themen bearbeitet, werden sie detailliert ausgearbeitet. Für den nächsten Sprint wird jeweils das Thema ausgewählt, das die höchste Wertschöpfung für den Kunden verspricht. Auch das Backlog wird permanent angepasst. Dies führt jedoch keineswegs zu Chaos, da die Teams bewährten Frameworks wie zum Beispiel Scrum folgen, durch die auch der Erfolg engmaschig kontrolliert wird. So wird in jedem Sprint überprüft, ob die Inhalte wertschöpfend sind oder nicht. Hinzu kommt außerdem, dass die Steuerung der Wertschöpfung beim Product Owner liegt, der in der Regel von Kundenseite eingesetzt wird. Er entscheidet, an welchen Themen gearbeitet wird. Auf diese Weise ist der Projektfortschritt für den Kunden zu jedem Zeitpunkt transparent.

Run-Rate: Häufig angeboten, aber nicht idealDiese Gegenüberstellung zeigt, dass der Kunde bei gut gesteuerten agilen Projekten grundsätzlich sogar eine höhere Transparenz und Kostenkontrolle hat als bei klassischen Wasserfallprojekten. Doch was bedeuten die Besonderheiten agiler Projekte nun genau für deren Abrechnung? Aufbauend auf der Logik der agilen Projekte – der Scope ist geschätzt beziehungsweise flexibel und der Kunde steuert die Wertschöpfung selbst – rechnen Beratungsunternehmen häufig über eine sogenannte Run-Rate ab. Das bedeutet: Das Beratungsunternehmen stellt ein Team zur Verfügung und der Kunde zahlt pro Zeit. Als Product Owner ist der Kunde selbst für den Inhalt verantwortlich. Das ist aus Auftragnehmersicht das einfachste Modell, aus Sicht des Auftraggebers jedoch das riskanteste, weil er das komplette Risiko einer Fehlentwicklung trägt. Fairer ist es daher, gerade auch nach der Philosophie der agilen Methoden, die auf ein vertrauensvolles Miteinander und kontinuierliche Kommunikation und Abstimmung setzen, das Risiko zu teilen. Eine Möglichkeit ist, ein niedrigeres Fixum für die eingesetzten Ressourcen zu vereinbaren und eine Prämie für erreichte Ziele – zum Beispiel für so genannte Releases oder gelieferte Story Points. Ebenfalls fair ist es, Exit-Möglichkeiten für beide Seiten zu schaffen. Das Unternehmen beauftragt zum Beispiel zunächst fünf Sprints und schaut danach, wie sich die Leistung des Teams entwickelt hat. Dann kann es entscheiden, ob es in dieser Konstellation weitergehen soll. Königsweg: Agiler Festpreis plus RisikoteilungDer Königsweg bei der Abrechnung agiler Projekte ist jedoch der sogenannte agile Festpreis. Dieser bedeutet zwar mehr Aufwand bei der Vertragsausgestaltung und ist deshalb oft noch die Ausnahme. Dem Kunden bietet er aber über die aufgezeigten Steuerungs- und Kontrollmechanismen hinaus eine höhere Planungssicherheit. Das grundsätzliche Problem, das hier im Unterschied zur Wasserfallmethode entsteht, ist die Beschreibung dessen, was geliefert werden soll. Denn es gibt zwar eine Idee und Vision vom Nutzen der zu liefernden Features, aber noch keinen konkreten Plan für deren Umsetzung. Dies ist eine Stärke der agilen Projektarbeit, weil keine Leistungen festgeschrieben werden, die zum Zeitpunkt der Umsetzung womöglich nicht mehr wertschöpfend sind. Es erschwert jedoch die Beschreibung des Vertragsgegenstands.Um dennoch auch für agile Projekte einen Festpreis zu ermitteln, setzten sich Unternehmen und Lieferant zusammen und definieren gemeinsam die Ziele für das Projekt. Im Fokus stehen dabei der Business Value für den Kunden und die Vision davon, was mit dem Projekt genau erreicht werden soll. Um auch das “Wie” zumindest grob zu spezifizieren, wird ein initiales Backlog erarbeitet – also die Liste von Inhalten, die nach heutigem Kenntnisstand zu diesem Projekt zu liefern sind. Für dieses Backlog wird der Aufwand geschätzt. Dazu herangezogen werden Referenzarbeiten, für die man eine bestimmte Anzahl von Leuten und Tagen oder eine bestimmte Anzahl von Story Points benötigt hat. Auf diese Weise wird anhand verschiedenster Vergleichsobjekte der Aufwand des aktuellen Projekts geschätzt. In der Logik der agilen Formate weitergedacht, gibt das Backlog nun den Rahmen vor. Von vornherein ist aber klar, dass es zu Änderungen kommen wird. Erfahrungsgemäß werden im Laufe der Zeit sogar ganze Themenkomplexe ausgetauscht, was für beide Vertragspartner in Ordnung ist, solange sich dadurch der Aufwand nicht gravierend ändert. Für den Fall, dass dies dennoch geschieht, gilt es, sich auch in Bezug auf den ermittelten Festpreis Gedanken zur Risikoverteilung und möglichen Exit-Optionen zu machen. Möglich ist zum Beispiel: Nach Erreichen eines vereinbarten Budget-Limits werden die Kosten so weit heruntergefahren, dass der Lieferant nur noch kostendeckend arbeitet. Man teilt sich das Risiko des Überziehens des Projektrahmens zu mehr oder weniger gleichen Teilen. Zudem sind auch bei einem agilen Festpreis Vereinbarungen wie die Abrechnung nach dem Erreichen bestimmter Meilensteine realisierbar. Möglich im Sinne einer höheren Budget-Sicherheit ist jedoch gerade auch bei agilen Projekten die Abrechnung beziehungsweise Vertragsgestaltung nach dem Prinzip “Design to Cost”. Bei diesem gibt das Unternehmen für ein Feature oder einen Liefergegenstand ein gewisses Budget vor, zum Beispiel 50.000 Euro. Dann kann man nach der Logik agiler Projekte fragen: Was können wir für 50.000 Euro liefern? Nach dem Iterationsprinzip werden zum Beispiel die wichtigsten Funktionalitäten für eine Software zuerst programmiert. Was nicht mehr in den Rahmen passt, wird gestrichen.Gemeinschaftliche Schaffung eines MehrwertsGrundsätzlich geht es bei der Frage nach der passsenden Vertragsgestaltung und Abrechnung bei agilen Projekten darum, dass sich beide Parteien auf die gemeinschaftliche Schaffung von Mehrwert einigen und in Abwägung der Bedürfnisse beider Partner das passende Modell gewählt wird – was für den Kunden in der Regel auch Vorteile gegenüber der üblichen Vertragsgestaltung bei der Wasserfallmethode bietet. So ist beispielsweise ein klarer Risikosplit ein Ansatz, der hier eher selten gewählt wird. Dasselbe gilt für den Design-to-Cost-Ansatz, der jedoch dem Bedürfnis vieler Unternehmen nach Budget-Sicherheit entspricht. Insgesamt zeigt die Erfahrung, dass in agilen Projekten aufgrund der deutlich höheren Kommunikationsdichte und tieferen Einbindung der Stakeholder am Ende die Zufriedenheit größer ist. Auch durch die tagtägliche Kommunikation über den Projektfortschritt, die durch die agilen Frameworks vorgegeben ist, entstehen keine größeren Black Boxes, bei denen der Kunde nicht weiß, was der Lieferant gerade tut. Die extreme Transparenz in einem agilen Projekt sorgt zudem dafür, dass Dinge, die nicht gut laufen, sehr schnell erkannt werden und im Sinne des Kunden nachgebessert werden kann. Auch die Controller, die sich mit der agilen Projektarbeit näher beschäftigen, erkennen in der Regel, dass die Steuerung des zu erreichenden Mehrwertes hier deutlich besser gelingt und lassen sich auch von den Vorteilen passender Abrechnungsmodelle überzeugen. (pg)Warum agile Organisationen und Methoden effizienter sind9 Gründe, weshalb agile Unternehmen ihr Business und Krisen besser meistern
Foto: Mikko Lemola – shutterstock.comAgile Methoden haben in vielen Unternehmen zwar schon Einzug gehalten, meist aber nur in Einzelbereichen wie zum Beispiel der IT. Eine Studie der Technologieberatung BearingPoint zeigt jedoch, dass Unternehmen mit einer durchgängig agilen Organisation sowie in der Unternehmenskultur verankertem agilen Mindset den Alltag und Krisen schneller und besser meistern. Gute Gründe für mehr Agilität. Vereinfachte Prozesse
Foto: Tashatuvango – shutterstock.comAgile Organisationen zeichnen sich durch hohe End-to-End-Prozessverantwortung, schlanke Prozesse, hohe Prozessautomatisierung und -standardisierung aus. Je leichtgewichtiger und standardisierter Prozesse sind, umso kosteneffizienter können Organisationen agieren.Vereinfachte Steuerungslogik
Foto: keport – shutterstock.comOrganisationen, die in Abhängigkeit von Prioritätsänderungen flexibler steuern können, sind in Krisenzeiten besser in der Lage, schnell auf geänderte Parameter zu reagieren. Vereinfachte Organisationsstruktur
Foto: patpitchaya – shutterstock.comAgile Organisationen zeichnen sich dadurch aus, dass anhand der Wertschöpfungskette durchgängig verantwortliche, autonome und cross-funktionale Teams aufgebaut und Abteilungsgrenzen aufgelöst werden. In Krisenzeiten profitieren agile Organisationen durch bessere Zusammenarbeit über Teams, Abteilungen oder Business Units hinweg. Höherer Innovationsgrad
Foto: Olivier Le Moal – shutterstock.comInterdisziplinäre Teams wirken als Brutkasten für innovative Ideen und Ansätze. Außerdem verfügen agile Organisationen öfter über offene Ökosysteme und profitieren in Krisenzeiten von diesem Netzwerk.Schnelle Reaktionsfähigkeit
Foto: TippaPatt – shutterstock.comEs gilt, die Krise als Chance zu sehen und Änderungen willkommen zu heißen. Strukturen und Prozesse wie agiles Portfolio Management oder Objektive and Key Results helfen kontinuierlich neu zu bewerten. Agile Organisationen arbeiten iterativ mit vielen Feedback-Schleifen und das ständige Hinterfragen und Reagieren auf Änderung ist Teil ihrer DNA.Kundennähe und Kundenzentriertheit
Foto: Tashatuvango – shutterstock.comGerade in Krisenzeiten muss den Kundenbedürfnissen entsprechend noch zielgerichteter agiert werden. Schnelles Feedback ist hier extrem wertvoll. Als Organisation muss bewusst auch mit Teilprodukten auf den Markt zu gegangen werden, um etwaige Kundenwünsche oder Adaptionen früh genug berücksichtigen zu können. Hohe Selbstorganisation und Teamwork
Foto: Sergey Nivens – shutterstock.comTeams, die es gewohnt sind, auch selbst Entscheidungen zu treffen, sind in Krisenzeiten flexibler und besser vorbereitet. Organisationen, deren Management sehr stark auf Selbstorganisation setzt und Entscheidungsbefugnisse weitgehend an die agilen Teams delegiert haben, sind schneller, was auch in Krisenzeiten ein immenser Vorteil ist.Neuer Leadership-Stil
Foto: thodonal88 – shutterstock.comFührungskräfte sind in Krisenzeiten besonders gefordert und profitieren von Skills, die für agile Organisationen typisch sind. Eine starke und offene Kommunikation kann Sorgen und Unsicherheiten ausräumen und psychologische Sicherheit vermitteln. Führungskräfte, denen es gelingt, eine nachhaltige Fehlerkultur zu etablieren, fördern nicht nur das kontinuierliche Lernen, sondern sorgen auch dafür, dass Mitarbeiter bereit sind, Entscheidungen und Risiken zu treffen. Technologie-Führerschaft
Foto: Preechar Bowonkitwanchai – shutterstock.comAgile Organisationen zeichnen sich durch eine Technologieführerschaft und den Einsatz moderner State-of-the-Art-Technologien aus. Organisationen, die bereits vor der Krise begonnen haben, ihre Kernsysteme auf eine Micro-Service-Architektur mit losen gekoppelten Services umzubauen und den Einsatz von Continuous-Integration-Systemen forciert haben, sind in der Lage, schneller und unabhängiger zu produzieren und kontinuierlich Releases zu veröffentlichen.

Vertragsmodelle: So rechnen Sie agile Projekte ab​ Read More »

SAP S/4HANA-Umstieg – komplex, aber unausweichlich​

SAP S/4HANA-Umstieg – komplex, aber unausweichlich​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?quality=50&strip=all 1422w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der Pfad in Richtung S/4HANA ist mühsam – wer weiter auf SAP setzen möchte, wird den Weg jedoch gehen müssen.Imageflow / Shutterstock Auch zehn Jahre nach Release sorgt die ERP-Umstellung auf SAP S/4HANA für ein schlechtes Gewissen in den Hinterköpfen vieler Entscheider, IT-Verantwortlicher und noch viel mehr Beteiligter, als man auf den ersten Blick glauben mag. ERP, respektive Cloud-ERP ist für so viele Rollen und Unternehmen relevant, dass hierin vielleicht schon die Erklärung für den jahrelangen Aufschub liegt: Die eingesetzte ERP-Lösung betrifft in manchen Branchen gerne 60 bis 80 Prozent der Mitarbeitenden. Entsprechend hoch ist die “Transformationsschwelle” vor allem auf organisatorischer Ebene. Informationen zu den Partner-Paketen der Studie “SAP S/4HANA / Cloud-ERP“ Das ist jedoch nicht die einzige Erklärung dafür, warum vergleichsweise viele Projekte trotz eigentlich “harter” Deadline, also dem End of Life der Vorgänger, nicht angegangen wurden.  Viele Unternehmen haben die Zeit auch ganz bewusst genutzt, sagt Philipp Rockel von der IT-Beratung All4One: “Warum soll ich – auch rückblickend auf die Pandemie – verfrühte Risiken eingehen, wenn ich auch erstmal beobachten und die Lage sondieren kann?” So ein eher konservatives Vorgehen wäre hierzulande auch nichts ungewöhnliches: “Die Mentalität in Deutschland spielt bei der Beantwortung der Frage ‘warum haben so viele noch nicht migriert?’ definitiv eine Rolle, Stichwort ‘Aufschieberitis’. Das Argument ‘Es ist ja noch Zeit’ war in den vergangenen Jahren nicht unpopulär.” Dabei ginge es aber gar nicht um die Sinnhaftigkeit von Cloud-ERP an sich. Diese sei eher gesetzt. Stattdessen stehen vor allem Details im Vordergrund, zum Beispiel die Beantwortung der Frage, ob es eine Public Cloud (GROW with SAP) oder eine Private Cloud (RISE with SAP) sein soll. Der Computerwoche-Roundtable zum Thema S/4HANA lieferte ein aktualisiertes Bild zum aktuellen Stand der Transformation und lieferte vor allem Erklärungsansätze dafür, warum es doch zäher vorangeht als ursprünglich angenommen. “In den vergangenen Jahren wurden vor allem die kleineren Migrationsprojekte, also die Low Hanging Fruits angegangen”, weiß Peter Büermann von Microsoft. “Jetzt, während die Zeit knapp wird, sind vor allem noch die komplexen Projekte übrig, die selektive Datenmigration erfordern.” Gleichzeitig spürt er eine gewisse Aufbruchsstimmung im Markt: “Die Änderungsdynamik war noch nie so schnell wie jetzt, aber sie wird nie wieder so langsam sein wie heute.” Für ihn hat eine erfolgreiche Migration auch etwas mit stringenter Organisation zu tun: “Bei den besonders erfolgreichen Projekten konnte man schon den Trend beobachten, dass es sich eher um Top-Down-getriebene Entscheidungen handelte. Danach folgt dann das konkrete Transformationsprojekt. Durch die globale Initiative ist es meist leichter, Geschäftseinheiten zusammenzubringen und Synergien beziehungsweise Effizienzen zu heben.” Bei S/4HANA verhält es sich ähnlich wie bei vielen anderen IT-Querschnittsthemen: Transformation ist nicht nur eine technische, sondern auch eine organisatorische Herausforderung. “Eine Transformation erfordert viel Energie und Zeit. Sie bietet aber die Chance, die Prozesswelt durchgängig zu optimieren und effizientere Arbeitsweisen einzuführen”, findet Jürgen Alexander Lehmann von Elfsights. Besonders in hochregulierten Branchen – wie der Finanz- oder Pharmaindustrie – treten komplexe Szenarien auf, bei denen bestehende Systeme nahtlos integriert werden müssen. “SAP-Projekte haben oft große organisatorische Auswirkungen”, stellt auch Steffen Würth von Spirit21 klar. “Ein gescheitertes Projekt kann durchaus einen Job kosten.” Entsprechend hoch sei deswegen auch die Schwelle im Management. Beratungsunternehmen müssen diesen Faktor adressieren. “Die Angst vor HANA zu nehmen, ist zentral. Anwender müssen Vertrauen in den Transformationsprozess gewinnen.” Studie “SAP S/4HANA / Cloud-ERP”: Sie können sich noch beteiligen!Zum Thema SAP S/4HANA / Cloud-ERP führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). Harmonisierung von Prozessen als Erfolgsfaktor Ein wiederkehrendes Thema in der Diskussion ist die Notwendigkeit, nicht nur bestehende Systeme zu ersetzen, sondern auch Geschäftsprozesse grundlegend zu überdenken. Nur durch die Harmonisierung und Standardisierung von Prozessen können Unternehmen die vollen Vorteile von SAP S/4HANA nutzen. Dies erfordert jedoch eine enge Abstimmung zwischen IT-Abteilungen, Geschäftseinheiten und externen Partnern. “Die Herausforderungen beim S/4HANA-Umstieg liegen vor allem in der Revision von Prozessen jenseits aller Technik”, stellt Timo Saltan von USU fest. “Da spielen personelle Aspekte genauso eine Rolle wie organisationale. Insbesondere die Kommunikation ist für die Transformation zentral. Im Transformationsprozess werden Schwachstellen sichtbar, die bisher ignoriert wurden. IT und SAP werden in vielen Unternehmen leider getrennt betrachtet. Das ist gewissermaßen ein ‘Silo im Silo’. Eine Umstellung hat auch spürbare kommerzielle Auswirkungen, weil ERP das gesamte Unternehmen wie ein Gefäß durchzieht.” Neben der Komplexität gibt es allerdings noch so einen Elefanten im (virtuellen) Raum, der vor allem in Zeiten wirtschaftlicher Knappheit hervortritt: Die Kosten seien heute viel häufiger ein Thema, weil Unternehmen bei den Budgets heute genauer hinsehen. “Natürlich wissen wir, dass dieses Projekt mit hohen Kosten verbunden ist, stellt Philipp Rockel klar. “Am Ende des Tages ist es jedoch eine notwendige Investition. Wichtig ist aktiv auf die Interessenten und Kunden zugehen, und das Thema Organizational Change Management (OCM) hervorzuheben. Das spielt bei einer Migration wie dieser eine zentrale Rolle. Die Projektbeteiligten müssen im Tagesgeschäft bis zu 55 Prozent Ihrer Arbeit in das Projekt investieren – je nach Phase, versteht sich – und das über einen langen Zeitraum. Auch das muss vom Management einkalkuliert sein.” Alles in allem alternativlos Trotz der bestehenden Herausforderungen herrscht Konsens bei den Experten, dass es vor allem in den Kernanwendungen kaum eine Alternative gibt. Das Aleinstellungsmerkmal von SAP sein nun mal die tiefe Integration der Lösung in betriebswirtschaftliche Prozesse. Ein Wechsel sei darum, vor allem, wenn ein bestimmter Reifegrad erreicht sei, ein kaum realisierbares Szenario. “SAP bietet speziell im ERP Core eine zuverlässige Stabilität in der Lösung und ist speziell im Medium und Large Enterprise Segment eine gute Option”, stellt Christian Jendreczek von Infopulse klar. In den “LoB-Lösungen” (Lines of Business) gebe es auch durchaus alternative Angebote, wie zum Beispiel im Bereich AI, CoPilot oder ESG. „Hybridlösungen gewinnen an Bedeutung. Unternehmen bleiben in der Regel bei SAP, nutzen aber für spezielle Anwendungen wie CRM auch starke Angebote anderer Anbieter“, findet auch Marielle Verschoor von Informatica. Auch für Philipp Rockel liegt die Zukunft im Mix: “Wir werden in der Cloud einen Best-of-Breed-Ansatz sehen, Stichwort SAP BTP oder auch Azure. Innovationen setzen eine zukunftssichere und skalierbare IT-Landschaft voraus.” Die Realisierung einer solchen Landschaft müsse erste Priorität haben. “Warten hilft da nicht wirklich denn wer nicht mit der Zeit geht, geht mit der Zeit.” Informationen zu den Partner-Paketen der Studie “SAP S/4HANA / Cloud-ERP“ Teilnehmer des Roundtables “SAP S/4HANA / Cloud-ERP” Philipp Rockel, All for One Group: „Die Story hinter der Migration muss vom Management klar sein und das: „Warum machen wir das?“ Die IT-Strategie, abgeleitet aus den Unternehmeszielen, Zuversicht für bestehendes Personal und vor allem die Mehrwerte gilt es hervorzuheben, die damit einhergehen.“ All for One Group SE Jürgen Alexander Lehmann, Elfsights: „Die Transformation geht sehr tief ins Herz des Unternehmens. Es erfordert eine ganzheitliche Sicht auf Prozesse und Organisation sowie ein integriertes Change Management.“ Elfsights GmbH srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?quality=50&strip=all 4199w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Christian Jendreczek, Infopulse: „Ein Transformationsprozess im ERP-Bereich kann sehr umfangreich und komplex sein – je nachdem wie gut die aktuelle ERP-Lösung die Business-Anforderungen abdeckt und welcher Transformationspfad (Grad des Redesigns) gewäht wird.“ Infopulse Europe GmbH srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?quality=50&strip=all 4267w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Marielle Verschoor, Informatica: „S/4HANA ist nur ein Teil des Transformationsprozesses. Wichtiger ist, die gesamten Geschäftsprozesse und Ziele ganzheitlich zu betrachten, um über rein technische Änderungen hinauszugehen.“Informatica GmbH Peter Bueermann, Microsoft: „Bei aller Torschlusspanik muss man aber auch das Positive sehen, nämlich die vielen tausend Unternehmen, die schon erfolgreich zu SAP RISE und in andere SAP-Cloud-Lösungen migriert haben.“ Microsoft Deutschland GmbH Steffen Würth, SPIRIT/21: „Über die Jahre hat sich HANA ständig weiterentwickelt, so dass es eigentlich erst jetzt für komplexe Infrastrukturen geeignet ist.“SPIRIT/21 GmbH Timur Saltan, USU: „Unternehmen, die lange gewartet haben, kommen jetzt in Zugzwang – und müssen mitunter Nachteile in Kauf nehmen. Wer zu spät einsteigt, verliert Credits bei der Anrechnung und muss schnell reagieren, um noch das Beste rauszuholen.“ USU GmbH 

SAP S/4HANA-Umstieg – komplex, aber unausweichlich​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?quality=50&strip=all 1422w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/climb-corporate-steps.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der Pfad in Richtung S/4HANA ist mühsam – wer weiter auf SAP setzen möchte, wird den Weg jedoch gehen müssen.Imageflow / Shutterstock

Auch zehn Jahre nach Release sorgt die ERP-Umstellung auf SAP S/4HANA für ein schlechtes Gewissen in den Hinterköpfen vieler Entscheider, IT-Verantwortlicher und noch viel mehr Beteiligter, als man auf den ersten Blick glauben mag. ERP, respektive Cloud-ERP ist für so viele Rollen und Unternehmen relevant, dass hierin vielleicht schon die Erklärung für den jahrelangen Aufschub liegt: Die eingesetzte ERP-Lösung betrifft in manchen Branchen gerne 60 bis 80 Prozent der Mitarbeitenden. Entsprechend hoch ist die “Transformationsschwelle” vor allem auf organisatorischer Ebene.

Informationen zu den Partner-Paketen der Studie “SAP S/4HANA / Cloud-ERP“

Das ist jedoch nicht die einzige Erklärung dafür, warum vergleichsweise viele Projekte trotz eigentlich “harter” Deadline, also dem End of Life der Vorgänger, nicht angegangen wurden. 

Viele Unternehmen haben die Zeit auch ganz bewusst genutzt, sagt Philipp Rockel von der IT-Beratung All4One: “Warum soll ich – auch rückblickend auf die Pandemie – verfrühte Risiken eingehen, wenn ich auch erstmal beobachten und die Lage sondieren kann?” So ein eher konservatives Vorgehen wäre hierzulande auch nichts ungewöhnliches: “Die Mentalität in Deutschland spielt bei der Beantwortung der Frage ‘warum haben so viele noch nicht migriert?’ definitiv eine Rolle, Stichwort ‘Aufschieberitis’. Das Argument ‘Es ist ja noch Zeit’ war in den vergangenen Jahren nicht unpopulär.” Dabei ginge es aber gar nicht um die Sinnhaftigkeit von Cloud-ERP an sich. Diese sei eher gesetzt. Stattdessen stehen vor allem Details im Vordergrund, zum Beispiel die Beantwortung der Frage, ob es eine Public Cloud (GROW with SAP) oder eine Private Cloud (RISE with SAP) sein soll.

Der Computerwoche-Roundtable zum Thema S/4HANA lieferte ein aktualisiertes Bild zum aktuellen Stand der Transformation und lieferte vor allem Erklärungsansätze dafür, warum es doch zäher vorangeht als ursprünglich angenommen.

“In den vergangenen Jahren wurden vor allem die kleineren Migrationsprojekte, also die Low Hanging Fruits angegangen”, weiß Peter Büermann von Microsoft. “Jetzt, während die Zeit knapp wird, sind vor allem noch die komplexen Projekte übrig, die selektive Datenmigration erfordern.” Gleichzeitig spürt er eine gewisse Aufbruchsstimmung im Markt: “Die Änderungsdynamik war noch nie so schnell wie jetzt, aber sie wird nie wieder so langsam sein wie heute.”

Für ihn hat eine erfolgreiche Migration auch etwas mit stringenter Organisation zu tun:

“Bei den besonders erfolgreichen Projekten konnte man schon den Trend beobachten, dass es sich eher um Top-Down-getriebene Entscheidungen handelte. Danach folgt dann das konkrete Transformationsprojekt. Durch die globale Initiative ist es meist leichter, Geschäftseinheiten zusammenzubringen und Synergien beziehungsweise Effizienzen zu heben.”

Bei S/4HANA verhält es sich ähnlich wie bei vielen anderen IT-Querschnittsthemen: Transformation ist nicht nur eine technische, sondern auch eine organisatorische Herausforderung. “Eine Transformation erfordert viel Energie und Zeit. Sie bietet aber die Chance, die Prozesswelt durchgängig zu optimieren und effizientere Arbeitsweisen einzuführen”, findet Jürgen Alexander Lehmann von Elfsights. Besonders in hochregulierten Branchen – wie der Finanz- oder Pharmaindustrie – treten komplexe Szenarien auf, bei denen bestehende Systeme nahtlos integriert werden müssen.

“SAP-Projekte haben oft große organisatorische Auswirkungen”, stellt auch Steffen Würth von Spirit21 klar. “Ein gescheitertes Projekt kann durchaus einen Job kosten.” Entsprechend hoch sei deswegen auch die Schwelle im Management. Beratungsunternehmen müssen diesen Faktor adressieren. “Die Angst vor HANA zu nehmen, ist zentral. Anwender müssen Vertrauen in den Transformationsprozess gewinnen.”

Studie “SAP S/4HANA / Cloud-ERP”: Sie können sich noch beteiligen!Zum Thema SAP S/4HANA / Cloud-ERP führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

Harmonisierung von Prozessen als Erfolgsfaktor

Ein wiederkehrendes Thema in der Diskussion ist die Notwendigkeit, nicht nur bestehende Systeme zu ersetzen, sondern auch Geschäftsprozesse grundlegend zu überdenken. Nur durch die Harmonisierung und Standardisierung von Prozessen können Unternehmen die vollen Vorteile von SAP S/4HANA nutzen. Dies erfordert jedoch eine enge Abstimmung zwischen IT-Abteilungen, Geschäftseinheiten und externen Partnern.

“Die Herausforderungen beim S/4HANA-Umstieg liegen vor allem in der Revision von Prozessen jenseits aller Technik”, stellt Timo Saltan von USU fest. “Da spielen personelle Aspekte genauso eine Rolle wie organisationale. Insbesondere die Kommunikation ist für die Transformation zentral. Im Transformationsprozess werden Schwachstellen sichtbar, die bisher ignoriert wurden. IT und SAP werden in vielen Unternehmen leider getrennt betrachtet. Das ist gewissermaßen ein ‘Silo im Silo’. Eine Umstellung hat auch spürbare kommerzielle Auswirkungen, weil ERP das gesamte Unternehmen wie ein Gefäß durchzieht.”

Neben der Komplexität gibt es allerdings noch so einen Elefanten im (virtuellen) Raum, der vor allem in Zeiten wirtschaftlicher Knappheit hervortritt: Die Kosten seien heute viel häufiger ein Thema, weil Unternehmen bei den Budgets heute genauer hinsehen. “Natürlich wissen wir, dass dieses Projekt mit hohen Kosten verbunden ist, stellt Philipp Rockel klar. “Am Ende des Tages ist es jedoch eine notwendige Investition. Wichtig ist aktiv auf die Interessenten und Kunden zugehen, und das Thema Organizational Change Management (OCM) hervorzuheben. Das spielt bei einer Migration wie dieser eine zentrale Rolle. Die Projektbeteiligten müssen im Tagesgeschäft bis zu 55 Prozent Ihrer Arbeit in das Projekt investieren – je nach Phase, versteht sich – und das über einen langen Zeitraum. Auch das muss vom Management einkalkuliert sein.”

Alles in allem alternativlos

Trotz der bestehenden Herausforderungen herrscht Konsens bei den Experten, dass es vor allem in den Kernanwendungen kaum eine Alternative gibt. Das Aleinstellungsmerkmal von SAP sein nun mal die tiefe Integration der Lösung in betriebswirtschaftliche Prozesse.

Ein Wechsel sei darum, vor allem, wenn ein bestimmter Reifegrad erreicht sei, ein kaum realisierbares Szenario.

“SAP bietet speziell im ERP Core eine zuverlässige Stabilität in der Lösung und ist speziell im Medium und Large Enterprise Segment eine gute Option”, stellt Christian Jendreczek von Infopulse klar. In den “LoB-Lösungen” (Lines of Business) gebe es auch durchaus alternative Angebote, wie zum Beispiel im Bereich AI, CoPilot oder ESG.

„Hybridlösungen gewinnen an Bedeutung. Unternehmen bleiben in der Regel bei SAP, nutzen aber für spezielle Anwendungen wie CRM auch starke Angebote anderer Anbieter“, findet auch Marielle Verschoor von Informatica.

Auch für Philipp Rockel liegt die Zukunft im Mix: “Wir werden in der Cloud einen Best-of-Breed-Ansatz sehen, Stichwort SAP BTP oder auch Azure. Innovationen setzen eine zukunftssichere und skalierbare IT-Landschaft voraus.” Die Realisierung einer solchen Landschaft müsse erste Priorität haben. “Warten hilft da nicht wirklich denn wer nicht mit der Zeit geht, geht mit der Zeit.”

Informationen zu den Partner-Paketen der Studie “SAP S/4HANA / Cloud-ERP“

Teilnehmer des Roundtables “SAP S/4HANA / Cloud-ERP”

Philipp Rockel, All for One Group:
„Die Story hinter der Migration muss vom Management klar sein und das: „Warum machen wir das?“ Die IT-Strategie, abgeleitet aus den Unternehmeszielen, Zuversicht für bestehendes Personal und vor allem die Mehrwerte gilt es hervorzuheben, die damit einhergehen.“
All for One Group SE

Jürgen Alexander Lehmann, Elfsights:
„Die Transformation geht sehr tief ins Herz des Unternehmens. Es erfordert eine ganzheitliche Sicht auf Prozesse und Organisation sowie ein integriertes Change Management.“
Elfsights GmbH

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?quality=50&strip=all 4199w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/1_Christian-Jendreczek_CEO_Tietoevry_Create_DE_c_Infopulse_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Christian Jendreczek, Infopulse:
„Ein Transformationsprozess im ERP-Bereich kann sehr umfangreich und komplex sein – je nachdem wie gut die aktuelle ERP-Lösung die Business-Anforderungen abdeckt und welcher Transformationspfad (Grad des Redesigns) gewäht wird.“
Infopulse Europe GmbH

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?quality=50&strip=all 4267w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/imageverschoor_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Marielle Verschoor, Informatica: „S/4HANA ist nur ein Teil des Transformationsprozesses. Wichtiger ist, die gesamten Geschäftsprozesse und Ziele ganzheitlich zu betrachten, um über rein technische Änderungen hinauszugehen.“Informatica GmbH

Peter Bueermann, Microsoft:
„Bei aller Torschlusspanik muss man aber auch das Positive sehen, nämlich die vielen tausend Unternehmen, die schon erfolgreich zu SAP RISE und in andere SAP-Cloud-Lösungen migriert haben.“
Microsoft Deutschland GmbH

Steffen Würth, SPIRIT/21: „Über die Jahre hat sich HANA ständig weiterentwickelt, so dass es eigentlich erst jetzt für komplexe Infrastrukturen geeignet ist.“SPIRIT/21 GmbH

Timur Saltan, USU:
„Unternehmen, die lange gewartet haben, kommen jetzt in Zugzwang – und müssen mitunter Nachteile in Kauf nehmen. Wer zu spät einsteigt, verliert Credits bei der Anrechnung und muss schnell reagieren, um noch das Beste rauszuholen.“
USU GmbH

SAP S/4HANA-Umstieg – komplex, aber unausweichlich​ Read More »

So gehen GenAI und Datenschutz zusammen​

So gehen GenAI und Datenschutz zusammen​

Allgemein

Generative künstliche Intelligenz und Datenschutz müssen sich nicht ausschließen – im Gegenteil.Chizhevskaya Ekaterina | shutterstock.com Für Unternehmen, die sich die Performanz von Large Language Models (LLMs) zunutze machen möchten, dabei aber hohe Ansprüche an Datenschutz und-sicherheit haben, entwickelt sich Federated Learning zurzeit zu einem bahnbrechenden Ansatz. Statt sensible Daten an einen KI-Anbieter zu übermitteln oder auf isolierte Small Language Models (SLMs) zu setzen, ermöglicht ein Federated-Learning-Ansatz, KI-Modelle mit spezifischen Datensätzen zu trainieren – die dabei dort bleiben, wo sie sind. Die damit einhergehende, enge Integration von privaten Unternehmensdaten und ausgefeilten LLM-Funktionen ermöglicht  Unternehmen, ihre proprietären Informationen und ihr umfassendes Wissen mit Modellen wie GPT-4 oder Google Gemini zu nutzen – ohne dabei den Datenschutz zu gefährden. In diesem Artikel werfen wir einen Blick auf die Vorteile, die sich mit einem Federated-Learning-Ansatz für KI-Systeme verwirklichen lassen – und darauf, wie Sie das idealerweise angehen. Föderierte Benefits Ein föderierter KI-Ansatz bietet erhebliche Kostenvorteile: Organisationen können auf die vorhandenen Cloud-Ressourcen zurückgreifen, die ihre Daten bereits enthalten – statt eine separate KI-Infrastruktur aufbauen und umfangreiche Datenmigrationen bezahlen zu müssen. Neue Frameworks ermöglichen zudem, Edge-basierte SLMs und Cloud-basierte LLMs nahtlos zu integrieren. Das schafft eine hybride Architektur, die den Nutzen maximiert und parallel die Risiken minimiert. Besonders wertvoll ist ein solcher Ansatz für Unternehmen und Organisationen, die mit sensiblen Daten arbeiten oder bestimmte Regularien einhalten müssen. Darüber hinaus ist ein föderierter KI-Ansatz aber auch aus architektonischer Perspektive einfacher und somit schneller realisierbar. Zudem ermöglicht er auch mehr LLM-Optionen: In diesem Ansatz können Sie auch Modelle nutzen, die nicht Teil Ihres Ökosystems sind, aber möglicherweise besser zu Ihrer Anwendung passen. Dabei könnte es sich zum Beispiel um branchenspezifische Modelle handeln, die zunehmend populärer werden. Meiner Einschätzung nach ist Federated Learning angesichts der damit einhergehenden architektonischen und finanziellen Vorteile auf dem besten Weg, sich zum neuen Standard-Ansatz zu entwickeln, wenn es darum geht, Generative AI im Unternehmen zu implementieren. Federated-Learning-Roadmap für KI Der Weg zum föderierten Lernen beginnt damit, Ihre Datenlandschaft gründlich zu durchblicken. Starten Sie mit einem umfassenden Assessment darüber, wo sich Ihre Daten befinden, wie sie gemanagt werden, und wie sich die Datenflüsse innerhalb der Organisation gestalten. Diese Grundlage gibt Aufschluss über die potenziellen Integrationspunkte für Federated-Learning-Systeme und deckt Infrastrukturlücken auf. Die technische Vorarbeit erfordert ebenfalls viel Liebe zum Detail. Ihre Organisation benötigt: standardisierte Data-Labeling-Prozesse, robuste Edge-Computing-Funktionen (bei Bedarf), sowie zuverlässige Connectivity zwischen den Datenquellen. In diesem Zuge sollten Sie auch Testing-Umgebungen erstellen, die Ihre Datenverteilung in der Produktion möglichst exakt widerspiegeln. Ebenso wichtig für den Erfolg einer solchen Initiative: die Readiness innerhalb der Organisation. Stellen Sie Teams zusammen, die Datenwissenschaftler, Sicherheits- und Fachexperten zusammenbringen. Diese funktionsübergreifenden Teams sollten gemeinschaftlich ein Governance-Framework und Erfolgsmetriken zu definieren. Dabei sollten Sie auch daran denken, Data-Sharing-Vereinbarungen zwischen den Abteilungen aufzusetzen. Die sind essenziell dafür, dass der Federated-Learning-Ansatz effektiv funktioniert. Geht es dann an die Umsetzung, empfiehlt es sich, klein anzufangen. Identifizieren Sie abgeschlossene Use Cases, die als Pilotprojekt in Frage kommen und wählen Sie Technologiepartner aus, die Ihre spezifischen Bedürfnisse verstehen. Definieren Sie klare Erfolgskriterien für diese ersten Projekte und schaffen Sie ein robustes Monitoring, um jederzeit im Blick zu haben, wie es um den Fortschritt steht. Das Ziel besteht dabei nicht darin, sich kopfüber in komplexe, föderierte Lernsysteme zu stürzen, sondern eine solide Grundlage dafür zu schaffen, die künftige KI-Infrastruktur Ihres Unternehmens zu unterstützen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So gehen GenAI und Datenschutz zusammen​ Generative künstliche Intelligenz und Datenschutz müssen sich nicht ausschließen – im Gegenteil.Chizhevskaya Ekaterina | shutterstock.com

Für Unternehmen, die sich die Performanz von Large Language Models (LLMs) zunutze machen möchten, dabei aber hohe Ansprüche an Datenschutz und-sicherheit haben, entwickelt sich Federated Learning zurzeit zu einem bahnbrechenden Ansatz. Statt sensible Daten an einen KI-Anbieter zu übermitteln oder auf isolierte Small Language Models (SLMs) zu setzen, ermöglicht ein Federated-Learning-Ansatz, KI-Modelle mit spezifischen Datensätzen zu trainieren – die dabei dort bleiben, wo sie sind.

Die damit einhergehende, enge Integration von privaten Unternehmensdaten und ausgefeilten LLM-Funktionen ermöglicht  Unternehmen, ihre proprietären Informationen und ihr umfassendes Wissen mit Modellen wie GPT-4 oder Google Gemini zu nutzen – ohne dabei den Datenschutz zu gefährden.

In diesem Artikel werfen wir einen Blick auf die Vorteile, die sich mit einem Federated-Learning-Ansatz für KI-Systeme verwirklichen lassen – und darauf, wie Sie das idealerweise angehen.

Föderierte Benefits

Ein föderierter KI-Ansatz bietet erhebliche Kostenvorteile: Organisationen können auf die vorhandenen Cloud-Ressourcen zurückgreifen, die ihre Daten bereits enthalten – statt eine separate KI-Infrastruktur aufbauen und umfangreiche Datenmigrationen bezahlen zu müssen.

Neue Frameworks ermöglichen zudem, Edge-basierte SLMs und Cloud-basierte LLMs nahtlos zu integrieren. Das schafft eine hybride Architektur, die den Nutzen maximiert und parallel die Risiken minimiert. Besonders wertvoll ist ein solcher Ansatz für Unternehmen und Organisationen, die mit sensiblen Daten arbeiten oder bestimmte Regularien einhalten müssen. Darüber hinaus ist ein föderierter KI-Ansatz aber auch aus architektonischer Perspektive einfacher und somit schneller realisierbar.

Zudem ermöglicht er auch mehr LLM-Optionen: In diesem Ansatz können Sie auch Modelle nutzen, die nicht Teil Ihres Ökosystems sind, aber möglicherweise besser zu Ihrer Anwendung passen. Dabei könnte es sich zum Beispiel um branchenspezifische Modelle handeln, die zunehmend populärer werden.

Meiner Einschätzung nach ist Federated Learning angesichts der damit einhergehenden architektonischen und finanziellen Vorteile auf dem besten Weg, sich zum neuen Standard-Ansatz zu entwickeln, wenn es darum geht, Generative AI im Unternehmen zu implementieren.

Federated-Learning-Roadmap für KI

Der Weg zum föderierten Lernen beginnt damit, Ihre Datenlandschaft gründlich zu durchblicken. Starten Sie mit einem umfassenden Assessment darüber,

wo sich Ihre Daten befinden,

wie sie gemanagt werden, und

wie sich die Datenflüsse innerhalb der Organisation gestalten.

Diese Grundlage gibt Aufschluss über die potenziellen Integrationspunkte für Federated-Learning-Systeme und deckt Infrastrukturlücken auf.

Die technische Vorarbeit erfordert ebenfalls viel Liebe zum Detail. Ihre Organisation benötigt:

standardisierte Data-Labeling-Prozesse,

robuste Edge-Computing-Funktionen (bei Bedarf), sowie

zuverlässige Connectivity zwischen den Datenquellen.

In diesem Zuge sollten Sie auch Testing-Umgebungen erstellen, die Ihre Datenverteilung in der Produktion möglichst exakt widerspiegeln.

Ebenso wichtig für den Erfolg einer solchen Initiative: die Readiness innerhalb der Organisation. Stellen Sie Teams zusammen, die Datenwissenschaftler, Sicherheits- und Fachexperten zusammenbringen. Diese funktionsübergreifenden Teams sollten gemeinschaftlich ein Governance-Framework und Erfolgsmetriken zu definieren. Dabei sollten Sie auch daran denken, Data-Sharing-Vereinbarungen zwischen den Abteilungen aufzusetzen. Die sind essenziell dafür, dass der Federated-Learning-Ansatz effektiv funktioniert.

Geht es dann an die Umsetzung, empfiehlt es sich, klein anzufangen. Identifizieren Sie abgeschlossene Use Cases, die als Pilotprojekt in Frage kommen und wählen Sie Technologiepartner aus, die Ihre spezifischen Bedürfnisse verstehen. Definieren Sie klare Erfolgskriterien für diese ersten Projekte und schaffen Sie ein robustes Monitoring, um jederzeit im Blick zu haben, wie es um den Fortschritt steht.

Das Ziel besteht dabei nicht darin, sich kopfüber in komplexe, föderierte Lernsysteme zu stürzen, sondern eine solide Grundlage dafür zu schaffen, die künftige KI-Infrastruktur Ihres Unternehmens zu unterstützen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So gehen GenAI und Datenschutz zusammen​ Read More »

KI vor dem Sprung auf das nächste Level​

KI vor dem Sprung auf das nächste Level​

Allgemein

KI hat viel versprochen. Doch um die Werte zu heben, die in der Technik stecken, braucht es noch einige Grundlagenarbeit. Shutterstock/HighDispersion Der KI-Einsatz in Organisationen befindet sich im deutschsprachigen Raum in einer entscheidenden Phase: Unternehmen muss es gelingen, vom Proof of Concept auf echte KI-Projekte umzusteigen, die den Wertbeitrag zeigen und so die Transformation verstetigen. Zwar naht das Tal der Tränen im Hype Cycle von Gartner, und auch die Wirtschaftskrise passt irgendwie nicht in den Zeitplan. Aber zumindest sind die grundsätzlichen Rahmenbedingungen intakt, wie eine aktuelle Befragung unterstreicht. Große Bedeutung, große Investitionen Laut der Studie „AI-ready Enterprise“ der COMPUTERWOCHE stehen die KI-Ampeln in vielen grundlegenden Fragen auf grün. So ist nur jede siebte befragte Person der Ansicht, dass KI kaum oder keine Relevanz für ihr Unternehmen hat. Das gleiche Bild bei der Frage in Bezug auf Investitionen: Hier räumen gerade einmal elf Prozent der KI eine niedrige bis keine Priorität ein. Mit der Folge, dass sich die Budgets für KI-Projekte durchaus sehen lassen können. Der COMPUTERWOCHE-Studie zufolge gehen fast 57 Prozent der befragten Unternehmen davon aus, dass ihre KI-Budgets im Jahr 2025 stark oder sehr stark steigen werden, also um mindestens fünf beziehungsweise zehn Prozent. Christian Heinrichs, Senior Director, Sales Engineering bei UiPath, bezeichnet es als wichtigste Erkenntnis der Untersuchung, dass „Unternehmen trotz wirtschaftlicher Herausforderungen weiterhin in KI investieren und sie als kritischen Bestandteil zukünftiger Geschäftsmodelle betrachten“. Der Anteil der Firmen, die mit sinkenden KI-Budgets rechnen, beträgt laut Studie nur knapp vier Prozent. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5LyDXcO77nKawkSI41MMIo?utm_source=oembed”> KI-Budgets wachsen – aber nicht in den Himmel Verglichen mit der Befragung aus dem Vorjahr, sind die Investitionsaussichten zwar leicht zurückgegangen – hier schlägt die schlechte Konjunktur zu Buche. „Erstaunlich ist jedoch, dass über zehn Prozent der Studienteilnehmer immer noch keine konkreten Budgets für KI-Projekte zugewiesen haben“, sagt Max Pillong, Business Director Artificial Intelligence & Data Analytics bei Lufthansa Industry Solutions. „Ohne die notwendigen Investitionen werden Unternehmen das Thema KI nicht durchdringen können – schließlich geht es nicht um die Einführung einer neuen Software, sondern um ein ganzheitliches Neudenken unserer Art und Weise zu arbeiten.“ Max Pillong, Business Director Artificial Intelligence & Data Analytics, Lufthansa Industry Solutions: „Unternehmen müssen erkennen, dass KI ein unverzichtbarer Teil unserer zukünftigen Arbeitsweise ist. Nicht zuletzt durch den bevorstehenden Generationswechsel in der Arbeitswelt werden neue Technologien immer wichtiger. Ein Unternehmen, das den Einsatz von generativer KI zur Unterstützung des Arbeitsalltags nicht ermöglicht oder gar verbietet, wird in Zukunft weder wettbewerbsfähig noch ein attraktiver Arbeitgeber sein. Dies lässt sich zwar schwer in eine konkrete Return-on-Investment-Rechnung übersetzen, sollte aber Signal genug sein, diese spannende Technologie trotzdem einzuführen.” Jörg Meisinger / Lufthansa Industry Solutions GmbH & Co. KG Durchwachsener Reifegrad für KI Auch die grundsätzliche AI-Readiness von Unternehmen habe laut Pillong noch Luft nach oben, da hiesige Firmen selten als First Mover oder Early Adopter von KI-Technologien unterwegs seien. „Die Gründe liegen meiner Meinung nach an einer gewissen Skepsis im Management, aber auch an regulatorischen Hürden bei der Einführung neuer Technologien.“ Er empfiehlt für den Weg zur AI-Readiness die Entwicklung von Commodity-AI-Tools, beispielsweise ein „EnterpriseGPT“ mit Zugriff auf interne Daten. Unternehmen können laut Pillong auf diese Weise „erste Erfahrungen mit dem Betrieb der Use Cases und der dafür notwendigen Infrastruktur sammeln, die Erwartungshaltung der Nutzer schärfen und die AI Literacy der Mitarbeitenden im praktischen Einsatz verbessern“. Generative KI einführen: Daran scheitern GenAI-Rollouts Vom Probieren zum Use Case Die COMPUTERWOCHE-Studie zeigt bezüglich der Selbstbewertung des Status quo von KI-Vorhaben ebenfalls ein durchmischtes Bild. Über den Daumen gepeilt, arbeitet eine Hälfte der Befragten noch an der KI-Awareness sowie an ersten Pilotprojekten. Die andere Hälfte verortet sich zu gleichen Teilen in der Scale-Up-Phase sowie im unternehmensweiten Roll-Out beziehungsweise produktiven Einsatz von KI-Modulen. Hier gilt das IT-Organisations-Paradigma: Größer ist tendenziell weiter. Christian Heinrichs, Senior Director, Sales Engineering, UiPath: „Die Regulierungsanforderungen für KI-Tools etwa in Bezug auf DORA, den AI Act oder den Datenschutz sollten weit oben auf der Anforderungsliste eines jeden Unternehmens stehen. Darüber hinaus sind auch die Interoperabilität und Integration von KI-Tools mit anderen Anwendungen eine Schlüsselanforderung, um den maximalen Nutzen zu erzielen. Eine Softwareplattform, die neben eigenen Agentic AI Tools auch Funktionalitäten, wie Prozessanalyse & -automatisierung, Ideen-Management, Communications Mining oder Intelligent Document Processing umfasst, sollte sich möglichst anbieteragnostisch mit Software anderer Anbieter verknüpfen lassen. So können Sparpotenziale und Umsatzsteigerungen realisiert werden, ohne die Governance zu vernachlässigen.” UiPath GmbH Strukturen und Fachwissen aufbauen UiPath-Manager Heinrichs sieht folglich noch Herausforderungen für die AI-Readiness. Zwar hätten einige Unternehmen bereits KI-Projekte initiiert und die Bedeutung für ihre Zukunft erkannt. „Allerdings gibt es noch große Lücken, insbesondere in Bezug auf Datenökosysteme, IT-Infrastruktur und notwendige Expertise.“ Der letzte Punkt – fehlendes KI-Fachwissen – kam auch in der Studie deutlich ans Licht, er gilt als einer der stärksten Bremsfaktoren. Neben Investitionen in Dateninfrastruktur und -management empfiehlt Heinrichs, die Strategie für KI und Prozessautomatisierung auf die Geschäftsziele auszurichten und KI-spezifisches Fachwissen aufzubauen – intern sowie über externe Partnerschaften. „Zudem müssen auch alle Mitarbeiter in die Ideenfindung und KI-Anwendung eingebunden werden.“ Business, IT und KI im Einklang Neben der finanziellen Ausstattung und der Fähigkeit, das Momentum für die KI-Transformation umzusetzen, gibt es noch eine weitere Hürde: das Alignment von Business und IT. Denn funktionierende KI-Anwendungsfälle sind auf ein harmonisches Zusammenspiel der Einheiten angewiesen. „Sowohl die notwendige Infrastruktur als auch die potenziellen Use Cases erfordern ein unternehmensweites Umdenken darüber, wie wir Daten vorhalten, Prozesse dokumentieren oder mit virtuellen Assistenzsystemen interagieren“, sagt KI-Experte Pillong von Lufthansa Industry Solutions. Die Anwendungsfälle selbst sollten daher immer in enger Zusammenarbeit zwischen IT und Fachbereich entstehen, um auch wirklich sinnvolle Lösungen zu schaffen. „So erarbeiten sich IT-Organisationen im Unternehmen einen größeren Stellenwert.“ Bis es so weit ist, müssen die Budgetanforderungen der KI mit der restlichen Nachfrage konkurrieren. „Wie Unternehmen hier die Trennung hinbekommen und ob es mittelfristig noch eine Trennung gibt, bleibt abzuwarten“, merkt UiPath-Manager Heinrichs an. Zumal jede KI auch Software ist und jeder Software-Service über kurz oder lang auch aus KI-Komponenten bestehen werde. Eine positive Überraschung sei jedenfalls, dass fast zwei Drittel der befragten Organisationen in der Studie mit ihren ersten KI-Initiativen grundsätzlich zufrieden sind. „Jedoch erwarten die meisten Firmen nun Ergebnisse, die den bisherigen Hype und die damit verbundenen Hoffnungen rechtfertigen.“ Die neue Studie “AI-ready Enterprise 2024” von CIO Research Services Research Services: Daniela Petrini Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: NICE Systems GmbH; Lufthansa Industry Solutions GmbH & Co. KG; UiPath GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 313 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 12. bis 19. September 2024 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

KI vor dem Sprung auf das nächste Level​ KI hat viel versprochen. Doch um die Werte zu heben, die in der Technik stecken, braucht es noch einige Grundlagenarbeit. Shutterstock/HighDispersion

Der KI-Einsatz in Organisationen befindet sich im deutschsprachigen Raum in einer entscheidenden Phase: Unternehmen muss es gelingen, vom Proof of Concept auf echte KI-Projekte umzusteigen, die den Wertbeitrag zeigen und so die Transformation verstetigen. Zwar naht das Tal der Tränen im Hype Cycle von Gartner, und auch die Wirtschaftskrise passt irgendwie nicht in den Zeitplan. Aber zumindest sind die grundsätzlichen Rahmenbedingungen intakt, wie eine aktuelle Befragung unterstreicht.

Große Bedeutung, große Investitionen

Laut der Studie „AI-ready Enterprise“ der COMPUTERWOCHE stehen die KI-Ampeln in vielen grundlegenden Fragen auf grün. So ist nur jede siebte befragte Person der Ansicht, dass KI kaum oder keine Relevanz für ihr Unternehmen hat. Das gleiche Bild bei der Frage in Bezug auf Investitionen: Hier räumen gerade einmal elf Prozent der KI eine niedrige bis keine Priorität ein. Mit der Folge, dass sich die Budgets für KI-Projekte durchaus sehen lassen können.

Der COMPUTERWOCHE-Studie zufolge gehen fast 57 Prozent der befragten Unternehmen davon aus, dass ihre KI-Budgets im Jahr 2025 stark oder sehr stark steigen werden, also um mindestens fünf beziehungsweise zehn Prozent. Christian Heinrichs, Senior Director, Sales Engineering bei UiPath, bezeichnet es als wichtigste Erkenntnis der Untersuchung, dass „Unternehmen trotz wirtschaftlicher Herausforderungen weiterhin in KI investieren und sie als kritischen Bestandteil zukünftiger Geschäftsmodelle betrachten“. Der Anteil der Firmen, die mit sinkenden KI-Budgets rechnen, beträgt laut Studie nur knapp vier Prozent.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5LyDXcO77nKawkSI41MMIo?utm_source=oembed”>

KI-Budgets wachsen – aber nicht in den Himmel

Verglichen mit der Befragung aus dem Vorjahr, sind die Investitionsaussichten zwar leicht zurückgegangen – hier schlägt die schlechte Konjunktur zu Buche. „Erstaunlich ist jedoch, dass über zehn Prozent der Studienteilnehmer immer noch keine konkreten Budgets für KI-Projekte zugewiesen haben“, sagt Max Pillong, Business Director Artificial Intelligence & Data Analytics bei Lufthansa Industry Solutions. „Ohne die notwendigen Investitionen werden Unternehmen das Thema KI nicht durchdringen können – schließlich geht es nicht um die Einführung einer neuen Software, sondern um ein ganzheitliches Neudenken unserer Art und Weise zu arbeiten.“

Max Pillong, Business Director Artificial Intelligence & Data Analytics, Lufthansa Industry Solutions:
„Unternehmen müssen erkennen, dass KI ein unverzichtbarer Teil unserer zukünftigen Arbeitsweise ist. Nicht zuletzt durch den bevorstehenden Generationswechsel in der Arbeitswelt werden neue Technologien immer wichtiger. Ein Unternehmen, das den Einsatz von generativer KI zur Unterstützung des Arbeitsalltags nicht ermöglicht oder gar verbietet, wird in Zukunft weder wettbewerbsfähig noch ein attraktiver Arbeitgeber sein. Dies lässt sich zwar schwer in eine konkrete Return-on-Investment-Rechnung übersetzen, sollte aber Signal genug sein, diese spannende Technologie trotzdem einzuführen.”
Jörg Meisinger / Lufthansa Industry Solutions GmbH & Co. KG

Durchwachsener Reifegrad für KI

Auch die grundsätzliche AI-Readiness von Unternehmen habe laut Pillong noch Luft nach oben, da hiesige Firmen selten als First Mover oder Early Adopter von KI-Technologien unterwegs seien. „Die Gründe liegen meiner Meinung nach an einer gewissen Skepsis im Management, aber auch an regulatorischen Hürden bei der Einführung neuer Technologien.“ Er empfiehlt für den Weg zur AI-Readiness die Entwicklung von Commodity-AI-Tools, beispielsweise ein „EnterpriseGPT“ mit Zugriff auf interne Daten. Unternehmen können laut Pillong auf diese Weise „erste Erfahrungen mit dem Betrieb der Use Cases und der dafür notwendigen Infrastruktur sammeln, die Erwartungshaltung der Nutzer schärfen und die AI Literacy der Mitarbeitenden im praktischen Einsatz verbessern“.

Generative KI einführen: Daran scheitern GenAI-Rollouts

Vom Probieren zum Use Case

Die COMPUTERWOCHE-Studie zeigt bezüglich der Selbstbewertung des Status quo von KI-Vorhaben ebenfalls ein durchmischtes Bild. Über den Daumen gepeilt, arbeitet eine Hälfte der Befragten noch an der KI-Awareness sowie an ersten Pilotprojekten. Die andere Hälfte verortet sich zu gleichen Teilen in der Scale-Up-Phase sowie im unternehmensweiten Roll-Out beziehungsweise produktiven Einsatz von KI-Modulen. Hier gilt das IT-Organisations-Paradigma: Größer ist tendenziell weiter.

Christian Heinrichs, Senior Director, Sales Engineering, UiPath:
„Die Regulierungsanforderungen für KI-Tools etwa in Bezug auf DORA, den AI Act oder den Datenschutz sollten weit oben auf der Anforderungsliste eines jeden Unternehmens stehen. Darüber hinaus sind auch die Interoperabilität und Integration von KI-Tools mit anderen Anwendungen eine Schlüsselanforderung, um den maximalen Nutzen zu erzielen. Eine Softwareplattform, die neben eigenen Agentic AI Tools auch Funktionalitäten, wie Prozessanalyse & -automatisierung, Ideen-Management, Communications Mining oder Intelligent Document Processing umfasst, sollte sich möglichst anbieteragnostisch mit Software anderer Anbieter verknüpfen lassen. So können Sparpotenziale und Umsatzsteigerungen realisiert werden, ohne die Governance zu vernachlässigen.”
UiPath GmbH

Strukturen und Fachwissen aufbauen

UiPath-Manager Heinrichs sieht folglich noch Herausforderungen für die AI-Readiness. Zwar hätten einige Unternehmen bereits KI-Projekte initiiert und die Bedeutung für ihre Zukunft erkannt. „Allerdings gibt es noch große Lücken, insbesondere in Bezug auf Datenökosysteme, IT-Infrastruktur und notwendige Expertise.“ Der letzte Punkt – fehlendes KI-Fachwissen – kam auch in der Studie deutlich ans Licht, er gilt als einer der stärksten Bremsfaktoren.

Neben Investitionen in Dateninfrastruktur und -management empfiehlt Heinrichs, die Strategie für KI und Prozessautomatisierung auf die Geschäftsziele auszurichten und KI-spezifisches Fachwissen aufzubauen – intern sowie über externe Partnerschaften. „Zudem müssen auch alle Mitarbeiter in die Ideenfindung und KI-Anwendung eingebunden werden.“

Business, IT und KI im Einklang

Neben der finanziellen Ausstattung und der Fähigkeit, das Momentum für die KI-Transformation umzusetzen, gibt es noch eine weitere Hürde: das Alignment von Business und IT. Denn funktionierende KI-Anwendungsfälle sind auf ein harmonisches Zusammenspiel der Einheiten angewiesen. „Sowohl die notwendige Infrastruktur als auch die potenziellen Use Cases erfordern ein unternehmensweites Umdenken darüber, wie wir Daten vorhalten, Prozesse dokumentieren oder mit virtuellen Assistenzsystemen interagieren“, sagt KI-Experte Pillong von Lufthansa Industry Solutions. Die Anwendungsfälle selbst sollten daher immer in enger Zusammenarbeit zwischen IT und Fachbereich entstehen, um auch wirklich sinnvolle Lösungen zu schaffen. „So erarbeiten sich IT-Organisationen im Unternehmen einen größeren Stellenwert.“

Bis es so weit ist, müssen die Budgetanforderungen der KI mit der restlichen Nachfrage konkurrieren. „Wie Unternehmen hier die Trennung hinbekommen und ob es mittelfristig noch eine Trennung gibt, bleibt abzuwarten“, merkt UiPath-Manager Heinrichs an. Zumal jede KI auch Software ist und jeder Software-Service über kurz oder lang auch aus KI-Komponenten bestehen werde. Eine positive Überraschung sei jedenfalls, dass fast zwei Drittel der befragten Organisationen in der Studie mit ihren ersten KI-Initiativen grundsätzlich zufrieden sind. „Jedoch erwarten die meisten Firmen nun Ergebnisse, die den bisherigen Hype und die damit verbundenen Hoffnungen rechtfertigen.“

Die neue Studie “AI-ready Enterprise 2024” von CIO Research Services
Research Services: Daniela Petrini

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: NICE Systems GmbH; Lufthansa Industry Solutions GmbH & Co. KG; UiPath GmbH

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 313 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 12. bis 19. September 2024

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

KI vor dem Sprung auf das nächste Level​ Read More »

Frugalismus-Tipps: So kommen Sie früher aus dem Job​

Frugalismus-Tipps: So kommen Sie früher aus dem Job​

Allgemein

Frugalisten streben durch Verzicht und eisernes Sparen ihre finanzielle Unabhängigkeit an, um nur noch das zu tun, was sie wirklich möchten. Foto: Irina Strelnikova – shutterstock.comEs ist nichts dagegen einzuwenden, frugal zu leben, also genügsam oder sparsam. Frugalisten versuchen nämlich, möglichst viel ihres Einkommens zu sparen und anzulegen, um möglichst schnell finanziell unabhängig zu werden. Dazu verzichten sie auf unnötigen Konsum und schränken sich im Alltag ein. Beispielsweise verkneifen sich Frugalisten Restaurant- oder Theaterbesuche sowiedie neuesten Trends. Stattdessen kochen sie ihr Essen, das sie zur Arbeit mitnehmen, selbst, kaufen Second-Hand-Kleidung und reparieren Dinge. Der Frugalismus hat einige Berührungspunkte mit dem Minimalismus. Denn auch Minimalisten geht es darum, möglichst wenig Dinge anzuschaffen und möglichst wenig zu konsumieren und sich stattdessen auf diejenigen Dinge zu konzentrieren, die man wirklich im Leben braucht. Der Unterschied zwischen dem Frugalismus und dem Minimalismus besteht darin, dass der Konsumverzicht beim Frugalismus kein Selbstzweck ist. Frugalisten schränken sich zwar auch ganz bewusst ein, tun das aber, um einen Großteil ihres Einkommens zu sparen oder an der Börse anlegen zu können. Frugalisten möchten letztlich ein kleines Vermögen anhäufen. Der Ursprung des FrugalismusDer Frugalismus, wie wir ihn heute kennen, geht auf einen Finanzblogger und seine Idee zurück: FIRE. Das Akronym steht für “Financial Independence, Retire Early” also “Finanzielle Unabhängigkeit, frühe Rente” und das ist letztlich das erklärte Ziel der Frugalisten. Jedoch geht es ihnen nicht darum, möglichst früh nicht mehr arbeiten zu müssen. Ihre finanzielle Unabhängigkeit soll ihnen lediglich dabei helfen, das zu tun, was sie wirklich tun möchten. Wer eben nicht mehr Tag für Tag zur Arbeit gehen muss, weil er von seinem Ersparten leben kann, der kann frei entscheiden, was er mit seiner Zeit anfängt. Die wenigsten Frugalisten entscheiden sich dafür, einfach nichts zu tun. Auch wenn das Ziel erreicht ist, arbeiten sie weiter, engagieren sich ehrenamtlich oder machen sich selbstständig und widmen sich Aufgaben, die sie schon immer interessiert haben. Frugalismus hat nicht nur mit dem Minimalismus einige Berührungspunkte, sondern auch mit dem bedingungslosen Grundeinkommen. Denn auch die Idee dahinter lautet, dass Menschen dank des Grundeinkommens Zeit für Dinge in ihrem Leben haben, die sich ansonsten nur schwer mit der Erwerbsarbeit in Einklang bringen lassen würden. Wie zum Beispiel ein Ehrenamt oder aber eine nebenberufliche Selbstständigkeit. Frugalisten versprechen sich finanzielle Freiheit Für all diejenigen, die sich Morgen für Morgen zur Arbeit quälen, klingt der Frugalismus vielleicht nach einer Idee, die man sich einmal genauer ansehen sollte. Fairerweise sollte man jedoch dazu sagen, dass sich der Frugalismus nur für Besserverdienende eignet. Das klingt vielleicht paradox, lässt sich aber einfach nachvollziehen: Um schon mit 40 oder Mitte 40 in Rente gehen zu können, muss man während seines Erwerbslebens ein beachtliches finanzielles Polster aufgebaut haben. Frugalsten sparen dazu einen wirklich immensen Teil ihres Einkommens: Zwischen 70 und 80 Prozent ihres Verdienstes legen sie jeden Monat zurück. Nur so können sie es schaffen, in der kurzen Zeit ihrer Erwerbstätigkeit genügend Geld anzusparen, um mit 40 davon leben zu können. Frugalismus: Die 4-Prozent-Regel und die 25-er-Methode Frugalisten gehen ihr Vorhaben strategisch an. Dazu gehört auch, dass sie genau wissen, wie viel Geld sie gespart haben müssen, um in den Ruhestand gehen zu können. Dabei helfen ihnen zwei wichtige Regeln beziehungsweiseMethoden: Die 25-er-Regel: Frugalisten müssen das 25-Fache ihres durchschnittlichen jährlichen Verbrauchs gespart haben, um in Rente gehen zu können. Wenn Sie 45.000 Euro pro Jahr brauchen, müssen Sie 1.125.000 Euro gespart haben, um nicht mehr arbeiten zu müssen. Das Geld liegt bei Frugalisten natürlich nicht unverzinst auf dem Girokonto. Wer frugal leben möchte, der beschäftigt sich mit sämtlichen Formen der Geldanlage. Frugalisten investieren in Aktien, ETFs oder andere Finanzinstrumente und legen ihr Geld auch in Immobilien, Edelmetallen oder Rohstoffen an. Mit anderen Worten: Frugalisten investieren breit gestreut und gehen deshalb davon aus, dass sie eine schöne Rendite erwirtschaften. Das führt zur nächsten Regel.Die 4-Prozent-Regel: Da Frugalisten ihr Geld gewinnbringend angelegt haben, können sie einen gewissen Teil davon entnehmen, ohne das eigentliche Kapital anzugreifen. Frugalisten planen in der Regel mit jährlich vier Prozent, die sie von ihrer Anlage abzwacken können. Die Idee dahinter: Gut investiert können sie mit dem Geld am Kapitalmarkt eine höhere Rendite erwirtschaften, so dass vier Prozent Entnahme das ursprüngliche Investment nicht schmälern. Zum Vergleich: Anleger, die 1980 in den DAX investiert haben, haben bis Ende des Jahres 2021 im Durchschnitt eine Rendite von 8,9 Prozent erwirtschaftet. Wer jährlich vier Prozent aus seinem Aktienvermögen entnommen hätte, hätte in dieser Zeit sein Vermögen trotzdem noch vermehrt. Achtung: Bei Anlagen am Kapitalmarkt besteht die Gefahr eines Totalverlusts. Das sollten Sie als Anleger immer im Hinterkopf behalten. Die in diesem Artikel getroffen Aussagen stellen nur allgemeine Informationen und keine Haftung dar. Frugal leben: Die Tipps der Super-SparerBis zu seinem 40. Lebensjahr über eine Million Euro zur Seite legen zu können, ist für die meisten Normalbürger wohl mehr als utopisch. Frugalismus per se ist daher, wie schon gesagt, nur eine Option für Besserverdiener. Das heißt aber nicht, dass man sich von der Lebensweise der Super-Sparer nichts abschauen könnte. Selbst wer ein eher durchschnittliches Einkommen hat, kann Geld anlegen und im besten Fall von dem Zinseszinseffekt profitieren. Oder einfach genügend Rendite machen, um alle paar Jahre davon in Urlaub zu fahren. Und das könnte so gelingen:Überblick über Ihre Ausgaben verschaffen: Notieren Sie sich mindestens einen Monat lang, wie viel und vor allem, wofür Sie Geld ausgeben. Vermutlich fällt Ihnen dabei auf, dass der überteuerte Kaffee morgens auf dem Weg zur Arbeit gar nicht sein muss. Oder Sie entdecken andere Ausgaben, die Sie sich bei näherer Betrachtung sparen könnten. Um genau dieses Sparpotenzial ausfindig zu machen, müssen Sie zunächst einmal wissen, wofür Sie Geld ausgeben. Streichen Sie unnötige Kosten: Im nächsten Schritt gehen Sie diejenigen Ausgaben durch, die nicht unbedingt lebensnotwendig sind. Abhängig davon, wie viel Sie sparen möchten, kürzen Sie diese Ausgaben. Ist das Ziel eine möglichst hohe Sparquote, sollten Sie die Kosten auf das absolute Minimum beschränken. Wenn Sie sich etwas mehr Konsum gönnen, sollten Sie ganz bewusst entscheiden, wofür Sie Ihr Geld ausgeben. Nutzen Sie Vergleichsportale: Die Deutschen sind berühmt dafür, mehr Versicherungen zu haben, als sie brauchen. Hier lässt sich in der Regel einiges Geld sparen, das Sie im nächsten Schritt investieren oder anderweitig anlegen könnten. Auch bei den regelmäßigen Fixkosten wie Telefon, Strom oder Heizkosten gibt es häufig Sparpotenzial. Nutzen Sie beispielsweise Vergleichsportale, um günstigere Anbieter zu finden und kündigen Sie Verträge, die Sie nicht brauchen. Der Klassiker: Die Mitgliedschaft im Fitnessstudio. Definieren Sie Etappenziele: Sollte die Rente mit 40 für Sie in unerreichbarer Ferne liegen, sollten Sie sich andere Ziele setzen. Es ist nämlich kein Geheimnis, dass wir eher an unseren Vorhaben dranbleiben, wenn wir ein klar definiertes Ziel vor Augen haben. Das muss auch nicht gleich die nächste Fernreise oder eine eigene Immobilie sein. Auch kleinere Ziele, wie zum Beispiel jeden Monat einen festen Betrag in einen Sparplan zu investieren, eigenen sich hervorragend als Ansporn. Probieren Sie es aus! (pg/fm) 

Frugalismus-Tipps: So kommen Sie früher aus dem Job​ Frugalisten streben durch Verzicht und eisernes Sparen ihre finanzielle Unabhängigkeit an, um nur noch das zu tun, was sie wirklich möchten.
Foto: Irina Strelnikova – shutterstock.comEs ist nichts dagegen einzuwenden, frugal zu leben, also genügsam oder sparsam. Frugalisten versuchen nämlich, möglichst viel ihres Einkommens zu sparen und anzulegen, um möglichst schnell finanziell unabhängig zu werden. Dazu verzichten sie auf unnötigen Konsum und schränken sich im Alltag ein. Beispielsweise verkneifen sich Frugalisten Restaurant- oder Theaterbesuche sowiedie neuesten Trends. Stattdessen kochen sie ihr Essen, das sie zur Arbeit mitnehmen, selbst, kaufen Second-Hand-Kleidung und reparieren Dinge. Der Frugalismus hat einige Berührungspunkte mit dem Minimalismus. Denn auch Minimalisten geht es darum, möglichst wenig Dinge anzuschaffen und möglichst wenig zu konsumieren und sich stattdessen auf diejenigen Dinge zu konzentrieren, die man wirklich im Leben braucht. Der Unterschied zwischen dem Frugalismus und dem Minimalismus besteht darin, dass der Konsumverzicht beim Frugalismus kein Selbstzweck ist. Frugalisten schränken sich zwar auch ganz bewusst ein, tun das aber, um einen Großteil ihres Einkommens zu sparen oder an der Börse anlegen zu können. Frugalisten möchten letztlich ein kleines Vermögen anhäufen. Der Ursprung des FrugalismusDer Frugalismus, wie wir ihn heute kennen, geht auf einen Finanzblogger und seine Idee zurück: FIRE. Das Akronym steht für “Financial Independence, Retire Early” also “Finanzielle Unabhängigkeit, frühe Rente” und das ist letztlich das erklärte Ziel der Frugalisten. Jedoch geht es ihnen nicht darum, möglichst früh nicht mehr arbeiten zu müssen. Ihre finanzielle Unabhängigkeit soll ihnen lediglich dabei helfen, das zu tun, was sie wirklich tun möchten. Wer eben nicht mehr Tag für Tag zur Arbeit gehen muss, weil er von seinem Ersparten leben kann, der kann frei entscheiden, was er mit seiner Zeit anfängt. Die wenigsten Frugalisten entscheiden sich dafür, einfach nichts zu tun. Auch wenn das Ziel erreicht ist, arbeiten sie weiter, engagieren sich ehrenamtlich oder machen sich selbstständig und widmen sich Aufgaben, die sie schon immer interessiert haben. Frugalismus hat nicht nur mit dem Minimalismus einige Berührungspunkte, sondern auch mit dem bedingungslosen Grundeinkommen. Denn auch die Idee dahinter lautet, dass Menschen dank des Grundeinkommens Zeit für Dinge in ihrem Leben haben, die sich ansonsten nur schwer mit der Erwerbsarbeit in Einklang bringen lassen würden. Wie zum Beispiel ein Ehrenamt oder aber eine nebenberufliche Selbstständigkeit.

Frugalisten versprechen sich finanzielle Freiheit Für all diejenigen, die sich Morgen für Morgen zur Arbeit quälen, klingt der Frugalismus vielleicht nach einer Idee, die man sich einmal genauer ansehen sollte. Fairerweise sollte man jedoch dazu sagen, dass sich der Frugalismus nur für Besserverdienende eignet. Das klingt vielleicht paradox, lässt sich aber einfach nachvollziehen: Um schon mit 40 oder Mitte 40 in Rente gehen zu können, muss man während seines Erwerbslebens ein beachtliches finanzielles Polster aufgebaut haben. Frugalsten sparen dazu einen wirklich immensen Teil ihres Einkommens: Zwischen 70 und 80 Prozent ihres Verdienstes legen sie jeden Monat zurück. Nur so können sie es schaffen, in der kurzen Zeit ihrer Erwerbstätigkeit genügend Geld anzusparen, um mit 40 davon leben zu können. Frugalismus: Die 4-Prozent-Regel und die 25-er-Methode Frugalisten gehen ihr Vorhaben strategisch an. Dazu gehört auch, dass sie genau wissen, wie viel Geld sie gespart haben müssen, um in den Ruhestand gehen zu können. Dabei helfen ihnen zwei wichtige Regeln beziehungsweiseMethoden: Die 25-er-Regel: Frugalisten müssen das 25-Fache ihres durchschnittlichen jährlichen Verbrauchs gespart haben, um in Rente gehen zu können. Wenn Sie 45.000 Euro pro Jahr brauchen, müssen Sie 1.125.000 Euro gespart haben, um nicht mehr arbeiten zu müssen. Das Geld liegt bei Frugalisten natürlich nicht unverzinst auf dem Girokonto. Wer frugal leben möchte, der beschäftigt sich mit sämtlichen Formen der Geldanlage. Frugalisten investieren in Aktien, ETFs oder andere Finanzinstrumente und legen ihr Geld auch in Immobilien, Edelmetallen oder Rohstoffen an. Mit anderen Worten: Frugalisten investieren breit gestreut und gehen deshalb davon aus, dass sie eine schöne Rendite erwirtschaften. Das führt zur nächsten Regel.Die 4-Prozent-Regel: Da Frugalisten ihr Geld gewinnbringend angelegt haben, können sie einen gewissen Teil davon entnehmen, ohne das eigentliche Kapital anzugreifen. Frugalisten planen in der Regel mit jährlich vier Prozent, die sie von ihrer Anlage abzwacken können. Die Idee dahinter: Gut investiert können sie mit dem Geld am Kapitalmarkt eine höhere Rendite erwirtschaften, so dass vier Prozent Entnahme das ursprüngliche Investment nicht schmälern. Zum Vergleich: Anleger, die 1980 in den DAX investiert haben, haben bis Ende des Jahres 2021 im Durchschnitt eine Rendite von 8,9 Prozent erwirtschaftet. Wer jährlich vier Prozent aus seinem Aktienvermögen entnommen hätte, hätte in dieser Zeit sein Vermögen trotzdem noch vermehrt. Achtung: Bei Anlagen am Kapitalmarkt besteht die Gefahr eines Totalverlusts. Das sollten Sie als Anleger immer im Hinterkopf behalten. Die in diesem Artikel getroffen Aussagen stellen nur allgemeine Informationen und keine Haftung dar. Frugal leben: Die Tipps der Super-SparerBis zu seinem 40. Lebensjahr über eine Million Euro zur Seite legen zu können, ist für die meisten Normalbürger wohl mehr als utopisch. Frugalismus per se ist daher, wie schon gesagt, nur eine Option für Besserverdiener. Das heißt aber nicht, dass man sich von der Lebensweise der Super-Sparer nichts abschauen könnte. Selbst wer ein eher durchschnittliches Einkommen hat, kann Geld anlegen und im besten Fall von dem Zinseszinseffekt profitieren. Oder einfach genügend Rendite machen, um alle paar Jahre davon in Urlaub zu fahren. Und das könnte so gelingen:Überblick über Ihre Ausgaben verschaffen: Notieren Sie sich mindestens einen Monat lang, wie viel und vor allem, wofür Sie Geld ausgeben. Vermutlich fällt Ihnen dabei auf, dass der überteuerte Kaffee morgens auf dem Weg zur Arbeit gar nicht sein muss. Oder Sie entdecken andere Ausgaben, die Sie sich bei näherer Betrachtung sparen könnten. Um genau dieses Sparpotenzial ausfindig zu machen, müssen Sie zunächst einmal wissen, wofür Sie Geld ausgeben. Streichen Sie unnötige Kosten: Im nächsten Schritt gehen Sie diejenigen Ausgaben durch, die nicht unbedingt lebensnotwendig sind. Abhängig davon, wie viel Sie sparen möchten, kürzen Sie diese Ausgaben. Ist das Ziel eine möglichst hohe Sparquote, sollten Sie die Kosten auf das absolute Minimum beschränken. Wenn Sie sich etwas mehr Konsum gönnen, sollten Sie ganz bewusst entscheiden, wofür Sie Ihr Geld ausgeben. Nutzen Sie Vergleichsportale: Die Deutschen sind berühmt dafür, mehr Versicherungen zu haben, als sie brauchen. Hier lässt sich in der Regel einiges Geld sparen, das Sie im nächsten Schritt investieren oder anderweitig anlegen könnten. Auch bei den regelmäßigen Fixkosten wie Telefon, Strom oder Heizkosten gibt es häufig Sparpotenzial. Nutzen Sie beispielsweise Vergleichsportale, um günstigere Anbieter zu finden und kündigen Sie Verträge, die Sie nicht brauchen. Der Klassiker: Die Mitgliedschaft im Fitnessstudio. Definieren Sie Etappenziele: Sollte die Rente mit 40 für Sie in unerreichbarer Ferne liegen, sollten Sie sich andere Ziele setzen. Es ist nämlich kein Geheimnis, dass wir eher an unseren Vorhaben dranbleiben, wenn wir ein klar definiertes Ziel vor Augen haben. Das muss auch nicht gleich die nächste Fernreise oder eine eigene Immobilie sein. Auch kleinere Ziele, wie zum Beispiel jeden Monat einen festen Betrag in einen Sparplan zu investieren, eigenen sich hervorragend als Ansporn. Probieren Sie es aus! (pg/fm)

Frugalismus-Tipps: So kommen Sie früher aus dem Job​ Read More »

Neue Alibaba-KI stellt DeepSeek-V3 in den Schatten​

Neue Alibaba-KI stellt DeepSeek-V3 in den Schatten​

Allgemein

Nach DeepSeek hat nun auch Alibaba KI-Geist aus der Flasche gelassen.Mojahid Mottakin/Shutterstock Die chinesische Alibaba Group hat eine verbesserte Version ihres KI-Modells Qwen 2.5 auf den Markt gebracht, das angeblich die LLMs (Large Language Models) von DeepSeek, OpenAI und Meta in den Schatten stellt. „Qwen 2.5-Max übertrifft […] fast durchweg GPT-4o, DeepSeek-V3 und Llama-3.1-405B“, verkündet die Cloud-Einheit von Alibaba per WeChat, wie Reuters berichtet.  Auf seiner GitHub-Seite zeigt das Unternehmen Benchmarking-Ergebnisse, die darauf hindeuten, dass seine Instruktionsmodelle – die für Aufgaben wie Chat und Programmierung entwickelt wurden – GPT-4o, DeepSeek-V3 und Llama-3.1-405B meist übertrafen, während sie eine vergleichbare Leistung wie Claude 3.5-Sonnet erbrachten.  Die Vorstellung kommt kurz nach dem bahnbrechenden Markteintritt von DeepSeek, also dem Debüt seines KI-Assistenten auf Basis des DeepSeek-V3-Modells am 10. Januar und der Veröffentlichung seines Open-Source-R1-Modells am 20. Januar.  Der Umstand, dass Training des V3-Modells (angeblich) nur 5,6 Millionen Dollar kostete, verglichen mit den geschätzten 78 Millionen Dollar bei OpenAI für GPT-4o, versetzte das Silicon Valley in Schockstarre, schickte die Technologieaktien auf Talfahrt und veranlasste die Investoren dazu, die Nachhaltigkeit des auf hohen Ausgaben basierenden Ansatzes der großen US-KI-Firmen in Frage zu stellen.  Chinas KI-Wettlauf heizt sich auf  Dass nun kurz darauf auch Alibaba ein verbessertes LLM vorstellt, noch dazu während der Feiertage zum chinesischen Neujahresfest, unterstreicht den wachsenden Wettbewerbsdruck, der durch DeepSeeks Vorstoß entstanden ist. Diesen spüren augenscheinlich nicht nur westliche Akteure, sondern auch chinesischen Technologieunternehmen.  „Der KI-Modellkrieg ist nicht mehr nur ein Kampf zwischen China und den USA – auch der Wettbewerb innerhalb Chinas verschärft sich, da Unternehmen wie DeepSeek, Alibaba und andere ihre Modelle innovieren und optimieren, um einen großen Inlandsmarkt zu bedienen“, erklärt Neil Shah, Partner und Mitbegründer von Counterpoint Research. Er ergänzt: „Chinesische Unternehmen werden aufgrund von Ressourcenbeschränkungen, einschließlich des begrenzten Zugangs zu den fortschrittlichsten Halbleitern, globalen Daten, Tools, Infrastrukturen und Zielgruppen, zu weiteren Innovationen gedrängt.“  Der Wettlauf um sparsame KI  Diese Entwicklung spiele den Entscheidern in Unternehmen in die Hände und erhöhe den Preisdruck auf KI-Anwendungen, die mit teureren Modellen erstellt wurden, so Shah weiter. “Solche Durchbrüche werden Unternehmen dazu zwingen, die Wirtschaftlichkeit von KI-Investitionen und ihre Wahl von Modellen und Anbietern zu überdenken oder zumindest zu überdenken“, prognostiziert der Analyst.  DeepSeek treibt unmittelbare Preisüberlegungen in zwei Schlüsselbereichen der KI voran:  die Kosten für Roh-Token und   die Ausgaben für die Modellentwicklung.   Diese Faktoren könnten KI-Unternehmen weltweit dazu zwingen, die Optimierung ihrer Modelle in Betracht zu ziehen, um wettbewerbsfähig zu bleiben. „Der Erfolg von DeepSeek unterstreicht auch die Leistungsfähigkeit von Open Source und stärkt das Argument, dass quelloffene KI-Lösungen mittelfristig zu einem dominierenden Marktsegment werden könnten“, erklärt Hyoun Park, CEO und Chefanalyst bei Amalgam Insights. “Wenn das geschieht, könnten Unternehmen mit starken Open-Source-Geschäftsmodellen– wie IBM Red Hat und Canonical – einspringen und KI-bezogene Managed Services schnell skalieren.“  Der geopolitische Vorteil bleibt – etwas  Die Geopolitik bleibt ein Joker für westliche KI-Firmen, der den Markt möglicherweise zu ihren Gunsten kippen lässt, indem er die Übernahme chinesischer Modelle in bestimmten Regionen einschränkt. Gleichzeitig wird China wahrscheinlich die Kontrollen für die Nutzung westlicher KI-Modelle verschärfen, was die Einschränkungen widerspiegelt, die bei anderen technischen Anwendungen zu beobachten sind.  Unternehmen sollten zunächst prüfen, ob diese Modelle den globalen Datenschutz- und Regulierungsstandards entsprechen, bevor sie sie in großem Umfang einsetzen, bremst IDC-Analyst Sharath Srinivasamurthy die Euphorie. „Die Fortschritte von DeepSeek könnten zu besser zugänglichen und erschwinglicheren KI-Lösungen führen, aber sie erfordern auch, strategische, wettbewerbsbezogenen, qualitativen und sicherheitsbezogenen Faktoren sorgfältig abzuwägen“, so der stellvertretende Vice President Research bei IDC.  

Neue Alibaba-KI stellt DeepSeek-V3 in den Schatten​ Nach DeepSeek hat nun auch Alibaba KI-Geist aus der Flasche gelassen.Mojahid Mottakin/Shutterstock

Die chinesische Alibaba Group hat eine verbesserte Version ihres KI-Modells Qwen 2.5 auf den Markt gebracht, das angeblich die LLMs (Large Language Models) von DeepSeek, OpenAI und Meta in den Schatten stellt. „Qwen 2.5-Max übertrifft fast durchweg GPT-4o, DeepSeek-V3 und Llama-3.1-405B“, verkündet die Cloud-Einheit von Alibaba per WeChat, wie Reuters berichtet. 

Auf seiner GitHub-Seite zeigt das Unternehmen Benchmarking-Ergebnisse, die darauf hindeuten, dass seine Instruktionsmodelle – die für Aufgaben wie Chat und Programmierung entwickelt wurden – GPT-4o, DeepSeek-V3 und Llama-3.1-405B meist übertrafen, während sie eine vergleichbare Leistung wie Claude 3.5-Sonnet erbrachten. 

Die Vorstellung kommt kurz nach dem bahnbrechenden Markteintritt von DeepSeek, also dem Debüt seines KI-Assistenten auf Basis des DeepSeek-V3-Modells am 10. Januar und der Veröffentlichung seines Open-Source-R1-Modells am 20. Januar. 

Der Umstand, dass Training des V3-Modells (angeblich) nur 5,6 Millionen Dollar kostete, verglichen mit den geschätzten 78 Millionen Dollar bei OpenAI für GPT-4o, versetzte das Silicon Valley in Schockstarre, schickte die Technologieaktien auf Talfahrt und veranlasste die Investoren dazu, die Nachhaltigkeit des auf hohen Ausgaben basierenden Ansatzes der großen US-KI-Firmen in Frage zu stellen. 

Chinas KI-Wettlauf heizt sich auf 

Dass nun kurz darauf auch Alibaba ein verbessertes LLM vorstellt, noch dazu während der Feiertage zum chinesischen Neujahresfest, unterstreicht den wachsenden Wettbewerbsdruck, der durch DeepSeeks Vorstoß entstanden ist. Diesen spüren augenscheinlich nicht nur westliche Akteure, sondern auch chinesischen Technologieunternehmen. 

„Der KI-Modellkrieg ist nicht mehr nur ein Kampf zwischen China und den USA – auch der Wettbewerb innerhalb Chinas verschärft sich, da Unternehmen wie DeepSeek, Alibaba und andere ihre Modelle innovieren und optimieren, um einen großen Inlandsmarkt zu bedienen“, erklärt Neil Shah, Partner und Mitbegründer von Counterpoint Research. Er ergänzt: „Chinesische Unternehmen werden aufgrund von Ressourcenbeschränkungen, einschließlich des begrenzten Zugangs zu den fortschrittlichsten Halbleitern, globalen Daten, Tools, Infrastrukturen und Zielgruppen, zu weiteren Innovationen gedrängt.“ 

Der Wettlauf um sparsame KI 

Diese Entwicklung spiele den Entscheidern in Unternehmen in die Hände und erhöhe den Preisdruck auf KI-Anwendungen, die mit teureren Modellen erstellt wurden, so Shah weiter. “Solche Durchbrüche werden Unternehmen dazu zwingen, die Wirtschaftlichkeit von KI-Investitionen und ihre Wahl von Modellen und Anbietern zu überdenken oder zumindest zu überdenken“, prognostiziert der Analyst. 

DeepSeek treibt unmittelbare Preisüberlegungen in zwei Schlüsselbereichen der KI voran: 

die Kosten für Roh-Token und  

die Ausgaben für die Modellentwicklung.  

Diese Faktoren könnten KI-Unternehmen weltweit dazu zwingen, die Optimierung ihrer Modelle in Betracht zu ziehen, um wettbewerbsfähig zu bleiben. „Der Erfolg von DeepSeek unterstreicht auch die Leistungsfähigkeit von Open Source und stärkt das Argument, dass quelloffene KI-Lösungen mittelfristig zu einem dominierenden Marktsegment werden könnten“, erklärt Hyoun Park, CEO und Chefanalyst bei Amalgam Insights. “Wenn das geschieht, könnten Unternehmen mit starken Open-Source-Geschäftsmodellen– wie IBM Red Hat und Canonical – einspringen und KI-bezogene Managed Services schnell skalieren.“ 

Der geopolitische Vorteil bleibt – etwas 

Die Geopolitik bleibt ein Joker für westliche KI-Firmen, der den Markt möglicherweise zu ihren Gunsten kippen lässt, indem er die Übernahme chinesischer Modelle in bestimmten Regionen einschränkt. Gleichzeitig wird China wahrscheinlich die Kontrollen für die Nutzung westlicher KI-Modelle verschärfen, was die Einschränkungen widerspiegelt, die bei anderen technischen Anwendungen zu beobachten sind. 

Unternehmen sollten zunächst prüfen, ob diese Modelle den globalen Datenschutz- und Regulierungsstandards entsprechen, bevor sie sie in großem Umfang einsetzen, bremst IDC-Analyst Sharath Srinivasamurthy die Euphorie. „Die Fortschritte von DeepSeek könnten zu besser zugänglichen und erschwinglicheren KI-Lösungen führen, aber sie erfordern auch, strategische, wettbewerbsbezogenen, qualitativen und sicherheitsbezogenen Faktoren sorgfältig abzuwägen“, so der stellvertretende Vice President Research bei IDC. 

Neue Alibaba-KI stellt DeepSeek-V3 in den Schatten​ Read More »

Mercedes-Benz migriert zu RISE with SAP​

Mercedes-Benz migriert zu RISE with SAP​

Allgemein

width=”4950″ height=”2784″ sizes=”(max-width: 4950px) 100vw, 4950px”>Katrin Lehmann, Group CIO Mercedes-Benz, will mit der Migration zu RISE with SAP Freiraum für Innovationen schaffen.Mercedes-Benz Mit der Migration zu RISE with SAP geht Mercedes-Benz den nächsten Schritt in Richtung zukunftssichere IT-Infrastruktur. Gleichzeitig setzt das Unternehmen auf eine Single-Cloudanbieter-Strategie mit AWS. Auf diese Weise will der Konzern mehr Zuverlässigkeit, Standardisierung und effizientere Geschäftsprozesse erreichen. Zudem sollen diese Schritte die Wettbewerbsfähigkeit steigern Von der Partnerschaft mit SAP verspricht sich das Unternehmen eine Beschleunigung des Wandels und mehr Innovation und Flexibilität. Nach der Vertragsunterzeichnung im Dezember 2024 folgt nun die schrittweise Implementierung. Migration auf AWS Dabei werden entscheidende SAP-Applikationen entlang der Wertschöpfungskette auf Amazon Web Services (AWS) migriert. Mercedes-Benz setzt auf den Cloud-Dienst von Amazon, um die IT-Landschaft effizienter zu gestalten, heißt es. In der IT setzt Mercedes-Benz auf konsequente Standardisierung. Mercedes-Benz Katrin Lehmann, CIO der Mercedes-Benz AG, erklärt die Entscheidung so: „Wir sind Tech-Frontrunner im Konzern und brauchen eine zukunftsfähige IT-Infrastruktur, um Menschen und Technologien bestmöglich zu vernetzen.“ Dabei biete die Migration zu RISE with SAP auf AWS, so die CIO, die Möglichkeit, Prozesse entlang der Wertschöpfungskette schlanker und effizienter zu gestalten. Freiraum für Innovationen schaffen Für zusätzliches Tempo soll dabei eine radikale Standardisierung und die Verknüpfung mit integrierten KI-Modellen sorgen. „So schaffen wir uns Freiraum für Innovationen“, unterstreicht Lehmann. Weiter heißt es, durch die Kombination der Cloud-Strategie mit künftigen Entwicklungen der SAP-Landschaft auf S/4HANA profitiere das Unternehmen von kontinuierlichen Updates. Das ermögliche ein effizienteres Arbeiten mit neuesten Technologien, auch in Hinblick auf KI. Auf diese Weise will das Unternehmen viele Prozesse beschleunigen – von Finance- und Controlling-Applikationen über Logistik bis hin zum After Sales. Geschäftsabläufe automatisieren Ein weiteres Ziel ist, mit den Services und Tools von RISE with SAP Geschäftsabläufe weiter zu automatisieren. Mit der Fokussierung auf AWS als einzigen Cloud-Anbieter will Mercedes-Benz die Komplexität der IT reduzieren und die Nutzung seiner Applikationen einfacher und sicherer machen. 

Mercedes-Benz migriert zu RISE with SAP​ width=”4950″ height=”2784″ sizes=”(max-width: 4950px) 100vw, 4950px”>Katrin Lehmann, Group CIO Mercedes-Benz, will mit der Migration zu RISE with SAP Freiraum für Innovationen schaffen.Mercedes-Benz

Mit der Migration zu RISE with SAP geht Mercedes-Benz den nächsten Schritt in Richtung zukunftssichere IT-Infrastruktur. Gleichzeitig setzt das Unternehmen auf eine Single-Cloudanbieter-Strategie mit AWS. Auf diese Weise will der Konzern mehr Zuverlässigkeit, Standardisierung und effizientere Geschäftsprozesse erreichen. Zudem sollen diese Schritte die Wettbewerbsfähigkeit steigern

Von der Partnerschaft mit SAP verspricht sich das Unternehmen eine Beschleunigung des Wandels und mehr Innovation und Flexibilität. Nach der Vertragsunterzeichnung im Dezember 2024 folgt nun die schrittweise Implementierung.

Migration auf AWS

Dabei werden entscheidende SAP-Applikationen entlang der Wertschöpfungskette auf Amazon Web Services (AWS) migriert. Mercedes-Benz setzt auf den Cloud-Dienst von Amazon, um die IT-Landschaft effizienter zu gestalten, heißt es.

In der IT setzt Mercedes-Benz auf konsequente Standardisierung.
Mercedes-Benz

Katrin Lehmann, CIO der Mercedes-Benz AG, erklärt die Entscheidung so: „Wir sind Tech-Frontrunner im Konzern und brauchen eine zukunftsfähige IT-Infrastruktur, um Menschen und Technologien bestmöglich zu vernetzen.“ Dabei biete die Migration zu RISE with SAP auf AWS, so die CIO, die Möglichkeit, Prozesse entlang der Wertschöpfungskette schlanker und effizienter zu gestalten.

Freiraum für Innovationen schaffen

Für zusätzliches Tempo soll dabei eine radikale Standardisierung und die Verknüpfung mit integrierten KI-Modellen sorgen. „So schaffen wir uns Freiraum für Innovationen“, unterstreicht Lehmann.

Weiter heißt es, durch die Kombination der Cloud-Strategie mit künftigen Entwicklungen der SAP-Landschaft auf S/4HANA profitiere das Unternehmen von kontinuierlichen Updates. Das ermögliche ein effizienteres Arbeiten mit neuesten Technologien, auch in Hinblick auf KI. Auf diese Weise will das Unternehmen viele Prozesse beschleunigen – von Finance- und Controlling-Applikationen über Logistik bis hin zum After Sales.

Geschäftsabläufe automatisieren

Ein weiteres Ziel ist, mit den Services und Tools von RISE with SAP Geschäftsabläufe weiter zu automatisieren. Mit der Fokussierung auf AWS als einzigen Cloud-Anbieter will Mercedes-Benz die Komplexität der IT reduzieren und die Nutzung seiner Applikationen einfacher und sicherer machen.

Mercedes-Benz migriert zu RISE with SAP​ Read More »

ServiceNow will Ordnung ins KI-Agenten-Chaos bringen​

ServiceNow will Ordnung ins KI-Agenten-Chaos bringen​

Allgemein

Geht es nach ServiceNow (und anderen Anbietern), sollen KI-Agenten bald zahlreiche Aufgaben im Business-Umfeld selbstständig erledigen können.JLco Julia Amaral/Shutterstock Gibt es einen sicheren Trend für 2025 und darüber hinaus, so sind das KI-Agenten, die komplexe Geschäftsprozesse unabhängig übernehmen können. Dieser Ansicht ist auch ServiceNow. „Wir glauben fest daran, dass Agentic AI die nächste Evolutionsstufe für ServiceNow darstellt“, erklärt Dorit Zilbershot, Vice President, Product Management, AI, im CW-Gespräch. „Wir haben in den letzten zwanzig Jahren Workflows automatisiert. Agenten bieten uns eine neue Möglichkeit, unstrukturierte Workflows voranzutreiben. Sie sind anpassungsfähig, interaktiv und bringen dem Unternehmen wirklich mehr Wert.“  Die Agenten kommen  Seine ersten KI-Agenten hatte ServiceNow bereits im September 2024 vorgestellt. Um in diesem Bereich voranzukommen, gab ServiceNow erst vor kurzem die Übernahme von Cuein bekannt. Die Technologie des KI-Startups, von Cuein selbst als „Copilot für Customer Experience Teams“ bezeichnet, ist darauf ausgelegt, fragmentierte Konversationen zu interpretieren und umfassende Erkenntnisse zu liefern. Diese können die KI-Agenten nutzen, um fundierte Entscheidungen zu treffen und entsprechend zu handeln.  „Cuein kann uns dabei helfen, mit unserem Agentic-AI-Fahrplan schneller voranzukommen“, so Zilbershot. „Wir können damit schneller Gespräche und Interaktionen in strukturierte Arbeitsabläufe umwandeln, erhalten Echtzeit-Einblicke in KI-Agenten und können ihre Arbeit quantifizieren.“  Wenngleich aktuell KI-Agenten und Copilots wie Pilze aus dem Boden schießen, sieht sich das Unternehmen dabei in einer optimalen Ausgangsposition. Der ServiceNow-Managerin zufolge gebe es eine Reihe von Unterscheidungsmerkmalen gegenüber der Konkurrenz.   Dazu zähle zum einen eine hybride Plattform, die sowohl agentenbasierte als auch regelbasierte Arbeitsabläufe unterstützt, erklärt Zilbershot. Dies ermögliche es, KI-Agenten für unvorhersehbare Anwendungsfälle einzusetzen, die Anpassungsfähigkeit und Interaktion mit Menschen erfordern, während gleichzeitig strukturierte Arbeitsabläufe beibehalten werden könnten.  srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?quality=50&strip=all 3248w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=2048%2C1151&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Dorit Zilbershot, Vice President, Product Management, AI bei ServiceNowServiceNow Außerdem hätten die KI-Agenten von ServiceNow Zugriff auf alle Analysefähigkeiten, Arbeitsabläufe der Kunden der letzten zwanzig Jahre und Informationen innerhalb und außerhalb von ServiceNow. So könnten die Kunden, von Anfang an von agentenbasierter KI profitieren, so die KI-Expertin: „Es ist im Grunde so, als hätte man einen neuen Mitarbeiter, der bereits alles über das Unternehmen weiß, ohne irgendeine Schulung.“  Zusätzlich stelle ServiceNow nun mit AI Agent Orchestrator einen Kontrollturm bereit, der die KI-Agenten verwaltet. Tritt beispielsweise ein Netzwerkproblem auf, so ein von ServiceNow beschriebenes Szenario, verwalte der AI Agent Orchestrator benutzerdefinierte Agenten, die Informationen aus Quellen wie Network Management Software, SIEM (Security Information & Event Management) Systeme und Application Performance Monitoring beziehen, um das Problem zu beheben. Das Problem werde identifiziert, ein Lösungsplan erstellt und – nachdem ein menschlicher Netzwerkoperator ihn genehmigt habe – ausgeführt. Der AI Agent Orchestrator sorge dabei dafür, dass die KI-Agenten nicht unkontrolliert agieren, sondern auf koordinierten Weise zusammenarbeiten, erklärt Zilbershot. „Sie wollen ja sicher nicht nur diese KI-Agenten einführen und frei im Unternehmen ‚herumlaufen‘ lassen.“   Tausende von KI-Agenten geplant Bei der von ServiceNow anvisierten Mengen von KI-Agenten im Unternehmen wäre das auch nicht ratsam. Um die dringlichsten Probleme der Kunden zu lösen, will der Automatisierungsexperte zahlreiche sofort einsatzbereite AI Agents auf der Now Platform bereitstellen. Diese könnten autonom Anwendungsfälle wie Probleme mit Passwörtern oder auf dem Anwender-PC installierter Software lösen oder Zeiten für die Einarbeitung eines neuen Mitarbeiters einzubuchen, führt Zilbershot auf.  Der Managerin zufolge kommen täglich neue KI-Agenten dazu und bis Mai sollen bereits mehrere Tausend solcher kleinen Helfer zur Verfügung stehen. Weitere AI Agents, die von Partnern wie Accenture, Cognizant und Deloitte entwickelt und veröffentlicht werden, fänden sich im ServiceNow Store.   Darüber hinaus können Unternehmen im neuen ServiceNow AI Agent Studio auch selbst individuelle AI Agents erstellen und implementieren, die sich nahtlos in unternehmensweite Workflows und Daten integrieren sollen. Laut SeviceNow ist dies über eine sprachbasierte No-Code-Oberfläche möglich, in der die Anwender das gewünschte Ergebnis, die Rolle der AI Agents und die Prozesse, die sie aufbauen möchten, in natürlicher Sprache beschreiben. Wie Zilbershot betont, müsse man dazu auch keine speziellen Prompts verwenden. Das System übernehme dann im Hintergrund die Verarbeitung, um die Sprache in Eingabeaufforderungen umzuwandeln.  ServiceNow AI Agent Orchestrator und AI Agent Studio sollen ab März 2025 für Pro-Plus- und Enterprise-Plus-Kunden verfügbar sein.  

ServiceNow will Ordnung ins KI-Agenten-Chaos bringen​ Geht es nach ServiceNow (und anderen Anbietern), sollen KI-Agenten bald zahlreiche Aufgaben im Business-Umfeld selbstständig erledigen können.JLco Julia Amaral/Shutterstock

Gibt es einen sicheren Trend für 2025 und darüber hinaus, so sind das KI-Agenten, die komplexe Geschäftsprozesse unabhängig übernehmen können. Dieser Ansicht ist auch ServiceNow. „Wir glauben fest daran, dass Agentic AI die nächste Evolutionsstufe für ServiceNow darstellt“, erklärt Dorit Zilbershot, Vice President, Product Management, AI, im CW-Gespräch. „Wir haben in den letzten zwanzig Jahren Workflows automatisiert. Agenten bieten uns eine neue Möglichkeit, unstrukturierte Workflows voranzutreiben. Sie sind anpassungsfähig, interaktiv und bringen dem Unternehmen wirklich mehr Wert.“ 

Die Agenten kommen 

Seine ersten KI-Agenten hatte ServiceNow bereits im September 2024 vorgestellt. Um in diesem Bereich voranzukommen, gab ServiceNow erst vor kurzem die Übernahme von Cuein bekannt. Die Technologie des KI-Startups, von Cuein selbst als „Copilot für Customer Experience Teams“ bezeichnet, ist darauf ausgelegt, fragmentierte Konversationen zu interpretieren und umfassende Erkenntnisse zu liefern. Diese können die KI-Agenten nutzen, um fundierte Entscheidungen zu treffen und entsprechend zu handeln. 

„Cuein kann uns dabei helfen, mit unserem Agentic-AI-Fahrplan schneller voranzukommen“, so Zilbershot. „Wir können damit schneller Gespräche und Interaktionen in strukturierte Arbeitsabläufe umwandeln, erhalten Echtzeit-Einblicke in KI-Agenten und können ihre Arbeit quantifizieren.“ 

Wenngleich aktuell KI-Agenten und Copilots wie Pilze aus dem Boden schießen, sieht sich das Unternehmen dabei in einer optimalen Ausgangsposition. Der ServiceNow-Managerin zufolge gebe es eine Reihe von Unterscheidungsmerkmalen gegenüber der Konkurrenz.  

Dazu zähle zum einen eine hybride Plattform, die sowohl agentenbasierte als auch regelbasierte Arbeitsabläufe unterstützt, erklärt Zilbershot. Dies ermögliche es, KI-Agenten für unvorhersehbare Anwendungsfälle einzusetzen, die Anpassungsfähigkeit und Interaktion mit Menschen erfordern, während gleichzeitig strukturierte Arbeitsabläufe beibehalten werden könnten. 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?quality=50&strip=all 3248w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=2048%2C1151&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Dorit-Zilbershot_16.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Dorit Zilbershot, Vice President, Product Management, AI bei ServiceNowServiceNow

Außerdem hätten die KI-Agenten von ServiceNow Zugriff auf alle Analysefähigkeiten, Arbeitsabläufe der Kunden der letzten zwanzig Jahre und Informationen innerhalb und außerhalb von ServiceNow. So könnten die Kunden, von Anfang an von agentenbasierter KI profitieren, so die KI-Expertin: „Es ist im Grunde so, als hätte man einen neuen Mitarbeiter, der bereits alles über das Unternehmen weiß, ohne irgendeine Schulung.“ 

Zusätzlich stelle ServiceNow nun mit AI Agent Orchestrator einen Kontrollturm bereit, der die KI-Agenten verwaltet. Tritt beispielsweise ein Netzwerkproblem auf, so ein von ServiceNow beschriebenes Szenario, verwalte der AI Agent Orchestrator benutzerdefinierte Agenten, die Informationen aus Quellen wie Network Management Software, SIEM (Security Information & Event Management) Systeme und Application Performance Monitoring beziehen, um das Problem zu beheben. Das Problem werde identifiziert, ein Lösungsplan erstellt und – nachdem ein menschlicher Netzwerkoperator ihn genehmigt habe – ausgeführt.

Der AI Agent Orchestrator sorge dabei dafür, dass die KI-Agenten nicht unkontrolliert agieren, sondern auf koordinierten Weise zusammenarbeiten, erklärt Zilbershot. „Sie wollen ja sicher nicht nur diese KI-Agenten einführen und frei im Unternehmen ‚herumlaufen‘ lassen.“  

Tausende von KI-Agenten geplant

Bei der von ServiceNow anvisierten Mengen von KI-Agenten im Unternehmen wäre das auch nicht ratsam. Um die dringlichsten Probleme der Kunden zu lösen, will der Automatisierungsexperte zahlreiche sofort einsatzbereite AI Agents auf der Now Platform bereitstellen. Diese könnten autonom Anwendungsfälle wie Probleme mit Passwörtern oder auf dem Anwender-PC installierter Software lösen oder Zeiten für die Einarbeitung eines neuen Mitarbeiters einzubuchen, führt Zilbershot auf. 

Der Managerin zufolge kommen täglich neue KI-Agenten dazu und bis Mai sollen bereits mehrere Tausend solcher kleinen Helfer zur Verfügung stehen. Weitere AI Agents, die von Partnern wie Accenture, Cognizant und Deloitte entwickelt und veröffentlicht werden, fänden sich im ServiceNow Store.  

Darüber hinaus können Unternehmen im neuen ServiceNow AI Agent Studio auch selbst individuelle AI Agents erstellen und implementieren, die sich nahtlos in unternehmensweite Workflows und Daten integrieren sollen. Laut SeviceNow ist dies über eine sprachbasierte No-Code-Oberfläche möglich, in der die Anwender das gewünschte Ergebnis, die Rolle der AI Agents und die Prozesse, die sie aufbauen möchten, in natürlicher Sprache beschreiben. Wie Zilbershot betont, müsse man dazu auch keine speziellen Prompts verwenden. Das System übernehme dann im Hintergrund die Verarbeitung, um die Sprache in Eingabeaufforderungen umzuwandeln. 

ServiceNow AI Agent Orchestrator und AI Agent Studio sollen ab März 2025 für Pro-Plus- und Enterprise-Plus-Kunden verfügbar sein. 

ServiceNow will Ordnung ins KI-Agenten-Chaos bringen​ Read More »

DeepSeek R1 – gefährlich disruptiv?​

DeepSeek R1 – gefährlich disruptiv?​

Allgemein

DeepSeek AI hat das Generative-AI-Game quasi über Nacht auf den Kopf gestellt. Das sollten Unternehmen wissen, bevor sie die Anwendung einsetzen.Rokas Tenys | shutterstock.com Ende 2022 löste ChatGPT den KI-Hype der Neuzeit aus und veranlasste die Tech-Industrie, ihre Zukunft neu zu bewerten. Das chinesische Startup DeepSeek AI konnte Ähnliches bewerkstelligen – nur im Laufe eines Wochenendes. Das bis vor kurzem noch unbekannte Jungunternehmen aus dem Reich der Mitte hat sich in kürzester Zeit als potenzieller, neuer KI-Gamechanger hervorgetan und dadurch an der Wall Street für panische Reaktionen gesorgt. Das grundlegende Versprechen des chinesischen Startups: Sein KI-Modell soll dieselbe Performance wie die „westlichen“ Konkurrenzmodelle von OpenAI, Meta und Co. realisieren, aber zu einem Bruchteil der Kosten. Inzwischen zählen auch prominente Tech-Persönlichkeiten zur Fanbase von DeepSeek AI – zum Beispiel Intels ehemaliger CEO Pat Gelsinger. Er ist davon überzeugt, dass das chinesische Startup „dazu beitragen wird, der zunehmend geschlossenen Welt der Foundational AI Models einen Neustart zu ermöglichen“, wie er in einem überschwänglichen Post auf X kundtut: Wisdom is learning the lessons we thought we already knew. DeepSeek reminds us of three important learnings from computing history:1) Computing obeys the gas law. Making it dramatically cheaper will expand the market for it. The markets are getting it wrong, this will make AI…— Pat Gelsinger (@PGelsinger) January 27, 2025 Aus Unternehmensperspektive sollte der virale Über-Nacht-Erfolg der Chinesen allerdings auch kritische Fragen aufwerfen. Zum Beispiel: Wie steht es wirklich um die Performanz von DeepSeek R1? Welche Datenschutzrisiken ergeben sich daraus, das chinesische KI-Modell im Unternehmen einzusetzen? Wie sicher ist DeepSeek R1 eigentlich? In diesem Artikel versuchen wir, den Antworten auf diese Fragen näherzukommen. “Organisationen sollten sich lieber zurückhalten” Glaubt man DeepSeek AI, soll das KI-Modell R1 sein OpenAI-Äquivalent (o1-mini) in diversen mathematischen und logischen Tests übertreffen können. Zu allem Überfluss ist DeepSeeks R1 mit einer MIT-Lizenz ausgestattet, die es uneingeschränkt gestattet, das KI-Modell kommerziell zu nutzen, zu modifizieren und zu vertreiben. Mit seiner „Zero-Day-Disruption“ stellt DeepSeek AI die Preisstrukturen, die OpenAI, Meta und Co. für ihre Modelle vorsehen, erfolgreich in Frage, wie nicht zuletzt die Reaktion an den Börsen zeigen. Die Verunsicherung ist spürbar: Eventuell benötigt man ja gar keine ausufernden Chip-Cluster, wie sie die Hyperscaler propagieren und kann performante KI-Lösungen auch wesentlich günstiger beziehen, respektive entwickeln? Es ist durchaus möglich, dass DeepSeek R1 das Potenzial hat, die Kosten für Generative AI allgemein zu senken und den LLM-Wettbewerb neu anzuheizen. Die anhaltenden Bemühungen der US-Regierung, chinesische Unternehmen von fortschrittlichen KI-Chips fernzuhalten, hat sich durch DeepSeeks KI-Vorstoß nebenbei ebenfalls als wirkungslos erwiesen – und wohl auch dazu beigetragen, dass die westlichen KI-Player davon (besonders) kalt erwischt wurden. Inzwischen stürzen sich bereits weltweit Scharen von Entwicklern – und Mitarbeitern – auf das KI-Modell von DeepSeek, um es auf Herz und Nieren zu testen (auch wenn der API-Zugriff aktuell wegen eines vermuteten DDoS-Angriffs eingeschränkt ist; Stand 30.01.2025). An dieser Stelle warnt der britische Sicherheitsexperte Graham Cluley: „Man kann jedem, der die App installieren und nutzen möchte, nur zur Vorsicht raten, insbesondere wenn dabei sensible Unternehmensdaten ins Spiel kommen. Organisationen sollten sich mit Blick auf eine umfassende Nutzung lieber zurückhalten, bis die Anwendung gründlicher überprüft wurde – so wie sie es bei jeder neuen App tun würden.“ Dennoch ist der Cybersicherheitsexperte davon überzeugt, dass DeepSeek AI den etablierten Silicon-Valley-Playern Sorgen bereiten sollte: „Wenn die Chinesen tatsächlich in der Lage waren, eine wettbewerbsfähige KI zu entwickeln, die die Lösungen etablierter Tech-Giganten mit Blick auf die Entwicklungskosten massiv unterbietet und mit einem Bruchteil der Hardware auskommt, wird das die Karten neu mischen.“ Mit Blick auf das Preis-Leistungs-Versprechen von DeepSeek AI sind nicht wenige Marktbeobachter jedoch skeptisch. Stacy Rasgon, Senior Analyst bei Bernstein Research zum Beispiel: „DeepSeek hat natürlich nicht OpenAI für fünf Millionen Dollar ‚nachgebaut‘“, konstatiert der Experte im Rahmen einer Kundenmitteilung. Er fügt hinzu: „Diese vielzitierte Zahl wurde auf Grundlage eines Mietpreises von zwei Dollar pro GPU-Stunde berechnet. Das kann man machen, entspricht aber nicht wirklich den Tatsachen und berücksichtigt vor allem nicht sämtliche anderen Kosten, die in Zusammenhang mit früheren Forschungsinitiativen zu Architekturen, Algorithmen oder Daten angefallen sind.“   “DeepSeek R1 ist höchst vulnerabel” Der Threat-Intelligence-Anbieter Kela hat sich in einer aktuellen Analyse auch bereits eingehend mit dem Security-Niveau von DeepSeek R1 auseinandergesetzt. Dabei kommen die Sicherheitsexperten zu besorgniserregenden Ergebnissen: „Wir konnten beobachten, dass DeepSeek R1 ChatGPT ähnlich ist, aber signifikant mehr Schwachstellen aufweist. Unser Red Team konnte das Modell in einer Vielzahl von Szenarien jailbreaken und so bösartige Inhalte generieren.“     So konnten die Kela-Experten nach eigener Auskunft DeepSeek R1 ohne Probleme dazu bringen, eine „schadhafte Persona“ anzunehmen – und anschließend unter anderem Tipps dazu auszuspucken, wie man ein professionelles Geldwäschenetzwerk aufzieht. „Wichtig ist in diesem Zusammenhang, dass dieser ‚Evil Jailbreak‘ in GPT-4 und GPT-4o längst durch einen Patch verhindert wird. Bei DeepSeek R1 war das hingegen problemlos möglich, was demonstriert, dass dieses KI-Modell höchst vulnerabel ist“, konstatieren die Experten. Die Forscher konnten DeepSeeks KI-Modell auch dazu bringen, Malware zu generieren und den Prozess dabei Schritt für Schritt aufzudröseln – inklusive einschlägiger Code Snippets. „Das Modell von DeepSeek AI demonstriert eine starke Performance und Effizienz und ist ein potenzieller Herausforderer für die Tech-Giganten. In Sachen Security, Datenschutz und -sicherheit hinkt DeepSeek R1 allerdings hinterher“, resümieren die Kela-Forscher und mahnen Unternehmen zur Vorsicht. Als chinesisches Unternehmen unterliege DeepSeek AI zudem der chinesischen Gesetzgebung und damit auch der Pflicht, bestimmte Daten mit Regierungsbehörden zu teilen, geben die Forscher darüber hinaus zu bedenken und ergänzen: „Das Unternehmen behält sich auch das Recht vor, die In- und Outputs der Benutzer dazu zu nutzen, seine Services zu optimieren – ohne dabei eine klare Opt-Out-Option anzubieten.“ Auch die Sicherheitsexperten von Wiz Security haben sich nach dem überraschenden Hype um DeepSeek AI mit dem chinesischen KI-Startup beschäftigt – beziehungsweise mit seiner externen Security Posture. In diesem Rahmen sind die Wiz-Experten auf eine verheerende Sicherheitslücke gestoßen, wie sie in einem ausführlichen Blogbeitrag darlegen. BREAKING: Internal #DeepSeek database publicly exposed 🚨Wiz Research has discovered “DeepLeak” – a publicly accessible ClickHouse database belonging to DeepSeek, exposing highly sensitive information, including secret keys, plain-text chat messages, backend details, and logs. pic.twitter.com/C7HZTKNO3p— Wiz (@wiz_io) January 29, 2025 Demnach konnten die Security-Forscher im Netz eine öffentlich zugängliche Clickhouse-Datenbank von DeepSeek AI identifizieren, die es ermöglichte, auf sensible interne Daten zuzugreifen: “Dabei wurden unter anderem eine Million Codezeilen offengelegt, die Chat-Verläufe, geheime Schlüssel sowie Backend-Details und weitere hochsensible Informationen enthielten”, konstatieren die Forscher und fügen hinzu, das DeepSeek-Team umgehend über ihre Erkenntnisse informiert zu haben. Die Sicherheitslücke sei daraufhin zügig geschlossen worden. Das ändert jedoch nichts an der Tatsache, dass Cybersicherheit bei DeepSeek AI bislang scheinbar keine Top-Priorität darstellt. Zumindest legt das der Umfang der von Wiz identifizierten Schwachstellen nahe: “Es war möglich, die vollständige Kontrolle über diese Datenbank zu übernehmen – und zwar ohne sich authentifizieren zu müssen. Damit wären potenziell auch Privilege-Escalation-Angriffe innerhalb der DeepSeek-Umgebung möglich gewesen.” Wie die Forscher von Wiz festhalten, drehe sich im Bereich KI Security vieles um futuristische Bedrohungen, während echte Gefahren, die aus grundlegenden Risiken wie versehentlich offengelegten Datenbanken erwachsen, unter den Tisch fallen würden: “Diese fundamentalen Sicherheitsrisiken sollten für Security-Teams weiterhin oberste Priorität haben”, mahnen die Forscher. Angesichts dieser Erkenntnisse sind staatlich verordnete Zensurmaßnahmen (ein chinesischer Host vorausgesetzt) mit Blick auf DeepSeek AI vielleicht noch das geringste Problem:   data-embed-height=”740″>Just a reminder about the cost of censorship byu/jewdai inChatGPT Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

DeepSeek R1 – gefährlich disruptiv?​ DeepSeek AI hat das Generative-AI-Game quasi über Nacht auf den Kopf gestellt. Das sollten Unternehmen wissen, bevor sie die Anwendung einsetzen.Rokas Tenys | shutterstock.com

Ende 2022 löste ChatGPT den KI-Hype der Neuzeit aus und veranlasste die Tech-Industrie, ihre Zukunft neu zu bewerten. Das chinesische Startup DeepSeek AI konnte Ähnliches bewerkstelligen – nur im Laufe eines Wochenendes. Das bis vor kurzem noch unbekannte Jungunternehmen aus dem Reich der Mitte hat sich in kürzester Zeit als potenzieller, neuer KI-Gamechanger hervorgetan und dadurch an der Wall Street für panische Reaktionen gesorgt.

Das grundlegende Versprechen des chinesischen Startups: Sein KI-Modell soll dieselbe Performance wie die „westlichen“ Konkurrenzmodelle von OpenAI, Meta und Co. realisieren, aber zu einem Bruchteil der Kosten. Inzwischen zählen auch prominente Tech-Persönlichkeiten zur Fanbase von DeepSeek AI – zum Beispiel Intels ehemaliger CEO Pat Gelsinger. Er ist davon überzeugt, dass das chinesische Startup „dazu beitragen wird, der zunehmend geschlossenen Welt der Foundational AI Models einen Neustart zu ermöglichen“, wie er in einem überschwänglichen Post auf X kundtut:

Wisdom is learning the lessons we thought we already knew. DeepSeek reminds us of three important learnings from computing history:1) Computing obeys the gas law. Making it dramatically cheaper will expand the market for it. The markets are getting it wrong, this will make AI…— Pat Gelsinger (@PGelsinger) January 27, 2025

Aus Unternehmensperspektive sollte der virale Über-Nacht-Erfolg der Chinesen allerdings auch kritische Fragen aufwerfen. Zum Beispiel:

Wie steht es wirklich um die Performanz von DeepSeek R1?

Welche Datenschutzrisiken ergeben sich daraus, das chinesische KI-Modell im Unternehmen einzusetzen?

Wie sicher ist DeepSeek R1 eigentlich?

In diesem Artikel versuchen wir, den Antworten auf diese Fragen näherzukommen.

“Organisationen sollten sich lieber zurückhalten”

Glaubt man DeepSeek AI, soll das KI-Modell R1 sein OpenAI-Äquivalent (o1-mini) in diversen mathematischen und logischen Tests übertreffen können. Zu allem Überfluss ist DeepSeeks R1 mit einer MIT-Lizenz ausgestattet, die es uneingeschränkt gestattet, das KI-Modell kommerziell zu nutzen, zu modifizieren und zu vertreiben.

Mit seiner „Zero-Day-Disruption“ stellt DeepSeek AI die Preisstrukturen, die OpenAI, Meta und Co. für ihre Modelle vorsehen, erfolgreich in Frage, wie nicht zuletzt die Reaktion an den Börsen zeigen. Die Verunsicherung ist spürbar: Eventuell benötigt man ja gar keine ausufernden Chip-Cluster, wie sie die Hyperscaler propagieren und kann performante KI-Lösungen auch wesentlich günstiger beziehen, respektive entwickeln? Es ist durchaus möglich, dass DeepSeek R1 das Potenzial hat, die Kosten für Generative AI allgemein zu senken und den LLM-Wettbewerb neu anzuheizen.

Die anhaltenden Bemühungen der US-Regierung, chinesische Unternehmen von fortschrittlichen KI-Chips fernzuhalten, hat sich durch DeepSeeks KI-Vorstoß nebenbei ebenfalls als wirkungslos erwiesen – und wohl auch dazu beigetragen, dass die westlichen KI-Player davon (besonders) kalt erwischt wurden. Inzwischen stürzen sich bereits weltweit Scharen von Entwicklern – und Mitarbeitern – auf das KI-Modell von DeepSeek, um es auf Herz und Nieren zu testen (auch wenn der API-Zugriff aktuell wegen eines vermuteten DDoS-Angriffs eingeschränkt ist; Stand 30.01.2025).

An dieser Stelle warnt der britische Sicherheitsexperte Graham Cluley: „Man kann jedem, der die App installieren und nutzen möchte, nur zur Vorsicht raten, insbesondere wenn dabei sensible Unternehmensdaten ins Spiel kommen. Organisationen sollten sich mit Blick auf eine umfassende Nutzung lieber zurückhalten, bis die Anwendung gründlicher überprüft wurde – so wie sie es bei jeder neuen App tun würden.“

Dennoch ist der Cybersicherheitsexperte davon überzeugt, dass DeepSeek AI den etablierten Silicon-Valley-Playern Sorgen bereiten sollte: „Wenn die Chinesen tatsächlich in der Lage waren, eine wettbewerbsfähige KI zu entwickeln, die die Lösungen etablierter Tech-Giganten mit Blick auf die Entwicklungskosten massiv unterbietet und mit einem Bruchteil der Hardware auskommt, wird das die Karten neu mischen.“

Mit Blick auf das Preis-Leistungs-Versprechen von DeepSeek AI sind nicht wenige Marktbeobachter jedoch skeptisch. Stacy Rasgon, Senior Analyst bei Bernstein Research zum Beispiel: „DeepSeek hat natürlich nicht OpenAI für fünf Millionen Dollar ‚nachgebaut‘“, konstatiert der Experte im Rahmen einer Kundenmitteilung. Er fügt hinzu: „Diese vielzitierte Zahl wurde auf Grundlage eines Mietpreises von zwei Dollar pro GPU-Stunde berechnet. Das kann man machen, entspricht aber nicht wirklich den Tatsachen und berücksichtigt vor allem nicht sämtliche anderen Kosten, die in Zusammenhang mit früheren Forschungsinitiativen zu Architekturen, Algorithmen oder Daten angefallen sind.“  

“DeepSeek R1 ist höchst vulnerabel”

Der Threat-Intelligence-Anbieter Kela hat sich in einer aktuellen Analyse auch bereits eingehend mit dem Security-Niveau von DeepSeek R1 auseinandergesetzt. Dabei kommen die Sicherheitsexperten zu besorgniserregenden Ergebnissen: „Wir konnten beobachten, dass DeepSeek R1 ChatGPT ähnlich ist, aber signifikant mehr Schwachstellen aufweist. Unser Red Team konnte das Modell in einer Vielzahl von Szenarien jailbreaken und so bösartige Inhalte generieren.“    

So konnten die Kela-Experten nach eigener Auskunft DeepSeek R1 ohne Probleme dazu bringen, eine „schadhafte Persona“ anzunehmen – und anschließend unter anderem Tipps dazu auszuspucken, wie man ein professionelles Geldwäschenetzwerk aufzieht. „Wichtig ist in diesem Zusammenhang, dass dieser ‚Evil Jailbreak‘ in GPT-4 und GPT-4o längst durch einen Patch verhindert wird. Bei DeepSeek R1 war das hingegen problemlos möglich, was demonstriert, dass dieses KI-Modell höchst vulnerabel ist“, konstatieren die Experten. Die Forscher konnten DeepSeeks KI-Modell auch dazu bringen, Malware zu generieren und den Prozess dabei Schritt für Schritt aufzudröseln – inklusive einschlägiger Code Snippets.

„Das Modell von DeepSeek AI demonstriert eine starke Performance und Effizienz und ist ein potenzieller Herausforderer für die Tech-Giganten. In Sachen Security, Datenschutz und -sicherheit hinkt DeepSeek R1 allerdings hinterher“, resümieren die Kela-Forscher und mahnen Unternehmen zur Vorsicht. Als chinesisches Unternehmen unterliege DeepSeek AI zudem der chinesischen Gesetzgebung und damit auch der Pflicht, bestimmte Daten mit Regierungsbehörden zu teilen, geben die Forscher darüber hinaus zu bedenken und ergänzen: „Das Unternehmen behält sich auch das Recht vor, die In- und Outputs der Benutzer dazu zu nutzen, seine Services zu optimieren – ohne dabei eine klare Opt-Out-Option anzubieten.“

Auch die Sicherheitsexperten von Wiz Security haben sich nach dem überraschenden Hype um DeepSeek AI mit dem chinesischen KI-Startup beschäftigt – beziehungsweise mit seiner externen Security Posture. In diesem Rahmen sind die Wiz-Experten auf eine verheerende Sicherheitslücke gestoßen, wie sie in einem ausführlichen Blogbeitrag darlegen.

BREAKING: Internal #DeepSeek database publicly exposed 🚨Wiz Research has discovered “DeepLeak” – a publicly accessible ClickHouse database belonging to DeepSeek, exposing highly sensitive information, including secret keys, plain-text chat messages, backend details, and logs. pic.twitter.com/C7HZTKNO3p— Wiz (@wiz_io) January 29, 2025

Demnach konnten die Security-Forscher im Netz eine öffentlich zugängliche Clickhouse-Datenbank von DeepSeek AI identifizieren, die es ermöglichte, auf sensible interne Daten zuzugreifen: “Dabei wurden unter anderem eine Million Codezeilen offengelegt, die Chat-Verläufe, geheime Schlüssel sowie Backend-Details und weitere hochsensible Informationen enthielten”, konstatieren die Forscher und fügen hinzu, das DeepSeek-Team umgehend über ihre Erkenntnisse informiert zu haben. Die Sicherheitslücke sei daraufhin zügig geschlossen worden.

Das ändert jedoch nichts an der Tatsache, dass Cybersicherheit bei DeepSeek AI bislang scheinbar keine Top-Priorität darstellt. Zumindest legt das der Umfang der von Wiz identifizierten Schwachstellen nahe: “Es war möglich, die vollständige Kontrolle über diese Datenbank zu übernehmen – und zwar ohne sich authentifizieren zu müssen. Damit wären potenziell auch Privilege-Escalation-Angriffe innerhalb der DeepSeek-Umgebung möglich gewesen.”

Wie die Forscher von Wiz festhalten, drehe sich im Bereich KI Security vieles um futuristische Bedrohungen, während echte Gefahren, die aus grundlegenden Risiken wie versehentlich offengelegten Datenbanken erwachsen, unter den Tisch fallen würden: “Diese fundamentalen Sicherheitsrisiken sollten für Security-Teams weiterhin oberste Priorität haben”, mahnen die Forscher.

Angesichts dieser Erkenntnisse sind staatlich verordnete Zensurmaßnahmen (ein chinesischer Host vorausgesetzt) mit Blick auf DeepSeek AI vielleicht noch das geringste Problem:  

data-embed-height=”740″>Just a reminder about the cost of censorship byu/jewdai inChatGPT

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

DeepSeek R1 – gefährlich disruptiv?​ Read More »

In Deutschland fehlt der Strom für neue Rechenzentren​

In Deutschland fehlt der Strom für neue Rechenzentren​

Allgemein

Jerome Evans, Gründer und Geschäftsführer von firstcolo. firstcolo Herr Evans, US-Präsident Trump hat angekündigt, 500 Milliarden Dollar in KI-Rechenzentren zu investieren. Welche Auswirkungen hat das auf die RZ-Branche außerhalb der USA? Jerome Evans: Wenn wir das Thema etwas aus der Distanz betrachten, dann sehen wir, dass Trump sehr viel Dynamik in die Wirtschaftsentwicklung der USA bringt. Viele in Europa, aber auch in Deutschland, unterschätzen noch den langfristigen Einfluss von KI auf die zukünftige Wirtschaftsleistung von Staaten. Das heißt konkret? Jerome Evans: Trump positioniert die USA als KI-Hochburg, mit dem Ziel, einen Großteil der Wertschöpfung in diesem Bereich abzuschöpfen. Das Risiko für Europa ist dabei, dass wir die Souveränität über unsere Daten und die Digitalisierung verlieren. Bleiben die US-amerikanischen KI-Modelle führend, dann sind wir sehr abhängig. Ein Großteil der europäischen Firmen würde dann zusätzliche amerikanische Produkte nutzen und die Wertschöpfung würde aus den USA abgesaugt. Deutschland hat zu wenig Stromkapazität Das bedeutet für Deutschland? Jerome Evans: Die Wirtschaftsleistung in der EU, speziell in Deutschland, wird darunter leiden. Zumal noch hausgemachte Faktoren hinzukommen. So haben wir durch die Energiepolitik der letzten Dekade in Deutschland zu wenig Stromkapazität. Wir haben etwa an unseren Standorten in Frankfurt am Main freie Flächen für neue Rechenzentren. Diese können wir aber nicht ausbauen, da uns die Energieversorger bis 2033 nicht den benötigten Strom bereitstellen können. Ferner dauern die Genehmigungsverfahren zu lange, und es steht zu wenig Investitionskapital zur Verfügung, um die Strominfrastruktur schnell auszubauen. Zudem sind beispielsweise die Stromkosten deutlich höher als in den USA, primär getrieben durch die sehr hohen Netzentgelte in Deutschland. Wir zahlen teilweise das Zwei- bis Dreifache im Vergleich zu einem US-RZ-Betreiber. Wie gelingt es Ihnen dann, trotz höherer Kosten, Kunden für europäische Data Center zu finden? Jerome Evans: Viele Kunden gewinnen wir aufgrund unserer Positionierung alsFull-Service-Provider, dies bedeutet, dass wir unseren Kunden mehr und besseren Service als amerikanische Datacenter-Provider anbieten können. Zudem spielt uns die Regulatorik in die Karten, die verlangt, dass bestimmte Daten auf europäischem Boden beziehungsweise speziell in Deutschland gehostet werden müssen. Aber selbst diese Kunden nutzen oft auch Rechenzentren in anderen Ländern, in welchen die Betriebskosten geringer sind. Können es sich die Kunden aussuchen, gehen sie dahin, wo die Kosten geringer sind – etwa nach Skandinavien mit besseren klimatischen Bedingungen für Data Center. FÜR neue Rechenzentren fehlt hierzulande der Strom.dotshock/Shutterstock.com Sie sprachen davon, dass ein nicht einholbarer Vorsprung der Amerikaner droht. Was fördert diese Entwicklung? Jerome Evans: Die Amerikaner haben eine andere Einstellung zu Risikokapital und gehen mehr Investitionsrisiken ein. Geht die Wette auf, ist der Return on Investment umso höher. Damit steigen die Markteintrittsbarrieren für andere Wettbewerber immer mehr, da der Vorsprung der Tech-Giganten nicht mehr einholbar sein wird. Allein Microsoft oder Meta investieren jeweils 60 bis 80 Milliarden in KI-Rechenzentren in den kommenden Jahren. Solche Summen können europäische Konzerne beziehungsweise RZ-Betreiber nicht aufbringen. Selbst europäische Großprojekte werden häufig nur umgesetzt, wenn sie durch amerikanische Private-Equity-Geber finanziert werden. Europa braucht die Souveränität über die Daten Was müsste sich Ihrer Meinung nach in Europa ändern? Jerome Evans: Die Grundvoraussetzung für ein souveränes Europa ist die Souveränität über die Daten. Dafür braucht es gute Wettbewerbsbedingungen. So muss Strom günstiger und die Regulierung angepasst werden. Ferner muss die Energieherstellung einfacher werden. Deutschland hat eine schwierige Debatte um Atomkraft, während Frankreich beispielsweise einen hohen Nuklearanteil hat. Das europäische Energienetz kann helfen, aber wenn Deutschland nur Strom nimmt, destabilisiert das die Netze. Wird die verfügbare Strommenge nicht ausgebaut, steigen die Preise, was die Wettbewerbsbedingungen für Firmen hier weiter verschlechtert. Also könnten in letzter Konsequenz deutsche Rechenzentren ins Ausland abwandern? Jerome Evans: Ja, der Ausbau in Deutschland ist ein Tropfen auf den heißen Stein im Vergleich mit den angekündigten Rechenzentrumskapazitäten in den USA. Aber auch Länder wie Spanien oder Portugal, die sich besser aufstellen, haben bessere Chancen, internationale Player anzuziehen durch attraktive Standortbedingungen. Sie erwähnten, dass Sie freie Hallen für zusätzliche Rechenzentren haben, aber der Strom fehlt. Warum nutzen Sie keine Photovoltaik oder eigene Stromgeneratoren? Jerome Evans: Wir sind aktuell in der Planungsphase für ein neues Rechenzentrum mit 24 Megawatt Kapazität, während unsere bestehenden Zentren 2 Megawatt haben. Die großen Rechenzentren in den USA denken in ganz anderen Dimensionen, wie das Projekt Stargate mit 2 Gigawatt verdeutlicht. Photovoltaik braucht riesige Flächen, um einen solchen Strombedarf zu decken. Schließlich haben Server-Racks mit KI-Workload einen Strombedarf von 100 bis 200 kW pro Rack, während ein reguläres Server-Rack im Durchschnitt bei 5 bis 7,5 kW liegt. Herkömmliche grüne Energieerzeugungsmethoden reichen dafür schlicht nicht aus. Gaskraftwerke wären zwar eine Option, aber die Kosten pro erzeugter Kilowattstunde wären deutlich höher. Das würde uns noch weniger wettbewerbsfähig machen im internationalen Vergleich. Die Amerikaner arbeiten an Mini-Atomkraftwerken, wäre das eine Lösung? Jerome Evans: Egal ob Mini oder reguläre AKWs, ohne Nuklearstrom wird es nicht funktionieren, den zukünftigen Strombedarf zu decken. Das gilt für alle Länder, einschließlich den USA. Und ohne genügend Stromkapazität gibt es keine relevante Wettbewerbsfähigkeit in der Zukunft. Ohne Atomstrom wird es nicht funktionieren Was bleibt für deutsche Rechenzentrumsbetreiber dann noch übrig? Jerome Evans: Wir haben eine hohe Nachfrage, aber wir können nicht die Nachfrage von internationalen Großkonzernen bedienen. Unsere Strategie ist, auf Kunden im gehobenen Mittelstand sowie im Small-Enterprise-Bereich zu setzen. Wir versuchen, von diesem Wachstum so viel wie möglich mitzunehmen. Ferner ist es wichtig, dass wir mit der Politik im Austausch bleiben, um das Bewusstsein für diese Problematik zu schärfen. So wie Sie die Situation schildern, dürfte eine souveräne europäische Cloud ein Traum bleiben? Jerome Evans: Die Rahmenbedingungen dafür sind schlecht. Die Entwicklungsbudgets in Europa sind im Vergleich zu den USA und Asien sehr gering. Es ist ein Kampf David gegen Goliath. Und was bräuchte David, um das zu ändern? Jerome Evans: Wir brauchen eine höhere Risikobereitschaft der Kapitalgeber, um Produkte auf ähnlichem Qualitätsniveau wie die führenden internationale Player anbieten zu können. Es gibt einige Anbieter wie Schwarz IT, die gute Ambitionen haben. Zudem muss sich die Europäische Union dafür öffnen, KI-Potenziale nicht durch zu viel Regulierung in Bezug auf beispielsweise den Datenschutz zu „erdrücken“. Europa braucht mehr Risikobereitschaft Sie sprachen eingangs von den USA als KI-Hochburg, wo steht Europa? Jerome Evans: Es gibt nur wenige relevante europäische KI-Player. Die letzte Finanzierungsrunde von OpenAI hatte eine Bewertung von 150 Milliarden Euro und das Unternehmen konnte 6 Milliarden Risikokapital einsammeln. Diese Summen sind viel höher als das, was europäische Player zur Verfügung haben. So hat Mistral, als eines der führenden Projekte in Europa, im Juni 2024 rund 600 Millionen Euro Risikokapital erhalten.   Die führenden KI-Köpfe wandern deshalb ab und gehen dahin, wo sie die besten Voraussetzungen vorfinden. Firmen wie Aleph Alpha haben es deshalb sehr schwer, vergleichbare Produkte anzubieten. Sie konzentrieren sich eher auf B2B und Behörden, was eine clevere Entscheidung ist, um nicht unnötig Geld zu verbrennen. Müssen wir uns in letzter Konsequenz in Europa daran gewöhnen, weniger perfektionistisch zu sein und mehr Risiken einzugehen? Jerome Evans: Ja, mehr Risikobereitschaft ist der Schlüssel. In den USA wird mit dem Bau von Rechenzentren schon bei einer Bauvorabgenehmigung begonnen.  Fragen wie die Verfügbarkeit von Strom oder die endgültige Auslegung der Rechenzentren werden dann parallel während der Bauphase geklärt. Das Risiko erscheint zunächst höher, aber der mögliche Ertrag bei Erfolg ist entsprechend größer. Des Weiteren wünsche ich mir mehr politische Unterstützung für Unternehmer und Firmengründer, so wie sie Trump den lokalen Firmen aber auch den internationalen Konzernen in den USA gib 

In Deutschland fehlt der Strom für neue Rechenzentren​ Jerome Evans, Gründer und Geschäftsführer von firstcolo.
firstcolo

Herr Evans, US-Präsident Trump hat angekündigt, 500 Milliarden Dollar in KI-Rechenzentren zu investieren. Welche Auswirkungen hat das auf die RZ-Branche außerhalb der USA?

Jerome Evans: Wenn wir das Thema etwas aus der Distanz betrachten, dann sehen wir, dass Trump sehr viel Dynamik in die Wirtschaftsentwicklung der USA bringt. Viele in Europa, aber auch in Deutschland, unterschätzen noch den langfristigen Einfluss von KI auf die zukünftige Wirtschaftsleistung von Staaten.

Das heißt konkret?

Jerome Evans: Trump positioniert die USA als KI-Hochburg, mit dem Ziel, einen Großteil der Wertschöpfung in diesem Bereich abzuschöpfen. Das Risiko für Europa ist dabei, dass wir die Souveränität über unsere Daten und die Digitalisierung verlieren.

Bleiben die US-amerikanischen KI-Modelle führend, dann sind wir sehr abhängig. Ein Großteil der europäischen Firmen würde dann zusätzliche amerikanische Produkte nutzen und die Wertschöpfung würde aus den USA abgesaugt.

Deutschland hat zu wenig Stromkapazität

Das bedeutet für Deutschland?

Jerome Evans: Die Wirtschaftsleistung in der EU, speziell in Deutschland, wird darunter leiden. Zumal noch hausgemachte Faktoren hinzukommen. So haben wir durch die Energiepolitik der letzten Dekade in Deutschland zu wenig Stromkapazität. Wir haben etwa an unseren Standorten in Frankfurt am Main freie Flächen für neue Rechenzentren. Diese können wir aber nicht ausbauen, da uns die Energieversorger bis 2033 nicht den benötigten Strom bereitstellen können.

Ferner dauern die Genehmigungsverfahren zu lange, und es steht zu wenig Investitionskapital zur Verfügung, um die Strominfrastruktur schnell auszubauen. Zudem sind beispielsweise die Stromkosten deutlich höher als in den USA, primär getrieben durch die sehr hohen Netzentgelte in Deutschland. Wir zahlen teilweise das Zwei- bis Dreifache im Vergleich zu einem US-RZ-Betreiber.

Wie gelingt es Ihnen dann, trotz höherer Kosten, Kunden für europäische Data Center zu finden?

Jerome Evans: Viele Kunden gewinnen wir aufgrund unserer Positionierung alsFull-Service-Provider, dies bedeutet, dass wir unseren Kunden mehr und besseren Service als amerikanische Datacenter-Provider anbieten können. Zudem spielt uns die Regulatorik in die Karten, die verlangt, dass bestimmte Daten auf europäischem Boden beziehungsweise speziell in Deutschland gehostet werden müssen. Aber selbst diese Kunden nutzen oft auch Rechenzentren in anderen Ländern, in welchen die Betriebskosten geringer sind. Können es sich die Kunden aussuchen, gehen sie dahin, wo die Kosten geringer sind – etwa nach Skandinavien mit besseren klimatischen Bedingungen für Data Center.

FÜR neue Rechenzentren fehlt hierzulande der Strom.dotshock/Shutterstock.com

Sie sprachen davon, dass ein nicht einholbarer Vorsprung der Amerikaner droht. Was fördert diese Entwicklung?

Jerome Evans: Die Amerikaner haben eine andere Einstellung zu Risikokapital und gehen mehr Investitionsrisiken ein. Geht die Wette auf, ist der Return on Investment umso höher. Damit steigen die Markteintrittsbarrieren für andere Wettbewerber immer mehr, da der Vorsprung der Tech-Giganten nicht mehr einholbar sein wird.

Allein Microsoft oder Meta investieren jeweils 60 bis 80 Milliarden in KI-Rechenzentren in den kommenden Jahren. Solche Summen können europäische Konzerne beziehungsweise RZ-Betreiber nicht aufbringen. Selbst europäische Großprojekte werden häufig nur umgesetzt, wenn sie durch amerikanische Private-Equity-Geber finanziert werden.

Europa braucht die Souveränität über die Daten

Was müsste sich Ihrer Meinung nach in Europa ändern?

Jerome Evans: Die Grundvoraussetzung für ein souveränes Europa ist die Souveränität über die Daten. Dafür braucht es gute Wettbewerbsbedingungen.

So muss Strom günstiger und die Regulierung angepasst werden. Ferner muss die Energieherstellung einfacher werden. Deutschland hat eine schwierige Debatte um Atomkraft, während Frankreich beispielsweise einen hohen Nuklearanteil hat. Das europäische Energienetz kann helfen, aber wenn Deutschland nur Strom nimmt, destabilisiert das die Netze. Wird die verfügbare Strommenge nicht ausgebaut, steigen die Preise, was die Wettbewerbsbedingungen für Firmen hier weiter verschlechtert.

Also könnten in letzter Konsequenz deutsche Rechenzentren ins Ausland abwandern?

Jerome Evans: Ja, der Ausbau in Deutschland ist ein Tropfen auf den heißen Stein im Vergleich mit den angekündigten Rechenzentrumskapazitäten in den USA. Aber auch Länder wie Spanien oder Portugal, die sich besser aufstellen, haben bessere Chancen, internationale Player anzuziehen durch attraktive Standortbedingungen.

Sie erwähnten, dass Sie freie Hallen für zusätzliche Rechenzentren haben, aber der Strom fehlt. Warum nutzen Sie keine Photovoltaik oder eigene Stromgeneratoren?

Jerome Evans: Wir sind aktuell in der Planungsphase für ein neues Rechenzentrum mit 24 Megawatt Kapazität, während unsere bestehenden Zentren 2 Megawatt haben. Die großen Rechenzentren in den USA denken in ganz anderen Dimensionen, wie das Projekt Stargate mit 2 Gigawatt verdeutlicht.

Photovoltaik braucht riesige Flächen, um einen solchen Strombedarf zu decken. Schließlich haben Server-Racks mit KI-Workload einen Strombedarf von 100 bis 200 kW pro Rack, während ein reguläres Server-Rack im Durchschnitt bei 5 bis 7,5 kW liegt. Herkömmliche grüne Energieerzeugungsmethoden reichen dafür schlicht nicht aus. Gaskraftwerke wären zwar eine Option, aber die Kosten pro erzeugter Kilowattstunde wären deutlich höher. Das würde uns noch weniger wettbewerbsfähig machen im internationalen Vergleich.

Die Amerikaner arbeiten an Mini-Atomkraftwerken, wäre das eine Lösung?

Jerome Evans: Egal ob Mini oder reguläre AKWs, ohne Nuklearstrom wird es nicht funktionieren, den zukünftigen Strombedarf zu decken. Das gilt für alle Länder, einschließlich den USA. Und ohne genügend Stromkapazität gibt es keine relevante Wettbewerbsfähigkeit in der Zukunft.

Ohne Atomstrom wird es nicht funktionieren

Was bleibt für deutsche Rechenzentrumsbetreiber dann noch übrig?

Jerome Evans: Wir haben eine hohe Nachfrage, aber wir können nicht die Nachfrage von internationalen Großkonzernen bedienen. Unsere Strategie ist, auf Kunden im gehobenen Mittelstand sowie im Small-Enterprise-Bereich zu setzen. Wir versuchen, von diesem Wachstum so viel wie möglich mitzunehmen. Ferner ist es wichtig, dass wir mit der Politik im Austausch bleiben, um das Bewusstsein für diese Problematik zu schärfen.

So wie Sie die Situation schildern, dürfte eine souveräne europäische Cloud ein Traum bleiben?

Jerome Evans: Die Rahmenbedingungen dafür sind schlecht. Die Entwicklungsbudgets in Europa sind im Vergleich zu den USA und Asien sehr gering. Es ist ein Kampf David gegen Goliath.

Und was bräuchte David, um das zu ändern?

Jerome Evans: Wir brauchen eine höhere Risikobereitschaft der Kapitalgeber, um Produkte auf ähnlichem Qualitätsniveau wie die führenden internationale Player anbieten zu können. Es gibt einige Anbieter wie Schwarz IT, die gute Ambitionen haben. Zudem muss sich die Europäische Union dafür öffnen, KI-Potenziale nicht durch zu viel Regulierung in Bezug auf beispielsweise den Datenschutz zu „erdrücken“.

Europa braucht mehr Risikobereitschaft

Sie sprachen eingangs von den USA als KI-Hochburg, wo steht Europa?

Jerome Evans: Es gibt nur wenige relevante europäische KI-Player. Die letzte Finanzierungsrunde von OpenAI hatte eine Bewertung von 150 Milliarden Euro und das Unternehmen konnte 6 Milliarden Risikokapital einsammeln. Diese Summen sind viel höher als das, was europäische Player zur Verfügung haben. So hat Mistral, als eines der führenden Projekte in Europa, im Juni 2024 rund 600 Millionen Euro Risikokapital erhalten.  

Die führenden KI-Köpfe wandern deshalb ab und gehen dahin, wo sie die besten Voraussetzungen vorfinden. Firmen wie Aleph Alpha haben es deshalb sehr schwer, vergleichbare Produkte anzubieten. Sie konzentrieren sich eher auf B2B und Behörden, was eine clevere Entscheidung ist, um nicht unnötig Geld zu verbrennen.

Müssen wir uns in letzter Konsequenz in Europa daran gewöhnen, weniger perfektionistisch zu sein und mehr Risiken einzugehen?

Jerome Evans: Ja, mehr Risikobereitschaft ist der Schlüssel. In den USA wird mit dem Bau von Rechenzentren schon bei einer Bauvorabgenehmigung begonnen.  Fragen wie die Verfügbarkeit von Strom oder die endgültige Auslegung der Rechenzentren werden dann parallel während der Bauphase geklärt. Das Risiko erscheint zunächst höher, aber der mögliche Ertrag bei Erfolg ist entsprechend größer. Des Weiteren wünsche ich mir mehr politische Unterstützung für Unternehmer und Firmengründer, so wie sie Trump den lokalen Firmen aber auch den internationalen Konzernen in den USA gib

In Deutschland fehlt der Strom für neue Rechenzentren​ Read More »

Hey Google, richtig ist besser als schnell!​

Hey Google, richtig ist besser als schnell!​

Allgemein

Die Gemini-Ära ist laut unserem Autor bislang vor allem enttäuschend.Rokas Tenys | shutterstock.com Wie Sie sich sicher bereits denken können, ist dieser Artikel kein Loblied auf die revolutionären Fähigkeiten generativer künstlicher Intelligenz (Generative AI; GenAI). Statt auf den (mittlerweile etwas schwächelnden) Hype-Train aufzuspringen, sollten wir lieber einen realistischen Blick darauf werfen, wie diese Systeme aktuell funktionieren und was sie leisten können. Tut man das, gelangt man schnell zur Erkenntnis, dass aktuelle GenAI-Ausformungen wie Gemini vor allem eines sind: miserabel schlecht. Dennoch scheinen das alle Beteiligten einfach hinzunehmen und tun so, als wäre das kein Problem. Fast alle. Denn ein Tech-Gigant tanzt dabei aus der Reihe und hat den Hype-Köder scheinbar nicht geschluckt. Stattdessen nimmt dieser Konzern sich die Zeit, eine ausgefeilte Generative-AI-Strategie zu entwickeln und Schritt für Schritt umzusetzen. Damit verfolgt Amazon Web Services (AWS) einen völlig anderen Ansatz als Google und Konsorten – der meiner Meinung nach deutlich erfolgversprechender ist. Dabei bin ich eigentlich kein Fan von Amazon – und seinem Gebaren. Geht es aber um generative KI, zeigt AWS, wie Unternehmen an die Technologie herangehen sollten. Im Folgenden lesen Sie, wie ich zu diesem Schluss komme. Die bizarre Welt von Gemini & Co. Die Financial Times (FT) hat kürzlich einen Artikel veröffentlicht (Zugriff kostenpflichtig), der einen schönen Überblick darüber bietet, wie AWS aktuell alles daransetzt, seine virtuelle Assistenz Alexa mit GenAI aufzurüsten – und sie in „Agentenform“ neu aufzusetzen. Im Gespräch mit der FT teilt Rohit Prasad, Leiter der AGI-Teams bei AWS, mit, dass die „GenAI-Alexa“ vorher noch einige technische Hürden überwinden müsse. „Halluzinationen müssen gegen Null gehen. Das ist in der Branche immer noch ein ungelöstes Problem – aber wir arbeiten hart daran, es zu lösen“, verspricht Prasad im Interview. Offensichtlich hat man bei AWS erkannt, dass Verfehlungen dieser Art der Unternehmens- und Markenreputation nicht zuträglich sind – und will im Gegensatz zur Konkurrenz nicht besonders schnell GenAI-Funktionen bereitstellen – sondern legt lieber Wert darauf, dass diese besonders ausgereift sind. Dass diese Strategie höchst sinnvoll und angebracht ist, beweisen Systeme wie Gemini oder ChatGPT jeden Tag aufs Neue: Sie beeindrucken zwar, wenn es darum geht, (eindeutige) Daten zu verarbeiten, existierende Texte zusammenzufassen oder eng definierte, eindeutig objektive Tasks zu übernehmen. Die Tatsache, die dabei jedoch zuverlässig beiseitegeschoben wird: Diese Tools sind nicht geeignet, um überall eingesetzt zu werden. Generative AI ist nicht zu gebrauchen, wenn sie kreativ sein oder umfassend recherchieren, analysieren und sachliche Antworten liefern soll. Und wir als Benutzer brauchen die Technologie auch nicht in jedem Bereich. Wird sie dennoch überall integriert, so wie Google das derzeit propagiert, könnte das am Ende sogar mehr Schaden als Nutzen bringen. Schließlich kennen generative KI-Systeme das Konzept der Fakten bekanntermaßen nicht: Sie sagen lediglich auf der Grundlage von Wahrscheinlichkeiten Wörter vorher. Die Halluzinationen, die ChatGPT, Gemini und andere Lösungen daraus spinnen, mögen zwar zeitweise amüsant sein, stellen aber auch ein ernstzunehmendes Problem dar. Womit wir wieder bei Amazon wären. Eile mit Weile Bezüglich der kommenden „Agenten-Alexa“ ist vor allem auffällig, dass die Bemühungen von AWS von diversen Marktbeobachtern und Insidern negativ dargestellt werden. So kritisierte etwa Mihail Eric, ehemaliger Research Scientist im Alexa-Team von AWS, den Konzern öffentlich. Das Unternehmen habe es verpasst, mit der neuen Alexa zum unangefochtenen Marktführer im Bereich Conversational AI aufzusteigen. Ironischerweise ist es meiner Auffassung nach genau diese Haltung, die AWS und seine GenAI-Bemühungen von der Konkurrenz abhebt – und die sich auf lange Sicht auszahlen könnte. Denn vor allem Google setzt wirklich alles daran, Generative AI überall einzubinden – egal ob das Sinn macht oder nicht. Und die meisten Menschen begegnen diesen Systemen nicht mit dem nötigen Maß an Skepsis. Sie nehmen sich nicht die Zeit, darüber nachzudenken, wie sie ihre Fragen stellen – oder die KI-Outputs zu überprüfen. Sie stellen Fragen, sehen oder hören Antworten und gehen davon aus, dass diese korrekt sind. Und selbst wenn dabei nur in zehn Prozent der Fälle halluziniert wird, sind solche Lösungen wertlos, weil man sich nicht auf sie verlassen kann. Mit anderen Worten: Google (und alle anderen, die diesem Ansatz verfallen sind), haben kurzfristige Gewinne im Blick und sind dafür bereit, langfristige Einbußen beim Benutzervertrauen hinzunehmen. Zwar hat auch Google schon lange vor dem Release von ChatGPT an generativer KI gearbeitet. Dann sorgte der Hype, den OpenAI Ende 2022 mit seinem Chatbot auslöste, aber offensichtlich dafür, dass man sich beim Suchmaschinenriesen dachte: „Komm egal, das ist jetzt gut genug und muss raus“ – und ein System auf den Markt warf, dass nicht für die Primetime bereit war und es bis heute nicht ist.   Genau an dieser Stelle agiert Amazon Web Services meiner Meinung nach deutlich zielführender: Statt Alexa im Schnellverfahren in ein halbgares GenAI-System zu verwandeln, nimmt sich der Konzern die Zeit, die nötig ist, um ein ausgereiftes Produkt mit einer konsistenten User Experience zu entwickeln. Ob Amazon dieses Muster beibehalten kann oder irgendwann durch den Druck der Investoren dazu getrieben wird, auf die „Passt schon so“-Strategie von Google und Co. umzuschwenken, bleibt abzuwarten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Hey Google, richtig ist besser als schnell!​ Die Gemini-Ära ist laut unserem Autor bislang vor allem enttäuschend.Rokas Tenys | shutterstock.com

Wie Sie sich sicher bereits denken können, ist dieser Artikel kein Loblied auf die revolutionären Fähigkeiten generativer künstlicher Intelligenz (Generative AI; GenAI). Statt auf den (mittlerweile etwas schwächelnden) Hype-Train aufzuspringen, sollten wir lieber einen realistischen Blick darauf werfen, wie diese Systeme aktuell funktionieren und was sie leisten können. Tut man das, gelangt man schnell zur Erkenntnis, dass aktuelle GenAI-Ausformungen wie Gemini vor allem eines sind: miserabel schlecht. Dennoch scheinen das alle Beteiligten einfach hinzunehmen und tun so, als wäre das kein Problem.

Fast alle. Denn ein Tech-Gigant tanzt dabei aus der Reihe und hat den Hype-Köder scheinbar nicht geschluckt. Stattdessen nimmt dieser Konzern sich die Zeit, eine ausgefeilte Generative-AI-Strategie zu entwickeln und Schritt für Schritt umzusetzen. Damit verfolgt Amazon Web Services (AWS) einen völlig anderen Ansatz als Google und Konsorten – der meiner Meinung nach deutlich erfolgversprechender ist. Dabei bin ich eigentlich kein Fan von Amazon – und seinem Gebaren. Geht es aber um generative KI, zeigt AWS, wie Unternehmen an die Technologie herangehen sollten.

Im Folgenden lesen Sie, wie ich zu diesem Schluss komme.

Die bizarre Welt von Gemini & Co.

Die Financial Times (FT) hat kürzlich einen Artikel veröffentlicht (Zugriff kostenpflichtig), der einen schönen Überblick darüber bietet, wie AWS aktuell alles daransetzt, seine virtuelle Assistenz Alexa mit GenAI aufzurüsten – und sie in „Agentenform“ neu aufzusetzen. Im Gespräch mit der FT teilt Rohit Prasad, Leiter der AGI-Teams bei AWS, mit, dass die „GenAI-Alexa“ vorher noch einige technische Hürden überwinden müsse. „Halluzinationen müssen gegen Null gehen. Das ist in der Branche immer noch ein ungelöstes Problem – aber wir arbeiten hart daran, es zu lösen“, verspricht Prasad im Interview.

Offensichtlich hat man bei AWS erkannt, dass Verfehlungen dieser Art der Unternehmens- und Markenreputation nicht zuträglich sind – und will im Gegensatz zur Konkurrenz nicht besonders schnell GenAI-Funktionen bereitstellen – sondern legt lieber Wert darauf, dass diese besonders ausgereift sind. Dass diese Strategie höchst sinnvoll und angebracht ist, beweisen Systeme wie Gemini oder ChatGPT jeden Tag aufs Neue: Sie beeindrucken zwar, wenn es darum geht, (eindeutige) Daten zu verarbeiten, existierende Texte zusammenzufassen oder eng definierte, eindeutig objektive Tasks zu übernehmen. Die Tatsache, die dabei jedoch zuverlässig beiseitegeschoben wird: Diese Tools sind nicht geeignet, um überall eingesetzt zu werden.

Generative AI ist nicht zu gebrauchen, wenn sie kreativ sein oder umfassend recherchieren, analysieren und sachliche Antworten liefern soll. Und wir als Benutzer brauchen die Technologie auch nicht in jedem Bereich. Wird sie dennoch überall integriert, so wie Google das derzeit propagiert, könnte das am Ende sogar mehr Schaden als Nutzen bringen. Schließlich kennen generative KI-Systeme das Konzept der Fakten bekanntermaßen nicht: Sie sagen lediglich auf der Grundlage von Wahrscheinlichkeiten Wörter vorher. Die Halluzinationen, die ChatGPT, Gemini und andere Lösungen daraus spinnen, mögen zwar zeitweise amüsant sein, stellen aber auch ein ernstzunehmendes Problem dar. Womit wir wieder bei Amazon wären.

Eile mit Weile

Bezüglich der kommenden „Agenten-Alexa“ ist vor allem auffällig, dass die Bemühungen von AWS von diversen Marktbeobachtern und Insidern negativ dargestellt werden. So kritisierte etwa Mihail Eric, ehemaliger Research Scientist im Alexa-Team von AWS, den Konzern öffentlich. Das Unternehmen habe es verpasst, mit der neuen Alexa zum unangefochtenen Marktführer im Bereich Conversational AI aufzusteigen. Ironischerweise ist es meiner Auffassung nach genau diese Haltung, die AWS und seine GenAI-Bemühungen von der Konkurrenz abhebt – und die sich auf lange Sicht auszahlen könnte.

Denn vor allem Google setzt wirklich alles daran, Generative AI überall einzubinden – egal ob das Sinn macht oder nicht. Und die meisten Menschen begegnen diesen Systemen nicht mit dem nötigen Maß an Skepsis. Sie nehmen sich nicht die Zeit, darüber nachzudenken, wie sie ihre Fragen stellen – oder die KI-Outputs zu überprüfen. Sie stellen Fragen, sehen oder hören Antworten und gehen davon aus, dass diese korrekt sind. Und selbst wenn dabei nur in zehn Prozent der Fälle halluziniert wird, sind solche Lösungen wertlos, weil man sich nicht auf sie verlassen kann.

Mit anderen Worten: Google (und alle anderen, die diesem Ansatz verfallen sind), haben kurzfristige Gewinne im Blick und sind dafür bereit, langfristige Einbußen beim Benutzervertrauen hinzunehmen. Zwar hat auch Google schon lange vor dem Release von ChatGPT an generativer KI gearbeitet. Dann sorgte der Hype, den OpenAI Ende 2022 mit seinem Chatbot auslöste, aber offensichtlich dafür, dass man sich beim Suchmaschinenriesen dachte: „Komm egal, das ist jetzt gut genug und muss raus“ – und ein System auf den Markt warf, dass nicht für die Primetime bereit war und es bis heute nicht ist.  

Genau an dieser Stelle agiert Amazon Web Services meiner Meinung nach deutlich zielführender: Statt Alexa im Schnellverfahren in ein halbgares GenAI-System zu verwandeln, nimmt sich der Konzern die Zeit, die nötig ist, um ein ausgereiftes Produkt mit einer konsistenten User Experience zu entwickeln. Ob Amazon dieses Muster beibehalten kann oder irgendwann durch den Druck der Investoren dazu getrieben wird, auf die „Passt schon so“-Strategie von Google und Co. umzuschwenken, bleibt abzuwarten. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Hey Google, richtig ist besser als schnell!​ Read More »

3 Python Web Frameworks für Vorzeige-Frontends​

3 Python Web Frameworks für Vorzeige-Frontends​

Allgemein

Wenn Sie interaktive Webseiten erstellen, dabei aber ausschließlich Python nutzen wollen, fahren Sie mit diesen Frameworks besser. Foto: Kurit afshen – shutterstock.com Python hat sich längst als Sprache für serverseitige Frameworks etabliert und unterstützt dabei Projekte jeder Größenordnung und sämtliche Use Cases. Allerdings ist Python bisher auch eher auf das Backend beschränkt – bislang gibt es noch keine wirkliche “Kultur”, Python für Frontend- und Client-seitigen Code zu nutzen. Das liegt auch daran, dass bisherige Versuche, Python am Frontend in JavaScript zu transpilieren oder über WebAssembly auszuführen, eher klobig und bisweilen primitiv umgesetzt wurden. Doch es gibt neue Hoffnung: Einige moderne Web Frameworks ermöglichen es, deklarativen Python-Code im Backend zu schreiben, der programmatisch Frontend-Code generiert. Sie können Python-Objekte verwenden, um HTML-Entitäten und deren JavaScript-gestütztes Verhalten zu beschreiben – und dann das Framework diese Objekte erstellen lassen, wenn sie dem Client übergeben werden. Die folgenden drei Web Frameworks für Python folgen exakt diesem Paradigma. Jedes von ihnen ermöglicht es, Frontend-Code (HTML, CSS und JavaScript) durch Backend-Python-Code zu erzeugen. Die Frontend-Objekte werden dabei durch das Python-Objektmodell dargestellt. 1. Anvil Die Macher des Web Frameworks Anvil versprechen, “Webanwendungen mit nichts anderem als Python zu erstellen”. Allerdings können Sie dabei auch auf Low-Code-Tools mit Drag-and-Drop-Funktion zurückgreifen. Am Ende steht eine vollwertige Webanwendung mit einem interaktiven, JavaScript-basierten Frontend und einem Python-basierten Backend. Anvil bietet dabei zwei grundlegende Ansätze: Der Cloud Service ist in verschiedenen Preisstufen erhältlich und bietet visuelle Build-Tools sowie eine Reihe von Hosting-Optionen. Die quelloffene Laufzeitumgebung von Anvil enthält kein Design-Tool, ermöglicht es aber, Anwendungen mit manuell geschriebenem Code zu erstellen und auszuführen. Anvil-Anwendungen bestehen grundsätzlich aus drei Komponenten: der Benutzeroberfläche (die sich manuell oder mit Low-Code-Tools erstellen lässt), dem clientseitigen Code (der von Python nach JavaScript transpiliert wird), sowie dem serverseitigen Python-Code. Der Anvil-Cloud-Editor generiert automatisch Backend- und Frontend-Code im Stil von Tools wie Qt Design Studio. Er enthält standardmäßig einige Beispiele – etwa eine einfache, statische Applikation ohne Backend-Code, ein simples Ticketing-System und einen vollständigen Onlineshop. Diese dienen potenziell als Template für Ihr eigenes Projekt. Die Cloud-Inkarnation von Anvil bietet ein mächtiges Visual-Design-Tool für UIs. Einmal generiert, können Sie den Code auch jenseits des Tools einsetzen.IDG Darüber hinaus bietet Anvil auch eine nützliche Auswahl an UI-Komponenten, die Sie in Ihre Webseiten einbinden können. Dazu gehört beispielsweise ein Timer, der dafür sorgt, dass Code in bestimmten Intervallen ausgeführt wird – etwa, um Datenquellen nach Aktualisierungen abzufragen. Bei Bedarf können Sie auch Ihr eigenes HTML und eigene Komponenten erstellen. Datenquellen lassen sich über die Cloud hinzufügen und mit Komponenten verdrahten, so dass gängige CRUD-Applikationen sehr flott entstehen. Wenn Sie sich dazu entscheiden, die Anvil Runtime zu nutzen, können Sie Anwendungen manuell schreiben und dabei einige Templates als Startpunkt nutzen. Code-Änderungen werden sofort auf den Anwendungsserver übertragen, was einen schnellen Entwicklungszyklus ermöglicht. Bei den Elementen der Benutzeroberfläche handelt es sich im Wesentlichen um Instanzen von Python-Klassen, deren Ereignis-Handler über Klassenmethoden hinzugefügt werden. Über gut durchdachte allgemeine Methoden lassen sich auch programmatische Verhaltensweisen hinzufügen. Wenn Sie beispielsweise einen Event bei den Children eines Objects auslösen möchten, brauchen Sie dafür keinen Loop. Stattdessen nutzen Sie einfach die raise_event_on_children-Methode für das Container-Objekt. Standardmäßig wird der gesamte JavaScript-Code für eine Anvil-Site automatisch generiert, Sie können bei Bedarf aber auch Ihren eigenen schreiben. In diesem Fall sollten Sie darauf achten, dass dieser nicht mit dem Anvil-Code in Konflikt gerät. Zudem sind einige der Anvil-eigenen Abhängigkeiten etwas veraltet, zum Beispiel Bootstrap 3. Dieses Problem können Sie umgehen, indem Sie ein benutzerdefiniertes Theme erstellen – was nicht leider nicht trivial ist. 2. Reflex Das Reflex-Framework (ehemals bekannt als Pynecone) kann nicht mit dem Design-Toolset von Anvil aufwarten, entspringt jedoch derselben Grundidee: Python-Code zu verwenden, um sowohl das Backend Ihres Web-Stacks zu coden, als auch das Frontend programmatisch zu generieren, ohne dabei auf JavaScript zurückgreifen zu müssen. Zu Pynecone-Zeiten verwendete das Framework selbst sowohl Python als auch die (Long-term Support-Version der) Node.js-Laufzeitumgebung in Kombination mit dem Bun JavaScript Library Manager. Reflex benötigt lediglich Python in Version 3.8 (oder höher) und funktioniert unter Linux und Windows. Benutzern des Microsoft-Betriebssystems wird für eine optimale Performance allerdings empfohlen, das Windows-Subsystem für Linux (WSL) zu nutzen. Um ein neues Reflex-Projekt aufzusetzen, nutzen Sie den reflex-Befehl. Ein Beispiel für eine Reflex-Webanwendung in Python. Der interaktive Chart unterstreicht die Widget-Vielfalt von Reflex.IDG Das Frontend einer Reflex-App kompiliert zu einer React-Anwendung, wobei FastAPI zum Einsatz kommt, um das Python-Backend zu bedienen. Viele gängige Komponenten sind bereits integriert – nicht nur so alltägliche Dinge wie Textlayouts oder Formularverarbeitung, sondern auch: Data Display Objects wie Diagramme, Feedback-Steuerelemente wie Alerts und Fortschrittsbalken sowie Overlay-Objekte wie Modals und Tooltips. Darüber hinaus lassen sich auch benutzerdefinierte React-Komponenten einbinden. Für die Anbindung an Datenquellen enthält Reflex einen Data Layer (SQLAlchemy ORM). Falls Sie eine UI-Komponente anpassen möchten, können die meisten gängigen Modifikationen (wie zum Beispiel CSS-Styling) als Argumente an den Object Constructor übergeben werden, anstatt eine Komponente per Subclassing zu ändern. Für alles andere gibt es benutzerdefiniertes HTML, aber eine Kombination aus den Built-Ins und ihren Optionen sollte für die große Mehrheit der gängigen Projekte ausreichen. Wenn Sie hauptsächlich statische Websites erstellen, bringt Reflex zudem eine praktische Funktion mit, mit der es sich auch als programmatisches Website-Generator-Tool empfiehlt – nämlich eine komplette Webseite in ein statisches Build zu exportieren. 3. NiceGUI Angenommen, Sie möchten einer existierenden Python-App, die über die Kommandozeile oder einen Web Service läuft, ein webbasiertes User Interface hinzufügen – und zwar möglichst schnell. Dann könnten Sie versuchen, ein Frontend in Eigenregie zusammenzuzimmern – oder sich den Aufwand sparen und einfach NiceGUI dafür verwenden. Dieses Python Web Framework nutzt deklarative Syntax, um zu beschreiben, wie UI-Komponenten aussehen und sich verhalten sollen. Das Spektrum an vorgefertigten Komponenten ist dabei breitgefächert und enthält beispielsweise: Buttons, Slider, Text-Label, Eingabefelder, und Datei-Uploader.   Darüber hinaus stehen auch einige Optionen für anspruchsvollere Audio- oder Videoanwendungen zur Verfügung, beispielsweise, um Daten interaktiv zu präsentieren oder 3D-Viualisierungen auf die Beine zu stellen. Dabei erfordert keine Komponente auch nur eine einzige Zeile Browser-Code – NiceGUI übernimmt das vollständig für Sie.   Eine simple NiceGUI-App mit programmatisch generierten Web Widgets. Die resultierede Applikation lässt sich als Standalone-Programm oder über einen Server bereitstellen.IDG Um vorhandenen Code mit NiceGUI zu wrappen, sollten Sie sich zuvor damit auseinandersetzen, wie NiceGUI beispielsweise mit Event Loops und Application State umgeht. Die gute Nachricht vorab: All das läuft über High-Level-Konstrukte innerhalb des NiceGUI-Frameworks selbst ab. Zum Beispiel: können Sie mit dem ui.timer-Objekt definieren, dass Code in bestimmten Intervallen ausgeführt wird; übernehmen ui.clipboard und app.storage die entsprechenden Prozesse; können langlaufende Tasks mit run.cpu_bound einfach an einen Subprozess delegiert werden – oder an einen Thread (run.io_bound). NiceGUI nutzt FastAPI als internes Web Framework – entsprechend folgen die Applikationen demselben Muster. Sie können darüber hinaus auch vorgefertigte Docker-Images als (containerisierte) Version einer NiceGUI-App nutzen. Oder Sie bündeln Ihre App als Standalone-Executable, um sie möglichst einfach zu verteilen. Welches Python Web Framework nutzen? Zusammenfassend lässt sich festhalten: Anvil besticht vor allem mit seinen Tools, um interaktive Benutzeroberflächen mit wenig bis gar keinem Code zu erstellen. Reflex empfiehlt sich, wenn Sie mit einem React-Frontened arbeiten und statische HTML-Seiten rendern möchten. NiceGUI bietet diverse deklarative Abstraktionen um schnell Anwendungen zu erstellen – inklusive Event Handling. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

3 Python Web Frameworks für Vorzeige-Frontends​ Wenn Sie interaktive Webseiten erstellen, dabei aber ausschließlich Python nutzen wollen, fahren Sie mit diesen Frameworks besser.
Foto: Kurit afshen – shutterstock.com

Python hat sich längst als Sprache für serverseitige Frameworks etabliert und unterstützt dabei Projekte jeder Größenordnung und sämtliche Use Cases. Allerdings ist Python bisher auch eher auf das Backend beschränkt – bislang gibt es noch keine wirkliche “Kultur”, Python für Frontend- und Client-seitigen Code zu nutzen. Das liegt auch daran, dass bisherige Versuche, Python am Frontend in JavaScript zu transpilieren oder über WebAssembly auszuführen, eher klobig und bisweilen primitiv umgesetzt wurden.

Doch es gibt neue Hoffnung: Einige moderne Web Frameworks ermöglichen es, deklarativen Python-Code im Backend zu schreiben, der programmatisch Frontend-Code generiert. Sie können Python-Objekte verwenden, um HTML-Entitäten und deren JavaScript-gestütztes Verhalten zu beschreiben – und dann das Framework diese Objekte erstellen lassen, wenn sie dem Client übergeben werden.

Die folgenden drei Web Frameworks für Python folgen exakt diesem Paradigma. Jedes von ihnen ermöglicht es, Frontend-Code (HTML, CSS und JavaScript) durch Backend-Python-Code zu erzeugen. Die Frontend-Objekte werden dabei durch das Python-Objektmodell dargestellt.

1. Anvil

Die Macher des Web Frameworks Anvil versprechen, “Webanwendungen mit nichts anderem als Python zu erstellen”. Allerdings können Sie dabei auch auf Low-Code-Tools mit Drag-and-Drop-Funktion zurückgreifen. Am Ende steht eine vollwertige Webanwendung mit einem interaktiven, JavaScript-basierten Frontend und einem Python-basierten Backend.

Anvil bietet dabei zwei grundlegende Ansätze:

Der Cloud Service ist in verschiedenen Preisstufen erhältlich und bietet visuelle Build-Tools sowie eine Reihe von Hosting-Optionen.

Die quelloffene Laufzeitumgebung von Anvil enthält kein Design-Tool, ermöglicht es aber, Anwendungen mit manuell geschriebenem Code zu erstellen und auszuführen.

Anvil-Anwendungen bestehen grundsätzlich aus drei Komponenten:

der Benutzeroberfläche (die sich manuell oder mit Low-Code-Tools erstellen lässt),

dem clientseitigen Code (der von Python nach JavaScript transpiliert wird), sowie

dem serverseitigen Python-Code.

Der Anvil-Cloud-Editor generiert automatisch Backend- und Frontend-Code im Stil von Tools wie Qt Design Studio. Er enthält standardmäßig einige Beispiele – etwa eine einfache, statische Applikation ohne Backend-Code, ein simples Ticketing-System und einen vollständigen Onlineshop. Diese dienen potenziell als Template für Ihr eigenes Projekt.

Die Cloud-Inkarnation von Anvil bietet ein mächtiges Visual-Design-Tool für UIs. Einmal generiert, können Sie den Code auch jenseits des Tools einsetzen.IDG

Darüber hinaus bietet Anvil auch eine nützliche Auswahl an UI-Komponenten, die Sie in Ihre Webseiten einbinden können. Dazu gehört beispielsweise ein Timer, der dafür sorgt, dass Code in bestimmten Intervallen ausgeführt wird – etwa, um Datenquellen nach Aktualisierungen abzufragen. Bei Bedarf können Sie auch Ihr eigenes HTML und eigene Komponenten erstellen. Datenquellen lassen sich über die Cloud hinzufügen und mit Komponenten verdrahten, so dass gängige CRUD-Applikationen sehr flott entstehen.

Wenn Sie sich dazu entscheiden, die Anvil Runtime zu nutzen, können Sie Anwendungen manuell schreiben und dabei einige Templates als Startpunkt nutzen. Code-Änderungen werden sofort auf den Anwendungsserver übertragen, was einen schnellen Entwicklungszyklus ermöglicht. Bei den Elementen der Benutzeroberfläche handelt es sich im Wesentlichen um Instanzen von Python-Klassen, deren Ereignis-Handler über Klassenmethoden hinzugefügt werden. Über gut durchdachte allgemeine Methoden lassen sich auch programmatische Verhaltensweisen hinzufügen. Wenn Sie beispielsweise einen Event bei den Children eines Objects auslösen möchten, brauchen Sie dafür keinen Loop. Stattdessen nutzen Sie einfach die raise_event_on_children-Methode für das Container-Objekt.

Standardmäßig wird der gesamte JavaScript-Code für eine Anvil-Site automatisch generiert, Sie können bei Bedarf aber auch Ihren eigenen schreiben. In diesem Fall sollten Sie darauf achten, dass dieser nicht mit dem Anvil-Code in Konflikt gerät. Zudem sind einige der Anvil-eigenen Abhängigkeiten etwas veraltet, zum Beispiel Bootstrap 3. Dieses Problem können Sie umgehen, indem Sie ein benutzerdefiniertes Theme erstellen – was nicht leider nicht trivial ist.

2. Reflex

Das Reflex-Framework (ehemals bekannt als Pynecone) kann nicht mit dem Design-Toolset von Anvil aufwarten, entspringt jedoch derselben Grundidee: Python-Code zu verwenden, um sowohl das Backend Ihres Web-Stacks zu coden, als auch das Frontend programmatisch zu generieren, ohne dabei auf JavaScript zurückgreifen zu müssen.

Zu Pynecone-Zeiten verwendete das Framework selbst sowohl Python als auch die (Long-term Support-Version der) Node.js-Laufzeitumgebung in Kombination mit dem Bun JavaScript Library Manager. Reflex benötigt lediglich Python in Version 3.8 (oder höher) und funktioniert unter Linux und Windows. Benutzern des Microsoft-Betriebssystems wird für eine optimale Performance allerdings empfohlen, das Windows-Subsystem für Linux (WSL) zu nutzen. Um ein neues Reflex-Projekt aufzusetzen, nutzen Sie den reflex-Befehl.

Ein Beispiel für eine Reflex-Webanwendung in Python. Der interaktive Chart unterstreicht die Widget-Vielfalt von Reflex.IDG

Das Frontend einer Reflex-App kompiliert zu einer React-Anwendung, wobei FastAPI zum Einsatz kommt, um das Python-Backend zu bedienen. Viele gängige Komponenten sind bereits integriert – nicht nur so alltägliche Dinge wie Textlayouts oder Formularverarbeitung, sondern auch:

Data Display Objects wie Diagramme,

Feedback-Steuerelemente wie Alerts und Fortschrittsbalken sowie

Overlay-Objekte wie Modals und Tooltips.

Darüber hinaus lassen sich auch benutzerdefinierte React-Komponenten einbinden. Für die Anbindung an Datenquellen enthält Reflex einen Data Layer (SQLAlchemy ORM).

Falls Sie eine UI-Komponente anpassen möchten, können die meisten gängigen Modifikationen (wie zum Beispiel CSS-Styling) als Argumente an den Object Constructor übergeben werden, anstatt eine Komponente per Subclassing zu ändern. Für alles andere gibt es benutzerdefiniertes HTML, aber eine Kombination aus den Built-Ins und ihren Optionen sollte für die große Mehrheit der gängigen Projekte ausreichen.

Wenn Sie hauptsächlich statische Websites erstellen, bringt Reflex zudem eine praktische Funktion mit, mit der es sich auch als programmatisches Website-Generator-Tool empfiehlt – nämlich eine komplette Webseite in ein statisches Build zu exportieren.

3. NiceGUI

Angenommen, Sie möchten einer existierenden Python-App, die über die Kommandozeile oder einen Web Service läuft, ein webbasiertes User Interface hinzufügen – und zwar möglichst schnell. Dann könnten Sie versuchen, ein Frontend in Eigenregie zusammenzuzimmern – oder sich den Aufwand sparen und einfach NiceGUI dafür verwenden. Dieses Python Web Framework nutzt deklarative Syntax, um zu beschreiben, wie UI-Komponenten aussehen und sich verhalten sollen.

Das Spektrum an vorgefertigten Komponenten ist dabei breitgefächert und enthält beispielsweise:

Buttons,

Slider,

Text-Label,

Eingabefelder, und

Datei-Uploader.  

Darüber hinaus stehen auch einige Optionen für anspruchsvollere Audio- oder Videoanwendungen zur Verfügung, beispielsweise, um Daten interaktiv zu präsentieren oder 3D-Viualisierungen auf die Beine zu stellen. Dabei erfordert keine Komponente auch nur eine einzige Zeile Browser-Code – NiceGUI übernimmt das vollständig für Sie.  

Eine simple NiceGUI-App mit programmatisch generierten Web Widgets. Die resultierede Applikation lässt sich als Standalone-Programm oder über einen Server bereitstellen.IDG

Um vorhandenen Code mit NiceGUI zu wrappen, sollten Sie sich zuvor damit auseinandersetzen, wie NiceGUI beispielsweise mit Event Loops und Application State umgeht. Die gute Nachricht vorab: All das läuft über High-Level-Konstrukte innerhalb des NiceGUI-Frameworks selbst ab. Zum Beispiel:

können Sie mit dem ui.timer-Objekt definieren, dass Code in bestimmten Intervallen ausgeführt wird;

übernehmen ui.clipboard und app.storage die entsprechenden Prozesse;

können langlaufende Tasks mit run.cpu_bound einfach an einen Subprozess delegiert werden – oder an einen Thread (run.io_bound).

NiceGUI nutzt FastAPI als internes Web Framework – entsprechend folgen die Applikationen demselben Muster. Sie können darüber hinaus auch vorgefertigte Docker-Images als (containerisierte) Version einer NiceGUI-App nutzen. Oder Sie bündeln Ihre App als Standalone-Executable, um sie möglichst einfach zu verteilen.

Welches Python Web Framework nutzen?

Zusammenfassend lässt sich festhalten:

Anvil besticht vor allem mit seinen Tools, um interaktive Benutzeroberflächen mit wenig bis gar keinem Code zu erstellen.

Reflex empfiehlt sich, wenn Sie mit einem React-Frontened arbeiten und statische HTML-Seiten rendern möchten.

NiceGUI bietet diverse deklarative Abstraktionen um schnell Anwendungen zu erstellen – inklusive Event Handling.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

3 Python Web Frameworks für Vorzeige-Frontends​ Read More »

Software-Entwicklung: 7 Faktoren für garantiertes Scheitern​

Software-Entwicklung: 7 Faktoren für garantiertes Scheitern​

Allgemein

Kennen Sie das? Wochen und Monate berichtet der Projektleiter im Leitungskreis zu seinem Projekt. Selbstverständlich darf dabei die klassische Statusampel nicht fehlen. Und diese steht beständig auf Grün: alles ok. Doch eines Tages wechselt die Ampel unvermittelt auf Rot! Konsequenterweise beginnt nun für die Verantwortlichen ein sehr unerfreulicher Aufarbeitungsprozess. Meist gilt die erste Frage dem Schuldigen, die zweite den Ursachen und dann erst widmet man sich den Lösungsmöglichkeiten.Nachfolgend 7 typische Faktoren, die den Misserfolg fast schon garantieren.Faktor 1: Missachten Sie den Faktor MenschIn vielen Jahren als Entwickler, Projektleiter, Coach und Krisenmanager habe ich festgestellt, dass zwischenmenschliche Spannungen das größte Hindernis in der Umsetzung von IT-Projekten darstellen. Stimmt umgekehrt die Chemie zwischen den Mitarbeitern und es herrscht ein offenes, fehlertolerantes Klima, lassen sich für alle Schwierigkeiten Lösungen finden – auch in kritischen Situationen.Es liegt in der Natur des Menschen, Konflikten aus dem Weg zu gehen. Und somit ist es nur natürlich, wenn implizit oder explizit mit Personalführung beauftragte Personen (z.B. der Projektleiter) schlechte Stimmungen komplett ignorieren oder zu lange wegsehen. Doch Konflikte lösen sich meist nicht von alleine. Es bedarf der Ursachenforschung, der Moderation und mindestens die Perspektive auf Veränderung oder Lösung. Manchmal sind es die kleinen Dinge, die eine große Wirkung erzielen, wie z.B. ein neuer Arbeitsplatz für einen Mitarbeiter. Oft sind jedoch größere Aufwände notwendig, wie z.B. die Neuorganisation von Teams, um wieder Ruhe in das Projekt zu bringen. Die schlechteste Alternative ist jedoch die Missachtung des Faktors Mensch. Platz 1.Faktor 2: Zu groß denken oder zu klein machenManche Firmen übernehmen sich mit einem Projekt. Sie unterschätzen die Komplexität, die Risiken und den immensen personellen wie materiellen Aufwand. Ist – unabhängig von den Kosten – meine Organisation überhaupt in der Lage, ein Projekt mit 100 Mitarbeitern zu stemmen? Haben wir genügend Arbeitsplätze, Besprechungsräume, Netzkapazität, Entwicklungsserver etc.? Ist der Betrieb imstande, die Anforderungen eines großen agilen Entwicklungsteams an eine Entwicklungs- und Teststrecke inkl. Continuous Integration/Delivery zu erfüllen? Solchen Fragen vorangestellt, sollte der Business Case realistisch gerechnet worden sein. Ich habe es mehrfach erlebt, dass erst kurz vor dem Start eines gigantischen Projektes klar wurde, dass man das resultierende System eigentlich gar nicht benötigte, weil es nicht in das Geschäftsmodell des Unternehmens passte. Leider war das zuvor niemandem aufgefallen.Ein weiteres, erkennbares Muster: Ein Protagonist möchte die Realisierung einer SW unbedingt, z.B. aus Prestigegründen oder um Mitarbeiter auszulasten, und rechnet die Kosten klein. Ist der spätere Projektleiter nicht stark genug, die Diskrepanz im Rahmen von Entscheidungsgremien darzustellen, entstehen hieraus hohe Krisenpotenziale. Platz 2.Faktor 3: Sich auf Schätzungen und Planungen 100% verlassenEin weit verbreiteter Mythos ist die Verlässlichkeit von Schätzungen und Planungen. Der Begriff des Projektes ist definiert durch seine Einmaligkeit. Vielleicht gab es bereits ähnlich gelagerte Vorhaben, doch grundsätzlich betritt ein Unternehmen mit jedem Projekt Neuland. Das bedeutet, dass Schätzungen immer nur so gut sein können, wie die Erfahrungen der Ersteller und deren Adaptionsfähigkeiten bzgl. des aktuellen Projekts. Pläne können allerdings niemals spontane Ereignisse, Veränderungen hinsichtlich der Anforderungen, der Technologien oder den Eintritt nicht erwarteter Risiken mit einschließen. Letztlich sind Schätzungen und die darauf aufbauenden Pläne nichts weiter als eine Wette auf die Zukunft! Diese Tatsache zu akzeptieren, ist ein erster Schritt nach vorn. Disziplin, Mut und Systematik helfen, mögliche Krisen zu verhindern oder zu lindern. Platz 3.Faktor 4: Das magische PM-Dreieck konsequent missachtenStudium der Informatik, erstes Semester, erste Vorlesung Projektmanagement: “Das magische PM-Dreieck”. Schon sehr früh wird der an Managementaufgaben Interessierte an die Gesetze dieses Dreiecks herangeführt. Diese besagen, dass die Veränderung eines der drei Parameter Zeit, Budget oder Inhalt (Qualität) unweigerlich zu Konsequenzen bei mindestens einem der weiteren Parameter führen.Doch werden diese Gesetze in der Praxis nur zu gerne ignoriert. Wie schon im Kontext von Schätzung und Planung erwähnt, ist ein Projekt etwas Einmaliges und die Wahrscheinlichkeit von nicht geplanten Einflüssen extrem hoch. Deshalb ist es früher oder später in quasi jedem Projekt erforderlich, dass die Verantwortlichen auf diese Einflüsse reagieren. Sind dann jedoch alle Parameter fixiert, d.h. der Kunde fordert weiterhin die Einhaltung von Zeit, Budget und Inhalt, ist das Scheitern nur noch eine Frage der Zeit. Platz 4.Faktor 5: Dokumentation über allesFrei nach Franz Beckenbauer: “We call it a Klassiker!” Obwohl immer mehr Unternehmen auf agile Vorgehensweisen (meist Scrum) setzen, findet man weiterhin Organisationen und Projekte, welche einer umfangreichen Dokumentation den größeren Stellenwert einräumen, als der zu erstellenden Software. Gerade in großen Projekten ist dies ein hohes Risiko. Oftmals arbeitet über Monate oder gar Jahre eine Heerschar von Beratern und Fachbereichsexperten an tausenden Seiten Beschreibungen, welche später von einem anderen Team in SW übersetzt werden. Je umfangreicher die Dokumentation, desto länger die Realisierungszeit und umso unwahrscheinlicher ist es, dass die SW den tatsächlichen Erfordernissen der Anwender entspricht. Reaktionen auf Veränderungen des Marktes sind nicht oder nur mit großem Aufwand und zeitlichen Zugeständnissen möglich. Zwar bietet ein Dokument eine Basis, gegen die das Produkt abgenommen werden kann. Doch leider ist das Geschriebene nicht unbedingt eindeutig und das Ergebnis anders als ursprünglich gedacht. Wie oft habe ich von Fachbereichsmitarbeitern und Endanwendern den Satz gehört: “Oh, das habe ich mir aber ganz anders vorgestellt!”. Platz 5.Faktor 6: Bloß keine ausgewogene ProjektorganisationEin Team von 20 Entwicklern und 1 fachlicher Ansprechpartner? Es bedarf keines Expertenwissens, um zu erkennen, dass dieses Konstrukt früher oder später scheitern wird. Zu Beginn eines Projektes, egal ob Wasserfall oder agil, mag es noch funktionieren, weil die Entwickler mit Frameworks oder der Einrichtung der Umgebungen beschäftigt sind. Doch sehr bald werden die Mitarbeiter Fragen stellen – intensive fachliche Betreuung benötigen. Ein einzelner Fachexperte kann diesem zeitlichen und emotionalen Druck niemals standhalten und benötigt Unterstützung, sowohl personell als auch durch den Realisierungsprozess. Allerdings ist es eine sehr schlechte Idee, dem Personalengpass mit der Beschränkung der Kommunikation zu begegnen.Ebenfalls eine beliebte Idee und ganz weit vorne auf der Skala der typischen Managementfehler: Ein Mitarbeiter sammelt die Fragen der Entwickler, erörtert diese mit dem fachlichen Ansprechpartner und trägt die Antworten wieder zurück. Auf diese Weise erzeugt man einen Flaschenhals par excellence, löst eine extrem hohe Fehlerquote aus und verzögert die Entwicklung maßgeblich. Mein Platz 6 für sicheres Scheitern.Faktor 7: Den Frosch unbedingt langsam erhitzenKennen Sie diese Geschichte? Setzt man einen Frosch in einen Topf mit Wasser und erhitzt dieses kontinuierlich bis zum Kochen, unternimmt der Frosch keinerlei Fluchtversuche. Wirft man ihn direkt in heißes Wasser, springt er sofort heraus.Eine der für mich wichtigsten Erkenntnisse der letzten Jahre ist, dass Mitarbeiter von IT-Projekten mit fortschreitender Dauer einer zunehmenden Betriebsblindheit verfallen. Einmal etablierte Prozesse werden vielleicht in Retrospektiven hinterfragt, aber selten wirklich einschneidend angepasst. Die Fähigkeit der Menschen auf Veränderungen zu reagieren, schwindet umgekehrt proportional zur Dauer eines Projektes. Daher ist die sporadische Beleuchtung (Health Checks) von (insbesondere großen) Projekten durch einen externen, bisher nicht involvierten Berater zu empfehlen, um ausgetretene, potenziell nicht zielführende Pfade zu entdecken. Spätestens nach Erkennen einer ausgewachsenen Krise, ist es nahezu unmöglich, alleine mit dem bestehenden Personal den Turnaround zu schaffen. Platz 7.So kann es sicher gelingenDie beschriebenen typischen Managementfehler stellen lediglich eine kleine Auswahl meiner persönlichen Hitliste von Verhaltensmustern dar, welche den erfolgreichen Abschluss von SW-Entwicklungsprojekten be- oder gar verhindern. Aus der Distanz betrachtet, könnte der Eindruck entstehen, es sei ein Leichtes, die Probleme zu erkennen und bereits in frühen Stadien der Projekte zu korrigieren. Doch vermeintlich unverrückbare Rahmenbedingungen und die angesprochene Betriebsblindheit erschweren es oftmals, die richtigen Entscheidungen zu treffen. Die eingangs erwähnten Statistiken der Standish Group beweisen dies Jahr für Jahr.Ist ein Projekt tatsächlich in Schieflage geraten, empfiehlt sich dringend das Hinzuziehen eines externen Krisenmanagers, der objektiv, frei von Befindlichkeiten und ohne den Ballast einer Projekthistorie analysieren und agieren kann. Allein die Beteiligung eines Sachverständigen, der den Menschen im Projekt zuhört, kann bereits positive Effekte hervorrufen. Durch die Auswahl geeigneter Maßnahmen gelingen auch die Transformation und schließlich der Turnaround.15 Probleme beim Projektmanagement1. Unklare ArbeitslastBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte ErwartungenAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-UnterstützungDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema FIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes HerrschaftswissenProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare EntscheidungsfindungIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende SoftwareExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des AusufernsChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen könnenIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder ZusammenhaltProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener ArbeitsalltagHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige MeetingsMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gutSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernenLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim ProjektmanagementEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden. 

Software-Entwicklung: 7 Faktoren für garantiertes Scheitern​ Kennen Sie das? Wochen und Monate berichtet der Projektleiter im Leitungskreis zu seinem Projekt. Selbstverständlich darf dabei die klassische Statusampel nicht fehlen. Und diese steht beständig auf Grün: alles ok. Doch eines Tages wechselt die Ampel unvermittelt auf Rot! Konsequenterweise beginnt nun für die Verantwortlichen ein sehr unerfreulicher Aufarbeitungsprozess. Meist gilt die erste Frage dem Schuldigen, die zweite den Ursachen und dann erst widmet man sich den Lösungsmöglichkeiten.Nachfolgend 7 typische Faktoren, die den Misserfolg fast schon garantieren.Faktor 1: Missachten Sie den Faktor MenschIn vielen Jahren als Entwickler, Projektleiter, Coach und Krisenmanager habe ich festgestellt, dass zwischenmenschliche Spannungen das größte Hindernis in der Umsetzung von IT-Projekten darstellen. Stimmt umgekehrt die Chemie zwischen den Mitarbeitern und es herrscht ein offenes, fehlertolerantes Klima, lassen sich für alle Schwierigkeiten Lösungen finden – auch in kritischen Situationen.Es liegt in der Natur des Menschen, Konflikten aus dem Weg zu gehen. Und somit ist es nur natürlich, wenn implizit oder explizit mit Personalführung beauftragte Personen (z.B. der Projektleiter) schlechte Stimmungen komplett ignorieren oder zu lange wegsehen. Doch Konflikte lösen sich meist nicht von alleine. Es bedarf der Ursachenforschung, der Moderation und mindestens die Perspektive auf Veränderung oder Lösung. Manchmal sind es die kleinen Dinge, die eine große Wirkung erzielen, wie z.B. ein neuer Arbeitsplatz für einen Mitarbeiter. Oft sind jedoch größere Aufwände notwendig, wie z.B. die Neuorganisation von Teams, um wieder Ruhe in das Projekt zu bringen. Die schlechteste Alternative ist jedoch die Missachtung des Faktors Mensch. Platz 1.Faktor 2: Zu groß denken oder zu klein machenManche Firmen übernehmen sich mit einem Projekt. Sie unterschätzen die Komplexität, die Risiken und den immensen personellen wie materiellen Aufwand. Ist – unabhängig von den Kosten – meine Organisation überhaupt in der Lage, ein Projekt mit 100 Mitarbeitern zu stemmen? Haben wir genügend Arbeitsplätze, Besprechungsräume, Netzkapazität, Entwicklungsserver etc.? Ist der Betrieb imstande, die Anforderungen eines großen agilen Entwicklungsteams an eine Entwicklungs- und Teststrecke inkl. Continuous Integration/Delivery zu erfüllen? Solchen Fragen vorangestellt, sollte der Business Case realistisch gerechnet worden sein. Ich habe es mehrfach erlebt, dass erst kurz vor dem Start eines gigantischen Projektes klar wurde, dass man das resultierende System eigentlich gar nicht benötigte, weil es nicht in das Geschäftsmodell des Unternehmens passte. Leider war das zuvor niemandem aufgefallen.Ein weiteres, erkennbares Muster: Ein Protagonist möchte die Realisierung einer SW unbedingt, z.B. aus Prestigegründen oder um Mitarbeiter auszulasten, und rechnet die Kosten klein. Ist der spätere Projektleiter nicht stark genug, die Diskrepanz im Rahmen von Entscheidungsgremien darzustellen, entstehen hieraus hohe Krisenpotenziale. Platz 2.Faktor 3: Sich auf Schätzungen und Planungen 100% verlassenEin weit verbreiteter Mythos ist die Verlässlichkeit von Schätzungen und Planungen. Der Begriff des Projektes ist definiert durch seine Einmaligkeit. Vielleicht gab es bereits ähnlich gelagerte Vorhaben, doch grundsätzlich betritt ein Unternehmen mit jedem Projekt Neuland. Das bedeutet, dass Schätzungen immer nur so gut sein können, wie die Erfahrungen der Ersteller und deren Adaptionsfähigkeiten bzgl. des aktuellen Projekts. Pläne können allerdings niemals spontane Ereignisse, Veränderungen hinsichtlich der Anforderungen, der Technologien oder den Eintritt nicht erwarteter Risiken mit einschließen. Letztlich sind Schätzungen und die darauf aufbauenden Pläne nichts weiter als eine Wette auf die Zukunft! Diese Tatsache zu akzeptieren, ist ein erster Schritt nach vorn. Disziplin, Mut und Systematik helfen, mögliche Krisen zu verhindern oder zu lindern. Platz 3.Faktor 4: Das magische PM-Dreieck konsequent missachtenStudium der Informatik, erstes Semester, erste Vorlesung Projektmanagement: “Das magische PM-Dreieck”. Schon sehr früh wird der an Managementaufgaben Interessierte an die Gesetze dieses Dreiecks herangeführt. Diese besagen, dass die Veränderung eines der drei Parameter Zeit, Budget oder Inhalt (Qualität) unweigerlich zu Konsequenzen bei mindestens einem der weiteren Parameter führen.Doch werden diese Gesetze in der Praxis nur zu gerne ignoriert. Wie schon im Kontext von Schätzung und Planung erwähnt, ist ein Projekt etwas Einmaliges und die Wahrscheinlichkeit von nicht geplanten Einflüssen extrem hoch. Deshalb ist es früher oder später in quasi jedem Projekt erforderlich, dass die Verantwortlichen auf diese Einflüsse reagieren. Sind dann jedoch alle Parameter fixiert, d.h. der Kunde fordert weiterhin die Einhaltung von Zeit, Budget und Inhalt, ist das Scheitern nur noch eine Frage der Zeit. Platz 4.Faktor 5: Dokumentation über allesFrei nach Franz Beckenbauer: “We call it a Klassiker!” Obwohl immer mehr Unternehmen auf agile Vorgehensweisen (meist Scrum) setzen, findet man weiterhin Organisationen und Projekte, welche einer umfangreichen Dokumentation den größeren Stellenwert einräumen, als der zu erstellenden Software. Gerade in großen Projekten ist dies ein hohes Risiko. Oftmals arbeitet über Monate oder gar Jahre eine Heerschar von Beratern und Fachbereichsexperten an tausenden Seiten Beschreibungen, welche später von einem anderen Team in SW übersetzt werden. Je umfangreicher die Dokumentation, desto länger die Realisierungszeit und umso unwahrscheinlicher ist es, dass die SW den tatsächlichen Erfordernissen der Anwender entspricht. Reaktionen auf Veränderungen des Marktes sind nicht oder nur mit großem Aufwand und zeitlichen Zugeständnissen möglich. Zwar bietet ein Dokument eine Basis, gegen die das Produkt abgenommen werden kann. Doch leider ist das Geschriebene nicht unbedingt eindeutig und das Ergebnis anders als ursprünglich gedacht. Wie oft habe ich von Fachbereichsmitarbeitern und Endanwendern den Satz gehört: “Oh, das habe ich mir aber ganz anders vorgestellt!”. Platz 5.Faktor 6: Bloß keine ausgewogene ProjektorganisationEin Team von 20 Entwicklern und 1 fachlicher Ansprechpartner? Es bedarf keines Expertenwissens, um zu erkennen, dass dieses Konstrukt früher oder später scheitern wird. Zu Beginn eines Projektes, egal ob Wasserfall oder agil, mag es noch funktionieren, weil die Entwickler mit Frameworks oder der Einrichtung der Umgebungen beschäftigt sind. Doch sehr bald werden die Mitarbeiter Fragen stellen – intensive fachliche Betreuung benötigen. Ein einzelner Fachexperte kann diesem zeitlichen und emotionalen Druck niemals standhalten und benötigt Unterstützung, sowohl personell als auch durch den Realisierungsprozess. Allerdings ist es eine sehr schlechte Idee, dem Personalengpass mit der Beschränkung der Kommunikation zu begegnen.Ebenfalls eine beliebte Idee und ganz weit vorne auf der Skala der typischen Managementfehler: Ein Mitarbeiter sammelt die Fragen der Entwickler, erörtert diese mit dem fachlichen Ansprechpartner und trägt die Antworten wieder zurück. Auf diese Weise erzeugt man einen Flaschenhals par excellence, löst eine extrem hohe Fehlerquote aus und verzögert die Entwicklung maßgeblich. Mein Platz 6 für sicheres Scheitern.Faktor 7: Den Frosch unbedingt langsam erhitzenKennen Sie diese Geschichte? Setzt man einen Frosch in einen Topf mit Wasser und erhitzt dieses kontinuierlich bis zum Kochen, unternimmt der Frosch keinerlei Fluchtversuche. Wirft man ihn direkt in heißes Wasser, springt er sofort heraus.Eine der für mich wichtigsten Erkenntnisse der letzten Jahre ist, dass Mitarbeiter von IT-Projekten mit fortschreitender Dauer einer zunehmenden Betriebsblindheit verfallen. Einmal etablierte Prozesse werden vielleicht in Retrospektiven hinterfragt, aber selten wirklich einschneidend angepasst. Die Fähigkeit der Menschen auf Veränderungen zu reagieren, schwindet umgekehrt proportional zur Dauer eines Projektes. Daher ist die sporadische Beleuchtung (Health Checks) von (insbesondere großen) Projekten durch einen externen, bisher nicht involvierten Berater zu empfehlen, um ausgetretene, potenziell nicht zielführende Pfade zu entdecken. Spätestens nach Erkennen einer ausgewachsenen Krise, ist es nahezu unmöglich, alleine mit dem bestehenden Personal den Turnaround zu schaffen. Platz 7.So kann es sicher gelingenDie beschriebenen typischen Managementfehler stellen lediglich eine kleine Auswahl meiner persönlichen Hitliste von Verhaltensmustern dar, welche den erfolgreichen Abschluss von SW-Entwicklungsprojekten be- oder gar verhindern. Aus der Distanz betrachtet, könnte der Eindruck entstehen, es sei ein Leichtes, die Probleme zu erkennen und bereits in frühen Stadien der Projekte zu korrigieren. Doch vermeintlich unverrückbare Rahmenbedingungen und die angesprochene Betriebsblindheit erschweren es oftmals, die richtigen Entscheidungen zu treffen. Die eingangs erwähnten Statistiken der Standish Group beweisen dies Jahr für Jahr.Ist ein Projekt tatsächlich in Schieflage geraten, empfiehlt sich dringend das Hinzuziehen eines externen Krisenmanagers, der objektiv, frei von Befindlichkeiten und ohne den Ballast einer Projekthistorie analysieren und agieren kann. Allein die Beteiligung eines Sachverständigen, der den Menschen im Projekt zuhört, kann bereits positive Effekte hervorrufen. Durch die Auswahl geeigneter Maßnahmen gelingen auch die Transformation und schließlich der Turnaround.15 Probleme beim Projektmanagement1. Unklare ArbeitslastBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte ErwartungenAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-UnterstützungDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema FIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes HerrschaftswissenProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare EntscheidungsfindungIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende SoftwareExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des AusufernsChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen könnenIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder ZusammenhaltProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener ArbeitsalltagHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige MeetingsMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gutSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernenLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim ProjektmanagementEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden.

Software-Entwicklung: 7 Faktoren für garantiertes Scheitern​ Read More »

Hilfe bei Entlassung: So geht erfolgreiches Outplacement​

Hilfe bei Entlassung: So geht erfolgreiches Outplacement​

Allgemein

Durch gezieltes und faires Outplacement kann der Abschied von Kollegen nach einer Kündigung leichter fallen. Foto: ASDF_MEDIA – shutterstock.comDie wirschaftlichen Folgen des Ukraine-Konflikts haben zu millionenfachen Entlassungen geführt. Gerade für kleine und mittelständische Unternehmen sind diese oftmals mit einem großen administrativen Aufwand und hohen Kosten verbunden. Vor allem dann, wenn es keine eigenen HR-Abteilungen im Unternehmen gibt.Wer dabei schon zu Beginn auf Outplacement setzt, kann nicht nur ungewollte Streitigkeiten vermeiden, sondern auch die Ressourcen seines Unternehmens schützen. Unter Outplacement versteht man die externe Beratung zur beruflichen Neuorientierung zukünftig ausscheidender Mitarbeiter. Die Berater helfen diesen bei der Jobsuche, noch bevor sie ihre alte Anstellung verloren haben. Angefangen bei der Situationsanalyse, werden dazu die individuellen Fähigkeiten bestimmt, der Lebenslauf auf Grundlage der neuesten Standards verfasst sowie ein Interview-Coaching vorgenommen, um bestmöglich auf Bewerbungsgespräche vorbereitet zu sein.Entlassung mit neuer Job-VisionInteressant ist Outplacement für Unternehmen, die ihren Mitarbeitern sagen wollen: “We care”. Die, die bleiben, erkennen darin die Wertschätzung aller und sind umso motivierter. Zudem können durch Outplacement langwierige Rechtsstreitigkeiten umgangen und hohe Abfindungszahlungen vermieden werden, so dass letztlich sowohl Arbeitgeber als auch Arbeitnehmer profitieren.Ein Outplacement und die Vermittlung von qualifizierten Mitarbeitern ist dann besonders sinnvoll, wenn der Betrieb aus Branchen kommt, wo der Fachkräftemangel allgegenwärtig ist. Der Grund: Es ist sehr wahrscheinlich, dass bewährte Fachkräfte, die entlassen werden müssen, in anderen Firmen händeringend gesucht werden. Doch auch beim Outplacement von scheidenden Mitarbeitern sollten folgende fünf Punkte beachtet werden, damit ein reibungsloser Übergang für beide Parteien am Ende auch wirklich funktioniert.1. Suchen Sie das GesprächDie Trennung von Mitarbeitern ist weder für den Vorgesetzten, der die Nachricht überbringt, noch für den Betroffenen, der seinen Arbeitsplatz verliert, angenehm. Leider wird das Gespräch für den Arbeitnehmer nie erfolgreich oder positiv ausgehen. Bedanken etwa wird sich der Mitarbeiter keinesfalls. Und dennoch: Dieses Gespräch gehört zur Führungsaufgabe! Fundamental ist eine gute Vorbereitung. Ziel allen Austauschs sollte immer eine faire und wertschätzende Trennung sein. Bereits im ersten Gespräch sollten das weitere Vorgehen und ein möglicher Outplacement-Prozess besprochen werden.2. Handeln Sie zügigStellen Sie den Mitarbeiter möglichst schnell frei, damit er unmittelbar mit der Neuorientierung beginnen kann. Es gilt den “Abnabelungsprozess” durch eine faire und konstruktive Trennung zu beschleunigen. Eine intensive berufliche Neuorientierung erfordert volle Konzentration und nimmt mehr Zeit in Anspruch, als ein Full-Time-Job zulässt. Gerade dann, wenn der Mitarbeiter auf unterschiedlichen Wegen einen neuen Job sucht oder noch Bewerbungsunterlagen anfertigen muss. Je schneller es beiden Seiten gelingt, den Blick nach vorne zu richten, desto reibungsloser erfolgt der Trennungsprozess.3. Zeigen Sie sich großzügigBieten Sie Outplacement zusätzlich zur Abfindung an. Der Arbeitnehmer profitiert, da er sehr wahrscheinlich schneller einen neuen Job findet. Der Vorteil für das Unternehmen: Je früher der betroffene Mitarbeiter mit der Suche beginnt, desto schneller ist der Trennungsprozess beendet. So können Restlaufzeiten der Arbeitsverträge verkürzt werden und eine potentielle Neuausrichtung besser gelingen. Outplacement als Zusatzleistung ist zudem für das Image des Unternehmens von Bedeutung. Es zeigt: “We care for you”.4. Schaffen Sie TransparenzEs ist wichtig frühzeitig den Betriebsrat einzubeziehen, um den Trennungsprozess aktiv und positiv beeinflussen zu können. Als Sprachrohr der Belegschaft ist der Betriebsrat in jedem Fall an Konzepten interessiert, die die Trennung von einzelnen Mitarbeitern oder einen größeren Personalabbau möglichst verträglich gestalten und berufliche Perspektiven aufzeigen. Viele Betriebsräte haben bereits erkannt, dass die rein monetäre Abfindung mittlerweile weniger wiegt als die professionelle Beratung für die berufliche Neuorientierung.5. Wählen Sie ihren Anbieter mit SorgfaltWählen Sie den Outplacement-Anbieter mit der gleichen Sorgfalt aus, mit der Sie auch andere Zulieferer oder Dienstleister aussuchen. Der Anbieter muss eine klare Kosten- und Leistungsübersicht haben. Haben Sie hierbei die Leistungsbestandteile mit dem höchsten Mehrwert für den Mitarbeiter im Blick. Fragen Sie gezielt nach orts- und zeitunabhängigen Beratungseinheiten, individuellen Beratungsmöglichkeiten und Beratervielfalt.FazitEntlassungen und Umstrukturierungen gehören zur Arbeitswelt und Wirtschaftlichkeit von Unternehmen dazu. Outplacement-Prozesse, die vom Arbeitnehmer initiiert und angeboten werden, sind für den scheidenden Arbeitnehmer aber weit mehr als ein schwacher Trost. Vielmehr ist Outplacement ein wichtiger Baustein für die erfolgreiche Weiterführung der Karriere des Arbeitnehmers. Arbeitgeber können mit Outplacement zeigen, dass Sie sich um ihre Mitarbeiter sorgen und die Unternehmenswerte auch über das Arbeitsverhältnis dieser hinaus Bestand haben.Ratgeber OutplacementHilfestellung nach der Kündigung Foto: Mathias Rosenthal – shutterstock.comUnternehmen, die notgedrungen Kündigungen aussprechen müssen, können die Situation gekündigter Mitarbeiter durch Outplacement erleichtern. Lionstep gibt Tipps, wie gutes Outplacement ablaufen sollte. Das Gespräch suchen Foto: Monkey Business Images – shutterstock.comDie Trennung von Mitarbeitern ist weder für den Vorgesetzten, der die Nachricht überbringt, noch für den Betroffenen, der seinen Arbeitsplatz verliert, angenehm. Und dennoch: Dieses Gespräch gehört zur Führungsaufgabe! Fundamental ist eine gute Vorbereitung. Ziel allen Austauschs sollte immer eine faire und wertschätzende Trennung sein. Bereits im ersten Gespräch sollten das weitere Vorgehen und ein möglicher Outplacement-Prozess besprochen werden. Zügig handeln Foto: TippaPatt – shutterstock.comStellen Sie den Mitarbeiter möglichst schnell frei, damit er unmittelbar mit der Neuorientierung beginnen kann. Es gilt den „Abnabelungsprozess“ durch eine faire und konstruktive Trennung zu beschleunigen. Eine intensive berufliche Neuorientierung erfordert volle Konzentration und nimmt mehr Zeit in Anspruch, als ein Full-Time-Job zulässt. Großzügigkeit zeigen Foto: Gajus – shutterstock.comBieten Sie Outplacement zusätzlich zur Abfindung an. Der Arbeitnehmer profitiert, da er sehr wahrscheinlich schneller einen neuen Job findet. Der Vorteil für das Unternehmen: Je früher der betroffene Mitarbeiter mit der Suche beginnt, desto schneller ist der Trennungsprozess beendet. So können Restlaufzeiten der Arbeitsverträge verkürzt werden und eine potentielle Neuausrichtung besser gelingen. Outplacement als Zusatzleistung ist zudem für das Image des Unternehmens von Bedeutung. Es zeigt: „We care for you“. Transparenz schaffen Foto: Kritchanut – shutterstock.comEs ist wichtig frühzeitig den Betriebsrat einzubeziehen, um den Trennungsprozess aktiv und positiv beeinflussen zu können. Als Sprachrohr der Belegschaft ist der Betriebsrat in jedem Fall an Konzepten interessiert, die die Trennung von einzelnen Mitarbeitern oder einen größeren Personalabbau möglichst verträglich gestalten und berufliche Perspektiven aufzeigen. Sorgfältige Anbieterauswahl Foto: kan_chana – shutterstock.comWählen Sie den Outplacement-Anbieter mit der gleichen Sorgfalt aus, mit der Sie auch andere Zulieferer oder Dienstleister aussuchen. Der Anbieter muss eine klare Kosten- und Leistungsübersicht haben. Haben Sie hierbei die Leistungsbestandteile mit dem höchsten Mehrwert für den Mitarbeiter im Blick. Fragen Sie gezielt nach orts- und zeitunabhängigen Beratungseinheiten, individuellen Beratungsmöglichkeiten und Beratervielfalt. 

Hilfe bei Entlassung: So geht erfolgreiches Outplacement​ Durch gezieltes und faires Outplacement kann der Abschied von Kollegen nach einer Kündigung leichter fallen.
Foto: ASDF_MEDIA – shutterstock.comDie wirschaftlichen Folgen des Ukraine-Konflikts haben zu millionenfachen Entlassungen geführt. Gerade für kleine und mittelständische Unternehmen sind diese oftmals mit einem großen administrativen Aufwand und hohen Kosten verbunden. Vor allem dann, wenn es keine eigenen HR-Abteilungen im Unternehmen gibt.Wer dabei schon zu Beginn auf Outplacement setzt, kann nicht nur ungewollte Streitigkeiten vermeiden, sondern auch die Ressourcen seines Unternehmens schützen. Unter Outplacement versteht man die externe Beratung zur beruflichen Neuorientierung zukünftig ausscheidender Mitarbeiter. Die Berater helfen diesen bei der Jobsuche, noch bevor sie ihre alte Anstellung verloren haben. Angefangen bei der Situationsanalyse, werden dazu die individuellen Fähigkeiten bestimmt, der Lebenslauf auf Grundlage der neuesten Standards verfasst sowie ein Interview-Coaching vorgenommen, um bestmöglich auf Bewerbungsgespräche vorbereitet zu sein.Entlassung mit neuer Job-VisionInteressant ist Outplacement für Unternehmen, die ihren Mitarbeitern sagen wollen: “We care”. Die, die bleiben, erkennen darin die Wertschätzung aller und sind umso motivierter. Zudem können durch Outplacement langwierige Rechtsstreitigkeiten umgangen und hohe Abfindungszahlungen vermieden werden, so dass letztlich sowohl Arbeitgeber als auch Arbeitnehmer profitieren.Ein Outplacement und die Vermittlung von qualifizierten Mitarbeitern ist dann besonders sinnvoll, wenn der Betrieb aus Branchen kommt, wo der Fachkräftemangel allgegenwärtig ist. Der Grund: Es ist sehr wahrscheinlich, dass bewährte Fachkräfte, die entlassen werden müssen, in anderen Firmen händeringend gesucht werden. Doch auch beim Outplacement von scheidenden Mitarbeitern sollten folgende fünf Punkte beachtet werden, damit ein reibungsloser Übergang für beide Parteien am Ende auch wirklich funktioniert.1. Suchen Sie das GesprächDie Trennung von Mitarbeitern ist weder für den Vorgesetzten, der die Nachricht überbringt, noch für den Betroffenen, der seinen Arbeitsplatz verliert, angenehm. Leider wird das Gespräch für den Arbeitnehmer nie erfolgreich oder positiv ausgehen. Bedanken etwa wird sich der Mitarbeiter keinesfalls. Und dennoch: Dieses Gespräch gehört zur Führungsaufgabe! Fundamental ist eine gute Vorbereitung. Ziel allen Austauschs sollte immer eine faire und wertschätzende Trennung sein. Bereits im ersten Gespräch sollten das weitere Vorgehen und ein möglicher Outplacement-Prozess besprochen werden.2. Handeln Sie zügigStellen Sie den Mitarbeiter möglichst schnell frei, damit er unmittelbar mit der Neuorientierung beginnen kann. Es gilt den “Abnabelungsprozess” durch eine faire und konstruktive Trennung zu beschleunigen. Eine intensive berufliche Neuorientierung erfordert volle Konzentration und nimmt mehr Zeit in Anspruch, als ein Full-Time-Job zulässt. Gerade dann, wenn der Mitarbeiter auf unterschiedlichen Wegen einen neuen Job sucht oder noch Bewerbungsunterlagen anfertigen muss. Je schneller es beiden Seiten gelingt, den Blick nach vorne zu richten, desto reibungsloser erfolgt der Trennungsprozess.3. Zeigen Sie sich großzügigBieten Sie Outplacement zusätzlich zur Abfindung an. Der Arbeitnehmer profitiert, da er sehr wahrscheinlich schneller einen neuen Job findet. Der Vorteil für das Unternehmen: Je früher der betroffene Mitarbeiter mit der Suche beginnt, desto schneller ist der Trennungsprozess beendet. So können Restlaufzeiten der Arbeitsverträge verkürzt werden und eine potentielle Neuausrichtung besser gelingen. Outplacement als Zusatzleistung ist zudem für das Image des Unternehmens von Bedeutung. Es zeigt: “We care for you”.4. Schaffen Sie TransparenzEs ist wichtig frühzeitig den Betriebsrat einzubeziehen, um den Trennungsprozess aktiv und positiv beeinflussen zu können. Als Sprachrohr der Belegschaft ist der Betriebsrat in jedem Fall an Konzepten interessiert, die die Trennung von einzelnen Mitarbeitern oder einen größeren Personalabbau möglichst verträglich gestalten und berufliche Perspektiven aufzeigen. Viele Betriebsräte haben bereits erkannt, dass die rein monetäre Abfindung mittlerweile weniger wiegt als die professionelle Beratung für die berufliche Neuorientierung.5. Wählen Sie ihren Anbieter mit SorgfaltWählen Sie den Outplacement-Anbieter mit der gleichen Sorgfalt aus, mit der Sie auch andere Zulieferer oder Dienstleister aussuchen. Der Anbieter muss eine klare Kosten- und Leistungsübersicht haben. Haben Sie hierbei die Leistungsbestandteile mit dem höchsten Mehrwert für den Mitarbeiter im Blick. Fragen Sie gezielt nach orts- und zeitunabhängigen Beratungseinheiten, individuellen Beratungsmöglichkeiten und Beratervielfalt.FazitEntlassungen und Umstrukturierungen gehören zur Arbeitswelt und Wirtschaftlichkeit von Unternehmen dazu. Outplacement-Prozesse, die vom Arbeitnehmer initiiert und angeboten werden, sind für den scheidenden Arbeitnehmer aber weit mehr als ein schwacher Trost. Vielmehr ist Outplacement ein wichtiger Baustein für die erfolgreiche Weiterführung der Karriere des Arbeitnehmers. Arbeitgeber können mit Outplacement zeigen, dass Sie sich um ihre Mitarbeiter sorgen und die Unternehmenswerte auch über das Arbeitsverhältnis dieser hinaus Bestand haben.Ratgeber OutplacementHilfestellung nach der Kündigung
Foto: Mathias Rosenthal – shutterstock.comUnternehmen, die notgedrungen Kündigungen aussprechen müssen, können die Situation gekündigter Mitarbeiter durch Outplacement erleichtern. Lionstep gibt Tipps, wie gutes Outplacement ablaufen sollte. Das Gespräch suchen
Foto: Monkey Business Images – shutterstock.comDie Trennung von Mitarbeitern ist weder für den Vorgesetzten, der die Nachricht überbringt, noch für den Betroffenen, der seinen Arbeitsplatz verliert, angenehm. Und dennoch: Dieses Gespräch gehört zur Führungsaufgabe! Fundamental ist eine gute Vorbereitung. Ziel allen Austauschs sollte immer eine faire und wertschätzende Trennung sein. Bereits im ersten Gespräch sollten das weitere Vorgehen und ein möglicher Outplacement-Prozess besprochen werden. Zügig handeln
Foto: TippaPatt – shutterstock.comStellen Sie den Mitarbeiter möglichst schnell frei, damit er unmittelbar mit der Neuorientierung beginnen kann. Es gilt den „Abnabelungsprozess“ durch eine faire und konstruktive Trennung zu beschleunigen. Eine intensive berufliche Neuorientierung erfordert volle Konzentration und nimmt mehr Zeit in Anspruch, als ein Full-Time-Job zulässt. Großzügigkeit zeigen
Foto: Gajus – shutterstock.comBieten Sie Outplacement zusätzlich zur Abfindung an. Der Arbeitnehmer profitiert, da er sehr wahrscheinlich schneller einen neuen Job findet. Der Vorteil für das Unternehmen: Je früher der betroffene Mitarbeiter mit der Suche beginnt, desto schneller ist der Trennungsprozess beendet. So können Restlaufzeiten der Arbeitsverträge verkürzt werden und eine potentielle Neuausrichtung besser gelingen. Outplacement als Zusatzleistung ist zudem für das Image des Unternehmens von Bedeutung. Es zeigt: „We care for you“. Transparenz schaffen
Foto: Kritchanut – shutterstock.comEs ist wichtig frühzeitig den Betriebsrat einzubeziehen, um den Trennungsprozess aktiv und positiv beeinflussen zu können. Als Sprachrohr der Belegschaft ist der Betriebsrat in jedem Fall an Konzepten interessiert, die die Trennung von einzelnen Mitarbeitern oder einen größeren Personalabbau möglichst verträglich gestalten und berufliche Perspektiven aufzeigen. Sorgfältige Anbieterauswahl
Foto: kan_chana – shutterstock.comWählen Sie den Outplacement-Anbieter mit der gleichen Sorgfalt aus, mit der Sie auch andere Zulieferer oder Dienstleister aussuchen. Der Anbieter muss eine klare Kosten- und Leistungsübersicht haben. Haben Sie hierbei die Leistungsbestandteile mit dem höchsten Mehrwert für den Mitarbeiter im Blick. Fragen Sie gezielt nach orts- und zeitunabhängigen Beratungseinheiten, individuellen Beratungsmöglichkeiten und Beratervielfalt.

Hilfe bei Entlassung: So geht erfolgreiches Outplacement​ Read More »

Baguette-Banditen schlagen wieder zu (- mit Ransomware und Hohn)​

Baguette-Banditen schlagen wieder zu (- mit Ransomware und Hohn)​

Allgemein

Wer den Schaden hat, braucht für den Spott nicht zu sorgen. shutterstock.com – Linguist Die Ransomware-Gruppe Hellcat wurde bekannt durch den Angriff auf Schneider Electric, in dem sie Baguettes im Wert von 125.000 Dollar als Lösegeld forderte. Doch dieses aufsehenerregende Verbrechen ist nicht die einzige kriminelle Aktivität der Bande. Seit Mitte 2024 nutzt die Gruppe erfolgreich doppelte Erpressung, indem sie zuerst Daten stiehlt und dann deren Veröffentlichung androht. Besonders auffällig sind ihre Ziele und ihr Hang zur Demütigung der Opfer, denn Daten sowie Zugänge werden zu Preisen angeboten, die deutlich unter denen klassischer Erpressung liegen. Unterschiedliche Opfer, gleiche Taktiken Zu den von Hellcat häufig verwendeten Taktiken, Techniken und Verfahren (TTPs) gehört es, Zero-Day-Schwachstellen in Unternehmens-Tools auszunutzen, um an ihre Beute zu gelangen. Über diese Einstiegspunkte ist es den Kriminellen dann möglich, auf die Infrastruktur des Unternehmens zuzugreifen. Im Falle von Schneider Electric geschah dies über einen zuvor unbekannten Fehler im Atlassian Jira-System. Die dabei gestohlenen 40 GB Daten wollte die Gruppe im Austausch gegen Baguettes wieder freigeben. Gleichzeitig ist die Gruppe auch in anderen Ländern und Kontinenten unterwegs. So behauptete Hellcat noch am selben Tages des Einbruchs bei Schneider Electric, sensible Dokumente des jordanischen Bildungsministeriums kompromittiert zu haben. Darüber hinaus gaben die Verbrecher an, über 500.000 Datensätze des College of Business in Tansania veröffentlicht zu haben. Hierbei soll es sich um persönliche und finanzielle Daten von Studenten, Lehrkräften und Mitarbeitern handeln. Wertvolle Beute für kleines Geld Ebenfalls im Dezember 2024 listete die Gruppe dann ein französisches Energieversorgungsunternehmen im Wert von 7 Milliarden Dollar im Dark Web als Opfer. Hier versuchte die Gruppe, den Root-Zugriff auf einen Server für 500 Dollar zu verkaufen. Später im selben Monat bot die Gruppe auch den Root-Zugang zu einer US-Universität mit einem Umsatz von über 5,6 Milliarden Dollar zum Verkauf an. Der Root-Zugriff auf einen Universitätsserver sollte hier „nur“1.500 Dollar kosten. Diese Strategie, wertvolle Daten und Zugriffe für Geldsummen anzubieten, die deutlich unter dem eigentlichen Wert der Beute liegen, ist Teil der Strategie von Hellcat. Opfer sollen durch die niedrigen Preise zum einen gedemütigt und zum anderen zum Handeln gedrängt werden. Das es hierbei nicht immer um monetäre Bereicherung gehen muss, zeigt ein anderes Beispiel aus dem Nahen Osten. Dort bot die Gruppe für gerade einmal 300 Dollar einen Root-Zugang zu den Servern einer irakischen Stadtregierung an. Ziel sei es hier, kritische öffentliche Dienste zu stören, so Experten. Gehackt werden ist schon schlimm genug Ebenfalls im November setzte Hellcat Pinger, US-Mobilfunkanbieter und App-Entwickler, auf die Liste seiner Opfer. Die Täter behaupteten, 111 GB an Daten gestohlen zu haben, darunter 9 Millionen Benutzerdatensätze, private Nachrichten, Sprachnachrichten, Backend-Systeme, interne Tools und Quellcodes. Sie drohten damit, alle Daten freizugeben, wenn das Unternehmen nicht zahlt. Die Gruppe scheint nur in ausgewählten Fällen öffentlichkeitswirksam ihren Opfern Sonderkonditionen anzubieten. In Bezug auf die US-amerikanischen Geschädigten sind solche nicht bekannt. Wie viele der aufstrebenden Cybercrime-Organisationen nutzt Hellcat ein Ransomware-as-a-Service-Geschäftsmodell. Hierbei bieten die Kriminellen Infrastruktur, Verschlüsselungs-Tools und andere Malware an Partner im Austausch für einen Teil des Gewinns an. Laut Experten sollen die Hauptakteure hochrangige Mitglieder des BreachForum sein. 

Baguette-Banditen schlagen wieder zu (- mit Ransomware und Hohn)​ Wer den Schaden hat, braucht für den Spott nicht zu sorgen.
shutterstock.com – Linguist

Die Ransomware-Gruppe Hellcat wurde bekannt durch den Angriff auf Schneider Electric, in dem sie Baguettes im Wert von 125.000 Dollar als Lösegeld forderte. Doch dieses aufsehenerregende Verbrechen ist nicht die einzige kriminelle Aktivität der Bande.

Seit Mitte 2024 nutzt die Gruppe erfolgreich doppelte Erpressung, indem sie zuerst Daten stiehlt und dann deren Veröffentlichung androht. Besonders auffällig sind ihre Ziele und ihr Hang zur Demütigung der Opfer, denn Daten sowie Zugänge werden zu Preisen angeboten, die deutlich unter denen klassischer Erpressung liegen.

Unterschiedliche Opfer, gleiche Taktiken

Zu den von Hellcat häufig verwendeten Taktiken, Techniken und Verfahren (TTPs) gehört es, Zero-Day-Schwachstellen in Unternehmens-Tools auszunutzen, um an ihre Beute zu gelangen. Über diese Einstiegspunkte ist es den Kriminellen dann möglich, auf die Infrastruktur des Unternehmens zuzugreifen. Im Falle von Schneider Electric geschah dies über einen zuvor unbekannten Fehler im Atlassian Jira-System. Die dabei gestohlenen 40 GB Daten wollte die Gruppe im Austausch gegen Baguettes wieder freigeben.

Gleichzeitig ist die Gruppe auch in anderen Ländern und Kontinenten unterwegs. So behauptete Hellcat noch am selben Tages des Einbruchs bei Schneider Electric, sensible Dokumente des jordanischen Bildungsministeriums kompromittiert zu haben. Darüber hinaus gaben die Verbrecher an, über 500.000 Datensätze des College of Business in Tansania veröffentlicht zu haben. Hierbei soll es sich um persönliche und finanzielle Daten von Studenten, Lehrkräften und Mitarbeitern handeln.

Wertvolle Beute für kleines Geld

Ebenfalls im Dezember 2024 listete die Gruppe dann ein französisches Energieversorgungsunternehmen im Wert von 7 Milliarden Dollar im Dark Web als Opfer. Hier versuchte die Gruppe, den Root-Zugriff auf einen Server für 500 Dollar zu verkaufen. Später im selben Monat bot die Gruppe auch den Root-Zugang zu einer US-Universität mit einem Umsatz von über 5,6 Milliarden Dollar zum Verkauf an. Der Root-Zugriff auf einen Universitätsserver sollte hier „nur“1.500 Dollar kosten.

Diese Strategie, wertvolle Daten und Zugriffe für Geldsummen anzubieten, die deutlich unter dem eigentlichen Wert der Beute liegen, ist Teil der Strategie von Hellcat. Opfer sollen durch die niedrigen Preise zum einen gedemütigt und zum anderen zum Handeln gedrängt werden. Das es hierbei nicht immer um monetäre Bereicherung gehen muss, zeigt ein anderes Beispiel aus dem Nahen Osten. Dort bot die Gruppe für gerade einmal 300 Dollar einen Root-Zugang zu den Servern einer irakischen Stadtregierung an. Ziel sei es hier, kritische öffentliche Dienste zu stören, so Experten.

Gehackt werden ist schon schlimm genug

Ebenfalls im November setzte Hellcat Pinger, US-Mobilfunkanbieter und App-Entwickler, auf die Liste seiner Opfer. Die Täter behaupteten, 111 GB an Daten gestohlen zu haben, darunter

9 Millionen Benutzerdatensätze,

private Nachrichten,

Sprachnachrichten,

Backend-Systeme,

interne Tools und

Quellcodes.

Sie drohten damit, alle Daten freizugeben, wenn das Unternehmen nicht zahlt.

Die Gruppe scheint nur in ausgewählten Fällen öffentlichkeitswirksam ihren Opfern Sonderkonditionen anzubieten. In Bezug auf die US-amerikanischen Geschädigten sind solche nicht bekannt.

Wie viele der aufstrebenden Cybercrime-Organisationen nutzt Hellcat ein Ransomware-as-a-Service-Geschäftsmodell. Hierbei bieten die Kriminellen Infrastruktur, Verschlüsselungs-Tools und andere Malware an Partner im Austausch für einen Teil des Gewinns an. Laut Experten sollen die Hauptakteure hochrangige Mitglieder des BreachForum sein.

Baguette-Banditen schlagen wieder zu (- mit Ransomware und Hohn)​ Read More »

Nach oben scrollen