Computerhaus Quickborn

April 2025

Lobbyisten bejubeln digitale Agenda von Schwarz-Rot​

Allgemein

Die wirtschaftsorientierten Verbände begrüßen die digitalpolitische Agend von Union und SPD. PeopleImages.com – Yuri A – shutterstock.com Rund fünf Seiten widmet der Koalitionsvertrag von CDU, CSU und SPD dediziert der künftigen Digitalpolitik Deutschlands. Die nach außen sichtbarste Neuerung ist der Plan, ein eigenständiges Bundesministerium für Digitalisierung und Staatsmodernisierung einzurichten. Auch ansonsten ist die digitale Agenda voll mit ambitionierten Zielen, die teilweise an ein digitales Wunderland erinnern. Entsprechend unterschiedlich fällt das Echo bei wirtschaftsnahen Verbänden und zivilgesellschaftlichen Organisationen aus. Das Meinungsspektrum reicht dabei von überschwänglicher Euphorie bis zu einer fundamentalen Kritik, die die Grundrechte in Gefahr sieht. Wir haben verschiedene Stimmen gesammelt. Die überschwänglichen Befürworter Bitkom Ganz klar positiv äußert sich Bitkom-Präsident Ralf Wintergerst zum Koalitionsvertrag von Union und SPD: „Die Einrichtung eines Ministeriums für Digitalisierung und Staatsmodernisierung ist ein Meilenstein für Deutschland und das lange erwartete Aufbruchsignal der neuen Bundesregierung. Richtig ausgestaltet, kann es die digitalpolitischen Themen im Bund in einer Hand zusammenführen und so zu einem echten Treiber für die Digitalisierung werden … Ein starkes Digitalministerium zeigt: Deutschland macht ernst mit der Digitalisierung und nimmt seine digitale Zukunft selbst in die Hand.“ BVDW Angelehnt an die berühmten Worte zur Papstwahl kommentiert der Bundesverband Digitale Wirtschaft (BVDW) die Ergebnisse der Koalitionsverhandlungen: Habemus digitale Zukunftsfähigkeit? Positiv in die Zukunft blickend meinte Dirk Freytag, Präsident des BVDW zur Veröffentlichung des Vertrages: „Der heutige Tag macht Hoffnung – Hoffnung auf einen echten Neuanfang in der deutschen Daten- und Digitalpolitik. In einer Zeit, in der nicht nur der Digitalen Wirtschaft die Zuversicht fehlt, setzt der Koalitionsvertrag ein wichtiges Zeichen: Es bewegt sich etwas. Im Fokus steht die digitale Wertschöpfung, nicht mehr sie zu hemmen.“ Jubel mit Wermutstropfen eco Grundsätzlich begrüßt man auch bei eco – Verband der Internetwirtschaft e. V.  – die künftige digitalpolitische Agenda. So wertet man die Schaffung eine eigenständigen Digitalministeriums als bedeutendes politische Signal. So lobt Vorstandsvorsitzender Oliver Süme etwa: „Mit dem Bekenntnis zu einem ‚Ministerium für Digitalisierung und Staatsmodernisierung‘ rückt eines der zentralen Zukunftsthemen in den Mittelpunkt politischen Handelns.“ Gleichzeitig schickt er aber mahnende Worte hinterher, dass es nicht bei Symbolpolitik bleiben dürfe: „So erfreulich dieses Signal ist: Entscheidend wird die Umsetzung sein. Ein solches Ministerium braucht ein mutiges Mandat, klare Zuständigkeiten und echten Gestaltungswillen.“ Auch wenn der Verband positiv zu den Plänen der Koalitionäre steht und etwa die Impulse für die Rechenzentrumsbranche begrüßt, ganz ungetrübt ist die Begeisterung des eco nicht. „Mit der erneuten Aufnahme von Vorratsdatenspeicherung in Form einer IP-Adressspeicherung im Koalitionsvertrag setzt die Koalition ein falsches Signal. Diese Maßnahmen bedrohen die Privatsphäre der Bürgerinnen und Bürger, und schaffen ein Klima der Unsicherheit im Netz“, warnt Verbandschef Süme. BDI Eher skeptische Worte findet auch Tanja Gönner, Hauptgeschäftsführerin des BDI. Sie sieht zwar Ansätze für dringend notwendige Strukturreformen, betont aber zugleich, dass nun eine rasche Umsetzung entscheidend sei. Entsprechend verhalten ist denn auch die Begeisterung für die künftige Digitalpolitik. „Unter dem Strich werden wir die Bundesregierung daran messen, ob sie den Staat effizienter macht und modernisiert“, so Gönner, „wenn es einem neuen, eigenständigen Bundesministerium gelingt, die Themen für Digitalisierung und Staatsmodernisierung intelligent und dynamisch zusammenzuführen, könnte das einen Schub für einen zukunftsfähigen Staat geben“. Die Kritiker D64 Wie den eco stört auch D64 – Zentrum für Digitalen Fortschritt – die Vorratsdatenspeicherung in der digitalen Agenda. Allerdings ist Svea Windwehr, Co-Vorsitzende bei D64, in ihrer Kritik nicht ganz so diplomatisch wie der eco: „Der Koalitionsvertrag höhlt Grundrechte aus, schafft neue Sicherheitsrisiken und ist so nicht verantwortungsvoll, sondern verantwortungslos.“ Auch andere Punkte sind D64 ein Dorn im Auge, wie etwa, dass die Bundespolizei künftig Sypware auf Endgeräten einsetzen dürfen soll. Diese Quellen-TKÜ unterminiere die Verschlüsselung und schwäche die IT-Sicherheit. Ferner habe man mit dem Koalitionsvertrag die Chance verpasst, ein wirksames IT-Schwachstellenmanagement auch für Behörden einzuführen und das Bundesamt für Sicherheit in der Informationstechnik (BSI) unabhängig aufzustellen. Und last but not least fehle das Bekenntnis, sich für starke europäische Datenschutzregeln, statt einer Verschlankung der DSGVO einzusetzen. NETZPOLITIK.ORG Auch NETZPOLOTIK.ORG stößt die Digitalpolitik der künftigen Regierungspartner eher sauer auf. Die Kritik entzündet sich an der bereits erwähnten Vorratsdatenspeicherung, aber auch an der geplanten Einführung eine biometrischen Internetfahndung. So sollen nicht-kommerzielle Tätigkeiten und vermeintlich risikoarme Datenverarbeitungen wie Kundenlisten von Handwerkern gänzlich von der DSGVO ausgenommen werden sollen. Ebenso bemängelt man, dass ein Bekenntnis zur Verschlüsselung und vertraulicher Kommunikation fehlt. Die Formulierung „Grundsätzlich sichern wir die Vertraulichkeit privater Kommunikation und Anonymität im Netz“ lasse Spielraum für gesetzliche und technische Hintertüren, auch bei der EU-Chatkontrolle. 

Lobbyisten bejubeln digitale Agenda von Schwarz-Rot​ Die wirtschaftsorientierten Verbände begrüßen die digitalpolitische Agend von Union und SPD.
PeopleImages.com – Yuri A – shutterstock.com

Rund fünf Seiten widmet der Koalitionsvertrag von CDU, CSU und SPD dediziert der künftigen Digitalpolitik Deutschlands. Die nach außen sichtbarste Neuerung ist der Plan, ein eigenständiges Bundesministerium für Digitalisierung und Staatsmodernisierung einzurichten. Auch ansonsten ist die digitale Agenda voll mit ambitionierten Zielen, die teilweise an ein digitales Wunderland erinnern.

Entsprechend unterschiedlich fällt das Echo bei wirtschaftsnahen Verbänden und zivilgesellschaftlichen Organisationen aus. Das Meinungsspektrum reicht dabei von überschwänglicher Euphorie bis zu einer fundamentalen Kritik, die die Grundrechte in Gefahr sieht. Wir haben verschiedene Stimmen gesammelt.

Die überschwänglichen Befürworter

Bitkom

Ganz klar positiv äußert sich Bitkom-Präsident Ralf Wintergerst zum Koalitionsvertrag von Union und SPD: „Die Einrichtung eines Ministeriums für Digitalisierung und Staatsmodernisierung ist ein Meilenstein für Deutschland und das lange erwartete Aufbruchsignal der neuen Bundesregierung. Richtig ausgestaltet, kann es die digitalpolitischen Themen im Bund in einer Hand zusammenführen und so zu einem echten Treiber für die Digitalisierung werden … Ein starkes Digitalministerium zeigt: Deutschland macht ernst mit der Digitalisierung und nimmt seine digitale Zukunft selbst in die Hand.“

BVDW

Angelehnt an die berühmten Worte zur Papstwahl kommentiert der Bundesverband Digitale Wirtschaft (BVDW) die Ergebnisse der Koalitionsverhandlungen: Habemus digitale Zukunftsfähigkeit? Positiv in die Zukunft blickend meinte Dirk Freytag, Präsident des BVDW zur Veröffentlichung des Vertrages: „Der heutige Tag macht Hoffnung – Hoffnung auf einen echten Neuanfang in der deutschen Daten- und Digitalpolitik. In einer Zeit, in der nicht nur der Digitalen Wirtschaft die Zuversicht fehlt, setzt der Koalitionsvertrag ein wichtiges Zeichen: Es bewegt sich etwas. Im Fokus steht die digitale Wertschöpfung, nicht mehr sie zu hemmen.“

Jubel mit Wermutstropfen

eco

Grundsätzlich begrüßt man auch bei eco – Verband der Internetwirtschaft e. V.  – die künftige digitalpolitische Agenda. So wertet man die Schaffung eine eigenständigen Digitalministeriums als bedeutendes politische Signal. So lobt Vorstandsvorsitzender Oliver Süme etwa: „Mit dem Bekenntnis zu einem ‚Ministerium für Digitalisierung und Staatsmodernisierung‘ rückt eines der zentralen Zukunftsthemen in den Mittelpunkt politischen Handelns.“

Gleichzeitig schickt er aber mahnende Worte hinterher, dass es nicht bei Symbolpolitik bleiben dürfe: „So erfreulich dieses Signal ist: Entscheidend wird die Umsetzung sein. Ein solches Ministerium braucht ein mutiges Mandat, klare Zuständigkeiten und echten Gestaltungswillen.“

Auch wenn der Verband positiv zu den Plänen der Koalitionäre steht und etwa die Impulse für die Rechenzentrumsbranche begrüßt, ganz ungetrübt ist die Begeisterung des eco nicht. „Mit der erneuten Aufnahme von Vorratsdatenspeicherung in Form einer IP-Adressspeicherung im Koalitionsvertrag setzt die Koalition ein falsches Signal. Diese Maßnahmen bedrohen die Privatsphäre der Bürgerinnen und Bürger, und schaffen ein Klima der Unsicherheit im Netz“, warnt Verbandschef Süme.

BDI

Eher skeptische Worte findet auch Tanja Gönner, Hauptgeschäftsführerin des BDI. Sie sieht zwar Ansätze für dringend notwendige Strukturreformen, betont aber zugleich, dass nun eine rasche Umsetzung entscheidend sei.

Entsprechend verhalten ist denn auch die Begeisterung für die künftige Digitalpolitik. „Unter dem Strich werden wir die Bundesregierung daran messen, ob sie den Staat effizienter macht und modernisiert“, so Gönner, „wenn es einem neuen, eigenständigen Bundesministerium gelingt, die Themen für Digitalisierung und Staatsmodernisierung intelligent und dynamisch zusammenzuführen, könnte das einen Schub für einen zukunftsfähigen Staat geben“.

Die Kritiker

D64

Wie den eco stört auch D64 – Zentrum für Digitalen Fortschritt – die Vorratsdatenspeicherung in der digitalen Agenda. Allerdings ist Svea Windwehr, Co-Vorsitzende bei D64, in ihrer Kritik nicht ganz so diplomatisch wie der eco: „Der Koalitionsvertrag höhlt Grundrechte aus, schafft neue Sicherheitsrisiken und ist so nicht verantwortungsvoll, sondern verantwortungslos.“

Auch andere Punkte sind D64 ein Dorn im Auge, wie etwa, dass die Bundespolizei künftig Sypware auf Endgeräten einsetzen dürfen soll. Diese Quellen-TKÜ unterminiere die Verschlüsselung und schwäche die IT-Sicherheit.

Ferner habe man mit dem Koalitionsvertrag die Chance verpasst, ein wirksames IT-Schwachstellenmanagement auch für Behörden einzuführen und das Bundesamt für Sicherheit in der Informationstechnik (BSI) unabhängig aufzustellen. Und last but not least fehle das Bekenntnis, sich für starke europäische Datenschutzregeln, statt einer Verschlankung der DSGVO einzusetzen.

NETZPOLITIK.ORG

Auch NETZPOLOTIK.ORG stößt die Digitalpolitik der künftigen Regierungspartner eher sauer auf. Die Kritik entzündet sich an der bereits erwähnten Vorratsdatenspeicherung, aber auch an der geplanten Einführung eine biometrischen Internetfahndung.

So sollen nicht-kommerzielle Tätigkeiten und vermeintlich risikoarme Datenverarbeitungen wie Kundenlisten von Handwerkern gänzlich von der DSGVO ausgenommen werden sollen. Ebenso bemängelt man, dass ein Bekenntnis zur Verschlüsselung und vertraulicher Kommunikation fehlt. Die Formulierung „Grundsätzlich sichern wir die Vertraulichkeit privater Kommunikation und Anonymität im Netz“ lasse Spielraum für gesetzliche und technische Hintertüren, auch bei der EU-Chatkontrolle.

Lobbyisten bejubeln digitale Agenda von Schwarz-Rot​ Weiterlesen »

AlpineJS-Tutorial​

Allgemein

Weniger Gepäck (wie mit AlpineJS) ist in manchen Situationen die bessere Wahl.Taras Hipp | shutterstock.com Auf mehrtägigen Outdoor-Trips stellt man sich schnell die Frage, ob sich manche Gepäckstücke eigentlich rechtfertigen. Das verhält sich mit den Entscheidungen, die im Rahmen des Softwareentwicklungsprozesses zu treffen sind, ganz ähnlich: Jede neue Systemkomponente birgt zusätzliche Komplexität, weshalb sich auch jede einzelne am Ende bezahlt machen sollte. Dass weniger oft mehr ist, beweist auch Alpine.js als die Option für Minimalisten unter den JavaScript-Frameworks. Das Rahmenwerk bietet eine beeindruckende Funktionsbandbreite – bei einem sehr überschaubaren Footprint. Dieses Tutorial behandelt die Grundlagen von AlpineJS anhand einiger Beispiele. Sämtlichen Code in diesem Artikel finden Sie auch auf GitHub. Die Minimal-API von AlpineJS Wie in der Dokumentation nachzulesen ist, besteht AlpineJS aus einer Kollektion von: 15 Attributen, sechs Eigenschaften und zwei Methoden. Diese überschaubare API realisiert ein simplifiziertes Reactivity-Paket, das mit einigen praktischen Extras wie Eventing und einem Store garniert ist. Eine einfache Webseite: Abgesehen von der Einbindung des Alpine-Pakets über CDN sind die einzigen Alpine-bezogenen Dinge in diesem Beispiel die beiden Direktiven x-data und x-text. Wenn Sie den Beispielcode in eine HTML-Seite auf Ihrem System einfügen und im Browser anzeigen, sehen Sie die Nachricht „Text literal“. Das ist wenig beeindruckend, demonstriert aber zwei interessante Fakten in Zusammenhang mit AlpineJS: Damit die Reactivity greift, müssen Sie das Markup in eine x-data-Direktive einschließen. Wird letztere entfernt, bleibt x-text wirkungslos. Die x-data-Direktive erstellt also eine Alpine-Komponente. In diesem Fall ist die Direktive leer – in der Praxis ist das in den allermeisten Fällen nicht so. Schließlich geht es um Komponenten, deren Zweck es ist, auf diese Daten zu „reagieren“. Lässt sich jeder gültige JavaScript-Code in x-text einfügen – was für alle Alpine-Direktiven gilt. Die x-text-Property verbindet HTML (die Ansicht) und JavaScript (das Verhalten). Alpine & HTMX Um seine Funktionalität zu definieren, nutzt AlpineJS HTML-Attribute. Insofern ähnelt es in gewisser Weise HTMX. Trotzdem sich die beiden Technologien voneinander unterscheiden, nutzen beide mit x-prefix HTML-Extension-Properties, um gutes, altes HTML performanter zu machen. x-data- & x-text-Elemente nutzen Der Inhalt von x-data wird allen enthaltenen Elementen zur Verfügung gestellt. Für ein besseres Verständnis werfen Sie einen Blick auf folgenden Code: Der Output auf der Seite sind jetzt die ersten Worte der US-amerikanischen Unabhängigkeitserklärung. Wie Sie sehen, hat x-data ein simples, altes JavaScript-Objekt mit einem einzigen Feld definiert – „message“. Auf dieses Objektfeld, das die Präambel enthält, verweist x-text. Reactivity nutzen Um einen Fehler im Dokument zu beheben, nutzen wir im folgenden Beispiel Reactivity: Fix It In diesem Code bezieht sich die x-text-Direktive auf die Substantivvariable, die durch sie offengelegt wird. Neu ist die Schaltfläche (Button), die mit einer x-on:click-Direktive ausgestattet ist. Der Handler für diesen Click Event ersetzt das alte Default-Nomen („men“) durch das genderneutrale „people“. Darum, die Referenz in x-text zu aktualisieren, „kümmert“ sich die Reactivity. Die Benutzeroberfläche spiegelt die Änderungen automatisch wider. Funktionen in Daten Bei den Data Properties in AlpineJS handelt es sich um voll funktionsfähige JavaScript-Objekte. Mit diesem Wissen lässt sich die oben genannte Anforderung auch auf andere Weise erfüllen: Fix It Diesem Beispielcode ist zu entnehmen, dass das data-Objekt jetzt eine fixIt-Methode hostet, die vom Click Handler aufgerufen wird. Die Objektstruktur lässt sich dabei anpassen – je nachdem, wie sich das HTML verhalten soll. script vs. x-data Es kann vorkommen, dass Ihnen Code begegnet, der über die x-data -Direktive eine Funktion aufruft, die in einem script -Tag definiert ist. Das ist eine Frage des persönlichen Geschmacks, weil es genauso funktioniert, wie ein Inline- x-data: … … Remote-Daten abrufen Um die Anforderungen etwas nach oben zu schrauben, soll es im nächsten Beispiel darum gehen, eine JSON-formatierte Liste der US-Präsidenten über eine externe API zu laden. Im ersten Schritt sorgen wir dafür, dass diese geladen wird, sobald auch die Seite geladen wird. Dafür nutzen wir die x-init-Direktive: Mit Blick auf diesen Code ist zu sagen, dass die x-data-Direktive nun ein einfaches presidents-Feld mit einem leeren Array aufweist. Den Inhalt dieses Felds gibt x-text innerhalb des span-Elements aus. Der x-init-Part gestaltet sich etwas komplexer: Er ist in eine Self-Executing-Funktion eingeschlossen. Das liegt daran, dass AlpineJS eine Funktion erwartet – keine Funktionsdefinition. Sobald die Liste der Präsidenten vom Endpunkt abgerufen wurde, fügen wir sie der presidents-Variablen hinzu, die Alpine im Rahmen seines x-data-Objekts zur Verfügung gestellt hat. Iteration mit AlpineJS An diesem Punkt ruft die App die Daten vom Remote-Endpunkt ab und speichert sie. Allerdings liefert sie ungewollte Outputs wie [Object], [Object] …. Um dieses Problem zu beheben, müssen wir uns zunächst die Iteration über die Daten ansehen: From: Until: Dieser Code enthält eine normale, ungeordnete Liste sowie ein HTML-Vorlagenelement, das wiederum eine x-for-Direktive enthält. Diese funktioniert genauso wie in anderen reaktiven Frameworks und ermöglicht es, eine Collection und einen Identifier zu spezifizieren. Diese werden dem eingeschlossenen Markup zur Verfügung gestellt, das die jeweilige Instanz dieser Sammlung repräsentiert (in diesem Fall pres). Der Rest des Markups verwendet die pres-Variable, um über x-text Daten aus den Objekten auszugeben. Die App sieht nun in etwa wie im nachfolgenden Screenshot aus: loading=”lazy” width=”400px”>IDG Show/Hide & onClick Angenommen, wir möchten nun die Möglichkeit hinzufügen, auf die Daten für den jeweiligen Präsidenten umzuschalten, indem man auf dessen Namen klickt. Dazu würden wir das Markup wie folgt verändern: From: Until: In diesem Beispiel wenden wir die x-show-Direktive auf ein div an, das die Details des Präsidenten enthält. Ob der Inhalt sichtbar ist oder nicht, bestimmt die „Truthiness“ des x-show-Werts. In unserem Fall wird das durch das pres.show-Feld definiert. Um Daten und Verhalten besser voneinander zu isolieren, ist im Fall einer realen Anwendung davon abzuraten, Geschäftsdaten zu nutzen, um die show/hide-Variable zu hosten. Um den Wert von pres.show zu verändern, ergänzen wir den Header um einen x-on:click-Handler. Dieser tauscht einfach den true/false-Wert von pres.show: pres.show = ! pres.show. Übergangsanimation hinzufügen AlpineJS enthält integrierte „Transitions“, die sich auf die show-/hide-Funktion anwenden lassen. Eine Standardanimation fügen Sie folgendermaßen hinzu: From: Until: Geändert hat sich lediglich das Element, das die x-show-Direktive enthält – nun weist es außerdem eine x-transition-Anweisung auf. In diesem Fall kommt ein „Slide & Fade“-Effekt zum Einsatz. Sie können den Übergangseffekt jedoch umfassend anpassen – oder auch eigene CSS-Klassen einbringen. Tiefergehende Informationen zum Thema Transitions in AlpineJS hält die Dokumentation bereit. Binding an Inputs Im nächsten Schritt ergänzen wir eine simple Filterfunktion. Dazu ist es nötig, einen Input hinzuzufügen, der an die Daten gebunden wird und die zurückgegebenen Datensätze auf der Grundlage dieses Werts filtern: … Das x-data-Objekt weist nun ein „Filter“-Feld auf. Dieses ist über die x-model-Direktive bidirektional an das Eingabeelement gebunden und verweist auf “filter“. Wir haben die x-for-Direktive der Vorlage geändert, um auf eine neue getPresidents()-Methode zu verweisen, die im x-data-Objekt implementiert ist. Diese verwendet Standard-JavaScript-Syntax, um die Präsidenten danach zu filtern, ob ihr Filterfeld Text enthält. Die $dispatch-Direktive von AlpineJS Eventuell wirft die Kommunikation zwischen den Komponenten Fragen auf. AlpineJS verzichtet darauf, diese explizit zu „verdrahten“ – so gibt es beispielsweise keine parent-to-child-Properties. Stattdessen nutzt das Framework eine Browserumgebung (zum Beispiel das Fenster) über die $dispatch-Direktive als Event Bus. Das steht mit der AlpineJS-Philosophie in Einklang, nur so viel Funktionalität hinzuzufügen, wie nötig ist. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

AlpineJS-Tutorial​ Weniger Gepäck (wie mit AlpineJS) ist in manchen Situationen die bessere Wahl.Taras Hipp | shutterstock.com

Auf mehrtägigen Outdoor-Trips stellt man sich schnell die Frage, ob sich manche Gepäckstücke eigentlich rechtfertigen. Das verhält sich mit den Entscheidungen, die im Rahmen des Softwareentwicklungsprozesses zu treffen sind, ganz ähnlich: Jede neue Systemkomponente birgt zusätzliche Komplexität, weshalb sich auch jede einzelne am Ende bezahlt machen sollte.

Dass weniger oft mehr ist, beweist auch Alpine.js als die Option für Minimalisten unter den JavaScript-Frameworks. Das Rahmenwerk bietet eine beeindruckende Funktionsbandbreite – bei einem sehr überschaubaren Footprint. Dieses Tutorial behandelt die Grundlagen von AlpineJS anhand einiger Beispiele. Sämtlichen Code in diesem Artikel finden Sie auch auf GitHub.

Die Minimal-API von AlpineJS

Wie in der Dokumentation nachzulesen ist, besteht AlpineJS aus einer Kollektion von:

15 Attributen,

sechs Eigenschaften und

zwei Methoden.

Diese überschaubare API realisiert ein simplifiziertes Reactivity-Paket, das mit einigen praktischen Extras wie Eventing und einem Store garniert ist. Eine einfache Webseite:

Abgesehen von der Einbindung des Alpine-Pakets über CDN sind die einzigen Alpine-bezogenen Dinge in diesem Beispiel die beiden Direktiven x-data und x-text.

Wenn Sie den Beispielcode in eine HTML-Seite auf Ihrem System einfügen und im Browser anzeigen, sehen Sie die Nachricht „Text literal“. Das ist wenig beeindruckend, demonstriert aber zwei interessante Fakten in Zusammenhang mit AlpineJS:

Damit die Reactivity greift, müssen Sie das Markup in eine x-data-Direktive einschließen. Wird letztere entfernt, bleibt x-text wirkungslos. Die x-data-Direktive erstellt also eine Alpine-Komponente. In diesem Fall ist die Direktive leer – in der Praxis ist das in den allermeisten Fällen nicht so. Schließlich geht es um Komponenten, deren Zweck es ist, auf diese Daten zu „reagieren“.

Lässt sich jeder gültige JavaScript-Code in x-text einfügen – was für alle Alpine-Direktiven gilt. Die x-text-Property verbindet HTML (die Ansicht) und JavaScript (das Verhalten).

Alpine & HTMX
Um seine Funktionalität zu definieren, nutzt AlpineJS HTML-Attribute. Insofern ähnelt es in gewisser Weise HTMX. Trotzdem sich die beiden Technologien voneinander unterscheiden, nutzen beide mit x-prefix HTML-Extension-Properties, um gutes, altes HTML performanter zu machen.

x-data- & x-text-Elemente nutzen

Der Inhalt von x-data wird allen enthaltenen Elementen zur Verfügung gestellt. Für ein besseres Verständnis werfen Sie einen Blick auf folgenden Code:

Der Output auf der Seite sind jetzt die ersten Worte der US-amerikanischen Unabhängigkeitserklärung. Wie Sie sehen, hat x-data ein simples, altes JavaScript-Objekt mit einem einzigen Feld definiert – „message“. Auf dieses Objektfeld, das die Präambel enthält, verweist x-text.

Reactivity nutzen

Um einen Fehler im Dokument zu beheben, nutzen wir im folgenden Beispiel Reactivity:

Fix It

In diesem Code bezieht sich die x-text-Direktive auf die Substantivvariable, die durch sie offengelegt wird. Neu ist die Schaltfläche (Button), die mit einer x-on:click-Direktive ausgestattet ist.

Der Handler für diesen Click Event ersetzt das alte Default-Nomen („men“) durch das genderneutrale „people“. Darum, die Referenz in x-text zu aktualisieren, „kümmert“ sich die Reactivity. Die Benutzeroberfläche spiegelt die Änderungen automatisch wider.

Funktionen in Daten

Bei den Data Properties in AlpineJS handelt es sich um voll funktionsfähige JavaScript-Objekte. Mit diesem Wissen lässt sich die oben genannte Anforderung auch auf andere Weise erfüllen:

Fix It

Diesem Beispielcode ist zu entnehmen, dass das data-Objekt jetzt eine fixIt-Methode hostet, die vom Click Handler aufgerufen wird. Die Objektstruktur lässt sich dabei anpassen – je nachdem, wie sich das HTML verhalten soll.

script vs. x-data
Es kann vorkommen, dass Ihnen Code begegnet, der über die x-data -Direktive eine Funktion aufruft, die in einem script -Tag definiert ist. Das ist eine Frage des persönlichen Geschmacks, weil es genauso funktioniert, wie ein Inline- x-data:


Remote-Daten abrufen

Um die Anforderungen etwas nach oben zu schrauben, soll es im nächsten Beispiel darum gehen, eine JSON-formatierte Liste der US-Präsidenten über eine externe API zu laden. Im ersten Schritt sorgen wir dafür, dass diese geladen wird, sobald auch die Seite geladen wird. Dafür nutzen wir die x-init-Direktive:

Mit Blick auf diesen Code ist zu sagen, dass die x-data-Direktive nun ein einfaches presidents-Feld mit einem leeren Array aufweist. Den Inhalt dieses Felds gibt x-text innerhalb des span-Elements aus. Der x-init-Part gestaltet sich etwas komplexer: Er ist in eine Self-Executing-Funktion eingeschlossen. Das liegt daran, dass AlpineJS eine Funktion erwartet – keine Funktionsdefinition.

Sobald die Liste der Präsidenten vom Endpunkt abgerufen wurde, fügen wir sie der presidents-Variablen hinzu, die Alpine im Rahmen seines x-data-Objekts zur Verfügung gestellt hat.

Iteration mit AlpineJS

An diesem Punkt ruft die App die Daten vom Remote-Endpunkt ab und speichert sie. Allerdings liefert sie ungewollte Outputs wie [Object], [Object] …. Um dieses Problem zu beheben, müssen wir uns zunächst die Iteration über die Daten ansehen:

From: Until:

Dieser Code enthält eine normale, ungeordnete Liste sowie ein HTML-Vorlagenelement, das wiederum eine x-for-Direktive enthält. Diese funktioniert genauso wie in anderen reaktiven Frameworks und ermöglicht es, eine Collection und einen Identifier zu spezifizieren. Diese werden dem eingeschlossenen Markup zur Verfügung gestellt, das die jeweilige Instanz dieser Sammlung repräsentiert (in diesem Fall pres).

Der Rest des Markups verwendet die pres-Variable, um über x-text Daten aus den Objekten auszugeben. Die App sieht nun in etwa wie im nachfolgenden Screenshot aus:

loading=”lazy” width=”400px”>IDG

Show/Hide & onClick

Angenommen, wir möchten nun die Möglichkeit hinzufügen, auf die Daten für den jeweiligen Präsidenten umzuschalten, indem man auf dessen Namen klickt. Dazu würden wir das Markup wie folgt verändern:

From: Until:

In diesem Beispiel wenden wir die x-show-Direktive auf ein div an, das die Details des Präsidenten enthält. Ob der Inhalt sichtbar ist oder nicht, bestimmt die „Truthiness“ des x-show-Werts. In unserem Fall wird das durch das pres.show-Feld definiert. Um Daten und Verhalten besser voneinander zu isolieren, ist im Fall einer realen Anwendung davon abzuraten, Geschäftsdaten zu nutzen, um die show/hide-Variable zu hosten.

Um den Wert von pres.show zu verändern, ergänzen wir den Header um einen x-on:click-Handler. Dieser tauscht einfach den true/false-Wert von pres.show: pres.show = ! pres.show.

Übergangsanimation hinzufügen

AlpineJS enthält integrierte „Transitions“, die sich auf die show-/hide-Funktion anwenden lassen. Eine Standardanimation fügen Sie folgendermaßen hinzu:

From: Until:

Geändert hat sich lediglich das Element, das die x-show-Direktive enthält – nun weist es außerdem eine x-transition-Anweisung auf. In diesem Fall kommt ein „Slide & Fade“-Effekt zum Einsatz. Sie können den Übergangseffekt jedoch umfassend anpassen – oder auch eigene CSS-Klassen einbringen.

Tiefergehende Informationen zum Thema Transitions in AlpineJS hält die Dokumentation bereit.

Binding an Inputs

Im nächsten Schritt ergänzen wir eine simple Filterfunktion. Dazu ist es nötig, einen Input hinzuzufügen, der an die Daten gebunden wird und die zurückgegebenen Datensätze auf der Grundlage dieses Werts filtern:

Das x-data-Objekt weist nun ein „Filter“-Feld auf. Dieses ist über die x-model-Direktive bidirektional an das Eingabeelement gebunden und verweist auf “filter“.

Wir haben die x-for-Direktive der Vorlage geändert, um auf eine neue getPresidents()-Methode zu verweisen, die im x-data-Objekt implementiert ist. Diese verwendet Standard-JavaScript-Syntax, um die Präsidenten danach zu filtern, ob ihr Filterfeld Text enthält.

Die $dispatch-Direktive von AlpineJS
Eventuell wirft die Kommunikation zwischen den Komponenten Fragen auf. AlpineJS verzichtet darauf, diese explizit zu „verdrahten“ – so gibt es beispielsweise keine parent-to-child-Properties. Stattdessen nutzt das Framework eine Browserumgebung (zum Beispiel das Fenster) über die $dispatch-Direktive als Event Bus. Das steht mit der AlpineJS-Philosophie in Einklang, nur so viel Funktionalität hinzuzufügen, wie nötig ist.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

AlpineJS-Tutorial​ Weiterlesen »

Voll retro: Diese DOS-Spiele haben uns begeistert​

Allgemein

Das waren noch Zeiten – das Betriebssystem MS DOS 6.22 passte auf drei Floppy Disks mit jeweils 1,44 Megabyte. Foto: Jirik V – shutterstock.comDie Optik pixelig, der Ablauf ruckelig, die Abstürze häufig – und an 3D hat wirklich noch niemand gedacht. Trotz aller Einschränkungen hielten sie uns nächtelang wach, die ersten DOS-Spiele. Wenn man endlich die config.sys und autoexec.bat richtig eingestellt, seine Soundblaster-Konfiguration hinbekommen und genügend Speicher – jedes Kilobyte (!) war wertvoll – freigeschaufelt hatte, konnte es losgehen. Auf den Rechenboliden, mit denen wir heute arbeiten, laufen die DOS-Klassiker nicht mehr. Das liegt nicht nur daran, dass mit der Floppy-Disk ein elementar wichtiges Speichermedium mit sage und schreibe 1,44 Megabyte fehlt. Doch es gibt Mittel und Wege, die Nostalgiker zu neuem Leben zu erwecken. Das gemeinnützige Projekt Internet Archive in San Francisco hat es sich zur Aufgabe gemacht, die Perlen aus der Software-Steinzeit zu hüten und zu bewahren.Hier finden Sie heute die Klassiker von damals:Internet ArchiveDOS Games ArchiveAbandonware DOSDOS GamerWer die Spiele seiner Jugendzeiten zocken möchte, kann das in einem Browser-basierten Emulator tun. Tauchen Sie ein in die Welt von Larry, Loom und Lemmings. Hier ein kleiner Überblick über die Favoriten von damals: LemmingsGrüne Haare, blaues Kleidchen und alle ein bisschen doof – vielleicht hatte ich die Lemminge deshalb so gern. Wenn die putzigen Kerlchen ins Spielfeld purzelten, blindlings losliefen und man blitzschnell überlegen musste, wie man möglichst viele von ihnen heile zum Ausgang bugsiert, schlug der Puls jedes Mal höher. Jeder Lemming, den ich in eine Zeitbombe verwandeln musste, damit er mit seinem Dahinscheiden ein Loch in Decke oder Wand sprengte, um seinen Freunden den Weg zu bahnen, tat mir leid. Lemmings Foto: PsygnosisLemmings Foto: PsygnosisThe Incredible Machine (TIM)Da gehört das Zahnrad hin – oder doch das Förderband? Es war immer ein Triumphgefühl, wenn es endlich gelang, alle verfügbaren Teile so zu einer Maschine zusammenzusetzen, dass sie das tat, was sie tun sollte. Das Arsenal war unerschöpflich – Kanonen, Luftballons, Abflussrohre bis hin zum Küchenmixer und der Miezekatze – genauso wie der Spaß, den wir mit dem Game hatten. The Incredible Machine Foto: Sierra EntertainmentThe Incredible Machine Foto: Sierra_EntertainmentEpic Pinball Unter den zahllosen Flippern der DOS-Ära war Epic Pinball mein Favorit. Schon die ersten Tische “Android“, “Pot of Gold”, “Excalibur” oder “Deep Sea” brachten jede Menge Flipper-Spaß. Doch “Enigma” mit seinen knallig farbigen und flirrenden Hintergründen, fast ohne Tischkonturen, trieb mich regelmäßig in den Wahnsinn, wenn mich das Fingerspitzengefühl verließ, ich meine letzte Kugel zu heftig zurück ins Spiel drosch und diese wieder einmal auf der Flipper-Mine landete. Game over hieß es dann, doch für echte Zocker traf das noch lange nicht zu. Epic Pinball Foto: Epic MegaGamesEpic Pinball Foto: MegaGamesX-Wing “Es war einmal vor langer Zeit in einer weit, weit entfernten Galaxis”: Wer in der 70er und 80er Jahren Star Wars verfallen war, für den war das 1994 herausgekommene X-Wing natürlich ein Muss. Im X-Flügler der Rebellenallianz selbst die TIE-Jäger des Imperiums ins Visier zu nehmen – das war ein Riesen-Abenteuer. Dabei war die Aufgabe durchaus komplex. Es gab unterschiedlichste Missionen, Spielpunkte mussten gesammelt werden, um Orden und Beförderungen zu ergattern. Letztere hat man besser in einer manuell angelegten Sicherungskopie gespeichert – denn sonst musste man wieder von vorne anfangen, wenn einen die Macht im Stich gelassen und der Imperiums-Pilot gut gezielt hatte. Der quäkende Computersound der Star-Wars-Musikmotive ist heute auf jeden Fall ein Lacher. X-Wing Foto: LucasArts EntertainmentX-Wing Foto: LucasArts EntertainmentPrince of Persia 60 Minuten, dann stirbt die Prinzessin, die der böse, machtgierige Wesir Jaffar in seine Gewalt gebracht hat. Das waren die längsten 60 Minuten meines früheren Zocker-Lebens. Prince of Persia war im Grunde das erste Echtzeitspiel. Zwischendrin anzuhalten, den Spielstand abzuspeichern oder einfach mal die Hände auszuschütteln – das war nicht. Wer sich darauf einließ, musste eine Stunde Fallen überwinden und im Schwertkampf Jaffars Palastwachen ausschalten. Schließlich ging es um eine Prinzessin. War sie endlich gerettet, wurde man selbst zum Prince of Persia. Prince of Persia Foto: Broderbund SoftwarePrince of Persia Foto: Broderbund SoftwareDie Siedler 1994 kamen “Die Siedler” für DOS heraus. Ein Spiel mit Suchtcharakter. Stundenlang konnte man tüfteln. Wo soll die nächste Siedlung hin? Was brauche ich an Rohstoffen? Reichen die Soldaten aus, um die eigene Burg zu verteidigen? Es war jedes Mal zum Haare raufen, wenn die Strategie bis ins letzte Detail ausgefeilt schien und dann doch die Träger ausgingen und Steine nicht mehr abtransportiert werden konnten. Die Siedler Foto: Blue Byte SoftwareDie Siedler Foto: Blue Byte SoftwareDonkey Kong Kein Zweifel, der rosa Gorilla war Kult. Donkey Kong gilt als Mutter aller Jump’n-Run-Games. Früher war dieses Spiel genau das richtige, um zwischendrin kurz abzuschalten. Auch wenn Donkey Kong höhnisch grinste und den Spieler mit Stahlträgern bewarf, irgendwie fand er doch den Weg über die Leitern, um Pauline aus den Fängen des Ungetüms zu befreien.Donkey Kong Foto: AtariDonkey Kong Foto: Atari 

Voll retro: Diese DOS-Spiele haben uns begeistert​ Das waren noch Zeiten – das Betriebssystem MS DOS 6.22 passte auf drei Floppy Disks mit jeweils 1,44 Megabyte.
Foto: Jirik V – shutterstock.comDie Optik pixelig, der Ablauf ruckelig, die Abstürze häufig – und an 3D hat wirklich noch niemand gedacht. Trotz aller Einschränkungen hielten sie uns nächtelang wach, die ersten DOS-Spiele. Wenn man endlich die config.sys und autoexec.bat richtig eingestellt, seine Soundblaster-Konfiguration hinbekommen und genügend Speicher – jedes Kilobyte (!) war wertvoll – freigeschaufelt hatte, konnte es losgehen. Auf den Rechenboliden, mit denen wir heute arbeiten, laufen die DOS-Klassiker nicht mehr. Das liegt nicht nur daran, dass mit der Floppy-Disk ein elementar wichtiges Speichermedium mit sage und schreibe 1,44 Megabyte fehlt. Doch es gibt Mittel und Wege, die Nostalgiker zu neuem Leben zu erwecken. Das gemeinnützige Projekt Internet Archive in San Francisco hat es sich zur Aufgabe gemacht, die Perlen aus der Software-Steinzeit zu hüten und zu bewahren.Hier finden Sie heute die Klassiker von damals:Internet ArchiveDOS Games ArchiveAbandonware DOSDOS GamerWer die Spiele seiner Jugendzeiten zocken möchte, kann das in einem Browser-basierten Emulator tun. Tauchen Sie ein in die Welt von Larry, Loom und Lemmings. Hier ein kleiner Überblick über die Favoriten von damals: LemmingsGrüne Haare, blaues Kleidchen und alle ein bisschen doof – vielleicht hatte ich die Lemminge deshalb so gern. Wenn die putzigen Kerlchen ins Spielfeld purzelten, blindlings losliefen und man blitzschnell überlegen musste, wie man möglichst viele von ihnen heile zum Ausgang bugsiert, schlug der Puls jedes Mal höher. Jeder Lemming, den ich in eine Zeitbombe verwandeln musste, damit er mit seinem Dahinscheiden ein Loch in Decke oder Wand sprengte, um seinen Freunden den Weg zu bahnen, tat mir leid. Lemmings
Foto: PsygnosisLemmings
Foto: PsygnosisThe Incredible Machine (TIM)Da gehört das Zahnrad hin – oder doch das Förderband? Es war immer ein Triumphgefühl, wenn es endlich gelang, alle verfügbaren Teile so zu einer Maschine zusammenzusetzen, dass sie das tat, was sie tun sollte. Das Arsenal war unerschöpflich – Kanonen, Luftballons, Abflussrohre bis hin zum Küchenmixer und der Miezekatze – genauso wie der Spaß, den wir mit dem Game hatten. The Incredible Machine
Foto: Sierra EntertainmentThe Incredible Machine
Foto: Sierra_EntertainmentEpic Pinball Unter den zahllosen Flippern der DOS-Ära war Epic Pinball mein Favorit. Schon die ersten Tische “Android“, “Pot of Gold”, “Excalibur” oder “Deep Sea” brachten jede Menge Flipper-Spaß. Doch “Enigma” mit seinen knallig farbigen und flirrenden Hintergründen, fast ohne Tischkonturen, trieb mich regelmäßig in den Wahnsinn, wenn mich das Fingerspitzengefühl verließ, ich meine letzte Kugel zu heftig zurück ins Spiel drosch und diese wieder einmal auf der Flipper-Mine landete. Game over hieß es dann, doch für echte Zocker traf das noch lange nicht zu. Epic Pinball
Foto: Epic MegaGamesEpic Pinball
Foto: MegaGamesX-Wing “Es war einmal vor langer Zeit in einer weit, weit entfernten Galaxis”: Wer in der 70er und 80er Jahren Star Wars verfallen war, für den war das 1994 herausgekommene X-Wing natürlich ein Muss. Im X-Flügler der Rebellenallianz selbst die TIE-Jäger des Imperiums ins Visier zu nehmen – das war ein Riesen-Abenteuer. Dabei war die Aufgabe durchaus komplex. Es gab unterschiedlichste Missionen, Spielpunkte mussten gesammelt werden, um Orden und Beförderungen zu ergattern. Letztere hat man besser in einer manuell angelegten Sicherungskopie gespeichert – denn sonst musste man wieder von vorne anfangen, wenn einen die Macht im Stich gelassen und der Imperiums-Pilot gut gezielt hatte. Der quäkende Computersound der Star-Wars-Musikmotive ist heute auf jeden Fall ein Lacher. X-Wing
Foto: LucasArts EntertainmentX-Wing
Foto: LucasArts EntertainmentPrince of Persia 60 Minuten, dann stirbt die Prinzessin, die der böse, machtgierige Wesir Jaffar in seine Gewalt gebracht hat. Das waren die längsten 60 Minuten meines früheren Zocker-Lebens. Prince of Persia war im Grunde das erste Echtzeitspiel. Zwischendrin anzuhalten, den Spielstand abzuspeichern oder einfach mal die Hände auszuschütteln – das war nicht. Wer sich darauf einließ, musste eine Stunde Fallen überwinden und im Schwertkampf Jaffars Palastwachen ausschalten. Schließlich ging es um eine Prinzessin. War sie endlich gerettet, wurde man selbst zum Prince of Persia. Prince of Persia
Foto: Broderbund SoftwarePrince of Persia
Foto: Broderbund SoftwareDie Siedler 1994 kamen “Die Siedler” für DOS heraus. Ein Spiel mit Suchtcharakter. Stundenlang konnte man tüfteln. Wo soll die nächste Siedlung hin? Was brauche ich an Rohstoffen? Reichen die Soldaten aus, um die eigene Burg zu verteidigen? Es war jedes Mal zum Haare raufen, wenn die Strategie bis ins letzte Detail ausgefeilt schien und dann doch die Träger ausgingen und Steine nicht mehr abtransportiert werden konnten. Die Siedler
Foto: Blue Byte SoftwareDie Siedler
Foto: Blue Byte SoftwareDonkey Kong Kein Zweifel, der rosa Gorilla war Kult. Donkey Kong gilt als Mutter aller Jump’n-Run-Games. Früher war dieses Spiel genau das richtige, um zwischendrin kurz abzuschalten. Auch wenn Donkey Kong höhnisch grinste und den Spieler mit Stahlträgern bewarf, irgendwie fand er doch den Weg über die Leitern, um Pauline aus den Fängen des Ungetüms zu befreien.Donkey Kong
Foto: AtariDonkey Kong
Foto: Atari

Voll retro: Diese DOS-Spiele haben uns begeistert​ Weiterlesen »

Die 15 ultimativen Tipps für den Urlaub: So erholen Sie sich richtig​

Allgemein

15 Tipps, wie Sie relaxt in den Urlaub fahren, sich entspannen und möglichst lange von der Auszeit zehren. Foto: Song_about_summer – shutterstock.comHier nun 15 augenzwinkernde Tipps, wie Sie relaxt in Urlaub fahren, Ihre Auszeit entspannt genießen und von den “schönsten Wochen im Jahr” lange zehren.Verreisen Sie offiziell einen Tag früher. Sagen Sie allen Freunden und Bekannten sowie Kunden und Kollegen, mit denen Sie nicht direkt zusammenarbeiten, dass Ihr Urlaub einen Tag früher beginnt. Sonst stapeln sich am letzten Arbeitstag die dringlichen Aufgaben auf Ihrem Schreibtisch und Ihr Telefon klingelt ohne Unterlass.Vereinbaren Sie für den letzten Arbeitstag keine Reisetermine, Meetings sowie Arzt- und Friseurbesuche. Denn diese dauern oft länger als geplant. Die Folge: Sie starten völlig außer Atem in den Urlaub.Erledigen Sie vorm Urlaub alle wichtigen und dringlichen Aufgaben, die Sie nicht delegieren können. Sonst plagt Sie im Urlaub das schlechte Gewissen, und es fällt ihnen schwer, abzuschalten.Urlaub ist Urlaub. Lassen Sie alle Unterlagen, die Sie an Ihre Arbeit erinnern, zu Hause. Packen Sie auch keine Fachliteratur ein, die in Zusammenhang mit ihr steht. Und: Lesen Sie keine Tageszeitungen, schon gar nicht deren Wirtschaftsteil.Sagen Sie Ihren Assistenten oder Stellvertreterinnen: Nach meinem Urlaub sollten maximal so viele Vorgänge auf meinem Schreibtisch liegen, wie ich Urlaubstage habe. Sonst verleidet Ihnen der Gedanke an die Arbeit, die Sie erwartet, die letzten Urlaubstage.Vergessen Sie Ihr Smartphone zuhause. Denn wenn Sie sich permanent darüber informieren, was zuhause oder an der Börse passiert, gewinnen Sie nicht den nötigen Abstand vom Alltag, um wirklich weg zu sein. Sollte dies nicht möglich sein, dann lassen Sie zum Beispiel die eingehenden Telefonate in der Mailbox auflaufen. Dann entscheiden Sie, ob und wann Sie zurückrufen.Beginnen Sie vier, fünf Tage vorm Reiseantritt mit dem Packen. Dann können Sie noch rechtzeitig einen neuen Bikini oder eine neue Badehose kaufen, wenn Sie feststellen, dass Sie in Ihrem alten Outfit keine gute Figur mehr machen.Stimmen Sie sich bereits zu Hause auf den Urlaub ein. Zum Beispiel, indem Sie abends im Bett Reiseführer schmökern oder sich in YouTube Filmchen über Ihr Urlaubsziel anschauen.Feiern Sie Ihren Urlaubsbeginn. Zum Beispiel, indem Sie im Flugzeug ein Gläschen Sekt trinken.Vergessen Sie im Urlaub alles, was Sie über das Thema Zeit- und Selbstmanagement gehört haben. Im Urlaub gibt es nur eine “wichtige” und “dringliche” Aufgabe: sich erholen.Übertragen Sie das Leistungsdenken, dem Sie im Alltag huldigen, nicht auf Ihren Urlaub. Sie müssen nicht jeden Berg erklimmen und jedes Museum besuchen.Gestalten Sie Ihren Urlaub “agil”. Arbeiten Sie kein starres, vorab formuliertes Urlaubsproramm ab. Machen Sie das, wozu Sie gerade Lust und Laune haben – zum Beispiel nichts.Lassen Sie “Fünfe gerade sein”. Bei der Arbeit können Sie dem “Null-Fehler-Prinzip” huldigen. Doch im Urlaub sollten Sie ein “easy living” praktizieren. Sonst ärgern Sie sich über jeden lahmen Kellner und zu warmen Cocktail.“Verlängern” Sie Ihren Urlaub. Sagen Sie allen Personen, mit denen Sie nicht direkt zusammenarbeiten, dass Sie erst zwei Tage später zurückkehren. Sonst klingelt Ihr Telefon nach der Rückkehr ohne Unterlass. Dann ist die Erholung im Handumdrehen verflogen.Behalten Sie den Urlaub in Erinnerung. Stellen Sie ein Urlaubsfoto auf Ihren Schreibtisch. Oder laden Sie es als Startbild auf Ihren PC. Dann können Sie noch ab und zu von der Südsee oder den Bergen träumen.Und noch ein Tipp: Auch ein Urlaub in Balkonien beziehungsweise im heimischen Garten kann sehr erholsam sein. Es muss nicht immer eine Flug- beziehungsweise Fernreise sein.Lesen Sie auchSo gelingt nach dem Urlaub die Rückkehr ins BüroDie besten Apps für Meditation und Fitness 

Die 15 ultimativen Tipps für den Urlaub: So erholen Sie sich richtig​ 15 Tipps, wie Sie relaxt in den Urlaub fahren, sich entspannen und möglichst lange von der Auszeit zehren.
Foto: Song_about_summer – shutterstock.comHier nun 15 augenzwinkernde Tipps, wie Sie relaxt in Urlaub fahren, Ihre Auszeit entspannt genießen und von den “schönsten Wochen im Jahr” lange zehren.Verreisen Sie offiziell einen Tag früher. Sagen Sie allen Freunden und Bekannten sowie Kunden und Kollegen, mit denen Sie nicht direkt zusammenarbeiten, dass Ihr Urlaub einen Tag früher beginnt. Sonst stapeln sich am letzten Arbeitstag die dringlichen Aufgaben auf Ihrem Schreibtisch und Ihr Telefon klingelt ohne Unterlass.Vereinbaren Sie für den letzten Arbeitstag keine Reisetermine, Meetings sowie Arzt- und Friseurbesuche. Denn diese dauern oft länger als geplant. Die Folge: Sie starten völlig außer Atem in den Urlaub.Erledigen Sie vorm Urlaub alle wichtigen und dringlichen Aufgaben, die Sie nicht delegieren können. Sonst plagt Sie im Urlaub das schlechte Gewissen, und es fällt ihnen schwer, abzuschalten.Urlaub ist Urlaub. Lassen Sie alle Unterlagen, die Sie an Ihre Arbeit erinnern, zu Hause. Packen Sie auch keine Fachliteratur ein, die in Zusammenhang mit ihr steht. Und: Lesen Sie keine Tageszeitungen, schon gar nicht deren Wirtschaftsteil.Sagen Sie Ihren Assistenten oder Stellvertreterinnen: Nach meinem Urlaub sollten maximal so viele Vorgänge auf meinem Schreibtisch liegen, wie ich Urlaubstage habe. Sonst verleidet Ihnen der Gedanke an die Arbeit, die Sie erwartet, die letzten Urlaubstage.Vergessen Sie Ihr Smartphone zuhause. Denn wenn Sie sich permanent darüber informieren, was zuhause oder an der Börse passiert, gewinnen Sie nicht den nötigen Abstand vom Alltag, um wirklich weg zu sein. Sollte dies nicht möglich sein, dann lassen Sie zum Beispiel die eingehenden Telefonate in der Mailbox auflaufen. Dann entscheiden Sie, ob und wann Sie zurückrufen.Beginnen Sie vier, fünf Tage vorm Reiseantritt mit dem Packen. Dann können Sie noch rechtzeitig einen neuen Bikini oder eine neue Badehose kaufen, wenn Sie feststellen, dass Sie in Ihrem alten Outfit keine gute Figur mehr machen.Stimmen Sie sich bereits zu Hause auf den Urlaub ein. Zum Beispiel, indem Sie abends im Bett Reiseführer schmökern oder sich in YouTube Filmchen über Ihr Urlaubsziel anschauen.Feiern Sie Ihren Urlaubsbeginn. Zum Beispiel, indem Sie im Flugzeug ein Gläschen Sekt trinken.Vergessen Sie im Urlaub alles, was Sie über das Thema Zeit- und Selbstmanagement gehört haben. Im Urlaub gibt es nur eine “wichtige” und “dringliche” Aufgabe: sich erholen.Übertragen Sie das Leistungsdenken, dem Sie im Alltag huldigen, nicht auf Ihren Urlaub. Sie müssen nicht jeden Berg erklimmen und jedes Museum besuchen.Gestalten Sie Ihren Urlaub “agil”. Arbeiten Sie kein starres, vorab formuliertes Urlaubsproramm ab. Machen Sie das, wozu Sie gerade Lust und Laune haben – zum Beispiel nichts.Lassen Sie “Fünfe gerade sein”. Bei der Arbeit können Sie dem “Null-Fehler-Prinzip” huldigen. Doch im Urlaub sollten Sie ein “easy living” praktizieren. Sonst ärgern Sie sich über jeden lahmen Kellner und zu warmen Cocktail.“Verlängern” Sie Ihren Urlaub. Sagen Sie allen Personen, mit denen Sie nicht direkt zusammenarbeiten, dass Sie erst zwei Tage später zurückkehren. Sonst klingelt Ihr Telefon nach der Rückkehr ohne Unterlass. Dann ist die Erholung im Handumdrehen verflogen.Behalten Sie den Urlaub in Erinnerung. Stellen Sie ein Urlaubsfoto auf Ihren Schreibtisch. Oder laden Sie es als Startbild auf Ihren PC. Dann können Sie noch ab und zu von der Südsee oder den Bergen träumen.Und noch ein Tipp: Auch ein Urlaub in Balkonien beziehungsweise im heimischen Garten kann sehr erholsam sein. Es muss nicht immer eine Flug- beziehungsweise Fernreise sein.Lesen Sie auchSo gelingt nach dem Urlaub die Rückkehr ins BüroDie besten Apps für Meditation und Fitness

Die 15 ultimativen Tipps für den Urlaub: So erholen Sie sich richtig​ Weiterlesen »

Google führt Unified-Security-Plattform ein​

Allgemein

Google Unified Security soll Unternehmen mehr Transparenz über aktuelle Bedrohungen bieten – plus die Möglichkeit, darauf zu reagieren.Foundry Unternehmensinfrastrukturen wachsen ständig und werden immer größer. Das vergrößert nicht nur die Angriffsfläche, sondern erschwert auch die Arbeit der Verteidiger. Gleichzeitig führen getrennte, unzusammenhängende Sicherheits-Tools zu fragmentierten Daten ohne relevanten Kontext. Das macht Unternehmen angesichts der eskalierenden Bedrohungslage verwundbar – zumal sie meist nur reaktiv agieren. Security-Teams arbeiten in Silos und werden durch mühsame Arbeitsabläufe gebremst, so dass es schwierig ist, das Gesamtrisikoprofil eines Unternehmens genau zu bewerten und zu verbessern.  Security-Überblick dank einheitlicher Konsole Um diesen Herausforderungen zu begegnen, hat Google auf der Cloud Next 25 mit Google Unified Security (GUS) eine KI-gestützte Security-Lösung vorgestellt, die Bedrohungsdaten aus internen und externen Quellen mit der Expertise von Googles Incident-Response-Abteilung Mandiant zusammenführt.   GUS schafft laut Google eine einzige, skalierbare, durchsuchbare Sicherheitsdatenstruktur über die gesamte Angriffsfläche. Dies biete Transparenz sowie Erkennungs- und Reaktionsmöglichkeiten über Netzwerke, Endpunkte, Clouds und Anwendungen hinweg. Gleichzeitig werden die Sicherheitsdaten automatisch mit den neuesten Google Threat-Intelligence-Daten angereichert, um eine effektivere Erkennung und Priorisierung zu ermöglichen.   Zu den in GUS integrierten Produkten gehören laut Google:  die in Google Security Operations integrierten Funktionen Browser-Telemetrie und Asset-Kontext von Chrome Enterprise, um die Erkennung von Bedrohungen und Abhilfemaßnahmen zu unterstützen.  Google Threat Intelligence zur Sicherheitsüberprüfung, um proaktiv Gefährdungen zu verstehen und Sicherheitskontrollen anhand der neuesten beobachteten Aktivitäten von Bedrohungsakteuren zu testen.  Informationen zu Cloud-Risiken und -Gefährdungen aus dem Security Command Center, einschließlich derer, die sich auf KI-Workloads auswirken, angereichert mit integrierter Google Threat Intelligence, um Bedrohungen effektiver aufzuspüren und Vorfälle zu klassifizieren.  “Google Unified Security stellt einen Schritt nach vorn dar, um bessere Sicherheitsergebnisse zu erzielen. Durch die Integration von Browser-Verhalten, Managed Threat Hunting und Sicherheitsüberprüfung werden Abdeckungslücken strategisch beseitigt und das Sicherheitsmanagement sowie die Erkennung und Reaktion auf Bedrohungen vereinfacht“, erklärt Michelle Abraham, Senior Research Director, Security and Trust bei IDC. Dieser Ansatz biete Unternehmen eine ganzheitlichere und optimierte Verteidigung gegen die komplexe Bedrohungslandschaft von heute.  Wirklich umfassend wird der Ansatz allerdings erst nach Abschluss der 32-Milliarden-Dollar schweren Übernahme von Wiz. So räumte Google Cloud bei der Bekanntgabe des Kaufs Mitte März ein, dass Unternehmen mit modernen IT-Umgebungen eine Cybersicherheitslösung benötigten, die mehrere Clouds sowie hybride und lokale Umgebungen abdeckt. Aktuell sei der Überblick in dieser Hinsicht noch eingeschränkt.  Agentic AI unterstützt Security-Teams  Neu vorgestellt wurden auf der Cloud Next in Las Vegas außerdem zwei auf Gemini basierende KI-Agenten, die bestimmte Sicherheitsfunktionen automatisieren können, um Ressourcen für Security-Teams freizusetzen. Dazu gehört ein Agent in Google Security Operations, der SecOps-Plattform des Unternehmens, der Alarme sortieren und Untersuchungen automatisch durchführen soll.  Dieser Agent zur Alarmtriage, der im zweiten Quartal als Vorschau verfügbar sein wird, ist laut Google in der Lage, den Kontext eines Alarms zu verstehen, indem er relevante Informationen sammelt und dann ein Urteil abgibt. Ein Sicherheitsexperte kann dann auf dieser Basis entscheiden, was zu tun ist. Google schätzt (nicht ganz ohne Grund), dass der KI-Agent die Arbeitsbelastung von Tier-1- und Tier-2-Analysten, die ansonsten Hunderte von Warnmeldungen pro Tag prüfen und untersuchen müssen, erheblich reduziert.  In Google Threat Intelligence wiederum untersucht künftig ein Malware-Analyse-Agent, ob Code sicher oder schädlich ist. Dieser Agent, der voraussichtlich im 2. Quartal 2025 für ausgewählte Kunden verfügbar sein wird, analysiert potenziell bösartigen Code und ist in der Lage, Skripte zur Deobfuscation zu erstellen und auszuführen. Am Ende fasst der Agent seine Arbeit zusammen und gibt ein endgültiges Urteil ab.  Neuerungen bei Google Security Operations & Co.  Daneben gab es noch zahlreiche Erweiterungen im Security-Portfolio, beziehungsweise neue Sicherheits-Features bei den Google-Cloud-Produkten. Hier ein Überblick:  Google Security Operations  Neue Funktionen für das Datenpipeline-Management: Effizientere Skalierung, Kostenkontrolle, Einhaltung von Compliance-Vorgaben. Integration mit Bindplane erlaubt unter anderem Filterung, Umleitung und Schwärzung sensibler Daten.  Mandiant Threat Defense ist jetzt allgemein verfügbar und bietet KI-gestützte Bedrohungserkennung und -reaktion. Die Experten von Mandiant arbeiten dabei mit den Sicherheitsteams der Kunden zusammen und setzen KI-gestützte Techniken ein, um Bedrohungen zu identifizieren und darauf zu reagieren, Untersuchungen durchzuführen und die Reaktion über SOAR-Playbooks für Sicherheitsoperationen zu skalieren.  Security Command Center  AI Protection hilft bei der Erkennung von KI-Beständen, der Sicherung von KI-Modellen und -Daten. Ferner werden Bedrohungen, die auf KI-Systeme abzielen, erkannt und es wird darauf reagiert.   Model Armor, eine Funktion, die Teil des bestehenden GCP-Dienstes AI Protection ist. Sie ermöglicht Kunden die Anwendung von Inhaltssicherheits- und Sicherheitskontrollen auf Prompts, die an selbst gehostete KI-Modelle gesendet werden – entweder auf der Google Cloud Platform oder über mehrere Clouds hinweg.  Eine Data-Security-Posture-Management-(DSPM-)Funktion, die im Juni als Vorschau verfügbar sein wird, erlaubt die Erkennung, Sicherung und Verwaltung sensibler Daten, einschließlich der zum Training von KI-Modellen verwendeten Datensätze.  Der Compliance Manager (Preview ab Ende Juni) versetzt Kunden in die Lage, Richtlinien zu definieren, Konfigurationen zu kontrollieren und deren Durchsetzung zu überwachen. Auf diese Weise soll es ihnen möglich sein, die Daten-Compliance sicherzustellen und gegenüber Prüfern nachzuweisen.  Weitere Features:  Integration mit Snyk zur Erkennung von Schwachstellen (Preview).  Neue Security-Dashboards für Google Compute Engine (GCE) und Google Kubernetes Engine (GKE) (allgemein verfügbar).  Chrome Enterprise  Neuer Phishing-Schutz in der Premium-Version schützt vor Lookalike-Domains, auch intern.  Erweiterte Datenschutzfunktionen: Datenmaskierung, Wasserzeichen, Kontrollfunktionen (auch auf Android).  Mandiant Cybersecurity Consulting  Mandiant Retainer: On-Demand-Zugang zu Incident-Response-Teams, einlösbar für Analysen & Trainings.  Trusted Cloud  Sovereign Cloud: Ausbau in 32 Regionen weltweit. Partnerschaft mit Thales für „S3NS Trusted Cloud“ (SecNumCloud-konform).  Identitäts- & Zugriffsmanagement:  Einheitliche IAM-Richtlinien (Vorschau),  Managed Workload Identities (Vorschau),  Workload Identity Federation mit X.509 (GA).  Datensicherheit:  Confidential Computing für GKE-Workloads & GPUs (Vorschau/GA),  Neue HSM-Lösungen (Single-Tenant & Bare Metal HSM in Vorschau),  Data Discovery für Vertex AI & Azure, Data-in-Motion-Scanning.  Netzwerksicherheit:  Google Cloud erhält neue Integrationen mit Anbietern von Netzwerksicherheitslösungen zum Schutz von Google Cloud Workloads sowie neue Funktionen und Möglichkeiten im Bereich der Netzwerksicherheit. Dazu gehören:   DNS Armor, eine Funktion zur Erkennung von DNS-basierten Bedrohungen. Sie wurde in Zusammenarbeit mit Infoblox Threat Defense entwickelt;   Inline-Schutz vor Datenverlusten für Secure Web Proxy (SWP) über Integrationen mit Google’s Sensitive Data Protection und Symantec DLP; und   L7-Domain-Filterfunktionen für Google’s Cloud NGFW Enterprise.  Endpunkt-Schutz  Beim Schutz von Endgeräten verlässt sich Google stark auf den Chrome-Enterprise-Browser und den kostenpflichtigen Chrome-Enterprise-Premium-Service, der Echtzeit-Schutz vor Malware und Phishing beim Surfen im Internet, Malware-Tiefenscans auf dem Endgerät, Schutz vor Datenverlust, URL-Filterung, Einblicke in das Nutzerverhalten und mehr bietet.  Zu den neuen Funktionen dieses Dienstes gehört die Möglichkeit für Unternehmen, ihr eigenes Branding und ihre Unternehmensressourcen zu konfigurieren, um Phishing-Versuche auf internen Domains zu erkennen. Außerdem gibt es eine neue Datenmaskierungsfunktion, die die DLP-Funktionen zusammen mit Wasserzeichen, der Sperrung von Screenshots und Kontrollen für Kopieren, Einfügen, Hochladen, Herunterladen und Drucken vervollständigt.  

Google führt Unified-Security-Plattform ein​ Google Unified Security soll Unternehmen mehr Transparenz über aktuelle Bedrohungen bieten – plus die Möglichkeit, darauf zu reagieren.Foundry

Unternehmensinfrastrukturen wachsen ständig und werden immer größer. Das vergrößert nicht nur die Angriffsfläche, sondern erschwert auch die Arbeit der Verteidiger. Gleichzeitig führen getrennte, unzusammenhängende Sicherheits-Tools zu fragmentierten Daten ohne relevanten Kontext. Das macht Unternehmen angesichts der eskalierenden Bedrohungslage verwundbar – zumal sie meist nur reaktiv agieren. Security-Teams arbeiten in Silos und werden durch mühsame Arbeitsabläufe gebremst, so dass es schwierig ist, das Gesamtrisikoprofil eines Unternehmens genau zu bewerten und zu verbessern. 

Security-Überblick dank einheitlicher Konsole

Um diesen Herausforderungen zu begegnen, hat Google auf der Cloud Next 25 mit Google Unified Security (GUS) eine KI-gestützte Security-Lösung vorgestellt, die Bedrohungsdaten aus internen und externen Quellen mit der Expertise von Googles Incident-Response-Abteilung Mandiant zusammenführt.  

GUS schafft laut Google eine einzige, skalierbare, durchsuchbare Sicherheitsdatenstruktur über die gesamte Angriffsfläche. Dies biete Transparenz sowie Erkennungs- und Reaktionsmöglichkeiten über Netzwerke, Endpunkte, Clouds und Anwendungen hinweg. Gleichzeitig werden die Sicherheitsdaten automatisch mit den neuesten Google Threat-Intelligence-Daten angereichert, um eine effektivere Erkennung und Priorisierung zu ermöglichen.  

Zu den in GUS integrierten Produkten gehören laut Google: 

die in Google Security Operations integrierten Funktionen Browser-Telemetrie und Asset-Kontext von Chrome Enterprise, um die Erkennung von Bedrohungen und Abhilfemaßnahmen zu unterstützen. 

Google Threat Intelligence zur Sicherheitsüberprüfung, um proaktiv Gefährdungen zu verstehen und Sicherheitskontrollen anhand der neuesten beobachteten Aktivitäten von Bedrohungsakteuren zu testen. 

Informationen zu Cloud-Risiken und -Gefährdungen aus dem Security Command Center, einschließlich derer, die sich auf KI-Workloads auswirken, angereichert mit integrierter Google Threat Intelligence, um Bedrohungen effektiver aufzuspüren und Vorfälle zu klassifizieren. 

“Google Unified Security stellt einen Schritt nach vorn dar, um bessere Sicherheitsergebnisse zu erzielen. Durch die Integration von Browser-Verhalten, Managed Threat Hunting und Sicherheitsüberprüfung werden Abdeckungslücken strategisch beseitigt und das Sicherheitsmanagement sowie die Erkennung und Reaktion auf Bedrohungen vereinfacht“, erklärt Michelle Abraham, Senior Research Director, Security and Trust bei IDC. Dieser Ansatz biete Unternehmen eine ganzheitlichere und optimierte Verteidigung gegen die komplexe Bedrohungslandschaft von heute. 

Wirklich umfassend wird der Ansatz allerdings erst nach Abschluss der 32-Milliarden-Dollar schweren Übernahme von Wiz. So räumte Google Cloud bei der Bekanntgabe des Kaufs Mitte März ein, dass Unternehmen mit modernen IT-Umgebungen eine Cybersicherheitslösung benötigten, die mehrere Clouds sowie hybride und lokale Umgebungen abdeckt. Aktuell sei der Überblick in dieser Hinsicht noch eingeschränkt. 

Agentic AI unterstützt Security-Teams 

Neu vorgestellt wurden auf der Cloud Next in Las Vegas außerdem zwei auf Gemini basierende KI-Agenten, die bestimmte Sicherheitsfunktionen automatisieren können, um Ressourcen für Security-Teams freizusetzen. Dazu gehört ein Agent in Google Security Operations, der SecOps-Plattform des Unternehmens, der Alarme sortieren und Untersuchungen automatisch durchführen soll. 

Dieser Agent zur Alarmtriage, der im zweiten Quartal als Vorschau verfügbar sein wird, ist laut Google in der Lage, den Kontext eines Alarms zu verstehen, indem er relevante Informationen sammelt und dann ein Urteil abgibt. Ein Sicherheitsexperte kann dann auf dieser Basis entscheiden, was zu tun ist. Google schätzt (nicht ganz ohne Grund), dass der KI-Agent die Arbeitsbelastung von Tier-1- und Tier-2-Analysten, die ansonsten Hunderte von Warnmeldungen pro Tag prüfen und untersuchen müssen, erheblich reduziert. 

In Google Threat Intelligence wiederum untersucht künftig ein Malware-Analyse-Agent, ob Code sicher oder schädlich ist. Dieser Agent, der voraussichtlich im 2. Quartal 2025 für ausgewählte Kunden verfügbar sein wird, analysiert potenziell bösartigen Code und ist in der Lage, Skripte zur Deobfuscation zu erstellen und auszuführen. Am Ende fasst der Agent seine Arbeit zusammen und gibt ein endgültiges Urteil ab. 

Neuerungen bei Google Security Operations & Co. 

Daneben gab es noch zahlreiche Erweiterungen im Security-Portfolio, beziehungsweise neue Sicherheits-Features bei den Google-Cloud-Produkten. Hier ein Überblick: 

Google Security Operations 

Neue Funktionen für das Datenpipeline-Management: Effizientere Skalierung, Kostenkontrolle, Einhaltung von Compliance-Vorgaben. Integration mit Bindplane erlaubt unter anderem Filterung, Umleitung und Schwärzung sensibler Daten. 

Mandiant Threat Defense ist jetzt allgemein verfügbar und bietet KI-gestützte Bedrohungserkennung und -reaktion. Die Experten von Mandiant arbeiten dabei mit den Sicherheitsteams der Kunden zusammen und setzen KI-gestützte Techniken ein, um Bedrohungen zu identifizieren und darauf zu reagieren, Untersuchungen durchzuführen und die Reaktion über SOAR-Playbooks für Sicherheitsoperationen zu skalieren. 

Security Command Center 

AI Protection hilft bei der Erkennung von KI-Beständen, der Sicherung von KI-Modellen und -Daten. Ferner werden Bedrohungen, die auf KI-Systeme abzielen, erkannt und es wird darauf reagiert.  

Model Armor, eine Funktion, die Teil des bestehenden GCP-Dienstes AI Protection ist. Sie ermöglicht Kunden die Anwendung von Inhaltssicherheits- und Sicherheitskontrollen auf Prompts, die an selbst gehostete KI-Modelle gesendet werden – entweder auf der Google Cloud Platform oder über mehrere Clouds hinweg. 

Eine Data-Security-Posture-Management-(DSPM-)Funktion, die im Juni als Vorschau verfügbar sein wird, erlaubt die Erkennung, Sicherung und Verwaltung sensibler Daten, einschließlich der zum Training von KI-Modellen verwendeten Datensätze. 

Der Compliance Manager (Preview ab Ende Juni) versetzt Kunden in die Lage, Richtlinien zu definieren, Konfigurationen zu kontrollieren und deren Durchsetzung zu überwachen. Auf diese Weise soll es ihnen möglich sein, die Daten-Compliance sicherzustellen und gegenüber Prüfern nachzuweisen. 

Weitere Features: 

Integration mit Snyk zur Erkennung von Schwachstellen (Preview). 

Neue Security-Dashboards für Google Compute Engine (GCE) und Google Kubernetes Engine (GKE) (allgemein verfügbar). 

Chrome Enterprise 

Neuer Phishing-Schutz in der Premium-Version schützt vor Lookalike-Domains, auch intern. 

Erweiterte Datenschutzfunktionen: Datenmaskierung, Wasserzeichen, Kontrollfunktionen (auch auf Android). 

Mandiant Cybersecurity Consulting 

Mandiant Retainer: On-Demand-Zugang zu Incident-Response-Teams, einlösbar für Analysen & Trainings. 

Trusted Cloud 

Sovereign Cloud: Ausbau in 32 Regionen weltweit. Partnerschaft mit Thales für „S3NS Trusted Cloud“ (SecNumCloud-konform). 

Identitäts- & Zugriffsmanagement: 

Einheitliche IAM-Richtlinien (Vorschau), 

Managed Workload Identities (Vorschau), 

Workload Identity Federation mit X.509 (GA). 

Datensicherheit: 

Confidential Computing für GKE-Workloads & GPUs (Vorschau/GA), 

Neue HSM-Lösungen (Single-Tenant & Bare Metal HSM in Vorschau), 

Data Discovery für Vertex AI & Azure, Data-in-Motion-Scanning. 

Netzwerksicherheit: 

Google Cloud erhält neue Integrationen mit Anbietern von Netzwerksicherheitslösungen zum Schutz von Google Cloud Workloads sowie neue Funktionen und Möglichkeiten im Bereich der Netzwerksicherheit. Dazu gehören:  

DNS Armor, eine Funktion zur Erkennung von DNS-basierten Bedrohungen. Sie wurde in Zusammenarbeit mit Infoblox Threat Defense entwickelt;  

Inline-Schutz vor Datenverlusten für Secure Web Proxy (SWP) über Integrationen mit Google’s Sensitive Data Protection und Symantec DLP; und  

L7-Domain-Filterfunktionen für Google’s Cloud NGFW Enterprise. 

Endpunkt-Schutz 

Beim Schutz von Endgeräten verlässt sich Google stark auf den Chrome-Enterprise-Browser und den kostenpflichtigen Chrome-Enterprise-Premium-Service, der Echtzeit-Schutz vor Malware und Phishing beim Surfen im Internet, Malware-Tiefenscans auf dem Endgerät, Schutz vor Datenverlust, URL-Filterung, Einblicke in das Nutzerverhalten und mehr bietet. 

Zu den neuen Funktionen dieses Dienstes gehört die Möglichkeit für Unternehmen, ihr eigenes Branding und ihre Unternehmensressourcen zu konfigurieren, um Phishing-Versuche auf internen Domains zu erkennen. Außerdem gibt es eine neue Datenmaskierungsfunktion, die die DLP-Funktionen zusammen mit Wasserzeichen, der Sperrung von Screenshots und Kontrollen für Kopieren, Einfügen, Hochladen, Herunterladen und Drucken vervollständigt. 

Google führt Unified-Security-Plattform ein​ Weiterlesen »

Gartner: Kleine KI-Modelle auf dem Vormarsch​

Allgemein

Kleine spezifische Modelle liefern nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung. Krot_Studio – shutterstock.com Dem Marktforschungsunternehmen Gartner zufolge sind kleine, auf bestimmte Aufgaben zugeschnittene KI-Modelle auf dem Vormarsch. Unternehmen werden diese, so die Prognose, bis 2027 mit einem mindestens dreifach höheren Nutzungsvolumen im Vergleich zu allgemeinen Sprachmodellen (Large Language Models, LLMs) einsetzen. Diese Entwicklung hat Gartner zufolge mehrere Gründe. So würden LLMs zwar eine breite Palette sprachlicher Fähigkeiten bieten. Auf der anderen Seite lasse ihre Genauigkeit nach, wenn es um Aufgaben geht, die spezifisches Fachwissen oder Kontext aus einem bestimmten Geschäftsbereich erfordern. Schnellere Antworten Sumit Agarwal, VP Analyst bei Gartner, erklärt dazu: „Die Vielfalt an Aufgaben in Geschäftsprozessen und der Wunsch nach höherer Präzision führen dazu, dass Unternehmen zunehmend auf spezialisierte Modelle setzen, die für bestimmte Funktionen oder auf Grundlage domänenspezifischer Daten trainiert wurden.“ Die SLMs liefern seiner Meinung nach nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung – was die Betriebs- und Wartungskosten erheblich senken dürfte. Die allgemeinen Sprachmodelle können Unternehmen laut Gartner mithilfe von Retrieval-Augmented-Generation (RAG) oder Feinjustierungstechniken (Fine-Tuning) an ihre Bedürfnisse anpassen und so spezialisierte Modelle entwickeln. Dabei werde die unternehmensinterne Datenbasis zum entscheidenden Wettbewerbsvorteil. Allerdings erfordert dies eine sorgfältige Datenaufbereitung, Qualitätskontrollen, Versionierung sowie ein ganzheitliches Datenmanagement. Nur so könne sichergestellt werden, dass die Daten in der erforderlichen Struktur für das Fine-Tuning vorliegen. KI-Modelle monetarisieren Ein Aufwand, der sich nach Ansicht von Agarwal in der Zukunft lohnen dürfte: „Da Unternehmen den Wert ihrer internen Daten und der daraus gewonnenen Erkenntnisse zunehmend wertschätzen, ist zu erwarten, dass sie beginnen werden, ihre Modelle zu monetarisieren – und sie nicht nur intern zu nutzen, sondern auch Kunden und sogar Wettbewerbern zugänglich zu machen.“ Für den Analysten wird dies einen Wandel im Umgang mit Wissen einläuten: Statt es wie bislang stark zu schützen, könnten Daten und Know-how künftig offener und kooperativ genutzt werden. Ferner erschließe die Kommerzialisierung der proprietären Modelle den Unternehmen nicht nur neue Einnahmequellen, sondern fördere zugleich ein stärker vernetztes Ökosystem. Kleine Modelle implementieren Unternehmen, die solche kleine aufgabenspezifische KI-Modelle implementieren möchten, gibt Gartner folgende Empfehlungen: Pilotprojekte mit kontextualisierten Modellen: Kleine, spezialisierte Modelle sollten gezielt in Bereichen eingesetzt werden, in denen Fachwissen entscheidend ist oder in denen allgemeine LLMs hinsichtlich Antwortqualität oder -geschwindigkeit nicht überzeugen konnten. Kombinierte Ansätze: Identifizieren Sie Anwendungsfälle, in denen ein einzelnes Modell nicht ausreicht. Setzen Sie stattdessen auf ein Zusammenspiel mehrerer Modelle und Prozessschritte. Datenqualität und Kompetenzen: Investieren Sie in die gezielte Aufbereitung von Daten – durch Sammlung, Kuratierung und Organisation – um die Grundlage für ein erfolgreiches Fine-Tuning zu schaffen. Gleichzeitig sollten Fachkräfte aus unterschiedlichen Bereichen wie KI- und Datenarchitektur, Data Science, Daten- und KI-Engineering, Risiko- und Compliance-Management, Einkauf sowie Fachabteilungen gezielt weitergebildet werden, um diese Initiativen effektiv voranzutreiben. 

Gartner: Kleine KI-Modelle auf dem Vormarsch​ Kleine spezifische Modelle liefern nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung.
Krot_Studio – shutterstock.com

Dem Marktforschungsunternehmen Gartner zufolge sind kleine, auf bestimmte Aufgaben zugeschnittene KI-Modelle auf dem Vormarsch. Unternehmen werden diese, so die Prognose, bis 2027 mit einem mindestens dreifach höheren Nutzungsvolumen im Vergleich zu allgemeinen Sprachmodellen (Large Language Models, LLMs) einsetzen.

Diese Entwicklung hat Gartner zufolge mehrere Gründe. So würden LLMs zwar eine breite Palette sprachlicher Fähigkeiten bieten. Auf der anderen Seite lasse ihre Genauigkeit nach, wenn es um Aufgaben geht, die spezifisches Fachwissen oder Kontext aus einem bestimmten Geschäftsbereich erfordern.

Schnellere Antworten

Sumit Agarwal, VP Analyst bei Gartner, erklärt dazu: „Die Vielfalt an Aufgaben in Geschäftsprozessen und der Wunsch nach höherer Präzision führen dazu, dass Unternehmen zunehmend auf spezialisierte Modelle setzen, die für bestimmte Funktionen oder auf Grundlage domänenspezifischer Daten trainiert wurden.“ Die SLMs liefern seiner Meinung nach nicht nur schnellere Antworten, sondern benötigen auch weniger Rechenleistung – was die Betriebs- und Wartungskosten erheblich senken dürfte.

Die allgemeinen Sprachmodelle können Unternehmen laut Gartner mithilfe von Retrieval-Augmented-Generation (RAG) oder Feinjustierungstechniken (Fine-Tuning) an ihre Bedürfnisse anpassen und so spezialisierte Modelle entwickeln. Dabei werde die unternehmensinterne Datenbasis zum entscheidenden Wettbewerbsvorteil. Allerdings erfordert dies eine sorgfältige Datenaufbereitung, Qualitätskontrollen, Versionierung sowie ein ganzheitliches Datenmanagement. Nur so könne sichergestellt werden, dass die Daten in der erforderlichen Struktur für das Fine-Tuning vorliegen.

KI-Modelle monetarisieren

Ein Aufwand, der sich nach Ansicht von Agarwal in der Zukunft lohnen dürfte: „Da Unternehmen den Wert ihrer internen Daten und der daraus gewonnenen Erkenntnisse zunehmend wertschätzen, ist zu erwarten, dass sie beginnen werden, ihre Modelle zu monetarisieren – und sie nicht nur intern zu nutzen, sondern auch Kunden und sogar Wettbewerbern zugänglich zu machen.“

Für den Analysten wird dies einen Wandel im Umgang mit Wissen einläuten: Statt es wie bislang stark zu schützen, könnten Daten und Know-how künftig offener und kooperativ genutzt werden. Ferner erschließe die Kommerzialisierung der proprietären Modelle den Unternehmen nicht nur neue Einnahmequellen, sondern fördere zugleich ein stärker vernetztes Ökosystem.

Kleine Modelle implementieren

Unternehmen, die solche kleine aufgabenspezifische KI-Modelle implementieren möchten, gibt Gartner folgende Empfehlungen:

Pilotprojekte mit kontextualisierten Modellen:

Kleine, spezialisierte Modelle sollten gezielt in Bereichen eingesetzt werden, in denen Fachwissen entscheidend ist oder in denen allgemeine LLMs hinsichtlich Antwortqualität oder -geschwindigkeit nicht überzeugen konnten.

Kombinierte Ansätze:

Identifizieren Sie Anwendungsfälle, in denen ein einzelnes Modell nicht ausreicht. Setzen Sie stattdessen auf ein Zusammenspiel mehrerer Modelle und Prozessschritte.

Datenqualität und Kompetenzen:

Investieren Sie in die gezielte Aufbereitung von Daten – durch Sammlung, Kuratierung und Organisation – um die Grundlage für ein erfolgreiches Fine-Tuning zu schaffen. Gleichzeitig sollten Fachkräfte aus unterschiedlichen Bereichen wie KI- und Datenarchitektur, Data Science, Daten- und KI-Engineering, Risiko- und Compliance-Management, Einkauf sowie Fachabteilungen gezielt weitergebildet werden, um diese Initiativen effektiv voranzutreiben.

Gartner: Kleine KI-Modelle auf dem Vormarsch​ Weiterlesen »

So nutzten Spammer ChatGPT​

Allgemein

Individuell generierte Texte erschweren die Erkennung als Spam. Dank KI können sie zudem schneller geschrieben werden.RerF_Studio – shutterstock Large Language Models (LLMs) werden immer häufiger von Kriminellen eingesetzt. Experten des Sicherheitsunternehmens SentinelLabs haben am 9. April 2025 bekanntgegeben, dass die Gruppe AkiraBot den Chatbot ChatGPT von OpenAI benutzt hatte, um Spam zu verbreiten. Beim AkiraBot handelt es sich um ein Framework, das das Versenden von Nachrichten in großen Mengen automatisiert, um dubiose Suchoptimierungsdienste für kleine und mittelgroße Websites zu bewerben. Die Macher hinter dem Framework verwenden dafür Python-basierte Skripte, um die in den Nachrichten beworbenen Domänennamen zu rotieren. So könnte eine von AkiraBot verwendete KI-Chat-Eingabeaufforderung laut Experten ausgesehen haben. SentinelLabs Personalisierter Spam-Versand Im Falle von ChatGPT nutzte AkiraBot das OpenAI-Modell gpt-4o-mini über die Chat-API, um individuell zugeschnittene Spam- bzw. Marketing-Nachrichten für verschiedene Websites zu generieren. Diese wurden über Kontaktformulare und Live-Chats versendet. Durch die dynamische Anpassung an jede Zielseite wirkten die Nachrichten personalisiert und waren schwer als Spam erkennbar. Den Forschern zufolge erschwert diese Einzigartigkeit der KI-generierten Inhalte die Spam-Abwehr, da herkömmliche Erkennungsmerkmale wie standardisierte Textvorlagen fehlen. Lediglich rotierende Domains sollen sich noch leicht blockieren lassen. Reaktiv statt proaktiv SentinelLabs erhielt Log-Dateien, die AkiraBot auf einem Server hinterließ, um die Erfolgs- und Misserfolgsraten zu messen. Eine Datei zeigte, dass die Gruppe zwischen September 2024 und Januar 2025 an mehr als 80.000 Websites erfolgreich einzigartige Nachrichten versendet hatten. Im Vergleich dazu schlugen Nachrichten, die auf etwa 11.000 Domains abzielten, fehl. OpenAI bedankte sich bei den Forschern und wies erneut darauf hin, dass eine solche Nutzung seiner Chatbots gegen seine Nutzungsbedingungen verstößt. OpenAI hat, nachdem sie diese Nachricht erhalten hatten, das Konto der Spammer gesperrt. Die vier Monate, in denen die Aktivitäten unbemerkt blieben, zeigen allerdings, dass gegen solche Verstöße oft eher reaktiv als proaktiv vorgegangen wird. 

So nutzten Spammer ChatGPT​ Individuell generierte Texte erschweren die Erkennung als Spam. Dank KI können sie zudem schneller geschrieben werden.RerF_Studio – shutterstock

Large Language Models (LLMs) werden immer häufiger von Kriminellen eingesetzt. Experten des Sicherheitsunternehmens SentinelLabs haben am 9. April 2025 bekanntgegeben, dass die Gruppe AkiraBot den Chatbot ChatGPT von OpenAI benutzt hatte, um Spam zu verbreiten.

Beim AkiraBot handelt es sich um ein Framework, das das Versenden von Nachrichten in großen Mengen automatisiert, um dubiose Suchoptimierungsdienste für kleine und mittelgroße Websites zu bewerben. Die Macher hinter dem Framework verwenden dafür Python-basierte Skripte, um die in den Nachrichten beworbenen Domänennamen zu rotieren.

So könnte eine von AkiraBot verwendete KI-Chat-Eingabeaufforderung laut Experten ausgesehen haben.
SentinelLabs

Personalisierter Spam-Versand

Im Falle von ChatGPT nutzte AkiraBot das OpenAI-Modell gpt-4o-mini über die Chat-API, um individuell zugeschnittene Spam- bzw. Marketing-Nachrichten für verschiedene Websites zu generieren. Diese wurden über Kontaktformulare und Live-Chats versendet. Durch die dynamische Anpassung an jede Zielseite wirkten die Nachrichten personalisiert und waren schwer als Spam erkennbar.

Den Forschern zufolge erschwert diese Einzigartigkeit der KI-generierten Inhalte die Spam-Abwehr, da herkömmliche Erkennungsmerkmale wie standardisierte Textvorlagen fehlen. Lediglich rotierende Domains sollen sich noch leicht blockieren lassen.

Reaktiv statt proaktiv

SentinelLabs erhielt Log-Dateien, die AkiraBot auf einem Server hinterließ, um die Erfolgs- und Misserfolgsraten zu messen. Eine Datei zeigte, dass die Gruppe zwischen September 2024 und Januar 2025 an mehr als 80.000 Websites erfolgreich einzigartige Nachrichten versendet hatten.

Im Vergleich dazu schlugen Nachrichten, die auf etwa 11.000 Domains abzielten, fehl. OpenAI bedankte sich bei den Forschern und wies erneut darauf hin, dass eine solche Nutzung seiner Chatbots gegen seine Nutzungsbedingungen verstößt.

OpenAI hat, nachdem sie diese Nachricht erhalten hatten, das Konto der Spammer gesperrt. Die vier Monate, in denen die Aktivitäten unbemerkt blieben, zeigen allerdings, dass gegen solche Verstöße oft eher reaktiv als proaktiv vorgegangen wird.

So nutzten Spammer ChatGPT​ Weiterlesen »

IT-Produkte der Woche​

Allgemein

SSD der fünften Generation für Rechenzentren  Kingston Digital hat eine neue SSD für Rechenzentren vorgestellt. Die DC3000ME PCIe 5.0 NVMe U.2 ist für Serveranwendungen konzipiert. Die SSD verfügt über eine PCIe-5.0-NVMe-Schnittstelle und ist mit 3D-eTLC-NAND-Speicherbausteinen bestückt. Als Einsatzgebiet sieht Kingston Serveranwendungen wie KI, HPC, OLTP, Cloud-Dienste und Edge-Computing. Hier erfülle die SSD strenge QoS-Anforderungen, um E/A-Konsistenz und niedrige Latenzen zu gewährleisten. Zur Datensicherheit hat der Speicher eine AES-256-Bit-Verschlüsselung an Bord. Gegen plötzliche Stromausfälle soll ein integrierter Stromausfallschutz schützen. Die DC3000ME ist mit Speicherkapazitäten von 3,84TB, 7,68TB und 15,36TB zu haben. Kingston gibt auf die SSD eine Fünf-Jahres-Garantie und verspricht kostenlosen technischen Support. Die technischen Spezifikationen im Detail finden Sie hier.  Kingston Digital QNAP-Switches per Cloud managen  QNAP Systems rüstet seine Verwaltungsplattform AMIZcloud auf. Künftig sollen damit auch die Switches des Herstellers aus der Ferne verwaltet werden können. Zu den derzeit unterstützten Switch-Modellen gehören: QSW-M3224-24T, QSW-IM3216-8S8T, QSW-M3216R-8S8T, QSW-M3212R-8S4T und QSW-M7308R-4X. Weitere Switches sollen laut Hersteller in Zukunft unterstützt werden. AMIZcloud ist ein Cloud-basiertes zentralisiertes Steuerungssystem, das es IT-Administratoren ermöglicht, QNAP NAS, Switches und andere VNF-Netzwerkgeräte über eine einzige Schnittstelle zu verwalten. Damit sollen zusätzliche Verwaltungsserver überflüssig sein. Zudem reduziere dies den Aufwand für die Hardwareverwaltung. Um die Switches für die zentrale Verwaltung in der AMIZcloud nutzen zu können, müssen die Geräte auf die neueste QSS-v4.1- oder QSS-Pro v4.1-Softwareversion aktualisiert werden.  QNAP IBM bringt KI-Mainframe z17  Mit dem IBM z17 bringt das Unternehmen eine neue Mainframe-Generation auf den Markt, die dediziert für den KI-Einsatz entwickelt wurde. Angetrieben vom neuen IBM Telum-II-Prozessor, erweitert IBM z17 die Funktionalität des Systems über transaktionale KI-Funktionen hinaus, um neue Workloads zu ermöglichen. Des Weiteren verspricht IBM eine völlig neu konzipierte Nutzererfahrung durch neue KI- Assistenten und -Agenten. Mit dem z17 sollen Unternehmen 100 Prozent ihrer Transaktionen in Echtzeit bewerten können. Zudem sei der z17 in der Lage, 50 Prozent mehr KI-Inferenzoperationen pro Tag zu verarbeiten als der z16. Laut IBM stecken in dem neuen Mainframe fünf Jahre Design- und Entwicklungsarbeit. Zudem habe man mehr als 300 Patentanmeldungen beim US-Patent- und Markenamt eingereicht. Mit z/OS 3.2, der nächsten Version des Betriebssystems für IBM Z, soll im Herbst 2025 ein Betriebssystem für KI folgen. Es wurde, wie es heißt, entwickelt, um hardwarebeschleunigte KI-Funktionen im gesamten System und betriebliche KI-Erkenntnisse für Systemverwaltungsfunktionen zu unterstützen. Der IBM z17 soll ab dem 18. Juni 2025 allgemein verfügbar sein.  IBM Alibaba weitet KI-Angebot aus  Für internationale Kunden baut Alibaba Cloud sein KI-Angebot aus. Dazu gehören neue KI-Modelle, PaaS-Funktionen und Infrastruktur-Updates. Über die Availability Zones in Singapur stehen internationalen Kunden nun unter anderem folgende Modelle aus der unternehmenseigenen LLM-Serie Qwen zur Verfügung:  Qwen-Max – ein skalierbares Mixture-of-Experts-(MoE-)Modell,  QwQ-Plus – ein auf präzise Schlussfolgerungen spezialisiertes Modell für komplexe Aufgaben,  QVQ-Max – ein visuelles Reasoning-Modell mit multimodalen Fähigkeiten,  5-Omni-7B – ein multimodales End-to-End-Modell.  Zudem hat das Unternehmen seine Platform for AI (PAI) überarbeitet. Der PAI-Elastic Algorithm Service (EAS) unterstützt nun verteilte Inferenz auf Basis einer Multi-Node-Architektur. Damit eignet sich der Dienst laut Alibaba für den Betrieb von besonders großen MoE-Modellen und Anwendungen mit extrem langen Texteingaben. Ausgebaut wurde auch die PAI-Model-Gallery. Sie umfasst nun rund 300 Open-Source-Modelle, darunter die vollständigen Qwen- und Wan-Modelle von Alibaba Cloud.  

IT-Produkte der Woche​ SSD der fünften Generation für Rechenzentren 

Kingston Digital hat eine neue SSD für Rechenzentren vorgestellt. Die DC3000ME PCIe 5.0 NVMe U.2 ist für Serveranwendungen konzipiert. Die SSD verfügt über eine PCIe-5.0-NVMe-Schnittstelle und ist mit 3D-eTLC-NAND-Speicherbausteinen bestückt. Als Einsatzgebiet sieht Kingston Serveranwendungen wie KI, HPC, OLTP, Cloud-Dienste und Edge-Computing. Hier erfülle die SSD strenge QoS-Anforderungen, um E/A-Konsistenz und niedrige Latenzen zu gewährleisten. Zur Datensicherheit hat der Speicher eine AES-256-Bit-Verschlüsselung an Bord. Gegen plötzliche Stromausfälle soll ein integrierter Stromausfallschutz schützen. Die DC3000ME ist mit Speicherkapazitäten von 3,84TB, 7,68TB und 15,36TB zu haben. Kingston gibt auf die SSD eine Fünf-Jahres-Garantie und verspricht kostenlosen technischen Support. Die technischen Spezifikationen im Detail finden Sie hier. 

Kingston Digital

QNAP-Switches per Cloud managen 

QNAP Systems rüstet seine Verwaltungsplattform AMIZcloud auf. Künftig sollen damit auch die Switches des Herstellers aus der Ferne verwaltet werden können. Zu den derzeit unterstützten Switch-Modellen gehören: QSW-M3224-24T, QSW-IM3216-8S8T, QSW-M3216R-8S8T, QSW-M3212R-8S4T und QSW-M7308R-4X. Weitere Switches sollen laut Hersteller in Zukunft unterstützt werden. AMIZcloud ist ein Cloud-basiertes zentralisiertes Steuerungssystem, das es IT-Administratoren ermöglicht, QNAP NAS, Switches und andere VNF-Netzwerkgeräte über eine einzige Schnittstelle zu verwalten. Damit sollen zusätzliche Verwaltungsserver überflüssig sein. Zudem reduziere dies den Aufwand für die Hardwareverwaltung. Um die Switches für die zentrale Verwaltung in der AMIZcloud nutzen zu können, müssen die Geräte auf die neueste QSS-v4.1- oder QSS-Pro v4.1-Softwareversion aktualisiert werden. 

QNAP

IBM bringt KI-Mainframe z17 

Mit dem IBM z17 bringt das Unternehmen eine neue Mainframe-Generation auf den Markt, die dediziert für den KI-Einsatz entwickelt wurde. Angetrieben vom neuen IBM Telum-II-Prozessor, erweitert IBM z17 die Funktionalität des Systems über transaktionale KI-Funktionen hinaus, um neue Workloads zu ermöglichen. Des Weiteren verspricht IBM eine völlig neu konzipierte Nutzererfahrung durch neue KI- Assistenten und -Agenten. Mit dem z17 sollen Unternehmen 100 Prozent ihrer Transaktionen in Echtzeit bewerten können. Zudem sei der z17 in der Lage, 50 Prozent mehr KI-Inferenzoperationen pro Tag zu verarbeiten als der z16. Laut IBM stecken in dem neuen Mainframe fünf Jahre Design- und Entwicklungsarbeit. Zudem habe man mehr als 300 Patentanmeldungen beim US-Patent- und Markenamt eingereicht. Mit z/OS 3.2, der nächsten Version des Betriebssystems für IBM Z, soll im Herbst 2025 ein Betriebssystem für KI folgen. Es wurde, wie es heißt, entwickelt, um hardwarebeschleunigte KI-Funktionen im gesamten System und betriebliche KI-Erkenntnisse für Systemverwaltungsfunktionen zu unterstützen. Der IBM z17 soll ab dem 18. Juni 2025 allgemein verfügbar sein. 

IBM

Alibaba weitet KI-Angebot aus 

Für internationale Kunden baut Alibaba Cloud sein KI-Angebot aus. Dazu gehören neue KI-Modelle, PaaS-Funktionen und Infrastruktur-Updates. Über die Availability Zones in Singapur stehen internationalen Kunden nun unter anderem folgende Modelle aus der unternehmenseigenen LLM-Serie Qwen zur Verfügung: 

Qwen-Max – ein skalierbares Mixture-of-Experts-(MoE-)Modell, 

QwQ-Plus – ein auf präzise Schlussfolgerungen spezialisiertes Modell für komplexe Aufgaben, 

QVQ-Max – ein visuelles Reasoning-Modell mit multimodalen Fähigkeiten, 

5-Omni-7B – ein multimodales End-to-End-Modell. 

Zudem hat das Unternehmen seine Platform for AI (PAI) überarbeitet. Der PAI-Elastic Algorithm Service (EAS) unterstützt nun verteilte Inferenz auf Basis einer Multi-Node-Architektur. Damit eignet sich der Dienst laut Alibaba für den Betrieb von besonders großen MoE-Modellen und Anwendungen mit extrem langen Texteingaben. Ausgebaut wurde auch die PAI-Model-Gallery. Sie umfasst nun rund 300 Open-Source-Modelle, darunter die vollständigen Qwen- und Wan-Modelle von Alibaba Cloud. 

IT-Produkte der Woche​ Weiterlesen »

Mitarbeiter (legal) abwerben: 5 Tipps für den War for Talents​

Allgemein

Im Kampf um IT-Spezialisten und Marktanteile kann es ein probates Mittel sein, Talente – mit legalen Methoden – von der Konkurrenz abzuwerben. Foto: eamesBot – shutterstock.comUnbesetzte IT-Positionen stellen viele Unternehmen vor große Herausforderungen, sehen sich diese bei der Kandidatensuche mit einem leergefegten und von Opportunismus getriebenen Arbeitsmarkt konfrontiert. Nicht selten richtet sich der Blick da zur Konkurrenz und deren Angestellten. Die Verlockung, die Mitarbeitenden eines anderen Betriebs anzuwerben, scheint groß. Doch viele schrecken davor zurück, weil sie rechtliche und moralische Zweifel hegen. Müssen sie aber nicht, denn bis auf wenige Praktiken ist das Abwerben unbedenklich. Mitarbeiter abwerben: Was nicht erlaubt istDer freie Arbeitsplatzwechsel ist in unserer sozialen Marktwirtschaft vorgesehen und unter den meisten Umständen auch völlig legal. Das Abwerben fremder Mitarbeiterinnen und Mitarbeiter ist nur dann nicht erlaubt, wenn es vorsätzlich zur Schädigung des Konkurrenzunternehmens eingesetzt wird. Das ist beispielsweise der Fall: wenn Angestellte der Konkurrenz abgeworben, anschließend aber doch nicht eingestellt werden; wenn Sie mit der Intention handeln, die Betriebsgeheimnisse oder Interna eines anderen Unternehmens durch die Abwerbung in Erfahrung zu bringen;wenn Arbeitnehmende durch falsche Versprechungen oder negative Aussagen über ihren aktuellen Arbeitgeber ins eigene Unternehmen gelockt werden sollen;wenn Beschäftigte zum Vertragsbruch oder zu Handlungen, die eine sofortige Kündigung nach sich ziehen würden, aufgefordert werden;wenn Arbeitnehmende mit einem bereits aufgesetzten Kündigungsschreiben überrumpelt und unter Druck gesetzt werden. Ein Tabu ist ferner, frisch akquirierte – aber noch nicht eingestellte – Talente zum Abwerben ihrer Kolleginnen und Kollegen anzustiften oder ihnen gar Prämien dafür zu versprechen. Arbeitnehmende dürfen bei einem Unternehmenswechsel keine Teammitglieder abwerben, denn solange ihr Arbeitsverhältnis besteht, sind sie vertraglich zur Treue verpflichtet. Das bedeutet natürlich nicht, dass sich das Team nicht über einen geplanten Stellenwechsel austauschen darf, auch wenn ein Talent dabei die Vorzüge des Konkurrenzunternehmens hervorhebt. Hat der Wechsel aber bereits stattgefunden und der Arbeitsvertrag ist aufgelöst, gelten für ehemalige Mitarbeitende die gleichen Regeln wie für Personalverantwortliche. Falls Sie sich nicht an die genannten Regeln halten, verhalten Sie sich wettbewerbswidrig. Das kann rechtliche Konsequenzen haben. Werden Sie von der Konkurrenz oder dem Talent, das Sie eigentlich für sich gewinnen wollten, gemeldet, kann es zu einer Unterlassungsklage kommen. Werben Sie ein Talent auf illegalem Wege ab, können Sie zudem auf Schadensersatz verklagt werden. Im Fall der Fälle kann auch ein zeitlich begrenztes Beschäftigungsverbot für den neuen Mitarbeiter oder die neue Mitarbeiterin verhängt werden. Mitarbeiter legal abwerben: In 5 Schritten zum ErfolgKonzentrieren Sie sich also lieber auf die legalen Methoden des Abwerbens; diese bergen ohnehin den Vorteil, dass Sie die frisch gewonnenen Talente langfristig an Ihr Unternehmen binden. Doch wie gehen Sie dabei am besten vor? Die folgenden fünf Schritte versprechen ein erfolgreiches Abwerben. 1. Gelungenes Employer Branding Wollen Sie ein Talent von der Arbeit in Ihrem Unternehmen überzeugen, sollten Sie zuerst eine attraktive Arbeitgebermarke schaffen. Dazu müssen Sie wissen, was Ihr Unternehmen ausmacht. Welche Werte werden vertreten? Welche Kultur wird in Ihrer Organisation gelebt? Haben Sie diese Fragen beantwortet, sollten Sie sich entsprechend positionieren und Ihre Unternehmensbotschaften über Ihre Website, Social-Media-Kanäle, Newsletter und weitere firmeneigene Kanäle kommunizieren. Auch die Pflege bekannter Bewertungsportale für Arbeitgeber wie kununu oder Glassdoor sollte im Employer Branding einen entscheidenden Platz einnehmen. Zuletzt können Ihre Mitarbeitenden einen echten Unterschied machen, indem sie ihre persönlichen Erfahrungen mit dem Rest der Welt teilen. Als sogenannte Corporate Influencer können sie beispielsweise Einblicke in ihren Arbeitsalltag und das Miteinander im Team geben. 2. Kontaktaufnahme Haben Sie ein Talent gefunden, das auf Ihr Stellenprofil passt, sollten Sie mit einer ersten Kontaktaufnahme starten. Hierbei ist es jedoch entscheidend, dass Sie das Thema Datenschutz nicht außer Acht lassen. Die DSGVO erlaubt nämlich nur, dass Sie öffentlich zugängliche Kontaktinformationen oder -möglichkeiten nutzen – wie beispielsweise ein öffentliches Profil in einem Karrierenetzwerk oder einem Fachportal. Haben Sie mit einer Nachricht, beispielsweise über LinkedIn, den Kontakt aufgenommen und eine Telefonnummer oder eine Mailadresse erhalten, müssen Sie das Talent über die Verarbeitung dieser Daten informieren und sich seine Einwilligung einholen. Der Kandidat oder die Kandidatin muss zu jeder Zeit die Option haben, seine oder ihre Daten einzusehen, diese ändern oder löschen zu lassen. Kurz gesagt: Die DSGVO und ihre Stolpersteine führen dazu, dass vermehrt Headhunter zum Abwerben eingesetzt werden – denn diese haben durch ihr großes Netzwerk und professionelle Tools oft deutlich mehr Gestaltungsspielraum bei der Kaltakquise. Sitzen Sie beim Thema Datenschutz jedoch fest im Sattel und entscheiden sich für eine direkte Kontaktaufnahme, treten Sie dabei verbindlich, aber höflich zurückhaltend auf. In keinem Fall sollte sich Ihr Gegenüber bedrängt oder belästigt fühlen. 3. Attraktive Arbeitsbedingungen Um Ihre Konkurrenz auszustechen, sollten Sie attraktivere Arbeitsbedingungen als Ihre Wettbewerber bieten. Dazu gehören zum einen moderne Strukturen und damit die Möglichkeit, remote zu arbeiten und sich die Arbeitszeiten flexibel einzuteilen. Darüber hinaus können Sie natürlich mit großzügigen Benefits und einem überdurchschnittlichen Gehalt punkten. Gerade für IT-Fachkräfte ist auch die technische Ausstattung im Unternehmen ein entscheidender Faktor. Außerdem sind viele an der Arbeit in interdisziplinären Teams interessiert – das stärkt den Zusammenhalt innerhalb der Belegschaft und verleiht außerdem jeder Position eine besondere Rolle. 4. Onboarding angenehm gestalten Konnten Sie das Talent von Ihrem Unternehmen überzeugen, gilt es, potenzielle Hindernisse abzubauen, die einem Wechsel im Wege stehen könnten. Dazu zählen zum einen formale Hürden wie das Einreichen eines Motivationsschreibens. Sie kennen den Lebenslauf und die Qualifikationen der Fachkraft, zusätzlich haben Sie sie in Gesprächen kennengelernt. Alle wichtigen Fragen sollten dabei beantwortet worden sein. Auch auf fachlicher Ebene sollten Sie Bedenken aus dem Weg räumen. Beschreiben Sie dem Kandidaten oder der Kandidatin, wie das Onboarding ablaufen wird und wie Sie eventuelle fachliche Lücken schließen möchten. Nicht zuletzt kann auch das soziale Umfeld eine Hürde für den Wechsel darstellen. Stellen Sie deshalb sicher, dass sich Ihr bestehendes Team auf den Neuzugang freut und dass das neue Mitglied schnell Anschluss findet – beispielsweise mit Hilfe von Teamevents oder einem Mentorenprogramm innerhalb der ersten Wochen. 5. Maßnahmen zur Mitarbeiterzufriedenheit Dieser letzte Schritt lohnt sich in doppelter Hinsicht: Zum einen binden Sie die frisch gewonnenen Talente an Ihr Unternehmen, zum anderen stärken Sie natürlich Ihre Arbeitgebermarke und stellen die Weichen für zukünftige Erfolge beim Abwerben. Um die Zufriedenheit Ihrer Mitarbeitenden zu steigern, ist vor allem Kommunikation gefragt. Dazu gehört es, sich regelmäßig Feedback einzuholen und daran die Employee Experience zu messen. Also: Wie positiv oder negativ sind die Erlebnisse und Erfahrungen, die Ihre Angestellten an ihrem Arbeitsplatz sammeln? Auch in Zeiten von Hybrid oder Remote Work sollten sich alle zugehörig und nicht isoliert fühlen. Genauso wichtig ist auch die Wertschätzung. Geben Sie Ihren Angestellten das Gefühl, dass ihre erbrachte Leistung gesehen wird. Geäußerte Wünsche und Bedürfnisse sollten in die Planung künftiger Projekte mit einbezogen werden. Schenken Sie Ihrem Team Vertrauen und Freiheiten in der Prozessgestaltung sowie die Möglichkeit zur Weiterbildung. (pg/fm)Wie Unternehmen ihr Recruiting weiter optimierenTipps zur Fachkräfte- und Talentsuche Foto: Gajus – shutterstock.comUngeachtet der Auswirkungen der COVID-19-Pandemie sind Fachkräfte und Talente weiter stark gesucht, insbesondere in der IT-Branche. BEST RECUITERS gibt Tipps, wie Unternehmen ihr Recruitment sowie ihre Talentsuche zusätzlich pushen können. Wie du mir, so ich dir Foto: fizkes – shutterstock.comHinterfragen sie kritisch, welche Anforderungen Sie an Bewerber richten – speziell was die Soft Skills anbelangt – und ob Ihre Candidate Journey diese auch widerspiegelt. Wenn Sie also flexible Mitarbeiter suchen: Bieten Sie selbst eben diese Flexibilität im Recruiting-Prozess, zum Beispiel indem Sie mehrere Bewerbungskanäle zur Wahl stellen? Tagesaktuelle Informationenn Foto: Dmitry Demidovich – shutterstock.comRecruiting-Prozesse sind nicht zuletzt aufgrund von Corona digitaler geworden. Informieren Sie Kandidaten über die Veränderungen in Ihrem Unternehmen, beispielsweise welche Software im virtuellen Erstrunden-Interview zum Einsatz kommt oder wie (teil-)digitales Onboarding bei Ihnen gelebt wird. Denken Sie auch an entsprechende Tipps, damit Bewerber sich optimal vorbereiten können. Vertrauen schaffen Foto: Olga Danylenko – shutterstock.comJobsuchende erhoffen sich heute eines mehr denn je: Sicherheit. Holen Sie sie ab, indem Sie zeigen, wie Sie Ihren Mitarbeitern Vertrauen entgegenbringen, zum Beispiel durch Vertrauensarbeitszeit oder auch Lohntransparenz in Stellenanzeigen. Erfahrungen aus erster Hand Foto: dizain – shutterstock.comLaden Sie Mitarbeiter ein, auf der Karriere-Website und in anderen Recruiting-Kanälen zu erzählen, wie sie die letzte Zeit mit Ihnen als Arbeitgeber erlebt haben. Von IT-Profi zu IT-Profi Foto: Photographee.eu – shutterstock.comViele IT-Spezialisten wünschen sich schon vor einem Bewerbungsprozess den Kontakt zum Fachbereich. Im Rahmen digitaler Events gelingt dieser Austausch mit potenziellen Kollegen unkompliziert und ohne großen zeitlichen Aufwand für Ihre IT-Abteilung. 

Mitarbeiter (legal) abwerben: 5 Tipps für den War for Talents​ Im Kampf um IT-Spezialisten und Marktanteile kann es ein probates Mittel sein, Talente – mit legalen Methoden – von der Konkurrenz abzuwerben.
Foto: eamesBot – shutterstock.comUnbesetzte IT-Positionen stellen viele Unternehmen vor große Herausforderungen, sehen sich diese bei der Kandidatensuche mit einem leergefegten und von Opportunismus getriebenen Arbeitsmarkt konfrontiert. Nicht selten richtet sich der Blick da zur Konkurrenz und deren Angestellten. Die Verlockung, die Mitarbeitenden eines anderen Betriebs anzuwerben, scheint groß. Doch viele schrecken davor zurück, weil sie rechtliche und moralische Zweifel hegen. Müssen sie aber nicht, denn bis auf wenige Praktiken ist das Abwerben unbedenklich. Mitarbeiter abwerben: Was nicht erlaubt istDer freie Arbeitsplatzwechsel ist in unserer sozialen Marktwirtschaft vorgesehen und unter den meisten Umständen auch völlig legal. Das Abwerben fremder Mitarbeiterinnen und Mitarbeiter ist nur dann nicht erlaubt, wenn es vorsätzlich zur Schädigung des Konkurrenzunternehmens eingesetzt wird. Das ist beispielsweise der Fall: wenn Angestellte der Konkurrenz abgeworben, anschließend aber doch nicht eingestellt werden; wenn Sie mit der Intention handeln, die Betriebsgeheimnisse oder Interna eines anderen Unternehmens durch die Abwerbung in Erfahrung zu bringen;wenn Arbeitnehmende durch falsche Versprechungen oder negative Aussagen über ihren aktuellen Arbeitgeber ins eigene Unternehmen gelockt werden sollen;wenn Beschäftigte zum Vertragsbruch oder zu Handlungen, die eine sofortige Kündigung nach sich ziehen würden, aufgefordert werden;wenn Arbeitnehmende mit einem bereits aufgesetzten Kündigungsschreiben überrumpelt und unter Druck gesetzt werden. Ein Tabu ist ferner, frisch akquirierte – aber noch nicht eingestellte – Talente zum Abwerben ihrer Kolleginnen und Kollegen anzustiften oder ihnen gar Prämien dafür zu versprechen. Arbeitnehmende dürfen bei einem Unternehmenswechsel keine Teammitglieder abwerben, denn solange ihr Arbeitsverhältnis besteht, sind sie vertraglich zur Treue verpflichtet. Das bedeutet natürlich nicht, dass sich das Team nicht über einen geplanten Stellenwechsel austauschen darf, auch wenn ein Talent dabei die Vorzüge des Konkurrenzunternehmens hervorhebt. Hat der Wechsel aber bereits stattgefunden und der Arbeitsvertrag ist aufgelöst, gelten für ehemalige Mitarbeitende die gleichen Regeln wie für Personalverantwortliche. Falls Sie sich nicht an die genannten Regeln halten, verhalten Sie sich wettbewerbswidrig. Das kann rechtliche Konsequenzen haben. Werden Sie von der Konkurrenz oder dem Talent, das Sie eigentlich für sich gewinnen wollten, gemeldet, kann es zu einer Unterlassungsklage kommen. Werben Sie ein Talent auf illegalem Wege ab, können Sie zudem auf Schadensersatz verklagt werden. Im Fall der Fälle kann auch ein zeitlich begrenztes Beschäftigungsverbot für den neuen Mitarbeiter oder die neue Mitarbeiterin verhängt werden. Mitarbeiter legal abwerben: In 5 Schritten zum ErfolgKonzentrieren Sie sich also lieber auf die legalen Methoden des Abwerbens; diese bergen ohnehin den Vorteil, dass Sie die frisch gewonnenen Talente langfristig an Ihr Unternehmen binden. Doch wie gehen Sie dabei am besten vor? Die folgenden fünf Schritte versprechen ein erfolgreiches Abwerben. 1. Gelungenes Employer Branding Wollen Sie ein Talent von der Arbeit in Ihrem Unternehmen überzeugen, sollten Sie zuerst eine attraktive Arbeitgebermarke schaffen. Dazu müssen Sie wissen, was Ihr Unternehmen ausmacht. Welche Werte werden vertreten? Welche Kultur wird in Ihrer Organisation gelebt? Haben Sie diese Fragen beantwortet, sollten Sie sich entsprechend positionieren und Ihre Unternehmensbotschaften über Ihre Website, Social-Media-Kanäle, Newsletter und weitere firmeneigene Kanäle kommunizieren. Auch die Pflege bekannter Bewertungsportale für Arbeitgeber wie kununu oder Glassdoor sollte im Employer Branding einen entscheidenden Platz einnehmen. Zuletzt können Ihre Mitarbeitenden einen echten Unterschied machen, indem sie ihre persönlichen Erfahrungen mit dem Rest der Welt teilen. Als sogenannte Corporate Influencer können sie beispielsweise Einblicke in ihren Arbeitsalltag und das Miteinander im Team geben. 2. Kontaktaufnahme Haben Sie ein Talent gefunden, das auf Ihr Stellenprofil passt, sollten Sie mit einer ersten Kontaktaufnahme starten. Hierbei ist es jedoch entscheidend, dass Sie das Thema Datenschutz nicht außer Acht lassen. Die DSGVO erlaubt nämlich nur, dass Sie öffentlich zugängliche Kontaktinformationen oder -möglichkeiten nutzen – wie beispielsweise ein öffentliches Profil in einem Karrierenetzwerk oder einem Fachportal. Haben Sie mit einer Nachricht, beispielsweise über LinkedIn, den Kontakt aufgenommen und eine Telefonnummer oder eine Mailadresse erhalten, müssen Sie das Talent über die Verarbeitung dieser Daten informieren und sich seine Einwilligung einholen. Der Kandidat oder die Kandidatin muss zu jeder Zeit die Option haben, seine oder ihre Daten einzusehen, diese ändern oder löschen zu lassen. Kurz gesagt: Die DSGVO und ihre Stolpersteine führen dazu, dass vermehrt Headhunter zum Abwerben eingesetzt werden – denn diese haben durch ihr großes Netzwerk und professionelle Tools oft deutlich mehr Gestaltungsspielraum bei der Kaltakquise. Sitzen Sie beim Thema Datenschutz jedoch fest im Sattel und entscheiden sich für eine direkte Kontaktaufnahme, treten Sie dabei verbindlich, aber höflich zurückhaltend auf. In keinem Fall sollte sich Ihr Gegenüber bedrängt oder belästigt fühlen. 3. Attraktive Arbeitsbedingungen Um Ihre Konkurrenz auszustechen, sollten Sie attraktivere Arbeitsbedingungen als Ihre Wettbewerber bieten. Dazu gehören zum einen moderne Strukturen und damit die Möglichkeit, remote zu arbeiten und sich die Arbeitszeiten flexibel einzuteilen. Darüber hinaus können Sie natürlich mit großzügigen Benefits und einem überdurchschnittlichen Gehalt punkten. Gerade für IT-Fachkräfte ist auch die technische Ausstattung im Unternehmen ein entscheidender Faktor. Außerdem sind viele an der Arbeit in interdisziplinären Teams interessiert – das stärkt den Zusammenhalt innerhalb der Belegschaft und verleiht außerdem jeder Position eine besondere Rolle. 4. Onboarding angenehm gestalten Konnten Sie das Talent von Ihrem Unternehmen überzeugen, gilt es, potenzielle Hindernisse abzubauen, die einem Wechsel im Wege stehen könnten. Dazu zählen zum einen formale Hürden wie das Einreichen eines Motivationsschreibens. Sie kennen den Lebenslauf und die Qualifikationen der Fachkraft, zusätzlich haben Sie sie in Gesprächen kennengelernt. Alle wichtigen Fragen sollten dabei beantwortet worden sein. Auch auf fachlicher Ebene sollten Sie Bedenken aus dem Weg räumen. Beschreiben Sie dem Kandidaten oder der Kandidatin, wie das Onboarding ablaufen wird und wie Sie eventuelle fachliche Lücken schließen möchten. Nicht zuletzt kann auch das soziale Umfeld eine Hürde für den Wechsel darstellen. Stellen Sie deshalb sicher, dass sich Ihr bestehendes Team auf den Neuzugang freut und dass das neue Mitglied schnell Anschluss findet – beispielsweise mit Hilfe von Teamevents oder einem Mentorenprogramm innerhalb der ersten Wochen. 5. Maßnahmen zur Mitarbeiterzufriedenheit Dieser letzte Schritt lohnt sich in doppelter Hinsicht: Zum einen binden Sie die frisch gewonnenen Talente an Ihr Unternehmen, zum anderen stärken Sie natürlich Ihre Arbeitgebermarke und stellen die Weichen für zukünftige Erfolge beim Abwerben. Um die Zufriedenheit Ihrer Mitarbeitenden zu steigern, ist vor allem Kommunikation gefragt. Dazu gehört es, sich regelmäßig Feedback einzuholen und daran die Employee Experience zu messen. Also: Wie positiv oder negativ sind die Erlebnisse und Erfahrungen, die Ihre Angestellten an ihrem Arbeitsplatz sammeln? Auch in Zeiten von Hybrid oder Remote Work sollten sich alle zugehörig und nicht isoliert fühlen. Genauso wichtig ist auch die Wertschätzung. Geben Sie Ihren Angestellten das Gefühl, dass ihre erbrachte Leistung gesehen wird. Geäußerte Wünsche und Bedürfnisse sollten in die Planung künftiger Projekte mit einbezogen werden. Schenken Sie Ihrem Team Vertrauen und Freiheiten in der Prozessgestaltung sowie die Möglichkeit zur Weiterbildung. (pg/fm)Wie Unternehmen ihr Recruiting weiter optimierenTipps zur Fachkräfte- und Talentsuche
Foto: Gajus – shutterstock.comUngeachtet der Auswirkungen der COVID-19-Pandemie sind Fachkräfte und Talente weiter stark gesucht, insbesondere in der IT-Branche. BEST RECUITERS gibt Tipps, wie Unternehmen ihr Recruitment sowie ihre Talentsuche zusätzlich pushen können. Wie du mir, so ich dir
Foto: fizkes – shutterstock.comHinterfragen sie kritisch, welche Anforderungen Sie an Bewerber richten – speziell was die Soft Skills anbelangt – und ob Ihre Candidate Journey diese auch widerspiegelt. Wenn Sie also flexible Mitarbeiter suchen: Bieten Sie selbst eben diese Flexibilität im Recruiting-Prozess, zum Beispiel indem Sie mehrere Bewerbungskanäle zur Wahl stellen? Tagesaktuelle Informationenn
Foto: Dmitry Demidovich – shutterstock.comRecruiting-Prozesse sind nicht zuletzt aufgrund von Corona digitaler geworden. Informieren Sie Kandidaten über die Veränderungen in Ihrem Unternehmen, beispielsweise welche Software im virtuellen Erstrunden-Interview zum Einsatz kommt oder wie (teil-)digitales Onboarding bei Ihnen gelebt wird. Denken Sie auch an entsprechende Tipps, damit Bewerber sich optimal vorbereiten können. Vertrauen schaffen
Foto: Olga Danylenko – shutterstock.comJobsuchende erhoffen sich heute eines mehr denn je: Sicherheit. Holen Sie sie ab, indem Sie zeigen, wie Sie Ihren Mitarbeitern Vertrauen entgegenbringen, zum Beispiel durch Vertrauensarbeitszeit oder auch Lohntransparenz in Stellenanzeigen. Erfahrungen aus erster Hand
Foto: dizain – shutterstock.comLaden Sie Mitarbeiter ein, auf der Karriere-Website und in anderen Recruiting-Kanälen zu erzählen, wie sie die letzte Zeit mit Ihnen als Arbeitgeber erlebt haben. Von IT-Profi zu IT-Profi
Foto: Photographee.eu – shutterstock.comViele IT-Spezialisten wünschen sich schon vor einem Bewerbungsprozess den Kontakt zum Fachbereich. Im Rahmen digitaler Events gelingt dieser Austausch mit potenziellen Kollegen unkompliziert und ohne großen zeitlichen Aufwand für Ihre IT-Abteilung.

Mitarbeiter (legal) abwerben: 5 Tipps für den War for Talents​ Weiterlesen »

Startup vs. Unternehmensgründung: Worauf Jungunternehmer achten sollten​

Allgemein

In einem der renommiertesten Inkubatoren für Startups in Deutschland sitzen sich in einem Besprechungsraum zwei Startup-Geschäftsführer gegenüber. Der Raum wird hier allerdings “Innovation Thinking Space” genannt. Sie tauschen sich über ihre Erfahrungen während der ersten Phase ihrer Gründung aus. Stefan ist Gründer eines Online-Handels für Energieriegel auf Bio-Erbsenbasis. Joshua entwickelt eine App für die Verknüpfung von Bewerbern mit Stellenanbietern für das spezielle Segment der Softwareentwickler.So cool und innovativ Startups sein mögen – Jungunternehmer sollten sich genau überlegen, wo sie am besten hineinpassen. Foto: 4 PM production – shutterstock.comBeide nehmen am “Booster”-Programm des Inkubators teil, in dem sie während der verschiedenen Phasen ihrer Geschäftstätigkeit durch Mentoren, Workshops, vor allem aber durch die Hoffnung auf einen großen Investor, begleitet werden. Sie haben ein straffes Programm, denn regelmäßig gilt es, ihre Geschäftsidee auf professionelle und knackige Weise vor wichtigen Gremien zu präsentieren. Das alles findet im lockeren Umfeld statt, alle sagen “Du” zueinander, man trifft sich regelmäßig zu “Brunches” und “Coffees” und “Booster Nights”, die Möglichkeiten zum “Networking” sind unbegrenzt.Stefan: “Gefällt Dir das Booster-Programm?”Markus: “Ja sehr, es macht unglaublich viel Spaß!”“Bist Du nächste Woche bei der Pitch-Night auch dabei?”“Na klar bin ich dabei. Ich hoffe, ich finde einen passenden Investor! Wenn es klappt, dann feiern wir!”“Wenn es nicht klappt, feiern wir auch und zwar bei der Fuck up Night!” Beide lachen.“Ich habe morgen einen Termin mit dem Mentor für die Steuerberatung, das wird bestimmt interessant”“Ich nehme am Workshop für Präsentations-Skills teil, darauf freue ich mich schon.”“Hast Du schon gehört? Anna von ‘IT Wonder’ hat letzte Woche schon 500.000 Euro eingesammelt, das ist großartig!”“Ja, das ist es! Sie bekommt hier jetzt ein eigenes Büro für sich selbst und noch zwei weitere Mitarbeiter, jetzt geht es bei ihr richtig los!”“Das ist super. Ich wünschte, ich könnte auch bald ein eigenes Büro anmieten. Der Open Space ist cool, aber es ist auch ziemlich laut. Allmählich möchte ich mich auch nicht wie ein Student auf dem Campus fühlen, sondern schon eher wie ein echter Geschäftsführer!” Beide lachen wieder.Klassische Firmengründung oder Startup?Zwei Straßen weiter legt Angelo den Pinsel aus der Hand und betrachtet stolz sein Werk. Die Wände sehen toll aus. Morgen kommt die Lieferung der Tische und Stühle, die Dekoration ist auch schon vorbereitet. Nächste Woche eröffnet Angelo sein eigenes italienisches Lokal. Die Besonderheit: Die Pizza wird besonders hochwertig sein, mit Teig nicht nur auf Weizenbasis, sondern auch mit Dinkel, Amaranth und Kichererbsen. Er hat lange herumprobiert an seinen Rezepten und ist jetzt bereit, sie dem Markt zu präsentieren. Nach langem Hin und Her hat die Bank ihm den notwendigen Kredit gewährt, im Zweifel hat Angelo damit das Haus seines Onkels auf dem Gewissen, der für ihn gebürgt hat. 100.000 Euro hat Angelo bekommen, um sein Glück zu machen und er ist fest davon überzeugt, dass es funktionieren wird.Beide Geschichten sind frei erfunden und stehen damit beispielhaft für die Unterscheidung von Startup und Unternehmensgründung. Was genau ist eigentlich der Unterschied zwischen einem Startup und einem “regulär” gegründeten Unternehmen? Warum ist die Eröffnung eines italienischen Lokals kein Startup, die Einrichtung eines neuen Internetportals für Stellenvermittlung oder der Vertrieb von Eiweißriegeln aber schon? Warum ist es eine Unternehmensgründung, uninteressant für Pitches, wenn ein Student einen Getränkehandel über zehn Jahre hinweg langsam aufbaut und entwickelt, von den ersten Wasserkisten im Kofferraum seines Kleinwagens, bis hin zu einer Flotte von 20 Fahrzeugen und 2000 Kisten Lieferung pro Tag? Und warum ist das gleiche Modell ein Startup, nur weil für einen Getränkehandel sofort 10 oder 20 Millionen Euro verfügbar gemacht werden, so dass – von heute auf morgen – eine Flotte von 50 Fahrzeugen unterwegs sein kann? Warum ist der Versand von Obst- und Gemüsekisten mit Rezepten ein Startup, die Hauslieferung des Supermarktes um die Ecke aber nicht?Was muss man also tun, um als Unternehmensgründer ein “Startup” sein zu können, um relativ zügig viel Geld zur Verfügung zu haben? Suchen wir nach einer Definition, so wird erklärt, dass ein Startup immer mit großem Wachstumspotenzial verbunden ist. Es geht darum, in möglichst kurzer Zeit möglichst viel Gewinn mit der neuen Geschäftsidee zu machen. Ziel ist dann, das Geschäft mit ebendiesem Gewinn weiter zu veräußern. Die Gründer sehen in ihrer Geschäftsidee somit nicht unbedingt ein eigenes “Baby”, das sie hegen und pflegen, um es langsam groß zu machen.Es geht in erster Linie um eine gute Idee, die um das schnelle Geld, das schnelle Wachstum verspricht. Zur Beschleunigung, und um das Wachstumspotenzial überhaupt umsetzen zu können, braucht es schon in der frühen Phase der Geschäftstätigkeit größere Mengen an Geld, um das notwendige Tempo im Wachstum zu erreichen. Die Förderung durch einen “Inkubator”, der einen ganzen Stab von Mentoren, Informationen, Netzwerk, Information, Austausch, Workshops, Business Angels, Pitches, etc zur Verfügung stellt, bietet den Rahmen für die notwendige Förderung hin zum maximalen Nutzen der neuen Geschäftsidee. Startup-Gründer lernen, ihre eigene Geschäftsidee möglichst gut zu präsentieren, um in einem “Pitch” möglichst viel Geld einzusammeln. Es geht noch nicht einmal mehr darum, selbständig etwas voran zu bringen, eine Idee wachsen zu lassen oder sorgsam zu entwickeln. Es geht nur noch um die Idee und darum, die möglichst gut zu präsentieren mit dem Ziel, sie meistbietend an einen Investor zu verkaufen. Das Startup befindet sich somit schon von Tag eins des Daseins in einer gewissen Abhängigkeit, die weit über das Maß der Abhängigkeit eines “regulären” Gründers hinausgeht. Zudem finden Startup-Gründer ihr erstes Zuhause oft in den Inkubatoren, die ihnen mit einer bereits vorgegebenen Kultur entgegentreten, sie aufnehmen und zum Erfolg begleiten und tragen, wie ein Elternhaus, in dem immer noch für alles gesorgt wird und man nur noch die gute Idee weiterentwickeln muss, mit etwas Hoffnung, dass sie auch irgendein anderer gut findet, idealerweise jemand mit einem Portemonnaie, in dem eine Million Euro locker zur Verfügung steht.Startups – die große Abhängigkeit vom GeldHier erleben wir den Unterschied zu einem “regulären” Gründer. Ziel der Geschäftsgründung ist es nicht, eine neue Idee möglichst schnell wachsen und zu Geld werden zu lassen, um sie dann zu verkaufen. Vielmehr geht es darum, die Idee mit eigenen Fähigkeiten und Fertigkeiten zu unterlegen und dem Markt zu präsentieren, um daraus etwas zu schaffen, das man selbst umsetzen und weiterentwickeln kann. Es geht also mehr um die Entwicklung und Ausgestaltung der Idee als um die reine Ausrichtung auf den Erfolg, der schon nach kurzer Zeit in einer gewinnbringenden Veräußerung liegt.Natürlich braucht auch der Firmengründer Geld für die Umsetzung seiner Träume. In der Regel hat er jedoch ein wenig mehr Zeit, das Unternehmen wachsen zu lassen. Außer der Abhängigkeit von der Bank, die eine Rückzahlung des Kredits erwartet, liegen in der Regel keine weiteren Abhängigkeiten vor. Ist der Kredit abbezahlt, gehört das Geschäft allein dem Geschäftsführer und er kann damit machen was er möchte. Wenn er entscheidet, einen Partner mit hinzuzunehmen, geschieht das in der Regel nach seinen Bedingungen.Bei einer Startup-Investition ist die Abhängigkeit gleich viel größer. Investoren tragen in der Regel einen sehr hohen Anteil, wenn nicht sogar die gesamte Finanzierung. Als Gründer ist man dann Teil einer größeren Maschinerie, die wesentlich höhere Gewinne und Publicity ermöglichen kann, die aber auch weniger Freiheit für die persönliche Entwicklung lässt.Ein weiterer Unterschied darf dabei keinesfalls übersehen werden: Die Möglichkeiten, in sehr kurzer Zeit sehr (!) viel Geld zu verdienen, ist bei einem Startup das von Investoren unterstützt wird, ungleich höher als bei einer Firmengründung aus eigener Kraft. Ist man als Gründer also darauf aus, zügig zu einem gewissen Wohlstand zu kommen, ist der Startup-Pitch auf jeden Fall der bessere Weg als der Gang zur Bank und die Verhandlungen um einen Gründungskredit.Der Fragenkatalog der JungunternehmerWenn man also eine eigene Geschäftsidee umsetzen möchte, sollte man sich im Vorfeld die Frage stellen: Was will ich? Möchte ich schnell Geld verdienen, Teil sein der absolut spannenden und grandiosen Startup-Welt, in der ich viele interessante Leute treffen werde, mich mit Gleichgesinnten austauschen kann, gefühlt das Studentenleben im Rahmen des Inkubators noch weit über meinen Studienabschluss hinaus fortsetzen kann? Bin ich bereit, das Risiko einzugehen, auch einmal (oder mehrmals) zu verlieren, keine Investition zu bekommen, meine Idee tatsächlich zu verkaufen um dann zu sehen, dass andere sie groß machen und ich keinen Beitrag mehr dazu leisten kann?Oder brauche ich den Austausch mit den anderen nicht so dringend, konzentriere mich lieber auf meine Sache, kümmere mich um die Idee in ihrem Inneren, lasse mein Geschäft auch MEIN Geschäft sein und entwickle es so, wie ich es möchte? Ich bin dann möglicherweise alleine mit meiner Idee, muss alleine mit der Bank verhandeln, muss alleine sehen, wie ich die Finanzierung stemme; muss vielleicht erleben, wie ich selbst nach 15 Jahren erfolgreich etwas aufgebaut habe, um dann in fünf Monaten von einem Venture-Capital-geförderten Startup am Markt überholt zu werden, das mit einer ähnlichen Geschäftsidee und zehn Mllionen Euro Förderung plötzlich ganz schnell viel mehr Möglichkeiten hat als ich. Der Schlüssel liegt nicht unbedingt in der Frage: “Was will ich?” Die Frage ist eher “WER will ich sein?” oder auch “WER soll mein Geschäft sein?”Unternehmenskultur vs Startup-KulturDamit sind wir beim Kernthema angekommen: Wie wichtig ist es, dass ein Unternehmen eine eigene Persönlichkeit hat, eine Kultur, um erfolgreich zu sein? Wir hören ja oft von Unternehmenskultur, Umgang mit Mitarbeitern und Unternehmensidentität. Aber wie wichtig ist dies in der heutigen Welt der Startups? Kann ein Gründer in der bunten Welt eines Inkubators, im Rahmen von Co-Working und Booster-Programm, Mentoren-Workshop und Startup-Brunch, überhaupt eine eigene Identität entwickeln?Muss er das überhaupt? Vermutlich ja, und zwar spätestens dann, wenn das Unternehmen wächst und der Gründer doch noch eine Rolle als Geschäftsführer spielen kann. Unternehmen wie Zalando, AirBnB oder trivago verfügen sehr wohl über eine Unternehmenskultur. Ob diese so gestaltet ist, wie die Gründer es sich zu Beginn vorgestellt haben, lässt sich von außen nicht klar beantworten.Wichtig ist lediglich, dass die Gestaltung einer Unternehmenskultur ab einem bestimmten Punkt eine Rolle spielt. Zurück zu unserem Gespräch zwischen Stefan und Markus. Beide beneiden Anna, die jetzt ein eigenes Büro bekommen wird. Ein eigenes Büro, das ist ein Stück eigene Welt, ein Stück Intimsphäre, und damit ein Stück Kultur durch die Schaffung einer eigenen Identität. Mit dem Firmenlogo an der Tür, den Bildern an der Wand, die man sich selbst ausgesucht hat, fängt die Gestaltung der Kultur an.Wir hören viel von der “Startup-Kultur“. Sie beschreibt aber lediglich die Kultur der Startup-Welt insgesamt. Startup-Kultur bedeutet Flexibilität, Ausprobieren, Fehler machen dürfen, Networking, Brunches, Dinners, Pitches, Workshops, Austausch, buntes Treiben, Studentenfeeling, ein junges Gefühl. Der Reiz des StartupsDie Kultur des einzelnen Startups ist anders. Die Kultur des einzelnen Unternehmens ist das, was der Gründer daraus macht, bzw. das, was die Investoren gestatten, daraus entstehen zu lassen.Und diese Kultur ist es, die letztlich die Einzigartigkeit am Markt gestalten kann, wenn es darum geht, Menschen für das Unternehmen zu begeistern. Dabei geht es nicht länger nur um die Kunden, sondern vielmehr um die Geschäftspartner und Mitarbeiter, die das Unternehmen früher oder später in seinem Wachstum begleiten und unterstützen sollen. Und dann steht eins außer Frage: Ein Unternehmen mit einer ansprechenden Kultur wird immer in der Lage sein, Mitarbeiter zu finden, die die Ziele des Unternehmens mit Begeisterung voranbringen. Ein Unternehmen, das langsam und organisch gewachsen ist, hat somit den deutlichen Vorteil, seinen Mitarbeitern ein stabiles Umfeld bieten zu können, das auch einem Wandel im Markt aufgrund seiner guten Basis, die die Kultur ihm gibt, standhalten kann.Andererseits hat die Startup-Welt einen gewissen “Buzz”, eine Atmosphäre, die für viele Menschen genau den Reiz in der Arbeitswelt ausmachen. Nicht zuletzt aus diesem Grund unterhalten große Unternehmen ebenfalls Büros innerhalb von Co-Working-Häusern und Inkubatoren, um dort im Rahmen von Projekten oder “Spin Offs” diese besondere, junge und moderne, Atmosphäre aufnehmen und daraus Erfolg für ihre Innovationen schöpfen zu können. Sie versprechen sich, dass die Mitarbeiter, die in diesen Projekten tätig sind, in dem bunten und lebendigen Umfeld deutlich bessere Ergebnisse erzielen können, als innerhalb der gewohnten Konzernluft.Die Frage “Wer will ich sein?” ist nicht nur eine Frage für den Gründer, sondern auch für die Menschen, die sich ein neues Wirkungsfeld suchen und überlegen, ob sie sich einem reinen Startup, oder einem auf andere Weise gewachsenen Unternehmen anschließen möchten. Nach welcher Identität suche ich in meinem Arbeitsalltag? Habe ich Lust auf ein bewegtes Umfeld, teilweise doch noch recht unprofessionelle Vorgehensweise, eher unstrukturiertes und unkonventionelles Arbeiten, Lust auf WG-Feeling mit allen Höhen und Tiefen? Oder brauche ich Struktur, geübte Vorgehensweisen, Professionalität und klare Rahmenbedingungen?Wenn die Firma kein Startup mehr istSo attraktiv, jung, innovativ und erfolgreich die Startup-Welt auch erscheinen mag: Sie ist nicht für jedermann gemacht und nicht jedermann ist für sie gemacht. Das ist im Übrigen auch gar nicht schlimm, sofern man sich der eigenen Identität bewusst ist und weiß, was einem selbst im Arbeitsalltag guttut, so dass man die eigene Persönlichkeit mit Selbstbewusstsein vertreten kann, anstatt sich einem Umfeld anzupassen, das einem nicht wirklich liegt.Gleiches gilt natürlich vor allem auch für einen Unternehmensgründer. Nur wenn ich wirklich Lust darauf habe, mich in das bunte Leben zu stürzen, Freude daran habe, mich mit anderen auszutauschen, meine Arbeitszeit bunt gemischt auf 24 Stunden an sieben Tagen zu verteilen, meinen Schreibtisch auch mal anderen zur Verfügung zu stellen, sollte ich über die Gründung eines klassischen Startups nachdenken. Ich genieße dann die Vorteile einer großen Gemeinschaft zu dem Preis, stets sehr transparent und ansprechbar zu sein, wenig Ruhe zu haben und nicht ganz so sehr “mein Ding” machen zu können.“Mein Ding” kommt dann trotzdem auf mich zu, nämlich dann, wenn meine Idee erfolgreich ist und mein Unternehmen kein Startup mehr ist, sondern größer wird. Spätestens dann ist der Punkt gekommen, mich von der Co-Working-Welt verabschieden zu müssen und eine eigene Identität und damit Kultur für mein Unternehmen zu schaffen.P.S. Ja, wir wissen durchaus, dass der Vergleich zwischen einer “klassischen Unternehmensgründung” und einem “Startup” hier ein wenig Schwarz und Weiß gezeichnet ist. Natürlich findet sich in allem immer auch eine Mischung, und man kann nichts verallgemeinern. Trotzdem finden sich gewisse Stereotypen immer wieder bestätigt, somit lohnt es sich, die Antennen ausgefahren und die Aufmerksamkeit hoch zu halten, wenn plötzlich eine Idee daherkommt, mit der man sich gerne selbständig machen möchte. (bw) 

Startup vs. Unternehmensgründung: Worauf Jungunternehmer achten sollten​ In einem der renommiertesten Inkubatoren für Startups in Deutschland sitzen sich in einem Besprechungsraum zwei Startup-Geschäftsführer gegenüber. Der Raum wird hier allerdings “Innovation Thinking Space” genannt. Sie tauschen sich über ihre Erfahrungen während der ersten Phase ihrer Gründung aus. Stefan ist Gründer eines Online-Handels für Energieriegel auf Bio-Erbsenbasis. Joshua entwickelt eine App für die Verknüpfung von Bewerbern mit Stellenanbietern für das spezielle Segment der Softwareentwickler.So cool und innovativ Startups sein mögen – Jungunternehmer sollten sich genau überlegen, wo sie am besten hineinpassen.
Foto: 4 PM production – shutterstock.comBeide nehmen am “Booster”-Programm des Inkubators teil, in dem sie während der verschiedenen Phasen ihrer Geschäftstätigkeit durch Mentoren, Workshops, vor allem aber durch die Hoffnung auf einen großen Investor, begleitet werden. Sie haben ein straffes Programm, denn regelmäßig gilt es, ihre Geschäftsidee auf professionelle und knackige Weise vor wichtigen Gremien zu präsentieren. Das alles findet im lockeren Umfeld statt, alle sagen “Du” zueinander, man trifft sich regelmäßig zu “Brunches” und “Coffees” und “Booster Nights”, die Möglichkeiten zum “Networking” sind unbegrenzt.Stefan: “Gefällt Dir das Booster-Programm?”Markus: “Ja sehr, es macht unglaublich viel Spaß!”“Bist Du nächste Woche bei der Pitch-Night auch dabei?”“Na klar bin ich dabei. Ich hoffe, ich finde einen passenden Investor! Wenn es klappt, dann feiern wir!”“Wenn es nicht klappt, feiern wir auch und zwar bei der Fuck up Night!” Beide lachen.“Ich habe morgen einen Termin mit dem Mentor für die Steuerberatung, das wird bestimmt interessant”“Ich nehme am Workshop für Präsentations-Skills teil, darauf freue ich mich schon.”“Hast Du schon gehört? Anna von ‘IT Wonder’ hat letzte Woche schon 500.000 Euro eingesammelt, das ist großartig!”“Ja, das ist es! Sie bekommt hier jetzt ein eigenes Büro für sich selbst und noch zwei weitere Mitarbeiter, jetzt geht es bei ihr richtig los!”“Das ist super. Ich wünschte, ich könnte auch bald ein eigenes Büro anmieten. Der Open Space ist cool, aber es ist auch ziemlich laut. Allmählich möchte ich mich auch nicht wie ein Student auf dem Campus fühlen, sondern schon eher wie ein echter Geschäftsführer!” Beide lachen wieder.Klassische Firmengründung oder Startup?Zwei Straßen weiter legt Angelo den Pinsel aus der Hand und betrachtet stolz sein Werk. Die Wände sehen toll aus. Morgen kommt die Lieferung der Tische und Stühle, die Dekoration ist auch schon vorbereitet. Nächste Woche eröffnet Angelo sein eigenes italienisches Lokal. Die Besonderheit: Die Pizza wird besonders hochwertig sein, mit Teig nicht nur auf Weizenbasis, sondern auch mit Dinkel, Amaranth und Kichererbsen. Er hat lange herumprobiert an seinen Rezepten und ist jetzt bereit, sie dem Markt zu präsentieren. Nach langem Hin und Her hat die Bank ihm den notwendigen Kredit gewährt, im Zweifel hat Angelo damit das Haus seines Onkels auf dem Gewissen, der für ihn gebürgt hat. 100.000 Euro hat Angelo bekommen, um sein Glück zu machen und er ist fest davon überzeugt, dass es funktionieren wird.Beide Geschichten sind frei erfunden und stehen damit beispielhaft für die Unterscheidung von Startup und Unternehmensgründung. Was genau ist eigentlich der Unterschied zwischen einem Startup und einem “regulär” gegründeten Unternehmen? Warum ist die Eröffnung eines italienischen Lokals kein Startup, die Einrichtung eines neuen Internetportals für Stellenvermittlung oder der Vertrieb von Eiweißriegeln aber schon? Warum ist es eine Unternehmensgründung, uninteressant für Pitches, wenn ein Student einen Getränkehandel über zehn Jahre hinweg langsam aufbaut und entwickelt, von den ersten Wasserkisten im Kofferraum seines Kleinwagens, bis hin zu einer Flotte von 20 Fahrzeugen und 2000 Kisten Lieferung pro Tag? Und warum ist das gleiche Modell ein Startup, nur weil für einen Getränkehandel sofort 10 oder 20 Millionen Euro verfügbar gemacht werden, so dass – von heute auf morgen – eine Flotte von 50 Fahrzeugen unterwegs sein kann? Warum ist der Versand von Obst- und Gemüsekisten mit Rezepten ein Startup, die Hauslieferung des Supermarktes um die Ecke aber nicht?Was muss man also tun, um als Unternehmensgründer ein “Startup” sein zu können, um relativ zügig viel Geld zur Verfügung zu haben? Suchen wir nach einer Definition, so wird erklärt, dass ein Startup immer mit großem Wachstumspotenzial verbunden ist. Es geht darum, in möglichst kurzer Zeit möglichst viel Gewinn mit der neuen Geschäftsidee zu machen. Ziel ist dann, das Geschäft mit ebendiesem Gewinn weiter zu veräußern. Die Gründer sehen in ihrer Geschäftsidee somit nicht unbedingt ein eigenes “Baby”, das sie hegen und pflegen, um es langsam groß zu machen.Es geht in erster Linie um eine gute Idee, die um das schnelle Geld, das schnelle Wachstum verspricht. Zur Beschleunigung, und um das Wachstumspotenzial überhaupt umsetzen zu können, braucht es schon in der frühen Phase der Geschäftstätigkeit größere Mengen an Geld, um das notwendige Tempo im Wachstum zu erreichen. Die Förderung durch einen “Inkubator”, der einen ganzen Stab von Mentoren, Informationen, Netzwerk, Information, Austausch, Workshops, Business Angels, Pitches, etc zur Verfügung stellt, bietet den Rahmen für die notwendige Förderung hin zum maximalen Nutzen der neuen Geschäftsidee. Startup-Gründer lernen, ihre eigene Geschäftsidee möglichst gut zu präsentieren, um in einem “Pitch” möglichst viel Geld einzusammeln. Es geht noch nicht einmal mehr darum, selbständig etwas voran zu bringen, eine Idee wachsen zu lassen oder sorgsam zu entwickeln. Es geht nur noch um die Idee und darum, die möglichst gut zu präsentieren mit dem Ziel, sie meistbietend an einen Investor zu verkaufen. Das Startup befindet sich somit schon von Tag eins des Daseins in einer gewissen Abhängigkeit, die weit über das Maß der Abhängigkeit eines “regulären” Gründers hinausgeht. Zudem finden Startup-Gründer ihr erstes Zuhause oft in den Inkubatoren, die ihnen mit einer bereits vorgegebenen Kultur entgegentreten, sie aufnehmen und zum Erfolg begleiten und tragen, wie ein Elternhaus, in dem immer noch für alles gesorgt wird und man nur noch die gute Idee weiterentwickeln muss, mit etwas Hoffnung, dass sie auch irgendein anderer gut findet, idealerweise jemand mit einem Portemonnaie, in dem eine Million Euro locker zur Verfügung steht.Startups – die große Abhängigkeit vom GeldHier erleben wir den Unterschied zu einem “regulären” Gründer. Ziel der Geschäftsgründung ist es nicht, eine neue Idee möglichst schnell wachsen und zu Geld werden zu lassen, um sie dann zu verkaufen. Vielmehr geht es darum, die Idee mit eigenen Fähigkeiten und Fertigkeiten zu unterlegen und dem Markt zu präsentieren, um daraus etwas zu schaffen, das man selbst umsetzen und weiterentwickeln kann. Es geht also mehr um die Entwicklung und Ausgestaltung der Idee als um die reine Ausrichtung auf den Erfolg, der schon nach kurzer Zeit in einer gewinnbringenden Veräußerung liegt.Natürlich braucht auch der Firmengründer Geld für die Umsetzung seiner Träume. In der Regel hat er jedoch ein wenig mehr Zeit, das Unternehmen wachsen zu lassen. Außer der Abhängigkeit von der Bank, die eine Rückzahlung des Kredits erwartet, liegen in der Regel keine weiteren Abhängigkeiten vor. Ist der Kredit abbezahlt, gehört das Geschäft allein dem Geschäftsführer und er kann damit machen was er möchte. Wenn er entscheidet, einen Partner mit hinzuzunehmen, geschieht das in der Regel nach seinen Bedingungen.Bei einer Startup-Investition ist die Abhängigkeit gleich viel größer. Investoren tragen in der Regel einen sehr hohen Anteil, wenn nicht sogar die gesamte Finanzierung. Als Gründer ist man dann Teil einer größeren Maschinerie, die wesentlich höhere Gewinne und Publicity ermöglichen kann, die aber auch weniger Freiheit für die persönliche Entwicklung lässt.Ein weiterer Unterschied darf dabei keinesfalls übersehen werden: Die Möglichkeiten, in sehr kurzer Zeit sehr (!) viel Geld zu verdienen, ist bei einem Startup das von Investoren unterstützt wird, ungleich höher als bei einer Firmengründung aus eigener Kraft. Ist man als Gründer also darauf aus, zügig zu einem gewissen Wohlstand zu kommen, ist der Startup-Pitch auf jeden Fall der bessere Weg als der Gang zur Bank und die Verhandlungen um einen Gründungskredit.Der Fragenkatalog der JungunternehmerWenn man also eine eigene Geschäftsidee umsetzen möchte, sollte man sich im Vorfeld die Frage stellen: Was will ich? Möchte ich schnell Geld verdienen, Teil sein der absolut spannenden und grandiosen Startup-Welt, in der ich viele interessante Leute treffen werde, mich mit Gleichgesinnten austauschen kann, gefühlt das Studentenleben im Rahmen des Inkubators noch weit über meinen Studienabschluss hinaus fortsetzen kann? Bin ich bereit, das Risiko einzugehen, auch einmal (oder mehrmals) zu verlieren, keine Investition zu bekommen, meine Idee tatsächlich zu verkaufen um dann zu sehen, dass andere sie groß machen und ich keinen Beitrag mehr dazu leisten kann?Oder brauche ich den Austausch mit den anderen nicht so dringend, konzentriere mich lieber auf meine Sache, kümmere mich um die Idee in ihrem Inneren, lasse mein Geschäft auch MEIN Geschäft sein und entwickle es so, wie ich es möchte? Ich bin dann möglicherweise alleine mit meiner Idee, muss alleine mit der Bank verhandeln, muss alleine sehen, wie ich die Finanzierung stemme; muss vielleicht erleben, wie ich selbst nach 15 Jahren erfolgreich etwas aufgebaut habe, um dann in fünf Monaten von einem Venture-Capital-geförderten Startup am Markt überholt zu werden, das mit einer ähnlichen Geschäftsidee und zehn Mllionen Euro Förderung plötzlich ganz schnell viel mehr Möglichkeiten hat als ich. Der Schlüssel liegt nicht unbedingt in der Frage: “Was will ich?” Die Frage ist eher “WER will ich sein?” oder auch “WER soll mein Geschäft sein?”Unternehmenskultur vs Startup-KulturDamit sind wir beim Kernthema angekommen: Wie wichtig ist es, dass ein Unternehmen eine eigene Persönlichkeit hat, eine Kultur, um erfolgreich zu sein? Wir hören ja oft von Unternehmenskultur, Umgang mit Mitarbeitern und Unternehmensidentität. Aber wie wichtig ist dies in der heutigen Welt der Startups? Kann ein Gründer in der bunten Welt eines Inkubators, im Rahmen von Co-Working und Booster-Programm, Mentoren-Workshop und Startup-Brunch, überhaupt eine eigene Identität entwickeln?Muss er das überhaupt? Vermutlich ja, und zwar spätestens dann, wenn das Unternehmen wächst und der Gründer doch noch eine Rolle als Geschäftsführer spielen kann. Unternehmen wie Zalando, AirBnB oder trivago verfügen sehr wohl über eine Unternehmenskultur. Ob diese so gestaltet ist, wie die Gründer es sich zu Beginn vorgestellt haben, lässt sich von außen nicht klar beantworten.Wichtig ist lediglich, dass die Gestaltung einer Unternehmenskultur ab einem bestimmten Punkt eine Rolle spielt. Zurück zu unserem Gespräch zwischen Stefan und Markus. Beide beneiden Anna, die jetzt ein eigenes Büro bekommen wird. Ein eigenes Büro, das ist ein Stück eigene Welt, ein Stück Intimsphäre, und damit ein Stück Kultur durch die Schaffung einer eigenen Identität. Mit dem Firmenlogo an der Tür, den Bildern an der Wand, die man sich selbst ausgesucht hat, fängt die Gestaltung der Kultur an.Wir hören viel von der “Startup-Kultur“. Sie beschreibt aber lediglich die Kultur der Startup-Welt insgesamt. Startup-Kultur bedeutet Flexibilität, Ausprobieren, Fehler machen dürfen, Networking, Brunches, Dinners, Pitches, Workshops, Austausch, buntes Treiben, Studentenfeeling, ein junges Gefühl.

Der Reiz des StartupsDie Kultur des einzelnen Startups ist anders. Die Kultur des einzelnen Unternehmens ist das, was der Gründer daraus macht, bzw. das, was die Investoren gestatten, daraus entstehen zu lassen.Und diese Kultur ist es, die letztlich die Einzigartigkeit am Markt gestalten kann, wenn es darum geht, Menschen für das Unternehmen zu begeistern. Dabei geht es nicht länger nur um die Kunden, sondern vielmehr um die Geschäftspartner und Mitarbeiter, die das Unternehmen früher oder später in seinem Wachstum begleiten und unterstützen sollen. Und dann steht eins außer Frage: Ein Unternehmen mit einer ansprechenden Kultur wird immer in der Lage sein, Mitarbeiter zu finden, die die Ziele des Unternehmens mit Begeisterung voranbringen. Ein Unternehmen, das langsam und organisch gewachsen ist, hat somit den deutlichen Vorteil, seinen Mitarbeitern ein stabiles Umfeld bieten zu können, das auch einem Wandel im Markt aufgrund seiner guten Basis, die die Kultur ihm gibt, standhalten kann.Andererseits hat die Startup-Welt einen gewissen “Buzz”, eine Atmosphäre, die für viele Menschen genau den Reiz in der Arbeitswelt ausmachen. Nicht zuletzt aus diesem Grund unterhalten große Unternehmen ebenfalls Büros innerhalb von Co-Working-Häusern und Inkubatoren, um dort im Rahmen von Projekten oder “Spin Offs” diese besondere, junge und moderne, Atmosphäre aufnehmen und daraus Erfolg für ihre Innovationen schöpfen zu können. Sie versprechen sich, dass die Mitarbeiter, die in diesen Projekten tätig sind, in dem bunten und lebendigen Umfeld deutlich bessere Ergebnisse erzielen können, als innerhalb der gewohnten Konzernluft.Die Frage “Wer will ich sein?” ist nicht nur eine Frage für den Gründer, sondern auch für die Menschen, die sich ein neues Wirkungsfeld suchen und überlegen, ob sie sich einem reinen Startup, oder einem auf andere Weise gewachsenen Unternehmen anschließen möchten. Nach welcher Identität suche ich in meinem Arbeitsalltag? Habe ich Lust auf ein bewegtes Umfeld, teilweise doch noch recht unprofessionelle Vorgehensweise, eher unstrukturiertes und unkonventionelles Arbeiten, Lust auf WG-Feeling mit allen Höhen und Tiefen? Oder brauche ich Struktur, geübte Vorgehensweisen, Professionalität und klare Rahmenbedingungen?Wenn die Firma kein Startup mehr istSo attraktiv, jung, innovativ und erfolgreich die Startup-Welt auch erscheinen mag: Sie ist nicht für jedermann gemacht und nicht jedermann ist für sie gemacht. Das ist im Übrigen auch gar nicht schlimm, sofern man sich der eigenen Identität bewusst ist und weiß, was einem selbst im Arbeitsalltag guttut, so dass man die eigene Persönlichkeit mit Selbstbewusstsein vertreten kann, anstatt sich einem Umfeld anzupassen, das einem nicht wirklich liegt.Gleiches gilt natürlich vor allem auch für einen Unternehmensgründer. Nur wenn ich wirklich Lust darauf habe, mich in das bunte Leben zu stürzen, Freude daran habe, mich mit anderen auszutauschen, meine Arbeitszeit bunt gemischt auf 24 Stunden an sieben Tagen zu verteilen, meinen Schreibtisch auch mal anderen zur Verfügung zu stellen, sollte ich über die Gründung eines klassischen Startups nachdenken. Ich genieße dann die Vorteile einer großen Gemeinschaft zu dem Preis, stets sehr transparent und ansprechbar zu sein, wenig Ruhe zu haben und nicht ganz so sehr “mein Ding” machen zu können.“Mein Ding” kommt dann trotzdem auf mich zu, nämlich dann, wenn meine Idee erfolgreich ist und mein Unternehmen kein Startup mehr ist, sondern größer wird. Spätestens dann ist der Punkt gekommen, mich von der Co-Working-Welt verabschieden zu müssen und eine eigene Identität und damit Kultur für mein Unternehmen zu schaffen.P.S. Ja, wir wissen durchaus, dass der Vergleich zwischen einer “klassischen Unternehmensgründung” und einem “Startup” hier ein wenig Schwarz und Weiß gezeichnet ist. Natürlich findet sich in allem immer auch eine Mischung, und man kann nichts verallgemeinern. Trotzdem finden sich gewisse Stereotypen immer wieder bestätigt, somit lohnt es sich, die Antennen ausgefahren und die Aufmerksamkeit hoch zu halten, wenn plötzlich eine Idee daherkommt, mit der man sich gerne selbständig machen möchte. (bw)

Startup vs. Unternehmensgründung: Worauf Jungunternehmer achten sollten​ Weiterlesen »

Digitale Souveränität: Geht es auch ohne AWS und Co.?​

Allgemein

Sollte die EU mit Gegenzöllen auf digitale Services reagieren, wird es für deutsche Unternehmen teuer. Zu groß ist die Abhängigkeit von den US-Hyperscalern. GAlexS – shutterstock.com Was passiert, wenn die US-Cloud-Dienste morgen wegfallen? Weil etwa die EU auf die US-Strafzölle mit Gegenzöllen auf digitale Dienstleistungen reagiert. Cloud-Dienste wie AWS, Microsoft Azure oder Google Cloud könnten drastisch teurer oder regulatorisch eingeschränkt werden. Diese Frage hat sich Tobias von der Heydt, Geschäftsführer von Prior1, einem auf die Planung und den Bau von Serverräumen und Rechenzentren spezialisierten Unternehmen, gestellt. Und er kommt zu einem vernichtenden Ergebnis: Der plötzliche Verlust oder die Verteuerung zentraler Cloud-Infrastrukturen würde Deutschland ins Mark treffen. So digital verwundbar ist Deutschland Tobias von der Heydt, Geschäftsführer von Prior1, geht der Frage nach, wie es um Deutschlands digitale Souveränität bestellt ist. Prior 1 Was das für Deutschland konkret bedeutet, veranschaulicht der Geschäftsführer an zwei Zahlenbeispielen: Es müssten 1.200 MW zusätzliche RZ-Leistung gebaut werden und es würden 40 Exabyte Speicher fehlen. Um diese Lücken zu schließen, wären Milliarden-Investitionen erforderlich. Von der erforderlichen Zeit im überbürokratisierten Deutschland – in dem Genehmigungszeiten von fünf Jahren schon als schnell gelten – noch gar nicht geredet. Doch auf dem Weg zur digitalen Souveränität hakt es in Deutschland noch an mehr Ecken, wie von der Heydt analysiert hat. So ist Frankfurt mit über 1.050 MW installierter IT-Leistung zwar Europas führender Rechenzentrumsstandort und blickt auf  eine Wachstumspipeline von bis zu 1,3 GW. Doch das Wachstum stößt an Grenzen: 82 Prozent der Netzanschlusskapazitäten sind bereits ausgelastet, neue Projekte benötigen Direktanschlüsse ans Übertragungsnetz. Dabei dauern Stromanschlüsse in Frankfurt laut McKinsey oft drei bis fünf Jahre – ein erheblicher Wachstumsengpass. Die US-Dominanz Fast 72 Prozent der europäischen Cloud-Kapazitäten stellen die US-Hyperscaler bereit. Caureem – shutterstock.com Die US-Anbieter kontrollieren 65 bis 72 Prozent der europäischen Cloud-Kapazitäten. Zudem stellen sie 85 Prozent der GPU-Kapazitäten für KI-Anwendungen bereit. Damit sind sie ein zentraler Faktor für datengetriebene Dienste. Die Hyperscaler AWS, Microsoft und Google betreiben allein in Deutschland mehr Infrastruktur als alle europäischen Anbieter zusammen. Deutschlands RZ-Landschaft In Deutschland sind rund 2.000 Rechenzentren mit mindestens 50 kW IT-Leistung aktiv. Die größten Cluster befinden sich in Frankfurt, Berlin, München, dem Rheinland und Hamburg. Außerhalb dieser Hotspots fehlt es häufig an der Energieinfrastruktur, was den Ausbau neuer Standorte verzögert. Das fehlt zur digitalen Autarkie Ohne die US-Clouds müsste Deutschland kurzfristig rund 1.200 Megawatt zusätzliche IT-Anschlussleistung kompensieren. Das entspricht rund 40 Prozent der aktuellen Gesamtkapazität von 2.700 Megawatt, die vor allem in Frankfurt, Berlin und dem Rheinland konzentriert ist. Um digital autark zu werden, müsste Deutschland 1.200 MW an Rechenleistung neu bauen. Lukasz Pawel Szczepanski – shutterstock.com Auch beim Speicherbedarf klafft eine enorme Lücke: Laut Borderstep Institute und AWS würde ein Wegfall der US-Hyperscaler eine Versorgungslücke von mindestens 40 Exabyte hinterlassen – vor allem bei datenintensiven Cloud- und KI-Anwendungen. Europäische Anbieter könnten diese Kapazitäten kurzfristig nicht bereitstellen. Hinzu kommt: Der Ausbau neuer Rechenzentren wird durch langwierige Genehmigungen, fehlende Energieinfrastruktur und Flächenengpässe massiv behindert. Fehlende Cloud-Dienste Noch gravierender wäre bei einem Zollstreit um digitale Services der Ausfall spezialisierter Dienste: Rund 80 bis 90 Prozent der KI-Recheninfrastruktur in Deutschland – insbesondere GPU-Cluster für Machine Learning – entfallen auf US-Hyperscaler wie AWS, Microsoft Azure und Google Cloud. Europa verfügt laut Geopolitique.eu lediglich über vier Prozent der globalen KI-Kapazitäten. 70 Prozent liegen dagegen in den USA – davon 80 Prozent in den Händen amerikanischer Hyperscaler. Auch die meisten KI-Anwendungen deutscher Unternehmen basieren auf US-Diensten. Noch deutlicher ist die Abhängigkeit im High-Performance-Computing: Zwei Drittel der HPC-Dienste für Industrie und Forschung in Deutschland laufen über Azure und AWS. Abhängige KRITIS Der schnelle RZ-Ausbau scheitert hierzulande auch an der Energieversorgung. Alexey Krav – shutterstock.com Energieversorgung, Gesundheitswesen, Finanzsektor, öffentliche Verwaltung und Industrie sind in hohem Maße auf US-Cloud-Infrastrukturen angewiesen – etwa für Smart Grids, digitale Gesundheitsanwendungen, Zahlungssysteme oder Verwaltungsdatenbanken. Laut dem Atlantic Council nutzen zentrale Sektoren wie Energie, Gesundheit und Finanzen cloudbasierte Systeme zur Steuerung kritischer Prozesse. Im Energiesektor etwa basieren Smart Grids auf cloudgestützten Plattformen für Netzüberwachung und Lastmanagement. Der Ausfall solcher Dienste hätte unmittelbare Folgen: Laut CyberTheory drohen binnen Stunden massive Störungen – etwa durch den Ausfall cloudbasierter Zahlungssysteme wie TARGET2 im Finanzbereich oder die Instabilität intelligenter Stromnetze. Die Erfahrung eines globalen IT-Ausfalls 2024 zeigt: Bereits temporäre Unterbrechungen führen zu Produktionsstopps, Flugausfällen und geschlossenen Supermärkten. Auch die öffentliche Verwaltung wäre betroffen: Trotz Projekten wie der Deutschen Verwaltungscloud liegen viele Daten weiter in Public Clouds. Digitale Katasterämter oder Steuerdatenbanken laufen oft auf US-Infrastruktur – der Exit ist technisch und organisatorisch komplex. Was tun? Theoretische Kapazitätslücken sind laut von der Heydt das eine – die Frage, wie schnell und unter welchen Bedingungen sie realistisch geschlossen werden könnten, sei dagegen weit komplexer. Der Neubau eines hochverfügbaren Rechenzentrums dauert in Deutschland, so rechnet der Geschäftsführer vor, im Schnitt 18 bis 24 Monate – vom Grundstückskauf über Genehmigungen bis zur Inbetriebnahme. Im Notfall ließen sich modulare Containerlösungen innerhalb von sechs bis neun Monaten errichten. Diese eigneten sich jedoch eher für kleinere Edge-Lösungen. Fehlende Ressourcen Doch auch an anderer Stelle mangelt es in Deutschland. So fehlen aktuell rund 149.000 IT-Fachkräfte – bis 2040 dürfte diese Lücke auf über 660.000 anwachsen, wenn nicht gegengesteuert wird. Der Aufbau neuer RZ-Kapazitäten scheitert zudem laut von der Heydt oft an der Verfügbarkeit von Transformatoren, Notstrom-Anlagen und Spezialkühlung – viele dieser Komponenten unterliegen internationalen Lieferketten mit mehrmonatigen Vorlaufzeiten. Milliarden Investitionsbedarf Die Errichtung zusätzlicher 1.200 MW IT-Kapazität würde – je nach Standort, baulicher Ausführung und technischer Ausstattung – Investitionen zwischen 14,4 und 24 Milliarden Euro erfordern. Colocation-Rechenzentren liegen aktuell bei durchschnittlich 12 Millionen Euro pro Megawatt. Hochspezialisierte Hyperscale-Zentren mit AI-Fokus können bis zu 20 Millionen Euro pro Megawatt kosten. Politik gefordert Angesichts dieser Herausforderungen sieht von der Heydt die Politik gefordert: Sie müsse die digitale Souveränität zur Priorität machen. Dazu gehört für ihn eine rechtliche Einstufung von Rechenzentren als kritische Infrastruktur ebenso wie ein beschleunigter Regulierungsrahmen für Planung und Bau. Stufenplan entwerfen Ferne sei digitale Souveränität kein binärer Zustand, sondern ein strategisches Ziel mit Zwischenschritten. Kurzfristig gelte es, kritische Abhängigkeiten transparent zu machen und durch Multi-Cloud-Strategien, Notfallpläne und gezielte Migration zu entschärfen. Mittelfristig müssen für von der Heydt Rechenzentrums- und Cloud-Kapazitäten europaweit verdichtet und gezielt gefördert werden – etwa durch beschleunigte Genehmigungen, strategische Netzausbauprojekte und eine engere Verzahnung von Industrie, Staat und Energieversorgern. Langfristig brauche Europa eine eigene, skalierbare Daten- und KI-Infrastruktur – technologisch souverän, regulatorisch abgesichert, geopolitisch resilient. Resilienz ist kein Luxus An die Unternehmen appelliert der Geschäftsführer, auch mit dem Ausfall der digitalen Systeme zu kalkulieren. Zudem sollten sie ihre Abhängigkeiten von US-Anbietern offenlegen, bewerten und gezielt reduzieren. Lösungen hierzu könnten etwa Multi-Cloud-Strategien, die Migration kritischer Systeme zu europäischen Providern und Notfallpläne für Rechenzentrums- und Cloud-Ausfälle sein. Unter dem Strich müsse die IT-Diversifikation in Entwicklung, Hosting und Beschaffung nicht nur als Sicherheitsfaktor, sondern auch als strategischer Wettbewerbsvorteil begriffen werden. 

Digitale Souveränität: Geht es auch ohne AWS und Co.?​ Sollte die EU mit Gegenzöllen auf digitale Services reagieren, wird es für deutsche Unternehmen teuer. Zu groß ist die Abhängigkeit von den US-Hyperscalern.
GAlexS – shutterstock.com

Was passiert, wenn die US-Cloud-Dienste morgen wegfallen? Weil etwa die EU auf die US-Strafzölle mit Gegenzöllen auf digitale Dienstleistungen reagiert. Cloud-Dienste wie AWS, Microsoft Azure oder Google Cloud könnten drastisch teurer oder regulatorisch eingeschränkt werden.

Diese Frage hat sich Tobias von der Heydt, Geschäftsführer von Prior1, einem auf die Planung und den Bau von Serverräumen und Rechenzentren spezialisierten Unternehmen, gestellt. Und er kommt zu einem vernichtenden Ergebnis: Der plötzliche Verlust oder die Verteuerung zentraler Cloud-Infrastrukturen würde Deutschland ins Mark treffen.

So digital verwundbar ist Deutschland

Tobias von der Heydt, Geschäftsführer von Prior1, geht der Frage nach, wie es um Deutschlands digitale Souveränität bestellt ist.
Prior 1

Was das für Deutschland konkret bedeutet, veranschaulicht der Geschäftsführer an zwei Zahlenbeispielen: Es müssten 1.200 MW zusätzliche RZ-Leistung gebaut werden und es würden 40 Exabyte Speicher fehlen. Um diese Lücken zu schließen, wären Milliarden-Investitionen erforderlich. Von der erforderlichen Zeit im überbürokratisierten Deutschland – in dem Genehmigungszeiten von fünf Jahren schon als schnell gelten – noch gar nicht geredet.

Doch auf dem Weg zur digitalen Souveränität hakt es in Deutschland noch an mehr Ecken, wie von der Heydt analysiert hat. So ist Frankfurt mit über 1.050 MW installierter IT-Leistung zwar Europas führender Rechenzentrumsstandort und blickt auf  eine Wachstumspipeline von bis zu 1,3 GW. Doch das Wachstum stößt an Grenzen: 82 Prozent der Netzanschlusskapazitäten sind bereits ausgelastet, neue Projekte benötigen Direktanschlüsse ans Übertragungsnetz. Dabei dauern Stromanschlüsse in Frankfurt laut McKinsey oft drei bis fünf Jahre – ein erheblicher Wachstumsengpass.

Die US-Dominanz

Fast 72 Prozent der europäischen Cloud-Kapazitäten stellen die US-Hyperscaler bereit.
Caureem – shutterstock.com

Die US-Anbieter kontrollieren 65 bis 72 Prozent der europäischen Cloud-Kapazitäten. Zudem stellen sie 85 Prozent der GPU-Kapazitäten für KI-Anwendungen bereit. Damit sind sie ein zentraler Faktor für datengetriebene Dienste. Die Hyperscaler AWS, Microsoft und Google betreiben allein in Deutschland mehr Infrastruktur als alle europäischen Anbieter zusammen.

Deutschlands RZ-Landschaft

In Deutschland sind rund 2.000 Rechenzentren mit mindestens 50 kW IT-Leistung aktiv. Die größten Cluster befinden sich in Frankfurt, Berlin, München, dem Rheinland und Hamburg. Außerhalb dieser Hotspots fehlt es häufig an der Energieinfrastruktur, was den Ausbau neuer Standorte verzögert.

Das fehlt zur digitalen Autarkie

Ohne die US-Clouds müsste Deutschland kurzfristig rund 1.200 Megawatt zusätzliche IT-Anschlussleistung kompensieren. Das entspricht rund 40 Prozent der aktuellen Gesamtkapazität von 2.700 Megawatt, die vor allem in Frankfurt, Berlin und dem Rheinland konzentriert ist.

Um digital autark zu werden, müsste Deutschland 1.200 MW an Rechenleistung neu bauen.
Lukasz Pawel Szczepanski – shutterstock.com

Auch beim Speicherbedarf klafft eine enorme Lücke: Laut Borderstep Institute und AWS würde ein Wegfall der US-Hyperscaler eine Versorgungslücke von mindestens 40 Exabyte hinterlassen – vor allem bei datenintensiven Cloud- und KI-Anwendungen. Europäische Anbieter könnten diese Kapazitäten kurzfristig nicht bereitstellen. Hinzu kommt: Der Ausbau neuer Rechenzentren wird durch langwierige Genehmigungen, fehlende Energieinfrastruktur und Flächenengpässe massiv behindert.

Fehlende Cloud-Dienste

Noch gravierender wäre bei einem Zollstreit um digitale Services der Ausfall spezialisierter Dienste: Rund 80 bis 90 Prozent der KI-Recheninfrastruktur in Deutschland – insbesondere GPU-Cluster für Machine Learning – entfallen auf US-Hyperscaler wie AWS, Microsoft Azure und Google Cloud. Europa verfügt laut Geopolitique.eu lediglich über vier Prozent der globalen KI-Kapazitäten.

70 Prozent liegen dagegen in den USA – davon 80 Prozent in den Händen amerikanischer Hyperscaler. Auch die meisten KI-Anwendungen deutscher Unternehmen basieren auf US-Diensten. Noch deutlicher ist die Abhängigkeit im High-Performance-Computing: Zwei Drittel der HPC-Dienste für Industrie und Forschung in Deutschland laufen über Azure und AWS.

Abhängige KRITIS

Der schnelle RZ-Ausbau scheitert hierzulande auch an der Energieversorgung.
Alexey Krav – shutterstock.com

Energieversorgung, Gesundheitswesen, Finanzsektor, öffentliche Verwaltung und Industrie sind in hohem Maße auf US-Cloud-Infrastrukturen angewiesen – etwa für Smart Grids, digitale Gesundheitsanwendungen, Zahlungssysteme oder Verwaltungsdatenbanken. Laut dem Atlantic Council nutzen zentrale Sektoren wie Energie, Gesundheit und Finanzen cloudbasierte Systeme zur Steuerung kritischer Prozesse. Im Energiesektor etwa basieren Smart Grids auf cloudgestützten Plattformen für Netzüberwachung und Lastmanagement.

Der Ausfall solcher Dienste hätte unmittelbare Folgen: Laut CyberTheory drohen binnen Stunden massive Störungen – etwa durch den Ausfall cloudbasierter Zahlungssysteme wie TARGET2 im Finanzbereich oder die Instabilität intelligenter Stromnetze. Die Erfahrung eines globalen IT-Ausfalls 2024 zeigt: Bereits temporäre Unterbrechungen führen zu Produktionsstopps, Flugausfällen und geschlossenen Supermärkten.

Auch die öffentliche Verwaltung wäre betroffen: Trotz Projekten wie der Deutschen Verwaltungscloud liegen viele Daten weiter in Public Clouds. Digitale Katasterämter oder Steuerdatenbanken laufen oft auf US-Infrastruktur – der Exit ist technisch und organisatorisch komplex.

Was tun?

Theoretische Kapazitätslücken sind laut von der Heydt das eine – die Frage, wie schnell und unter welchen Bedingungen sie realistisch geschlossen werden könnten, sei dagegen weit komplexer. Der Neubau eines hochverfügbaren Rechenzentrums dauert in Deutschland, so rechnet der Geschäftsführer vor, im Schnitt 18 bis 24 Monate – vom Grundstückskauf über Genehmigungen bis zur Inbetriebnahme.

Im Notfall ließen sich modulare Containerlösungen innerhalb von sechs bis neun Monaten errichten. Diese eigneten sich jedoch eher für kleinere Edge-Lösungen.

Fehlende Ressourcen

Doch auch an anderer Stelle mangelt es in Deutschland. So fehlen aktuell rund 149.000 IT-Fachkräfte – bis 2040 dürfte diese Lücke auf über 660.000 anwachsen, wenn nicht gegengesteuert wird.

Der Aufbau neuer RZ-Kapazitäten scheitert zudem laut von der Heydt oft an der Verfügbarkeit von Transformatoren, Notstrom-Anlagen und Spezialkühlung – viele dieser Komponenten unterliegen internationalen Lieferketten mit mehrmonatigen Vorlaufzeiten.

Milliarden Investitionsbedarf

Die Errichtung zusätzlicher 1.200 MW IT-Kapazität würde – je nach Standort, baulicher Ausführung und technischer Ausstattung – Investitionen zwischen 14,4 und 24 Milliarden Euro erfordern. Colocation-Rechenzentren liegen aktuell bei durchschnittlich 12 Millionen Euro pro Megawatt. Hochspezialisierte Hyperscale-Zentren mit AI-Fokus können bis zu 20 Millionen Euro pro Megawatt kosten.

Politik gefordert

Angesichts dieser Herausforderungen sieht von der Heydt die Politik gefordert: Sie müsse die digitale Souveränität zur Priorität machen. Dazu gehört für ihn eine rechtliche Einstufung von Rechenzentren als kritische Infrastruktur ebenso wie ein beschleunigter Regulierungsrahmen für Planung und Bau.

Stufenplan entwerfen

Ferne sei digitale Souveränität kein binärer Zustand, sondern ein strategisches Ziel mit Zwischenschritten. Kurzfristig gelte es, kritische Abhängigkeiten transparent zu machen und durch Multi-Cloud-Strategien, Notfallpläne und gezielte Migration zu entschärfen. Mittelfristig müssen für von der Heydt Rechenzentrums- und Cloud-Kapazitäten europaweit verdichtet und gezielt gefördert werden – etwa durch beschleunigte Genehmigungen, strategische Netzausbauprojekte und eine engere Verzahnung von Industrie, Staat und Energieversorgern. Langfristig brauche Europa eine eigene, skalierbare Daten- und KI-Infrastruktur – technologisch souverän, regulatorisch abgesichert, geopolitisch resilient.

Resilienz ist kein Luxus

An die Unternehmen appelliert der Geschäftsführer, auch mit dem Ausfall der digitalen Systeme zu kalkulieren. Zudem sollten sie ihre Abhängigkeiten von US-Anbietern offenlegen, bewerten und gezielt reduzieren. Lösungen hierzu könnten etwa Multi-Cloud-Strategien, die Migration kritischer Systeme zu europäischen Providern und Notfallpläne für Rechenzentrums- und Cloud-Ausfälle sein. Unter dem Strich müsse die IT-Diversifikation in Entwicklung, Hosting und Beschaffung nicht nur als Sicherheitsfaktor, sondern auch als strategischer Wettbewerbsvorteil begriffen werden.

Digitale Souveränität: Geht es auch ohne AWS und Co.?​ Weiterlesen »

4 KI-Chat-Tools im Vergleichstest​

Allgemein

NotebookLM vs. ChatGPT vs. Claude vs. Perplexity – wer ist Chatbot-König?Vnwhy | shutterstock.com Informationen zu finden und zusammenzufassen ist zugegebenermaßen nicht der reizvollste Generative-AI (GenAI)-Task – in bestimmten Situationen aber höchst praktisch und nützlich. Etwa, wenn Sie einen bestimmten Social-Media-Post wiederfinden oder die Antwort auf eine einfache Frage bekommen wollen – ohne sich dazu vorher durch Endlos-Feeds zu scrollen, beziehungsweise ein Softwarehandbuch durchzuackern.   Um große Sprachmodelle (LLMs) mit Daten zu füttern und sie anschließend zu diesen zu befragen, gibt es diverse Möglichkeiten. Die simpelste, weil Coding-freie: einen Web-basierten Service wie NotebookLM, ChatGPT Projects, Claude Projects oder Perplexity Spaces zu nutzen. Diesen vier GenAI-Diensten haben wir im Rahmen eines Vergleichstests vier verschiedene Beispielaufgaben gestellt. Dabei ging es darum: Informationen aus einer Softwaredokumentation zu extrahieren, nach Beiträgen auf LinkedIn zu suchen, eine Variablen-ID für ein bestimmtes Thema zu ermitteln, und Daten zu IT-Fachkonferenzen abzurufen. Die getesteten KI-Chatplattformen Bevor wir auf die konkreten Testergebnisse eingehen – und darauf, welches Tool am besten abgeschnitten hat – die getesteten Generative-AI-Dienste inklusive ihrer wichtigsten Eigenschaften im Überblick: 1. NotebookLM Der Google-Service NotebookLM: steht kostenlos zur Verfügung. erfordert keine speziellen Prompts, um hochgeladene Informationen gezielt zu durchsuchen. liefert standardmäßig Antworten mit Angaben zu den Quellen, aus denen sie generiert wurden. akzeptiert URLs als Quellen. verspricht, Chats und Daten nicht dazu zu nutzen, seine Modelle zu trainieren. 2. ChatGPT Projects Der OpenAI-Service ChatGPT Projects: steht ausschließlich Benutzern mit Abonnement zur Verfügung. sammelt Chats, Dateien und benutzerdefinierte Instruktionen an einem zentralen Ort. braucht spezifische Anweisungen, um Quellenangaben zu Antworten zu liefern. liefert dafür aber übersichtliche Ergebnisse mit ansprechender Formatierung.  lässt sich entsprechend konfigurieren, um zu verhindern, dass eingegebene Daten genutzt werden, um KI-Modelle zu trainieren. 3. Claude Projects Anthropics Chat-Service auf Claude-Basis: ist ausschließlich für Nutzer mit Abo verfügbar. setzt im Vergleich zur Konkurrenz engere Grenzen für Kontextfenster.   kann mit GitHub-Konten integriert werden. akzeptiert ausschließlich GitHub und Google Docs als Onlinequellen. nutzt Chats und Daten standardmäßig nicht zum KI-Modelltraining. 4. Perplexity Spaces Der KI-Chat-Service von Perplexity: steht auch kostenlos zur Verfügung. akzeptiert nicht nur URLs, sondern auch Domains als Quellen. eignet sich besonders gut für Websuchen. erfordert ein zahlungspflichtiges Abo, um eigene Daten hochzuladen. kann so konfiguriert werden, dass hochgeladene Daten nicht zum Modelltraining genutzt werden. Der Chatbot-Test – Tasks & Ergebnisse Bevor wir die Resultate im Einzelnen erörtern, hier die gestellten Aufgaben und Testergebnisse im Überblick: AufgabeNotebookLMChatGPT ProjectsClaude ProjectsPerplexity SpacesEinfache Dokumentensuche1110,5Social-Media-Suche10,510Variablen-ID bestimmen1101Konferenz finden0,510,51Konferenz-Sessions finden110,50Gesamtergebnis4,54,532,5 1 = korrekte Anwort; 0,5 = teilweise korrekt; 0 = nicht korrekt oder keine Antwort; 1. Einfache Dokumentensuche Frage: „Wie kann man am einfachsten überflüssige Leerzeichen in einem Text entfernen?“ Informationsquelle: Die Dokumentation des stringr-Packages für die Programmiersprache R. Dieses enthält eine praktische str_squish()-Funktion, um überflüssige Leerzeichen zu löschen. Ergebnisse: Claude, NotebookLM und ChatGPT lieferten mit str_squish() die korrekte Antwort. Perplexity ging hingegen davon aus, dass lediglich Leerzeichen am Anfang und am Ende des Textes interessant sind. Erst nach einer Anschlussfrage kam auch dieser Service auf die korrekte Antwort. 2. Social-Media-Suche Frage: „Mir hat ein Computerworld-Artikel zum Thema LLMs vom Autor Lucas Mearian sehr gut gefallen. Liefere mir die Einzelheiten zu diesem Artikel auf Grundlage meiner LinkedIn-Beiträge der letzten zwei Jahre.” Informationsquelle: LinkedIn-Posts über den Zeitraum von zwei Jahren. Ergebnisse: NotebookLM und Claude haben mit ihren Antworten ins Schwarze getroffen und jeweils zwei Posts angeboten, von denen einer der gesuchte war. ChatGPT lieferte hingegen einen thematisch verwandten Artikel, aber nicht den gesuchten. Perplexity konnte keinen Artikel liefern und behauptete, dass kein entsprechender Beitrag im Rahmen von LinkedIn-Posts erwähnt wurde.  3. Variablen-ID bestimmen Frage: „Welche Variable eignet sich am besten, um Informationen über den Prozentsatz der Arbeitnehmer zu finden, die von zu Hause aus arbeiten?“ Informationsquelle: Viele (US-)Unternehmen nutzen die American Community Survey (ACS) des Census Bureau, um an demografische Daten zu kommen. Dabei diejenigen Datenvariablen zu bestimmen, die die gewünschten Informationen enthalten, kann diffizil ausfallen. Deshalb haben wir mehrere Listen von ACS-Tabellenvariablen-IDs heruntergeladen und gefiltert (weil einige Listen zu umfangreich waren). Diese haben wir mit einer allgemeinen Erklärung der ACS-Tabellen von der Website des Census Bureau kombiniert. Da nicht alle getesteten Plattformen .csv-Dateien in Projekten akzeptieren, haben wir die Daten als tabulatorgetrennte .txt-Dateien gespeichert. Ergebnisse: Kyle Walker, Autor des tidycensus R-Pakets, hat in einem seiner Beispiele die Variable „DP03_0024P“ verwendet. Das wäre entsprechend die korrekte Antwort gewesen. NotebookLM, ChatGPT und Perplexity lieferten hier verwertbare Ergebnisse (ChatGPT und Perplexity fanden beide sogar noch zusätzliche Variablen, die die Vorgaben erfüllt haben). Claude konnte bei dieser Aufgabe hingegen nicht mithalten, da die .txt-Dateien das „Project Knowledge“-Limit überschritten.   4.  Konferenz(-Sessions) finden Frage 1: „Suche nach Events, bei denen es um das Thema künstliche Intelligenz geht. Der Zielort sollte von Boston aus innerhalb von zwei Stunden per Flugzeug zu erreichen sein.“ Informationsquelle: Der Global Events Calendar (PDF) von IDG. Ergebnisse: Die vollständige und korrekte Antwort beinhaltet zwei „FutureIT“-Veranstaltungen in New York und Toronto. Eine mögliche dritte Option wäre ein Event in Nashville gewesen, dessen Flugzeit die Vorgabe nur leicht übersteigt. ChatGPT konnte bei diesem Task sowohl mit seinem o3-mini-High-, als auch mit dem 4o-Modell punkten und die ersten beiden Events als Ergebnis liefern. Auch Perplexity gab diese beiden Events zurück und schlug einen zusätzlichen vor – inklusive Hinweis, dass es mit der anvisierten Flugzeit von zwei Stunden in diesem Fall nicht klappt. NotebookLM lieferte zwar die eingangs genannte, dritte Option in Nashville und den Event in New York als Ergebnis – ließ jedoch die Veranstaltung in Toronto außen vor. Claude lieferte mit seinem älteren Modell Sonnet 3.5 ebenfalls die beiden erwarteten Veranstaltungen als Ergebnis – und schlug noch einige andere außerhalb der definierten Entfernung vor (allerdings nicht die in Nashville). Mit Sonnet 3.7 und der Option „Extended Reasoning“ lieferte der Anthropic-Service schließlich bessere Resultate in Form der Events in New York und Toronto. Frage 2: „Identifiziere sämtliche Sessions auf der NICAR-Konferenz, die sich an Personen richten, die bereits Erfahrung mit Tabellenkalkulationen haben, aber ihre Fähigkeiten verbessern möchten.“ Datenquelle: Eine Textdatei mit der vollständigen Agenda der NICA-Konferenz für Datenjournalismus. Ergebnisse: NotebookLM lieferte bei dieser Aufgabe mehr als ein Dutzend interessanter Vorschläge zu Google Sheets, Excel und Airtable, die (bis auf eine Ausnahme) relevant waren. Auch ChatGPT konnte überzeugen und hat mehr als 12 interessante Sessions zum Thema vorgeschlagen – nach Datum und Uhrzeit sortiert und ansprechend formatiert. Claude konnte zwar nicht mithalten, was die Zahl der Vorschläge angeht – dafür waren alle Ergebnisse relevant. Perplexity enttäuschte hingegen mit lediglich drei Vorschlägen. Das Testfazit zum GenAI-Vergleich Cloud-basierte Generative-AI-Dienste können hilfreich sein, um Fragen über Daten zu beantworten und manchmal auch, um neue Insights aufzutun. Nach unserem Vergleichstest fällt unser Fazit wie folgt aus: Wenn Sie eine Plattform suchen, die möglichst simpel und kostenlos ist, empfiehlt sich Googles NotebookLM – insbesondere wegen dem Feature, die herangezogenen Quellen direkt überprüfen zu können. Fall Sie bereits ein ChatGPT-Abonnement abgeschlossen haben, ist Projects zumindest wert, getestet zu werden. Claude Projects ist eine gute Option, wenn Sie nicht über große Datenmengen pro Projekt verfügen, Fragen zu Daten in einem GitHub-Projekt – und bereits ein Abonnement – haben. Perplexity Spaces konnte uns zwar im Test nicht nachhaltig überzeugen, allerdings ist fairerweise auch zuzugeben, dass die Stärke dieses LLM-Service vor allem darin liegt, Fragen auf Web-Basis, beziehungsweise online abrufbaren Informationen zu beantworten.   (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

4 KI-Chat-Tools im Vergleichstest​ NotebookLM vs. ChatGPT vs. Claude vs. Perplexity – wer ist Chatbot-König?Vnwhy | shutterstock.com

Informationen zu finden und zusammenzufassen ist zugegebenermaßen nicht der reizvollste Generative-AI (GenAI)-Task – in bestimmten Situationen aber höchst praktisch und nützlich. Etwa, wenn Sie einen bestimmten Social-Media-Post wiederfinden oder die Antwort auf eine einfache Frage bekommen wollen – ohne sich dazu vorher durch Endlos-Feeds zu scrollen, beziehungsweise ein Softwarehandbuch durchzuackern.  

Um große Sprachmodelle (LLMs) mit Daten zu füttern und sie anschließend zu diesen zu befragen, gibt es diverse Möglichkeiten. Die simpelste, weil Coding-freie: einen Web-basierten Service wie NotebookLM, ChatGPT Projects, Claude Projects oder Perplexity Spaces zu nutzen. Diesen vier GenAI-Diensten haben wir im Rahmen eines Vergleichstests vier verschiedene Beispielaufgaben gestellt. Dabei ging es darum:

Informationen aus einer Softwaredokumentation zu extrahieren,

nach Beiträgen auf LinkedIn zu suchen,

eine Variablen-ID für ein bestimmtes Thema zu ermitteln, und

Daten zu IT-Fachkonferenzen abzurufen.

Die getesteten KI-Chatplattformen

Bevor wir auf die konkreten Testergebnisse eingehen – und darauf, welches Tool am besten abgeschnitten hat – die getesteten Generative-AI-Dienste inklusive ihrer wichtigsten Eigenschaften im Überblick:

1. NotebookLM

Der Google-Service NotebookLM:

steht kostenlos zur Verfügung.

erfordert keine speziellen Prompts, um hochgeladene Informationen gezielt zu durchsuchen.

liefert standardmäßig Antworten mit Angaben zu den Quellen, aus denen sie generiert wurden.

akzeptiert URLs als Quellen.

verspricht, Chats und Daten nicht dazu zu nutzen, seine Modelle zu trainieren.

2. ChatGPT Projects

Der OpenAI-Service ChatGPT Projects:

steht ausschließlich Benutzern mit Abonnement zur Verfügung.

sammelt Chats, Dateien und benutzerdefinierte Instruktionen an einem zentralen Ort.

braucht spezifische Anweisungen, um Quellenangaben zu Antworten zu liefern.

liefert dafür aber übersichtliche Ergebnisse mit ansprechender Formatierung. 

lässt sich entsprechend konfigurieren, um zu verhindern, dass eingegebene Daten genutzt werden, um KI-Modelle zu trainieren.

3. Claude Projects

Anthropics Chat-Service auf Claude-Basis:

ist ausschließlich für Nutzer mit Abo verfügbar.

setzt im Vergleich zur Konkurrenz engere Grenzen für Kontextfenster.  

kann mit GitHub-Konten integriert werden.

akzeptiert ausschließlich GitHub und Google Docs als Onlinequellen.

nutzt Chats und Daten standardmäßig nicht zum KI-Modelltraining.

4. Perplexity Spaces

Der KI-Chat-Service von Perplexity:

steht auch kostenlos zur Verfügung.

akzeptiert nicht nur URLs, sondern auch Domains als Quellen.

eignet sich besonders gut für Websuchen.

erfordert ein zahlungspflichtiges Abo, um eigene Daten hochzuladen.

kann so konfiguriert werden, dass hochgeladene Daten nicht zum Modelltraining genutzt werden.

Der Chatbot-Test – Tasks & Ergebnisse

Bevor wir die Resultate im Einzelnen erörtern, hier die gestellten Aufgaben und Testergebnisse im Überblick:

AufgabeNotebookLMChatGPT ProjectsClaude ProjectsPerplexity SpacesEinfache Dokumentensuche1110,5Social-Media-Suche10,510Variablen-ID bestimmen1101Konferenz finden0,510,51Konferenz-Sessions finden110,50Gesamtergebnis4,54,532,5 1 = korrekte Anwort; 0,5 = teilweise korrekt; 0 = nicht korrekt oder keine Antwort;

1. Einfache Dokumentensuche

Frage: „Wie kann man am einfachsten überflüssige Leerzeichen in einem Text entfernen?“

Informationsquelle: Die Dokumentation des stringr-Packages für die Programmiersprache R. Dieses enthält eine praktische str_squish()-Funktion, um überflüssige Leerzeichen zu löschen.

Ergebnisse: Claude, NotebookLM und ChatGPT lieferten mit str_squish() die korrekte Antwort. Perplexity ging hingegen davon aus, dass lediglich Leerzeichen am Anfang und am Ende des Textes interessant sind. Erst nach einer Anschlussfrage kam auch dieser Service auf die korrekte Antwort.

2. Social-Media-Suche

Frage: „Mir hat ein Computerworld-Artikel zum Thema LLMs vom Autor Lucas Mearian sehr gut gefallen. Liefere mir die Einzelheiten zu diesem Artikel auf Grundlage meiner LinkedIn-Beiträge der letzten zwei Jahre.”

Informationsquelle: LinkedIn-Posts über den Zeitraum von zwei Jahren.

Ergebnisse: NotebookLM und Claude haben mit ihren Antworten ins Schwarze getroffen und jeweils zwei Posts angeboten, von denen einer der gesuchte war. ChatGPT lieferte hingegen einen thematisch verwandten Artikel, aber nicht den gesuchten. Perplexity konnte keinen Artikel liefern und behauptete, dass kein entsprechender Beitrag im Rahmen von LinkedIn-Posts erwähnt wurde. 

3. Variablen-ID bestimmen

Frage: „Welche Variable eignet sich am besten, um Informationen über den Prozentsatz der Arbeitnehmer zu finden, die von zu Hause aus arbeiten?“

Informationsquelle: Viele (US-)Unternehmen nutzen die American Community Survey (ACS) des Census Bureau, um an demografische Daten zu kommen. Dabei diejenigen Datenvariablen zu bestimmen, die die gewünschten Informationen enthalten, kann diffizil ausfallen. Deshalb haben wir mehrere Listen von ACS-Tabellenvariablen-IDs heruntergeladen und gefiltert (weil einige Listen zu umfangreich waren). Diese haben wir mit einer allgemeinen Erklärung der ACS-Tabellen von der Website des Census Bureau kombiniert. Da nicht alle getesteten Plattformen .csv-Dateien in Projekten akzeptieren, haben wir die Daten als tabulatorgetrennte .txt-Dateien gespeichert.

Ergebnisse: Kyle Walker, Autor des tidycensus R-Pakets, hat in einem seiner Beispiele die Variable „DP03_0024P“ verwendet. Das wäre entsprechend die korrekte Antwort gewesen. NotebookLM, ChatGPT und Perplexity lieferten hier verwertbare Ergebnisse (ChatGPT und Perplexity fanden beide sogar noch zusätzliche Variablen, die die Vorgaben erfüllt haben). Claude konnte bei dieser Aufgabe hingegen nicht mithalten, da die .txt-Dateien das „Project Knowledge“-Limit überschritten.  

4.  Konferenz(-Sessions) finden

Frage 1: „Suche nach Events, bei denen es um das Thema künstliche Intelligenz geht. Der Zielort sollte von Boston aus innerhalb von zwei Stunden per Flugzeug zu erreichen sein.“

Informationsquelle: Der Global Events Calendar (PDF) von IDG.

Ergebnisse: Die vollständige und korrekte Antwort beinhaltet zwei „FutureIT“-Veranstaltungen in New York und Toronto. Eine mögliche dritte Option wäre ein Event in Nashville gewesen, dessen Flugzeit die Vorgabe nur leicht übersteigt. ChatGPT konnte bei diesem Task sowohl mit seinem o3-mini-High-, als auch mit dem 4o-Modell punkten und die ersten beiden Events als Ergebnis liefern. Auch Perplexity gab diese beiden Events zurück und schlug einen zusätzlichen vor – inklusive Hinweis, dass es mit der anvisierten Flugzeit von zwei Stunden in diesem Fall nicht klappt. NotebookLM lieferte zwar die eingangs genannte, dritte Option in Nashville und den Event in New York als Ergebnis – ließ jedoch die Veranstaltung in Toronto außen vor. Claude lieferte mit seinem älteren Modell Sonnet 3.5 ebenfalls die beiden erwarteten Veranstaltungen als Ergebnis – und schlug noch einige andere außerhalb der definierten Entfernung vor (allerdings nicht die in Nashville). Mit Sonnet 3.7 und der Option „Extended Reasoning“ lieferte der Anthropic-Service schließlich bessere Resultate in Form der Events in New York und Toronto.

Frage 2: „Identifiziere sämtliche Sessions auf der NICAR-Konferenz, die sich an Personen richten, die bereits Erfahrung mit Tabellenkalkulationen haben, aber ihre Fähigkeiten verbessern möchten.“

Datenquelle: Eine Textdatei mit der vollständigen Agenda der NICA-Konferenz für Datenjournalismus.

Ergebnisse: NotebookLM lieferte bei dieser Aufgabe mehr als ein Dutzend interessanter Vorschläge zu Google Sheets, Excel und Airtable, die (bis auf eine Ausnahme) relevant waren. Auch ChatGPT konnte überzeugen und hat mehr als 12 interessante Sessions zum Thema vorgeschlagen – nach Datum und Uhrzeit sortiert und ansprechend formatiert. Claude konnte zwar nicht mithalten, was die Zahl der Vorschläge angeht – dafür waren alle Ergebnisse relevant. Perplexity enttäuschte hingegen mit lediglich drei Vorschlägen.

Das Testfazit zum GenAI-Vergleich

Cloud-basierte Generative-AI-Dienste können hilfreich sein, um Fragen über Daten zu beantworten und manchmal auch, um neue Insights aufzutun. Nach unserem Vergleichstest fällt unser Fazit wie folgt aus:

Wenn Sie eine Plattform suchen, die möglichst simpel und kostenlos ist, empfiehlt sich Googles NotebookLM – insbesondere wegen dem Feature, die herangezogenen Quellen direkt überprüfen zu können.

Fall Sie bereits ein ChatGPT-Abonnement abgeschlossen haben, ist Projects zumindest wert, getestet zu werden.

Claude Projects ist eine gute Option, wenn Sie nicht über große Datenmengen pro Projekt verfügen, Fragen zu Daten in einem GitHub-Projekt – und bereits ein Abonnement – haben.

Perplexity Spaces konnte uns zwar im Test nicht nachhaltig überzeugen, allerdings ist fairerweise auch zuzugeben, dass die Stärke dieses LLM-Service vor allem darin liegt, Fragen auf Web-Basis, beziehungsweise online abrufbaren Informationen zu beantworten.  

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

4 KI-Chat-Tools im Vergleichstest​ Weiterlesen »

Worst Practices: Wie IT-Erfolg ausbleibt​

Allgemein

Der Weg vom Best Practice zum Worst Nightmare ist oft nicht weit. Foto: Kaspar Grinvalds – shutterstock.comWenn ganze IT-Abteilungen auf den Abgrund zusteuern, kann das vielerlei Gründe haben – unter Umständen aber auch daran liegen, dass “Industry Best Practices” adaptiert wurden. Manche dieser Empfehlungen aus der Praxis sehen nämlich in einigen Fällen nur aus einem Kilometer Entfernung sinnvoll aus.Je näher man jedoch kommt, desto offensichtlicher wird, dass statt IT-Erfolg ein saftiger Fail winkt. Wir haben 13 Worst Practices für Sie zusammengetragen, die IT-Abteilungen unter allen Umständen vermeiden sollten.Kunde fällt ausWollen Sie einen Fail herausfordern? Dazu müssen Sie lediglich sicherstellen, dass sich jedes Mitglied Ihres IT-Teams gegenüber allen anderen Abteilungen als Dienstleister ausgibt, der versucht mit Sprüchen wie: “Ich betrachte dich als meinen Kunden.”; “Mein Job ist es, deine Erwartungen zu übertreffen”; oder noch schlimmer: “Ich möchte dich glücklich machen”;Eindruck zu schinden. Mitarbeiter anderer Abteilungen sind nämlich keine Kunden der IT, sondern deren Kollegen. Darum sollten sie sich auch auf Augenhöhe begegnen.Die Idee vom Internal Customer weist der IT eine unterwürfige Rolle zu. In der hat sie zu tun, was den “Kunden” glücklich macht – ganz egal, ob das nun Sinn ergibt oder auf Geschäftsziele einzahlt. Ganz davon zu schweigen, ob den als dienstbarer Dienstleister auftretenden IT-Spezialisten seine Rolle mit Glück erfüllt.SLA-ContractingWollen Sie mal ein bisschen Schaden anrichten? Dann ziehen Sie formale Service Level Agreements auf. Anschließend bestehen Sie darauf, dass alle Internal Customer diese unterzeichnen. Fertig. Denn ist der Vertrag erstmal besiegelt, muss er auch zu jeder Zeit voll und ganz erfüllt werden.Um die IT-Abteilung mit in den Abgrund zu reißen, empfiehlt es sich, Streitgespräche anzuregen. Im Idealfall darüber, ob die internen Kunden (schönes Wording, oder?) Recht damit haben, wenn Sie sich darüber beschweren, dass die IT nicht das tut was sie soll. Eine erquickende Art und Weise, Beziehungen sämtlicher Art auf maximaler Distanz zu halten. Gute Beziehungen – beruflicher wie privater Natur – sollten auf Vertrauen basieren. Das wird im beruflichen Umfeld allerdings nicht dadurch erzeugt, die Kollegen nicht als Kollegen zu betrachten: Oder arbeiten Sie gerne mit Leuten zusammen, die ihnen unsympathisch sind? Dazu wird es nämlich kommen, wenn die Service Level Agreements als festes Vertragswerk verstanden werden, die die zwischenmenschlichen Beziehungen definieren. Stellen Sie einfach einmal vor, welche Folgen fehlendes Vertrauen im Fall eines ernsten IT-Notfalls nach sich ziehen kann.DAU-ShamingDAU-Stories kennt (und liest) wohl jeder gern. Auch wir:Problematisch wird das Ganze, wenn die IT-Mannschaft solche Stories mit den Klarnamen der eigenen Kollegen verbreitet. Am besten Sie sorgen dafür, dass die Stories per E-Mail-Verteiler unter die Mitarbeiter gebracht werden. Schneller lassen Sie nicht erkennen, dass gegenseitiger Respekt in Ihrem Laden Mangelware ist.Budget-BattleEin hervorragender Weg, die Inanspruchnahme der IT auszubremsen: Streit ums Budget. Dazu richten Sie idealerweise innerhalb der IT weitere Unterkostenstellen ein. Beispielsweise für CPU-Zyklen, SAN- und NAS-Storage-Nutzung, die Anzahl der Entwicklungsstunden oder Anrufe beim Helpdesk (Tipp: In 10-Minuten-Schritten abrechnen).Schließlich existiert nichts, was die Collaboration mehr beflügeln würde als der Streit darüber, ob die Beträge auch akkurat in die richtigen Budgetbeutel geflossen sind.ROI-ZwangWenn Sie erreichen wollen, dass erfolgskritische Projekte nicht finanziert werden, sollten Sie mit Nachdruck darauf bestehen, dass der IT-Governance-Prozess einen klaren, greifbaren ROI aufweisen muss. Das führt geradewegs in die Obsoleszenz – während Technologien, die den Fachbereichen dabei helfen könnten, die Kundenzufriedenheit zu steigern, nur belächelt werden. Ebenso wie die, die sich für deren Einsatz stark gemacht haben.Nach mir die IT-Projekt-SintflutEine weitere Erfolgsformel für IT-Fehlschläge besteht darin, den Projektabschluss so zu definieren, dass die IT-Arbeit getan ist, wenn die Software den Anforderungen und Spezifikationen entspricht. Wenn sich dann das Management beschweren sollte, dass die Software nicht so funktioniert, wie sie soll, sind Sie in einer traumhaften Position und können Sätze wie “Wenn die Software die Specs erfüllt, funktioniert sie auch so, wie sie soll.” droppen. Sollte das nicht zur erwünschten Wirkung führen, können Sie immer noch ausweichen auf: “Dann waren wohl die Anforderungen nicht richtig gewählt.”. Der Fehler liegt jedenfalls nicht bei Ihnen, sondern ausschließlich bei denen, die die Spezifikationen abgesegnet haben.Wenn Sie allerdings Interesse am Erfolg von IT-Projekten haben, sollten Sie diese am angestrebten Geschäftszweck ausrichten (beispielsweise die Sales-Effektivität erhöhen) und nicht an der Software selbst.Projekt-SponsorenIn Projektmanagement-Kreisen gilt es als offenes Geheimnis, dass jedes Projekt einen Business Sponsor braucht, wenn es in Erfolg kulminieren soll. Wenn der Fail nur eine Frage der Zeit sein soll, bestimmen Sie einfach einen solchen Sponsor.Projektsponsoren – also echte Sponsoren, nicht solche, die nur so heißen – brennen dafür, dass ihre Projekte erfolgreich sind und sind auch bereit, dafür Risiken einzugehen. Ein Mensch, dem diese Rolle zugewiesen oder unter Umständen sogar aufgezwungen wird, dürfte diese Motivationslage sehr wahrscheinlich vermissen lassen.Head in the CloudsEine Cloud-Computing-Strategie kann ebenfalls den Pfad zu einem beachtlichen IT-Fail eröffnen. Zumindest wenn von der Strategie auf die Lösung geschlossen wird: Sie müssen ja in die Cloud, darum ist Sinn und Zweck der Strategie, dort hin zu kommen. Auf keinen Fall sollten Sie den Fehler begehen und über diesen Sachverhalt länger als nötig nachdenken. Verdrängen Sie einfach Dinge wie Architekturfragen oder Terms of Services. Das führt am Ende nur dazu, dass Sie irgendwann auf den Gedanken kommen, die Services wären das, was Sie brauchen und die Cloud nur der Weg zum Ziel.Soll das mit der Cloud-Strategie hingegen etwas werden, gilt die alte Regel: Form follows function. Und Services sind in diesem Fall die “functions”, die unter Umständen in cloudifizierter Form verwirklicht werden.Agiles OffshoringAgile Methoden haben viele Vorteile. Damit sie zum Erfolg führen, ist ein hohes Level an informeller User-Beteiligung unabdingbar, damit Kurskorrekturen zwar in hoher Frequenz möglich sind, aber klein ausfallen, die Entwickler jeden Tag Fortschritte sehen können und auch das User-Akzeptanz-Testing nicht zu kurz kommt. Offshoring bringt einen wesentlichen Benefit: geringere Kosten. Was allerdings nicht läuft, ist ein hohes Level an informeller User-Beteiligung.Wenn Sie nun zwölf verschiedene Zeitzonen mit Sprachbarrieren, kulturellen Unterschieden und Videokonferenzen als einzige Interaktionsmöglichkeit kombinieren, wird es mit dem Agile-Erfolg diffizil.Natürlich lässt sich auch Agiles Offshoring bewerkstelligen, aber das ist ein komplexes Unterfangen und keinesfalls für IT-Abteilungen geeignet, die im Agile Game noch neu sind. Ist das der Fall, sollten Sie sich zwischen Agile und Offshoring entscheiden. UnterbrechungspotenzierungNachhaltige IT-Fails lassen sich auch erzeugen, indem Sie darauf bestehen, dass jeder im Team Multitasking betreibt. Schließlich ist die Fähigkeit, mehrere Dinge gleichzeitig zu tun, äußerst erstrebenswert.In der Realität ist ausuferndes Multitasking lediglich der Produktivität und Qualität abträglich und erhöht das Stresslevel ungemein. Wann immer Sie die Versuchung verspüren, ein Mitglied Ihres Teams darum zu bitten, sich mit etwas anderem zu beschäftigen, sollten Sie daran denken, dass Menschen nicht wirklich Multitasking-fähig sind. Das Beste was sie tun können, ist von einem Task zum nächsten zu wechseln. Jedes Mal wenn Sie das tun, geht dabei Zeit verloren, um sich mental neu auszurichten. Je mehr Konzentration eine Aufgabe erfordert, desto mehr Zeit kostet das “Switchen” zwischen den Tasks.ProjektitisWenn Sie sich zum Ziel gesetzt haben, dass alle IT-Projekte substanziell mehr Zeit in Anspruch nehmen, dabei mehr kosten und unterirdische Ergebnisse zu Tage fördern sollen – dann empfiehlt sich folgende Vorgehensweise: Sie starten bei möglichst dünner Personallage jede Menge neuer Projekte, um einfach alles was gefordert wird, umzusetzen und schieben ihre IT-Experten von einem Projekt zum nächsten.Wenn Ihnen dagegen etwas daran liegt, dass Ihre IT eine gute Reputation vorweisen kann, sollten Sie nur eine Regel umsetzen: Jedes Projekt, das gestartet wird, wird mit voller Mannschaft gefahren. Das heißt: Projekte, die warten, bis alle Beteiligten daran arbeiten können, gibt es nicht. Ewiges SchattenboxenKeine Frage: Wenn Fachabteilungen hinter dem Rücken der IT-Abteilungen ihre eigenen technischen Lösungen einziehen, kann das verheerende Folgen haben. Das ist allerdings nur ein Teil der Geschichte. Die Fachbereiche greifen nämlich in der Regel auf DIY-Lösungen zurück, weil die IT nicht genügend Manpower zur Verfügung hat.Dennoch ist es schon rein logistisch ein unmögliches Unterfangen, jede Form der Schatten-IT aus Unternehmen zu verbannen. Ganz zu schweigen davon, dass der IT in diesem Fall die Rolle des allmächtigen Verhinderers einnimmt, was ihrer Reputation alles andere als zuträglich ist.Schwarz vs. WeißZum Abschluss noch ein Dauerbrenner, wenn es darum geht die IT zu versenken: Antworten Sie auf Anfragen einfach immer mit Ja oder Nein. Letzteres führt zu sinkender Reputation und der Beschädigung von Arbeitsbeziehungen. Ersteres dazu, dass Sie Dinge versprechen, die Sie am Ende nicht halten können.Die richtige Antwort wäre: “Das können wir machen – und zwar unter folgenden Voraussetzungen…”So klären Sie über die Erfordernisse auf, die nötig sind, um die Erwartungen zu erfüllen, ohne dabei zuviel zu versprechen. Im Anschluss folgt dann auch eher eine Diskussion als ein Streitgespräch. (fm) 

Worst Practices: Wie IT-Erfolg ausbleibt​ Der Weg vom Best Practice zum Worst Nightmare ist oft nicht weit.
Foto: Kaspar Grinvalds – shutterstock.comWenn ganze IT-Abteilungen auf den Abgrund zusteuern, kann das vielerlei Gründe haben – unter Umständen aber auch daran liegen, dass “Industry Best Practices” adaptiert wurden. Manche dieser Empfehlungen aus der Praxis sehen nämlich in einigen Fällen nur aus einem Kilometer Entfernung sinnvoll aus.Je näher man jedoch kommt, desto offensichtlicher wird, dass statt IT-Erfolg ein saftiger Fail winkt. Wir haben 13 Worst Practices für Sie zusammengetragen, die IT-Abteilungen unter allen Umständen vermeiden sollten.Kunde fällt ausWollen Sie einen Fail herausfordern? Dazu müssen Sie lediglich sicherstellen, dass sich jedes Mitglied Ihres IT-Teams gegenüber allen anderen Abteilungen als Dienstleister ausgibt, der versucht mit Sprüchen wie: “Ich betrachte dich als meinen Kunden.”; “Mein Job ist es, deine Erwartungen zu übertreffen”; oder noch schlimmer: “Ich möchte dich glücklich machen”;Eindruck zu schinden. Mitarbeiter anderer Abteilungen sind nämlich keine Kunden der IT, sondern deren Kollegen. Darum sollten sie sich auch auf Augenhöhe begegnen.Die Idee vom Internal Customer weist der IT eine unterwürfige Rolle zu. In der hat sie zu tun, was den “Kunden” glücklich macht – ganz egal, ob das nun Sinn ergibt oder auf Geschäftsziele einzahlt. Ganz davon zu schweigen, ob den als dienstbarer Dienstleister auftretenden IT-Spezialisten seine Rolle mit Glück erfüllt.SLA-ContractingWollen Sie mal ein bisschen Schaden anrichten? Dann ziehen Sie formale Service Level Agreements auf. Anschließend bestehen Sie darauf, dass alle Internal Customer diese unterzeichnen. Fertig. Denn ist der Vertrag erstmal besiegelt, muss er auch zu jeder Zeit voll und ganz erfüllt werden.Um die IT-Abteilung mit in den Abgrund zu reißen, empfiehlt es sich, Streitgespräche anzuregen. Im Idealfall darüber, ob die internen Kunden (schönes Wording, oder?) Recht damit haben, wenn Sie sich darüber beschweren, dass die IT nicht das tut was sie soll. Eine erquickende Art und Weise, Beziehungen sämtlicher Art auf maximaler Distanz zu halten. Gute Beziehungen – beruflicher wie privater Natur – sollten auf Vertrauen basieren. Das wird im beruflichen Umfeld allerdings nicht dadurch erzeugt, die Kollegen nicht als Kollegen zu betrachten: Oder arbeiten Sie gerne mit Leuten zusammen, die ihnen unsympathisch sind? Dazu wird es nämlich kommen, wenn die Service Level Agreements als festes Vertragswerk verstanden werden, die die zwischenmenschlichen Beziehungen definieren. Stellen Sie einfach einmal vor, welche Folgen fehlendes Vertrauen im Fall eines ernsten IT-Notfalls nach sich ziehen kann.DAU-ShamingDAU-Stories kennt (und liest) wohl jeder gern. Auch wir:Problematisch wird das Ganze, wenn die IT-Mannschaft solche Stories mit den Klarnamen der eigenen Kollegen verbreitet. Am besten Sie sorgen dafür, dass die Stories per E-Mail-Verteiler unter die Mitarbeiter gebracht werden. Schneller lassen Sie nicht erkennen, dass gegenseitiger Respekt in Ihrem Laden Mangelware ist.Budget-BattleEin hervorragender Weg, die Inanspruchnahme der IT auszubremsen: Streit ums Budget. Dazu richten Sie idealerweise innerhalb der IT weitere Unterkostenstellen ein. Beispielsweise für CPU-Zyklen, SAN- und NAS-Storage-Nutzung, die Anzahl der Entwicklungsstunden oder Anrufe beim Helpdesk (Tipp: In 10-Minuten-Schritten abrechnen).Schließlich existiert nichts, was die Collaboration mehr beflügeln würde als der Streit darüber, ob die Beträge auch akkurat in die richtigen Budgetbeutel geflossen sind.ROI-ZwangWenn Sie erreichen wollen, dass erfolgskritische Projekte nicht finanziert werden, sollten Sie mit Nachdruck darauf bestehen, dass der IT-Governance-Prozess einen klaren, greifbaren ROI aufweisen muss. Das führt geradewegs in die Obsoleszenz – während Technologien, die den Fachbereichen dabei helfen könnten, die Kundenzufriedenheit zu steigern, nur belächelt werden. Ebenso wie die, die sich für deren Einsatz stark gemacht haben.Nach mir die IT-Projekt-SintflutEine weitere Erfolgsformel für IT-Fehlschläge besteht darin, den Projektabschluss so zu definieren, dass die IT-Arbeit getan ist, wenn die Software den Anforderungen und Spezifikationen entspricht. Wenn sich dann das Management beschweren sollte, dass die Software nicht so funktioniert, wie sie soll, sind Sie in einer traumhaften Position und können Sätze wie “Wenn die Software die Specs erfüllt, funktioniert sie auch so, wie sie soll.” droppen. Sollte das nicht zur erwünschten Wirkung führen, können Sie immer noch ausweichen auf: “Dann waren wohl die Anforderungen nicht richtig gewählt.”. Der Fehler liegt jedenfalls nicht bei Ihnen, sondern ausschließlich bei denen, die die Spezifikationen abgesegnet haben.Wenn Sie allerdings Interesse am Erfolg von IT-Projekten haben, sollten Sie diese am angestrebten Geschäftszweck ausrichten (beispielsweise die Sales-Effektivität erhöhen) und nicht an der Software selbst.Projekt-SponsorenIn Projektmanagement-Kreisen gilt es als offenes Geheimnis, dass jedes Projekt einen Business Sponsor braucht, wenn es in Erfolg kulminieren soll. Wenn der Fail nur eine Frage der Zeit sein soll, bestimmen Sie einfach einen solchen Sponsor.Projektsponsoren – also echte Sponsoren, nicht solche, die nur so heißen – brennen dafür, dass ihre Projekte erfolgreich sind und sind auch bereit, dafür Risiken einzugehen. Ein Mensch, dem diese Rolle zugewiesen oder unter Umständen sogar aufgezwungen wird, dürfte diese Motivationslage sehr wahrscheinlich vermissen lassen.Head in the CloudsEine Cloud-Computing-Strategie kann ebenfalls den Pfad zu einem beachtlichen IT-Fail eröffnen. Zumindest wenn von der Strategie auf die Lösung geschlossen wird: Sie müssen ja in die Cloud, darum ist Sinn und Zweck der Strategie, dort hin zu kommen. Auf keinen Fall sollten Sie den Fehler begehen und über diesen Sachverhalt länger als nötig nachdenken. Verdrängen Sie einfach Dinge wie Architekturfragen oder Terms of Services. Das führt am Ende nur dazu, dass Sie irgendwann auf den Gedanken kommen, die Services wären das, was Sie brauchen und die Cloud nur der Weg zum Ziel.Soll das mit der Cloud-Strategie hingegen etwas werden, gilt die alte Regel: Form follows function. Und Services sind in diesem Fall die “functions”, die unter Umständen in cloudifizierter Form verwirklicht werden.Agiles OffshoringAgile Methoden haben viele Vorteile. Damit sie zum Erfolg führen, ist ein hohes Level an informeller User-Beteiligung unabdingbar, damit Kurskorrekturen zwar in hoher Frequenz möglich sind, aber klein ausfallen, die Entwickler jeden Tag Fortschritte sehen können und auch das User-Akzeptanz-Testing nicht zu kurz kommt. Offshoring bringt einen wesentlichen Benefit: geringere Kosten. Was allerdings nicht läuft, ist ein hohes Level an informeller User-Beteiligung.Wenn Sie nun zwölf verschiedene Zeitzonen mit Sprachbarrieren, kulturellen Unterschieden und Videokonferenzen als einzige Interaktionsmöglichkeit kombinieren, wird es mit dem Agile-Erfolg diffizil.Natürlich lässt sich auch Agiles Offshoring bewerkstelligen, aber das ist ein komplexes Unterfangen und keinesfalls für IT-Abteilungen geeignet, die im Agile Game noch neu sind. Ist das der Fall, sollten Sie sich zwischen Agile und Offshoring entscheiden.

UnterbrechungspotenzierungNachhaltige IT-Fails lassen sich auch erzeugen, indem Sie darauf bestehen, dass jeder im Team Multitasking betreibt. Schließlich ist die Fähigkeit, mehrere Dinge gleichzeitig zu tun, äußerst erstrebenswert.In der Realität ist ausuferndes Multitasking lediglich der Produktivität und Qualität abträglich und erhöht das Stresslevel ungemein. Wann immer Sie die Versuchung verspüren, ein Mitglied Ihres Teams darum zu bitten, sich mit etwas anderem zu beschäftigen, sollten Sie daran denken, dass Menschen nicht wirklich Multitasking-fähig sind. Das Beste was sie tun können, ist von einem Task zum nächsten zu wechseln. Jedes Mal wenn Sie das tun, geht dabei Zeit verloren, um sich mental neu auszurichten. Je mehr Konzentration eine Aufgabe erfordert, desto mehr Zeit kostet das “Switchen” zwischen den Tasks.ProjektitisWenn Sie sich zum Ziel gesetzt haben, dass alle IT-Projekte substanziell mehr Zeit in Anspruch nehmen, dabei mehr kosten und unterirdische Ergebnisse zu Tage fördern sollen – dann empfiehlt sich folgende Vorgehensweise: Sie starten bei möglichst dünner Personallage jede Menge neuer Projekte, um einfach alles was gefordert wird, umzusetzen und schieben ihre IT-Experten von einem Projekt zum nächsten.Wenn Ihnen dagegen etwas daran liegt, dass Ihre IT eine gute Reputation vorweisen kann, sollten Sie nur eine Regel umsetzen: Jedes Projekt, das gestartet wird, wird mit voller Mannschaft gefahren. Das heißt: Projekte, die warten, bis alle Beteiligten daran arbeiten können, gibt es nicht. Ewiges SchattenboxenKeine Frage: Wenn Fachabteilungen hinter dem Rücken der IT-Abteilungen ihre eigenen technischen Lösungen einziehen, kann das verheerende Folgen haben. Das ist allerdings nur ein Teil der Geschichte. Die Fachbereiche greifen nämlich in der Regel auf DIY-Lösungen zurück, weil die IT nicht genügend Manpower zur Verfügung hat.Dennoch ist es schon rein logistisch ein unmögliches Unterfangen, jede Form der Schatten-IT aus Unternehmen zu verbannen. Ganz zu schweigen davon, dass der IT in diesem Fall die Rolle des allmächtigen Verhinderers einnimmt, was ihrer Reputation alles andere als zuträglich ist.Schwarz vs. WeißZum Abschluss noch ein Dauerbrenner, wenn es darum geht die IT zu versenken: Antworten Sie auf Anfragen einfach immer mit Ja oder Nein. Letzteres führt zu sinkender Reputation und der Beschädigung von Arbeitsbeziehungen. Ersteres dazu, dass Sie Dinge versprechen, die Sie am Ende nicht halten können.Die richtige Antwort wäre: “Das können wir machen – und zwar unter folgenden Voraussetzungen…”So klären Sie über die Erfordernisse auf, die nötig sind, um die Erwartungen zu erfüllen, ohne dabei zuviel zu versprechen. Im Anschluss folgt dann auch eher eine Diskussion als ein Streitgespräch. (fm)

Worst Practices: Wie IT-Erfolg ausbleibt​ Weiterlesen »

Apple hamstert iPhones nach neuen US-Zöllen​

Allgemein

Nicht nur iPhones: Apple hat eine Vielzahl an Produkten aus Indien und China in die USA eingeflogen.Michael Derrer Fuchs – shutterstock.com Neue Zölle der USA treffen Anfang April 2025 eines der wertvollsten Unternehmen der Welt hart. Besonders stark betroffenen sind Waren, die aus China aber auch aus Indien eingeführt werden. Prominentes Opfer ist Apple. Der Techkonzern stellt derzeit seine gesamte iPhone 15- und iPhone 16-Produktpalette in Indien und China her. Auf Produkte, die aus Indien in die USA eingeführt werden, entfallen 17 Prozent Zölle, stammen sie aus China werden Zölle in Höhe von 104 Prozent fällig. Zwischenzeitlich wurden Waren aus dem Reich der Mitte „nur“ mit 54 Prozent Zollabgabe versehen. Dabei handelt es sich um eine deutliche Steigerung gegenüber dem ersten Zollpaket vom 5. April 2025, wo ein Basissatz von zehn Prozent auf alle Einfuhren in die Vereinigten Staaten in Kraft festgelegt worden war. Zollaufschub durch strategische Vorräte Apple will diese Mehrkosten nicht an seine Kunden weitergeben, weswegen der Konzern mit Hochdruck daran arbeitet, so viele Lagerbestände zu alten Zollkonditionen wie möglich in den Vereinigten Staaten anzulegen. Laut hochrangigen indischen Beamten hat Apple in der letzten Märzwoche „in nur drei Tagen fünf Flugzeuge voller iPhones und anderer Produkte aus Indien und China ausgeflogen.“ Unklar ist, wie viel Lagerbestand der Konzern derzeit in den USA hortet. Die Kalifornier wollen die Auswirkungen der Zölle hinauszögern. Ziel ist es laut Apple eine Erhöhung der iPhone-Preise bis zur Markteinführung des iPhone 17 im Herbst zu vermeiden. Für das iPhone 17 könnte Apple dann die Verkaufspreise anpassen und die Zölle einberechnen, so Marktbeobachter. Lieferkette bleibt China-zentriert Bei anderen Produkten scheint das Unternehmen jedoch weniger Glück zu haben: Die meisten Mac-Konfigurationen, die auf Bestellung gefertigt werden, erhalten Verbraucher in den Vereinigten Staaten direkt aus den Apple-Fabriken in China. Ob Apple Produktionskapazitäten in die USA verlegen wird, bleibt abzuwarten. Das Tech-Unternehmen benötigte allein für den Umzug von China nach Indien sowie den Aufbau der Produktionskapazitäten drei Jahre. Zuletzt stellte Apple schätzungsweise 25 Millionen iPhones in Indien her. Vorher hatte das Unternehmen zwischen 15 und 20 Jahre in den Aufbau seiner Lieferkette zwischen den USA und China investiert. 

Apple hamstert iPhones nach neuen US-Zöllen​ Nicht nur iPhones: Apple hat eine Vielzahl an Produkten aus Indien und China in die USA eingeflogen.Michael Derrer Fuchs – shutterstock.com

Neue Zölle der USA treffen Anfang April 2025 eines der wertvollsten Unternehmen der Welt hart. Besonders stark betroffenen sind Waren, die aus China aber auch aus Indien eingeführt werden. Prominentes Opfer ist Apple. Der Techkonzern stellt derzeit seine gesamte iPhone 15- und iPhone 16-Produktpalette in Indien und China her.

Auf Produkte, die aus Indien in die USA eingeführt werden, entfallen 17 Prozent Zölle, stammen sie aus China werden Zölle in Höhe von 104 Prozent fällig. Zwischenzeitlich wurden Waren aus dem Reich der Mitte „nur“ mit 54 Prozent Zollabgabe versehen.

Dabei handelt es sich um eine deutliche Steigerung gegenüber dem ersten Zollpaket vom 5. April 2025, wo ein Basissatz von zehn Prozent auf alle Einfuhren in die Vereinigten Staaten in Kraft festgelegt worden war.

Zollaufschub durch strategische Vorräte

Apple will diese Mehrkosten nicht an seine Kunden weitergeben, weswegen der Konzern mit Hochdruck daran arbeitet, so viele Lagerbestände zu alten Zollkonditionen wie möglich in den Vereinigten Staaten anzulegen.

Laut hochrangigen indischen Beamten hat Apple in der letzten Märzwoche „in nur drei Tagen fünf Flugzeuge voller iPhones und anderer Produkte aus Indien und China ausgeflogen.“ Unklar ist, wie viel Lagerbestand der Konzern derzeit in den USA hortet.

Die Kalifornier wollen die Auswirkungen der Zölle hinauszögern. Ziel ist es laut Apple eine Erhöhung der iPhone-Preise bis zur Markteinführung des iPhone 17 im Herbst zu vermeiden. Für das iPhone 17 könnte Apple dann die Verkaufspreise anpassen und die Zölle einberechnen, so Marktbeobachter.

Lieferkette bleibt China-zentriert

Bei anderen Produkten scheint das Unternehmen jedoch weniger Glück zu haben: Die meisten Mac-Konfigurationen, die auf Bestellung gefertigt werden, erhalten Verbraucher in den Vereinigten Staaten direkt aus den Apple-Fabriken in China.

Ob Apple Produktionskapazitäten in die USA verlegen wird, bleibt abzuwarten. Das Tech-Unternehmen benötigte allein für den Umzug von China nach Indien sowie den Aufbau der Produktionskapazitäten drei Jahre.

Zuletzt stellte Apple schätzungsweise 25 Millionen iPhones in Indien her. Vorher hatte das Unternehmen zwischen 15 und 20 Jahre in den Aufbau seiner Lieferkette zwischen den USA und China investiert.

Apple hamstert iPhones nach neuen US-Zöllen​ Weiterlesen »

Industrie im Aufbruch, Weltpolitik im Umbruch​

Allgemein

Können die neuen Zölle die Produktion in den USA ankurbeln? Es spricht einiges dagegen.Shutterstock/Bigc Studio Noch während sich die führenden Unternehmen der Branche auf der Hannover Messe versammelten, um bahnbrechende Automatisierungslösungen und digitale Innovationen zu präsentieren, geriet unversehens die Weltbühne unter ihren Füßen in Bewegung. Die von der US-Regierung angekündigte neue Runde weitreichender Zölle macht die ohnehin schon volatile globale Handelslandschaft noch komplexer und zwingt Hersteller, Technologieanbieter und Investoren, sich anzupassen.  In einer zunehmend vernetzten Welt ist kein Unternehmen eine Insel. Auch wenn Zölle für Unternehmen, die ausschließlich in den USA produzieren und verkaufen, kurzfristig von Vorteil sein können, sind solche Szenarien selten. Moderne Produkte – egal ob Autos, Flugzeuge oder Industriemaschinen – hängen von globalen Lieferketten ab. Diese Netzwerke zu verlagern oder zu vereinfachen, ist nicht nur teuer und zeitaufwändig, sondern oft auch unrealistisch. Und da die Dauer der neu eingeführten Zölle noch ungewiss ist, stehen die meisten Unternehmen vor einer ungewissen Zukunft.  Die neue Zolllandschaft  Präsident Trump hat im Rahmen des International Emergency Economic Powers Act (IEEPA) weitreichende Zölle angekündigt:  Ein Zollsatz von zehn Prozent auf alle Importgüter aus allen Ländern, der am 5. April 2025 in Kraft trat.  Ab dem 9. April 2025 höhere „reziproke“ Zölle für Länder, mit denen die USA die größten Handelsdefizite haben.  Es gibt einige Ausnahmen, darunter:  Stahl, Aluminium, Autos und Autoteile, die bereits den Zöllen nach Section 232 unterliegen.  Kritische Materialien wie Kupfer, Halbleiter und Holz.  Bestimmte Mineralien und Energieressourcen, die in den USA nicht verfügbar sind.  Die vom Weißen Haus veröffentlichte Zollliste sieht auch erhebliche Erhöhungen für asiatische Importe vor:  54 Prozent auf chinesische Importe (ein neuer Zoll von 34 Prozent zusätzlich zu den bestehenden 20 Prozent).  46 Prozent auf Importe aus Vietnam.  32 Prozent auf Importe aus Taiwan, einem wichtigen Halbleiterlieferanten.  Die Ankündigung löste an den Finanzmärkten Panik aus. Binnen weniger Stunden gingen an den Börsen mehrere hundert Milliarden Dollar an Marktwert der so genannten Magnificent Seven – darunter Apple, Microsoft, Nvidia und Amazon – in Rauch auf.   Straffer Zeitplan für den Ausbau der US-Produktion  Während die Unternehmen darüber nachdenken, wie sie darauf reagieren sollen, erfordert eine vorgeschlagene Strategie – die Verlagerung der Produktion in die USA – eine langfristige Perspektive. Der Auf- oder Ausbau von Produktionsstätten in den USA ist keine Kleinigkeit, insbesondere wenn es sich um komplexe oder hochtechnologische Betriebe handelt.  GenAI-Modelle schätzen den Zeitrahmen für den Bau einer Fabrik in den USA wie folgt ein:  Genehmigungen und Zulassungen: sechs Monate bis zwei Jahre (je nach Bundesstaat und regulatorischen Hürden).  Standortvorbereitung und Infrastruktur: drei bis zwölf Monate.  Bau: zwölf bis 36 Monate (länger für Groß- oder High-Tech-Anlagen).  Installation und Inbetriebnahme des Equipments: sechs bis 18 Monate.  Typische Zeitpläne nach Branche:  Kleine/mittlere Fertigungsanlagen (allgemeine Güter): zirka 1,5 bis drei Jahre.  Automobilfabrik: zwei bis vier Jahre.  Halbleiterfabrik: drei bis fünf Jahre (oder länger).  Pharmazeutische/Biotech-Einrichtungen: zwei bis vier Jahre.  Diese Prognosen berücksichtigen jedoch nicht die Ausbildung der Mitarbeiter – ein wichtiger Faktor für eine qualitativ hochwertige Produktion in großem Maßstab. Vom ersten Spatenstich bis zur Rentabilität können also fünf oder mehr Jahre vergehen.  Auch wenn das Reshoring mit den strategischen und politischen Zielen übereinstimmt, bleibt die Frage offen, welche Art von Arbeitsplätzen geschaffen werden. Und sind die in den USA hergestellten Produkte auf den Weltmärkten überhaupt wettbewerbsfähig?  Die Zukunft der Fertigung und der digitalen Technologie  So fügt sich die Verlagerung der Produktion in die USA zwar in die umfassenderen nationalen Prioritäten des Landes ein. Ihr Erfolg hängt aber von mehr als nur der Infrastruktur ab. Um in diesem sich wandelnden Umfeld erfolgreich zu sein, müssen Unternehmen agil bleiben und die digitale Transformation und KI-gestützte Erkenntnisse nutzen, um Prozesse zu optimieren und Risiken zu managen.  Kurz gesagt: Die Spielregeln ändern sich. Die Gewinner werden diejenigen sein, die sich schnell anpassen und intelligenter bauen, nicht nur größer.  

Industrie im Aufbruch, Weltpolitik im Umbruch​ Können die neuen Zölle die Produktion in den USA ankurbeln? Es spricht einiges dagegen.Shutterstock/Bigc Studio

Noch während sich die führenden Unternehmen der Branche auf der Hannover Messe versammelten, um bahnbrechende Automatisierungslösungen und digitale Innovationen zu präsentieren, geriet unversehens die Weltbühne unter ihren Füßen in Bewegung. Die von der US-Regierung angekündigte neue Runde weitreichender Zölle macht die ohnehin schon volatile globale Handelslandschaft noch komplexer und zwingt Hersteller, Technologieanbieter und Investoren, sich anzupassen. 

In einer zunehmend vernetzten Welt ist kein Unternehmen eine Insel. Auch wenn Zölle für Unternehmen, die ausschließlich in den USA produzieren und verkaufen, kurzfristig von Vorteil sein können, sind solche Szenarien selten. Moderne Produkte – egal ob Autos, Flugzeuge oder Industriemaschinen – hängen von globalen Lieferketten ab. Diese Netzwerke zu verlagern oder zu vereinfachen, ist nicht nur teuer und zeitaufwändig, sondern oft auch unrealistisch. Und da die Dauer der neu eingeführten Zölle noch ungewiss ist, stehen die meisten Unternehmen vor einer ungewissen Zukunft. 

Die neue Zolllandschaft 

Präsident Trump hat im Rahmen des International Emergency Economic Powers Act (IEEPA) weitreichende Zölle angekündigt: 

Ein Zollsatz von zehn Prozent auf alle Importgüter aus allen Ländern, der am 5. April 2025 in Kraft trat. 

Ab dem 9. April 2025 höhere „reziproke“ Zölle für Länder, mit denen die USA die größten Handelsdefizite haben. 

Es gibt einige Ausnahmen, darunter: 

Stahl, Aluminium, Autos und Autoteile, die bereits den Zöllen nach Section 232 unterliegen. 

Kritische Materialien wie Kupfer, Halbleiter und Holz. 

Bestimmte Mineralien und Energieressourcen, die in den USA nicht verfügbar sind. 

Die vom Weißen Haus veröffentlichte Zollliste sieht auch erhebliche Erhöhungen für asiatische Importe vor: 

54 Prozent auf chinesische Importe (ein neuer Zoll von 34 Prozent zusätzlich zu den bestehenden 20 Prozent). 

46 Prozent auf Importe aus Vietnam. 

32 Prozent auf Importe aus Taiwan, einem wichtigen Halbleiterlieferanten. 

Die Ankündigung löste an den Finanzmärkten Panik aus. Binnen weniger Stunden gingen an den Börsen mehrere hundert Milliarden Dollar an Marktwert der so genannten Magnificent Seven – darunter Apple, Microsoft, Nvidia und Amazon – in Rauch auf.  

Straffer Zeitplan für den Ausbau der US-Produktion 

Während die Unternehmen darüber nachdenken, wie sie darauf reagieren sollen, erfordert eine vorgeschlagene Strategie – die Verlagerung der Produktion in die USA – eine langfristige Perspektive. Der Auf- oder Ausbau von Produktionsstätten in den USA ist keine Kleinigkeit, insbesondere wenn es sich um komplexe oder hochtechnologische Betriebe handelt. 

GenAI-Modelle schätzen den Zeitrahmen für den Bau einer Fabrik in den USA wie folgt ein: 

Genehmigungen und Zulassungen: sechs Monate bis zwei Jahre (je nach Bundesstaat und regulatorischen Hürden). 

Standortvorbereitung und Infrastruktur: drei bis zwölf Monate. 

Bau: zwölf bis 36 Monate (länger für Groß- oder High-Tech-Anlagen). 

Installation und Inbetriebnahme des Equipments: sechs bis 18 Monate. 

Typische Zeitpläne nach Branche: 

Kleine/mittlere Fertigungsanlagen (allgemeine Güter): zirka 1,5 bis drei Jahre. 

Automobilfabrik: zwei bis vier Jahre. 

Halbleiterfabrik: drei bis fünf Jahre (oder länger). 

Pharmazeutische/Biotech-Einrichtungen: zwei bis vier Jahre. 

Diese Prognosen berücksichtigen jedoch nicht die Ausbildung der Mitarbeiter – ein wichtiger Faktor für eine qualitativ hochwertige Produktion in großem Maßstab. Vom ersten Spatenstich bis zur Rentabilität können also fünf oder mehr Jahre vergehen. 

Auch wenn das Reshoring mit den strategischen und politischen Zielen übereinstimmt, bleibt die Frage offen, welche Art von Arbeitsplätzen geschaffen werden. Und sind die in den USA hergestellten Produkte auf den Weltmärkten überhaupt wettbewerbsfähig? 

Die Zukunft der Fertigung und der digitalen Technologie 

So fügt sich die Verlagerung der Produktion in die USA zwar in die umfassenderen nationalen Prioritäten des Landes ein. Ihr Erfolg hängt aber von mehr als nur der Infrastruktur ab. Um in diesem sich wandelnden Umfeld erfolgreich zu sein, müssen Unternehmen agil bleiben und die digitale Transformation und KI-gestützte Erkenntnisse nutzen, um Prozesse zu optimieren und Risiken zu managen. 

Kurz gesagt: Die Spielregeln ändern sich. Die Gewinner werden diejenigen sein, die sich schnell anpassen und intelligenter bauen, nicht nur größer. 

Industrie im Aufbruch, Weltpolitik im Umbruch​ Weiterlesen »

Cyber-Security: Wie Sie sich gegen KI als Einbruchswerkzeug wehren​

Allgemein

Ob verbesserter Kundenservice, effizientere Energienutzung, optimierte Maschinenwartung oder höhere Produktionsleistung in der Industrie – Künstliche Intelligenz eröffnet Firmen weltweit die Möglichkeit, Produkte und Dienstleistungen auf einem neuen Level zu entwickeln. Die Kehrseite der Medaille: Auch Cyber-Kriminelle rund um den Globus wissen inzwischen den Werkzeugkasten an KI-Tool virtuos einzusetzen, um sich Zugriff auf sensible Unternehmensinformationen verschaffen. Deepfake-Imitationen sind heute so realitätsnah, dass Mitarbeiter sie kaum noch auf ihren Wahrheitsgehalt prüfen können. Kriminelle nutzen insbesondere generative KI, um perfekte, personalisierte Phishing-E-Mails und -Texte zu erstellen. Offensichtliche Grammatikfehler gehören längst der Vergangenheit an. Die Erstellung kompromittierender E-Mails erfolgt ausgefeilt, ihre Verteilung zielgerichtet, so dass selbst aufmerksame Empfänger in die Falle tappen. Was also tun, um Unternehmensdaten vor unberechtigtem Zugriff zu schützen? Und wie sollen sich Unternehmen im sich aufschaukelnden Kampf um die effektivsten KI-Werkzeuge in Cyber-Welt aufstellen? Ein CIO Webcast im Kooperation mit Sophos zeigt, wie Cyber-Angreifer tatsächlich vorgehen und wie sich Unternehmen am besten gegen diese Attacken wehren. Der Sicherheitsexperte Sascha Pfeiffer von Sophos erklärt, welche Rolle KI bei Cyber-Angriffen tatsächlich spielt, und wo umgekehrt KI die IT-Sicherheit entscheidend verbessern kann – aber auch, wo ihr Einsatz wenig sinnvoll ist. Webcast: Cybersecurity – Die zwei Gesichter der KIErfahren Sie im CIO-Webcast, welche Risiken, aber auch Chancen KI für die Cyber-Sicherheit bedeutet.Registrieren Sie sich jetzt 

Cyber-Security: Wie Sie sich gegen KI als Einbruchswerkzeug wehren​ Ob verbesserter Kundenservice, effizientere Energienutzung, optimierte Maschinenwartung oder höhere Produktionsleistung in der Industrie – Künstliche Intelligenz eröffnet Firmen weltweit die Möglichkeit, Produkte und Dienstleistungen auf einem neuen Level zu entwickeln. Die Kehrseite der Medaille: Auch Cyber-Kriminelle rund um den Globus wissen inzwischen den Werkzeugkasten an KI-Tool virtuos einzusetzen, um sich Zugriff auf sensible Unternehmensinformationen verschaffen. Deepfake-Imitationen sind heute so realitätsnah, dass Mitarbeiter sie kaum noch auf ihren Wahrheitsgehalt prüfen können.

Kriminelle nutzen insbesondere generative KI, um perfekte, personalisierte Phishing-E-Mails und -Texte zu erstellen. Offensichtliche Grammatikfehler gehören längst der Vergangenheit an. Die Erstellung kompromittierender E-Mails erfolgt ausgefeilt, ihre Verteilung zielgerichtet, so dass selbst aufmerksame Empfänger in die Falle tappen. Was also tun, um Unternehmensdaten vor unberechtigtem Zugriff zu schützen? Und wie sollen sich Unternehmen im sich aufschaukelnden Kampf um die effektivsten KI-Werkzeuge in Cyber-Welt aufstellen?

Ein CIO Webcast im Kooperation mit Sophos zeigt, wie Cyber-Angreifer tatsächlich vorgehen und wie sich Unternehmen am besten gegen diese Attacken wehren. Der Sicherheitsexperte Sascha Pfeiffer von Sophos erklärt, welche Rolle KI bei Cyber-Angriffen tatsächlich spielt, und wo umgekehrt KI die IT-Sicherheit entscheidend verbessern kann – aber auch, wo ihr Einsatz wenig sinnvoll ist.

Webcast: Cybersecurity – Die zwei Gesichter der KIErfahren Sie im CIO-Webcast, welche Risiken, aber auch Chancen KI für die Cyber-Sicherheit bedeutet.Registrieren Sie sich jetzt

Cyber-Security: Wie Sie sich gegen KI als Einbruchswerkzeug wehren​ Weiterlesen »

5 Alternativen zu VMware vSphere​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?quality=50&strip=all 8000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Lesen Sie, welche alternativen Virtualisierungsplattformen Analysten abwanderungswilligen VMware-Kunden ans Herz legen.JLStock | shutterstock.com Es gibt viele Alternativen für Organisationen, die mit der Richtung, die Broadcom mit der VMware-Virtualisierungsplattform einschlägt, unzufrieden sind. Zum Beispiel, indem sie virtuelle Maschinen (VMs) hinter sich lassen und: Workloads stattdessen in die Public Cloud verlagern, oder auf containerisierte Plattformen wie Red Hat OpenShift setzen.    Es gibt jedoch genug Anwender, für die keine der beiden Optionen in Frage kommt – sie suchen ausschließlich nach einer alternativen Virtualisierungsplattform. Die fünf (ihrer Meinung nach) besten Alternativen in diesem Bereich haben die Analysten der Data Center Intelligence Group (DCIG) identifiziert (Download gegen Daten). Diese stellen wir Ihnen nachfolgend (in alphabetischer Reihenfolge) inklusive einer kurzen Beschreibung vor.   1. HiveIO Hive Fabric Bei HiveIO handelt es sich um eine VM-Plattform auf Basis des Linux Kernels (KVM), die mit diversen Features aufwarten kann. Darunter beispielsweise: ein intelligenter Message-Bus, Pool-Orchestrierung, Benutzerprofil-Management und Shared Storage. Der Cloud-basierte Monitoring-Service HiveSense sorgt dabei für proaktives Monitoring und erkennt Anomalien. Die Plattform von HiveIO ist in drei Lizenzierungsstufen verfügbar – darunter auch eine kostenlose Community-Edition. Der Enterprise-Plan umfasst unter anderem: HCI, VDI, sowie Gast- / Applikations-Pools. 2. Microsoft Azure Local Für Microsoft-zentrische Unternehmen ist Azure Stack HCI eine Alternative zu VMwares vSphere-Plattform. Die Plattform läuft bei den Redmondern inzwischen unter dem Banner von Azure Local und nutzt erwartungsgemäß die Azure Cloud und Microsofts Hyper-V-Technologie. Die Anwender können dabei zwischen zwei Ansätzen wählen: Im Fall von Azure Stack HCI Hardware-as-a-Service sind Hardware und Software vorinstalliert. Unternehmen können jedoch auch validierte Knoten kaufen und sich selbst darum kümmern, die zugrundeliegende Hardware zu beschaffen, zu dimensionieren und bereitzustellen. Eine weitere nennenswerte Funktion von Azure Stack HCI ist beispielsweise ein Migrations-Tool, das dabei hilft, vorhandene VMware-Workloads zu überführen. Davon abgesehen ermöglicht die Microsoft-Lösung, Applikationen, VMs oder containerbasierte Workloads entweder On-Premises oder über die Azure Cloud auszuführen – und das zugehörige Portal zu managen. Zudem unterstützt Azure Stack HCI auch GPU-Partitionierung – laut den DCIG-Analysten ein entscheidendes Feature für vSphere-Anwender, die nach einer alternativen Lösung suchen.   3. Nutanix Cloud Infrastructure Anwender, die ihre Virtualisierungsstrategie unabhängig von Broadcom weiterführen wollen und sich in diesem Zuge für Nutanix entscheiden, haben den Vorteil, den Hypervisor nicht wechseln zu müssen. Denn diese Plattform unterstützt neben dem hauseigenen Acropolis Hypervisor (AHV) auch vSphere und Hyper-V. Entsprechend forsch positioniert sich auch Nutanix als alternative Anlaufstelle für verärgerte VMware-Kunden. Die Storage Services des Anbieters aggregieren Ressourcen in Pools und stellen diese jeder Art von virtueller Maschine zur Verfügung. Zu den Features der Plattform zählen unter anderem: Datenkomprimierung und -deduplizierung, Hochverfügbarkeits-Cluster, sowie die Möglichkeit, Snapshots zu erstellen. Dabei denkt Nutanix auch an Anwender, die High-Performance-Datenbanken betreiben und dazu im Regelfall auf externe Storage-Arrays zurückgreifen. Diesen Bedarf deckt der Anbieter durch Storage-Zertifizierungen für SAP HANA und Oracle RAC ab. 4. Scale Computing Platform Mit der Scale Computing Platform bekommen abwanderungswillige VMware-Kunden ein All-In-One-Paket, das Software, Hardware und sämtliche nötigen Lizenzen bündelt. Zu den Features auf Softwareseite zählen unter anderem: High-Availability Clustering (inklusive zentralisiertem Management), integrierte Disaster Recovery, Datenreplikation, sowie Software-Defined Storage. Scale bietet zudem ein Tool an, um vSphere-Migrationen automatisiert zu bewältigen. Auch diese Plattform setzt auf Storage Pools und bietet darüber hinaus die Möglichkeit, unterschiedliche Hardware Appliances in einem Cluster zusammenzuführen. 5. VergeIO VergeIO ist nach eigener Aussage „mehr als eine VMware-Alternative“. Das liegt in erster Linie am Konzept der „Ultraconverged Infrastructure“ (UCI), das der Anbieter verfolgt: Dabei wird Virtualisierung, Storage und Networking in einem Betriebssystem für Rechenzentren integriert – VergeOS. Die Plattform virtualisiert also nicht nur den „normalen“ Rechen-, Netzwerk- und Storage-Stack, sondern implementiert auch Mandantenfähigkeit in Form von Virtual Data Centers (VDCs). Die Anwender können jedes VDC – ähnlich wie die von den Hyperscalern angebotenen Virtual Private Clouds – einzeln managen und nutzen. Dieses Modell soll laut VergeIO eine erhöhte Workload-Dichte realisieren, die wiederum beiträgt zu: niedrigeren Kosten, optimierter Verfügbarkeit, und vereinfachten IT-Prozessen. Auch VergeIO hat seine Bemühungen verstärkt, gezielt VMware-Kunden zu gewinnen. Deshalb bietet das Unternehmen etwa auch einen Migrationsservice für vSphere an und ermöglicht es Anwendern außerdem, vorhandene Server wiederzuverwenden, um VergeOS zu hosten. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

5 Alternativen zu VMware vSphere​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?quality=50&strip=all 8000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Lesen Sie, welche alternativen Virtualisierungsplattformen Analysten abwanderungswilligen VMware-Kunden ans Herz legen.JLStock | shutterstock.com

Es gibt viele Alternativen für Organisationen, die mit der Richtung, die Broadcom mit der VMware-Virtualisierungsplattform einschlägt, unzufrieden sind. Zum Beispiel, indem sie virtuelle Maschinen (VMs) hinter sich lassen und:

Workloads stattdessen in die Public Cloud verlagern, oder

auf containerisierte Plattformen wie Red Hat OpenShift setzen.   

Es gibt jedoch genug Anwender, für die keine der beiden Optionen in Frage kommt – sie suchen ausschließlich nach einer alternativen Virtualisierungsplattform. Die fünf (ihrer Meinung nach) besten Alternativen in diesem Bereich haben die Analysten der Data Center Intelligence Group (DCIG) identifiziert (Download gegen Daten). Diese stellen wir Ihnen nachfolgend (in alphabetischer Reihenfolge) inklusive einer kurzen Beschreibung vor.  

1. HiveIO Hive Fabric

Bei HiveIO handelt es sich um eine VM-Plattform auf Basis des Linux Kernels (KVM), die mit diversen Features aufwarten kann. Darunter beispielsweise:

ein intelligenter Message-Bus,

Pool-Orchestrierung,

Benutzerprofil-Management und

Shared Storage.

Der Cloud-basierte Monitoring-Service HiveSense sorgt dabei für proaktives Monitoring und erkennt Anomalien. Die Plattform von HiveIO ist in drei Lizenzierungsstufen verfügbar – darunter auch eine kostenlose Community-Edition. Der Enterprise-Plan umfasst unter anderem:

HCI,

VDI, sowie

Gast- / Applikations-Pools.

2. Microsoft Azure Local

Für Microsoft-zentrische Unternehmen ist Azure Stack HCI eine Alternative zu VMwares vSphere-Plattform. Die Plattform läuft bei den Redmondern inzwischen unter dem Banner von Azure Local und nutzt erwartungsgemäß die Azure Cloud und Microsofts Hyper-V-Technologie. Die Anwender können dabei zwischen zwei Ansätzen wählen:

Im Fall von Azure Stack HCI Hardware-as-a-Service sind Hardware und Software vorinstalliert.

Unternehmen können jedoch auch validierte Knoten kaufen und sich selbst darum kümmern, die zugrundeliegende Hardware zu beschaffen, zu dimensionieren und bereitzustellen.

Eine weitere nennenswerte Funktion von Azure Stack HCI ist beispielsweise ein Migrations-Tool, das dabei hilft, vorhandene VMware-Workloads zu überführen. Davon abgesehen ermöglicht die Microsoft-Lösung, Applikationen, VMs oder containerbasierte Workloads entweder On-Premises oder über die Azure Cloud auszuführen – und das zugehörige Portal zu managen. Zudem unterstützt Azure Stack HCI auch GPU-Partitionierung – laut den DCIG-Analysten ein entscheidendes Feature für vSphere-Anwender, die nach einer alternativen Lösung suchen.  

3. Nutanix Cloud Infrastructure

Anwender, die ihre Virtualisierungsstrategie unabhängig von Broadcom weiterführen wollen und sich in diesem Zuge für Nutanix entscheiden, haben den Vorteil, den Hypervisor nicht wechseln zu müssen. Denn diese Plattform unterstützt neben dem hauseigenen Acropolis Hypervisor (AHV) auch vSphere und Hyper-V. Entsprechend forsch positioniert sich auch Nutanix als alternative Anlaufstelle für verärgerte VMware-Kunden.

Die Storage Services des Anbieters aggregieren Ressourcen in Pools und stellen diese jeder Art von virtueller Maschine zur Verfügung. Zu den Features der Plattform zählen unter anderem:

Datenkomprimierung und -deduplizierung,

Hochverfügbarkeits-Cluster, sowie

die Möglichkeit, Snapshots zu erstellen.

Dabei denkt Nutanix auch an Anwender, die High-Performance-Datenbanken betreiben und dazu im Regelfall auf externe Storage-Arrays zurückgreifen. Diesen Bedarf deckt der Anbieter durch Storage-Zertifizierungen für SAP HANA und Oracle RAC ab.

4. Scale Computing Platform

Mit der Scale Computing Platform bekommen abwanderungswillige VMware-Kunden ein All-In-One-Paket, das Software, Hardware und sämtliche nötigen Lizenzen bündelt. Zu den Features auf Softwareseite zählen unter anderem:

High-Availability Clustering (inklusive zentralisiertem Management),

integrierte Disaster Recovery,

Datenreplikation, sowie

Software-Defined Storage.

Scale bietet zudem ein Tool an, um vSphere-Migrationen automatisiert zu bewältigen. Auch diese Plattform setzt auf Storage Pools und bietet darüber hinaus die Möglichkeit, unterschiedliche Hardware Appliances in einem Cluster zusammenzuführen.

5. VergeIO

VergeIO ist nach eigener Aussage „mehr als eine VMware-Alternative“. Das liegt in erster Linie am Konzept der „Ultraconverged Infrastructure“ (UCI), das der Anbieter verfolgt: Dabei wird Virtualisierung, Storage und Networking in einem Betriebssystem für Rechenzentren integriert – VergeOS. Die Plattform virtualisiert also nicht nur den „normalen“ Rechen-, Netzwerk- und Storage-Stack, sondern implementiert auch Mandantenfähigkeit in Form von Virtual Data Centers (VDCs).

Die Anwender können jedes VDC – ähnlich wie die von den Hyperscalern angebotenen Virtual Private Clouds – einzeln managen und nutzen. Dieses Modell soll laut VergeIO eine erhöhte Workload-Dichte realisieren, die wiederum beiträgt zu:

niedrigeren Kosten,

optimierter Verfügbarkeit, und

vereinfachten IT-Prozessen.

Auch VergeIO hat seine Bemühungen verstärkt, gezielt VMware-Kunden zu gewinnen. Deshalb bietet das Unternehmen etwa auch einen Migrationsservice für vSphere an und ermöglicht es Anwendern außerdem, vorhandene Server wiederzuverwenden, um VergeOS zu hosten.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

5 Alternativen zu VMware vSphere​ Weiterlesen »

5 Disaster-Recovery-Tipps: So geht Business Continuity in der Cloud​

Allgemein

Wie gut sind Sie gegen Cloud-Katastrophen gewappnet? Foto: Evgeniyqw – shutterstock.com Es ist Freitagnachmittag. Plötzlich ruft Ihr CIO Sie an und teilt Ihnen mit, dass Daten von einem Public-Cloud-Server verschwunden sind und er die so schnell wie möglich wiederbenötigt. Doch es kommt noch schlimmer: Es liegen keine aktuellen Sicherungskopien der Daten vor. Bei den Backups, die Ihr Cloud-Anbieter in Ihrem Namen erstellt, handelt es sich lediglich um Kernsystem-Backups. Diese sind also für Ihre Zwecke unbrauchbar. Es existieren weder eine Business Continuity und Disaster Recovery (BCDR) -Strategie, noch Prozesse oder ein Playbook, die im Fall von Sicherheitsvorfällen oder Ausfällen weiterhelfen könnten. Eine häufige Fehlannahme: In der Cloud geschieht das automatisch. Neben diesen fatalen Missverständnissen ist auch die Annahme weit verbreitet, dass diejenigen, die für den Betrieb und die Sicherheit von Cloud-Systemen zuständig sind, das Problem schon im Griff haben werden. Der traditionelle BCDR-Ansatz fokussiert auf physische Infrastrukturen und On-Premises-Lösungen. Für Unternehmen gilt es nun, sich diesbezüglich an die dynamische Natur der Cloud anzupassen. Flexibilität, Skalierbarkeit und Kosteneffizienz dieser Systeme bringen schließlich auch neue Komplexitäten und Schwachstellen mit sich. Entsprechend sollten Unternehmen auf moderne Business-Continuity- und Disaster-Recovery-Methoden setzen. That moment when you wish you had a Disaster Recovery plan.#CloudArchitect #FunOps #DevOps #DevOops #Meme #CloudDisasterRecovery pic.twitter.com/prRtjrSCLx— __ubk (@__ubk) May 7, 2023 5 Disaster-Recovery-Tipps für die Cloud Für die meisten Cloud-Anbieter besteht zwar ein finanzieller Anreiz, sich um die Betriebszeit Ihrer Systeme zu kümmern – und viele Anbieter verfügen auch über automatisierte BCDR-Prozesse und -Mechanismen. Dennoch handelt es sich immer noch um ein Shared-Responsibility-Modell. Soll heißen: Ihr Anbieter sorgt dafür, dass alles läuft, aber Sie sind weiterhin für den Schutz Ihrer Daten verantwortlich. Gleiches gilt für die Bereiche Datensicherheit, -Governance und Disaster Recovery. Folgende fünf Punkte sollten Unternehmen in Angriff nehmen, um Ihre Cloud-Systeme in Sachen Business Continuity und Disaster Recovery bestmöglich aufzustellen: Testing und Validierung: Viele Unternehmen unterschätzen, wie wichtig es ist, ihre Disaster-Recovery-Pläne regelmäßig zu testen und zu validieren. Erstgenanntes gewährleistet, dass die Disaster-Recovery-Mechanismen wie erwartet funktionieren und die Wiederherstellungsziele innerhalb des gewünschten Zeitrahmens erreicht werden können. Wird das Testing vernachlässigt, kann das zu Fehleinschätzungen über die Recovery-Fähigkeiten und letzten Endes dazu führen, dass im Katastrophenfall nicht gehandelt werden kann. Datenreplikation und -Backup: Möglicherweise vernachlässigen es einige Unternehmen auch, in Sachen Cloud robuste Data-Replication- und Backup-Strategien zu implementieren. Sich bei der Datenredundanz ausschließlich auf die Infrastruktur des Cloud-Anbieters zu verlassen, ist allerdings riskant. Um vor Datenverlust oder -beschädigung geschützt zu sein, sind angemessene Backups unverzichtbar, auch an Offsite-Standorten. Dass Daten, die auf Cloud-basierten Systemen gespeichert sind, bereits geschützt sind, entspricht selten der Wahrheit. Gehen Sie stattdessen davon aus, dass es keinen Schutz gibt und dass Sie allein für Backup und Recovery verantwortlich sind. Geografische Redundanz: Cloud-Anbieter bieten geografisch verteilte Rechenzentren an. Unternehmen, die versäumen, redundante Cloud-Implementierungen über mehrere Regionen hinweg einzurichten, schaffen im Ernstfall einen Single Point of Failure. Geografisch redundante Systeme ermöglichen es hingegen, regionale Störungen auszugleichen. Es kann in diesem Zusammenhang Sinn machen, auf Backup- und Recovery-Lösungen in SaaS-Form zu setzen – geografische Redundanz gehört hier im Regelfall mit zum Servicepaket. Recovery Time Objectives (RTO) und Recovery Point Objectives (RPO): Die Definition und Abstimmung von RTOs und RPOs mit Cloud-Funktionen zu vernachlässigen, kann in ungenügende Wiederherstellungsstrategien münden. Unternehmen sollten unbedingt wissen, wie lange es dauert, ihre Anwendungen und Systeme in der Cloud wiederherzustellen – und wie viele Daten im Falle einer Störung verloren gehen könnten. RTOs und RPOs auf die Cloud-Funktionen abzustimmen, hilft dabei, realistische Erwartungen festzulegen und ermöglicht eine angemessene Wiederherstellungsplanung. Kommunikation und Stakeholder-Management: Wirksame Kommunikation ist im Fall einer Katastrophe essenziell: Unternehmen müssen klare Kommunikationskanäle und -protokolle einrichten, um Stakeholder, Mitarbeiter und Kunden über die Auswirkungen von Geschäftsunterbrechungen und die Schritte zur Wiederherstellung zu informieren. Dieser Plan sollte in schriftlicher Form vorliegen. Wird dieser Punkt vernachlässigt, ist das für die Firmen in der Regel wesentlich kostspieliger als der Schaden, der durch Datenverletzungen oder -verlust entsteht. Es muss ein solides Regelwerk geben, das genau festlegt, wer zu welchem Zweck kontaktiert wird und wie der Vorfall innerhalb und außerhalb des Unternehmens kommuniziert wird. All diese Maßnahmen lassen sich relativ kostengünstig einführen. Sobald diese Lösungen implementiert sind und einige Betriebskosten wegfallen (etwa für Backup und Recovery innerhalb der Cloud), ist es in der Regel günstiger, externe SaaS-basierte Backup- und Recovery-Services in Anspruch zu nehmen. (fm) Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

5 Disaster-Recovery-Tipps: So geht Business Continuity in der Cloud​ Wie gut sind Sie gegen Cloud-Katastrophen gewappnet?
Foto: Evgeniyqw – shutterstock.com

Es ist Freitagnachmittag. Plötzlich ruft Ihr CIO Sie an und teilt Ihnen mit, dass Daten von einem Public-Cloud-Server verschwunden sind und er die so schnell wie möglich wiederbenötigt. Doch es kommt noch schlimmer:

Es liegen keine aktuellen Sicherungskopien der Daten vor. Bei den Backups, die Ihr Cloud-Anbieter in Ihrem Namen erstellt, handelt es sich lediglich um Kernsystem-Backups. Diese sind also für Ihre Zwecke unbrauchbar.

Es existieren weder eine Business Continuity und Disaster Recovery (BCDR) -Strategie, noch Prozesse oder ein Playbook, die im Fall von Sicherheitsvorfällen oder Ausfällen weiterhelfen könnten. Eine häufige Fehlannahme: In der Cloud geschieht das automatisch.

Neben diesen fatalen Missverständnissen ist auch die Annahme weit verbreitet, dass diejenigen, die für den Betrieb und die Sicherheit von Cloud-Systemen zuständig sind, das Problem schon im Griff haben werden.

Der traditionelle BCDR-Ansatz fokussiert auf physische Infrastrukturen und On-Premises-Lösungen. Für Unternehmen gilt es nun, sich diesbezüglich an die dynamische Natur der Cloud anzupassen. Flexibilität, Skalierbarkeit und Kosteneffizienz dieser Systeme bringen schließlich auch neue Komplexitäten und Schwachstellen mit sich. Entsprechend sollten Unternehmen auf moderne Business-Continuity- und Disaster-Recovery-Methoden setzen.

That moment when you wish you had a Disaster Recovery plan.#CloudArchitect #FunOps #DevOps #DevOops #Meme #CloudDisasterRecovery pic.twitter.com/prRtjrSCLx— __ubk (@__ubk) May 7, 2023

5 Disaster-Recovery-Tipps für die Cloud

Für die meisten Cloud-Anbieter besteht zwar ein finanzieller Anreiz, sich um die Betriebszeit Ihrer Systeme zu kümmern – und viele Anbieter verfügen auch über automatisierte BCDR-Prozesse und -Mechanismen. Dennoch handelt es sich immer noch um ein Shared-Responsibility-Modell. Soll heißen: Ihr Anbieter sorgt dafür, dass alles läuft, aber Sie sind weiterhin für den Schutz Ihrer Daten verantwortlich. Gleiches gilt für die Bereiche Datensicherheit, -Governance und Disaster Recovery.

Folgende fünf Punkte sollten Unternehmen in Angriff nehmen, um Ihre Cloud-Systeme in Sachen Business Continuity und Disaster Recovery bestmöglich aufzustellen:

Testing und Validierung: Viele Unternehmen unterschätzen, wie wichtig es ist, ihre Disaster-Recovery-Pläne regelmäßig zu testen und zu validieren. Erstgenanntes gewährleistet, dass die Disaster-Recovery-Mechanismen wie erwartet funktionieren und die Wiederherstellungsziele innerhalb des gewünschten Zeitrahmens erreicht werden können. Wird das Testing vernachlässigt, kann das zu Fehleinschätzungen über die Recovery-Fähigkeiten und letzten Endes dazu führen, dass im Katastrophenfall nicht gehandelt werden kann.

Datenreplikation und -Backup: Möglicherweise vernachlässigen es einige Unternehmen auch, in Sachen Cloud robuste Data-Replication- und Backup-Strategien zu implementieren. Sich bei der Datenredundanz ausschließlich auf die Infrastruktur des Cloud-Anbieters zu verlassen, ist allerdings riskant. Um vor Datenverlust oder -beschädigung geschützt zu sein, sind angemessene Backups unverzichtbar, auch an Offsite-Standorten. Dass Daten, die auf Cloud-basierten Systemen gespeichert sind, bereits geschützt sind, entspricht selten der Wahrheit. Gehen Sie stattdessen davon aus, dass es keinen Schutz gibt und dass Sie allein für Backup und Recovery verantwortlich sind.

Geografische Redundanz: Cloud-Anbieter bieten geografisch verteilte Rechenzentren an. Unternehmen, die versäumen, redundante Cloud-Implementierungen über mehrere Regionen hinweg einzurichten, schaffen im Ernstfall einen Single Point of Failure. Geografisch redundante Systeme ermöglichen es hingegen, regionale Störungen auszugleichen. Es kann in diesem Zusammenhang Sinn machen, auf Backup- und Recovery-Lösungen in SaaS-Form zu setzen – geografische Redundanz gehört hier im Regelfall mit zum Servicepaket.

Recovery Time Objectives (RTO) und Recovery Point Objectives (RPO): Die Definition und Abstimmung von RTOs und RPOs mit Cloud-Funktionen zu vernachlässigen, kann in ungenügende Wiederherstellungsstrategien münden. Unternehmen sollten unbedingt wissen, wie lange es dauert, ihre Anwendungen und Systeme in der Cloud wiederherzustellen – und wie viele Daten im Falle einer Störung verloren gehen könnten. RTOs und RPOs auf die Cloud-Funktionen abzustimmen, hilft dabei, realistische Erwartungen festzulegen und ermöglicht eine angemessene Wiederherstellungsplanung.

Kommunikation und Stakeholder-Management: Wirksame Kommunikation ist im Fall einer Katastrophe essenziell: Unternehmen müssen klare Kommunikationskanäle und -protokolle einrichten, um Stakeholder, Mitarbeiter und Kunden über die Auswirkungen von Geschäftsunterbrechungen und die Schritte zur Wiederherstellung zu informieren. Dieser Plan sollte in schriftlicher Form vorliegen. Wird dieser Punkt vernachlässigt, ist das für die Firmen in der Regel wesentlich kostspieliger als der Schaden, der durch Datenverletzungen oder -verlust entsteht. Es muss ein solides Regelwerk geben, das genau festlegt, wer zu welchem Zweck kontaktiert wird und wie der Vorfall innerhalb und außerhalb des Unternehmens kommuniziert wird.

All diese Maßnahmen lassen sich relativ kostengünstig einführen. Sobald diese Lösungen implementiert sind und einige Betriebskosten wegfallen (etwa für Backup und Recovery innerhalb der Cloud), ist es in der Regel günstiger, externe SaaS-basierte Backup- und Recovery-Services in Anspruch zu nehmen. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

5 Disaster-Recovery-Tipps: So geht Business Continuity in der Cloud​ Weiterlesen »

Anthropic expandiert in Europa​

Allgemein

Finanziell gut ausgestattet, geht Anthropic die Expansion in Europa an. T. Schneider / Shutterstock Anthropic plant, mehr als 100 neue Stellen in ganz Europa zu besetzen. Die neuen Stellen umfassen die Bereiche Vertrieb, Technik, Forschung und Geschäftsbetrieb. Die meisten Neueinstellungen konzentrieren sich auf Dublin und London, so ein Bericht von Reuters.  Das Unternehmen hat außerdem den ehemaligen Stripe-Manager Guillaume Princen zum Chef für Europa, den Nahen Osten und Afrika ernannt.  Der Schritt wurde durch eine Finanzspritze in Höhe von 3,5 Milliarden Dollar unterstützt, die Anthropic im März erhielt. Im Monat zuvor hatte das Unternehmen Claude 3.7 Sonnet auf den Markt gebracht, sein bisher fortschrittlichstes KI-Modell und das erste mit Hybrid-Reasoning-Fähigkeiten.  Expansion und Lokalisierung im Fokus   Marktbeobachter werten die Expansion nach Europa als Zeichen dafür, dass Anthropic seine globale Präsenz angesichts der steigenden Nachfrage nach unternehmenstauglichen KI-Tools weiter ausbauen will.  „Jedes KI-Startup, das eine Milliarde Dollar eingesammelt hat, kämpft um die globale Vorherrschaft“, sagt Hyoun Park, CEO und Chefanalyst von Amalgam Insights. „Die jüngste 3,5-Milliarden-Dollar-Runde von Anthropic ist keine Ausnahme: Das Unternehmen will der führende Anbieter von KI-Modellen in Amerika, Europa, Asien und Afrika werden. Um dieses Wachstum zu ermöglichen, macht es Sinn, dass sich die europäischen Neueinstellungen vor allem auf Vertrieb, Marketing und Technik konzentrieren.“  Der regionale Vorstoß des Unternehmens ist auch ein Zeichen für die wachsende Bedeutung der Lokalisierung in der KI-Entwicklung, zumal regionale Vorschriften und Anreize die Entwicklung und den Einsatz der Technologien beeinflussen.   „Indem Anthropic Mitarbeiter vor Ort in Europa einstellt, könnte das Unternehmen sicherstellen, dass seine Angebote den europäischen Anforderungen entsprechen“, folgert Abhishek Sengupta, Practice Director bei der Everest Group. Hier gebe es Unterschiede zu den USA – insbesondere bei der KI-Governance. „Ein weiterer Grund sind mögliche geschäftliche Anreize, da immer mehr Länder Mittel für die Entwicklung eines lokalen KI-Ökosystems bereitstellen wollen.“  Konkurrenz belebt das Geschäft   Die wachsende Präsenz von Anthropic in Europa könnte den Beginn eines direkten Wettbewerbs mit Unternehmen signalisieren, die sich als regional konforme KI-Anbieter positionieren. So weist Park darauf hin, dass Anthropic damit frontal das kanadische KI-Start-up Cohere angreife. Das Unternehmen positioniert sich aktiv als europäische, EU-konforme Alternative.  Gleichzeitig komme diese Belebung des Wettbewerbs auf dem Markt auch anderen Akteuren entgegen, da die EU für ihr aggressives Vorgehen gegen Monopole bekannt sei, so der Analyst. „Wenn sich Anthropic stärker auf die EU konzentriert, haben Cohere, OpenAI, Microsoft, Google und andere KI-Unternehmen möglicherweise mehr Spielraum, um dort Geschäfte zu machen.“  Für KI-Firmen mit globalen Ambitionen macht es Park zufolge hingegen wenig Sinn, eine größere Präsenz in der EU aufzubauen. „Es sieht so aus, als ob es in naher Zukunft weniger KI-Regulierung in den USA geben wird, wovon Meta, OpenAI und xAI profitieren könnten“, fügt der Analyst hinzu. Gleichzeitig werde die EU in naher Zukunft wahrscheinlich einen Großteil der globalen KI-Politik der Ersten Welt bestimmen, da andere globale Zentren der Ersten Welt zögerten, KI-Standards und -Governance zu definieren. Park merkt zum Schluss noch an, dass Anthropics besonnener und sicherheitsorientierter Ansatz besser zu den Anforderungen stark regulierter Märkte passen könnte. (mb) 

Anthropic expandiert in Europa​ Finanziell gut ausgestattet, geht Anthropic die Expansion in Europa an. T. Schneider / Shutterstock

Anthropic plant, mehr als 100 neue Stellen in ganz Europa zu besetzen. Die neuen Stellen umfassen die Bereiche Vertrieb, Technik, Forschung und Geschäftsbetrieb. Die meisten Neueinstellungen konzentrieren sich auf Dublin und London, so ein Bericht von Reuters. 

Das Unternehmen hat außerdem den ehemaligen Stripe-Manager Guillaume Princen zum Chef für Europa, den Nahen Osten und Afrika ernannt. 

Der Schritt wurde durch eine Finanzspritze in Höhe von 3,5 Milliarden Dollar unterstützt, die Anthropic im März erhielt. Im Monat zuvor hatte das Unternehmen Claude 3.7 Sonnet auf den Markt gebracht, sein bisher fortschrittlichstes KI-Modell und das erste mit Hybrid-Reasoning-Fähigkeiten. 

Expansion und Lokalisierung im Fokus  

Marktbeobachter werten die Expansion nach Europa als Zeichen dafür, dass Anthropic seine globale Präsenz angesichts der steigenden Nachfrage nach unternehmenstauglichen KI-Tools weiter ausbauen will. 

„Jedes KI-Startup, das eine Milliarde Dollar eingesammelt hat, kämpft um die globale Vorherrschaft“, sagt Hyoun Park, CEO und Chefanalyst von Amalgam Insights. „Die jüngste 3,5-Milliarden-Dollar-Runde von Anthropic ist keine Ausnahme: Das Unternehmen will der führende Anbieter von KI-Modellen in Amerika, Europa, Asien und Afrika werden. Um dieses Wachstum zu ermöglichen, macht es Sinn, dass sich die europäischen Neueinstellungen vor allem auf Vertrieb, Marketing und Technik konzentrieren.“ 

Der regionale Vorstoß des Unternehmens ist auch ein Zeichen für die wachsende Bedeutung der Lokalisierung in der KI-Entwicklung, zumal regionale Vorschriften und Anreize die Entwicklung und den Einsatz der Technologien beeinflussen.  

„Indem Anthropic Mitarbeiter vor Ort in Europa einstellt, könnte das Unternehmen sicherstellen, dass seine Angebote den europäischen Anforderungen entsprechen“, folgert Abhishek Sengupta, Practice Director bei der Everest Group. Hier gebe es Unterschiede zu den USA – insbesondere bei der KI-Governance. „Ein weiterer Grund sind mögliche geschäftliche Anreize, da immer mehr Länder Mittel für die Entwicklung eines lokalen KI-Ökosystems bereitstellen wollen.“ 

Konkurrenz belebt das Geschäft  

Die wachsende Präsenz von Anthropic in Europa könnte den Beginn eines direkten Wettbewerbs mit Unternehmen signalisieren, die sich als regional konforme KI-Anbieter positionieren. So weist Park darauf hin, dass Anthropic damit frontal das kanadische KI-Start-up Cohere angreife. Das Unternehmen positioniert sich aktiv als europäische, EU-konforme Alternative. 

Gleichzeitig komme diese Belebung des Wettbewerbs auf dem Markt auch anderen Akteuren entgegen, da die EU für ihr aggressives Vorgehen gegen Monopole bekannt sei, so der Analyst. „Wenn sich Anthropic stärker auf die EU konzentriert, haben Cohere, OpenAI, Microsoft, Google und andere KI-Unternehmen möglicherweise mehr Spielraum, um dort Geschäfte zu machen.“ 

Für KI-Firmen mit globalen Ambitionen macht es Park zufolge hingegen wenig Sinn, eine größere Präsenz in der EU aufzubauen. „Es sieht so aus, als ob es in naher Zukunft weniger KI-Regulierung in den USA geben wird, wovon Meta, OpenAI und xAI profitieren könnten“, fügt der Analyst hinzu. Gleichzeitig werde die EU in naher Zukunft wahrscheinlich einen Großteil der globalen KI-Politik der Ersten Welt bestimmen, da andere globale Zentren der Ersten Welt zögerten, KI-Standards und -Governance zu definieren. Park merkt zum Schluss noch an, dass Anthropics besonnener und sicherheitsorientierter Ansatz besser zu den Anforderungen stark regulierter Märkte passen könnte. (mb)

Anthropic expandiert in Europa​ Weiterlesen »

Diese 12 Tech-Disruptoren werden Geschäftssysteme prägen​

Allgemein

Gartner nennt zwölf technologische Umwälzungen für die Zukunft der Geschäftssysteme, von denen vier besonders wichtig werden sollen.  shutterstock – metamorworks Laut einer Studie von Gartner sollten Technologieführer in den nächsten fünf Jahren vor allem innovative Techniken wie generative KI (GenAI), Code-Architektur, Desinformationssicherheit und Erdintelligenz (Geospatial Intelligence) priorisieren. Gartner Research „Diese Technologien bieten Wettbewerbschancen und werden bald zum Standard in Unternehmen“, so die Analysten. Darüber hinaus sollen sie neue Lösungen für Geschäftsprozesse schaffen und das Wachstum spezialisierter Sprachmodelle fördern. GenAI für mehr Dynamik Die Gartner-Experten gehen ebenfalls davon aus, dass GenAI-Lösungen, die Freiform-Text und Multimedia nutzen, die traditionellen, formularbasierten Benutzeroberflächen in Unternehmenssoftware ersetzen und neue Nutzungsmöglichkeiten schaffen werden. Das Analystenhaus prognostiziert auch, dass bis 2029 mehr als 50 Prozent der Benutzerinteraktionen in Unternehmen große Sprachmodelle einsetzen werden, aktuell sind es nur fünf Prozent. Ziel ist es, die traditionelle Benutzeroberfläche zu umgehen. Schutz vor externen Bedrohungen Ein neues Fachgebiet ist Desinformationssicherheit, das sich mit externen Bedrohungen wie Deepfakes, Identitätsfälschung und Reputationsangriffen befasst. Ziel ist es, Unternehmen beim Schutz ihrer Marke und Online-Präsenz zu unterstützen. Desinformationsangriffe nutzen schwer kontrollierbare Plattformen wie soziale Medien. Laut den Analysten sollten Technologieführer KI und maschinelles Lernen einsetzen, um Inhalte zu überprüfen und ihre Herkunft nachzuverfolgen. „Bis 2030 werden über die Hälfte der Unternehmen entsprechende Schutztechnologien nutzen“, so Gartner. Im Jahr 2024 waren es weniger als fünf Prozent. Intelligenz der Erde Die Studienmacher gehen zudem davon aus, dass bis zum Jahr 2028 acht von zehn der wichtigsten Objekte auf der Erdoberfläche weltweit von aktiven Satelliten überwacht werden. Earth Intelligence nutzt hierfür Künstliche Intelligenz (KI) um Satelliten-, Luft- und Bodendaten zu analysieren, die Ressourcen und Aktivitäten der Erde zu überwachen und Erkenntnisse für die Entscheidungsfindung zu gewinnen. Hierbei liefert diese Technologie nicht nur Karten und Diagramme, sondern auch umfassende Datenanalysen zu Themen wie Rohstoffproduktion, Landwirtschaft oder wirtschaftlicher Entwicklung. Auch die Bundesregierung verfügt seit 2025 über die Deutsche Gruppe zur Erdbeobachtung (D-GEO) als nationale Koordinationsstruktur. Ursprünglich vom US-Verteidigungsministerium genutzt, findet es heute branchenübergreifend Anwendung. Der Markt gliedert sich dabei in Datenerhebung, Analyse und branchenspezifische Nutzung. „Unternehmen können Earth Intelligence strategisch einsetzen, um bestehende Systeme zu optimieren oder neue Wettbewerbsvorteile zu schaffen“, erklären die Analysten. 

Diese 12 Tech-Disruptoren werden Geschäftssysteme prägen​ Gartner nennt zwölf technologische Umwälzungen für die Zukunft der Geschäftssysteme, von denen vier besonders wichtig werden sollen. 
shutterstock – metamorworks

Laut einer Studie von Gartner sollten Technologieführer in den nächsten fünf Jahren vor allem innovative Techniken wie

generative KI (GenAI),

Code-Architektur,

Desinformationssicherheit und

Erdintelligenz (Geospatial Intelligence)

priorisieren.

Gartner Research

„Diese Technologien bieten Wettbewerbschancen und werden bald zum Standard in Unternehmen“, so die Analysten. Darüber hinaus sollen sie neue Lösungen für Geschäftsprozesse schaffen und das Wachstum spezialisierter Sprachmodelle fördern.

GenAI für mehr Dynamik

Die Gartner-Experten gehen ebenfalls davon aus, dass GenAI-Lösungen, die Freiform-Text und Multimedia nutzen, die traditionellen, formularbasierten Benutzeroberflächen in Unternehmenssoftware ersetzen und neue Nutzungsmöglichkeiten schaffen werden.

Das Analystenhaus prognostiziert auch, dass bis 2029 mehr als 50 Prozent der Benutzerinteraktionen in Unternehmen große Sprachmodelle einsetzen werden, aktuell sind es nur fünf Prozent. Ziel ist es, die traditionelle Benutzeroberfläche zu umgehen.

Schutz vor externen Bedrohungen

Ein neues Fachgebiet ist Desinformationssicherheit, das sich mit externen Bedrohungen wie Deepfakes, Identitätsfälschung und Reputationsangriffen befasst. Ziel ist es, Unternehmen beim Schutz ihrer Marke und Online-Präsenz zu unterstützen.

Desinformationsangriffe nutzen schwer kontrollierbare Plattformen wie soziale Medien. Laut den Analysten sollten Technologieführer KI und maschinelles Lernen einsetzen, um Inhalte zu überprüfen und ihre Herkunft nachzuverfolgen.

„Bis 2030 werden über die Hälfte der Unternehmen entsprechende Schutztechnologien nutzen“, so Gartner. Im Jahr 2024 waren es weniger als fünf Prozent.

Intelligenz der Erde

Die Studienmacher gehen zudem davon aus, dass bis zum Jahr 2028 acht von zehn der wichtigsten Objekte auf der Erdoberfläche weltweit von aktiven Satelliten überwacht werden.

Earth Intelligence nutzt hierfür Künstliche Intelligenz (KI) um

Satelliten-, Luft- und Bodendaten zu analysieren,

die Ressourcen und Aktivitäten der Erde zu überwachen und

Erkenntnisse für die Entscheidungsfindung zu gewinnen.

Hierbei liefert diese Technologie nicht nur Karten und Diagramme, sondern auch umfassende Datenanalysen zu Themen wie

Rohstoffproduktion,

Landwirtschaft oder

wirtschaftlicher Entwicklung.

Auch die Bundesregierung verfügt seit 2025 über die Deutsche Gruppe zur Erdbeobachtung (D-GEO) als nationale Koordinationsstruktur.

Ursprünglich vom US-Verteidigungsministerium genutzt, findet es heute branchenübergreifend Anwendung. Der Markt gliedert sich dabei in Datenerhebung, Analyse und branchenspezifische Nutzung. „Unternehmen können Earth Intelligence strategisch einsetzen, um bestehende Systeme zu optimieren oder neue Wettbewerbsvorteile zu schaffen“, erklären die Analysten.

Diese 12 Tech-Disruptoren werden Geschäftssysteme prägen​ Weiterlesen »

Nach oben scrollen
×