Computerhaus Quickborn

Allgemein

Logitech Flip Folio im Test: iPad-Hülle mit abnehmbarer Bluetooth-Tastatur​

Allgemein

Eugen Wegmann Auf einen Blick Pro Integrierter, stufenlos verstellbarer Ständer iPad hält magnetisch Tastatur lässt sich abnehmen Lange Batterielaufzeit Kontra Teuer Kein Trackpad Keine Hintergrundbeleuchtung Tastatur könnte besser befestigt sein Fazit Das Logitech Flip Folio stellt eine interessante Alternative zu Apples Smart Folio und Magic Keyboard dar, da es gewissermaßen dazwischen positioniert ist. Im Prinzip erhalten Sie mit dem Flip Folio eine Hülle, die dem Smart Folio in vielerlei Hinsicht sehr ähnlich ist, einiges sogar viel besser kann, und eine sehr gute, kompakte Bluetooth-Tastatur, die bei der Verwendung nicht direkt am iPad klemmt, wie beim Magic Keyboard, sondern flexibel platziert werden kann. Logitech ist einer der prominentesten Hersteller für hochwertiges Apple-Zubehör, und mit dem Logitech Flip Folio hat das Unternehmen Mitte Juni ein neues Modell auf den Markt gebracht. Optisch erinnert es ein wenig an das Smart Folio von Apple, kann aber viel, viel mehr. Dafür liegt es preislich aber auch näher an Apples Magic Keyboard, wenn auch trotzdem deutlich darunter. 179,99 Euro verlangt Logitech für die 11-Zoll-Variante, 199,99 Euro für die 13-Zoll-Variante. Im Handel gibt es noch keine nennenswerten Rabatte. Wir werfen einen Blick auf das neue Produkt. Eugen Wegmann Logitech Flip Folio – die Hülle Das Logitech Flip Folio ist für beide Größen der letzten paar Generationen des iPad Air und iPad Pro erhältlich und kommt in drei Farben: Grafit mit türkisen Akzenten, Hellgrau mit orangen Akzenten und Lila mit dunkleren Lila-Akzenten. Gut, das ist aktuell nur die halbe Wahrheit, denn zur Einführung Mitte Juni gibt es nur die dunkelgraue Variante; die anderen beiden kommen erst im Herbst. Neben der Optik ist die andere Gemeinsamkeit, die das Flip Folio mit Apples Smart Folio hat, dass es magnetisch am iPad hält, und das war es schon. Das allein ist ein großer Unterschied zu den anderen beliebten iPad-Hüllen von Logitech, dem Combo Touch oder dem Slim Folio (Pro), in die das iPad gesteckt wird, wie ein iPhone in eine Smartphone-Hülle. Magnetisch ist das alles viel eleganter. Der wohl größte Unterschied besteht darin, dass der Deckel des Flip Folio in der Mitte gefaltet werden kann und so als Ständer fürs iPad fungiert. Scharniere im Inneren sorgen dafür, dass sich der Winkel stufenlos verstellen lässt. In der steilsten Position steht das iPad ungefähr in einem Winkel von 60 bis 70 Grad, in der flachsten zwischen 10 und 20 Grad. Darüber geht es einfach nicht weiter, darunter springt der Deckel mit einem merklichen „Klack“ in die flache Position zurück. Mein einziger Kritikpunkt an diesem Mechanismus ist, dass es im ersten Moment nicht ersichtlich ist, in welche Richtung man den Deckel klappen muss, da Innen- und Außenseite identisch sind. Dazu kommt erschwerend hinzu, dass der Knick, um über die erste Stufe zu kommen, ziemlich schwerfällig ist und man ins Grübeln kommt, ob man die Hülle nun in die richtige Richtung klappt oder nicht. Frisch aus der Verpackung genommen befindet sich an der richtigen Stelle noch ein Sticker, von dem ich mir aber nur schwer vorstellen kann, dass er permanent dort bleiben soll. Auf der Innenseite des Falzes befindet sich noch ein kleiner Vorsprung in der jeweiligen Akzentfarbe, der zusätzlich für Stabilität sorgt und außerdem als kleine „Fensterbank“ dient, auf der ein iPad auch hochkant stehen kann (weil die magnetische Halterung nur für die Horizontale ausgelegt ist). In dieser Konfiguration hat auch noch ein iPhone auf dem Vorsprung Platz und kann als kleiner Zweitbildschirm dienen. Mit einem iPhone 16 Pro Max wird es zwar selbst bei der 13-Zoll-Variante etwas eng, es funktioniert aber trotzdem tadellos. Eugen Wegmann Logitech Flip Folio – die Tastatur Schaut man sich das Produkt weiter an, stellt man fest: Das Flip Folio ist weder eine reine Hülle noch eine Tastaturhülle. Vielmehr ist es ein Set bestehend aus einer Hülle und einer Bluetooth-Tastatur, die wie das iPad selbst magnetisch an der Hülle befestigt wird. Je nach Hüllengröße – 11 Zoll beziehungsweise 13 Zoll – hat auch die Tastatur eine andere Breite, wobei sich am Layout insgesamt nichts ändert; nur die Tasten sind etwas breiter und deshalb besser zu treffen, weshalb mir die große Variante besser gefällt als die kleine, aber in der Regel sucht man sich ja eine passende Hülle fürs iPad aus und nicht umgekehrt. Wo genau die Tastatur bei Nichtbenutzung geheftet wird, ist im Gegensatz zur Faltrichtung leicht zu erkennen, denn auf der Außenseite des Deckels befindet sich eine Aussparung, in die sie perfekt hineinpasst. Wie das iPad hält sie magnetisch, allerdings nicht ganz so stark. Nimmt man mit der kompletten Hülle zu viel Schwung, fällt die Tastatur auch gerne mal ab. Im Alltag dürfte das kein Problem darstellen, allerdings ist die nötige Kraft dafür auch nicht so groß, dass ich eine falsche Benutzung komplett ausschließen würde. Eugen Wegmann Bei der Tastatur selbst handelt es sich mit großer Sicherheit um eine leichte Abwandlung der Logitech Keys-to-Go 2, die das Unternehmen vor etwa einem Jahr vorgestellt hat. Das Layout ist identisch, wenn auch ans iPad angepasst, der Druckpunkt auch, selbst das Batteriefach und der Ein-aus-Schalter auf der Rückseite, ein Trackpad fehlt auch. Ich bin mir sicher, dass mir dieselben Innereien entgegenkommen würden, wenn ich die beiden Tastaturen zum Vergleich öffnen würde. Es fehlt der Deckel und das Gehäuse ist etwas abgerundet, aber ansonsten sind sie weitestgehend identisch. Wenn Sie nur eine Tastatur für Ihr iPad suchen, sollten Sie eher einen Blick auf die Keys-to-Go 2 werfen, da die Tastatur des Flip Folio nicht separat erhältlich ist. Wie praktisch alle Logitech-Tastaturen verbindet sich auch die des Flip Folio per Bluetooth mit bis zu drei Geräten gleichzeitig und kann per Knopfdruck zwischen ihnen wechseln. Als Stromversorgung setzt Logitech nicht auf einen integrierten Akku, sondern auf vier CR2016-Knopfzellen (tatsächlich noch ein Unterschied zur Keys-to-Go 2, die zwei CR2032-Knopfzellen benötigt). Damit hält die Tastatur laut Angaben von Logitech bis zu zwei Jahre durch, zumindest bei einer geschätzten Verwendung von zwei Stunden am Tag. Logitech bedient sich bei dieser absurden Laufzeit eines einfachen Tricks: Der Tastatur fehlt jegliche Form von Hintergrundbeleuchtung. Wenn Sie häufig in schlecht beleuchteten Umgebungen arbeiten, sollten Sie sich dessen bewusst sein. Wenn Sie mehr über die Tastatur selbst erfahren möchten, möchte ich an dieser Stelle auf den Test der Keys-to-Go 2 verweisen, da sich die beiden einfach unheimlich ähnlich sind. Eugen Wegmann Worauf sollten Sie vor dem Kauf achten? Auch wenn ich das Logitech Flip Folio grundsätzlich empfehlen kann, gibt es einige Punkte, die Sie vor der Anschaffung beachten sollten. Zum einen fehlt dem Set ein Touchpad. Das ist bei einem iPad vermutlich nicht so schlimm, weil Sie ohnehin einen riesigen Touchscreen vor sich haben. Aber besonders mit den frisch angekündigten Änderungen an iPadOS 26, die das iPad näher an den Mac bringen werden, kann es mitunter etwas nervig sein, ständig die Hand von der Tastatur zu nehmen und auf dem iPad herumzutippen. Das sollten Sie zumindest im Hinterkopf haben. Und dann ist da noch das Problem mit der Stabilität: Auf der einen Seite können Sie ein iPad mit Magic Keyboard wie einen Laptop auf dem Schoß, mit überschlagenen Beinen, im Schneidersitz oder auf anderen unebenen Oberflächen verwenden, weil iPad, Hülle und Tastatur fest miteinander verbunden sind. Da die Tastatur beim Logitech Flip Folio aber von iPad und Hülle getrennt ist, werden die beschriebenen Szenarios praktisch unmöglich. Auf der anderen Seite eröffnen sich andere Möglichkeiten: Gerade weil die Tastatur vom iPad getrennt ist, können Sie beispielsweise die Entfernung, in der Sie das iPad vor sich platzieren, besser anpassen. Im Zug und Flugzeug können Sie es problemlos selbst auf die kleinsten Tischchen stellen und die Tastatur unabhängig davon auf dem Schoß verwenden. Das Logitech Flip Folio ist aktuell direkt bei Logitech, bei Mediamarkt, bei Saturn und einigen kleineren Händlern erhältlich, merkwürdigerweise aber nicht bei Amazon, obwohl das Produkt zur Vorstellung dort noch gelistet war, und kostet 179,99 Euro für die 11-Zoll-Variante beziehungsweise 199,99 Euro für die 13-Zoll-Version. (PC-Welt) 

Logitech Flip Folio im Test: iPad-Hülle mit abnehmbarer Bluetooth-Tastatur​ Eugen Wegmann

Auf einen Blick

Pro

Integrierter, stufenlos verstellbarer Ständer

iPad hält magnetisch

Tastatur lässt sich abnehmen

Lange Batterielaufzeit

Kontra

Teuer

Kein Trackpad

Keine Hintergrundbeleuchtung

Tastatur könnte besser befestigt sein

Fazit

Das Logitech Flip Folio stellt eine interessante Alternative zu Apples Smart Folio und Magic Keyboard dar, da es gewissermaßen dazwischen positioniert ist. Im Prinzip erhalten Sie mit dem Flip Folio eine Hülle, die dem Smart Folio in vielerlei Hinsicht sehr ähnlich ist, einiges sogar viel besser kann, und eine sehr gute, kompakte Bluetooth-Tastatur, die bei der Verwendung nicht direkt am iPad klemmt, wie beim Magic Keyboard, sondern flexibel platziert werden kann.

Logitech ist einer der prominentesten Hersteller für hochwertiges Apple-Zubehör, und mit dem Logitech Flip Folio hat das Unternehmen Mitte Juni ein neues Modell auf den Markt gebracht. Optisch erinnert es ein wenig an das Smart Folio von Apple, kann aber viel, viel mehr.

Dafür liegt es preislich aber auch näher an Apples Magic Keyboard, wenn auch trotzdem deutlich darunter. 179,99 Euro verlangt Logitech für die 11-Zoll-Variante, 199,99 Euro für die 13-Zoll-Variante. Im Handel gibt es noch keine nennenswerten Rabatte. Wir werfen einen Blick auf das neue Produkt.

Eugen Wegmann

Logitech Flip Folio – die Hülle

Das Logitech Flip Folio ist für beide Größen der letzten paar Generationen des iPad Air und iPad Pro erhältlich und kommt in drei Farben: Grafit mit türkisen Akzenten, Hellgrau mit orangen Akzenten und Lila mit dunkleren Lila-Akzenten. Gut, das ist aktuell nur die halbe Wahrheit, denn zur Einführung Mitte Juni gibt es nur die dunkelgraue Variante; die anderen beiden kommen erst im Herbst.

Neben der Optik ist die andere Gemeinsamkeit, die das Flip Folio mit Apples Smart Folio hat, dass es magnetisch am iPad hält, und das war es schon. Das allein ist ein großer Unterschied zu den anderen beliebten iPad-Hüllen von Logitech, dem Combo Touch oder dem Slim Folio (Pro), in die das iPad gesteckt wird, wie ein iPhone in eine Smartphone-Hülle. Magnetisch ist das alles viel eleganter.

Der wohl größte Unterschied besteht darin, dass der Deckel des Flip Folio in der Mitte gefaltet werden kann und so als Ständer fürs iPad fungiert. Scharniere im Inneren sorgen dafür, dass sich der Winkel stufenlos verstellen lässt. In der steilsten Position steht das iPad ungefähr in einem Winkel von 60 bis 70 Grad, in der flachsten zwischen 10 und 20 Grad. Darüber geht es einfach nicht weiter, darunter springt der Deckel mit einem merklichen „Klack“ in die flache Position zurück.

Mein einziger Kritikpunkt an diesem Mechanismus ist, dass es im ersten Moment nicht ersichtlich ist, in welche Richtung man den Deckel klappen muss, da Innen- und Außenseite identisch sind. Dazu kommt erschwerend hinzu, dass der Knick, um über die erste Stufe zu kommen, ziemlich schwerfällig ist und man ins Grübeln kommt, ob man die Hülle nun in die richtige Richtung klappt oder nicht. Frisch aus der Verpackung genommen befindet sich an der richtigen Stelle noch ein Sticker, von dem ich mir aber nur schwer vorstellen kann, dass er permanent dort bleiben soll.

Auf der Innenseite des Falzes befindet sich noch ein kleiner Vorsprung in der jeweiligen Akzentfarbe, der zusätzlich für Stabilität sorgt und außerdem als kleine „Fensterbank“ dient, auf der ein iPad auch hochkant stehen kann (weil die magnetische Halterung nur für die Horizontale ausgelegt ist). In dieser Konfiguration hat auch noch ein iPhone auf dem Vorsprung Platz und kann als kleiner Zweitbildschirm dienen. Mit einem iPhone 16 Pro Max wird es zwar selbst bei der 13-Zoll-Variante etwas eng, es funktioniert aber trotzdem tadellos.

Eugen Wegmann

Logitech Flip Folio – die Tastatur

Schaut man sich das Produkt weiter an, stellt man fest: Das Flip Folio ist weder eine reine Hülle noch eine Tastaturhülle. Vielmehr ist es ein Set bestehend aus einer Hülle und einer Bluetooth-Tastatur, die wie das iPad selbst magnetisch an der Hülle befestigt wird. Je nach Hüllengröße – 11 Zoll beziehungsweise 13 Zoll – hat auch die Tastatur eine andere Breite, wobei sich am Layout insgesamt nichts ändert; nur die Tasten sind etwas breiter und deshalb besser zu treffen, weshalb mir die große Variante besser gefällt als die kleine, aber in der Regel sucht man sich ja eine passende Hülle fürs iPad aus und nicht umgekehrt.

Wo genau die Tastatur bei Nichtbenutzung geheftet wird, ist im Gegensatz zur Faltrichtung leicht zu erkennen, denn auf der Außenseite des Deckels befindet sich eine Aussparung, in die sie perfekt hineinpasst. Wie das iPad hält sie magnetisch, allerdings nicht ganz so stark. Nimmt man mit der kompletten Hülle zu viel Schwung, fällt die Tastatur auch gerne mal ab. Im Alltag dürfte das kein Problem darstellen, allerdings ist die nötige Kraft dafür auch nicht so groß, dass ich eine falsche Benutzung komplett ausschließen würde.

Eugen Wegmann

Bei der Tastatur selbst handelt es sich mit großer Sicherheit um eine leichte Abwandlung der Logitech Keys-to-Go 2, die das Unternehmen vor etwa einem Jahr vorgestellt hat. Das Layout ist identisch, wenn auch ans iPad angepasst, der Druckpunkt auch, selbst das Batteriefach und der Ein-aus-Schalter auf der Rückseite, ein Trackpad fehlt auch.

Ich bin mir sicher, dass mir dieselben Innereien entgegenkommen würden, wenn ich die beiden Tastaturen zum Vergleich öffnen würde. Es fehlt der Deckel und das Gehäuse ist etwas abgerundet, aber ansonsten sind sie weitestgehend identisch. Wenn Sie nur eine Tastatur für Ihr iPad suchen, sollten Sie eher einen Blick auf die Keys-to-Go 2 werfen, da die Tastatur des Flip Folio nicht separat erhältlich ist.

Wie praktisch alle Logitech-Tastaturen verbindet sich auch die des Flip Folio per Bluetooth mit bis zu drei Geräten gleichzeitig und kann per Knopfdruck zwischen ihnen wechseln. Als Stromversorgung setzt Logitech nicht auf einen integrierten Akku, sondern auf vier CR2016-Knopfzellen (tatsächlich noch ein Unterschied zur Keys-to-Go 2, die zwei CR2032-Knopfzellen benötigt). Damit hält die Tastatur laut Angaben von Logitech bis zu zwei Jahre durch, zumindest bei einer geschätzten Verwendung von zwei Stunden am Tag. Logitech bedient sich bei dieser absurden Laufzeit eines einfachen Tricks: Der Tastatur fehlt jegliche Form von Hintergrundbeleuchtung. Wenn Sie häufig in schlecht beleuchteten Umgebungen arbeiten, sollten Sie sich dessen bewusst sein.

Wenn Sie mehr über die Tastatur selbst erfahren möchten, möchte ich an dieser Stelle auf den Test der Keys-to-Go 2 verweisen, da sich die beiden einfach unheimlich ähnlich sind.

Eugen Wegmann

Worauf sollten Sie vor dem Kauf achten?

Auch wenn ich das Logitech Flip Folio grundsätzlich empfehlen kann, gibt es einige Punkte, die Sie vor der Anschaffung beachten sollten.

Zum einen fehlt dem Set ein Touchpad. Das ist bei einem iPad vermutlich nicht so schlimm, weil Sie ohnehin einen riesigen Touchscreen vor sich haben. Aber besonders mit den frisch angekündigten Änderungen an iPadOS 26, die das iPad näher an den Mac bringen werden, kann es mitunter etwas nervig sein, ständig die Hand von der Tastatur zu nehmen und auf dem iPad herumzutippen. Das sollten Sie zumindest im Hinterkopf haben.

Und dann ist da noch das Problem mit der Stabilität: Auf der einen Seite können Sie ein iPad mit Magic Keyboard wie einen Laptop auf dem Schoß, mit überschlagenen Beinen, im Schneidersitz oder auf anderen unebenen Oberflächen verwenden, weil iPad, Hülle und Tastatur fest miteinander verbunden sind. Da die Tastatur beim Logitech Flip Folio aber von iPad und Hülle getrennt ist, werden die beschriebenen Szenarios praktisch unmöglich.

Auf der anderen Seite eröffnen sich andere Möglichkeiten: Gerade weil die Tastatur vom iPad getrennt ist, können Sie beispielsweise die Entfernung, in der Sie das iPad vor sich platzieren, besser anpassen. Im Zug und Flugzeug können Sie es problemlos selbst auf die kleinsten Tischchen stellen und die Tastatur unabhängig davon auf dem Schoß verwenden.

Das Logitech Flip Folio ist aktuell direkt bei Logitech, bei Mediamarkt, bei Saturn und einigen kleineren Händlern erhältlich, merkwürdigerweise aber nicht bei Amazon, obwohl das Produkt zur Vorstellung dort noch gelistet war, und kostet 179,99 Euro für die 11-Zoll-Variante beziehungsweise 199,99 Euro für die 13-Zoll-Version.

(PC-Welt)

Logitech Flip Folio im Test: iPad-Hülle mit abnehmbarer Bluetooth-Tastatur​ Weiterlesen »

Introvertierte Menschen werden unterschätzt – als Mitarbeiter und Gründer​

Allgemein

Die Selbstständigkeit ermöglicht introvertierten Persönlichkeiten, eine gesunde Umgebung zu schaffen, statt sich an extrovertierten Strukturen in einer Festanstellung abzuarbeiten.TA design – Shutterstock 2541748473 Erzwungene Gruppenarbeit, Team-Meetings ohne Agenda, Förderung von Selbstvermarktung und Großraumbüros ohne Rückzugsmöglichkeit sorgen für Stress. Darüber hinaus tun Kommentare und Bewertungen ihr Übriges, die Menschen mit introvertierter Persönlichkeit in Schubladen zu stecken und sie als schwach anzusehen. Das führt oft dazu, dass sie sich im Job auf die weniger offensichtlichen Stärken fokussieren. Tatsächlich aber braucht es beides – nämlich gleichermaßen Introversion und Extraversion für ein gelungenes Miteinander.  Die Selbständigkeit und das Unternehmertum erfordern zwar, dass man die eigene Komfortzone öfter mal verlässt. Sie ermöglicht Introvertierten aber, eine gesunde Umgebung zu schaffen, statt sich an extrovertierten Strukturen in einer Festanstellung abzuarbeiten. Die Wissenschaft geht davon aus, dass 36 bis 50 Prozent der Menschen introvertiert sind. Es ist also an der Zeit, sich deren Stärken genauer ansehen.   Das sind die Superkräfte introvertierter Menschen:  – Konzentrationsfähigkeit: Introvertierte Selbständige arbeiten hoch konzentriert sowie fokussiert und liefern Qualität statt Quantität.  – Kreativität: Die stille Beobachtungsgabe, das intensive Nachdenken und der Perspektivenwechsel schaffen tiefe Einblicke in Probleme und die Entwicklung innovativer Lösungen.  – Empathie: Introvertierte Menschen sind oft auch hochsensibel und können dadurch unter anderem ‘zwischen den Zeilen lesen’. Sie nehmen nonverbal kommunizierte Veränderungen wahr und schaffen es so, sich in die Bedürfnisse der Kunden und Kundinnen besser hineinzuversetzen.  – Selbständigkeit: Unabhängig von äußeren Umständen schaffen sie es, sich selbst zu motivieren und selbständig alle Herausforderungen anzugehen.  – Hinterfragen: Introvertierte Menschen hinterfragen oft und viel. Was einerseits zwar dazu führt, dass sie meist kritisch sich selbst gegenüber sind, andererseits erkennen sie Schwachstellen rechtzeitig, die dadurch frühzeitig behoben werden können.  Das bedeutet nicht, dass nicht auch extrovertierte Menschen solche Stärken haben können. Sie sind bei introvertierten Menschen jedoch meist ausgeprägter.  Da introvertierte Selbständige gerne und gut für sich allein arbeiten können, kommt bei einer Gründung oft die Frage auf, was bei einer potenziellen Führungsrolle passiert. Können introvertierte Menschen führen?    Introvertierte Chefs sorgen für bedürfnisorientierte Umgebung Introvertierte Selbständige sind keine Alphatiere. Das heißt, nicht jede Entscheidung muss von ihnen selbst getroffen werden. Sie sind stattdessen hervorragend darin, Verantwortlichkeiten abzugeben und (auch stillere) Teammitglieder zu fördern.  Aufgrund der eigenen Introversion wissen sie außerdem die speziellen Persönlichkeitsmerkmale ihrer Mitarbeitenden zu schätzen und sorgen aktiv für eine bedürfnisorientierte Umgebung. Durch ihre ruhigere Ausstrahlung erwecken sie den Eindruck, umgänglicher und weniger impulsiv zu sein, was ihnen als Führungskraft möglicherweise Sympathiepunkte einbringt.  Introvertierte Führungskräfte suchen eher das Einzelgespräch, was dazu führt, dass wichtige Informationen nicht untergehen. Und sie sind offener für das Arbeiten im Homeoffice, da sie selbst die größte Energie aus einem ruhigen Umfeld ziehen.  Häufige Probleme, mit denen sich introvertierten Führungskräfte konfrontiert sehen, sind:  Eine schnelle Entscheidungsfindung fällt ihnen meist nicht leicht, wenn nicht alle Fakten auf dem Tisch liegen oder das Wenn und Aber nicht ausreichend geklärt ist. Das kann vor allem im Tagesgeschäft hinderlich sein.  Viel Kommunikation und Interaktion rauben introvertierten Menschen Energie und können eine Art Vermeidungsstrategie hervorrufen, die im Business-Kontext jedoch zu aufgeschobenen Problemen führt.  Und dann wäre da noch die Sichtbarkeit, ohne die ein Unternehmen nur sehr schwer erfolgreich wachsen kann. Akquise, Netzwerken, die Gewinnung von Kundinnen und Kunden – sich da hinter dem Logo oder gar den Mitarbeitenden zu verstecken, wird der eigenen Vision nicht gerecht.  Der Anspruch an Perfektion, den viele introvertierte Selbständige haben, gehört nicht nur hinterfragt, er sollte auch nicht an Mitarbeitende übertragen werden. Introvertierte Führungskräfte müssen zudem lernen, öfter die eigene Komfortzone zu verlassen. Das darf schrittweise passieren, im jeweiligen Rahmen. Übernehmen Introvertierte eine Führungsrolle, sollten sie folgendes beachten:    Tipp 1: Das richtige Netzwerk  Eine grundsolide Basis und enorme Hilfe für introvertierte Menschen ist das richtige Netzwerk aus Gleichgesinnten und Menschen, die ihnen guttun. Diese Menschen, etwa innerhalb einer guten Mastermind-Gruppe, wissen um die eigenen Stärken. Sie geben Tipps und gerne auch einmal den notwendigen ‘Tritt in den Allerwertesten’.  Dank Digitalisierung und verschiedener Online-Netzwerke wie LinkedIn bekommt man neue Kontakte nicht unbedingt nur durch aktives Ansprechen, sondern passiv durch gemeinsame Bekannte. Das ist für introvertierte Menschen vorteilhaft und nimmt den Druck.  Ein Vorteil introvertierter Selbständiger wiederum ist dabei der Fokus auf ein gutes Netzwerk. Statt dem Sammeln vieler Kontakte wird ein qualitativ hochwertiger Austausch bevorzugt. Wichtig ist jedoch, das Netzwerk aktuell zu halten und regelmäßig zu kommunizieren.  Tipp 2: Komfortzone regelmäßig erweitern  Das Verlassen der Komfortzone ist wie ein Muskel. Je öfter man trainiert, desto besser wird man darin. Das stille Kämmerlein, die zweite Reihe, bringt keinen Fortschritt, der Schritt in die Sichtbarkeit ist unumgänglich. Die Expertise ist dabei ein gutes Hilfsmittel, um die Komfortzone zu erweitern. Die eigene Vision ist es wert gesehen zu werden.  Tipp 3: Die passende Marketing-Strategie Introvertierte Selbständige sind meist nicht marktschreierisch unterwegs. Marketing soll für sie leise funktionieren. Die passende Marketing-Strategie kann richtige Wunder bewirken, denn man kann selbst das richtige Medium wählen.  Ein Podcast eignet sich hervorragend für Leute, die gerne reden, aber nicht unbedingt ständig gesehen werden wollen. YouTube lässt kreativen Spielraum für die eigene künstlerische Arbeit. In einem Newsletter kann man Tipps und das eigene Angebot hervorragend kombinieren. Ich empfehle dabei, sich auf zwei Marketing-Kanäle zu konzentrieren, um aus diesen dann das Beste herauszuholen.    Tipp 4: Selbstfürsorge nicht vernachlässigen In der Ruhe liegt die Kraft oder im Fall von introvertierten Menschen: Aus der Ruhe zieht man Kraft. Es ist besonders wichtig, auf ausreichende Pausen zu achten, um im schlimmsten Fall nicht auszubrennen. Dabei geht es nicht nur darum, schnell mal in der Mittagspause einen Spaziergang um den Block zu machen.   Vielmehr sollten sie sich selbst etwas Gutes tun, abschalten und in sich hineinhören, was Körper und Geist wirklich brauchen. Auch wenn man gerade erst am Beginn der Selbständigkeit steht und viele Aufgaben auf einmal zu erledigen sind, sollte es nicht zur Regel werden, ‘selbst und ständig’ zu arbeiten.  Tipp 5: Führungsrolle erlernen Je nach Business-Konzept wird es früher oder später dazu kommen, dass Mitarbeitende eingestellt oder Freischaffende beauftragt werden. Das ist sogar ein Muss, um später nicht mehr alle Aufgaben in einem Online-Business allein stemmen zu müssen. Deshalb ist es wichtig, sich zeitnah mit einer Führungsrolle auseinanderzusetzen. Das beginnt damit, einfache beziehungsweise sich wiederholende Aufgaben auszulagern, wie etwa die Eingabe von Daten, das Einpflegen von Blog-Artikeln, das Einplanen von Social Media Content oder das Erstellen von Grafiken nach Vorlage.  Später geht es dann um die Abgabe ganzer Arbeitsbereiche wie dem Social Media Management, dem Community Management, dem Online- oder E-Mail- Marketing. Auch hier spielt die Digitalisierung wieder ihre Vorteile aus, denn eine Kommunikation kann online stattfinden – was introvertierten Gründerinnen und Gründern zeitlichen Spielraum lässt. Und sie brauchen vor allem eins: Role Models, erfolgreiche introvertierte Vorbilder, die ihre Komfortzone bereits verlassen und ein Geschäft aufgebaut haben. Es ist Zeit, die Vorurteile Lügen zu straffen und die Eigenschaften, die einem gegeben sind, für sich zu nutzen.  

Introvertierte Menschen werden unterschätzt – als Mitarbeiter und Gründer​ Die Selbstständigkeit ermöglicht introvertierten Persönlichkeiten, eine gesunde Umgebung zu schaffen, statt sich an extrovertierten Strukturen in einer Festanstellung abzuarbeiten.TA design – Shutterstock 2541748473

Erzwungene Gruppenarbeit, Team-Meetings ohne Agenda, Förderung von Selbstvermarktung und Großraumbüros ohne Rückzugsmöglichkeit sorgen für Stress. Darüber hinaus tun Kommentare und Bewertungen ihr Übriges, die Menschen mit introvertierter Persönlichkeit in Schubladen zu stecken und sie als schwach anzusehen. Das führt oft dazu, dass sie sich im Job auf die weniger offensichtlichen Stärken fokussieren. Tatsächlich aber braucht es beides – nämlich gleichermaßen Introversion und Extraversion für ein gelungenes Miteinander. 

Die Selbständigkeit und das Unternehmertum erfordern zwar, dass man die eigene Komfortzone öfter mal verlässt. Sie ermöglicht Introvertierten aber, eine gesunde Umgebung zu schaffen, statt sich an extrovertierten Strukturen in einer Festanstellung abzuarbeiten. Die Wissenschaft geht davon aus, dass 36 bis 50 Prozent der Menschen introvertiert sind. Es ist also an der Zeit, sich deren Stärken genauer ansehen.  

Das sind die Superkräfte introvertierter Menschen: 

– Konzentrationsfähigkeit: Introvertierte Selbständige arbeiten hoch konzentriert sowie fokussiert und liefern Qualität statt Quantität. 

– Kreativität: Die stille Beobachtungsgabe, das intensive Nachdenken und der Perspektivenwechsel schaffen tiefe Einblicke in Probleme und die Entwicklung innovativer Lösungen. 

– Empathie: Introvertierte Menschen sind oft auch hochsensibel und können dadurch unter anderem ‘zwischen den Zeilen lesen’. Sie nehmen nonverbal kommunizierte Veränderungen wahr und schaffen es so, sich in die Bedürfnisse der Kunden und Kundinnen besser hineinzuversetzen. 

– Selbständigkeit: Unabhängig von äußeren Umständen schaffen sie es, sich selbst zu motivieren und selbständig alle Herausforderungen anzugehen. 

– Hinterfragen: Introvertierte Menschen hinterfragen oft und viel. Was einerseits zwar dazu führt, dass sie meist kritisch sich selbst gegenüber sind, andererseits erkennen sie Schwachstellen rechtzeitig, die dadurch frühzeitig behoben werden können. 

Das bedeutet nicht, dass nicht auch extrovertierte Menschen solche Stärken haben können. Sie sind bei introvertierten Menschen jedoch meist ausgeprägter. 

Da introvertierte Selbständige gerne und gut für sich allein arbeiten können, kommt bei einer Gründung oft die Frage auf, was bei einer potenziellen Führungsrolle passiert. Können introvertierte Menschen führen? 

 

Introvertierte Chefs sorgen für bedürfnisorientierte Umgebung

Introvertierte Selbständige sind keine Alphatiere. Das heißt, nicht jede Entscheidung muss von ihnen selbst getroffen werden. Sie sind stattdessen hervorragend darin, Verantwortlichkeiten abzugeben und (auch stillere) Teammitglieder zu fördern. 

Aufgrund der eigenen Introversion wissen sie außerdem die speziellen Persönlichkeitsmerkmale ihrer Mitarbeitenden zu schätzen und sorgen aktiv für eine bedürfnisorientierte Umgebung. Durch ihre ruhigere Ausstrahlung erwecken sie den Eindruck, umgänglicher und weniger impulsiv zu sein, was ihnen als Führungskraft möglicherweise Sympathiepunkte einbringt. 

Introvertierte Führungskräfte suchen eher das Einzelgespräch, was dazu führt, dass wichtige Informationen nicht untergehen. Und sie sind offener für das Arbeiten im Homeoffice, da sie selbst die größte Energie aus einem ruhigen Umfeld ziehen. 

Häufige Probleme, mit denen sich introvertierten Führungskräfte konfrontiert sehen, sind: 

Eine schnelle Entscheidungsfindung fällt ihnen meist nicht leicht, wenn nicht alle Fakten auf dem Tisch liegen oder das Wenn und Aber nicht ausreichend geklärt ist. Das kann vor allem im Tagesgeschäft hinderlich sein. 

Viel Kommunikation und Interaktion rauben introvertierten Menschen Energie und können eine Art Vermeidungsstrategie hervorrufen, die im Business-Kontext jedoch zu aufgeschobenen Problemen führt. 

Und dann wäre da noch die Sichtbarkeit, ohne die ein Unternehmen nur sehr schwer erfolgreich wachsen kann. Akquise, Netzwerken, die Gewinnung von Kundinnen und Kunden – sich da hinter dem Logo oder gar den Mitarbeitenden zu verstecken, wird der eigenen Vision nicht gerecht. 

Der Anspruch an Perfektion, den viele introvertierte Selbständige haben, gehört nicht nur hinterfragt, er sollte auch nicht an Mitarbeitende übertragen werden. Introvertierte Führungskräfte müssen zudem lernen, öfter die eigene Komfortzone zu verlassen. Das darf schrittweise passieren, im jeweiligen Rahmen. Übernehmen Introvertierte eine Führungsrolle, sollten sie folgendes beachten: 

 

Tipp 1: Das richtige Netzwerk 

Eine grundsolide Basis und enorme Hilfe für introvertierte Menschen ist das richtige Netzwerk aus Gleichgesinnten und Menschen, die ihnen guttun. Diese Menschen, etwa innerhalb einer guten Mastermind-Gruppe, wissen um die eigenen Stärken. Sie geben Tipps und gerne auch einmal den notwendigen ‘Tritt in den Allerwertesten’. 

Dank Digitalisierung und verschiedener Online-Netzwerke wie LinkedIn bekommt man neue Kontakte nicht unbedingt nur durch aktives Ansprechen, sondern passiv durch gemeinsame Bekannte. Das ist für introvertierte Menschen vorteilhaft und nimmt den Druck. 

Ein Vorteil introvertierter Selbständiger wiederum ist dabei der Fokus auf ein gutes Netzwerk. Statt dem Sammeln vieler Kontakte wird ein qualitativ hochwertiger Austausch bevorzugt. Wichtig ist jedoch, das Netzwerk aktuell zu halten und regelmäßig zu kommunizieren. 

Tipp 2: Komfortzone regelmäßig erweitern 

Das Verlassen der Komfortzone ist wie ein Muskel. Je öfter man trainiert, desto besser wird man darin. Das stille Kämmerlein, die zweite Reihe, bringt keinen Fortschritt, der Schritt in die Sichtbarkeit ist unumgänglich. Die Expertise ist dabei ein gutes Hilfsmittel, um die Komfortzone zu erweitern. Die eigene Vision ist es wert gesehen zu werden. 

Tipp 3: Die passende Marketing-Strategie

Introvertierte Selbständige sind meist nicht marktschreierisch unterwegs. Marketing soll für sie leise funktionieren. Die passende Marketing-Strategie kann richtige Wunder bewirken, denn man kann selbst das richtige Medium wählen. 

Ein Podcast eignet sich hervorragend für Leute, die gerne reden, aber nicht unbedingt ständig gesehen werden wollen. YouTube lässt kreativen Spielraum für die eigene künstlerische Arbeit. In einem Newsletter kann man Tipps und das eigene Angebot hervorragend kombinieren. Ich empfehle dabei, sich auf zwei Marketing-Kanäle zu konzentrieren, um aus diesen dann das Beste herauszuholen. 

 

Tipp 4: Selbstfürsorge nicht vernachlässigen

In der Ruhe liegt die Kraft oder im Fall von introvertierten Menschen: Aus der Ruhe zieht man Kraft. Es ist besonders wichtig, auf ausreichende Pausen zu achten, um im schlimmsten Fall nicht auszubrennen. Dabei geht es nicht nur darum, schnell mal in der Mittagspause einen Spaziergang um den Block zu machen.  

Vielmehr sollten sie sich selbst etwas Gutes tun, abschalten und in sich hineinhören, was Körper und Geist wirklich brauchen. Auch wenn man gerade erst am Beginn der Selbständigkeit steht und viele Aufgaben auf einmal zu erledigen sind, sollte es nicht zur Regel werden, ‘selbst und ständig’ zu arbeiten. 

Tipp 5: Führungsrolle erlernen

Je nach Business-Konzept wird es früher oder später dazu kommen, dass Mitarbeitende eingestellt oder Freischaffende beauftragt werden. Das ist sogar ein Muss, um später nicht mehr alle Aufgaben in einem Online-Business allein stemmen zu müssen. Deshalb ist es wichtig, sich zeitnah mit einer Führungsrolle auseinanderzusetzen. Das beginnt damit, einfache beziehungsweise sich wiederholende Aufgaben auszulagern, wie etwa die Eingabe von Daten, das Einpflegen von Blog-Artikeln, das Einplanen von Social Media Content oder das Erstellen von Grafiken nach Vorlage. 

Später geht es dann um die Abgabe ganzer Arbeitsbereiche wie dem Social Media Management, dem Community Management, dem Online- oder E-Mail- Marketing. Auch hier spielt die Digitalisierung wieder ihre Vorteile aus, denn eine Kommunikation kann online stattfinden – was introvertierten Gründerinnen und Gründern zeitlichen Spielraum lässt. Und sie brauchen vor allem eins: Role Models, erfolgreiche introvertierte Vorbilder, die ihre Komfortzone bereits verlassen und ein Geschäft aufgebaut haben. Es ist Zeit, die Vorurteile Lügen zu straffen und die Eigenschaften, die einem gegeben sind, für sich zu nutzen. 

Introvertierte Menschen werden unterschätzt – als Mitarbeiter und Gründer​ Weiterlesen »

Was ist Low-Code?​

Allgemein

Low-Code-Entwicklungsplattformen können unter anderem Entwicklungszeit und -kosten reduzieren. Foto: Sentavio – shutterstock.com Applikationen von Grund auf neu zu coden, ist ein zeitaufwändiger Prozess, der fundiertes, oft (auf die Entwicklungsplattform) spezialisiertes Know-How erfordert. Low-Code – Definition Low-Code-Entwicklungsplattformen und -Tools (und manchmal auch No-Code-Lösungen) können diesen Prozess vereinfachen, erfordern jedoch auch von allen Beteiligten eine Lernkurve, sich auf neue Techniken und Methoden einzulassen. Low-Code-Lösungen stellen Entwicklern einen standardisierten Modul-Baukasten zur Verfügung. Die bedarfsgerechte Zusammenstellung der Applikation läuft über eine grafische Benutzeroberfläche (GUI). Somit erhöht Low-Code die Geschwindigkeit der Softwareentwicklung, reduziert Kosten und verlagert Entwickleraufgaben teilweise direkt zu den Anwendern. Es gibt mehrere alternative Entwurfsparadigmen für Low-Code-Anwendungen – Generators, Templates und einfache Designsprachen. Generatoren durchforsten Ihre Datenbank und erzeugen datengebundene Formulare oder Raster für jede Datenbanktabelle. Templates sind in der Regel ausgefeilter, aber weniger flexibel. Die Möglichkeiten der Designumgebungen variieren stark: in einigen Fällen reicht ein eingescanntes Papierformular, in anderen ein Photoshop-Bild. Low-Code-Applikationen werden wie handcodierte Anwendungen für Desktop-, Web- und mobile Geräte entwickelt. Desktop-Apps sind in der Regel für Windows-, macOS- und Linux-Systeme gedacht. Web Apps laufen auf all diesen Systemen im Browser und müssen responsiv sein. Hybride Web Apps kombinieren eine native Shell-App mit Webinhalten. Low-Code-Plattform – Definition Im Allgemeinen bietet eine Low-Code-Entwicklungsplattform folgende Elemente: Drag-and-Drop-Designer, Module, Formulare, Prozesse, Workflows, Datenmodelle, Integrationen und eine oder mehrere Programmiersprachen, die Sie innerhalb der Plattform verwenden können. Die Entwicklungsplattform kann eine lauffähige Anwendung liefern – oder eine Spezifikation, die zur Erstellung einer Applikation verwendet wird. Die Anwendung kann mit dem Backend der Plattform interagieren, muss es aber nicht. Einige Low-Code-Plattformen generieren nativen Code: In diesem Fall dürften die erstellten Apps in Sachen Design, Bedienung und Performance manuell gecodeten Anwendungen in nichts nachstehen. Andere Plattformen haben einen Interpreter an Bord, der zu Leistungsproblemen führen kann. Der Interpreter funktioniert wie eine Art Dolmetscher, der den auf der Plattform entwickelten Code für die Anwendungs-Runtime erst noch übersetzen muss. Die Lizenzvereinbarungen von Low-Code-Entwicklungsplattformen sind je nach Anbieter sehr unterschiedlich. Einige Preismodelle können Ausschlusskriterium werden, etwa Gebühren auf Nutzerbasis, wenn sie auf Consumer-Apps mit potenziell sehr großen Zielgruppen angewendet werden. No Code – Definition No-Code-Entwicklung heißt im Wesentlichen: Low-Code-Entwicklung ohne Programmiersprache. Die Anbieter solcher Lösungen arbeiten manchmal mit aufwendig gestalteten grafischen Benutzeroberflächen, um einen Ersatz für Code Snippets zu schaffen, diese sind aber in der Regel umständlich und zeitaufwändig. No-Code-Plattformen sind zu Beginn des Entwicklungszyklus in der Regel einfach zu verwenden. Leider stoßen sie im späteren Verlauf der Entwicklung oft an ihre Grenzen, was Projekte zum Stillstand bringen kann. Manche Anbieter versuchen das Problem mit einem Marktplatz für Module zu lösen, die den Anwendungsbereich erweitern. In einigen Fällen stehen auch SDKs für Profi-Entwickler bereit, die neue Module schreiben wollen. Low-Code-Plattformen – Zielgruppe Den Anbietern von Low-Code-Lösungen zufolge nutzen verschiedene Zielgruppen ihre Produkte. Dazu gehören: Citizen Developer oder “Power-User”, Business-Analysten, Datenbankadministratoren und professionelle Programmierer. Um mit Low-Code-Development erfolgreich zu sein, muss das Team nicht nur sein Geschäft verstehen, sondern auch die Entwicklungsplattform kennen, den vorhandenen IT-Bestand (insbesondere Unternehmensanwendungen und Datenbanken) verstehen und die Unterstützung des Managements haben. Low-Code-Entwicklung – Vorteile Low-Code-Entwicklung birgt einige Vorteile für Unternehmen. Dazu gehören: die Verkürzung der Entwicklungszeit; reduzierte Kosten für die Softwareentwicklung; weniger qualifizierte Mitarbeiter können sich einbringen; Diese weniger qualifizierten Mitarbeiter können diejenigen sein, die das Geschäft und den Zweck der App am besten verstehen. “Weniger qualifiziert” bezieht sich ausschließlich auf das Niveau ihrer Programmierkenntnisse. Sie in die Entwicklungsarbeit mit einzubeziehen, kann Synergieeffekten, neuen Impulsen und mehr Kollaboration zuträglich sein. Low-Code – Einsatzzwecke Angenommen, Sie verfügen über eine vernünftig lizenzierte Low-Code-Plattform, mit der Sie schnell Anwendungen erstellen können, die über alle erforderlichen Funktionen und Integrationen verfügt und eine akzeptable Leistung bietet – diese sollten Sie sie so oft wie möglich einsetzen. Einzige Ausnahme: Anwendungen, die sich an Verbraucher richten, bei denen die Laufzeit-Performance wichtiger ist als die Time-to-market und die Entwicklungskosten. An der richtigen Stelle eingesetzt, können Low-Code-Entwicklungsplattformen entscheidend zum Unternehmenerfolg beitragen. Low Code und No Code im GenAI-Zeitalter Generative AI dürfte die Popularität und Verbreitung von Low-Code- und No-Code-Plattformen weiter befeuern, prophezeiht Dion Hinchcliffe, Principal Analyst bei Constellation Research: “Generative AI wird sich auf Low-Code- und No-Code-Plattformen geradezu transformierend auswirken, weil es dadurch wesentlich einfach wird, nützliche Funktionen auf der Grundlage von High-Level-Anfragen bereitzustellen – auch wenn die von Citizen Developern kommen.” Das sieht auch IDC-Analystin Michele Rosen ähnlich. Künftig würden die stärksten Angebote der Low-Code- und No-Code-Anbieter die Vorteile visueller Developer Interfaces mit GenAI-Modellen kombinieren: “Die User könnten so im Idealfall wählen, ob sie NLP- oder visuelle Komponenten nutzen, um die Ergebnisse zu verfeinern. Generative KI kann auch Text- und Multimedia-Assets für Entwickler erstellen. Und die No-Code- und Low-Code-Anbieter können Chat-Schnittstellen bereitstellen, um die Entwickler während des gesamten App-Erstellungsprozesses zu unterstützen.” Hyoun Park, Principal Analyst bei Amalgam Insights, ist davon überzeigt, dass nicht nur Anwenderunternehmen und Entwickler von der Integration generativer KI in Low-Code- und No-Code-Plattformen profitieren würden, sondern vor allem auch die Anbieter, beziehungsweise deren Umsätze: “Die unmittelbare Chance besteht darin, die Nutzerbasis um das Fünf- bis Zehnfache zu vergrößern, indem einfach Anforderungen eingegeben und Low-Code-Snippets erstellt werden, die von erfahreneren Entwicklern verwendet werden können. Das könnte das Volumen des Low-Code-Marktes in den nächsten Jahren verdoppeln.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Low-Code?​ Low-Code-Entwicklungsplattformen können unter anderem Entwicklungszeit und -kosten reduzieren.
Foto: Sentavio – shutterstock.com

Applikationen von Grund auf neu zu coden, ist ein zeitaufwändiger Prozess, der fundiertes, oft (auf die Entwicklungsplattform) spezialisiertes Know-How erfordert.

Low-Code – Definition

Low-Code-Entwicklungsplattformen und -Tools (und manchmal auch No-Code-Lösungen) können diesen Prozess vereinfachen, erfordern jedoch auch von allen Beteiligten eine Lernkurve, sich auf neue Techniken und Methoden einzulassen. Low-Code-Lösungen stellen Entwicklern einen standardisierten Modul-Baukasten zur Verfügung. Die bedarfsgerechte Zusammenstellung der Applikation läuft über eine grafische Benutzeroberfläche (GUI). Somit erhöht Low-Code die Geschwindigkeit der Softwareentwicklung, reduziert Kosten und verlagert Entwickleraufgaben teilweise direkt zu den Anwendern.

Es gibt mehrere alternative Entwurfsparadigmen für Low-Code-Anwendungen – Generators, Templates und einfache Designsprachen. Generatoren durchforsten Ihre Datenbank und erzeugen datengebundene Formulare oder Raster für jede Datenbanktabelle. Templates sind in der Regel ausgefeilter, aber weniger flexibel. Die Möglichkeiten der Designumgebungen variieren stark: in einigen Fällen reicht ein eingescanntes Papierformular, in anderen ein Photoshop-Bild.

Low-Code-Applikationen werden wie handcodierte Anwendungen für Desktop-, Web- und mobile Geräte entwickelt. Desktop-Apps sind in der Regel für Windows-, macOS- und Linux-Systeme gedacht. Web Apps laufen auf all diesen Systemen im Browser und müssen responsiv sein. Hybride Web Apps kombinieren eine native Shell-App mit Webinhalten.

Low-Code-Plattform – Definition

Im Allgemeinen bietet eine Low-Code-Entwicklungsplattform folgende Elemente:

Drag-and-Drop-Designer,

Module,

Formulare,

Prozesse,

Workflows,

Datenmodelle,

Integrationen und

eine oder mehrere Programmiersprachen, die Sie innerhalb der Plattform verwenden können.

Die Entwicklungsplattform kann eine lauffähige Anwendung liefern – oder eine Spezifikation, die zur Erstellung einer Applikation verwendet wird. Die Anwendung kann mit dem Backend der Plattform interagieren, muss es aber nicht. Einige Low-Code-Plattformen generieren nativen Code: In diesem Fall dürften die erstellten Apps in Sachen Design, Bedienung und Performance manuell gecodeten Anwendungen in nichts nachstehen. Andere Plattformen haben einen Interpreter an Bord, der zu Leistungsproblemen führen kann. Der Interpreter funktioniert wie eine Art Dolmetscher, der den auf der Plattform entwickelten Code für die Anwendungs-Runtime erst noch übersetzen muss.

Die Lizenzvereinbarungen von Low-Code-Entwicklungsplattformen sind je nach Anbieter sehr unterschiedlich. Einige Preismodelle können Ausschlusskriterium werden, etwa Gebühren auf Nutzerbasis, wenn sie auf Consumer-Apps mit potenziell sehr großen Zielgruppen angewendet werden.

No Code – Definition

No-Code-Entwicklung heißt im Wesentlichen: Low-Code-Entwicklung ohne Programmiersprache. Die Anbieter solcher Lösungen arbeiten manchmal mit aufwendig gestalteten grafischen Benutzeroberflächen, um einen Ersatz für Code Snippets zu schaffen, diese sind aber in der Regel umständlich und zeitaufwändig.

No-Code-Plattformen sind zu Beginn des Entwicklungszyklus in der Regel einfach zu verwenden. Leider stoßen sie im späteren Verlauf der Entwicklung oft an ihre Grenzen, was Projekte zum Stillstand bringen kann. Manche Anbieter versuchen das Problem mit einem Marktplatz für Module zu lösen, die den Anwendungsbereich erweitern. In einigen Fällen stehen auch SDKs für Profi-Entwickler bereit, die neue Module schreiben wollen.

Low-Code-Plattformen – Zielgruppe

Den Anbietern von Low-Code-Lösungen zufolge nutzen verschiedene Zielgruppen ihre Produkte. Dazu gehören:

Citizen Developer oder “Power-User”,

Business-Analysten,

Datenbankadministratoren und

professionelle Programmierer.

Um mit Low-Code-Development erfolgreich zu sein, muss das Team nicht nur sein Geschäft verstehen, sondern auch die Entwicklungsplattform kennen, den vorhandenen IT-Bestand (insbesondere Unternehmensanwendungen und Datenbanken) verstehen und die Unterstützung des Managements haben.

Low-Code-Entwicklung – Vorteile

Low-Code-Entwicklung birgt einige Vorteile für Unternehmen. Dazu gehören:

die Verkürzung der Entwicklungszeit;

reduzierte Kosten für die Softwareentwicklung;

weniger qualifizierte Mitarbeiter können sich einbringen;

Diese weniger qualifizierten Mitarbeiter können diejenigen sein, die das Geschäft und den Zweck der App am besten verstehen. “Weniger qualifiziert” bezieht sich ausschließlich auf das Niveau ihrer Programmierkenntnisse. Sie in die Entwicklungsarbeit mit einzubeziehen, kann Synergieeffekten, neuen Impulsen und mehr Kollaboration zuträglich sein.

Low-Code – Einsatzzwecke

Angenommen, Sie verfügen über eine vernünftig lizenzierte Low-Code-Plattform, mit der Sie schnell Anwendungen erstellen können, die über alle erforderlichen Funktionen und Integrationen verfügt und eine akzeptable Leistung bietet – diese sollten Sie sie so oft wie möglich einsetzen. Einzige Ausnahme: Anwendungen, die sich an Verbraucher richten, bei denen die Laufzeit-Performance wichtiger ist als die Time-to-market und die Entwicklungskosten. An der richtigen Stelle eingesetzt, können Low-Code-Entwicklungsplattformen entscheidend zum Unternehmenerfolg beitragen.

Low Code und No Code im GenAI-Zeitalter

Generative AI dürfte die Popularität und Verbreitung von Low-Code- und No-Code-Plattformen weiter befeuern, prophezeiht Dion Hinchcliffe, Principal Analyst bei Constellation Research: “Generative AI wird sich auf Low-Code- und No-Code-Plattformen geradezu transformierend auswirken, weil es dadurch wesentlich einfach wird, nützliche Funktionen auf der Grundlage von High-Level-Anfragen bereitzustellen – auch wenn die von Citizen Developern kommen.”

Das sieht auch IDC-Analystin Michele Rosen ähnlich. Künftig würden die stärksten Angebote der Low-Code- und No-Code-Anbieter die Vorteile visueller Developer Interfaces mit GenAI-Modellen kombinieren: “Die User könnten so im Idealfall wählen, ob sie NLP- oder visuelle Komponenten nutzen, um die Ergebnisse zu verfeinern. Generative KI kann auch Text- und Multimedia-Assets für Entwickler erstellen. Und die No-Code- und Low-Code-Anbieter können Chat-Schnittstellen bereitstellen, um die Entwickler während des gesamten App-Erstellungsprozesses zu unterstützen.”

Hyoun Park, Principal Analyst bei Amalgam Insights, ist davon überzeigt, dass nicht nur Anwenderunternehmen und Entwickler von der Integration generativer KI in Low-Code- und No-Code-Plattformen profitieren würden, sondern vor allem auch die Anbieter, beziehungsweise deren Umsätze: “Die unmittelbare Chance besteht darin, die Nutzerbasis um das Fünf- bis Zehnfache zu vergrößern, indem einfach Anforderungen eingegeben und Low-Code-Snippets erstellt werden, die von erfahreneren Entwicklern verwendet werden können. Das könnte das Volumen des Low-Code-Marktes in den nächsten Jahren verdoppeln.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Low-Code?​ Weiterlesen »

ChatGPT-Nutzer zwischen Legal Hold und DSGVO​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Eine gerichtliche Anordnung in den USA birgt für europäische ChatGPT-Nutzer DSGVO-Gefahren. PatrickAssale / Shutterstock.com ChatGPT-Nutzer aufgepasst! Eine aktuelle gerichtliche Verfügung in den USA verpflichtet OpenAI dazu, Nutzerdaten und -inhalte weiterhin zu speichern – selbst dann, wenn diese eigentlich gelöscht werden sollten. Diese Anordnung wirft bedeutende Fragen hinsichtlich Datenschutz, Urheberrecht und der zukünftigen Entwicklung von Künstlicher Intelligenz (KI) auf. Auch der Europäische Gerichtshof (EuGH) sowie das Oberlandesgericht Hamburg setzen sich derzeit im Rahmen laufender Verfahren mit diesen rechtlichen Herausforderungen auseinander. Hintergrund ist eine Klage mehrerer großer Verlagshäuser, darunter die New York Times, gegen OpenAI. Sie werfen dem Unternehmen vor, es habe urheberrechtlich geschützte Inhalte zum Training seiner KI-Modelle genutzt. Die Kläger argumentieren, dass ChatGPT urheberrechtlich geschützte Inhalte ihrer Artikel in Antworten wiedergibt, sodass Nutzer diese Inhalte lesen können, ohne die Originalquellen zu besuchen. Um sicherzustellen, dass alle Chat-Protokolle – auch vom Nutzer gelöschte – (all Output Log Data) als potenzielle Beweismittel erhalten bleiben, hat das Bezirksgericht in New York Mitte Mai einen entsprechenden Beschluss erlassen. Dieser verpflichtet OpenAI, sämtliche ChatGPT-Konversationen vorerst aufzubewahren – auch solche, die eigentlich hätten gelöscht werden sollen. Wer ist betroffen? Obwohl die gerichtliche Anordnung zur Datenspeicherung nur in den USA gilt, betrifft sie Nutzer weltweit, da OpenAI global agiert. Betroffen sind Benutzer der meistverbreiten Versionen von ChatGPT, also Free, Plus, Pro und Team sowie API-Kunden ohne spezielle Datenschutzvereinbarungen. Auch die Inhalte von Nutzern, die einen Auftragsverarbeitungsvertrag (AVV) mit OpenAI Ireland Limited abgeschlossen haben, fallen unter diese Regelung – zumindest sofern sie keine „Zero Data Retention“ (ZDR) -Vereinbarung abgeschlossen haben. Ausgenommen sind lediglich Nutzer von ChatGPT Enterprise, Edu oder solche mit Vertrag zur Zero Data Retention (ZDR). Bei letzterem sichert OpenAI zu, Ein- und Ausgaben grundsätzlich nicht zu speichern. Diese Nutzer behalten weiterhin eine automatische Löschpraxis nach 30 Tagen. Die ZDR-Vereinbarung ist allerdings nur für bestimmte Kundengruppen verfügbar, insbesondere Enterprise-Kunden. Nicht verfügbar ist ZDR für Free-, Plus- oder Team-Pläne. Wie reagiert OpenAI? OpenAI kündigte an, gegen die Anordnung Berufung einzulegen, da die Maßnahme gegen seine eigenen Datenschutzzusagen und branchenübliche Standards verstoße. Die nun aufzubewahrenden Daten würden in einem separaten, gesicherten System gespeichert, das einem sogenannten „Legal Hold“, also einer rechtlichen Aufbewahrungspflicht, unterliegt. Der Zugriff sei streng auf ein kleines, geprüftes Team innerhalb von OpenAI beschränkt und erfolge nur, um rechtliche Vorgaben zu erfüllen, hieß es. Auf tatsächlicher Ebene bedeutet der „Legal Hold“ zunächst: Chats bleiben gespeichert, auch wenn Sie sie manuell löschen oder die „temporäre” Chatfunktion nutzen. Die Daten sind getrennt abgespeichert, gesichert und nur im Falle einer gerichtlichen Anordnung zugänglich. Kein öffentlicher Zugriff: Die New York Times oder andere Dritte erhalten die Daten nicht automatisch. Sie müssten hierfür eine gesonderte gerichtliche Herausgabeanordnung vorlegen. Unklarer Endzeitpunkt: Solange das Gerichtsverfahren läuft, bleibt der Legal Hold aktiv – ein genaues Ablaufdatum gibt es nicht. Wichtig ist die Klarstellung von OpenAI, dass diese Änderung keine Auswirkungen auf die Richtlinien zur Verwendung von Daten für das KI-Training haben soll. Nutzer können weiterhin selbst bestimmen, ob ihre Inhalte zur Verbesserung der Modelle genutzt werden dürfen. Legal Hold ist datenschutzrechtlich bedenklich Rechtlich steht die unbegrenzte Speicherung von Daten steht jedoch im direkten Widerspruch zu fundamentalen Prinzipien der Europäischen Datenschutzgrundverordnung (DSGVO). Dazu zählen vorrangig das Recht auf Vergessenwerden (Art. 17 DSGVO) und der Grundsatz der Datenminimierung (Art. 5 DSGVO). Ein US-Gerichtsbeschluss hebelt also de facto zentrale Datenschutzrechte für europäische Bürger aus. Daher bleibt abzuwarten, wie sich die europäischen Datenschutzaufsichtsbehörden diesbezüglich positionieren werden. Bisher haben sich weder die europäischen (die irische Data Protection Commission ist für die europäische Gesellschaft OpenAI Ireland Limited und für die EU-Kunden zuständig) noch die deutschen Aufsichtsbehörden geäußert. Seit 2023 werden die OpenAI-Dienste bereits von unterschiedlichen Datenschutzaufsichtsbehörden unter die Lupe genommen. Für die betroffenen Unternehmen entsteht dadurch ein neues, relevantes Risiko bei der Nutzung von Drittanbieter-Services. Die Aufbewahrung und Löschung der eigenen Daten bei Dritten, deren Dienste genutzt werden, ist ein zentraler Punkt bei der Gewährleistung der Datenschutz-Compliance. Unternehmen, die OpenAI-Dienste nutzen, stehen vor dem Problem, eigene rechtliche und vertragliche Pflichten allenfalls nicht mehr einhalten zu können. Das Risiko, dass ein Anbieter wie OpenAI aufgrund einer behördlichen oder gerichtlichen Verfügung bestimmte Daten aller Nutzer aufbewahren muss, beziehungsweise nicht mehr löschen darf, war bislang allerdings kein gängiger Bestandteil von Risikobeurteilungen. Das wird sich jetzt ändern müssen, nicht nur mit Blick in die USA. Vorsicht bei ChatGPT-Nutzung Im Ergebnis hat die Anordnung des US-Gerichts auch für einen Großteil der Nutzer in der EU erhebliche Auswirkungen hinsichtlich ihrer Datenschutzkonformität bei der Nutzung der OpenAI Dienste. Trotz angekündigter Berufung gegen die Anordnung muss OpenAI vorerst dem Beschluss Folge leisten. Solange die Anordnung Wirkung entfaltet, sollten betroffene europäische Nutzer sicherstellen, dass keine besonders sensiblen und vertraulichen Informationen sowie personenbezogene Daten unbegrenzt durch OpenAI gespeichert werden.   Kurzfristig sollten schlicht keine personenbezogenen Daten, vertraulichen Informationen und Geschäftsgeheimnisse in ChatGPT eingegeben werden. Soweit noch nicht geschehen, sollten unternehmensinterne Verhaltensregeln und Richtlinien für den Umgang mit und die Nutzung von ChatGPT durch die Mitarbeitenden entsprechend umformuliert werden. Längerfristig können strategische Überlegungen hinsichtlich sogenannter Self-Hostings und Open-Source-Modellen angestellt werden. Eine Option kann der Umstieg auf interne KI-Lösungen sein. Statt ChatGPT über die Cloud zu nutzen, können Unternehmen Large Language Models (LLMs) auf eigenen Servern oder in einer privaten Cloud betreiben. Dadurch behalten sie die volle Kontrolle über die Daten – und können Löschfristen und Logs selbstbestimmt managen. Zudem haben Open-Source-Modelle wie LLaMA, GPT-J oder GPT4All in letzter Zeit erhebliche Fortschritte gemacht. Ihr Vorteil liegt neben der Kostenersparnis vor allem in der Datensouveränität. Die Daten bleiben im Unternehmen, was Data-Privacy-Risiken erheblich reduziert. Allerdings müssen Unternehmen dafür in Expertise und Rechenressourcen investieren. Allerdings stehen diese Modelle mit Blick auf die Leistungsfähigkeit (noch) hinter dem marktführenden GPT-4 zurück. Eine Zwischenlösung sind die Enterprise-Angebote von OpenAI mit den beschriebenen vertraglich zugesicherten Datenschutz-Features (ZDR) und Datenverbleib in der EU-Region für europäische Kunden. Für Unternehmen, die auf OpenAI-Dienste setzen, unterstreicht dieser Fall eindrücklich den Wert einer Zero-Data-Retention-Vereinbarung, um die Kontrolle über die eigenen Daten und die der eigenen Kunden zu behalten. Zuletzt sind die rechtlichen Entwicklungen im Blick zu halten, um auf neue Entscheidungen reagieren zu können. Auch die Entscheidungen der Datenschutzbehörden könnten neue Auflagen oder Einschränkungen mit sich bringen. (mb) 

ChatGPT-Nutzer zwischen Legal Hold und DSGVO​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2268826497_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Eine gerichtliche Anordnung in den USA birgt für europäische ChatGPT-Nutzer DSGVO-Gefahren. PatrickAssale / Shutterstock.com

ChatGPT-Nutzer aufgepasst! Eine aktuelle gerichtliche Verfügung in den USA verpflichtet OpenAI dazu, Nutzerdaten und -inhalte weiterhin zu speichern – selbst dann, wenn diese eigentlich gelöscht werden sollten. Diese Anordnung wirft bedeutende Fragen hinsichtlich Datenschutz, Urheberrecht und der zukünftigen Entwicklung von Künstlicher Intelligenz (KI) auf. Auch der Europäische Gerichtshof (EuGH) sowie das Oberlandesgericht Hamburg setzen sich derzeit im Rahmen laufender Verfahren mit diesen rechtlichen Herausforderungen auseinander.

Hintergrund ist eine Klage mehrerer großer Verlagshäuser, darunter die New York Times, gegen OpenAI. Sie werfen dem Unternehmen vor, es habe urheberrechtlich geschützte Inhalte zum Training seiner KI-Modelle genutzt. Die Kläger argumentieren, dass ChatGPT urheberrechtlich geschützte Inhalte ihrer Artikel in Antworten wiedergibt, sodass Nutzer diese Inhalte lesen können, ohne die Originalquellen zu besuchen.

Um sicherzustellen, dass alle Chat-Protokolle – auch vom Nutzer gelöschte – (all Output Log Data) als potenzielle Beweismittel erhalten bleiben, hat das Bezirksgericht in New York Mitte Mai einen entsprechenden Beschluss erlassen. Dieser verpflichtet OpenAI, sämtliche ChatGPT-Konversationen vorerst aufzubewahren – auch solche, die eigentlich hätten gelöscht werden sollen.

Wer ist betroffen?

Obwohl die gerichtliche Anordnung zur Datenspeicherung nur in den USA gilt, betrifft sie Nutzer weltweit, da OpenAI global agiert. Betroffen sind Benutzer der meistverbreiten Versionen von ChatGPT, also Free, Plus, Pro und Team sowie API-Kunden ohne spezielle Datenschutzvereinbarungen. Auch die Inhalte von Nutzern, die einen Auftragsverarbeitungsvertrag (AVV) mit OpenAI Ireland Limited abgeschlossen haben, fallen unter diese Regelung – zumindest sofern sie keine „Zero Data Retention“ (ZDR) -Vereinbarung abgeschlossen haben.

Ausgenommen sind lediglich Nutzer von ChatGPT Enterprise, Edu oder solche mit Vertrag zur Zero Data Retention (ZDR). Bei letzterem sichert OpenAI zu, Ein- und Ausgaben grundsätzlich nicht zu speichern. Diese Nutzer behalten weiterhin eine automatische Löschpraxis nach 30 Tagen. Die ZDR-Vereinbarung ist allerdings nur für bestimmte Kundengruppen verfügbar, insbesondere Enterprise-Kunden. Nicht verfügbar ist ZDR für Free-, Plus- oder Team-Pläne.

Wie reagiert OpenAI?

OpenAI kündigte an, gegen die Anordnung Berufung einzulegen, da die Maßnahme gegen seine eigenen Datenschutzzusagen und branchenübliche Standards verstoße. Die nun aufzubewahrenden Daten würden in einem separaten, gesicherten System gespeichert, das einem sogenannten „Legal Hold“, also einer rechtlichen Aufbewahrungspflicht, unterliegt. Der Zugriff sei streng auf ein kleines, geprüftes Team innerhalb von OpenAI beschränkt und erfolge nur, um rechtliche Vorgaben zu erfüllen, hieß es.

Auf tatsächlicher Ebene bedeutet der „Legal Hold“ zunächst:

Chats bleiben gespeichert, auch wenn Sie sie manuell löschen oder die „temporäre” Chatfunktion nutzen.

Die Daten sind getrennt abgespeichert, gesichert und nur im Falle einer gerichtlichen Anordnung zugänglich.

Kein öffentlicher Zugriff: Die New York Times oder andere Dritte erhalten die Daten nicht automatisch. Sie müssten hierfür eine gesonderte gerichtliche Herausgabeanordnung vorlegen.

Unklarer Endzeitpunkt: Solange das Gerichtsverfahren läuft, bleibt der Legal Hold aktiv – ein genaues Ablaufdatum gibt es nicht.

Wichtig ist die Klarstellung von OpenAI, dass diese Änderung keine Auswirkungen auf die Richtlinien zur Verwendung von Daten für das KI-Training haben soll. Nutzer können weiterhin selbst bestimmen, ob ihre Inhalte zur Verbesserung der Modelle genutzt werden dürfen.

Legal Hold ist datenschutzrechtlich bedenklich

Rechtlich steht die unbegrenzte Speicherung von Daten steht jedoch im direkten Widerspruch zu fundamentalen Prinzipien der Europäischen Datenschutzgrundverordnung (DSGVO). Dazu zählen vorrangig das Recht auf Vergessenwerden (Art. 17 DSGVO) und der Grundsatz der Datenminimierung (Art. 5 DSGVO). Ein US-Gerichtsbeschluss hebelt also de facto zentrale Datenschutzrechte für europäische Bürger aus. Daher bleibt abzuwarten, wie sich die europäischen Datenschutzaufsichtsbehörden diesbezüglich positionieren werden. Bisher haben sich weder die europäischen (die irische Data Protection Commission ist für die europäische Gesellschaft OpenAI Ireland Limited und für die EU-Kunden zuständig) noch die deutschen Aufsichtsbehörden geäußert. Seit 2023 werden die OpenAI-Dienste bereits von unterschiedlichen Datenschutzaufsichtsbehörden unter die Lupe genommen.

Für die betroffenen Unternehmen entsteht dadurch ein neues, relevantes Risiko bei der Nutzung von Drittanbieter-Services. Die Aufbewahrung und Löschung der eigenen Daten bei Dritten, deren Dienste genutzt werden, ist ein zentraler Punkt bei der Gewährleistung der Datenschutz-Compliance. Unternehmen, die OpenAI-Dienste nutzen, stehen vor dem Problem, eigene rechtliche und vertragliche Pflichten allenfalls nicht mehr einhalten zu können. Das Risiko, dass ein Anbieter wie OpenAI aufgrund einer behördlichen oder gerichtlichen Verfügung bestimmte Daten aller Nutzer aufbewahren muss, beziehungsweise nicht mehr löschen darf, war bislang allerdings kein gängiger Bestandteil von Risikobeurteilungen. Das wird sich jetzt ändern müssen, nicht nur mit Blick in die USA.

Vorsicht bei ChatGPT-Nutzung

Im Ergebnis hat die Anordnung des US-Gerichts auch für einen Großteil der Nutzer in der EU erhebliche Auswirkungen hinsichtlich ihrer Datenschutzkonformität bei der Nutzung der OpenAI Dienste. Trotz angekündigter Berufung gegen die Anordnung muss OpenAI vorerst dem Beschluss Folge leisten. Solange die Anordnung Wirkung entfaltet, sollten betroffene europäische Nutzer sicherstellen, dass keine besonders sensiblen und vertraulichen Informationen sowie personenbezogene Daten unbegrenzt durch OpenAI gespeichert werden.  

Kurzfristig sollten schlicht keine personenbezogenen Daten, vertraulichen Informationen und Geschäftsgeheimnisse in ChatGPT eingegeben werden. Soweit noch nicht geschehen, sollten unternehmensinterne Verhaltensregeln und Richtlinien für den Umgang mit und die Nutzung von ChatGPT durch die Mitarbeitenden entsprechend umformuliert werden.

Längerfristig können strategische Überlegungen hinsichtlich sogenannter Self-Hostings und Open-Source-Modellen angestellt werden. Eine Option kann der Umstieg auf interne KI-Lösungen sein. Statt ChatGPT über die Cloud zu nutzen, können Unternehmen Large Language Models (LLMs) auf eigenen Servern oder in einer privaten Cloud betreiben. Dadurch behalten sie die volle Kontrolle über die Daten – und können Löschfristen und Logs selbstbestimmt managen.

Zudem haben Open-Source-Modelle wie LLaMA, GPT-J oder GPT4All in letzter Zeit erhebliche Fortschritte gemacht. Ihr Vorteil liegt neben der Kostenersparnis vor allem in der Datensouveränität. Die Daten bleiben im Unternehmen, was Data-Privacy-Risiken erheblich reduziert. Allerdings müssen Unternehmen dafür in Expertise und Rechenressourcen investieren. Allerdings stehen diese Modelle mit Blick auf die Leistungsfähigkeit (noch) hinter dem marktführenden GPT-4 zurück.

Eine Zwischenlösung sind die Enterprise-Angebote von OpenAI mit den beschriebenen vertraglich zugesicherten Datenschutz-Features (ZDR) und Datenverbleib in der EU-Region für europäische Kunden. Für Unternehmen, die auf OpenAI-Dienste setzen, unterstreicht dieser Fall eindrücklich den Wert einer Zero-Data-Retention-Vereinbarung, um die Kontrolle über die eigenen Daten und die der eigenen Kunden zu behalten.

Zuletzt sind die rechtlichen Entwicklungen im Blick zu halten, um auf neue Entscheidungen reagieren zu können. Auch die Entscheidungen der Datenschutzbehörden könnten neue Auflagen oder Einschränkungen mit sich bringen. (mb)

ChatGPT-Nutzer zwischen Legal Hold und DSGVO​ Weiterlesen »

OpenAI und Perplexity starten neuen Browser-Krieg​

Allgemein

Neue KI-Browser: Der Anfang vom Ende für Googles Vormachtstellung?Tada Images | shutterstock.com Googles dominante Stellung im Browser-Markt sieht sich neuen Bedrohungen gegenüber, nachdem mit OpenAI und Perplexity gleich zwei KI-Companies mit großer Nutzerbasis neue Browser auf den Markt bringen. Diese sollen nicht nur die Art und Weise verändern, wie die Benutzer mit dem weltweiten Netz interagieren – sondern auch Chrome und Co. das Wasser abgraben. Der Browser von Perplexity heißt Comet, ist (zunächst für zahlende Benutzer) bereits verfügbar und in die KI-Suchmaschine des Unternehmens integriert. Zudem ist auch ein KI-Agent an Bord, der bei Bedarf innerhalb der Browser-Umgebung Tasks automatisieren kann. Unabhängig davon bereitet auch OpenAI den Release eines Google-Chrome-Konkurrenten auf KI-Basis vor, wie unter anderem Reuters berichtet. Der Browser soll demnach eine ChatGPT-ähnliche Oberfläche bekommen. Beide Browser sind darauf ausgelegt, Workflows zu optimieren und die Nutzer möglichst im jeweiligen KI-Ökosystem zu halten – statt externe Webseiten zu besuchen. Der große Browsing-Umbruch? Bislang ist der Web-Browser – und dabei vor allem Googles Chrome – weiterhin der primäre Zugangspunkt zum Internet. Zwar gewinnen KI-Tools zunehmend an Bedeutung, wenn es um Informationsbeschaffung geht. Das war bisher allerdings mit Unwägbarkeiten verbunden, wie Faisal Kawoosa, Chef-Analyst bei Techarc, erklärt: “KI einzusetzen, ist für die Nutzer bislang vor allem ein verteiltes und fragmentiertes Erlebnis: Daten oder Informationen müssen in eine KI-App übertragen, dort verarbeitet und anschließend wieder in den Workflow zurückgeführt werden.” Das könnte sich mit den neuen, respektive kommenden Browsern von OpenAI und Perplexity ändern. Werden diese von den Nutzern angenommen, könnten die Tools der Unternehmen wesentlich stärker als bisher in das alltägliche Nutzungsverhalten der Internetnutzer integriert werden. Auch Neil Shah, Partner und Mitbegründer von Counterpoint Research, sieht eine neue Ära am Horizont: “Bis KI-Agenten zur primären Schnittstelle für den Zugriff auf Informationen werden, setzen die KI-Unternehmen darauf, mit KI-nativen Browsern strategisch Nutzer zu akquirieren. Dieser Ansatz ergänzt das Wachstum eigenständiger Anwendungen und tiefere Integrationen auf Betriebssystemebene.” Für OpenAI und Perplexity eröffnen ihre KI-nativen Browser auch die Möglichkeit, die Datenbeschränkungen eigenständiger Anwendungen zu umgehen. Auf diese Weise können sie detaillierte Telemetriedaten zum Surfverhalten der Nutzer erfassen, wodurch sich wiederum neue Möglichkeiten zur Monetarisierung ergeben – etwa durch Werbung oder Daten-Deals. Doch damit nicht genug: “Wenn OpenAI und Perplexity mit ihren Browsern Fuß fassen, könnten sie auf Echtzeit-Datenströme zugreifen und damit die Genauigkeit und Effizienz ihrer KI-Modelle potenziell steigern”, konstatiert Techarc-Analyst Kawoosa. Dass Perplexitys Comet und der noch namenlose OpenAI-Browser Chrome, Edge, und Safari über Nacht in die Bedeutungslosigkeit befördern, damit sei jedoch nicht zu rechnen, erklärt Shah: “Nutzer zögern oft, von standardmäßigen, in das Betriebssystem integrierten Browsern zu wechseln, die für ihre jeweiligen Plattformen hochoptimiert sind. Darüber hinaus wird die Einführung in Unternehmen vor allem von der Einschätzung der CIOs abhängen, die die Datenschutz-, Sicherheits- und Management-Aspekte dieser neuen Browser bewerten müssen.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

OpenAI und Perplexity starten neuen Browser-Krieg​ Neue KI-Browser: Der Anfang vom Ende für Googles Vormachtstellung?Tada Images | shutterstock.com

Googles dominante Stellung im Browser-Markt sieht sich neuen Bedrohungen gegenüber, nachdem mit OpenAI und Perplexity gleich zwei KI-Companies mit großer Nutzerbasis neue Browser auf den Markt bringen. Diese sollen nicht nur die Art und Weise verändern, wie die Benutzer mit dem weltweiten Netz interagieren – sondern auch Chrome und Co. das Wasser abgraben.

Der Browser von Perplexity heißt Comet, ist (zunächst für zahlende Benutzer) bereits verfügbar und in die KI-Suchmaschine des Unternehmens integriert. Zudem ist auch ein KI-Agent an Bord, der bei Bedarf innerhalb der Browser-Umgebung Tasks automatisieren kann.

Unabhängig davon bereitet auch OpenAI den Release eines Google-Chrome-Konkurrenten auf KI-Basis vor, wie unter anderem Reuters berichtet. Der Browser soll demnach eine ChatGPT-ähnliche Oberfläche bekommen.

Beide Browser sind darauf ausgelegt, Workflows zu optimieren und die Nutzer möglichst im jeweiligen KI-Ökosystem zu halten – statt externe Webseiten zu besuchen.

Der große Browsing-Umbruch?

Bislang ist der Web-Browser – und dabei vor allem Googles Chrome – weiterhin der primäre Zugangspunkt zum Internet. Zwar gewinnen KI-Tools zunehmend an Bedeutung, wenn es um Informationsbeschaffung geht. Das war bisher allerdings mit Unwägbarkeiten verbunden, wie Faisal Kawoosa, Chef-Analyst bei Techarc, erklärt: “KI einzusetzen, ist für die Nutzer bislang vor allem ein verteiltes und fragmentiertes Erlebnis: Daten oder Informationen müssen in eine KI-App übertragen, dort verarbeitet und anschließend wieder in den Workflow zurückgeführt werden.”

Das könnte sich mit den neuen, respektive kommenden Browsern von OpenAI und Perplexity ändern. Werden diese von den Nutzern angenommen, könnten die Tools der Unternehmen wesentlich stärker als bisher in das alltägliche Nutzungsverhalten der Internetnutzer integriert werden. Auch Neil Shah, Partner und Mitbegründer von Counterpoint Research, sieht eine neue Ära am Horizont: “Bis KI-Agenten zur primären Schnittstelle für den Zugriff auf Informationen werden, setzen die KI-Unternehmen darauf, mit KI-nativen Browsern strategisch Nutzer zu akquirieren. Dieser Ansatz ergänzt das Wachstum eigenständiger Anwendungen und tiefere Integrationen auf Betriebssystemebene.”

Für OpenAI und Perplexity eröffnen ihre KI-nativen Browser auch die Möglichkeit, die Datenbeschränkungen eigenständiger Anwendungen zu umgehen. Auf diese Weise können sie detaillierte Telemetriedaten zum Surfverhalten der Nutzer erfassen, wodurch sich wiederum neue Möglichkeiten zur Monetarisierung ergeben – etwa durch Werbung oder Daten-Deals. Doch damit nicht genug: “Wenn OpenAI und Perplexity mit ihren Browsern Fuß fassen, könnten sie auf Echtzeit-Datenströme zugreifen und damit die Genauigkeit und Effizienz ihrer KI-Modelle potenziell steigern”, konstatiert Techarc-Analyst Kawoosa.

Dass Perplexitys Comet und der noch namenlose OpenAI-Browser Chrome, Edge, und Safari über Nacht in die Bedeutungslosigkeit befördern, damit sei jedoch nicht zu rechnen, erklärt Shah: “Nutzer zögern oft, von standardmäßigen, in das Betriebssystem integrierten Browsern zu wechseln, die für ihre jeweiligen Plattformen hochoptimiert sind. Darüber hinaus wird die Einführung in Unternehmen vor allem von der Einschätzung der CIOs abhängen, die die Datenschutz-, Sicherheits- und Management-Aspekte dieser neuen Browser bewerten müssen.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

OpenAI und Perplexity starten neuen Browser-Krieg​ Weiterlesen »

KI & more: Welche Future Skills Arbeitnehmer künftig brauchen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?quality=50&strip=all 6045w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Anforderungen am Arbeitsmarkt ändern sich. Einfache Tätigkeiten verlieren an Relevanz, während spezialisierte Kenntnisse, digitale Kompetenz und technisches Know-how an Bedeutung gewinnen. Wer künftig im Beruf erfolgreich sein will, muss deshalb in Sachen Skills ständig weiterbilden. smshoot – Shutterstock 1941634084 Die Digitalisierung war nur der Anfang – jetzt verändert Künstliche Intelligenz (KI) den Arbeitsmarkt in einem Tempo, das viele überrascht. Was früher vor allem repetitive Aufgaben in der Produktion oder Verwaltung betraf, erreicht heute auch hochqualifizierte Berufe wie Ingenieurwesen, Recht oder Marketing.   Der WBS JobReport 2024 zeigt eindrücklich, wie sich die Anforderungen an Arbeitnehmerinnen und Arbeiter verändern und welche Kompetenzen sie zukunftssicher machen können. Doch neben den Chancen gibt es auch Befürchtungen: Viele Arbeitnehmer sorgen sich um ihre Jobs, während gleichzeitig ein Mangel an KI-Weiterbildungen die Anpassung erschwert. Welche Fähigkeiten sind also entscheidend, um in dieser dynamischen Arbeitswelt zu bestehen?     Arbeitsmarkt im Umbruch: Chancen und Ängste Der deutsche Arbeitsmarkt befindet sich in einer Phase tiefgreifender Transformation. Dies zeigt sich nicht nur in aktuellen Zahlen und Prognosen, sondern auch in der wachsenden Verunsicherung vieler Beschäftigter. Einerseits erkennen viele die Potenziale neuer Technologien, andererseits wachsen die Sorgen um Arbeitsplatzverlust und Veränderungsdruck. Dabei gibt es auch positive Signale. Der WBS JobReport 2024, der auf der Analyse von über elf Millionen Stellenanzeigen basiert, zeigt: Der Arbeitsmarkt schrumpft nicht, sondern richtet sich neu aus. Zwar ist die Gesamtzahl der Stellenausschreibungen im Vergleich zum Vorjahr um 6,6 Prozent gesunken, doch bleibt die Nachfrage in zentralen Zukunftsbranchen stabil – teils wächst sie sogar.   Besonders gefragt sind qualifizierte Fachkräfte in der IT-Branche, im Gesundheitswesen sowie in der Umwelttechnik. Unser Report bestätigt damit, was viele Experten betonen. Einfache Tätigkeiten verlieren an Relevanz, während spezialisierte Kenntnisse, digitale Kompetenz und technisches Know-how an Bedeutung gewinnen. Simple Tätigkeiten und Routinejobs werden immer unbedeutender, während spezialisierte Fachkenntnisse und technisches Know-how nach wie vor gefragt sind.       KI und Automatisierung: Prognosen und Auswirkungen auf Beschäftigte Laut McKinsey könnten bis 2030 rund 30 Prozent der heutigen Arbeitsstunden in Deutschland durch KI automatisiert werden, was bis zu drei Millionen Beschäftigte betreffen würde. Besonders gefährdet: Verwaltung, Kundenservice und Produktion mit hohem Routineanteil. Das zeigt: KI verändert nicht nur Prozesse, sondern auch Existenzen. Die Frage ist nicht, ob, sondern wie wir den Wandel gestalten – und wer dabei mitkommt.      Diese Skills sind zukunftsträchtig Wer in der Zukunft erfolgreich sein will, braucht mehr als fachliches Know-how. Von entscheidender Bedeutung sind Kompetenzen, die Menschen anpassungsfähig, lernbereit und handlungsfähig halten – sogenannte Future Skills.   Laut dem WBS JobReport und dem Future-Skills-Framework von Stifterverband und McKinsey lassen sich diese Anforderungen in fünf zentrale Kompetenzfelder bündeln:   1. Technologisches Verständnis: Die Nachfrage nach IT-Fachkräften ist laut WBS JobReport 2024 um sechs Prozent gestiegen, insbesondere für Kenntnisse in SAP, CAD und KI-gestützter Datenanalyse. Auch der Energiesektor boomt durch die Energiewende, was technisches Know-how in Bereichen wie erneuerbare Energien oder Elektromobilität unerlässlich macht. Laut Stifterverband werden in den nächsten fünf Jahren etwa 700.000 zusätzliche Fachkräfte mit technologischen Kompetenzen benötigt.   2. Datenkompetenz und digitale Tools: Der Umgang mit Daten und digitalen Tools wie BI-Software, Scrum oder Cloud-Plattformen wird zur Grundvoraussetzung. Die Ergebnisse des WBS JobReports deuten darauf hin, dass die datenbasierte Entscheidungsfindung branchenübergreifend zum Standard wird. „Data Analytics & KI“ wird in diesem Sinne laut Future-Skills-Framework eine wichtige Schlüsselkompetenz werden. In Zukunft werden Menschen benötigt, die große Datenmengen auswerten und somit faktenbasierte Entscheidungen ermöglichen.   3. Führung und Veränderungskompetenz: Eine überraschende Erkenntnis aus dem aktuellen WBS JobReport: Die Nachfrage nach Führungskräften im mittleren Management ist um 41,6 Prozent gestiegen. Besonders gefragt sind Persönlichkeiten, die interdisziplinäre Teams führen, Transformationen strategisch begleiten und agile Arbeitsmethoden sicher einsetzen können.   Doch genau hier zeigt sich eine Lücke: Laut einer aktuellen Studie von Qualtrics trauen nur 45 Prozent der Beschäftigten ihren Führungskräften zu, KI kompetent und wirksam einzusetzen. Das ist alarmierend, denn technologische Entwicklung ohne Führungskompetenz bleibt Stückwerk. Das bedeutet: Wer Transformation ernst nimmt, braucht Führung, die über den Status quo hinausdenkt – strategisch, technologisch versiert und menschenorientiert zugleich.   4. Soziale und adaptive Fähigkeiten: Emotionale Intelligenz, Teamfähigkeit und Lernbereitschaft zählen laut dem „Future of Jobs Report 2025“ des World Economic Forum zu den zehn wichtigsten Kompetenzen bis 2030. Der aktuelle WBS JobReport zeigt: Genau diese Fähigkeiten sind besonders relevant in Berufsbereichen wie Pflege und Bildung – dort, wo menschliche Nähe, Kommunikation und Anpassungsfähigkeit zentral sind.   Doch nicht nur dort: Auch in technischen und digitalen Berufen nimmt die Bedeutung dieser sogenannten Future Skills zu. Der Grund? Die interdisziplinäre Zusammenarbeit wächst – und mit ihr der Bedarf an Beschäftigten, die nicht nur fachlich, sondern auch sozial und lernbereit stark aufgestellt sind.   5. Green Skills für die nachhaltige Wirtschaft: Die grüne Transformation verändert den Arbeitsmarkt spürbar: Kompetenzen in Umwelttechnik, nachhaltigem Bauen und Ressourceneffizienz – sogenannte Green Skills – sind gefragter denn je. Laut WBS JobReport ist die Zahl der Stellen in Umweltberufen um 13 Prozent gestiegen. Ein Trend, den auch die europäische Politik befeuert: Nachhaltigkeit ist erklärtes Kernziel der EU und soll zum Wachstumstreiber in vielen Branchen werden.      Weiterbildung als Schlüssel zum Erfolg   Doch was bedeutet das für diejenigen, die diese neuen Kompetenzen (noch) nicht mitbringen? Ganz klar: Sie brauchen Zugang zu gezielter Weiterbildung – und zwar jetzt.   Denn Weiterbildung ist heute wichtiger denn je. Viele deutsche Unternehmen nutzen KI noch nicht annähernd so wirkungsvoll, wie sie könnten – schlicht, weil es an ausreichend qualifizierten Fachkräften fehlt. Laut dem Bosch Tech Compass 2025 haben bisher nur 18 Prozent der Beschäftigten in Deutschland eine KI-Schulung am Arbeitsplatz erhalten, weltweit sind es 28 Prozent.   Um den Anschluss nicht zu verlieren, ist deshalb ein echter Weiterbildungs-Boost nötig – für Beschäftigte ebenso wie für Unternehmen. Das Gute: Der Staat unterstützt diesen Wandel. So fördert das Qualifizierungschancengesetz beispielsweise Weiterbildungen für Berufstätige. Die EU-Kommission hat sich zudem im Rahmen der „Digitalen Dekade“ zudem zum Ziel gesetzt, bis 2030 rund 80 Prozent der Erwachsenen mit grundlegenden digitalen Kompetenzen auszustatten.   All das bedeutet: Weiterbildung ist keine Kür mehr. Sie ist der Schlüssel zur Zukunftsfähigkeit – für jeden Einzelnen, aber auch für unsere Wirtschaft als Ganzes. Oder anders gesagt: Lebenslanges Lernen ist heute keine Option mehr, sondern eine Pflicht.   

KI & more: Welche Future Skills Arbeitnehmer künftig brauchen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?quality=50&strip=all 6045w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/New-Skills-shutterstock_1941634084.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Anforderungen am Arbeitsmarkt ändern sich. Einfache Tätigkeiten verlieren an Relevanz, während spezialisierte Kenntnisse, digitale Kompetenz und technisches Know-how an Bedeutung gewinnen. Wer künftig im Beruf erfolgreich sein will, muss deshalb in Sachen Skills ständig weiterbilden. smshoot – Shutterstock 1941634084

Die Digitalisierung war nur der Anfang – jetzt verändert Künstliche Intelligenz (KI) den Arbeitsmarkt in einem Tempo, das viele überrascht. Was früher vor allem repetitive Aufgaben in der Produktion oder Verwaltung betraf, erreicht heute auch hochqualifizierte Berufe wie Ingenieurwesen, Recht oder Marketing.  

Der WBS JobReport 2024 zeigt eindrücklich, wie sich die Anforderungen an Arbeitnehmerinnen und Arbeiter verändern und welche Kompetenzen sie zukunftssicher machen können. Doch neben den Chancen gibt es auch Befürchtungen: Viele Arbeitnehmer sorgen sich um ihre Jobs, während gleichzeitig ein Mangel an KI-Weiterbildungen die Anpassung erschwert. Welche Fähigkeiten sind also entscheidend, um in dieser dynamischen Arbeitswelt zu bestehen?  

 

Arbeitsmarkt im Umbruch: Chancen und Ängste

Der deutsche Arbeitsmarkt befindet sich in einer Phase tiefgreifender Transformation. Dies zeigt sich nicht nur in aktuellen Zahlen und Prognosen, sondern auch in der wachsenden Verunsicherung vieler Beschäftigter. Einerseits erkennen viele die Potenziale neuer Technologien, andererseits wachsen die Sorgen um Arbeitsplatzverlust und Veränderungsdruck. Dabei gibt es auch positive Signale. Der WBS JobReport 2024, der auf der Analyse von über elf Millionen Stellenanzeigen basiert, zeigt: Der Arbeitsmarkt schrumpft nicht, sondern richtet sich neu aus. Zwar ist die Gesamtzahl der Stellenausschreibungen im Vergleich zum Vorjahr um 6,6 Prozent gesunken, doch bleibt die Nachfrage in zentralen Zukunftsbranchen stabil – teils wächst sie sogar.  

Besonders gefragt sind qualifizierte Fachkräfte in der IT-Branche, im Gesundheitswesen sowie in der Umwelttechnik. Unser Report bestätigt damit, was viele Experten betonen. Einfache Tätigkeiten verlieren an Relevanz, während spezialisierte Kenntnisse, digitale Kompetenz und technisches Know-how an Bedeutung gewinnen. Simple Tätigkeiten und Routinejobs werden immer unbedeutender, während spezialisierte Fachkenntnisse und technisches Know-how nach wie vor gefragt sind.  

   

KI und Automatisierung: Prognosen und Auswirkungen auf Beschäftigte

Laut McKinsey könnten bis 2030 rund 30 Prozent der heutigen Arbeitsstunden in Deutschland durch KI automatisiert werden, was bis zu drei Millionen Beschäftigte betreffen würde. Besonders gefährdet: Verwaltung, Kundenservice und Produktion mit hohem Routineanteil. Das zeigt: KI verändert nicht nur Prozesse, sondern auch Existenzen. Die Frage ist nicht, ob, sondern wie wir den Wandel gestalten – und wer dabei mitkommt.  

  

Diese Skills sind zukunftsträchtig

Wer in der Zukunft erfolgreich sein will, braucht mehr als fachliches Know-how. Von entscheidender Bedeutung sind Kompetenzen, die Menschen anpassungsfähig, lernbereit und handlungsfähig halten – sogenannte Future Skills.  

Laut dem WBS JobReport und dem Future-Skills-Framework von Stifterverband und McKinsey lassen sich diese Anforderungen in fünf zentrale Kompetenzfelder bündeln:  

1. Technologisches Verständnis: Die Nachfrage nach IT-Fachkräften ist laut WBS JobReport 2024 um sechs Prozent gestiegen, insbesondere für Kenntnisse in SAP, CAD und KI-gestützter Datenanalyse. Auch der Energiesektor boomt durch die Energiewende, was technisches Know-how in Bereichen wie erneuerbare Energien oder Elektromobilität unerlässlich macht. Laut Stifterverband werden in den nächsten fünf Jahren etwa 700.000 zusätzliche Fachkräfte mit technologischen Kompetenzen benötigt.  

2. Datenkompetenz und digitale Tools: Der Umgang mit Daten und digitalen Tools wie BI-Software, Scrum oder Cloud-Plattformen wird zur Grundvoraussetzung. Die Ergebnisse des WBS JobReports deuten darauf hin, dass die datenbasierte Entscheidungsfindung branchenübergreifend zum Standard wird. „Data Analytics & KI“ wird in diesem Sinne laut Future-Skills-Framework eine wichtige Schlüsselkompetenz werden. In Zukunft werden Menschen benötigt, die große Datenmengen auswerten und somit faktenbasierte Entscheidungen ermöglichen.  

3. Führung und Veränderungskompetenz: Eine überraschende Erkenntnis aus dem aktuellen WBS JobReport: Die Nachfrage nach Führungskräften im mittleren Management ist um 41,6 Prozent gestiegen. Besonders gefragt sind Persönlichkeiten, die interdisziplinäre Teams führen, Transformationen strategisch begleiten und agile Arbeitsmethoden sicher einsetzen können.  

Doch genau hier zeigt sich eine Lücke: Laut einer aktuellen Studie von Qualtrics trauen nur 45 Prozent der Beschäftigten ihren Führungskräften zu, KI kompetent und wirksam einzusetzen. Das ist alarmierend, denn technologische Entwicklung ohne Führungskompetenz bleibt Stückwerk. Das bedeutet: Wer Transformation ernst nimmt, braucht Führung, die über den Status quo hinausdenkt – strategisch, technologisch versiert und menschenorientiert zugleich.  

4. Soziale und adaptive Fähigkeiten: Emotionale Intelligenz, Teamfähigkeit und Lernbereitschaft zählen laut dem „Future of Jobs Report 2025“ des World Economic Forum zu den zehn wichtigsten Kompetenzen bis 2030. Der aktuelle WBS JobReport zeigt: Genau diese Fähigkeiten sind besonders relevant in Berufsbereichen wie Pflege und Bildung – dort, wo menschliche Nähe, Kommunikation und Anpassungsfähigkeit zentral sind.  

Doch nicht nur dort: Auch in technischen und digitalen Berufen nimmt die Bedeutung dieser sogenannten Future Skills zu. Der Grund? Die interdisziplinäre Zusammenarbeit wächst – und mit ihr der Bedarf an Beschäftigten, die nicht nur fachlich, sondern auch sozial und lernbereit stark aufgestellt sind.  

5. Green Skills für die nachhaltige Wirtschaft: Die grüne Transformation verändert den Arbeitsmarkt spürbar: Kompetenzen in Umwelttechnik, nachhaltigem Bauen und Ressourceneffizienz – sogenannte Green Skills – sind gefragter denn je. Laut WBS JobReport ist die Zahl der Stellen in Umweltberufen um 13 Prozent gestiegen. Ein Trend, den auch die europäische Politik befeuert: Nachhaltigkeit ist erklärtes Kernziel der EU und soll zum Wachstumstreiber in vielen Branchen werden.  

  

Weiterbildung als Schlüssel zum Erfolg  

Doch was bedeutet das für diejenigen, die diese neuen Kompetenzen (noch) nicht mitbringen? Ganz klar: Sie brauchen Zugang zu gezielter Weiterbildung – und zwar jetzt.  

Denn Weiterbildung ist heute wichtiger denn je. Viele deutsche Unternehmen nutzen KI noch nicht annähernd so wirkungsvoll, wie sie könnten – schlicht, weil es an ausreichend qualifizierten Fachkräften fehlt. Laut dem Bosch Tech Compass 2025 haben bisher nur 18 Prozent der Beschäftigten in Deutschland eine KI-Schulung am Arbeitsplatz erhalten, weltweit sind es 28 Prozent.  

Um den Anschluss nicht zu verlieren, ist deshalb ein echter Weiterbildungs-Boost nötig – für Beschäftigte ebenso wie für Unternehmen. Das Gute: Der Staat unterstützt diesen Wandel. So fördert das Qualifizierungschancengesetz beispielsweise Weiterbildungen für Berufstätige. Die EU-Kommission hat sich zudem im Rahmen der „Digitalen Dekade“ zudem zum Ziel gesetzt, bis 2030 rund 80 Prozent der Erwachsenen mit grundlegenden digitalen Kompetenzen auszustatten.  

All das bedeutet: Weiterbildung ist keine Kür mehr. Sie ist der Schlüssel zur Zukunftsfähigkeit – für jeden Einzelnen, aber auch für unsere Wirtschaft als Ganzes. Oder anders gesagt: Lebenslanges Lernen ist heute keine Option mehr, sondern eine Pflicht.  

KI & more: Welche Future Skills Arbeitnehmer künftig brauchen​ Weiterlesen »

Quantencomputer, Deepfakes – und wie am Ende alles gut wird​

Allgemein

Quantum Computing – Leuchtturm und Nebel zugleich.Dmitry Pistrov | shutterstock.com Bei Trulioo (Anm. d. Red.: ein kanadischer Identity-Serviceanbieter) haben wir im Rahmen von Identitätsprüfungen regelmäßig mit gefälschten Ausweisdokumenten inklusive synthetischer Fotos und Daten zu tun. Die sehen teilweise täuschend echt aus – lassen aber bei genauer Analyse kleinere Mängel und Unstimmigkeiten erkennen. Dazu zählen etwa Gesichter, die für menschliche Wesen deutlich zu symmetrisch und bemerkenswert faltenfrei sind. Insofern sind unsere menschlichen Unzulänglichkeiten bislang die Achillesferse für Deepfakes. Würden die Cyberkriminellen hinter den Betrugsmaschen die für nicht mehr detektierbare Fälschungen nötige Rechenleistung investieren, würde das nicht nur erheblich mehr Zeit in Anspruch nehmen – es wäre vermutlich auch unwirtschaftlich. Diese Dynamik könnte sich mit Quantencomputern allerdings in den nächsten Jahren drastisch verändern. So kann etwa der Willow-Quantenchip von Google in weniger als fünf Minuten etwas berechnen, wofür aktuelle Supercomputer zehn Septillionen Jahre benötigen würden. Deepfakes, die mit einer solchen Technologie umgesetzt werden, sind ein wirklich beängstigender Gedanke. Und die einzige Möglichkeit, diese zu erkennen und Betrug zu verhindern, besteht vermutlich darin mit Quantencomputern Machine-Learning-Verfahren zu entwickeln, die die Fake-Signale auf molekularer Ebene erfassen können. Gaming-Reminiszenzen Bekanntermaßen sind Quantencomputer noch nicht allgemein verfügbar, aber in den nächsten Jahren wird es soweit sein. Jetzt wäre also ohne Zweifel ein guter Zeitpunkt, um sich sowohl auf die Benefits der Technologie als auch die Risiken, die sie mit sich bringt, vorzubereiten. Denn wenn die Quantencomputer-Revolution dann in Gang kommt, könnte sie ähnlich ablaufen wie die, die GPUs im Gaming-Bereich ausgelöst haben. Im Vergleich zu den bis dahin eingesetzten, generischen CPUs ermöglichen die dedizierten Grafikkarten deutlich flüssigere und realistischere Gaming-Erlebnisse. Das ist aber nicht alles, denn mit GPUs lassen sich auch weitere Anwendungsfälle abdecken, die nicht unbedingt vorgesehen waren. Beispielsweise Berechnungen im medizinischen und metereologischen Bereich oder Cryptomining – und natürlich Generative AI. Und: Auch GPUs werden von Kriminellen missbraucht, unter anderem, um Deepfakes zu generieren.   Auf ganz ähnliche Weise könnte auch die Quantencomputer-Revolution ablaufen – möglicherweise erobert die Technologie den Mainstream sogar zuerst in Form von Quanten-Grafikkarten fürs Gaming. Ein solches Produkt könnte Computer- und Videospiele auf die nächste Ebene des Realismus hieven. Fest steht jedoch bereits jetzt: Auch kriminelle Hacker werden mit Quantum Computing völlig neue Möglichkeiten erschließen (wollen), um Unternehmen anzugreifen.   Die Ära der Quantenangriffe Bislang setzen Firmen üblicherweise RSA- und ECC-Verschlüsselungsalgorithmen ein, um sensible Daten sicher zu speichern. Diese Sicherheit basiert auf der Annahme, dass Cyberkriminelle diese Algorithmen mit den heute verfügbaren Mitteln nicht – oder zumindest nicht in angemessener Zeit – knacken können. Quantencomputer unterlaufen diese Annahme jedoch mit der Geschwindigkeit, die sie in Aussicht stellen: Damit wäre es möglich, diverse Sicherheitsvorkehrungen von heute zu umgehen. Kryptografie und Passwörter sind deshalb ideale, frühe Ziele für Kriminelle mit Zugang zu Quantentechnologie. Schließlich lassen sich damit pro Zeiteinheit deutlich mehr Kompromittierungsversuche starten. Dauerte es früher Jahre, ein Passwort zu knacken, könnte es mit Quantencomputern eine Sache von Sekunden sein. Diese verlockende Aussicht hat im Cybercrime-Bereich unter anderem auch zum “Harvest now, decrypt later”-Phänomen beigetragen: In Erwartung der Quantencomputer-Revolution heimsen Kriminelle schon einmal verschlüsselte Daten an, deren Entschlüsselung mit heutiger Technologie hunderte von Jahren dauern würde. Das tun sie in dem Wissen, dass die Unternehmen, denen diese Daten gehören, sie neu verschlüsseln werden, sobald die ersten Quantencomputer auf den Markt kommen. Alles wird darauf hinauslaufen, dass sich Firmen, die nicht auf Quantum Computing setzen, nicht mehr verteidigen können. Alle anderen werden in den Genuss von deutlich potenteren Verschlüsselungsalgorithmen und Authentifizierungsmethoden auf Quantenbasis kommen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Quantencomputer, Deepfakes – und wie am Ende alles gut wird​ Quantum Computing – Leuchtturm und Nebel zugleich.Dmitry Pistrov | shutterstock.com

Bei Trulioo (Anm. d. Red.: ein kanadischer Identity-Serviceanbieter) haben wir im Rahmen von Identitätsprüfungen regelmäßig mit gefälschten Ausweisdokumenten inklusive synthetischer Fotos und Daten zu tun. Die sehen teilweise täuschend echt aus – lassen aber bei genauer Analyse kleinere Mängel und Unstimmigkeiten erkennen. Dazu zählen etwa Gesichter, die für menschliche Wesen deutlich zu symmetrisch und bemerkenswert faltenfrei sind. Insofern sind unsere menschlichen Unzulänglichkeiten bislang die Achillesferse für Deepfakes. Würden die Cyberkriminellen hinter den Betrugsmaschen die für nicht mehr detektierbare Fälschungen nötige Rechenleistung investieren, würde das nicht nur erheblich mehr Zeit in Anspruch nehmen – es wäre vermutlich auch unwirtschaftlich.

Diese Dynamik könnte sich mit Quantencomputern allerdings in den nächsten Jahren drastisch verändern. So kann etwa der Willow-Quantenchip von Google in weniger als fünf Minuten etwas berechnen, wofür aktuelle Supercomputer zehn Septillionen Jahre benötigen würden. Deepfakes, die mit einer solchen Technologie umgesetzt werden, sind ein wirklich beängstigender Gedanke. Und die einzige Möglichkeit, diese zu erkennen und Betrug zu verhindern, besteht vermutlich darin mit Quantencomputern Machine-Learning-Verfahren zu entwickeln, die die Fake-Signale auf molekularer Ebene erfassen können.

Gaming-Reminiszenzen

Bekanntermaßen sind Quantencomputer noch nicht allgemein verfügbar, aber in den nächsten Jahren wird es soweit sein. Jetzt wäre also ohne Zweifel ein guter Zeitpunkt, um sich sowohl auf die Benefits der Technologie als auch die Risiken, die sie mit sich bringt, vorzubereiten.

Denn wenn die Quantencomputer-Revolution dann in Gang kommt, könnte sie ähnlich ablaufen wie die, die GPUs im Gaming-Bereich ausgelöst haben. Im Vergleich zu den bis dahin eingesetzten, generischen CPUs ermöglichen die dedizierten Grafikkarten deutlich flüssigere und realistischere Gaming-Erlebnisse. Das ist aber nicht alles, denn mit GPUs lassen sich auch weitere Anwendungsfälle abdecken, die nicht unbedingt vorgesehen waren. Beispielsweise Berechnungen im medizinischen und metereologischen Bereich oder Cryptomining – und natürlich Generative AI. Und: Auch GPUs werden von Kriminellen missbraucht, unter anderem, um Deepfakes zu generieren.  

Auf ganz ähnliche Weise könnte auch die Quantencomputer-Revolution ablaufen – möglicherweise erobert die Technologie den Mainstream sogar zuerst in Form von Quanten-Grafikkarten fürs Gaming. Ein solches Produkt könnte Computer- und Videospiele auf die nächste Ebene des Realismus hieven. Fest steht jedoch bereits jetzt: Auch kriminelle Hacker werden mit Quantum Computing völlig neue Möglichkeiten erschließen (wollen), um Unternehmen anzugreifen.  

Die Ära der Quantenangriffe

Bislang setzen Firmen üblicherweise RSA- und ECC-Verschlüsselungsalgorithmen ein, um sensible Daten sicher zu speichern. Diese Sicherheit basiert auf der Annahme, dass Cyberkriminelle diese Algorithmen mit den heute verfügbaren Mitteln nicht – oder zumindest nicht in angemessener Zeit – knacken können. Quantencomputer unterlaufen diese Annahme jedoch mit der Geschwindigkeit, die sie in Aussicht stellen: Damit wäre es möglich, diverse Sicherheitsvorkehrungen von heute zu umgehen. Kryptografie und Passwörter sind deshalb ideale, frühe Ziele für Kriminelle mit Zugang zu Quantentechnologie. Schließlich lassen sich damit pro Zeiteinheit deutlich mehr Kompromittierungsversuche starten. Dauerte es früher Jahre, ein Passwort zu knacken, könnte es mit Quantencomputern eine Sache von Sekunden sein.

Diese verlockende Aussicht hat im Cybercrime-Bereich unter anderem auch zum “Harvest now, decrypt later”-Phänomen beigetragen: In Erwartung der Quantencomputer-Revolution heimsen Kriminelle schon einmal verschlüsselte Daten an, deren Entschlüsselung mit heutiger Technologie hunderte von Jahren dauern würde. Das tun sie in dem Wissen, dass die Unternehmen, denen diese Daten gehören, sie neu verschlüsseln werden, sobald die ersten Quantencomputer auf den Markt kommen.

Alles wird darauf hinauslaufen, dass sich Firmen, die nicht auf Quantum Computing setzen, nicht mehr verteidigen können. Alle anderen werden in den Genuss von deutlich potenteren Verschlüsselungsalgorithmen und Authentifizierungsmethoden auf Quantenbasis kommen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Quantencomputer, Deepfakes – und wie am Ende alles gut wird​ Weiterlesen »

Was ist eine Data Architecture?​

Allgemein

Für datengetriebene Unternehmen ist eine Data Architecture obligatorisch. Foto: Paul Aparicio – shutterstock.com Data Architecture – auch als Datenarchitektur oder Informationsarchitektur bezeichnet – ist eine Unterdisziplin der IT-Architektur. Die Datenarchitektur nimmt eine ganzheitliche Perspektive in Bezug auf grundlegende Strukturen und Prozesse im Zusammenhang mit Daten beziehungsweise Informationen ein. Data Architecture – Definition & Ziele Eine Data Architecture beschreibt gemäß The Open Group Architecture Framework (TOGAF) die Struktur der logischen und physischen Datenbestände und der Ressourcen rund um das Datenmanagement einer Organisation. Sie ist eine Unterkategorie der Enterprise Architecture und umfasst Modelle, Richtlinien, Regeln und Standards, um Daten in Unternehmen: zu erfassen, zu speichern, anzuordnen, zu integrieren und zu verwenden. Die Datenarchitektur fällt in den Zuständigkeitsbereich eines Data Architects oder einer vergleichbaren Funktion. Ziel ist es, Geschäftsanforderungen in Daten- und Systemanforderungen zu übersetzen und Daten sowie deren Fluss innerhalb des Unternehmens zu managen. Viele Betriebe arbeiten derzeit daran, ihre vorhandene Data Architecture zu modernisieren, um eine Grundlage für die digitale Transformation zu schaffen und die Chancen der KI-Nutzung vollständig zu erschließen. Datenarchitektur – Prinzipien Laut Dave Mariani, Gründer und Chief Technology Officer von AtScale, bilden folgende sechs Prinzipien die Grundlage moderner Datenarchitekturen: Daten sind ein gemeinsames Gut: Eine Data Architecture muss abteilungsspezifische Datensilos auflösen und allen Stakeholdern eine ganzheitliche Sicht auf das Unternehmen ermöglichen. User brauchen angemessenen Zugang zu Daten: Moderne Datenarchitekturen müssen Interfaces bereitstellen, die den Benutzern einen einfachen Datenkonsum mit für sie geeigneten Tools ermöglichen. Sicherheit ist essenziell: Eine zeitgemäße Data Architecture ist auf Sicherheit ausgelegt und unterstützt Datenrichtlinien und Zugriffskontrollen auf Ebene der Rohdaten. Gemeinsames Vokabular: Shared Data Assets wie Produktkataloge, Fiskalkalender-Dimensionen und KPI-Definitionen erfordern ein gemeinsames Vokabular, um Konflikte in der Analysephase zu vermeiden. Daten kuratieren: Investieren Sie in Kernfunktionen zur Datenkuratierung (wichtige Datenbeziehungen modellieren, Rohdaten bereinigen und relevante Dimensionen und Messwerte kuratieren). Datenflüsse agiler gestalten: Verringern Sie die Anzahl der notwendigen Datenverschiebungen, um Kosten zu senken, die Aktualität der Daten zu erhöhen und die Agilität des Unternehmens zu optimieren. Data Architecture – Komponenten Laut dem Softwareunternehmen BMC setzt sich eine moderne Datenarchitektur aus den folgenden Komponenten zusammen: Data Pipeline: Sie beschreibt den Prozess, in dem Daten gesammelt, verschoben und verfeinert werden. Sie umfasst Datenerfassung, -Refinement, -speicherung, -analyse und -bereitstellung. Cloud Storage: Nicht alle Datenarchitekturen nutzen Cloud-Speicher – viele moderne Data Architectures setzen aber auf Public-, Private- oder Hybrid-Cloud-Instanzen, um Agilität und Flexibilität zu gewährleisten. Cloud Computing: Neben Storage-Zwecken nutzen viele moderne Datenarchitekturen Cloud Computing auch für Datenanalyse und -management. Application Programming Interfaces: Moderne Datenarchitekturen nutzen APIs, um es zu erleichtern, Daten freizugeben und gemeinsam zu nutzen. KI- und ML-Modelle: Künstliche Intelligenz und Machine Learning kommen zum Einsatz, um Systeme für Aufgaben wie Datenerfassung oder -Labeling zu automatisieren. Gleichzeitig kann eine Data Architecture Unternehmen dabei unterstützen, KI und ML in großem Maßstab auszurollen. Data Streaming: Beim Streaming werden Daten kontinuierlich von einer Quelle zu einem Ziel geleitet und dort in Echtzeit (oder nahezu in Echtzeit) verarbeitet und analysiert. Container-Orchestrierung: Ein Container-Orchestrierungssystem wie das Open-Source-System Kubernetes wird häufig verwendet, um die Bereitstellung, Skalierung und Verwaltung von Software zu automatisieren. Realtime Analytics: Das Ziel vieler moderner Datenarchitekturen ist es, Echtzeit-Analysen zu ermöglichen – also die Möglichkeit, neue Daten zu analysieren, sobald diese in der Umgebung ankommen. Datenarchitektur vs. Datenmodellierung Dem “Data Management Book of Knowledge” (DMBOK) zufolge definiert Data Architecture den Plan für die Verwaltung von Datenbeständen. Sie richtet sich an der Unternehmensstrategie aus, um strategische Datenanforderungen und -designs festzulegen und Anforderungen zu erfüllen. Die Datenmodellierung ist demnach der “Prozess der Entdeckung, Analyse, Darstellung und Kommunikation von Datenanforderungen in einer präzisen Form – dem Datenmodell”. Zwar zielen sowohl Datenarchitektur als auch Datenmodellierung darauf ab, die Lücke zwischen Geschäftszielen und Technologie zu schließen. Allerdings geht es bei der Data Architecture um die Makrosicht, die darauf abzielt, die Beziehungen zwischen den Funktionen, der Technologie und den Datentypen eines Unternehmens zu verstehen und zu unterstützen. Bei der Datenmodellierung steht dagegen eine fokussierte Sicht auf bestimmte Systeme oder Business Cases im Mittelpunkt. Data Architecture – Frameworks Es gibt diverse Enterprise Architecture Frameworks, die gerne als Grundlage für den Aufbau eines Data Architecture Frameworks herangezogen werden: DAMA-DMBOK 2: Das Data Management Body of Knowledge von DAMA International ist ein Framework, das speziell auf Data Management ausgerichtet ist. Es bietet Standarddefinitionen für Datenmanagementfunktionen, -leistungen, -rollen und andere Terminologien sowie Leitprinzipien für das Datenmanagement. Zachman Framework for Enterprise Architecture: Das Zachman Framework ist eine Unternehmensontologie, die von John Zachman bei IBM in den 1980er Jahren entwickelt wurde. Die “Data Column” des Zachman-Frameworks umfasst mehrere Ebenen, darunter wichtige Architekturstandards, ein semantisches Modell, ein konzeptionelles Datenmodell, ein physisches Datenmodell und Datenbanken. The Open Group Architecture Framework: TOGAF ist eine Enterprise-Architecture-Methodik, die ein High-Level-Framework für die Entwicklung von Unternehmenssoftware bietet. Phase C von TOGAF umfasst die Entwicklung einer Data Architecture und den Aufbau einer zugehörigen Roadmap. Datenarchitektur – State-of-the-Art-Charakteristiken Moderne Datenarchitekturen müssen so konzipiert sein, dass sie die Vorteile neuer Technologien wie künstlicher Intelligenz (KI), Automatisierung, dem Internet of Things (IoT) und der Blockchain erschließen können. Laut Dan Sutherland, CTO Data Platforms bei IBM, sollten moderne Datenarchitekturen folgende Charakteristiken aufweisen: Cloud-native: Moderne Datenarchitekturen sollten so konzipiert sein, dass sie elastische Skalierung, Hochverfügbarkeit, End-to-End-Sicherheit für Daten (in Bewegung und im Ruhezustand) sowie Kosten- und Leistungsskalierbarkeit unterstützen. Skalierbare Data Pipelines: Um die Vorteile neuer Technologien nutzen zu können, sollten Datenarchitekturen Echtzeit-Daten-Streaming und Mikro-Batch-Daten-Bursts unterstützen. Nahtlose Datenintegration: Eine Data Architecture sollte sich über Standard-APIs in bestehende Anwendungen integrieren lassen. Die Schnittstellen sollten auch für die gemeinsame Nutzung von Daten über Systeme, Standorte und Organisationen hinweg optimiert sein. Daten in Echtzeit: Moderne Datenarchitekturen sollten die Möglichkeit zur automatisierten und aktiven Datenvalidierung, -klassifizierung, -verwaltung und -steuerung bieten. Entkoppelt und erweiterbar: Datenarchitekturen sollte so konzipiert sein, dass sie lose zusammenhängen. So ist sichergestellt, dass Services minimale Aufgaben unabhängig von anderen Diensten ausführen können. Data Architecture – Jobs & Gehalt Wir haben einige relevante Jobrollen im Zusammenhang mit Data Architecture für Sie zusammengestellt. Das angegebene Durchschnittsgehalt bezieht sich auf Daten des Karriereportals Stepstone. Solution Architect (69.800 Euro) Senior Data Architect (74.900 Euro) Projektmanager (54.500 Euro) Data Scientist (57.200 Euro) Data Engineer (55.500 Euro) Data Analyst (50.700 Euro) (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist eine Data Architecture?​ Für datengetriebene Unternehmen ist eine Data Architecture obligatorisch.
Foto: Paul Aparicio – shutterstock.com

Data Architecture – auch als Datenarchitektur oder Informationsarchitektur bezeichnet – ist eine Unterdisziplin der IT-Architektur. Die Datenarchitektur nimmt eine ganzheitliche Perspektive in Bezug auf grundlegende Strukturen und Prozesse im Zusammenhang mit Daten beziehungsweise Informationen ein.

Data Architecture – Definition & Ziele

Eine Data Architecture beschreibt gemäß The Open Group Architecture Framework (TOGAF) die Struktur der logischen und physischen Datenbestände und der Ressourcen rund um das Datenmanagement einer Organisation. Sie ist eine Unterkategorie der Enterprise Architecture und umfasst Modelle, Richtlinien, Regeln und Standards, um Daten in Unternehmen:

zu erfassen,

zu speichern,

anzuordnen,

zu integrieren und

zu verwenden.

Die Datenarchitektur fällt in den Zuständigkeitsbereich eines Data Architects oder einer vergleichbaren Funktion. Ziel ist es, Geschäftsanforderungen in Daten- und Systemanforderungen zu übersetzen und Daten sowie deren Fluss innerhalb des Unternehmens zu managen. Viele Betriebe arbeiten derzeit daran, ihre vorhandene Data Architecture zu modernisieren, um eine Grundlage für die digitale Transformation zu schaffen und die Chancen der KI-Nutzung vollständig zu erschließen.

Datenarchitektur – Prinzipien

Laut Dave Mariani, Gründer und Chief Technology Officer von AtScale, bilden folgende sechs Prinzipien die Grundlage moderner Datenarchitekturen:

Daten sind ein gemeinsames Gut: Eine Data Architecture muss abteilungsspezifische Datensilos auflösen und allen Stakeholdern eine ganzheitliche Sicht auf das Unternehmen ermöglichen.

User brauchen angemessenen Zugang zu Daten: Moderne Datenarchitekturen müssen Interfaces bereitstellen, die den Benutzern einen einfachen Datenkonsum mit für sie geeigneten Tools ermöglichen.

Sicherheit ist essenziell: Eine zeitgemäße Data Architecture ist auf Sicherheit ausgelegt und unterstützt Datenrichtlinien und Zugriffskontrollen auf Ebene der Rohdaten.

Gemeinsames Vokabular: Shared Data Assets wie Produktkataloge, Fiskalkalender-Dimensionen und KPI-Definitionen erfordern ein gemeinsames Vokabular, um Konflikte in der Analysephase zu vermeiden.

Daten kuratieren: Investieren Sie in Kernfunktionen zur Datenkuratierung (wichtige Datenbeziehungen modellieren, Rohdaten bereinigen und relevante Dimensionen und Messwerte kuratieren).

Datenflüsse agiler gestalten: Verringern Sie die Anzahl der notwendigen Datenverschiebungen, um Kosten zu senken, die Aktualität der Daten zu erhöhen und die Agilität des Unternehmens zu optimieren.

Data Architecture – Komponenten

Laut dem Softwareunternehmen BMC setzt sich eine moderne Datenarchitektur aus den folgenden Komponenten zusammen:

Data Pipeline: Sie beschreibt den Prozess, in dem Daten gesammelt, verschoben und verfeinert werden. Sie umfasst Datenerfassung, -Refinement, -speicherung, -analyse und -bereitstellung.

Cloud Storage: Nicht alle Datenarchitekturen nutzen Cloud-Speicher – viele moderne Data Architectures setzen aber auf Public-, Private- oder Hybrid-Cloud-Instanzen, um Agilität und Flexibilität zu gewährleisten.

Cloud Computing: Neben Storage-Zwecken nutzen viele moderne Datenarchitekturen Cloud Computing auch für Datenanalyse und -management.

Application Programming Interfaces: Moderne Datenarchitekturen nutzen APIs, um es zu erleichtern, Daten freizugeben und gemeinsam zu nutzen.

KI- und ML-Modelle: Künstliche Intelligenz und Machine Learning kommen zum Einsatz, um Systeme für Aufgaben wie Datenerfassung oder -Labeling zu automatisieren. Gleichzeitig kann eine Data Architecture Unternehmen dabei unterstützen, KI und ML in großem Maßstab auszurollen.

Data Streaming: Beim Streaming werden Daten kontinuierlich von einer Quelle zu einem Ziel geleitet und dort in Echtzeit (oder nahezu in Echtzeit) verarbeitet und analysiert.

Container-Orchestrierung: Ein Container-Orchestrierungssystem wie das Open-Source-System Kubernetes wird häufig verwendet, um die Bereitstellung, Skalierung und Verwaltung von Software zu automatisieren.

Realtime Analytics: Das Ziel vieler moderner Datenarchitekturen ist es, Echtzeit-Analysen zu ermöglichen – also die Möglichkeit, neue Daten zu analysieren, sobald diese in der Umgebung ankommen.

Datenarchitektur vs. Datenmodellierung

Dem “Data Management Book of Knowledge” (DMBOK) zufolge definiert Data Architecture den Plan für die Verwaltung von Datenbeständen. Sie richtet sich an der Unternehmensstrategie aus, um strategische Datenanforderungen und -designs festzulegen und Anforderungen zu erfüllen. Die Datenmodellierung ist demnach der “Prozess der Entdeckung, Analyse, Darstellung und Kommunikation von Datenanforderungen in einer präzisen Form – dem Datenmodell”.

Zwar zielen sowohl Datenarchitektur als auch Datenmodellierung darauf ab, die Lücke zwischen Geschäftszielen und Technologie zu schließen. Allerdings geht es bei der Data Architecture um die Makrosicht, die darauf abzielt, die Beziehungen zwischen den Funktionen, der Technologie und den Datentypen eines Unternehmens zu verstehen und zu unterstützen. Bei der Datenmodellierung steht dagegen eine fokussierte Sicht auf bestimmte Systeme oder Business Cases im Mittelpunkt.

Data Architecture – Frameworks

Es gibt diverse Enterprise Architecture Frameworks, die gerne als Grundlage für den Aufbau eines Data Architecture Frameworks herangezogen werden:

DAMA-DMBOK 2: Das Data Management Body of Knowledge von DAMA International ist ein Framework, das speziell auf Data Management ausgerichtet ist. Es bietet Standarddefinitionen für Datenmanagementfunktionen, -leistungen, -rollen und andere Terminologien sowie Leitprinzipien für das Datenmanagement.

Zachman Framework for Enterprise Architecture: Das Zachman Framework ist eine Unternehmensontologie, die von John Zachman bei IBM in den 1980er Jahren entwickelt wurde. Die “Data Column” des Zachman-Frameworks umfasst mehrere Ebenen, darunter wichtige Architekturstandards, ein semantisches Modell, ein konzeptionelles Datenmodell, ein physisches Datenmodell und Datenbanken.

The Open Group Architecture Framework: TOGAF ist eine Enterprise-Architecture-Methodik, die ein High-Level-Framework für die Entwicklung von Unternehmenssoftware bietet. Phase C von TOGAF umfasst die Entwicklung einer Data Architecture und den Aufbau einer zugehörigen Roadmap.

Datenarchitektur – State-of-the-Art-Charakteristiken

Moderne Datenarchitekturen müssen so konzipiert sein, dass sie die Vorteile neuer Technologien wie künstlicher Intelligenz (KI), Automatisierung, dem Internet of Things (IoT) und der Blockchain erschließen können. Laut Dan Sutherland, CTO Data Platforms bei IBM, sollten moderne Datenarchitekturen folgende Charakteristiken aufweisen:

Cloud-native: Moderne Datenarchitekturen sollten so konzipiert sein, dass sie elastische Skalierung, Hochverfügbarkeit, End-to-End-Sicherheit für Daten (in Bewegung und im Ruhezustand) sowie Kosten- und Leistungsskalierbarkeit unterstützen.

Skalierbare Data Pipelines: Um die Vorteile neuer Technologien nutzen zu können, sollten Datenarchitekturen Echtzeit-Daten-Streaming und Mikro-Batch-Daten-Bursts unterstützen.

Nahtlose Datenintegration: Eine Data Architecture sollte sich über Standard-APIs in bestehende Anwendungen integrieren lassen. Die Schnittstellen sollten auch für die gemeinsame Nutzung von Daten über Systeme, Standorte und Organisationen hinweg optimiert sein.

Daten in Echtzeit: Moderne Datenarchitekturen sollten die Möglichkeit zur automatisierten und aktiven Datenvalidierung, -klassifizierung, -verwaltung und -steuerung bieten.

Entkoppelt und erweiterbar: Datenarchitekturen sollte so konzipiert sein, dass sie lose zusammenhängen. So ist sichergestellt, dass Services minimale Aufgaben unabhängig von anderen Diensten ausführen können.

Data Architecture – Jobs & Gehalt

Wir haben einige relevante Jobrollen im Zusammenhang mit Data Architecture für Sie zusammengestellt. Das angegebene Durchschnittsgehalt bezieht sich auf Daten des Karriereportals Stepstone.

Solution Architect (69.800 Euro)

Senior Data Architect (74.900 Euro)

Projektmanager (54.500 Euro)

Data Scientist (57.200 Euro)

Data Engineer (55.500 Euro)

Data Analyst (50.700 Euro)

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist eine Data Architecture?​ Weiterlesen »

OneNote vs. Evernote: Notiz-Apps im Vergleich​

Allgemein

Evernote und OneNote tragen den Kampf um die Notiz-App-Krone unter sich aus. Foto: Bonya_06_Inna_Kharlamova_Makini_Caravello – shutterstock.com Geht es um die richtige Notiz-App, fällt die Entscheidung im Regelfall zwischen OneNote von Microsoft und Evernote, das inzwischen dem italienischen Softwareunternehmen Bending Spoons gehört. OneNote ist seit dem Jahr 2003 auf dem Markt und wurde 2007 in Microsofts Office-Suite aufgenommen (die meisten Versionen laufen inzwischen unter dem Namen Microsoft 365). Zudem wird OneNote auch mit Windows 10 und 11 gebündelt und als eigenständiges Produkt kostenlos angeboten. Das eröffnet eine potenzielle Nutzerbasis von rund einer Milliarde Systemen. Evernote feierte im Jahr 2008 sein Marktdebüt und erfreut sich seither stetig wachsender Nutzerzahlen. Unternehmensangaben zufolge sind es inzwischen weltweit rund 225 Millionen User. Sowohl OneNote als auch Evernote sind für alle wichtigen Desktop- und Mobile-Betriebssysteme verfügbar. Beide sind in der Lage, Notizen mit allen Geräten und dem Internet zu synchronisieren und beide versprechen, die einzige notwendige App für Notizen zu sein. Stellt sich die Frage: Was ist die bessere Wahl für Business-Nutzer? Wir haben uns die jeweils aktuellen Versionen beider Notiz-Apps für Windows, macOS, iPadOS, iOS und Android angesehen und sagen Ihnen, worin sich OneNote und Evernote im Wesentlichen unterscheiden. One Note: Organisationskrösus OneNote ist eine vollwertige Anwendung. Mit ihr können Sie einfache oder komplexe Notizen von Grund auf neu erstellen, sie in durchsuchbaren Notizbüchern organisieren und mit einer Vielzahl von Plattformen synchronisieren – zum Beispiel Windows-PCs, Macs, iPads und iPhones sowie Android-Geräten. Außerdem strotzt Microsofts Notiz-App nur so vor Werkzeugen – beispielsweise um: Notizen zu erstellen und zu bearbeiten, zu zeichnen, Audio- und Videoaufnahmen zu erstellen, Bilder zu scannen oder Tabellenkalkulationen einzubetten, OneNote wird allmählich immer stärker in die Microsoft-365-Suite integriert. Für Unternehmen ist die Live-Zusammenarbeit besonders wichtig und sie funktioniert hier ebenso so wie in anderen Microsoft-365-Anwendungen. Besonders gut lässt sich OneNote dabei in Microsoft Teams integrieren: Notizbücher lassen sich Teams hinzufügen – jeder innerhalb des Kanals kann diese anschließend anzeigen und bearbeiten (entsprechende Zugriffsrechte vorausgesetzt). Web-Clipping So gut OneNote auch sein mag, wenn es darum geht Notizen zu erstellen: Es bleibt hinter den beträchtlichen Möglichkeiten von Evernote zurück, wenn es um das Clipping von Webinhalten geht. Dazu bietet OneNote ein Browser-Addon (Microsoft Edge, Google Chrome und Mozilla Firefox) namens OneNote Web Clipper. Mit diesem Tool können Sie Screenshots in OneNote speichern – wenn es denn so funktioniert wie es soll. Versionsunterschiede Die Windows-Version von OneNote kann mit der vollen Bandbreite an Tools glänzen. Im Vergleich bietet Evernote nicht annähernd so viele ausgefeilte Tools. Die Versionen für Web, Android, iPadOS und macOS fallen hingegen ab. Sie sehen zwar ähnlich aus wie die Windows-App, bieten im Vergleich aber weniger und teilweise eingeschränkte Funktionen. So können Sie hier etwa keine Tabellenkalkulationen integrieren oder Videoinhalte aufzeichnen. Die iOS-Version hebt sich hingegen mit einer schlanken Benutzeroberfläche ab, die darauf optimiert ist, schnell Notizen zu erstellen oder zu bearbeiten. KI-Funktionen Seit Mitte Januar 2024 bietet Microsoft mit Copilot Pro KI-Integration im Abomodell an – auch für OneNote. 🚀 Introducing Copilot Notebooks in OneNote! Bring all your content from across your account into one intelligent space in OneNote. Ask questions, gain insights, and draft using your curated content. Coming soon! Learn more: https://t.co/xDM4ppRL1z— Microsoft OneNote (@msonenote) May 22, 2025 Storage und Preise OneNote synchronisiert seine Inhalte mit all Ihren Geräten und mit dem Internet über Microsoft OneDrive oder SharePoint. OneNote ist in den Abonnementversionen von Office (Microsoft 365 oder Office 365) enthalten, allerdings nicht in den Versionen ohne Abonnement. Wenn Sie die OneNote-App herunterladen, aber nicht Microsoft 365/Office 365 nutzen, erhalten Sie bis zu 5 GB Cloud-Speicherplatz für alles, einschließlich Ihrer OneNote-Inhalte. Zusätzlichen Speicherplatz können Sie zukaufen. Wenn Sie (oder Ihr Unternehmen) ein Office 365- oder Microsoft-365-Abonnement abschließen, erhalten Sie wesentlich mehr Speicherplatz: zwischen 100 GB und 6 TB – je nachdem, für welchen Plan Sie sich entscheiden. Evernote: Web-Clipping-King Evernote ist ein ganz anderes Kaliber als OneNote. Es bietet zwar die gleichen Grundfunktionalitäten: die Möglichkeit, Notizen zu erstellen, zu organisieren und mit mehreren Plattformen (Windows, macOS, iPadOS, iOS, Android, Web) zu synchronisieren. Dabei bietet die App im Vergleich zu OneNote allerdings eine signifikant farbenfrohere und einladendere Benutzeroberfläche – und eignet sich hervorragend, um Web-Content auszuschneiden und abzuspeichern. Der Startbildschirm von Evernote bietet diverse Widgets für den schnellen Zugriff auf Notizen, Notizbücher, kürzlich aufgenommene Bilder und vieles mehr. Ein zusätzliches Suchfeld garantiert zudem, dass Sie immer finden wonach Sie suchen. Die Widgets auf Ihrem Startbildschirm können Sie ganz nach Ihren Wünschen hinzufügen oder entfernen. Evernote bietet allerdings nicht annähernd so viele Werkzeuge zur Erstellung von Notizen wie OneNote. Zu den verfügbaren Features gehören zum Beispiel: Texte erstellen, bearbeiten und formatieren, Tabellen, Dateien und Bilder einbetten, Unterstützung für Touch-Devices und -Stifte, Integrierbare Audio- und Videoaufnahmen und Integration mit Google Calendar (für Outlook geplant) und Google Drive; Web Clipping Die Stärke von Evernote liegt wie eingangs bereits erwähnt darin, Inhalte aus dem weltweiten Netz zu erfassen und zu organisieren. Das dazu integrierte Web-Clipping-Tool funktioniert beispielhaft und läuft als Browser-Addon (für Chrome, Firefox, Internet Explorer, Microsoft Edge, Safari und Opera). Die Funktionen variieren dabei je nach Browser leicht. Im Allgemeinen bieten Google Chrome und Microsoft Edge dabei das zuverlässigste Erlebnis. Die Inhalte, die Sie mit Evernote aus dem Netz ziehen, lassen sich auch mit Tags versehen und zu Notizen hinzufügen. Darüber hinaus verfügt der Clipper auch über nützliche Markierungswerkzeuge für Screenshots. Erstellte Notizen dürfen selbstverständlich auf Knopfdruck mit spezifischen Kollegen oder auch über soziale Medien geteilt werden. Versionsunterschiede Die Windows-, Mac-, iPadOS-, iOS-, Android– und Web-Versionen von Evernote weisen alle ein ähnliches Erscheinungsbild auf und verfügen über die gleichen Widgets und dasselbe Layout. Allerdings ist auch die iPhone-Version von Evernote im Vergleich zu den restlichen Versionen etwas schlanker. KI-Funktionen Auch Evernote integriert inzwischen künstliche Intelligenz. Zum Beispiel in Form von KI-Transkriptionen für Text, sowie wie Video- und Audiodateien. May brought big updates: default fonts, smarter search, AI, and more 💙Here’s what’s new:🖋 Set your preferred default font🔔 Get email notifications for comments🔎 Find things easier with an improved search function➡️ Move and delete notes with greater easePlus, two 🆕… pic.twitter.com/4evsSO9NLR— Evernote (@evernote) June 9, 2025 Storage und Preisgefüge Die Basisversion von Evernote ist kostenlos, jedoch auf 60 MB neue Notizen pro Monat sowie die Synchronisierung zwischen zwei Geräten limitiert – und enthält keine erweiterten Funktionen. Personal- und Professional-Abos erschließen weitere Features, beispielsweise die Möglichkeit, Notizen in Präsentationen umzuwandeln, PDFs und Anhänge zu durchsuchen und die Integration mit weiteren Services wie Slack und Microsoft Teams. Das Personal-Abo richtet sich dabei an Einzel- beziehungsweise Privatpersonen und kostet 8,33 Euro pro Monat (oder 99,99 Euro pro Jahr). Das Professional-Abo ist für berufliche und private Projekte von Einzelnutzern gedacht und kostet 10,83 Euro pro Monat (129,99 Euro jährlich). Evernote Teams ist schließlich für die Zusammenarbeit in Unternehmen konzipiert und bietet gemeinsame Arbeitsbereiche, ein Schulungsprogramm und zentrale Management-Tools. Dafür werden 16,66 Euro pro Benutzer und Monat fällig – oder 199,99 Euro pro Jahr. OneNote oder Evernote? Wenn Sie in erster Linie ein Tool suchen, mit dem Sie auf einfache Weise Inhalte aus dem Internet erfassen, organisieren und finden können, sollten Sie zu Evernote greifen. Wollen Sie einfach nur Notizen erstellen und diese bestmöglich organisieren – oder nutzen bereits Microsoft 365 – dürften Sie mit OneNote glücklich werden. Oder Sie verwenden beide Apps einfach in Kombination. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

OneNote vs. Evernote: Notiz-Apps im Vergleich​ Evernote und OneNote tragen den Kampf um die Notiz-App-Krone unter sich aus.
Foto: Bonya_06_Inna_Kharlamova_Makini_Caravello – shutterstock.com

Geht es um die richtige Notiz-App, fällt die Entscheidung im Regelfall zwischen OneNote von Microsoft und Evernote, das inzwischen dem italienischen Softwareunternehmen Bending Spoons gehört.

OneNote ist seit dem Jahr 2003 auf dem Markt und wurde 2007 in Microsofts Office-Suite aufgenommen (die meisten Versionen laufen inzwischen unter dem Namen Microsoft 365). Zudem wird OneNote auch mit Windows 10 und 11 gebündelt und als eigenständiges Produkt kostenlos angeboten. Das eröffnet eine potenzielle Nutzerbasis von rund einer Milliarde Systemen.

Evernote feierte im Jahr 2008 sein Marktdebüt und erfreut sich seither stetig wachsender Nutzerzahlen. Unternehmensangaben zufolge sind es inzwischen weltweit rund 225 Millionen User.

Sowohl OneNote als auch Evernote sind für alle wichtigen Desktop- und Mobile-Betriebssysteme verfügbar. Beide sind in der Lage, Notizen mit allen Geräten und dem Internet zu synchronisieren und beide versprechen, die einzige notwendige App für Notizen zu sein. Stellt sich die Frage: Was ist die bessere Wahl für Business-Nutzer?

Wir haben uns die jeweils aktuellen Versionen beider Notiz-Apps für Windows, macOS, iPadOS, iOS und Android angesehen und sagen Ihnen, worin sich OneNote und Evernote im Wesentlichen unterscheiden.

One Note: Organisationskrösus

OneNote ist eine vollwertige Anwendung. Mit ihr können Sie einfache oder komplexe Notizen von Grund auf neu erstellen, sie in durchsuchbaren Notizbüchern organisieren und mit einer Vielzahl von Plattformen synchronisieren – zum Beispiel Windows-PCs, Macs, iPads und iPhones sowie Android-Geräten.

Außerdem strotzt Microsofts Notiz-App nur so vor Werkzeugen – beispielsweise um:

Notizen zu erstellen und zu bearbeiten,

zu zeichnen,

Audio- und Videoaufnahmen zu erstellen,

Bilder zu scannen oder

Tabellenkalkulationen einzubetten,

OneNote wird allmählich immer stärker in die Microsoft-365-Suite integriert. Für Unternehmen ist die Live-Zusammenarbeit besonders wichtig und sie funktioniert hier ebenso so wie in anderen Microsoft-365-Anwendungen. Besonders gut lässt sich OneNote dabei in Microsoft Teams integrieren: Notizbücher lassen sich Teams hinzufügen – jeder innerhalb des Kanals kann diese anschließend anzeigen und bearbeiten (entsprechende Zugriffsrechte vorausgesetzt).

Web-Clipping

So gut OneNote auch sein mag, wenn es darum geht Notizen zu erstellen: Es bleibt hinter den beträchtlichen Möglichkeiten von Evernote zurück, wenn es um das Clipping von Webinhalten geht. Dazu bietet OneNote ein Browser-Addon (Microsoft Edge, Google Chrome und Mozilla Firefox) namens OneNote Web Clipper. Mit diesem Tool können Sie Screenshots in OneNote speichern – wenn es denn so funktioniert wie es soll.

Versionsunterschiede

Die Windows-Version von OneNote kann mit der vollen Bandbreite an Tools glänzen. Im Vergleich bietet Evernote nicht annähernd so viele ausgefeilte Tools. Die Versionen für Web, Android, iPadOS und macOS fallen hingegen ab. Sie sehen zwar ähnlich aus wie die Windows-App, bieten im Vergleich aber weniger und teilweise eingeschränkte Funktionen. So können Sie hier etwa keine Tabellenkalkulationen integrieren oder Videoinhalte aufzeichnen. Die iOS-Version hebt sich hingegen mit einer schlanken Benutzeroberfläche ab, die darauf optimiert ist, schnell Notizen zu erstellen oder zu bearbeiten.

KI-Funktionen

Seit Mitte Januar 2024 bietet Microsoft mit Copilot Pro KI-Integration im Abomodell an – auch für OneNote.

🚀 Introducing Copilot Notebooks in OneNote! Bring all your content from across your account into one intelligent space in OneNote. Ask questions, gain insights, and draft using your curated content. Coming soon! Learn more: https://t.co/xDM4ppRL1z— Microsoft OneNote (@msonenote) May 22, 2025

Storage und Preise

OneNote synchronisiert seine Inhalte mit all Ihren Geräten und mit dem Internet über Microsoft OneDrive oder SharePoint. OneNote ist in den Abonnementversionen von Office (Microsoft 365 oder Office 365) enthalten, allerdings nicht in den Versionen ohne Abonnement. Wenn Sie die OneNote-App herunterladen, aber nicht Microsoft 365/Office 365 nutzen, erhalten Sie bis zu 5 GB Cloud-Speicherplatz für alles, einschließlich Ihrer OneNote-Inhalte. Zusätzlichen Speicherplatz können Sie zukaufen.

Wenn Sie (oder Ihr Unternehmen) ein Office 365- oder Microsoft-365-Abonnement abschließen, erhalten Sie wesentlich mehr Speicherplatz: zwischen 100 GB und 6 TB – je nachdem, für welchen Plan Sie sich entscheiden.

Evernote: Web-Clipping-King

Evernote ist ein ganz anderes Kaliber als OneNote. Es bietet zwar die gleichen Grundfunktionalitäten: die Möglichkeit, Notizen zu erstellen, zu organisieren und mit mehreren Plattformen (Windows, macOS, iPadOS, iOS, Android, Web) zu synchronisieren. Dabei bietet die App im Vergleich zu OneNote allerdings eine signifikant farbenfrohere und einladendere Benutzeroberfläche – und eignet sich hervorragend, um Web-Content auszuschneiden und abzuspeichern.

Der Startbildschirm von Evernote bietet diverse Widgets für den schnellen Zugriff auf Notizen, Notizbücher, kürzlich aufgenommene Bilder und vieles mehr. Ein zusätzliches Suchfeld garantiert zudem, dass Sie immer finden wonach Sie suchen. Die Widgets auf Ihrem Startbildschirm können Sie ganz nach Ihren Wünschen hinzufügen oder entfernen.

Evernote bietet allerdings nicht annähernd so viele Werkzeuge zur Erstellung von Notizen wie OneNote. Zu den verfügbaren Features gehören zum Beispiel:

Texte erstellen, bearbeiten und formatieren,

Tabellen, Dateien und Bilder einbetten,

Unterstützung für Touch-Devices und -Stifte,

Integrierbare Audio- und Videoaufnahmen und

Integration mit Google Calendar (für Outlook geplant) und Google Drive;

Web Clipping

Die Stärke von Evernote liegt wie eingangs bereits erwähnt darin, Inhalte aus dem weltweiten Netz zu erfassen und zu organisieren. Das dazu integrierte Web-Clipping-Tool funktioniert beispielhaft und läuft als Browser-Addon (für Chrome, Firefox, Internet Explorer, Microsoft Edge, Safari und Opera). Die Funktionen variieren dabei je nach Browser leicht. Im Allgemeinen bieten Google Chrome und Microsoft Edge dabei das zuverlässigste Erlebnis.

Die Inhalte, die Sie mit Evernote aus dem Netz ziehen, lassen sich auch mit Tags versehen und zu Notizen hinzufügen. Darüber hinaus verfügt der Clipper auch über nützliche Markierungswerkzeuge für Screenshots. Erstellte Notizen dürfen selbstverständlich auf Knopfdruck mit spezifischen Kollegen oder auch über soziale Medien geteilt werden.

Versionsunterschiede

Die Windows-, Mac-, iPadOS-, iOS-, Android– und Web-Versionen von Evernote weisen alle ein ähnliches Erscheinungsbild auf und verfügen über die gleichen Widgets und dasselbe Layout. Allerdings ist auch die iPhone-Version von Evernote im Vergleich zu den restlichen Versionen etwas schlanker.

KI-Funktionen

Auch Evernote integriert inzwischen künstliche Intelligenz. Zum Beispiel in Form von KI-Transkriptionen für Text, sowie wie Video- und Audiodateien.

May brought big updates: default fonts, smarter search, AI, and more 💙Here’s what’s new:🖋 Set your preferred default font🔔 Get email notifications for comments🔎 Find things easier with an improved search function➡️ Move and delete notes with greater easePlus, two 🆕… pic.twitter.com/4evsSO9NLR— Evernote (@evernote) June 9, 2025

Storage und Preisgefüge

Die Basisversion von Evernote ist kostenlos, jedoch auf 60 MB neue Notizen pro Monat sowie die Synchronisierung zwischen zwei Geräten limitiert – und enthält keine erweiterten Funktionen.

Personal- und Professional-Abos erschließen weitere Features, beispielsweise die Möglichkeit, Notizen in Präsentationen umzuwandeln, PDFs und Anhänge zu durchsuchen und die Integration mit weiteren Services wie Slack und Microsoft Teams.

Das Personal-Abo richtet sich dabei an Einzel- beziehungsweise Privatpersonen und kostet 8,33 Euro pro Monat (oder 99,99 Euro pro Jahr).

Das Professional-Abo ist für berufliche und private Projekte von Einzelnutzern gedacht und kostet 10,83 Euro pro Monat (129,99 Euro jährlich).

Evernote Teams ist schließlich für die Zusammenarbeit in Unternehmen konzipiert und bietet gemeinsame Arbeitsbereiche, ein Schulungsprogramm und zentrale Management-Tools. Dafür werden 16,66 Euro pro Benutzer und Monat fällig – oder 199,99 Euro pro Jahr.

OneNote oder Evernote?

Wenn Sie in erster Linie ein Tool suchen, mit dem Sie auf einfache Weise Inhalte aus dem Internet erfassen, organisieren und finden können, sollten Sie zu Evernote greifen. Wollen Sie einfach nur Notizen erstellen und diese bestmöglich organisieren – oder nutzen bereits Microsoft 365 – dürften Sie mit OneNote glücklich werden. Oder Sie verwenden beide Apps einfach in Kombination.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

OneNote vs. Evernote: Notiz-Apps im Vergleich​ Weiterlesen »

KI empfiehlt Frauen systematisch niedrigere Gehälter​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?quality=50&strip=all 4500w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Garbage in, Garbage out: Stereotypen über Geschlecht, Alter oder Herkunft in den Trainingsdaten wirken sich auch in den Ergebnissen der Sprachmodelle aus. Ann Rodchua – Shutterstock.com Trotz aller Bemühungen ist es immer noch nicht gelungen, Large Language Models (LLMs) eine gewisse Voreingenommenheit auszutreiben. Bei ChatGPT & Co. ist das Bias-Problem besonders schwerwiegend, da personalisierte KI-Chatbots immer häufiger von Nutzern bei wichtigen Entscheidungen zu Rate gezogen werden. Mit entsprechenden Folgen: Wie Forschende der Technischen Hochschule Würzburg-Schweinfurt (THWS) in einer aktuellen Studie herausfanden, werden Frauen beispielsweise oft wesentlich niedrigere Gehälter vorgeschlagen als Männern. Ebenso legt die KI People of Color und Personen hispanischer Herkunft häufiger nahe, sich mit einer vergleichsweise niedrigen Lohnforderung zu begnügen. Bei Migranten werden Expatriate-Gehälter tendenziell höher angesetzt, während die Gehälter für Geflüchtete meist niedriger sind. Der Bias-Reset Die Wissenschaftler führen die Voreingenommenheit darauf zurück, dass LLMs auf riesigen Datenmengen trainiert werden. Diese enthielten unweigerlich kontroverse und stereotype Inhalte, die verschiedene Arten von Bias, etwa geschlechts-, herkunfts- oder altersbezogen, aufweisen. „Besitzt ein KI-Assistent eine Speicherfunktion, die alle bisherigen Dialoge mit dem Nutzer für personalisierte Antworten verwendet, setzt sich diese Voreingenommenheit in der Kommunikation fest. Es ist nicht mehr notwendig, die Persona vorab abzufragen, da die notwendigen Informationen höchstwahrscheinlich bereits von der KI gespeichert wurden. Dies stellt ein ernsthaftes Problem für die aktuelle Entwicklung von Sprachmodellen dar“, konstatieren die Forschenden. Verzerrungen in der KI wie der Gender Bias können aber nicht nur zu Fehleinschätzungen beim Gehalt führen. Sie sind mitunter sogar lebensgefährlich, wie der Datenwissenschaftler Prof. Dr. Christian Prinz von der SRH Fernhochschule ausführt. So sei etwa das Risiko, dass ein Herzinfarkt zu spät diagnostiziert wird, bei Frauen wegen einer anderen Symptomatik als bei Männern: „Die KI erkennt solche Fälle oft schlechter, weil sie auf Datensätzen basiert, in denen Männer überrepräsentiert sind und weibliche Symptomatiken als ‚atypisch‘ gelten.“, erklärt Prinz. Die vorhandenen Daten seien immer die Grundlage, so der Datenwissenschaftler. „Enthalten sie Bias, dann produzieren sie Bias-behaftete Vorhersagen. Das passiert oft unbemerkt, wenn man nicht genau auf die Daten schaut“, erklärt er. Überlasse man also der KI das Feld unkontrolliert, vollziehe sich trotz gesellschaftlich positiver Entwicklungen in der KI oft ein Reset, weil die Datengrundlage massiv überholt sei. 

KI empfiehlt Frauen systematisch niedrigere Gehälter​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?quality=50&strip=all 4500w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Garbage in, Garbage out: Stereotypen über Geschlecht, Alter oder Herkunft in den Trainingsdaten wirken sich auch in den Ergebnissen der Sprachmodelle aus. Ann Rodchua – Shutterstock.com

Trotz aller Bemühungen ist es immer noch nicht gelungen, Large Language Models (LLMs) eine gewisse Voreingenommenheit auszutreiben. Bei ChatGPT & Co. ist das Bias-Problem besonders schwerwiegend, da personalisierte KI-Chatbots immer häufiger von Nutzern bei wichtigen Entscheidungen zu Rate gezogen werden.

Mit entsprechenden Folgen: Wie Forschende der Technischen Hochschule Würzburg-Schweinfurt (THWS) in einer aktuellen Studie herausfanden, werden Frauen beispielsweise oft wesentlich niedrigere Gehälter vorgeschlagen als Männern. Ebenso legt die KI People of Color und Personen hispanischer Herkunft häufiger nahe, sich mit einer vergleichsweise niedrigen Lohnforderung zu begnügen. Bei Migranten werden Expatriate-Gehälter tendenziell höher angesetzt, während die Gehälter für Geflüchtete meist niedriger sind.

Der Bias-Reset

Die Wissenschaftler führen die Voreingenommenheit darauf zurück, dass LLMs auf riesigen Datenmengen trainiert werden. Diese enthielten unweigerlich kontroverse und stereotype Inhalte, die verschiedene Arten von Bias, etwa geschlechts-, herkunfts- oder altersbezogen, aufweisen.

„Besitzt ein KI-Assistent eine Speicherfunktion, die alle bisherigen Dialoge mit dem Nutzer für personalisierte Antworten verwendet, setzt sich diese Voreingenommenheit in der Kommunikation fest. Es ist nicht mehr notwendig, die Persona vorab abzufragen, da die notwendigen Informationen höchstwahrscheinlich bereits von der KI gespeichert wurden. Dies stellt ein ernsthaftes Problem für die aktuelle Entwicklung von Sprachmodellen dar“, konstatieren die Forschenden.

Verzerrungen in der KI wie der Gender Bias können aber nicht nur zu Fehleinschätzungen beim Gehalt führen. Sie sind mitunter sogar lebensgefährlich, wie der Datenwissenschaftler Prof. Dr. Christian Prinz von der SRH Fernhochschule ausführt. So sei etwa das Risiko, dass ein Herzinfarkt zu spät diagnostiziert wird, bei Frauen wegen einer anderen Symptomatik als bei Männern: „Die KI erkennt solche Fälle oft schlechter, weil sie auf Datensätzen basiert, in denen Männer überrepräsentiert sind und weibliche Symptomatiken als ‚atypisch‘ gelten.“, erklärt Prinz.

Die vorhandenen Daten seien immer die Grundlage, so der Datenwissenschaftler. „Enthalten sie Bias, dann produzieren sie Bias-behaftete Vorhersagen. Das passiert oft unbemerkt, wenn man nicht genau auf die Daten schaut“, erklärt er. Überlasse man also der KI das Feld unkontrolliert, vollziehe sich trotz gesellschaftlich positiver Entwicklungen in der KI oft ein Reset, weil die Datengrundlage massiv überholt sei.

KI empfiehlt Frauen systematisch niedrigere Gehälter​ Weiterlesen »

Maschinenbauer Krones AG senkt mit KI die Transportkosten​

Allgemein

Maschinenbauer Krones produziert unter anderem komplette Anlagen für die Getränkeabfüllung. T. Schneider – Shutterstock.com Die Krones AG aus Neutraubling nahe Regensburg ist mit einem Jahresumsatz von über fünf Milliarden Euro eine der vielen Hidden Champions in Deutschland. Das Unternehmen hat sich auf die Planung, Entwicklung und Produktion von Maschinen und kompletten Anlagen für die Bereiche Prozess-, Abfüll- und Verpackungstechnik spezialisiert. IT-Services und Fabrikplanung ergänzen das Portfolio. Entsprechend groß und unregelmäßig sind die Güter, die der Maschinenbauer zu seinen Kunden transportieren muss. Packstücke mit Maßen von über zwei Metern, sind keine Seltenheit, weshalb der Transport teuer und schwierig ist. Eine Herausforderung ist dabei, die unregelmäßigen Verpackungen so zu vermessen, dass exakt passende Spezialpaletten für den Transport eingesetzt werden können. Mit KI den Transport optimieren Deshalb setzt Krones jetzt auf KI für den Transport seiner Maschinen, um die Kosten zu minimieren. Durch den Einsatz eines digitalen, KI-gestützten Systems für 3D-Vermessung werden die unregelmäßigen Packstücke standardisiert und präzise für den Transport erfasst. KI- und Computer-Vision-Technologie, oft auch AI Vision genannt, ermöglichen es, die Maschinen standardisiert und präzise zu vermessen. Mit Hilfe von AI Vision will das Unternehmen seine Transportkosten reduzieren. Vytautas Kielaitis – Shutterstock.com Im Pilotaufbau erfasst Krones die Packstücke parallel zum Wiegen digital mit LiDAR-Kameras (Light detection and ranging) . Diese senden Lichtimpulse aus und messen die Zeit, die das Licht benötigt, um zurückzukehren. Auf diese Weise entstehen synchrone, hochpräzise 3D-Bilder der Packstücke aus unterschiedlichen Perspektiven. Datensparsam mit Edge Computing Für eine unmittelbare Auswertung werden die gewonnenen Daten per Edge Computing datensparsam direkt vor Ort auf einer speziell für KI-Anwendungen entwickelten Plattform verarbeitet. Als gebrauchsfähiger Baustein fügt sich die 3D-Vermessung einfach in die Prozesse von Krones mit ihren Dienstleistern ein. In Sachen Technik setzt Krones dabei auf eine Lösung der Telekom. „Durch den Einsatz KI-gestützter Vermessungstechnologie haben wir die Möglichkeit, die Genauigkeit und Geschwindigkeit unserer Verpackungsprozesse erheblich zu steigern“, schildert Elisabeth Hölzl, Leiterin Corporate Logistics Processes bei Krones. Dies ermögliche eine optimierte Auslastung der Transportkapazitäten, was zu signifikanten Kosteneinsparungen führe. 

Maschinenbauer Krones AG senkt mit KI die Transportkosten​ Maschinenbauer Krones produziert unter anderem komplette Anlagen für die Getränkeabfüllung.
T. Schneider – Shutterstock.com

Die Krones AG aus Neutraubling nahe Regensburg ist mit einem Jahresumsatz von über fünf Milliarden Euro eine der vielen Hidden Champions in Deutschland. Das Unternehmen hat sich auf die Planung, Entwicklung und Produktion von Maschinen und kompletten Anlagen für die Bereiche Prozess-, Abfüll- und Verpackungstechnik spezialisiert. IT-Services und Fabrikplanung ergänzen das Portfolio.

Entsprechend groß und unregelmäßig sind die Güter, die der Maschinenbauer zu seinen Kunden transportieren muss. Packstücke mit Maßen von über zwei Metern, sind keine Seltenheit, weshalb der Transport teuer und schwierig ist. Eine Herausforderung ist dabei, die unregelmäßigen Verpackungen so zu vermessen, dass exakt passende Spezialpaletten für den Transport eingesetzt werden können.

Mit KI den Transport optimieren

Deshalb setzt Krones jetzt auf KI für den Transport seiner Maschinen, um die Kosten zu minimieren. Durch den Einsatz eines digitalen, KI-gestützten Systems für 3D-Vermessung werden die unregelmäßigen Packstücke standardisiert und präzise für den Transport erfasst. KI- und Computer-Vision-Technologie, oft auch AI Vision genannt, ermöglichen es, die Maschinen standardisiert und präzise zu vermessen.

Mit Hilfe von AI Vision will das Unternehmen seine Transportkosten reduzieren.
Vytautas Kielaitis – Shutterstock.com

Im Pilotaufbau erfasst Krones die Packstücke parallel zum Wiegen digital mit LiDAR-Kameras (Light detection and ranging) . Diese senden Lichtimpulse aus und messen die Zeit, die das Licht benötigt, um zurückzukehren. Auf diese Weise entstehen synchrone, hochpräzise 3D-Bilder der Packstücke aus unterschiedlichen Perspektiven.

Datensparsam mit Edge Computing

Für eine unmittelbare Auswertung werden die gewonnenen Daten per Edge Computing datensparsam direkt vor Ort auf einer speziell für KI-Anwendungen entwickelten Plattform verarbeitet. Als gebrauchsfähiger Baustein fügt sich die 3D-Vermessung einfach in die Prozesse von Krones mit ihren Dienstleistern ein. In Sachen Technik setzt Krones dabei auf eine Lösung der Telekom.

„Durch den Einsatz KI-gestützter Vermessungstechnologie haben wir die Möglichkeit, die Genauigkeit und Geschwindigkeit unserer Verpackungsprozesse erheblich zu steigern“, schildert Elisabeth Hölzl, Leiterin Corporate Logistics Processes bei Krones. Dies ermögliche eine optimierte Auslastung der Transportkapazitäten, was zu signifikanten Kosteneinsparungen führe.

Maschinenbauer Krones AG senkt mit KI die Transportkosten​ Weiterlesen »

Diese Vertragsmodelle eignen sich für agile Projekte​

Allgemein

In diesem Artikel lesen Sie, wie eine Transformation hin zu agilen Arbeitsweisen erfolgversprechend vorangetrieben werden kann. Foto: Rawpixel.com – shutterstock.com Agile Projektmethoden, die zunächst nur in IT-Abteilungen eingesetzt wurden, setzen sich heute im ganzen Unternehmen durch. Darin liegen große Chancen, aber auch Herausforderungen. Nach ersten Erfolgen stellt sich inzwischen vermehrt Ernüchterung ein, die Transformation hin zur agilen Vorgehensweise kommt ins Stocken. Hauptgrund ist, dass diese Veränderung eben kein reines IT-Thema ist, sondern ganzheitlich angegangen werden muss und verschiedene Unternehmensbereiche beeinflusst. Zu den zentralen Themen gehören die Budgetierung und die verwendeten Vertragsmodelle bei der Zusammenarbeit mit Dienstleistern in agilen Projekten. Die Schwierigkeiten beginnen schon mit dem traditionellen jährlichen Budgetplanungsprozess: Er passt nicht zu agil. Warum ist das so? Um die Frage zu beantworten, müssen wir uns nur einmal anzuschauen, wie dieser Prozess üblicherweise abläuft. Die Budgetverhandlungen beginnen damit, dass jeder mehr Geld als eigentlich notwendig einfordert, um die Unsicherheit einer längerfristigen Planung einzupreisen. Sandbagging sorgt für Budgetverschwendung Die fehlende unterjährige Flexibilität von Budgetanpassungen und die Tatsache, dass man im Zuge der Verhandlungen sowieso mit einer gewissen Kürzung rechnet, verstärkt diesen Effekt und blockt zudem Gelder, mit denen andere Projekte finanziert werden könnten. Das ist nicht nur ein aufwändiger und ineffizienter Prozess, der die Unzufriedenheit der Beteiligten schürt, er sorgt auch für ein Phänomen, das vor allem in Wasserfall-Projekten auftaucht, das sogenannte Sandbagging. Teams schieben ein nicht aufgebrauchtes Budget entgegen der eigentlichen Projektplanung von Monat zu Monat weiter, nur um am Ende des Planungsjahres damit konfrontiert zu sein, deutlich mehr Geld ausgeben zu müssen als notwendig, um nicht in unbequeme Gespräche über eine schlechte Projektplanung verwickelt zu werden. Gleichzeitig können aufgrund fehlender Budgets keine zusätzlichen Unternehmensvorteile mittels weiterer werthaltiger Projekte generiert werden. Kurzum: Die klassische Budgetplanung verfolgt das Ziel, möglichst viel Sicherheit bezüglich der nächsten zwölf Monate (oder noch darüber hinaus) zu bekommen. Doch diese Art der Planung funktioniert heute nicht mehr – insbesondere nicht in einer sich rasant verändernden und schwer vorhersehbaren Projektlandschaft. Kürzer planen – besser anpassen In der agilen Welt haben sich die Prioritäten verschoben. Nicht die “Planungssicherheit”, sondern die Fähigkeit, sich schnell an verändernde Bedingungen anpassen zu können und möglichst viel und schnell aus Kundenfeedback zu lernen, steht im Vordergrund. Richtigerweise geht man nun davon aus, dass Ideen scheitern und schnelle Anpassungen, auch budgetärer Art, notwendig werden können. Eine Optimierung des Investments mit geeigneten Streuungsmethoden unter unsicheren Begleitumständen ist das Ziel. Darin unterscheidet sich diese Art der Budgetierung vom bisherigen Vorgehen: Sie konzentriert sich auf üblicherweise kürzere Zeiträume von zum Beispiel drei oder maximal sechs Monaten und lässt Anpassungen zu. Vertragsmodelle: So rechnen Sie agile Projekte ab Das eine ist der Budgetplanungsprozess, das andere sind die Vertragsmodellen, die im Rahmen von Projekten die Zusammenarbeit mit Dienstleistern regeln. Oft werden die IT-Abteilungen mit beidem allein gelassen. Hier wäre eine ganzheitlich unternehmerische Betrachtung überfällig. Nur wenn die agile Transformation als Herausforderung angesehen wird, die verschiedene Unternehmensbereiche betrifft – und dabei beispielsweise auch Belange des Einkaufs und der Rechtsabteilung adressiert – lassen sich die Weichen für eine erfolgreiche Umsetzung gestellt. Vertragsmodelle und Entscheidungskriterien Um die Projektzusammenarbeit mit Dienstleistern zu regeln, gibt es folgende Vertragsmodelle: Time-and-Material (Dienstleistungsvertrag) Festpreis (Werkvertrag) Output-basiert (transaktionsbasiert) Outcome-basiert Story-Point-basiert Projektions-basiert Es gibt gute Gründe, sich für das eine oder andere Vertragsmodell zu entscheiden. Wichtig dabei ist es, sich über die Entscheidungskriterien für die Auswahl im Klaren zu sein. Üblicherweise werden Kriterien wie Sicherheit hinsichtlich des Lieferergebnisses oder der anfallenden Kosten herangezogen. Manchmal findet zusätzlich noch eine Risikoanalyse statt, die die Herausforderungen für den Dienstleister beziehungsweise das eigene Unternehmen beim jeweiligen Vertragsmodell unter die Lupe nimmt. Bei Time-and-Material werden die im Projekt zu liefernden Gegenstände nicht vertraglich vereinbart. Der Lieferant wird vielmehr aufgrund seines Zeit- und Materialeinsatzes bezahlt. Die Qualifikationen der eingesetzten Mitarbeiter sind dabei üblicherweise auch Vertragsbestandteil. Bei diesem Vertragsmodell kann es durchaus passieren, dass das Projektergebnis nicht den Erwartungen entspricht. Darin genau besteht das Risiko für den Auftragsgeber, da in einem solchen Fall oft weitere Kontingente beauftragt werden müssen, was zu erheblichen Mehrkosten führen kann. Dies zeigt auch, dass das Projektrisiko auf der Lieferantenseite gering ist. Vertrauen spielt also bei einem Dienstleitungsvertrag eine wichtige Rolle. Einen anderen Ansatz verfolgt das Festpreismodell. Hier werden die Liefergegenstände so gut es geht im Vorfeld definiert und es wird ein Festpreis für deren Erbringung vereinbart. Dieses Modell verlangt vorab einen detaillierten Anforderungskatalog, was oft dazu führt, dass sich der Projektstart verzögert. Hinzu kommt, dass die Anforderungen zu Beginn häufig gar nicht vollständig bekannt sind. Aus reiner Kostensicht ist das Festpreismodell für den Auftraggeber bequem. Allerdings kommt es in der Praxis häufig zu folgenden Problemen: Da der Dienstleister das höhere Kostenrisiko trägt und gerade bei IT-Projekten eben immer unerwartete Probleme auftreten können, versucht er gegen Ende der geplanten Projektlaufzeit das vorab festgelegte Lieferergebnis zu verwässern. Dabei hilft ihm, dass zu Beginn kaum alle Anforderungen ausreichend bekannt sein können. Sie werden nur durch grobe Absichtsbeschreibungen definiert. Im späteren Projektverlauf kann es dann dazu kommen, dass der Auftraggeber versucht, immer mehr Inhalte umsetzen zu lassen. Hier sprechen wir typischerweise von einem Scope Creep. Außerdem verleitet dieses Vertragsmodell zum Fingerpointing, indem sich Lieferant und Auftraggeber gegenseitig für das Scheitern verantwortlich machen. Festpreismodelle sind demnach nicht geeignet, wenn es um den Aufbau gegenseitigen Vertrauens geht. Output-basierte Vertragsmodelle kommen ursprünglich aus der Baubranche, der Ansatz wurde vor einigen Jahren auf IT-Projekte übertragen. Hier liegt das Hauptaugenmerk auf dem Lieferergebnis, nicht darauf, wie es erzielt wurde. Dieses Modell findet oft beim Erbringen von Serviceleistungen Anwendung, eher selten im Projektgeschäft. Ein typisches Beispiel ist ein Servicevertrag, der vorsieht, dass eine bestimmte Anzahl an Tickets innerhalb einer bestimmten Zeitdauer unter Einhaltung vereinbarter Reaktionszeiten bearbeitet wird. Das Risiko verteilt sich hier gleichmäßig auf beide Vertragspartner. Während der Dienstleister das Risiko trägt, gegebenenfalls in kurzer Zeit zusätzliche Ressourcen zur Verfügung stellen zu müssen, um einen Peak bedienen zu können, trägt der Auftraggeber das Risiko, die falsche Menge an Tickets vereinbart zu haben. Folge kann eine Beeinträchtigung des operativen Geschäfts sein. Obwohl die Kosten üblicherweise gut kontrollierbar sind, zeigt sich ein anderes Problem: Der vertraglich festgelegte Output ist meist nicht an den Geschäftszielen des Unternehmens ausgerichtet. Dieses Modell trägt auch nicht automatisch zur Qualitätsverbesserung des Produkts bei. Deshalb wurde das Outcome-basierte Vertragsmodell entwickelt. Das prominenteste Beispiel ist “Power by the Hour” von Rolls Royce. Die Flugzeugmotorensparte von Rolls Royce hatte in der Vergangenheit mit den Fluggesellschaften Serviceverträge nach dem Time-and-Material-Prinzip abgeschlossen. Bei diesen Verträgen standen die anfallenden Kosten in direktem Bezug zur Anzahl an Technikern und der Menge der verbrauchten Materialien. Im betrieblichen Alltag bedeutete das, dass Rolls Royce immer dann mit den Serviceverträgen verdiente, wenn die Flugzeuge der Kunden am Boden waren. Mit anderen Worten: Rolls Royce verdiente, wenn die Fluggesellschaften keinen Umsatz machten. Rolls Royce hat dieses Modell inzwischen gegen ein anderes ausgetauscht, das sich am Geschäftserfolg der Fluggesellschaften orientiert: Fluggesellschaften zahlen nun eine Gebühr pro Stunde basierend auf der Anzahl der Flugstunden für ein Flugzeugtriebwerk. Dieses Vertragsmodell richtet sich also an den Kundenbedürfnissen aus und führt letztendlich zu einer Win-Win-Situation. Solche Vertragsformen könnten sich beispielsweise auch am Zugewinn von Neukunden, der Kundenzufriedenheit oder der Verringerung der Kundenfluktuation ausrichten. Hier wird zwar eine bessere Risikoverteilung erreicht, unterm Strich erhöht sich aber das Risiko des Dienstleisters. Im schlimmsten Fall muss er sogar den gesamten Aufwand allein tragen. Ein solches Modell setzt ein hohes Maß an Vertrauen voraus, das ein Grundpfeiler der agilen Arbeitsweise ist. Weiterhin führt es einen wichtigen Entscheidungsfaktor ein, der häufig bei der Auswahl des Vertragsmodells gar nicht berücksichtigt wird – die Incentivierung. Ein Story-Point-basiertes Vertragsmodell setzt eine reife, agile Projektorganisation voraus. Wie der Name erahnen lässt, stammt dieses Modell aus dem Scrum-Umfeld. Das Lieferergebnis ist nicht von Beginn an detailliert ausdefiniert, sondern zeigt eine gewisse Flexibilität. Die Projektkosten werden, und darin liegt ein Kritikpunkt an diesem Vertragsmodell, in Story-Points angegeben. Dies widerspricht dem eigentlichen Prinzip von Story-Points und suggeriert eine mögliche Umrechnung von Story-Points in Geldeinheiten. Zudem bleibt die Frage nach der Verlässlichkeit einer abstrakten Schätzung auf nicht unbedingt detailliert definierte Lieferergebnisse, wobei es in der Natur der Story-Points liegt, dass diese Ergebnisse vielen Einflussfaktoren unterliegen und hohe Abweichungen damit einhergehen. Es kommt dann zu einer Vermischung einer – eher um Sicherheit bemühten – Wasserfall-basierenden Denkweise mit Begrifflichkeiten aus der agilen Welt. Beim Story-Point-Modell wird der Kostenrahmen als Kapazität angegeben. Nehmen wir zum Beispiel an, das Projektteam eines ERP-Projekts hat eine Kapazität von 1.000 Story-Points für den Rollout eines Templates zur Verfügung. Bei jeder neuen Anforderung ergeben sich nun zwei Optionen: Entweder wird sie neu entwickelt oder das Team verwendet eine bereits implementierte Funktion des Templates. Die erste Option, wird die zur Verfügung stehende Kapazität an Story-Points stärker belasten als die zweite. Damit wird das verfolgte Ziel bezüglich der Incentivierung deutlich. So oft wie möglich sollen schon vorhandene Funktionen verwendet und die Standardisierung gefördert werden, um Story-Points einzusparen und für andere, innovative Entwicklungen zu verwenden. Angelehnt an das Story-Point- und Output-basierte Vertragsmodell ist auch ein Projektions-basiertes Vertragsmodell denkbar. Hierbei wird anhand einer kurzen Erkundungsphase ein voraussichtliches Umsetzungsvolumen – zum Beispiel die Anzahl von umgesetzten Referenzelementen – innerhalb eines definierten Bearbeitungszeitraums oder eines Sprints abgeleitet. Ziel ist es, sowohl den Projektumfang als auch das Umsetzungsvolumen in einer bestimmten Zeiteinheit abschätzen zu können. Dadurch kann der Kostenrahmen als Umsetzungsvolumen angegeben werden und ermöglicht damit einen gewissen Output als Zielwert inklusive eines “Risk Shares”, also der Festlegung, wie bei signifikanten Abweichungen zu verfahren ist. Eine regelmäßige Überprüfung der Parameter im Projektverlauf eröffnet zudem die Chance, Anpassungen vorzunehmen. Die Incentivierung für den Dienstleister besteht darin, Abläufe in der Umsetzung sowie die Produktqualität zu verbessern. So kann er Mehraufwand verhindern. Der Auftraggeber sollte das Ziel verfolgen, sich auf werthaltige Anforderungen zu konzentrieren, damit der höchste Nutzen mit kalkulierbaren Kosten und kurzer Time-to-Market verbunden wird. Ein entscheidender Vorteil dieser Variante ist zudem, dass oft früh erkannt werden kann, ob das Projekt zu einem Erfolg führen wird (Stichwort fail fast). Voraussetzung ist hier ein mindestens zweiphasiges Vertragsmodell, wobei in der ersten Phase die Kosten (Time-and-Material oder Festpreis) für eine kurze Laufzeit zur Projekterkundung festgelegt werden. In dieser Phase ist es das Ziel, die minimal notwendigen Voraussetzungen für die technische Projektdurchführung zu ermitteln (zum Beispiel über einen bis drei Sprints bei Scrum) und elementare Anforderungen im Rahmen einer vollständigen, agilen Arbeitsweise umzusetzen (für einen bis drei Monate etwa). Anhand der Ergebnisse dieser Phase lässt sich ableiten, welches Aufkommen an neuen Anforderungen im Durchschnitt entstehen wird und wie viele davon über einen bestimmten Zeitraum bearbeitet werden können. In den folgenden Vertragsphasen wird ein Kostenrahmen für ein Umsetzungsvolumen vereinbart, wobei die Anforderungen nicht unbedingt weit im Voraus definiert werden müssen. Es reicht aus, dies jeweils vor dem Start der Bearbeitungsphase zu tun – zum Beispiel im Backlog Refinement vor der nächsten Sprint-Planung. Für und Wider der unterschiedlichen Modelle Das Projektions-basierte Modell kann bei richtiger Anwendung eine gute Projektion hinsichtlich Kosten, Nutzen und Laufzeiten liefern. Ein weiterer Vorteil ist, dass nicht zwingend eine reife Projektorganisation für agile Methoden existieren muss. Durch regelmäßige Auswertungen der Ergebnisse über einen gewissen Zeitraum hinweg kann das Modell individuell an Leistungsänderungen angepasst werden. Die Outcome- und Story-Point-basierten Vertragsmodelle haben gezeigt, dass die Incentivierung im agilen Kontext ein wichtiges Entscheidungskriterium sein kann. Es können ganz im Sinne des agilen Grundgedankens Win-Win-Situationen entstehen. Das Time-and-Material-Modell ist weniger geeignet, da es dem Dienstleiser Anreize liefert, das Projektziel nur langsam zu erreichen, um mehr Ressourcen verkaufen zu können. Das Incentive bei einem Festpreis-Modell liegt für den Dienstleister darin, Ressourcen möglichst zu reduzieren. Das kann grundsätzlich im Sinne des Auftraggebers sein, da das Projektteam klein bleibt und nicht unnötig aufgebläht wird. Allerdings führt dies nicht zwangsweise zu einem besseren Projektprodukt. Beim Output-basierten Vertragsmodell gibt es im Prinzip kein Incentive, das dem agilen Gedanken entspricht. Anders sieht das beim Projektions-basierten Vertragsmodell aus. Die Incentives Optimierung der Lieferabläufe und Produktqualität für den Dienstleister sowie das Erstellen werthaltiger Anforderungen für den Auftraggeber entsprechen den agilen Grundprinzipien. Risk-Adapdability-Matrix Die Risk-Adaptability-Matrix bringt zwei wichtige Entscheidungsfaktoren bei agilen Projekten zusammen, nämlich die des Risikos und der Anpassungsfähigkeit hinsichtlich sich verändernder Anforderungen. Abbildung 1 zeigt die Einordnung der beschriebenen Vertragsmodelle in diese Matrix. Dabei wird bei der Einordnung des Risikos zwischen Auftraggeber (A) und Dienstleister (D) unterschieden. Risk-Adaptability-Matrix im agilen Projektumfeld. Foto: Brüggenkamp, Preuss, Renk Es zeigt sich eindeutig, dass Festpreis- und Output-basierte Kostenmodelle nicht für agile Projekte geeignet sind. Der Grund ist hauptsächlich die geringe Anpassungsfähigkeit, die beiden Vertragsmodellen zugrunde liegt. Sie hat wenig mit dem agilen Grundgedanken, offen für Veränderungen zu sein, gemeinsam. Beim Festpreis-Modell kommt hinzu, dass das Risiko sowohl für den Dienstleister als auch für den Auftraggeber hoch ist. Time-and-Material-, Outcome-basierte und Projektions-basierte Vertragsmodelle sind hingegen gut geeignet für agile Projekte. Sie zeigen ein vergleichsweise niedriges Risikoprofil und ein hohes Maß an Anpassungsfähigkeit. Dabei überrascht Time -and-Material mit einer im Vergleich höheren Flexibilität, die vor allem den sich ständig ändernden Anforderungen gerecht wird. Einzig die hohe Risikodiskrepanz zwischen Dienstleister und Auftraggeber erweist sich als schwierig. Der Schlüssel, um diese zu verringern, besteht in der richtigen Incentivierung des Projektteams, womit beide Parteien eingeschlossen sind. So wäre es denkbar, ein Incentive zu verwenden, das sich am Unternehmensziel orientiert, wie beispielsweise ein Zugewinn an Neukunden, Steigerungen von Downloadraten und Nutzungszeiten oder eine Verringerung der Kundenfluktuation, womit ein hybrides Vertragswerk aus Time-and -Material und Outcome-basierten Bestandteilen entsteht. Das Projektions-basierte Vertragsmodell zeigt eine hohe Anpassungsfähigkeit bei einem relativ geringen Risikoprofil, welches – und darin besteht ein Vorteil dieses Vertragsmodells – möglichst gleichmäßig auf Auftraggeber und Dienstleister verteilt ist. Ein Story-Point-basiertes Vertragsmodell ist prinzipiell für agile Projekte geeignet – jedoch ist hierfür eine stabile und reife Projektorganisation mit agilen Methoden die Voraussetzung. Als Incentive bei Software-Projekten steht hier eindeutig die unternehmensweite Standardisierung im Vordergrund. Darin liegen aber auch die Schwierigkeit und das erhöhte Risiko begründet. Dieses Incentive ist primär für den Auftraggeber wichtig, weniger für den Lieferanten. Hier gilt es also Vorsicht walten zu lassen. Nicht selten hat sich gezeigt, dass ein Story-Point-basiertes Modell bei wenig umsichtiger Verwendung schnell in eine Art traditionelles Time-and-Material verwandelt wird – zu Gunsten des Lieferanten und zu Ungunsten des Auftraggebers. Erwartungsgemäß gibt es keine klare und einfache Lösung für das komplexe Problem der Budgetierung und Vertragsgestaltung im agilen Kontext. Dabei haben wir am Beispiel einer Mischung aus Time-and- Material und Outcome-basiertem Modell oder dem Beispiel des Projektions-basierten Modells bereits gesehen, dass der Schlüssel in einer individualisierten, an den Projekt- und Unternehmenskontext angepassten Kombination verschiedener Modelle liegt, da dadurch die agilen Anforderungen am besten bedient werden können. Denkbar sind auch andere hybride Modelle. So könnte man einen gewissen Prozentsatz der gesamten Projektkosten als Festpreis abbilden und den verbleibenden Kostenblock an ein Outcome-basiertes Modell koppeln. Wichtig ist es, ein gesundes Maß zwischen der praktischen Anwendbarkeit eines Vertragsmodells und der Komplexität zu finden. Das ist notwendig, um für beide Vertragsparteien ein faires Modell zu entwickeln. Fazit: Vertrauen, Anpassungsfähigkeit, Incentivierung Wir haben in diesem Artikel verschiedene Vertragsmodelle hinsichtlich ihrer Anwendbarkeit für agile Projekte verglichen. Dabei spielen insbesondere drei Aspekte bei der Auswahl des passenden Vertragsmodells eine zentrale Rolle. Zum ersten ist zu häufig ein fehlendes Vertrauen zwischen den Vertragsparteien, aber auch unternehmensintern zwischen Fachbereichen und den IT-Abteilungen erkennbar. Vertrauensvolle Partnerschaften sind jedoch eine Grundvoraussetzung für jede agile Organisation. Time-and-Material, ein Outcome-basiertes oder ein Projektions-basiertes Vertragsmodell sind hier am geeignetsten. Zum zweiten ist die Anpassungsfähigkeit an sich ändernde Umstände essenziell. Dies überrascht wenig im agilen Kontext; allerdings gibt es wenige Vertragsmodelle, die diesem Aspekt wirklich Rechnung tragen und sinnvoll in der Praxis eingesetzt werden können. Festpreis- und Output-basierte Vertragsmodelle scheiden deshalb aus. Zum dritten wird das Thema Incentivierung bei der Auswahl des richtigen Vertragsmodells vor allem vor dem Hintergrund agiler Projekte immer wichtiger. Nur wenn mittels der richtigen Incentivierungen Win-Win-Situationen zwischen Lieferant und Auftraggeber (oder auch zwischen den Fachbereichen und der IT) geschaffen werden, kann eine Transformation hin zu agilen Arbeitsweisen erfolgversprechend vorangetrieben werden. Warum agile Organisationen und Methoden effizienter sind9 Gründe, weshalb agile Unternehmen ihr Business und Krisen besser meistern Foto: Mikko Lemola – shutterstock.comAgile Methoden haben in vielen Unternehmen zwar schon Einzug gehalten, meist aber nur in Einzelbereichen wie zum Beispiel der IT. Eine Studie der Technologieberatung BearingPoint zeigt jedoch, dass Unternehmen mit einer durchgängig agilen Organisation sowie in der Unternehmenskultur verankertem agilen Mindset den Alltag und Krisen schneller und besser meistern. Gute Gründe für mehr Agilität. Vereinfachte Prozesse Foto: Tashatuvango – shutterstock.comAgile Organisationen zeichnen sich durch hohe End-to-End-Prozessverantwortung, schlanke Prozesse, hohe Prozessautomatisierung und -standardisierung aus. Je leichtgewichtiger und standardisierter Prozesse sind, umso kosteneffizienter können Organisationen agieren.Vereinfachte Steuerungslogik Foto: keport – shutterstock.comOrganisationen, die in Abhängigkeit von Prioritätsänderungen flexibler steuern können, sind in Krisenzeiten besser in der Lage, schnell auf geänderte Parameter zu reagieren. Vereinfachte Organisationsstruktur Foto: patpitchaya – shutterstock.comAgile Organisationen zeichnen sich dadurch aus, dass anhand der Wertschöpfungskette durchgängig verantwortliche, autonome und cross-funktionale Teams aufgebaut und Abteilungsgrenzen aufgelöst werden. In Krisenzeiten profitieren agile Organisationen durch bessere Zusammenarbeit über Teams, Abteilungen oder Business Units hinweg. Höherer Innovationsgrad Foto: Olivier Le Moal – shutterstock.comInterdisziplinäre Teams wirken als Brutkasten für innovative Ideen und Ansätze. Außerdem verfügen agile Organisationen öfter über offene Ökosysteme und profitieren in Krisenzeiten von diesem Netzwerk.Schnelle Reaktionsfähigkeit Foto: TippaPatt – shutterstock.comEs gilt, die Krise als Chance zu sehen und Änderungen willkommen zu heißen. Strukturen und Prozesse wie agiles Portfolio Management oder Objektive and Key Results helfen kontinuierlich neu zu bewerten. Agile Organisationen arbeiten iterativ mit vielen Feedback-Schleifen und das ständige Hinterfragen und Reagieren auf Änderung ist Teil ihrer DNA.Kundennähe und Kundenzentriertheit Foto: Tashatuvango – shutterstock.comGerade in Krisenzeiten muss den Kundenbedürfnissen entsprechend noch zielgerichteter agiert werden. Schnelles Feedback ist hier extrem wertvoll. Als Organisation muss bewusst auch mit Teilprodukten auf den Markt zu gegangen werden, um etwaige Kundenwünsche oder Adaptionen früh genug berücksichtigen zu können. Hohe Selbstorganisation und Teamwork Foto: Sergey Nivens – shutterstock.comTeams, die es gewohnt sind, auch selbst Entscheidungen zu treffen, sind in Krisenzeiten flexibler und besser vorbereitet. Organisationen, deren Management sehr stark auf Selbstorganisation setzt und Entscheidungsbefugnisse weitgehend an die agilen Teams delegiert haben, sind schneller, was auch in Krisenzeiten ein immenser Vorteil ist.Neuer Leadership-Stil Foto: thodonal88 – shutterstock.comFührungskräfte sind in Krisenzeiten besonders gefordert und profitieren von Skills, die für agile Organisationen typisch sind. Eine starke und offene Kommunikation kann Sorgen und Unsicherheiten ausräumen und psychologische Sicherheit vermitteln. Führungskräfte, denen es gelingt, eine nachhaltige Fehlerkultur zu etablieren, fördern nicht nur das kontinuierliche Lernen, sondern sorgen auch dafür, dass Mitarbeiter bereit sind, Entscheidungen und Risiken zu treffen. Technologie-Führerschaft Foto: Preechar Bowonkitwanchai – shutterstock.comAgile Organisationen zeichnen sich durch eine Technologieführerschaft und den Einsatz moderner State-of-the-Art-Technologien aus. Organisationen, die bereits vor der Krise begonnen haben, ihre Kernsysteme auf eine Micro-Service-Architektur mit losen gekoppelten Services umzubauen und den Einsatz von Continuous-Integration-Systemen forciert haben, sind in der Lage, schneller und unabhängiger zu produzieren und kontinuierlich Releases zu veröffentlichen. 

Diese Vertragsmodelle eignen sich für agile Projekte​ In diesem Artikel lesen Sie, wie eine Transformation hin zu agilen Arbeitsweisen erfolgversprechend vorangetrieben werden kann.
Foto: Rawpixel.com – shutterstock.com

Agile Projektmethoden, die zunächst nur in IT-Abteilungen eingesetzt wurden, setzen sich heute im ganzen Unternehmen durch. Darin liegen große Chancen, aber auch Herausforderungen. Nach ersten Erfolgen stellt sich inzwischen vermehrt Ernüchterung ein, die Transformation hin zur agilen Vorgehensweise kommt ins Stocken. Hauptgrund ist, dass diese Veränderung eben kein reines IT-Thema ist, sondern ganzheitlich angegangen werden muss und verschiedene Unternehmensbereiche beeinflusst. Zu den zentralen Themen gehören die Budgetierung und die verwendeten Vertragsmodelle bei der Zusammenarbeit mit Dienstleistern in agilen Projekten.

Die Schwierigkeiten beginnen schon mit dem traditionellen jährlichen Budgetplanungsprozess: Er passt nicht zu agil. Warum ist das so? Um die Frage zu beantworten, müssen wir uns nur einmal anzuschauen, wie dieser Prozess üblicherweise abläuft. Die Budgetverhandlungen beginnen damit, dass jeder mehr Geld als eigentlich notwendig einfordert, um die Unsicherheit einer längerfristigen Planung einzupreisen.

Sandbagging sorgt für Budgetverschwendung

Die fehlende unterjährige Flexibilität von Budgetanpassungen und die Tatsache, dass man im Zuge der Verhandlungen sowieso mit einer gewissen Kürzung rechnet, verstärkt diesen Effekt und blockt zudem Gelder, mit denen andere Projekte finanziert werden könnten. Das ist nicht nur ein aufwändiger und ineffizienter Prozess, der die Unzufriedenheit der Beteiligten schürt, er sorgt auch für ein Phänomen, das vor allem in Wasserfall-Projekten auftaucht, das sogenannte Sandbagging.

Teams schieben ein nicht aufgebrauchtes Budget entgegen der eigentlichen Projektplanung von Monat zu Monat weiter, nur um am Ende des Planungsjahres damit konfrontiert zu sein, deutlich mehr Geld ausgeben zu müssen als notwendig, um nicht in unbequeme Gespräche über eine schlechte Projektplanung verwickelt zu werden. Gleichzeitig können aufgrund fehlender Budgets keine zusätzlichen Unternehmensvorteile mittels weiterer werthaltiger Projekte generiert werden. Kurzum: Die klassische Budgetplanung verfolgt das Ziel, möglichst viel Sicherheit bezüglich der nächsten zwölf Monate (oder noch darüber hinaus) zu bekommen. Doch diese Art der Planung funktioniert heute nicht mehr – insbesondere nicht in einer sich rasant verändernden und schwer vorhersehbaren Projektlandschaft.

Kürzer planen – besser anpassen

In der agilen Welt haben sich die Prioritäten verschoben. Nicht die “Planungssicherheit”, sondern die Fähigkeit, sich schnell an verändernde Bedingungen anpassen zu können und möglichst viel und schnell aus Kundenfeedback zu lernen, steht im Vordergrund. Richtigerweise geht man nun davon aus, dass Ideen scheitern und schnelle Anpassungen, auch budgetärer Art, notwendig werden können. Eine Optimierung des Investments mit geeigneten Streuungsmethoden unter unsicheren Begleitumständen ist das Ziel. Darin unterscheidet sich diese Art der Budgetierung vom bisherigen Vorgehen: Sie konzentriert sich auf üblicherweise kürzere Zeiträume von zum Beispiel drei oder maximal sechs Monaten und lässt Anpassungen zu.

Vertragsmodelle: So rechnen Sie agile Projekte ab

Das eine ist der Budgetplanungsprozess, das andere sind die Vertragsmodellen, die im Rahmen von Projekten die Zusammenarbeit mit Dienstleistern regeln. Oft werden die IT-Abteilungen mit beidem allein gelassen. Hier wäre eine ganzheitlich unternehmerische Betrachtung überfällig. Nur wenn die agile Transformation als Herausforderung angesehen wird, die verschiedene Unternehmensbereiche betrifft – und dabei beispielsweise auch Belange des Einkaufs und der Rechtsabteilung adressiert – lassen sich die Weichen für eine erfolgreiche Umsetzung gestellt.

Vertragsmodelle und Entscheidungskriterien

Um die Projektzusammenarbeit mit Dienstleistern zu regeln, gibt es folgende Vertragsmodelle:

Time-and-Material (Dienstleistungsvertrag)

Festpreis (Werkvertrag)

Output-basiert (transaktionsbasiert)

Outcome-basiert

Story-Point-basiert

Projektions-basiert

Es gibt gute Gründe, sich für das eine oder andere Vertragsmodell zu entscheiden. Wichtig dabei ist es, sich über die Entscheidungskriterien für die Auswahl im Klaren zu sein. Üblicherweise werden Kriterien wie Sicherheit hinsichtlich des Lieferergebnisses oder der anfallenden Kosten herangezogen. Manchmal findet zusätzlich noch eine Risikoanalyse statt, die die Herausforderungen für den Dienstleister beziehungsweise das eigene Unternehmen beim jeweiligen Vertragsmodell unter die Lupe nimmt.

Bei Time-and-Material werden die im Projekt zu liefernden Gegenstände nicht vertraglich vereinbart. Der Lieferant wird vielmehr aufgrund seines Zeit- und Materialeinsatzes bezahlt. Die Qualifikationen der eingesetzten Mitarbeiter sind dabei üblicherweise auch Vertragsbestandteil. Bei diesem Vertragsmodell kann es durchaus passieren, dass das Projektergebnis nicht den Erwartungen entspricht. Darin genau besteht das Risiko für den Auftragsgeber, da in einem solchen Fall oft weitere Kontingente beauftragt werden müssen, was zu erheblichen Mehrkosten führen kann. Dies zeigt auch, dass das Projektrisiko auf der Lieferantenseite gering ist. Vertrauen spielt also bei einem Dienstleitungsvertrag eine wichtige Rolle.

Einen anderen Ansatz verfolgt das Festpreismodell. Hier werden die Liefergegenstände so gut es geht im Vorfeld definiert und es wird ein Festpreis für deren Erbringung vereinbart. Dieses Modell verlangt vorab einen detaillierten Anforderungskatalog, was oft dazu führt, dass sich der Projektstart verzögert. Hinzu kommt, dass die Anforderungen zu Beginn häufig gar nicht vollständig bekannt sind.

Aus reiner Kostensicht ist das Festpreismodell für den Auftraggeber bequem. Allerdings kommt es in der Praxis häufig zu folgenden Problemen: Da der Dienstleister das höhere Kostenrisiko trägt und gerade bei IT-Projekten eben immer unerwartete Probleme auftreten können, versucht er gegen Ende der geplanten Projektlaufzeit das vorab festgelegte Lieferergebnis zu verwässern. Dabei hilft ihm, dass zu Beginn kaum alle Anforderungen ausreichend bekannt sein können.

Sie werden nur durch grobe Absichtsbeschreibungen definiert. Im späteren Projektverlauf kann es dann dazu kommen, dass der Auftraggeber versucht, immer mehr Inhalte umsetzen zu lassen. Hier sprechen wir typischerweise von einem Scope Creep. Außerdem verleitet dieses Vertragsmodell zum Fingerpointing, indem sich Lieferant und Auftraggeber gegenseitig für das Scheitern verantwortlich machen. Festpreismodelle sind demnach nicht geeignet, wenn es um den Aufbau gegenseitigen Vertrauens geht.

Output-basierte Vertragsmodelle kommen ursprünglich aus der Baubranche, der Ansatz wurde vor einigen Jahren auf IT-Projekte übertragen. Hier liegt das Hauptaugenmerk auf dem Lieferergebnis, nicht darauf, wie es erzielt wurde. Dieses Modell findet oft beim Erbringen von Serviceleistungen Anwendung, eher selten im Projektgeschäft.

Ein typisches Beispiel ist ein Servicevertrag, der vorsieht, dass eine bestimmte Anzahl an Tickets innerhalb einer bestimmten Zeitdauer unter Einhaltung vereinbarter Reaktionszeiten bearbeitet wird. Das Risiko verteilt sich hier gleichmäßig auf beide Vertragspartner. Während der Dienstleister das Risiko trägt, gegebenenfalls in kurzer Zeit zusätzliche Ressourcen zur Verfügung stellen zu müssen, um einen Peak bedienen zu können, trägt der Auftraggeber das Risiko, die falsche Menge an Tickets vereinbart zu haben. Folge kann eine Beeinträchtigung des operativen Geschäfts sein. Obwohl die Kosten üblicherweise gut kontrollierbar sind, zeigt sich ein anderes Problem: Der vertraglich festgelegte Output ist meist nicht an den Geschäftszielen des Unternehmens ausgerichtet. Dieses Modell trägt auch nicht automatisch zur Qualitätsverbesserung des Produkts bei.

Deshalb wurde das Outcome-basierte Vertragsmodell entwickelt. Das prominenteste Beispiel ist “Power by the Hour” von Rolls Royce. Die Flugzeugmotorensparte von Rolls Royce hatte in der Vergangenheit mit den Fluggesellschaften Serviceverträge nach dem Time-and-Material-Prinzip abgeschlossen. Bei diesen Verträgen standen die anfallenden Kosten in direktem Bezug zur Anzahl an Technikern und der Menge der verbrauchten Materialien. Im betrieblichen Alltag bedeutete das, dass Rolls Royce immer dann mit den Serviceverträgen verdiente, wenn die Flugzeuge der Kunden am Boden waren. Mit anderen Worten: Rolls Royce verdiente, wenn die Fluggesellschaften keinen Umsatz machten.

Rolls Royce hat dieses Modell inzwischen gegen ein anderes ausgetauscht, das sich am Geschäftserfolg der Fluggesellschaften orientiert: Fluggesellschaften zahlen nun eine Gebühr pro Stunde basierend auf der Anzahl der Flugstunden für ein Flugzeugtriebwerk. Dieses Vertragsmodell richtet sich also an den Kundenbedürfnissen aus und führt letztendlich zu einer Win-Win-Situation.

Solche Vertragsformen könnten sich beispielsweise auch am Zugewinn von Neukunden, der Kundenzufriedenheit oder der Verringerung der Kundenfluktuation ausrichten. Hier wird zwar eine bessere Risikoverteilung erreicht, unterm Strich erhöht sich aber das Risiko des Dienstleisters. Im schlimmsten Fall muss er sogar den gesamten Aufwand allein tragen. Ein solches Modell setzt ein hohes Maß an Vertrauen voraus, das ein Grundpfeiler der agilen Arbeitsweise ist. Weiterhin führt es einen wichtigen Entscheidungsfaktor ein, der häufig bei der Auswahl des Vertragsmodells gar nicht berücksichtigt wird – die Incentivierung.

Ein Story-Point-basiertes Vertragsmodell setzt eine reife, agile Projektorganisation voraus. Wie der Name erahnen lässt, stammt dieses Modell aus dem Scrum-Umfeld. Das Lieferergebnis ist nicht von Beginn an detailliert ausdefiniert, sondern zeigt eine gewisse Flexibilität. Die Projektkosten werden, und darin liegt ein Kritikpunkt an diesem Vertragsmodell, in Story-Points angegeben. Dies widerspricht dem eigentlichen Prinzip von Story-Points und suggeriert eine mögliche Umrechnung von Story-Points in Geldeinheiten.

Zudem bleibt die Frage nach der Verlässlichkeit einer abstrakten Schätzung auf nicht unbedingt detailliert definierte Lieferergebnisse, wobei es in der Natur der Story-Points liegt, dass diese Ergebnisse vielen Einflussfaktoren unterliegen und hohe Abweichungen damit einhergehen. Es kommt dann zu einer Vermischung einer – eher um Sicherheit bemühten – Wasserfall-basierenden Denkweise mit Begrifflichkeiten aus der agilen Welt.

Beim Story-Point-Modell wird der Kostenrahmen als Kapazität angegeben. Nehmen wir zum Beispiel an, das Projektteam eines ERP-Projekts hat eine Kapazität von 1.000 Story-Points für den Rollout eines Templates zur Verfügung. Bei jeder neuen Anforderung ergeben sich nun zwei Optionen: Entweder wird sie neu entwickelt oder das Team verwendet eine bereits implementierte Funktion des Templates. Die erste Option, wird die zur Verfügung stehende Kapazität an Story-Points stärker belasten als die zweite.

Damit wird das verfolgte Ziel bezüglich der Incentivierung deutlich. So oft wie möglich sollen schon vorhandene Funktionen verwendet und die Standardisierung gefördert werden, um Story-Points einzusparen und für andere, innovative Entwicklungen zu verwenden.

Angelehnt an das Story-Point- und Output-basierte Vertragsmodell ist auch ein Projektions-basiertes Vertragsmodell denkbar. Hierbei wird anhand einer kurzen Erkundungsphase ein voraussichtliches Umsetzungsvolumen – zum Beispiel die Anzahl von umgesetzten Referenzelementen – innerhalb eines definierten Bearbeitungszeitraums oder eines Sprints abgeleitet. Ziel ist es, sowohl den Projektumfang als auch das Umsetzungsvolumen in einer bestimmten Zeiteinheit abschätzen zu können.

Dadurch kann der Kostenrahmen als Umsetzungsvolumen angegeben werden und ermöglicht damit einen gewissen Output als Zielwert inklusive eines “Risk Shares”, also der Festlegung, wie bei signifikanten Abweichungen zu verfahren ist. Eine regelmäßige Überprüfung der Parameter im Projektverlauf eröffnet zudem die Chance, Anpassungen vorzunehmen. Die Incentivierung für den Dienstleister besteht darin, Abläufe in der Umsetzung sowie die Produktqualität zu verbessern. So kann er Mehraufwand verhindern. Der Auftraggeber sollte das Ziel verfolgen, sich auf werthaltige Anforderungen zu konzentrieren, damit der höchste Nutzen mit kalkulierbaren Kosten und kurzer Time-to-Market verbunden wird. Ein entscheidender Vorteil dieser Variante ist zudem, dass oft früh erkannt werden kann, ob das Projekt zu einem Erfolg führen wird (Stichwort fail fast).

Voraussetzung ist hier ein mindestens zweiphasiges Vertragsmodell, wobei in der ersten Phase die Kosten (Time-and-Material oder Festpreis) für eine kurze Laufzeit zur Projekterkundung festgelegt werden. In dieser Phase ist es das Ziel, die minimal notwendigen Voraussetzungen für die technische Projektdurchführung zu ermitteln (zum Beispiel über einen bis drei Sprints bei Scrum) und elementare Anforderungen im Rahmen einer vollständigen, agilen Arbeitsweise umzusetzen (für einen bis drei Monate etwa).

Anhand der Ergebnisse dieser Phase lässt sich ableiten, welches Aufkommen an neuen Anforderungen im Durchschnitt entstehen wird und wie viele davon über einen bestimmten Zeitraum bearbeitet werden können. In den folgenden Vertragsphasen wird ein Kostenrahmen für ein Umsetzungsvolumen vereinbart, wobei die Anforderungen nicht unbedingt weit im Voraus definiert werden müssen. Es reicht aus, dies jeweils vor dem Start der Bearbeitungsphase zu tun – zum Beispiel im Backlog Refinement vor der nächsten Sprint-Planung.

Für und Wider der unterschiedlichen Modelle

Das Projektions-basierte Modell kann bei richtiger Anwendung eine gute Projektion hinsichtlich Kosten, Nutzen und Laufzeiten liefern. Ein weiterer Vorteil ist, dass nicht zwingend eine reife Projektorganisation für agile Methoden existieren muss. Durch regelmäßige Auswertungen der Ergebnisse über einen gewissen Zeitraum hinweg kann das Modell individuell an Leistungsänderungen angepasst werden.

Die Outcome- und Story-Point-basierten Vertragsmodelle haben gezeigt, dass die Incentivierung im agilen Kontext ein wichtiges Entscheidungskriterium sein kann. Es können ganz im Sinne des agilen Grundgedankens Win-Win-Situationen entstehen. Das Time-and-Material-Modell ist weniger geeignet, da es dem Dienstleiser Anreize liefert, das Projektziel nur langsam zu erreichen, um mehr Ressourcen verkaufen zu können.

Das Incentive bei einem Festpreis-Modell liegt für den Dienstleister darin, Ressourcen möglichst zu reduzieren. Das kann grundsätzlich im Sinne des Auftraggebers sein, da das Projektteam klein bleibt und nicht unnötig aufgebläht wird. Allerdings führt dies nicht zwangsweise zu einem besseren Projektprodukt. Beim Output-basierten Vertragsmodell gibt es im Prinzip kein Incentive, das dem agilen Gedanken entspricht. Anders sieht das beim Projektions-basierten Vertragsmodell aus. Die Incentives Optimierung der Lieferabläufe und Produktqualität für den Dienstleister sowie das Erstellen werthaltiger Anforderungen für den Auftraggeber entsprechen den agilen Grundprinzipien.

Risk-Adapdability-Matrix

Die Risk-Adaptability-Matrix bringt zwei wichtige Entscheidungsfaktoren bei agilen Projekten zusammen, nämlich die des Risikos und der Anpassungsfähigkeit hinsichtlich sich verändernder Anforderungen. Abbildung 1 zeigt die Einordnung der beschriebenen Vertragsmodelle in diese Matrix. Dabei wird bei der Einordnung des Risikos zwischen Auftraggeber (A) und Dienstleister (D) unterschieden.

Risk-Adaptability-Matrix im agilen Projektumfeld.
Foto: Brüggenkamp, Preuss, Renk

Es zeigt sich eindeutig, dass Festpreis- und Output-basierte Kostenmodelle nicht für agile Projekte geeignet sind. Der Grund ist hauptsächlich die geringe Anpassungsfähigkeit, die beiden Vertragsmodellen zugrunde liegt. Sie hat wenig mit dem agilen Grundgedanken, offen für Veränderungen zu sein, gemeinsam. Beim Festpreis-Modell kommt hinzu, dass das Risiko sowohl für den Dienstleister als auch für den Auftraggeber hoch ist.

Time-and-Material-, Outcome-basierte und Projektions-basierte Vertragsmodelle sind hingegen gut geeignet für agile Projekte. Sie zeigen ein vergleichsweise niedriges Risikoprofil und ein hohes Maß an Anpassungsfähigkeit. Dabei überrascht Time -and-Material mit einer im Vergleich höheren Flexibilität, die vor allem den sich ständig ändernden Anforderungen gerecht wird. Einzig die hohe Risikodiskrepanz zwischen Dienstleister und Auftraggeber erweist sich als schwierig.

Der Schlüssel, um diese zu verringern, besteht in der richtigen Incentivierung des Projektteams, womit beide Parteien eingeschlossen sind. So wäre es denkbar, ein Incentive zu verwenden, das sich am Unternehmensziel orientiert, wie beispielsweise ein Zugewinn an Neukunden, Steigerungen von Downloadraten und Nutzungszeiten oder eine Verringerung der Kundenfluktuation, womit ein hybrides Vertragswerk aus Time-and -Material und Outcome-basierten Bestandteilen entsteht. Das Projektions-basierte Vertragsmodell zeigt eine hohe Anpassungsfähigkeit bei einem relativ geringen Risikoprofil, welches – und darin besteht ein Vorteil dieses Vertragsmodells – möglichst gleichmäßig auf Auftraggeber und Dienstleister verteilt ist.

Ein Story-Point-basiertes Vertragsmodell ist prinzipiell für agile Projekte geeignet – jedoch ist hierfür eine stabile und reife Projektorganisation mit agilen Methoden die Voraussetzung. Als Incentive bei Software-Projekten steht hier eindeutig die unternehmensweite Standardisierung im Vordergrund. Darin liegen aber auch die Schwierigkeit und das erhöhte Risiko begründet. Dieses Incentive ist primär für den Auftraggeber wichtig, weniger für den Lieferanten. Hier gilt es also Vorsicht walten zu lassen. Nicht selten hat sich gezeigt, dass ein Story-Point-basiertes Modell bei wenig umsichtiger Verwendung schnell in eine Art traditionelles Time-and-Material verwandelt wird – zu Gunsten des Lieferanten und zu Ungunsten des Auftraggebers.

Erwartungsgemäß gibt es keine klare und einfache Lösung für das komplexe Problem der Budgetierung und Vertragsgestaltung im agilen Kontext. Dabei haben wir am Beispiel einer Mischung aus Time-and- Material und Outcome-basiertem Modell oder dem Beispiel des Projektions-basierten Modells bereits gesehen, dass der Schlüssel in einer individualisierten, an den Projekt- und Unternehmenskontext angepassten Kombination verschiedener Modelle liegt, da dadurch die agilen Anforderungen am besten bedient werden können. Denkbar sind auch andere hybride Modelle. So könnte man einen gewissen Prozentsatz der gesamten Projektkosten als Festpreis abbilden und den verbleibenden Kostenblock an ein Outcome-basiertes Modell koppeln.

Wichtig ist es, ein gesundes Maß zwischen der praktischen Anwendbarkeit eines Vertragsmodells und der Komplexität zu finden. Das ist notwendig, um für beide Vertragsparteien ein faires Modell zu entwickeln.

Fazit: Vertrauen, Anpassungsfähigkeit, Incentivierung

Wir haben in diesem Artikel verschiedene Vertragsmodelle hinsichtlich ihrer Anwendbarkeit für agile Projekte verglichen. Dabei spielen insbesondere drei Aspekte bei der Auswahl des passenden Vertragsmodells eine zentrale Rolle.

Zum ersten ist zu häufig ein fehlendes Vertrauen zwischen den Vertragsparteien, aber auch unternehmensintern zwischen Fachbereichen und den IT-Abteilungen erkennbar. Vertrauensvolle Partnerschaften sind jedoch eine Grundvoraussetzung für jede agile Organisation. Time-and-Material, ein Outcome-basiertes oder ein Projektions-basiertes Vertragsmodell sind hier am geeignetsten.

Zum zweiten ist die Anpassungsfähigkeit an sich ändernde Umstände essenziell. Dies überrascht wenig im agilen Kontext; allerdings gibt es wenige Vertragsmodelle, die diesem Aspekt wirklich Rechnung tragen und sinnvoll in der Praxis eingesetzt werden können. Festpreis- und Output-basierte Vertragsmodelle scheiden deshalb aus.

Zum dritten wird das Thema Incentivierung bei der Auswahl des richtigen Vertragsmodells vor allem vor dem Hintergrund agiler Projekte immer wichtiger. Nur wenn mittels der richtigen Incentivierungen Win-Win-Situationen zwischen Lieferant und Auftraggeber (oder auch zwischen den Fachbereichen und der IT) geschaffen werden, kann eine Transformation hin zu agilen Arbeitsweisen erfolgversprechend vorangetrieben werden.

Warum agile Organisationen und Methoden effizienter sind9 Gründe, weshalb agile Unternehmen ihr Business und Krisen besser meistern
Foto: Mikko Lemola – shutterstock.comAgile Methoden haben in vielen Unternehmen zwar schon Einzug gehalten, meist aber nur in Einzelbereichen wie zum Beispiel der IT. Eine Studie der Technologieberatung BearingPoint zeigt jedoch, dass Unternehmen mit einer durchgängig agilen Organisation sowie in der Unternehmenskultur verankertem agilen Mindset den Alltag und Krisen schneller und besser meistern. Gute Gründe für mehr Agilität. Vereinfachte Prozesse
Foto: Tashatuvango – shutterstock.comAgile Organisationen zeichnen sich durch hohe End-to-End-Prozessverantwortung, schlanke Prozesse, hohe Prozessautomatisierung und -standardisierung aus. Je leichtgewichtiger und standardisierter Prozesse sind, umso kosteneffizienter können Organisationen agieren.Vereinfachte Steuerungslogik
Foto: keport – shutterstock.comOrganisationen, die in Abhängigkeit von Prioritätsänderungen flexibler steuern können, sind in Krisenzeiten besser in der Lage, schnell auf geänderte Parameter zu reagieren. Vereinfachte Organisationsstruktur
Foto: patpitchaya – shutterstock.comAgile Organisationen zeichnen sich dadurch aus, dass anhand der Wertschöpfungskette durchgängig verantwortliche, autonome und cross-funktionale Teams aufgebaut und Abteilungsgrenzen aufgelöst werden. In Krisenzeiten profitieren agile Organisationen durch bessere Zusammenarbeit über Teams, Abteilungen oder Business Units hinweg. Höherer Innovationsgrad
Foto: Olivier Le Moal – shutterstock.comInterdisziplinäre Teams wirken als Brutkasten für innovative Ideen und Ansätze. Außerdem verfügen agile Organisationen öfter über offene Ökosysteme und profitieren in Krisenzeiten von diesem Netzwerk.Schnelle Reaktionsfähigkeit
Foto: TippaPatt – shutterstock.comEs gilt, die Krise als Chance zu sehen und Änderungen willkommen zu heißen. Strukturen und Prozesse wie agiles Portfolio Management oder Objektive and Key Results helfen kontinuierlich neu zu bewerten. Agile Organisationen arbeiten iterativ mit vielen Feedback-Schleifen und das ständige Hinterfragen und Reagieren auf Änderung ist Teil ihrer DNA.Kundennähe und Kundenzentriertheit
Foto: Tashatuvango – shutterstock.comGerade in Krisenzeiten muss den Kundenbedürfnissen entsprechend noch zielgerichteter agiert werden. Schnelles Feedback ist hier extrem wertvoll. Als Organisation muss bewusst auch mit Teilprodukten auf den Markt zu gegangen werden, um etwaige Kundenwünsche oder Adaptionen früh genug berücksichtigen zu können. Hohe Selbstorganisation und Teamwork
Foto: Sergey Nivens – shutterstock.comTeams, die es gewohnt sind, auch selbst Entscheidungen zu treffen, sind in Krisenzeiten flexibler und besser vorbereitet. Organisationen, deren Management sehr stark auf Selbstorganisation setzt und Entscheidungsbefugnisse weitgehend an die agilen Teams delegiert haben, sind schneller, was auch in Krisenzeiten ein immenser Vorteil ist.Neuer Leadership-Stil
Foto: thodonal88 – shutterstock.comFührungskräfte sind in Krisenzeiten besonders gefordert und profitieren von Skills, die für agile Organisationen typisch sind. Eine starke und offene Kommunikation kann Sorgen und Unsicherheiten ausräumen und psychologische Sicherheit vermitteln. Führungskräfte, denen es gelingt, eine nachhaltige Fehlerkultur zu etablieren, fördern nicht nur das kontinuierliche Lernen, sondern sorgen auch dafür, dass Mitarbeiter bereit sind, Entscheidungen und Risiken zu treffen. Technologie-Führerschaft
Foto: Preechar Bowonkitwanchai – shutterstock.comAgile Organisationen zeichnen sich durch eine Technologieführerschaft und den Einsatz moderner State-of-the-Art-Technologien aus. Organisationen, die bereits vor der Krise begonnen haben, ihre Kernsysteme auf eine Micro-Service-Architektur mit losen gekoppelten Services umzubauen und den Einsatz von Continuous-Integration-Systemen forciert haben, sind in der Lage, schneller und unabhängiger zu produzieren und kontinuierlich Releases zu veröffentlichen.

Diese Vertragsmodelle eignen sich für agile Projekte​ Weiterlesen »

Was ist Rust?​

Allgemein

Rust kann Einiges, was andere Programmiersprachen nicht können.AL-art/Shutterstock Geht es darum, eine Programmiersprache zu wählen, haben Entwickler zwar die Wahl, wie sie ihre Prioritäten setzen. Allerdings müssen sie sich entscheiden zwischen: Programmiersprachen, die auf Komfort und Sicherheit fokussieren, in der Regel aber nicht schnell sind (wie Python), und Sprachen, bei denen die Performance im Vordergrund steht, die dafür jedoch oft komplex anzuwenden sind (wie C und C++). Ganz anders Rust: Die Programmiersprache stellt Devs in Aussicht, Geschwindigkeit, Sicherheit und Benutzerfreundlichkeit unter einen Nenner zu bekommen. Unter dem Strich will Rust besseren Code bei weniger Kompromissen realisieren. In diesem Artikel lesen Sie, welche Vor- und Nachteile daraus erwachsen, mit Rust zu programmieren. Zuvor blicken wir jedoch in aller Kürze darauf zurück, wie die Programmiersprache entstanden ist. Die Anfänge von Rust Rust nahm seinen Anfang als Forschungsprojekt bei der Mozilla Foundation. Das ursprüngliche Ziel des Projekts bestand dabei darin, Schlüsselkomponenten des Firefox-Browsers neu zu implementieren, um die Fähigkeiten von Multicore-Prozessoren besser nutzen zu können – ohne dabei Kompromisse bei der Sicherheit einzugehen. Weil Software aber in jedem Fall schnell und sicher sein sollte, entwickelte sich Rust schnell von einem Browser-Komponenten- zu einem vollumfänglichen Programmiersprachen-Projekt. Heute zählt Rust laut dem Tiobe Index zu den 20 populärsten Coding-Sprachen (Stand: Juni 2025). Besonders beliebt ist Rust, wenn es darum geht, die nächste Generation nativer Applikationen und Bare-Metal-Lösungen zu entwickeln. Das ist auch darauf zurückzuführen, dass die Sprache sowohl eine eigene Toolchain als auch ein eigenes Komponenten-Management-System bereitstellt. Mit Rust programmieren – die Vorteile Ganz allgemein können Entwickler, die mit Rust programmieren, sich folgende Vorteile zunutze machen: 1. Speed Rust-Code kompiliert über verschiedene Plattformen hinweg zu nativem Maschinencode. Binärdateien sind in sich geschlossen und abgesehen davon, was das Betriebssystem (eventuell) bereitstellt, existiert keine externe Laufzeitumgebung. Der so generierte Code verspricht genauso leistungsfähig zu sein, wie vergleichbarer in C oder C++. 2. Memory-safe Rust kompiliert keine Programme, die versuchen, den Speicher „Unsafe“ zu nutzen. Die Syntax und die Sprachmetaphern von Rust stellen sicher, dass häufig auftretende, Memory-bezogene Probleme, wie sie in anderen Sprachen vorkommen (etwa Null- oder Dangling-Pointer oder Data Races) gar nicht erst in Produktionsumgebungen gelangen. Der Rust-Compiler kennzeichnet diese und erzwingt es, sie zu beheben, bevor Programme ausgeführt werden. 3. Memory Management ohne viel Overhead Die Speicherverwaltung wird in Rust über strikte Regeln gesteuert. Ausgedrückt wird das Memory-Management-System von Rust in der Syntax der Sprache – durch die Metapher der „Ownership“. Jede beliebige Value innerhalb von Rust kann jeweils nur von einer einzelnen Variablen ge-“owned“ – respektive gehalten oder verändert – werden. Über die Ownership-Metapher werden sämtliche Speichereinheiten in einem Rust-Programm automatisch getrackt und freigegeben. Die Art und Weise, wie die Ownership dabei zwischen Objekten übertragen wird, regelt ausschließlich der Compiler. Das verhindert „Überraschungen“ zur Laufzeit, etwa in Form von Speicherzuweisungsfehlern. Der Ownership-Ansatz hat auch zur Folge, dass Rust im Gegensatz zu Sprachen wie Go oder C# keine Garbage Collection benötigt (was wiederum der Performance zuträglich ist). 4. Flexibles Sicherheitsmodell Auch bei Rust lassen sich Sicherheitsfunktionen teilweise aussetzen, wenn direkte Veränderungen am Speicher nötig werden – beispielsweise, um Raw Pointer zu dereferenzieren. Die Betonung liegt dabei auf “teilweise”, denn vollständig deaktivierbar sind die Memory-Safety-Prozesse von Rust nicht. Für gängige Anwendungsfälle sollte das jedoch kein Problem darstellen. Unter dem Strich steht (standardmäßig) sicherere Software. 5. Funktioniert plattformübergreifend Rust läuft sowohl auf Linux als auch auf Windows und macOS – unter anderem. Cross Compilation oder Binaries für andere Architekturen oder Plattformen zu produzieren, geht mit einem gewissen Mehraufwand einher. Der ist aber vergleichsweise überschaubar gehalten. Schließlich besteht eines der Rust-Prinzipien darin, den Aufwand für Tasks dieser Art zu minimieren. 6. Simpel zu implementieren Sicherheits- und Integritätsfunktionen bringen nicht viel, wenn sie nicht genutzt werden. Deshalb haben die Rust-Entwickler und die -Community versucht, die Sprache so nützlich und einladend wie möglich zu gestalten. Das Ziel: Rust soll sowohl für Neueinsteiger als auch für erfahrene Entwickler attraktiv sein. Alles was nötig ist, um Rust-Binärdateien zu erstellen, ist bereits im Paket enthalten. Externe Compiler wie GCC werden nur benötigt, um andere Komponenten außerhalb des Rust-Ökosystems zu kompilieren. Auch Windows-Benutzer sind hier keine „Bürger zweiter Klasse“: Die Rust-Toolchain ist unter dem Microsoft-Betriebssystem ebenso leistungsfähig wie unter Linux und macOS. 7. Performante Sprachfunktionen Entwickler wollen im Regelfall nicht in eine neue Sprache einsteigen, nur um dann beim Blick auf die gebotenen Funktionen der Ernüchterung zu erliegen. Das kann bei Rust nicht passieren, vorteilhaften, nativen Sprachfunktionen sei Dank. Dazu zählen zum Beispiel: Makros, Generics, Pattern Matching und Composition (über “Traits”). Einige Funktionen wie Inline-Assembler sind ebenfalls verfügbar, allerdings unter dem Unsafe-Label. 8. Nützliche Standardbibliothek Die Standardbibliothek von Rust bietet Entwicklern diverse Möglichkeiten. Zum Beispiel, um: Container, Collections und Iterators zu verwenden, Strings zu bearbeiten, oder Prozesse und Threads zu managen. Weil Rust plattformübergreifend konzipiert ist, enthält seine Standardbibliothek nur Dinge, die zuverlässig portiert werden können. Support für plattformspezifische Funktionen wie epoll (Linux) muss deshalb über Drittanbieter-Bibliotheken wie libc, mio oder tokio bezogen werden. Darüber hinaus lässt sich Rust auch unabhängig von seiner Standardbibliothek nutzen. Das ist beispielsweise nützlich, um Binaries ohne Plattformabhängigkeiten zu erstellen, beispielsweise für Embedded Systems oder einen Betriebssystem-Kernel. 9. Viele Drittanbieter-Bibliotheken Der Nutzwert einer Programmiersprache bemisst sich auch danach, welche Möglichkeiten über Drittanbieter offenstehen. Third-Party-Bibliotheken heißen bei Rust „Crates“ und stehen zum Beispiel über das offizielle Repository zur Verfügung. Über mangelnde Auswahl dürfte sich bei mehr als 163.000 Crates niemand so schnell beschweren. 10. Umfassender IDE-Support Das Team hinter Rust hat den Rust Language Server entwickelt. Dieser sendet Live-Feedback vom Rust-Compiler an die ihrer Wahl – zum Beispiel Microsoft Visual Studio (Code). loading=”lazy” width=”400px”>Visual Studio Code bietet umfassenden Rust-Support.IDG Mit Rust entwickeln – die Nachteile Neben den genannten Vorteilen bringt es jedoch auch einige Nachteile mit, sich auf Rust einzulassen. Auch an dieser Stelle bleibt die Programmiersprache ihrer Linie treu: Die potenziellen Probleme können sowohl Einsteiger als auch alte Hasen ereilen. 1. Rust ist noch jung Rust wurde erst im Jahr 2015 in Version 1.0 veröffentlicht. Während also ein Großteil der Syntax und Funktionalität der Kernsprache festgeschrieben wurde, sind viele andere Dinge noch weit weniger definiert. Zum Beispiel sind asynchrone Prozesse noch “Work in Progress“. Bis es soweit ist, müssen Komponenten von Drittanbietern reichen. 2. Steile Lernkurve Das größte Hindernis bei Rust besteht wohl darin, seine Metaphern zu verstehen. Ownership, Borrowing und andere Memory-Management-Fallen bringen jeden Rust-Dev zuerst einmal ins Schlingern. Ein gängiger Initiationsritus für neue Rust-Programmierer ist der Kampf gegen den “Borrow Checker”. Dabei erfahren die Neulinge aus erster Hand, wie akribisch der Rust-Compiler veränderbare und unveränderbare Dinge voneinander trennt. 3. Rust ist komplex Auch wegen seines (im Vergleich zu anderen Sprachen) ausführlicheren Codes ist Rust vergleichsweise schwer zu erlernen. Um Strings zu verketten, reicht in Rust ein simples string1+string2 nicht aus. Schließlich kann ein Objekt veränderbar, das andere unveränderbar sein. Rust verlangt von Programmierern zu definieren, wie mit solchen Dingen umzugehen ist – statt den Compiler raten zu lassen. 4. Rust ist eine Systemsprache Weil Rust direkte Eingriffe in den Speicher ermöglicht, kann es wie wie C und C++ dazu genutzt werden, Software auf Systemebene zu entwickeln. Das kann in manchen Fällen aber zuviel des Guten sein: Für hauptsächlich E/A-gebundene Tasks oder solche, die keine Geschwindigkeit auf Maschinenebene benötigen, ist Rust unter Umständen nicht optimal. Die Rechnung ist einfach: Ein Python-Skript, das in fünf Minuten geschrieben ist und eine Sekunde Execution-Zeit benötigt, bringt mehr als ein Rust-Programm, das in einer halben Stunde entsteht und in einer Hundertstelsekunde ausgeführt wird. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Rust?​ Rust kann Einiges, was andere Programmiersprachen nicht können.AL-art/Shutterstock

Geht es darum, eine Programmiersprache zu wählen, haben Entwickler zwar die Wahl, wie sie ihre Prioritäten setzen. Allerdings müssen sie sich entscheiden zwischen:

Programmiersprachen, die auf Komfort und Sicherheit fokussieren, in der Regel aber nicht schnell sind (wie Python), und

Sprachen, bei denen die Performance im Vordergrund steht, die dafür jedoch oft komplex anzuwenden sind (wie C und C++).

Ganz anders Rust: Die Programmiersprache stellt Devs in Aussicht, Geschwindigkeit, Sicherheit und Benutzerfreundlichkeit unter einen Nenner zu bekommen. Unter dem Strich will Rust besseren Code bei weniger Kompromissen realisieren.

In diesem Artikel lesen Sie, welche Vor- und Nachteile daraus erwachsen, mit Rust zu programmieren. Zuvor blicken wir jedoch in aller Kürze darauf zurück, wie die Programmiersprache entstanden ist.

Die Anfänge von Rust

Rust nahm seinen Anfang als Forschungsprojekt bei der Mozilla Foundation. Das ursprüngliche Ziel des Projekts bestand dabei darin, Schlüsselkomponenten des Firefox-Browsers neu zu implementieren, um die Fähigkeiten von Multicore-Prozessoren besser nutzen zu können – ohne dabei Kompromisse bei der Sicherheit einzugehen.

Weil Software aber in jedem Fall schnell und sicher sein sollte, entwickelte sich Rust schnell von einem Browser-Komponenten- zu einem vollumfänglichen Programmiersprachen-Projekt. Heute zählt Rust laut dem Tiobe Index zu den 20 populärsten Coding-Sprachen (Stand: Juni 2025).

Besonders beliebt ist Rust, wenn es darum geht, die nächste Generation nativer Applikationen und Bare-Metal-Lösungen zu entwickeln. Das ist auch darauf zurückzuführen, dass die Sprache sowohl eine eigene Toolchain als auch ein eigenes Komponenten-Management-System bereitstellt.

Mit Rust programmieren – die Vorteile

Ganz allgemein können Entwickler, die mit Rust programmieren, sich folgende Vorteile zunutze machen:

1. Speed

Rust-Code kompiliert über verschiedene Plattformen hinweg zu nativem Maschinencode. Binärdateien sind in sich geschlossen und abgesehen davon, was das Betriebssystem (eventuell) bereitstellt, existiert keine externe Laufzeitumgebung. Der so generierte Code verspricht genauso leistungsfähig zu sein, wie vergleichbarer in C oder C++.

2. Memory-safe

Rust kompiliert keine Programme, die versuchen, den Speicher „Unsafe“ zu nutzen. Die Syntax und die Sprachmetaphern von Rust stellen sicher, dass häufig auftretende, Memory-bezogene Probleme, wie sie in anderen Sprachen vorkommen (etwa Null- oder Dangling-Pointer oder Data Races) gar nicht erst in Produktionsumgebungen gelangen. Der Rust-Compiler kennzeichnet diese und erzwingt es, sie zu beheben, bevor Programme ausgeführt werden.

3. Memory Management ohne viel Overhead

Die Speicherverwaltung wird in Rust über strikte Regeln gesteuert. Ausgedrückt wird das Memory-Management-System von Rust in der Syntax der Sprache – durch die Metapher der „Ownership“. Jede beliebige Value innerhalb von Rust kann jeweils nur von einer einzelnen Variablen ge-“owned“ – respektive gehalten oder verändert – werden. Über die Ownership-Metapher werden sämtliche Speichereinheiten in einem Rust-Programm automatisch getrackt und freigegeben.

Die Art und Weise, wie die Ownership dabei zwischen Objekten übertragen wird, regelt ausschließlich der Compiler. Das verhindert „Überraschungen“ zur Laufzeit, etwa in Form von Speicherzuweisungsfehlern. Der Ownership-Ansatz hat auch zur Folge, dass Rust im Gegensatz zu Sprachen wie Go oder C# keine Garbage Collection benötigt (was wiederum der Performance zuträglich ist).

4. Flexibles Sicherheitsmodell

Auch bei Rust lassen sich Sicherheitsfunktionen teilweise aussetzen, wenn direkte Veränderungen am Speicher nötig werden – beispielsweise, um Raw Pointer zu dereferenzieren. Die Betonung liegt dabei auf “teilweise”, denn vollständig deaktivierbar sind die Memory-Safety-Prozesse von Rust nicht. Für gängige Anwendungsfälle sollte das jedoch kein Problem darstellen. Unter dem Strich steht (standardmäßig) sicherere Software.

5. Funktioniert plattformübergreifend

Rust läuft sowohl auf Linux als auch auf Windows und macOS – unter anderem. Cross Compilation oder Binaries für andere Architekturen oder Plattformen zu produzieren, geht mit einem gewissen Mehraufwand einher. Der ist aber vergleichsweise überschaubar gehalten. Schließlich besteht eines der Rust-Prinzipien darin, den Aufwand für Tasks dieser Art zu minimieren.

6. Simpel zu implementieren

Sicherheits- und Integritätsfunktionen bringen nicht viel, wenn sie nicht genutzt werden. Deshalb haben die Rust-Entwickler und die -Community versucht, die Sprache so nützlich und einladend wie möglich zu gestalten. Das Ziel: Rust soll sowohl für Neueinsteiger als auch für erfahrene Entwickler attraktiv sein.

Alles was nötig ist, um Rust-Binärdateien zu erstellen, ist bereits im Paket enthalten. Externe Compiler wie GCC werden nur benötigt, um andere Komponenten außerhalb des Rust-Ökosystems zu kompilieren. Auch Windows-Benutzer sind hier keine „Bürger zweiter Klasse“: Die Rust-Toolchain ist unter dem Microsoft-Betriebssystem ebenso leistungsfähig wie unter Linux und macOS.

7. Performante Sprachfunktionen

Entwickler wollen im Regelfall nicht in eine neue Sprache einsteigen, nur um dann beim Blick auf die gebotenen Funktionen der Ernüchterung zu erliegen. Das kann bei Rust nicht passieren, vorteilhaften, nativen Sprachfunktionen sei Dank. Dazu zählen zum Beispiel:

Makros,

Generics,

Pattern Matching und

Composition (über “Traits”).

Einige Funktionen wie Inline-Assembler sind ebenfalls verfügbar, allerdings unter dem Unsafe-Label.

8. Nützliche Standardbibliothek

Die Standardbibliothek von Rust bietet Entwicklern diverse Möglichkeiten. Zum Beispiel, um:

Container, Collections und Iterators zu verwenden,

Strings zu bearbeiten, oder

Prozesse und Threads zu managen.

Weil Rust plattformübergreifend konzipiert ist, enthält seine Standardbibliothek nur Dinge, die zuverlässig portiert werden können. Support für plattformspezifische Funktionen wie epoll (Linux) muss deshalb über Drittanbieter-Bibliotheken wie libc, mio oder tokio bezogen werden.

Darüber hinaus lässt sich Rust auch unabhängig von seiner Standardbibliothek nutzen. Das ist beispielsweise nützlich, um Binaries ohne Plattformabhängigkeiten zu erstellen, beispielsweise für Embedded Systems oder einen Betriebssystem-Kernel.

9. Viele Drittanbieter-Bibliotheken

Der Nutzwert einer Programmiersprache bemisst sich auch danach, welche Möglichkeiten über Drittanbieter offenstehen. Third-Party-Bibliotheken heißen bei Rust „Crates“ und stehen zum Beispiel über das offizielle Repository zur Verfügung. Über mangelnde Auswahl dürfte sich bei mehr als 163.000 Crates niemand so schnell beschweren.

10. Umfassender IDE-Support

Das Team hinter Rust hat den Rust Language Server entwickelt. Dieser sendet Live-Feedback vom Rust-Compiler an die ihrer Wahl – zum Beispiel Microsoft Visual Studio (Code).

loading=”lazy” width=”400px”>Visual Studio Code bietet umfassenden Rust-Support.IDG

Mit Rust entwickeln – die Nachteile

Neben den genannten Vorteilen bringt es jedoch auch einige Nachteile mit, sich auf Rust einzulassen. Auch an dieser Stelle bleibt die Programmiersprache ihrer Linie treu: Die potenziellen Probleme können sowohl Einsteiger als auch alte Hasen ereilen.

1. Rust ist noch jung

Rust wurde erst im Jahr 2015 in Version 1.0 veröffentlicht. Während also ein Großteil der Syntax und Funktionalität der Kernsprache festgeschrieben wurde, sind viele andere Dinge noch weit weniger definiert. Zum Beispiel sind asynchrone Prozesse noch “Work in Progress“. Bis es soweit ist, müssen Komponenten von Drittanbietern reichen.

2. Steile Lernkurve

Das größte Hindernis bei Rust besteht wohl darin, seine Metaphern zu verstehen. Ownership, Borrowing und andere Memory-Management-Fallen bringen jeden Rust-Dev zuerst einmal ins Schlingern.

Ein gängiger Initiationsritus für neue Rust-Programmierer ist der Kampf gegen den “Borrow Checker”. Dabei erfahren die Neulinge aus erster Hand, wie akribisch der Rust-Compiler veränderbare und unveränderbare Dinge voneinander trennt.

3. Rust ist komplex

Auch wegen seines (im Vergleich zu anderen Sprachen) ausführlicheren Codes ist Rust vergleichsweise schwer zu erlernen. Um Strings zu verketten, reicht in Rust ein simples string1+string2 nicht aus. Schließlich kann ein Objekt veränderbar, das andere unveränderbar sein. Rust verlangt von Programmierern zu definieren, wie mit solchen Dingen umzugehen ist – statt den Compiler raten zu lassen.

4. Rust ist eine Systemsprache

Weil Rust direkte Eingriffe in den Speicher ermöglicht, kann es wie wie C und C++ dazu genutzt werden, Software auf Systemebene zu entwickeln. Das kann in manchen Fällen aber zuviel des Guten sein: Für hauptsächlich E/A-gebundene Tasks oder solche, die keine Geschwindigkeit auf Maschinenebene benötigen, ist Rust unter Umständen nicht optimal.

Die Rechnung ist einfach: Ein Python-Skript, das in fünf Minuten geschrieben ist und eine Sekunde Execution-Zeit benötigt, bringt mehr als ein Rust-Programm, das in einer halben Stunde entsteht und in einer Hundertstelsekunde ausgeführt wird. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Rust?​ Weiterlesen »

Keiner hat Bock auf KI?​

Allgemein

Dass Technologie zum Selbstzweck kein guter Ansatz ist, sollte sich eigentlich längst herumgesprochen haben.C. Fish Images | shutterstock.com In meiner Rolle als Unternehmensberaterin bin ich immer wieder mit besorgniserregenden “Trends” konfrontiert: Führungskräfte, die von Hype Cycles fasziniert sind, aber nicht verstehen, warum KI für ihr Unternehmen wichtig ist – beziehungsweise welchen Impact die Technologie haben könnte. Ausrichtung auf Unternehmensstrategie und -ziele? Fehlanzeige. Und am schlimmsten: KI-Initiativen, die völlig an den Menschen vorbeigehen, die sie umsetzen und die Technologie anwenden sollen. Ich selbst habe während meiner Tätigkeit für ein Großunternehmen hautnah miterlebt, wie unzusammenhängende Kommunikation über KI zur Desillusionierung der Mitarbeiter geführt hat. Die Unternehmensleitung investierte zwar Millionen in Automatisierungstechnologien – allerdings ohne die Initiative auf die Arbeitsgestaltung abzustimmen und mit Umschulungs- oder Anreizmaßnahmen auszustatten. Das eigentliche Problem ist dabei nicht die “Angst vor dem Unbekannten“, sondern die nicht aufgelösten Reibungspunkte zwischen Menschen, Prozessen und Systemen. Das manifestiert sich in: einer erhöhten Bereitschaft von Führungskräften, trotz unklarer Ziele Millionen in Technologie-Upgrades zu investieren, und parallel einer deutlich geringeren Bereitschaft, alte Verhaltensweisen zu verändern oder Weiterbildungen anzubieten. Diese selektive Investitionsbereitschaft in Technologie sendet eine klare und ziemlich demotivierende Botschaft an die Mitarbeiter. Manager und Führungskräfte, denen daran gelegen ist, dass KI “liefert”, sollten anerkennen, dass das nicht ohne ihre Belegschaft geht – beziehungsweise nicht ohne (das) TRUST (-Prinzip): Transparency: Sind Daten offen zugänglich, klar definiert und leicht zu hinterfragen? Relationships: Arbeiten funktionsübergreifende Teams zusammen oder konkurrieren sie um die Kontrolle? Understanding: Verfügen die Mitarbeiter über die erforderlichen Kenntnisse und den nötigen Support, um Daten sicher nutzen zu können? Safety: Können Mitarbeiter ohne Angst Fragen stellen, Risiken aufzeigen oder sagen, dass sie etwas nicht wissen? Tone from the top: Gibt es Schulungen, gezieltes Change Management und Anreize, um die Veränderung anzunehmen? Woher der KI-Widerstand rührt Ich konnte branchenübergreifend beobachten, dass der Widerstand gegen KI nichts mit den Algorithmen zu tun hat. Es geht vielmehr um Macht, Schutz und Identität. Ein Kunde führte beispielsweise ein Sprachmodell ein, um sein Compliance-Team dabei zu unterstützen, die Zahl manueller Überprüfungen zu reduzieren. Die Technologie funktionierte zwar, die Mitarbeiter lehnten sie jedoch vehement ab. Der Grund: Niemand hatte ihnen wirklich erklärt, wie sich ihre Arbeit konkret verändern würde. Stattdessen war nur klar, dass sie sich verändern würde. Wenn Mitarbeiter glauben, dass ihre Rolle bedroht ist, horten sie Wissen, widersetzen sich Prozessveränderungen und lehnen diese ab. Werden diese Bedenken nicht ausgeräumt, gehen Chancen verloren, sich zu engagieren, zusammenzuarbeiten und gemeinsam von den Vorteilen der KI zu profitieren. Ohne psychologische (Job-)Sicherheit verkommt die KI-Einführung in der Folge zum Machtkampf, Initiativen scheitern – und Unternehmen verlieren Zeit, Geld, Produktivität und Talente. Es ist deshalb nur zu empfehlen, Anreizstrukturen zu schaffen, die positives Verhalten belohnen, das Reibungspunkte reduzieren kann – etwa: Wissensaustausch, Datenaustausch, funktionsübergreifende Abstimmung, transparente Kommunikation bezüglich Unsicherheiten und schnelles Testing. Das ist eine kulturelle Umstellung, keine technische. Am Anfang steht nicht die Software In der Praxis werden von der KI-Einführung viele bestehende Strukturen, einschließlich Organisationsstrukturen und Prozesse betroffen sein. Im Gegensatz zu KI-nativen Startups können Großunternehmen an dieser Stelle jedoch keinen Lean-First-Ansatz verfolgen, da das für intelligente Investitionen erforderliche, strategische Wissen in der Belegschaft verankert ist und nicht nur in der Führungsetage. „Design für KI“ bedeutet deshalb, das Gegenteil von dem zu tun, was die meisten Roadmaps vorschlagen: Starten Sie mit dem Organigramm und den Geschäftszielen, nicht mit dem KI-Modell. Wie Wired-Journalist Ethan Wollic in seinem Artikel “AI will evolve into an organizational strategy for all” argumentiert, werden große Unternehmen durch Mitarbeiter und Führungskräfte aus verschiedenen Abteilungen, einen Mehrwert aus der KI-Transformation ziehen, die sinnvolle Möglichkeiten zur Leistungssteigerung durch KI identifizieren. Das unterstreicht die essenzielle Rolle, die die Belegschaft einnimmt, wenn es darum geht, neue Chancen zu identifizieren, die Umsetzung zu gestalten und Akzeptanz sicherzustellen. Im Gegensatz zu Start-ups, die von Grund auf schlank aufgebaut sind, müssen größere Unternehmen zunächst die bereits in der Belegschaft vorhandene, operative Intelligenz freisetzen und integrieren. Das fällt jedoch bei vielen KI-Strategien völlig unter den Tisch. Im Rahmen eines kürzlich durchgeführten Projekts für einen multinationalen Kunden haben wir eine sogenannte “KI-Reibungsprüfung” durchgeführt. Dabei haben wir die Stellen identifiziert, an denen KI-Initiativen nicht skaliert werden konnten. Die Ergebnisse waren zwar nicht überraschend, aber dennoch aufschlussreich. Denn die größten Hindernisse waren nicht technischer Natur, sondern strukturell und kulturell bedingt. Das ließ sich ablesen an: politischer Konkurrenz zwischen Abteilungen, unklaren Entscheidungsbefugnissen, mangelndem Konsens über den Wert und fehlenden Anreizen für die Zusammenarbeit. Dabei handelte es sich nicht um vereinzelte Schwachstellen, sondern um systemweite Konstruktionsfehler. Die daraus resultierenden Gespräche halfen dem Führungsteam zu verstehen, was sie in ihrer Roadmap übersehen hatten: KI verändert die Machtverhältnisse, Arbeitsabläufe und die DNA einer Organisation. Wenn Strukturen und Anreize nicht mit der Technologie Schritt halten, bricht die Implementierung unter dem Gewicht ungelöster Spannungen zusammen. Strategien, in denen widersprüchliche Entscheidungsprozesse, falsch ausgerichtete Prioritäten und funktionale Silos ignoriert werden, lassen die grundlegenden Voraussetzungen für Erfolg vermissen. Dennoch behandeln viele KI-Roadmaps die Organisationsstruktur nach wie vor als unveränderlich, die Entscheidungsfindung als isoliert und Wertkonflikte als die Probleme anderer. Dabei bedeutet eine Neugestaltung für KI, zuerst bei den Menschen anzusetzen und alte Strukturen abzubauen, in denen Zusammenarbeit optional statt unverzichtbar ist. Einer der größten Fehler ist in meinen Augen dabei, KI-Roadmaps um die Technologie herum zu entwerfen und dann zu versuchen, sie nachträglich ins Unternehmen zu integrieren. Kultur im Fokus Die unangenehme Wahrheit ist, dass die Unternehmenskultur in vielen Fällen das wesentliche Hindernis für die Einführung von KI darstellt. Datenverantwortliche müssen aufhören, KI als technische Herausforderung zu betrachten, und anfangen, wie “Kulturarchitekten” zu führen. Soll heißen: Kommunizieren Sie die Vision frühzeitig, beziehen Sie die Mitarbeiter ein, bilden Sie sie weiter – und belohnen Sie sie. Zum Beispiel mit Hilfe des SMILE-Konzepts: Starten Sie KI-Roadmaps mit einem Audit der Unternehmenskultur. Machen Sie Verhaltensmetriken zum Teil der KI-KPIs. Incentivieren Sie positive Verhaltensweisen über Silos hinweg. Lenken Sie mit Change Management, um die Abstimmung voranzutreiben, die Einführung zu beschleunigen und eine nachhaltige Wirkung sicherzustellen. Emphasieren Sie KI als Mittel zur Skill-Erweiterung, nicht als Quelle von Störungen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Keiner hat Bock auf KI?​ Dass Technologie zum Selbstzweck kein guter Ansatz ist, sollte sich eigentlich längst herumgesprochen haben.C. Fish Images | shutterstock.com

In meiner Rolle als Unternehmensberaterin bin ich immer wieder mit besorgniserregenden “Trends” konfrontiert: Führungskräfte, die von Hype Cycles fasziniert sind, aber nicht verstehen, warum KI für ihr Unternehmen wichtig ist – beziehungsweise welchen Impact die Technologie haben könnte. Ausrichtung auf Unternehmensstrategie und -ziele? Fehlanzeige. Und am schlimmsten: KI-Initiativen, die völlig an den Menschen vorbeigehen, die sie umsetzen und die Technologie anwenden sollen.

Ich selbst habe während meiner Tätigkeit für ein Großunternehmen hautnah miterlebt, wie unzusammenhängende Kommunikation über KI zur Desillusionierung der Mitarbeiter geführt hat. Die Unternehmensleitung investierte zwar Millionen in Automatisierungstechnologien – allerdings ohne die Initiative auf die Arbeitsgestaltung abzustimmen und mit Umschulungs- oder Anreizmaßnahmen auszustatten. Das eigentliche Problem ist dabei nicht die “Angst vor dem Unbekannten“, sondern die nicht aufgelösten Reibungspunkte zwischen Menschen, Prozessen und Systemen. Das manifestiert sich in:

einer erhöhten Bereitschaft von Führungskräften, trotz unklarer Ziele Millionen in Technologie-Upgrades zu investieren, und

parallel einer deutlich geringeren Bereitschaft, alte Verhaltensweisen zu verändern oder Weiterbildungen anzubieten.

Diese selektive Investitionsbereitschaft in Technologie sendet eine klare und ziemlich demotivierende Botschaft an die Mitarbeiter. Manager und Führungskräfte, denen daran gelegen ist, dass KI “liefert”, sollten anerkennen, dass das nicht ohne ihre Belegschaft geht – beziehungsweise nicht ohne (das) TRUST (-Prinzip):

Transparency: Sind Daten offen zugänglich, klar definiert und leicht zu hinterfragen?

Relationships: Arbeiten funktionsübergreifende Teams zusammen oder konkurrieren sie um die Kontrolle?

Understanding: Verfügen die Mitarbeiter über die erforderlichen Kenntnisse und den nötigen Support, um Daten sicher nutzen zu können?

Safety: Können Mitarbeiter ohne Angst Fragen stellen, Risiken aufzeigen oder sagen, dass sie etwas nicht wissen?

Tone from the top: Gibt es Schulungen, gezieltes Change Management und Anreize, um die Veränderung anzunehmen?

Woher der KI-Widerstand rührt

Ich konnte branchenübergreifend beobachten, dass der Widerstand gegen KI nichts mit den Algorithmen zu tun hat. Es geht vielmehr um Macht, Schutz und Identität. Ein Kunde führte beispielsweise ein Sprachmodell ein, um sein Compliance-Team dabei zu unterstützen, die Zahl manueller Überprüfungen zu reduzieren. Die Technologie funktionierte zwar, die Mitarbeiter lehnten sie jedoch vehement ab. Der Grund: Niemand hatte ihnen wirklich erklärt, wie sich ihre Arbeit konkret verändern würde. Stattdessen war nur klar, dass sie sich verändern würde.

Wenn Mitarbeiter glauben, dass ihre Rolle bedroht ist, horten sie Wissen, widersetzen sich Prozessveränderungen und lehnen diese ab. Werden diese Bedenken nicht ausgeräumt, gehen Chancen verloren, sich zu engagieren, zusammenzuarbeiten und gemeinsam von den Vorteilen der KI zu profitieren. Ohne psychologische (Job-)Sicherheit verkommt die KI-Einführung in der Folge zum Machtkampf, Initiativen scheitern – und Unternehmen verlieren Zeit, Geld, Produktivität und Talente.

Es ist deshalb nur zu empfehlen, Anreizstrukturen zu schaffen, die positives Verhalten belohnen, das Reibungspunkte reduzieren kann – etwa:

Wissensaustausch,

Datenaustausch,

funktionsübergreifende Abstimmung,

transparente Kommunikation bezüglich Unsicherheiten und

schnelles Testing.

Das ist eine kulturelle Umstellung, keine technische.

Am Anfang steht nicht die Software

In der Praxis werden von der KI-Einführung viele bestehende Strukturen, einschließlich Organisationsstrukturen und Prozesse betroffen sein. Im Gegensatz zu KI-nativen Startups können Großunternehmen an dieser Stelle jedoch keinen Lean-First-Ansatz verfolgen, da das für intelligente Investitionen erforderliche, strategische Wissen in der Belegschaft verankert ist und nicht nur in der Führungsetage. „Design für KI“ bedeutet deshalb, das Gegenteil von dem zu tun, was die meisten Roadmaps vorschlagen: Starten Sie mit dem Organigramm und den Geschäftszielen, nicht mit dem KI-Modell.

Wie Wired-Journalist Ethan Wollic in seinem Artikel “AI will evolve into an organizational strategy for all” argumentiert, werden große Unternehmen durch Mitarbeiter und Führungskräfte aus verschiedenen Abteilungen, einen Mehrwert aus der KI-Transformation ziehen, die sinnvolle Möglichkeiten zur Leistungssteigerung durch KI identifizieren. Das unterstreicht die essenzielle Rolle, die die Belegschaft einnimmt, wenn es darum geht, neue Chancen zu identifizieren, die Umsetzung zu gestalten und Akzeptanz sicherzustellen. Im Gegensatz zu Start-ups, die von Grund auf schlank aufgebaut sind, müssen größere Unternehmen zunächst die bereits in der Belegschaft vorhandene, operative Intelligenz freisetzen und integrieren. Das fällt jedoch bei vielen KI-Strategien völlig unter den Tisch.

Im Rahmen eines kürzlich durchgeführten Projekts für einen multinationalen Kunden haben wir eine sogenannte “KI-Reibungsprüfung” durchgeführt. Dabei haben wir die Stellen identifiziert, an denen KI-Initiativen nicht skaliert werden konnten. Die Ergebnisse waren zwar nicht überraschend, aber dennoch aufschlussreich. Denn die größten Hindernisse waren nicht technischer Natur, sondern strukturell und kulturell bedingt. Das ließ sich ablesen an:

politischer Konkurrenz zwischen Abteilungen,

unklaren Entscheidungsbefugnissen,

mangelndem Konsens über den Wert und

fehlenden Anreizen für die Zusammenarbeit.

Dabei handelte es sich nicht um vereinzelte Schwachstellen, sondern um systemweite Konstruktionsfehler.

Die daraus resultierenden Gespräche halfen dem Führungsteam zu verstehen, was sie in ihrer Roadmap übersehen hatten: KI verändert die Machtverhältnisse, Arbeitsabläufe und die DNA einer Organisation. Wenn Strukturen und Anreize nicht mit der Technologie Schritt halten, bricht die Implementierung unter dem Gewicht ungelöster Spannungen zusammen. Strategien, in denen widersprüchliche Entscheidungsprozesse, falsch ausgerichtete Prioritäten und funktionale Silos ignoriert werden, lassen die grundlegenden Voraussetzungen für Erfolg vermissen.

Dennoch behandeln viele KI-Roadmaps die Organisationsstruktur nach wie vor als unveränderlich, die Entscheidungsfindung als isoliert und Wertkonflikte als die Probleme anderer. Dabei bedeutet eine Neugestaltung für KI, zuerst bei den Menschen anzusetzen und alte Strukturen abzubauen, in denen Zusammenarbeit optional statt unverzichtbar ist. Einer der größten Fehler ist in meinen Augen dabei, KI-Roadmaps um die Technologie herum zu entwerfen und dann zu versuchen, sie nachträglich ins Unternehmen zu integrieren.

Kultur im Fokus

Die unangenehme Wahrheit ist, dass die Unternehmenskultur in vielen Fällen das wesentliche Hindernis für die Einführung von KI darstellt. Datenverantwortliche müssen aufhören, KI als technische Herausforderung zu betrachten, und anfangen, wie “Kulturarchitekten” zu führen. Soll heißen: Kommunizieren Sie die Vision frühzeitig, beziehen Sie die Mitarbeiter ein, bilden Sie sie weiter – und belohnen Sie sie.

Zum Beispiel mit Hilfe des SMILE-Konzepts:

Starten Sie KI-Roadmaps mit einem Audit der Unternehmenskultur.

Machen Sie Verhaltensmetriken zum Teil der KI-KPIs.

Incentivieren Sie positive Verhaltensweisen über Silos hinweg.

Lenken Sie mit Change Management, um die Abstimmung voranzutreiben, die Einführung zu beschleunigen und eine nachhaltige Wirkung sicherzustellen.

Emphasieren Sie KI als Mittel zur Skill-Erweiterung, nicht als Quelle von Störungen.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Keiner hat Bock auf KI?​ Weiterlesen »

Microsoft-Manager rät Gefeuerten, sich mit KI zu trösten​

Allgemein

width=”6000″ height=”3375″ sizes=”(max-width: 6000px) 100vw, 6000px”>KI gegen Existenzängste?HJBC – shutterstock.com Microsoft hat bekanntlich vor kurzem weitere Entlassungen angekündigt, rund 9.000 Mitarbeiter – oder vier Prozent der weltweiten Belegschaft – sollen ihren Job verlieren. Betroffen sind davon verschiedene Abteilungen, unter anderem auch die Gaming-Sparte des Konzerns. Matt Turnbull, Executive Producer bei Xbox Game Studios, nahm das zum Anlass, um den Entlassenen (und allen, die es noch treffen wird) in einem mittlerweile gelöschten LinkedIn-Beitrag zu empfehlen, den Verlust ihrer Arbeitsstelle doch mit Hilfe von künstlicher Intelligenz (KI) zu verarbeiten. “Die bestmöglichen Ratschläge” “Ich weiß, dass diese Tools bei vielen Menschen starke Emotionen auslösen, aber es wäre nachlässig, unter den gegebenen Umständen nicht die bestmöglichen Ratschläge zu geben. Ich habe mich in Experimenten damit beschäftigt, wie KI-Tools wie ChatGPT oder Copilot dabei unterstützen können, den emotionalen Stress und die Belastungen einer Entlassung zu reduzieren”, eröffnete der Manager seinen Post. Im Nachgang erteilte er noch konkrete Prompting-Tipps, etwa um mit KI-Tools Lebensläufe zu aktualisieren oder neue Karrierewege zu identifizieren. “Kein KI-Tool kann Ihre Stimme und Erfahrungen ersetzen. Aber in einer Zeit, in der mentale Energie ein rares Gut ist, können Ihnen diese Tools dabei helfen, schneller, ruhiger und klarer mit der Situation zurechtzukommen”, so der Microsoft-Entscheider. Nicht wenige betroffene Mitarbeiter dürften diese Tipps aus der Management-Etage als puren Hohn empfinden – insbesondere vor dem Hintergrund, dass der Konzern im Januar angekündigt hat, rund 80 Milliarden Dollar in KI-Infrastruktur investieren zu wollen. Das bemerkte dann wohl auch Xbox-Entscheider Turnbull (beziehungsweise andere, emphatie-erprobtere Menschen bei Microsoft), woraufhin der Beitrag gelöscht wurde. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Microsoft-Manager rät Gefeuerten, sich mit KI zu trösten​ width=”6000″ height=”3375″ sizes=”(max-width: 6000px) 100vw, 6000px”>KI gegen Existenzängste?HJBC – shutterstock.com

Microsoft hat bekanntlich vor kurzem weitere Entlassungen angekündigt, rund 9.000 Mitarbeiter – oder vier Prozent der weltweiten Belegschaft – sollen ihren Job verlieren. Betroffen sind davon verschiedene Abteilungen, unter anderem auch die Gaming-Sparte des Konzerns.

Matt Turnbull, Executive Producer bei Xbox Game Studios, nahm das zum Anlass, um den Entlassenen (und allen, die es noch treffen wird) in einem mittlerweile gelöschten LinkedIn-Beitrag zu empfehlen, den Verlust ihrer Arbeitsstelle doch mit Hilfe von künstlicher Intelligenz (KI) zu verarbeiten.

“Die bestmöglichen Ratschläge”

“Ich weiß, dass diese Tools bei vielen Menschen starke Emotionen auslösen, aber es wäre nachlässig, unter den gegebenen Umständen nicht die bestmöglichen Ratschläge zu geben. Ich habe mich in Experimenten damit beschäftigt, wie KI-Tools wie ChatGPT oder Copilot dabei unterstützen können, den emotionalen Stress und die Belastungen einer Entlassung zu reduzieren”, eröffnete der Manager seinen Post. Im Nachgang erteilte er noch konkrete Prompting-Tipps, etwa um mit KI-Tools Lebensläufe zu aktualisieren oder neue Karrierewege zu identifizieren.

“Kein KI-Tool kann Ihre Stimme und Erfahrungen ersetzen. Aber in einer Zeit, in der mentale Energie ein rares Gut ist, können Ihnen diese Tools dabei helfen, schneller, ruhiger und klarer mit der Situation zurechtzukommen”, so der Microsoft-Entscheider.

Nicht wenige betroffene Mitarbeiter dürften diese Tipps aus der Management-Etage als puren Hohn empfinden – insbesondere vor dem Hintergrund, dass der Konzern im Januar angekündigt hat, rund 80 Milliarden Dollar in KI-Infrastruktur investieren zu wollen. Das bemerkte dann wohl auch Xbox-Entscheider Turnbull (beziehungsweise andere, emphatie-erprobtere Menschen bei Microsoft), woraufhin der Beitrag gelöscht wurde. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Microsoft-Manager rät Gefeuerten, sich mit KI zu trösten​ Weiterlesen »

Wie Manager Postangestellte ans Messer lieferten​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?quality=50&strip=all 7008w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Für viele britische Post-Angestellte hatte das fehlerhafte IT-System – und das skrupellose Agieren der Manager – fatale Konsequenzen. Sie landeten wegen angeblichem Betrug und Diebstahl hinter Gittern.WD Stock Photos – Shutterstock.com „Sie hätten wissen müssen, dass Legacy Horizon fehleranfällig war“: Manager der britischen Post und der Zulieferer Fujitsu haben zugelassen, dass fehlerhafte Daten aus dem IT-Buchhaltungssystem Horizon als Beweismittel im Strafverfahren gegen Hunderte unschuldiger Postfilialleiter verwendet wurden – obwohl sie wussten, dass das System fehlerhaft war. Das geht aus dem ersten Teil eines Berichts über den bislang größten IT-Skandal in der Geschichte Großbritanniens hervor. Die Folgen dieses Missmanagements waren verheerend: Laut dem Bericht trugen die von der Post angestrengten Strafverfahren zu mindestens 13 Selbstmorden bei. Weitere 59 Betroffene gaben in der Horizon-Untersuchung an, Suizidgedanken gehabt zu haben. Was bislang nicht abschließend geklärt ist – und möglicherweise noch zu strafrechtlichen Konsequenzen führen könnte – ist die Frage, warum Verantwortliche trotz eindeutiger Hinweise auf schwerwiegende Fehler im Horizon-System über Jahre hinweg an den Betrugsanklagen festhielten. Hunderte von Strafverfolgungen Horizon wurde 1999 von Fujitsu eingeführt, nachdem das Unternehmen das System im Zuge der Übernahme von ICL im Vorjahr erworben hatte. Es sollte den Verkauf, die Lagerhaltung und die Buchhaltung in 18.500 Postämtern automatisieren und wurde in zwei Phasen eingeführt: zunächst von 1999 bis 2010 als „Legacy Horizon”, danach als „Horizon Online” (HNG-X). Horizon sollte ein papierbasiertes Buchhaltungssystem modernisieren und durch ein zentrales Online-Datenbank-System ersetzen, in dem alle Ein- und Auszahlungen der Postfilialen erfasst wurden. Doch laut dem Untersuchungsbericht wusste Fujitsu schon vor dem Start des Projekts, dass Legacy Horizon anfällig für gelegentliche „Bugs, Fehler und Defekte“ war. Trotzdem „hielten die Verantwortlichen der Post über Jahre hinweg an der Fiktion fest, dass ihre Daten immer korrekt seien“, heißt es dort. Die Hunderte von Strafverfahren, die daraus resultierten, gelten heute als der größte Justizskandal in der britischen Geschichte. Er diskreditierte nicht nur die Post und Fujitsu, sondern auch das britische Rechtssystem, das die offensichtlichen Fehlurteile trotz zahlreicher Proteste jahrelang ignorierte. Im Bericht heißt es dazu: „All diese Menschen müssen als Opfer eines völlig inakzeptablen Verhaltens betrachtet werden – begangen von einzelnen Mitarbeitenden und/oder Partnern der Post und Fujitsu sowie von den Institutionen selbst.“ Irrtum der Unfehlbarkeit Die Achillesferse von Horizon war seine Tendenz, scheinbare Fehlbeträge in den Konten der Postfilialen zu erzeugen, teils in beträchtlicher Höhe. Die Krux dabei: Laut Vertrag zwischen der Post und den selbstständigen Filialleitern hafteten letztere persönlich für Verluste. Wenn das System ein Defizit meldete, mussten sie den Fehlbetrag ausgleichen – oder wurden in über 900 Fällen wegen Diebstahls angeklagt. In 17 Strafverfahren, die im Horizon IT Inquiry Report eingehend untersucht wurden, standen die Betroffenen vor einer schweren Entscheidung: finanzieller Ruin oder Gefängnisstrafe, in einigen Fällen sogar beides. Die grundlegenden Schwächen von Horizon sind längst gut dokumentiert – unter anderem durch IT-Journalisten, die bereits ab 2010 maßgeblich zur Aufdeckung beitrugen. Zu den bekannten Fehlern gehören unter anderem Mehrfachbuchungen, doppelte Zahlungen oder Rundungsfehler. Die naheliegende Schlussfolgerung ist, dass die Software schlecht programmiert sowie unzureichend getestet und überarbeitet wurde. Rückmeldungen der Poststellenbetreiber wurden systematisch ignoriert – die Manager hielten stur an der Annahme fest, das System könne keine Fehler machen. Man kann vermuten, dass dieser Glaube auch ein Produkt des Technologie-Optimismus der 1990er-Jahre war: Zentrale Datenbanken und digitale Buchhaltung galten als zukunftssicher – und man ging schlicht davon aus, dass solche Systeme unfehlbar seien. Warum Horizon dennoch über Jahre hinweg als zuverlässig galt, ist bislang nicht abschließend geklärt. Möglich ist, dass die Post-Manager anfangs tatsächlich glaubten, die Software würde echte Betrugsfälle aufdecken. Irgendwann sei dies jedoch nicht mehr der Fall gewesen, so der Bericht. Die Schlussfolgerung: Manager bei Fujitsu und der britischen Post wussten, dass Horizon fiktive Fehlbeträge erzeugte – und entschieden sich bewusst, das zu vertuschen, um sich selbst und ihre Organisationen zu schützen. Die neuen Erkenntnisse sind nur der Startpunkt der Untersuchung und konzentrieren sich in erster Linie auf die menschlichen Auswirkungen des IT-Skandals. Ein zweiter Bericht wird für Ende 2025 oder 2026 erwartet und soll die technischen Schwächen des Systems im Detail untersuchen – sowie etwaiges Fehlverhalten von Führungskräften bewerten. Für die gesamte IT-Branche könnten die Auswirkungen des Skandals noch lange nachwirken. Großprojekte aus den 1990er-Jahren genießen im Vereinigten Königreich ohnehin einen schlechten Ruf, viele wurden teurer als geplant oder erfüllten nicht die Erwartungen. Horizon hat dieses Bild noch weiter verschärft und ist inzwischen zum Synonym für Inkompetenz und moralisches Versagen geworden. (mb) 

Wie Manager Postangestellte ans Messer lieferten​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?quality=50&strip=all 7008w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2430686449_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Für viele britische Post-Angestellte hatte das fehlerhafte IT-System – und das skrupellose Agieren der Manager – fatale Konsequenzen. Sie landeten wegen angeblichem Betrug und Diebstahl hinter Gittern.WD Stock Photos – Shutterstock.com

„Sie hätten wissen müssen, dass Legacy Horizon fehleranfällig war“: Manager der britischen Post und der Zulieferer Fujitsu haben zugelassen, dass fehlerhafte Daten aus dem IT-Buchhaltungssystem Horizon als Beweismittel im Strafverfahren gegen Hunderte unschuldiger Postfilialleiter verwendet wurden – obwohl sie wussten, dass das System fehlerhaft war. Das geht aus dem ersten Teil eines Berichts über den bislang größten IT-Skandal in der Geschichte Großbritanniens hervor.

Die Folgen dieses Missmanagements waren verheerend: Laut dem Bericht trugen die von der Post angestrengten Strafverfahren zu mindestens 13 Selbstmorden bei. Weitere 59 Betroffene gaben in der Horizon-Untersuchung an, Suizidgedanken gehabt zu haben.

Was bislang nicht abschließend geklärt ist – und möglicherweise noch zu strafrechtlichen Konsequenzen führen könnte – ist die Frage, warum Verantwortliche trotz eindeutiger Hinweise auf schwerwiegende Fehler im Horizon-System über Jahre hinweg an den Betrugsanklagen festhielten.

Hunderte von Strafverfolgungen

Horizon wurde 1999 von Fujitsu eingeführt, nachdem das Unternehmen das System im Zuge der Übernahme von ICL im Vorjahr erworben hatte. Es sollte den Verkauf, die Lagerhaltung und die Buchhaltung in 18.500 Postämtern automatisieren und wurde in zwei Phasen eingeführt: zunächst von 1999 bis 2010 als „Legacy Horizon”, danach als „Horizon Online” (HNG-X).

Horizon sollte ein papierbasiertes Buchhaltungssystem modernisieren und durch ein zentrales Online-Datenbank-System ersetzen, in dem alle Ein- und Auszahlungen der Postfilialen erfasst wurden. Doch laut dem Untersuchungsbericht wusste Fujitsu schon vor dem Start des Projekts, dass Legacy Horizon anfällig für gelegentliche „Bugs, Fehler und Defekte“ war. Trotzdem „hielten die Verantwortlichen der Post über Jahre hinweg an der Fiktion fest, dass ihre Daten immer korrekt seien“, heißt es dort.

Die Hunderte von Strafverfahren, die daraus resultierten, gelten heute als der größte Justizskandal in der britischen Geschichte. Er diskreditierte nicht nur die Post und Fujitsu, sondern auch das britische Rechtssystem, das die offensichtlichen Fehlurteile trotz zahlreicher Proteste jahrelang ignorierte. Im Bericht heißt es dazu: „All diese Menschen müssen als Opfer eines völlig inakzeptablen Verhaltens betrachtet werden – begangen von einzelnen Mitarbeitenden und/oder Partnern der Post und Fujitsu sowie von den Institutionen selbst.“

Irrtum der Unfehlbarkeit

Die Achillesferse von Horizon war seine Tendenz, scheinbare Fehlbeträge in den Konten der Postfilialen zu erzeugen, teils in beträchtlicher Höhe. Die Krux dabei: Laut Vertrag zwischen der Post und den selbstständigen Filialleitern hafteten letztere persönlich für Verluste. Wenn das System ein Defizit meldete, mussten sie den Fehlbetrag ausgleichen – oder wurden in über 900 Fällen wegen Diebstahls angeklagt.

In 17 Strafverfahren, die im Horizon IT Inquiry Report eingehend untersucht wurden, standen die Betroffenen vor einer schweren Entscheidung: finanzieller Ruin oder Gefängnisstrafe, in einigen Fällen sogar beides.

Die grundlegenden Schwächen von Horizon sind längst gut dokumentiert – unter anderem durch IT-Journalisten, die bereits ab 2010 maßgeblich zur Aufdeckung beitrugen. Zu den bekannten Fehlern gehören unter anderem Mehrfachbuchungen, doppelte Zahlungen oder Rundungsfehler. Die naheliegende Schlussfolgerung ist, dass die Software schlecht programmiert sowie unzureichend getestet und überarbeitet wurde. Rückmeldungen der Poststellenbetreiber wurden systematisch ignoriert – die Manager hielten stur an der Annahme fest, das System könne keine Fehler machen.

Man kann vermuten, dass dieser Glaube auch ein Produkt des Technologie-Optimismus der 1990er-Jahre war: Zentrale Datenbanken und digitale Buchhaltung galten als zukunftssicher – und man ging schlicht davon aus, dass solche Systeme unfehlbar seien.

Warum Horizon dennoch über Jahre hinweg als zuverlässig galt, ist bislang nicht abschließend geklärt. Möglich ist, dass die Post-Manager anfangs tatsächlich glaubten, die Software würde echte Betrugsfälle aufdecken. Irgendwann sei dies jedoch nicht mehr der Fall gewesen, so der Bericht. Die Schlussfolgerung: Manager bei Fujitsu und der britischen Post wussten, dass Horizon fiktive Fehlbeträge erzeugte – und entschieden sich bewusst, das zu vertuschen, um sich selbst und ihre Organisationen zu schützen.

Die neuen Erkenntnisse sind nur der Startpunkt der Untersuchung und konzentrieren sich in erster Linie auf die menschlichen Auswirkungen des IT-Skandals. Ein zweiter Bericht wird für Ende 2025 oder 2026 erwartet und soll die technischen Schwächen des Systems im Detail untersuchen – sowie etwaiges Fehlverhalten von Führungskräften bewerten.

Für die gesamte IT-Branche könnten die Auswirkungen des Skandals noch lange nachwirken. Großprojekte aus den 1990er-Jahren genießen im Vereinigten Königreich ohnehin einen schlechten Ruf, viele wurden teurer als geplant oder erfüllten nicht die Erwartungen. Horizon hat dieses Bild noch weiter verschärft und ist inzwischen zum Synonym für Inkompetenz und moralisches Versagen geworden. (mb)

Wie Manager Postangestellte ans Messer lieferten​ Weiterlesen »

Die Lehren einer chaotischen Milliarden-Transformation​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?quality=50&strip=all 5305w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Lesen Sie, wie sich eine Transformationsinitiative in einem Großkonzern anfühlen kann.Master1305 | shutterstock.com Etwa 70 Prozent aller Initiativen zur digitalen Transformation verfehlen ihre Ziele. Das liegt nicht selten daran, dass Unternehmen zwar schillernden neuen Technologien hinterherrennen – darüber aber vergessen, grundlegende Probleme zu beheben. Das musste ich im Rahmen eines dreijährigen Projekts schmerzlich am eigenen Leib erfahren: Im Team mit einigen Beratern und Research-Experten war ich an der fast einer Milliarde Dollar teuren Transformation eines der weltweit größten Touristikunternehmen beteiligt. Was nach KI und Blockchain klingt, beinhaltete in der Realität allerdings vornehmlich Aufgaben wie jahrzehntealte Legacy-Systeme zu entwirren und Silostrukturen aufzulösen. Das war nicht sonderlich glamourös, aber transformativ: Gemeinsam mit meinem Kollegen Hugo Michou, Senior Consultant für Risks & Strategy bei Deloitte Kanada, konnte ich einen Paradigmenwechsel anstoßen – vom traditionellen Supply-Chain-Mindset hin zu einem Supply-Network-Ansatz. In diesem Artikel teile ich meine, respektive unsere Erfahrungen und die Erkenntnisse darüber, was dazu beigetragen hat, dass dieses mitunter chaotische Projekt am Ende von Erfolg gekrönt war. Weitere, detaillierte Einblicke bietet zudem unsere wissenschaftliche Verarbeitung dieses Projekts. Große Pläne, große Herausforderungen Die umfangreiche Transformationsinitiative bei dem Touristik-Konzern wurde durch den Weckruf einer seiner Top-Führungskrafte ausgelöst. Der Manager hatte im Jahr 2015 öffentlich zugegeben, dass das Unternehmen in Sachen Technologie um Jahrzehnte hinterherhinkt. Also ordnete der Mutterkonzern eine Modernisierung sämtlicher Tochtergesellschaften an und die Unternehmensleitung stellte kurzerhand hunderte Millionen Dollar bereit, um sämtliche Bereiche auf moderne Plattformen zu hieven – von der Beschaffung bis hin zur Lagerhaltung. Als Projektleiter stellten wir schnell fest, dass dieser “digitale Traum” in der Praxis zunächst vor allem eines bedeutete: Chaos. Auf dem Papier war alles so einfach: Altsysteme ersetzen, Prozesse standardisieren und Daten unternehmensweit integrieren. In der Praxis hatten wir es mit einer 30 Jahre alten Organisation zu tun, die Schicht um Schicht Prozesse angehäuft hatte, ohne sich jemals Gedanken über die zugrundeliegenden Annahmen zu machen. Die Mitarbeiter mussten mit veralteten Methoden eben einfach zurechtkommen. Beispielsweise war das Einkaufssystem ein Flickenteppich aus selbst entwickelten Tools und Spreadsheets, die verschiedene Teams auf ihre jeweils eigenen Bedürfnisse abgestimmt hatten. Jede Abteilung (Parks, Hotels, Restaurants, Einzelhandel) arbeitete in ihrer eigenen Blase. Projekte wurden oft isoliert umgesetzt – die Benefits kamen lediglich den Teams zugute, die sie umgesetzt hatten. Das führt zu einer Vielzahl von unzusammenhängenden Lösungen. Diese strategischen Diskrepanzen zwischen Technologieinvestitionen und Geschäftsanforderungen haben wir im Laufe des Projekts nach und nach identifiziert. Der Komplexität zuträglich war dabei auch die Größe des Unternehmens, das eher einem Ökosystem gleichkommt: Weltweit müssen 180 Standorte täglich mit diversen Waren aus firmeneigenen und externen Lagern sowie von Lieferanten versorgt werden. Es handelte sich also keineswegs um eine einfache lineare Lieferkette, sondern um ein weit verzweigtes Netzwerk aus internen Einheiten und Partnern. Und praktisch jeder Teil der Organisation war mit diesem Netzwerk verflochten: Änderungen in einem Bereich konnten sich auf Lieferanten, Lagerhäuser und sogar auf das Kundenerlebnis auswirken. Entsprechend haben wir von Beginn an gegenüber der Geschäftsleitung kommuniziert, dass diese digitale Transformation soziotechnischer Natur sei und wir einen lebenden Organismus verändern (PDF), keine Maschine. Das unterstrich auch die erste große Initiative des Transformationsprojekts, bei der es um die Einführung einer neuen Source-to-Pay-Beschaffungsplattform ging. Das war weit weg davon “nur ein IT-Projekt” zu sein, da sechs verschiedene Fachabteilungen davon betroffen waren – jede mit ihren jeweils eigenen Prozessen und Prioritäten. Um diese auf ein System zu bringen, mussten teilweise langjährige Konflikte aufgelöst werden. Beispielsweise wünschte sich das Finance-Team strenge Kontrollen, das Betriebsteam mehr Flexibilität. Wir hatten zwar große Pläne in Sachen Effizienzverbesserung und Transparenz, standen aber vor mindestens ebenso großen Herausforderungen, alle Beteiligten unter einen Nenner zu bringen. Von Supply Chain zu Supply Network Schon früh haben wir eine subtile, aber wesentliche Änderung am allgemeinen Mindset vorgenommen: Statt von “Lieferkette” zu sprechen, haben wir begonnen, in einem “Liefernetzwerk” zu denken. Die Berücksichtigung dieser Netzwerkperspektive hat unseren Ansatz verändert: Anstatt zu versuchen, die Komplexität zu abstrahieren, haben wir uns daran gemacht, sie effektiv zu managen – und im ersten Schritt festgehalten, wie Aufträge, Daten und Entscheidungen im Unternehmen “fließen”. Das Ergebnis war nicht schön (man stelle sich ein Spaghetti-Diagramm mit Dutzenden von Feedback Loops vor), aber aufschlussreich. Die Erkenntnisse bestätigten, dass vor allem eine bessere Koordination nötig war – deutlich nötiger als schöne neue Algorithmen. Tatsächlich haben wir auch gelernt, dass Komplexität nicht immer etwas Schlechtes ist, sondern eine Realität, die es zu akzeptieren gilt. Unser komplexes adaptives System eines Lieferantennetzwerks bestand aus vielen sich selbst organisierenden Teilen. Wenn wir versucht hätten, diese Abhängigkeiten zu ignorieren und eine Vereinfachung zu erzwingen, hätten wir damit nur neue Probleme geschaffen. Ein Manager warnte zudem davor, einer bereits verworrenen Umgebung “weitere Komplexitäten aufzubürden” – und stattdessen daran zu arbeiten, die bestehenden Verbindungen zwischen allen Mitgliedern der Organisation zu stärken. Also verlagerten wir unseren Fokus darauf und bildeten cross-funktionale Arbeitsgruppen mit Vertretern sämtlicher betroffener Abteilungen, um jeden wichtigen Prozess anzugehen – und dafür zu sorgen, dass alle an einem gemeinsamen Strang ziehen, statt jeweils nur an ihrem eigenen. Ein anschauliches Beispiel für Netzwerkdenken in der Praxis war die Art und Weise, wie wir die Diskrepanzen zwischen dem Hotelbetrieb und dem Rest des Unternehmens beseitigt haben. Anfangs verwalteten die Hotels die Gäste-Buchungen und den Versorgungsbedarf fast unabhängig voneinander und waren nicht über neue Produkteinführungen oder Veranstaltungen informiert, die potenziell zu einem Anstieg der Nachfrage führen konnten. Die mangelnde Abstimmung zwischen den Hotels und anderen Abteilungen führte zu einigen bösen Überraschungen. So kam es beispielsweise an stark frequentierten Wochenenden zu Engpässen bei wichtigen Angeboten, weil das Hotelteam nichts von einer Aktion wusste – ein klassischer Fall von strategischer Fehlausrichtung. Um das zu beheben, haben wir neue Kommunikationskanäle eingerichtet und Planungssitzungen integriert, wodurch die Hotels wieder effektiv in das übergeordnete Versorgungsnetzwerk eingebunden wurden. Wir begannen, interne Abteilungen als Teil des Netzwerks zu behandeln – und nicht mehr als isolierte “Königreiche”. Wir haben auch die Feedback-Schleifen innerhalb unseres Systems untersucht. Dabei mussten wir feststellen, dass einige Loops Teufelskreise waren, die die Fehlausrichtung noch verstärkten. Wir stellten beispielsweise fest, dass bei geringer Einbindung der Stakeholder in die Gestaltung eines neuen Prozesses die daraus resultierende Lösung nicht ihren Anforderungen entsprach. Diese mangelnde Passgenauigkeit führte dann dazu, dass sich die Stakeholder noch mehr zurückzogen, was zu einer noch geringeren Beteiligung und schlechteren Ergebnissen führte. Unsere akademischen Untersuchungen zu dieser Transformation bestätigten später dieses Muster: Mängel wie eine schwache Einbindung der Stakeholder, veraltete technische Fähigkeiten oder strukturelle Probleme führten tendenziell zu Fehlausrichtungen, die wiederum weitere Projektprobleme nach sich zogen. Wir erkannten diese Dynamik und ergriffen Maßnahmen, um die Kreisläufe zu durchbrechen. So legten wir etwa die Regel fest, dass Endbenutzer in jeder Phase der Konzeption und Einführung einbezogen werden müssen – ohne Ausnahmen. Außerdem haben wir einige Kern-Infrastrukturen, die wiederholt zu Ausfällen führten, vorübergehend stillgelegt, statt auf dieser wackeligen Grundlage neue Funktionen zu entwickeln. Nach und nach konnten wir einige der Teufelskreise in positive Kreisläufe umwandeln, in denen erste Erfolge (wie eine reibungslose Pilot-Implementierung) Vertrauen schufen und zu einer größeren Akzeptanz der Stakeholder für die nächste Phase führten. Die Einführung einer Supply-Network-Denkweise bedeutete auch, den Begriff “Erfolg” neu zu definieren. Anstatt die KPIs jedes Silos isoliert zu messen, legten wir gemeinsame Kennzahlen für das gesamte Netzwerk fest – zum Beispiel die Zeit für die End-to-End-Auftragsabwicklung. Das förderte die Zusammenarbeit, da die Leistung jedes Einzelnen nun an den gemeinsamen Ergebnissen gemessen wurde. Im Wesentlichen begannen wir, uns mehr wie ein Netzwerk zu verhalten: kooperativer, anpassungsfähiger und bewusster für gegenseitige Abhängigkeiten. Das war weit entfernt vom alten linearen Denken und bereitete den Weg für den nächsten Schritt: Die Mitarbeiter mit auf die Reise zu nehmen. Stakeholder- und Systemarbeit Der schwierigste Teil dieser Transformation war nicht die Technologie, sondern die Menschen dazu zu bringen, auf neue Art und Weise zusammenzuarbeiten. Entsprechend haben wir uns verstärkt auf die Abstimmung zwischen Stakeholdern und Change Management fokussiert. Zunächst baute mein Kollege Hugo Michou eine starke Governance-Struktur auf. Ein Lenkungsausschuss mit Führungskräften aus allen wichtigen Funktionen (IT, Betrieb, Finanzen, Merchandising etc.) traf sich alle zwei Wochen, um die Fortschritte zu überprüfen und Konflikte aufzulösen. Dabei handelte es sich nicht um einen “Alibiausschuss”, sondern ein Gremium mit Durchsetzungskraft. Wenn es Probleme beim Datenaustausch zwischen Marketing und Lieferkette gab, wurden diese in den Sitzungen angesprochen und gelöst. Das Motto des Governance-Teams lautete dabei “keine blinden Flecken”. Indem wir alle Stakeholder an einen Tisch brachten, konnten wir Unstimmigkeiten zudem frühzeitig erkennen. Als wir beispielsweise feststellten, dass eine neue Funktion des Inventarsystems die Arbeitsabläufe der Mitarbeiter verlangsamen könnte, meldete der Betriebsleiter dies und wir passten den Rollout-Plan umgehend an. Zuvor wären solche Probleme möglicherweise erst nach der vollständigen Einführung identifiziert worden – inklusive gegenseitiger Schuldzuweisungen von IT und Fachbereichen. Im nächsten Schritt konzentrierten wir uns auf Kommunikation und Kultur. Aus früheren gescheiterten Projekten wussten wir, dass es nicht ausreicht, ein paar E-Mails mit dem Betreff “Neue Software kommt, macht euch bereit” zu verschicken. Also versuchten wir es mit einem persönlicheren Ansatz: Wir identifizierten einflussreiche Mitarbeiter in jeder Abteilung und gewannen sie als “Change Champions”. Wir informierten sie nicht nur darüber, was sich ändern würde, sondern auch warum, und zeigten ihnen sogar das verworrene Spaghetti-Diagramm, um zu veranschaulichen, wie ihre Arbeit sich in das größere Netzwerk einfügt. Diese Transparenz half uns dabei, Verbündete zu gewinnen. Die Mitarbeiter begannen, die Transformation nicht als IT-Vorgabe zu sehen, sondern als notwendige Entwicklung. Eine Lagerleiterin sagte uns, dass ihr durch den Überblick über das gesamte Lieferantennetzwerk die Bedeutung der Standardisierung von Prozessen klar geworden sei. Kommentare wie diese waren ein gutes Signal, dass der Mindset-Shift in Gang kommt. Wir haben auch Schulungen und Co-Evolution zu einem zentralen Bestandteil des Programms gemacht. Co-Evolution bedeutet in diesem Zusammenhang, dass sich Technologie und Organisation im Laufe der Zeit aneinander anpassen. Als wir beispielsweise unsere neue Beschaffungsplattform einführten, stellten wir fest, dass wir Teams neu organisieren und Rollen neu definieren mussten, um deren Möglichkeiten voll auszuschöpfen. Wir haben einige Einkaufs- und Logistikteams unter einem Prozessverantwortlichen zusammengeführt, was eine stärkere Zusammenarbeit im Alltag erforderte. Ebenso haben wir die Stellenbeschreibungen aktualisiert: Von den Einkäufern wurde nun erwartet, dass sie die Daten aus dem System analysieren und nicht nur Bestellungen aufgeben, weshalb wir in ihre Weiterbildung investierten. Umgekehrt führten Rückmeldungen der Nutzer zu Softwareanpassungen, beispielsweise in Form eines Dashboards für Hotelmanager, um Bestände zu erfassen. Diese Anpassungen waren teilweise chaotisch, führten aber letztendlich zu Ergebnissen. Während des gesamten Projekts haben wir bewusst zwei Dimensionen des Wandels berücksichtigt: die strukturelle und die organisatorische. Unsere akademische Forschung hat später gezeigt, dass diese beiden Dimensionen mit der Komplexität des Netzwerks synchronisiert werden müssen, um strategische Fehlentwicklungen zu vermeiden. In der Praxis bedeutete das, bei der Einführung eines neuen Systems oder Prozesses (strukturell) stets Workshops, Coachings und manchmal auch Anreizstrukturen (organisatorisch) anzubieten, um die Akzeptanz zu fördern. Als wir beispielsweise einen zentralisierten Lieferplanungsprozess einführten, passten wir auch die Leistungsziele der lokalen Manager an, sodass diese nicht mehr nur die lokale Effizienz, sondern auch netzwerkweite Kennzahlen umfassten. Am Ende des dreijährigen Programms war längst nicht alles perfekt, aber wir hatten viel erreicht: Ein einheitliches Kernsystem für Beschaffung und Lagerhaltung, eine klarere Governance, sowie bessere Datentransparenz und Abteilungen, die tatsächlich miteinander kommunizieren. Vielleicht noch wichtiger ist, dass wir eine neue Denkweise gefördert haben, die Komplexität akzeptiert und kontinuierliches Lernen betont. Die digitale Transformation war kein einmaliges Projekt, sondern wurde zu einer dauerhaften Kompetenz der Organisation. Als Forscher und Berater war es eine herausfordernde, manchmal chaotische Reise. Aber sie hat gezeigt, dass es bei digitalen Transformationen nicht immer um glitzernde Technologie geht – die unspektakuläre Arbeit, Grundlagen zu festigen und Menschen aufeinander abzustimmen, ist das, was wirklich erfolgskritisch ist. Takeaways für IT-Entscheider Zwar ist jede groß angelegte Transformation einzigartig, dennoch könnten die folgenden drei praktischen Erkenntnisse IT-Entscheider, CIOs und andere Führungskräfte weiterbringen. Konzentrieren Sie sich auf die Grundlagen, nicht auf Effekthascherei. Es ist verlockend, direkt in vielversprechende Technologien einzusteigen. Widerstehen Sie diesem Drang. Kernsysteme und -prozessen zu modernisieren bringt langfristig oft die größten Vorteile. Beziehen Sie die Mitarbeiter frühzeitig und regelmäßig mit ein. Technologie verändert kein Unternehmen, sondern die Menschen. Investieren Sie von Anfang an in Change Management. Kommunizieren Sie die Gründe für Veränderungen, stärken Sie „Change Champions“ und beziehen Sie Endbenutzer ein. Kulturwandel ist ein Marathon, kein Sprint. Beginnen Sie daher so früh wie möglich damit, Anreize aufeinander abzustimmen und Silos aufzubrechen. Denken Sie in Netzwerken, nicht in Ketten. Unternehmen sind heute miteinander verbundene Systeme, keine linearen Ketten. Fördern Sie funktions- und unternehmensübergreifende Transparenz. Erstellen Sie eine Übersicht darüber, wie Werte tatsächlich durch Ihr Unternehmen (und Ihr Partnernetzwerk) fließen, um Engpässe und versteckte Abhängigkeiten zu identifizieren. Diese Systemansicht hilft Ihnen dabei, eine Transformation zu gestalten, die das Ganze verbessert, nicht nur einzelne Teile. Außerdem macht sie Sie widerstandsfähiger. Groß angelegte, digitale Transformationen können überwältigend und ausgesprochen unattraktiv erscheinen. Aber es zahlt sich aus, diese Herausforderung anzunehmen. Unser Touristik-Konzern ist nun für zukünftige Innovationen gerüstet. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die Lehren einer chaotischen Milliarden-Transformation​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?quality=50&strip=all 5305w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Master1305_shutterstock_2522853047_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Lesen Sie, wie sich eine Transformationsinitiative in einem Großkonzern anfühlen kann.Master1305 | shutterstock.com

Etwa 70 Prozent aller Initiativen zur digitalen Transformation verfehlen ihre Ziele. Das liegt nicht selten daran, dass Unternehmen zwar schillernden neuen Technologien hinterherrennen – darüber aber vergessen, grundlegende Probleme zu beheben. Das musste ich im Rahmen eines dreijährigen Projekts schmerzlich am eigenen Leib erfahren: Im Team mit einigen Beratern und Research-Experten war ich an der fast einer Milliarde Dollar teuren Transformation eines der weltweit größten Touristikunternehmen beteiligt.

Was nach KI und Blockchain klingt, beinhaltete in der Realität allerdings vornehmlich Aufgaben wie jahrzehntealte Legacy-Systeme zu entwirren und Silostrukturen aufzulösen. Das war nicht sonderlich glamourös, aber transformativ: Gemeinsam mit meinem Kollegen Hugo Michou, Senior Consultant für Risks & Strategy bei Deloitte Kanada, konnte ich einen Paradigmenwechsel anstoßen – vom traditionellen Supply-Chain-Mindset hin zu einem Supply-Network-Ansatz.

In diesem Artikel teile ich meine, respektive unsere Erfahrungen und die Erkenntnisse darüber, was dazu beigetragen hat, dass dieses mitunter chaotische Projekt am Ende von Erfolg gekrönt war. Weitere, detaillierte Einblicke bietet zudem unsere wissenschaftliche Verarbeitung dieses Projekts.

Große Pläne, große Herausforderungen

Die umfangreiche Transformationsinitiative bei dem Touristik-Konzern wurde durch den Weckruf einer seiner Top-Führungskrafte ausgelöst. Der Manager hatte im Jahr 2015 öffentlich zugegeben, dass das Unternehmen in Sachen Technologie um Jahrzehnte hinterherhinkt. Also ordnete der Mutterkonzern eine Modernisierung sämtlicher Tochtergesellschaften an und die Unternehmensleitung stellte kurzerhand hunderte Millionen Dollar bereit, um sämtliche Bereiche auf moderne Plattformen zu hieven – von der Beschaffung bis hin zur Lagerhaltung. Als Projektleiter stellten wir schnell fest, dass dieser “digitale Traum” in der Praxis zunächst vor allem eines bedeutete: Chaos.

Auf dem Papier war alles so einfach: Altsysteme ersetzen, Prozesse standardisieren und Daten unternehmensweit integrieren. In der Praxis hatten wir es mit einer 30 Jahre alten Organisation zu tun, die Schicht um Schicht Prozesse angehäuft hatte, ohne sich jemals Gedanken über die zugrundeliegenden Annahmen zu machen. Die Mitarbeiter mussten mit veralteten Methoden eben einfach zurechtkommen. Beispielsweise war das Einkaufssystem ein Flickenteppich aus selbst entwickelten Tools und Spreadsheets, die verschiedene Teams auf ihre jeweils eigenen Bedürfnisse abgestimmt hatten. Jede Abteilung (Parks, Hotels, Restaurants, Einzelhandel) arbeitete in ihrer eigenen Blase. Projekte wurden oft isoliert umgesetzt – die Benefits kamen lediglich den Teams zugute, die sie umgesetzt hatten. Das führt zu einer Vielzahl von unzusammenhängenden Lösungen. Diese strategischen Diskrepanzen zwischen Technologieinvestitionen und Geschäftsanforderungen haben wir im Laufe des Projekts nach und nach identifiziert.

Der Komplexität zuträglich war dabei auch die Größe des Unternehmens, das eher einem Ökosystem gleichkommt: Weltweit müssen 180 Standorte täglich mit diversen Waren aus firmeneigenen und externen Lagern sowie von Lieferanten versorgt werden. Es handelte sich also keineswegs um eine einfache lineare Lieferkette, sondern um ein weit verzweigtes Netzwerk aus internen Einheiten und Partnern. Und praktisch jeder Teil der Organisation war mit diesem Netzwerk verflochten: Änderungen in einem Bereich konnten sich auf Lieferanten, Lagerhäuser und sogar auf das Kundenerlebnis auswirken. Entsprechend haben wir von Beginn an gegenüber der Geschäftsleitung kommuniziert, dass diese digitale Transformation soziotechnischer Natur sei und wir einen lebenden Organismus verändern (PDF), keine Maschine.

Das unterstrich auch die erste große Initiative des Transformationsprojekts, bei der es um die Einführung einer neuen Source-to-Pay-Beschaffungsplattform ging. Das war weit weg davon “nur ein IT-Projekt” zu sein, da sechs verschiedene Fachabteilungen davon betroffen waren – jede mit ihren jeweils eigenen Prozessen und Prioritäten. Um diese auf ein System zu bringen, mussten teilweise langjährige Konflikte aufgelöst werden. Beispielsweise wünschte sich das Finance-Team strenge Kontrollen, das Betriebsteam mehr Flexibilität. Wir hatten zwar große Pläne in Sachen Effizienzverbesserung und Transparenz, standen aber vor mindestens ebenso großen Herausforderungen, alle Beteiligten unter einen Nenner zu bringen.

Von Supply Chain zu Supply Network

Schon früh haben wir eine subtile, aber wesentliche Änderung am allgemeinen Mindset vorgenommen: Statt von “Lieferkette” zu sprechen, haben wir begonnen, in einem “Liefernetzwerk” zu denken. Die Berücksichtigung dieser Netzwerkperspektive hat unseren Ansatz verändert: Anstatt zu versuchen, die Komplexität zu abstrahieren, haben wir uns daran gemacht, sie effektiv zu managen – und im ersten Schritt festgehalten, wie Aufträge, Daten und Entscheidungen im Unternehmen “fließen”. Das Ergebnis war nicht schön (man stelle sich ein Spaghetti-Diagramm mit Dutzenden von Feedback Loops vor), aber aufschlussreich. Die Erkenntnisse bestätigten, dass vor allem eine bessere Koordination nötig war – deutlich nötiger als schöne neue Algorithmen.

Tatsächlich haben wir auch gelernt, dass Komplexität nicht immer etwas Schlechtes ist, sondern eine Realität, die es zu akzeptieren gilt. Unser komplexes adaptives System eines Lieferantennetzwerks bestand aus vielen sich selbst organisierenden Teilen. Wenn wir versucht hätten, diese Abhängigkeiten zu ignorieren und eine Vereinfachung zu erzwingen, hätten wir damit nur neue Probleme geschaffen. Ein Manager warnte zudem davor, einer bereits verworrenen Umgebung “weitere Komplexitäten aufzubürden” – und stattdessen daran zu arbeiten, die bestehenden Verbindungen zwischen allen Mitgliedern der Organisation zu stärken. Also verlagerten wir unseren Fokus darauf und bildeten cross-funktionale Arbeitsgruppen mit Vertretern sämtlicher betroffener Abteilungen, um jeden wichtigen Prozess anzugehen – und dafür zu sorgen, dass alle an einem gemeinsamen Strang ziehen, statt jeweils nur an ihrem eigenen.

Ein anschauliches Beispiel für Netzwerkdenken in der Praxis war die Art und Weise, wie wir die Diskrepanzen zwischen dem Hotelbetrieb und dem Rest des Unternehmens beseitigt haben. Anfangs verwalteten die Hotels die Gäste-Buchungen und den Versorgungsbedarf fast unabhängig voneinander und waren nicht über neue Produkteinführungen oder Veranstaltungen informiert, die potenziell zu einem Anstieg der Nachfrage führen konnten. Die mangelnde Abstimmung zwischen den Hotels und anderen Abteilungen führte zu einigen bösen Überraschungen. So kam es beispielsweise an stark frequentierten Wochenenden zu Engpässen bei wichtigen Angeboten, weil das Hotelteam nichts von einer Aktion wusste – ein klassischer Fall von strategischer Fehlausrichtung. Um das zu beheben, haben wir neue Kommunikationskanäle eingerichtet und Planungssitzungen integriert, wodurch die Hotels wieder effektiv in das übergeordnete Versorgungsnetzwerk eingebunden wurden. Wir begannen, interne Abteilungen als Teil des Netzwerks zu behandeln – und nicht mehr als isolierte “Königreiche”.

Wir haben auch die Feedback-Schleifen innerhalb unseres Systems untersucht. Dabei mussten wir feststellen, dass einige Loops Teufelskreise waren, die die Fehlausrichtung noch verstärkten. Wir stellten beispielsweise fest, dass bei geringer Einbindung der Stakeholder in die Gestaltung eines neuen Prozesses die daraus resultierende Lösung nicht ihren Anforderungen entsprach. Diese mangelnde Passgenauigkeit führte dann dazu, dass sich die Stakeholder noch mehr zurückzogen, was zu einer noch geringeren Beteiligung und schlechteren Ergebnissen führte. Unsere akademischen Untersuchungen zu dieser Transformation bestätigten später dieses Muster: Mängel wie eine schwache Einbindung der Stakeholder, veraltete technische Fähigkeiten oder strukturelle Probleme führten tendenziell zu Fehlausrichtungen, die wiederum weitere Projektprobleme nach sich zogen. Wir erkannten diese Dynamik und ergriffen Maßnahmen, um die Kreisläufe zu durchbrechen. So legten wir etwa die Regel fest, dass Endbenutzer in jeder Phase der Konzeption und Einführung einbezogen werden müssen – ohne Ausnahmen. Außerdem haben wir einige Kern-Infrastrukturen, die wiederholt zu Ausfällen führten, vorübergehend stillgelegt, statt auf dieser wackeligen Grundlage neue Funktionen zu entwickeln. Nach und nach konnten wir einige der Teufelskreise in positive Kreisläufe umwandeln, in denen erste Erfolge (wie eine reibungslose Pilot-Implementierung) Vertrauen schufen und zu einer größeren Akzeptanz der Stakeholder für die nächste Phase führten.

Die Einführung einer Supply-Network-Denkweise bedeutete auch, den Begriff “Erfolg” neu zu definieren. Anstatt die KPIs jedes Silos isoliert zu messen, legten wir gemeinsame Kennzahlen für das gesamte Netzwerk fest – zum Beispiel die Zeit für die End-to-End-Auftragsabwicklung. Das förderte die Zusammenarbeit, da die Leistung jedes Einzelnen nun an den gemeinsamen Ergebnissen gemessen wurde. Im Wesentlichen begannen wir, uns mehr wie ein Netzwerk zu verhalten: kooperativer, anpassungsfähiger und bewusster für gegenseitige Abhängigkeiten. Das war weit entfernt vom alten linearen Denken und bereitete den Weg für den nächsten Schritt: Die Mitarbeiter mit auf die Reise zu nehmen.

Stakeholder- und Systemarbeit

Der schwierigste Teil dieser Transformation war nicht die Technologie, sondern die Menschen dazu zu bringen, auf neue Art und Weise zusammenzuarbeiten. Entsprechend haben wir uns verstärkt auf die Abstimmung zwischen Stakeholdern und Change Management fokussiert.

Zunächst baute mein Kollege Hugo Michou eine starke Governance-Struktur auf. Ein Lenkungsausschuss mit Führungskräften aus allen wichtigen Funktionen (IT, Betrieb, Finanzen, Merchandising etc.) traf sich alle zwei Wochen, um die Fortschritte zu überprüfen und Konflikte aufzulösen. Dabei handelte es sich nicht um einen “Alibiausschuss”, sondern ein Gremium mit Durchsetzungskraft. Wenn es Probleme beim Datenaustausch zwischen Marketing und Lieferkette gab, wurden diese in den Sitzungen angesprochen und gelöst. Das Motto des Governance-Teams lautete dabei “keine blinden Flecken”. Indem wir alle Stakeholder an einen Tisch brachten, konnten wir Unstimmigkeiten zudem frühzeitig erkennen. Als wir beispielsweise feststellten, dass eine neue Funktion des Inventarsystems die Arbeitsabläufe der Mitarbeiter verlangsamen könnte, meldete der Betriebsleiter dies und wir passten den Rollout-Plan umgehend an. Zuvor wären solche Probleme möglicherweise erst nach der vollständigen Einführung identifiziert worden – inklusive gegenseitiger Schuldzuweisungen von IT und Fachbereichen.

Im nächsten Schritt konzentrierten wir uns auf Kommunikation und Kultur. Aus früheren gescheiterten Projekten wussten wir, dass es nicht ausreicht, ein paar E-Mails mit dem Betreff “Neue Software kommt, macht euch bereit” zu verschicken. Also versuchten wir es mit einem persönlicheren Ansatz: Wir identifizierten einflussreiche Mitarbeiter in jeder Abteilung und gewannen sie als “Change Champions”. Wir informierten sie nicht nur darüber, was sich ändern würde, sondern auch warum, und zeigten ihnen sogar das verworrene Spaghetti-Diagramm, um zu veranschaulichen, wie ihre Arbeit sich in das größere Netzwerk einfügt. Diese Transparenz half uns dabei, Verbündete zu gewinnen. Die Mitarbeiter begannen, die Transformation nicht als IT-Vorgabe zu sehen, sondern als notwendige Entwicklung. Eine Lagerleiterin sagte uns, dass ihr durch den Überblick über das gesamte Lieferantennetzwerk die Bedeutung der Standardisierung von Prozessen klar geworden sei. Kommentare wie diese waren ein gutes Signal, dass der Mindset-Shift in Gang kommt.

Wir haben auch Schulungen und Co-Evolution zu einem zentralen Bestandteil des Programms gemacht. Co-Evolution bedeutet in diesem Zusammenhang, dass sich Technologie und Organisation im Laufe der Zeit aneinander anpassen. Als wir beispielsweise unsere neue Beschaffungsplattform einführten, stellten wir fest, dass wir Teams neu organisieren und Rollen neu definieren mussten, um deren Möglichkeiten voll auszuschöpfen. Wir haben einige Einkaufs- und Logistikteams unter einem Prozessverantwortlichen zusammengeführt, was eine stärkere Zusammenarbeit im Alltag erforderte. Ebenso haben wir die Stellenbeschreibungen aktualisiert: Von den Einkäufern wurde nun erwartet, dass sie die Daten aus dem System analysieren und nicht nur Bestellungen aufgeben, weshalb wir in ihre Weiterbildung investierten. Umgekehrt führten Rückmeldungen der Nutzer zu Softwareanpassungen, beispielsweise in Form eines Dashboards für Hotelmanager, um Bestände zu erfassen. Diese Anpassungen waren teilweise chaotisch, führten aber letztendlich zu Ergebnissen.

Während des gesamten Projekts haben wir bewusst zwei Dimensionen des Wandels berücksichtigt: die strukturelle und die organisatorische. Unsere akademische Forschung hat später gezeigt, dass diese beiden Dimensionen mit der Komplexität des Netzwerks synchronisiert werden müssen, um strategische Fehlentwicklungen zu vermeiden. In der Praxis bedeutete das, bei der Einführung eines neuen Systems oder Prozesses (strukturell) stets Workshops, Coachings und manchmal auch Anreizstrukturen (organisatorisch) anzubieten, um die Akzeptanz zu fördern. Als wir beispielsweise einen zentralisierten Lieferplanungsprozess einführten, passten wir auch die Leistungsziele der lokalen Manager an, sodass diese nicht mehr nur die lokale Effizienz, sondern auch netzwerkweite Kennzahlen umfassten.

Am Ende des dreijährigen Programms war längst nicht alles perfekt, aber wir hatten viel erreicht:

Ein einheitliches Kernsystem für Beschaffung und Lagerhaltung,

eine klarere Governance, sowie

bessere Datentransparenz und

Abteilungen, die tatsächlich miteinander kommunizieren.

Vielleicht noch wichtiger ist, dass wir eine neue Denkweise gefördert haben, die Komplexität akzeptiert und kontinuierliches Lernen betont. Die digitale Transformation war kein einmaliges Projekt, sondern wurde zu einer dauerhaften Kompetenz der Organisation. Als Forscher und Berater war es eine herausfordernde, manchmal chaotische Reise. Aber sie hat gezeigt, dass es bei digitalen Transformationen nicht immer um glitzernde Technologie geht – die unspektakuläre Arbeit, Grundlagen zu festigen und Menschen aufeinander abzustimmen, ist das, was wirklich erfolgskritisch ist.

Takeaways für IT-Entscheider

Zwar ist jede groß angelegte Transformation einzigartig, dennoch könnten die folgenden drei praktischen Erkenntnisse IT-Entscheider, CIOs und andere Führungskräfte weiterbringen.

Konzentrieren Sie sich auf die Grundlagen, nicht auf Effekthascherei. Es ist verlockend, direkt in vielversprechende Technologien einzusteigen. Widerstehen Sie diesem Drang. Kernsysteme und -prozessen zu modernisieren bringt langfristig oft die größten Vorteile.

Beziehen Sie die Mitarbeiter frühzeitig und regelmäßig mit ein. Technologie verändert kein Unternehmen, sondern die Menschen. Investieren Sie von Anfang an in Change Management. Kommunizieren Sie die Gründe für Veränderungen, stärken Sie „Change Champions“ und beziehen Sie Endbenutzer ein. Kulturwandel ist ein Marathon, kein Sprint. Beginnen Sie daher so früh wie möglich damit, Anreize aufeinander abzustimmen und Silos aufzubrechen.

Denken Sie in Netzwerken, nicht in Ketten. Unternehmen sind heute miteinander verbundene Systeme, keine linearen Ketten. Fördern Sie funktions- und unternehmensübergreifende Transparenz. Erstellen Sie eine Übersicht darüber, wie Werte tatsächlich durch Ihr Unternehmen (und Ihr Partnernetzwerk) fließen, um Engpässe und versteckte Abhängigkeiten zu identifizieren. Diese Systemansicht hilft Ihnen dabei, eine Transformation zu gestalten, die das Ganze verbessert, nicht nur einzelne Teile. Außerdem macht sie Sie widerstandsfähiger.

Groß angelegte, digitale Transformationen können überwältigend und ausgesprochen unattraktiv erscheinen. Aber es zahlt sich aus, diese Herausforderung anzunehmen. Unser Touristik-Konzern ist nun für zukünftige Innovationen gerüstet. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die Lehren einer chaotischen Milliarden-Transformation​ Weiterlesen »

7 Wege zum datengetriebenen Analytics-Erfolg​

Allgemein

Je besser Daten zu konsumieren sind, desto leichter fällt die Entscheidungsfindung. Foto: LariBat | shutterstock.com Wenn Manager sich vornehmen, ihr Unternehmen zu einer “Data-driven Company” zu machen, geht es im Regelfall darum, Business-Leute in die Lage zu versetzen, mit Hilfe von Technologie und Daten bessere Entscheidungen zu treffen. Viele Unternehmen haben deshalb inzwischen in entsprechende Datenarchitekturen investiert, Analytics-Tools angeschafft, Machine-Learning-Modelle entwickelt und Visualisierungsfunktionen eingeführt. Allerdings ist die Wahrscheinlichkeit vergleichsweise hoch, dass die Akzeptanz bei den Endbenutzern nicht besonders hoch ausfällt und die Geschäftsergebnisse nicht überzeugen. So kommt etwa der “2023 State of Data Science & Machine Learning Report” (Download gegen Daten) des Low-Code-Anbieters Knime zum Ergebnis, dass nahezu jedes zweite Unternehmen (45 Prozent) lediglich ein Viertel seiner ML-Modelle produktiv einsetzt. Dieser Artikel befasst sich mit sieben Maßnahmen, die dabei helfen können, die oben beschriebenen Lücken zu schließen und so ein besseres Decision Making zu realisieren. Die ersten vier Punkte fokussieren dabei auf einzelne Teams, Abteilungen und Unternehmen – die letzten drei darauf, die Analytics-Bemühungen in größeren Unternehmen oder Konzernen zu skalieren. Its Funny Friday meme time again. Remember, building quality data systems is a process and needs to be adequately funded to get the best results! Data infrastructure should be built alongside all other development to ensure decisions are data driven. #python #coding #data pic.twitter.com/6twFBUX6Ur— Python Unbound (@PythonUnbound) February 24, 2023 1. Endbenutzer verstehen Sich im Vorfeld mit neuen Datensätzen oder Analytics-Domänen zu befassen, ist wichtig. Allerdings besteht dabei die Gefahr, es zu übertreiben – was zum Beispiel darin gipfeln kann, Proof of Concepts in die Produktion zu überführen oder ganz wesentliche Schritte außer Acht zu lassen, wenn es darum geht, Endbenutzer-Personas zu definieren. Soumendra Mohanty, Chief Strategy Officer beim Data-Science-Spezialisten Tredence, gibt Kontext: “In der Vergangenheit funktionierten Analytics-Lösungen traditionellerweise so, dass man einen Haufen gut durchdachter Algorithmen auf gut organisierte Daten losließ, überprüfte, was die Daten bestätigten und Empfehlungen in Form von Grafiken ausgab. Bei diesem Ansatz fällt der Input des Endbenutzers völlig unter den Tisch, der im Rahmen seiner täglichen Aufgaben Entscheidungen trifft und zu diesem Zweck Echtzeit-Empfehlungen benötigt.” Folgende Fragen können mit Blick auf die End User relevant sein: Wie, wann und wie häufig werden wichtige Entscheidungen getroffen? Welche Auswirkungen hat eine falsche oder verzögerte Entscheidungsfindung? Welche Daten und Informationen werden für die Entscheidungen genutzt und wie wird auf diese zugegriffen? Welche Tools kommen zum Einsatz, um getroffene Entscheidungen umzusetzen? Der Schlüssel liegt dabei darin, zu durchdringen, wie sich die jeweilige Analytics-Lösung in die Workflows einfügt, welche Integrationen dabei in Betracht zu ziehen sind und an welchen Stellen automatisiert werden sollte. 2. Datenqualitätsanforderungen definieren Einige Endbenutzer sind vielleicht nicht in der Lage, zwischen statistischen Analysen, Machine Learning und Generative AI (GenAI) zu unterscheiden – wohl aber, fehlerhafte Empfehlungen und Daten zu erkennen. Wird der iterative Prozess der Datenqualitätsoptimierung nicht früh genug in den Entwicklungsprozess integriert, können die Endbenutzer das Vertrauen verlieren – und kehren zu ihren gewohnten Workflows zurück. Irfan Khan, President und Chief Product Officer bei SAP, erklärt, warum die Datenqualität ein so entscheidendes Kriterium darstellt: “Gebrauchsfertige, qualitativ hochwertige Geschäftsdaten sind entscheidend, um präzise Unternehmensanalysen zu gewährleisten und die Vorteile von Generative AI nutzen zu können. Nur mit einer soliden Datengrundlage und einer einheitlichen Sicht auf die Daten sind Unternehmen in der Lage, vollständig digitalisierte Geschäftsprozesse und einen nahtlosen Datenaustausch in ihrem Unternehmen zu ermöglichen.” Idealerweise definieren Sie Datenqualitätsmetriken als nicht-funktionale Anforderungen, veröffentlichen Verbesserungsmaßnahmen und bringen die Stakeholder auf den aktuellen Stand, wenn sich die Metriken verbessern. 3. Schneller entscheiden Abseits der Datenqualität sollten zwei weitere Metriken in Zusammenhang mit Analytics im Fokus stehen, die mit der Geschwindigkeit der Entscheidungsfindung zusammenhängen: Während die “Time-to-Data” die Verzögerungen umfasst, die entstehen, wenn Daten empfangen und verarbeitet werden, erfasst die “Time-to-Decision” Faktoren wie Usability, Integration oder Automatisierungslevel – vom Zeitpunkt, ab dem die Daten dem Endbenutzer zur Verfügung stehen, bis hin zur Entscheidungsfindung. “Time-to-Data war vor ein paar Jahren noch das Privileg von Hochfrequenz-Trading-Plattformen. Inzwischen kann jeder auf günstige Storage-, Compute- und Software-Tools zugreifen, um Daten in Echtzeit zu nutzen”, konstatiert Nikolaos Vasiloglou, VP of Research ML beim Datenspezialisten RelationalAI. Und während die Kosten für skalierbare Infrastrukturen kontinuierlich sinken, erfordern optimiertes Datenmanagement und robuste Daten-Pipelines architektonische (Design-)Planung. Ein Weg, dabei Fallstricke zu vermeiden: Starten Sie mit bescheideneren Analytics-Zielsetzungen und validieren Sie die Performance der Architektur, während Sie Nutzung, Daten und Fähigkeiten skalieren. 4. Datensicherheit frühzeitig gewährleisten Eilig zusammengezimmerte Prototypen von Analytics-Lösungen und Daten-Pipelines mit niedriger Latenz können signifikante Risiken – und Kosten – aufwerfen, wenn dabei sensible Daten kompromittiert werden. Deshalb ist es in vielen Fällen deutlich kosteneffektiver, die benötigten Datenschutzmaßnahmen in den Pipelines selbst oder über eine Data-Management-Plattform einzuziehen – statt sie in Analytics-Lösungen zu implementieren. Ameesh Divatia, CEO und Mitbegründer des Plattformanbieters Baffle, erklärt das Vorgehen: “Sämtliche regulierten Daten sollten, sobald sie erstellt oder erfasst werden, kryptografisch geschützt werden – also verschlüsselt, maskiert oder mit Token versehen. Sobald das geschehen ist, kann die nachgelagerte Datennutzung für alle Anwendungsfälle, einschließlich Generative AI, deutlich schneller vonstattengehen. Die Daten können direkt genutzt werden – ohne weitere Data-Discovery- oder -Review-Maßnahmen.” Datenschutz möglichst frühzeitig zu implementieren, eröffnet auch die Gelegenheit, Endbenutzer und Stakeholder mit Best Practices in diesem Bereich in Kontakt zu bringen. 5. Data-Governance-Programme skalieren Analytics-getriebenes Decision Making für mehrere (Sub-)Unternehmen, Abteilungen oder Fachbereiche zu skalieren, erfordert, ein Analytics-Betriebsmodell zu entwickeln und Richtlinien im Bereich Data Governance zu etablieren. Felix Van de Maele, CEO des Data-Intelligence-Anbieters Collibra, erklärt am Beispiel eines Fast-Food-Giganten, wie selbst Großkonzerne schnell Data-Governance-Prozesse einführen können: “Data Governance ist die Grundlage, um das wahre Potenzial von KI zu erschließen. McDonald’s hat in nur 60 Tagen eine vertrauenswürdige Datengrundlage geschaffen, auf die bereits über 570 Nutzer in 21 Ländern zugreifen. Diese Fortschritte haben die Art und Weise, wie das Unternehmen Daten nutzt, verändert und zu mehr Transparenz, Vertrauen und schnelleren Prozessen für seine Business-Anwender auf der ganzen Welt geführt.” Dabei spielen Datenkataloge eine wichtige Rolle, um datengetriebene Organisationen zu skalieren. Emily Washington, SVP of Product Management beim Datenspezialisten Precisely, gibt tiefere Einblicke: “Datenkataloge, die eine robuste Data Governance und eine proaktive Qualitätsüberwachung bieten, fördern sichere Geschäftsentscheidungen. Angesichts der erhöhten Risiken, die nicht gemanagte oder ungenaue Daten in der KI-Ära mit sich bringen, ermöglicht die Priorisierung von Datenkatalogen den Anwendern ein umfassendes Verständnis ihrer Daten und des zugrundeliegenden Zustands. So können die Daten effektiv genutzt werden um Umsatz und Gewinn zu steigern.” Wie die Marktforscher von Gartner in einer aktuellen Umfrage herausgefunden haben, entwickeln 78 Prozent der in diesem Rahmen befragten Chief Data and Analytics Officers ihre Betriebsmodelle weiter, um Innovationen zu unterstützen. Dabei sind für 61 Prozent der Befragten disruptive Marktentwicklungen – einschließlich ChatGPT – ein Treiber. 6. Implementierungsstandards definieren Datengesteuerte Unternehmen erstellen und entwickeln Standards, damit sich ihre Data-Science-Teams auf die Endbenutzer konzentrieren können. Ein Playbook kann dabei helfen, die Delivery zu beschleunigen, Best Practices zu skalieren und Deployment-Anforderungen zu etablieren. In Bezug auf Datenstandards empfiehlt Marty Andolino, VP of Engineering beim Softwareanbieter Capital One: “Datenstandards, wie etwa Metadaten, SLAs oder Observability gewährleisten Datenintegrität, Benutzerfreundlichkeit und Datensicherheit über den gesamten Lebenszyklus. Diese Standards in einheitliche Self-Service-Erfahrungen einzubetten, ermöglicht es den Benutzern, auf vertrauenswürdige Daten zuzugreifen, die unternehmensweit ausgetauscht werden.” Weitere Überlegungen werden nötig, wenn es darum geht, wie Analytics-Tools, Dashboards und ML-Modelle getestet werden. Giovanni Lanzani, Managing Director bei Xebia Data, empfiehlt an dieser Stelle: “Datenteams sollten ihre Daten von der Quelle über sämtliche Transformationen, die letztendlich die Insights bereitstellen, die das Business benötigt, hinweg testen. Nur so lassen sich potenzielle Probleme identifizieren, wenn sie gerade entstehen – und verhindern, dass die Business-Anwender mit fehlerhaften Daten arbeiten.” Größere Unternehmen mit umfangreichen operativen, analytischen und unstrukturierten Datensätzen sollten zudem Standards für Datenmanagement und -architektur festlegen, wie Aislinn Wright, VP of Product Management beim Datenbankanbieter EDB, empfiehlt: “Unternehmen ist eine Datenplattform zu empfehlen, die Transaktions-, Analyse- und KI-Daten vereinheitlicht und offene, portable Standards implementiert, um neue Analytics- und Data-Science-Projekte schnell umzusetzen.” Ein weiteres wichtiges Ziel sollte darin bestehen, den Zugriff auf Unternehmensdaten durch autorisierte Endnutzer zu vereinfachen. Krishna Sudhakar, Director of Partner Advisory beim Softwareanbieter Pricefx, erklärt: “Wenn Daten in Dutzenden von Systemen existieren und es keine Standards und Muster gibt, die schnellen Zugriff und einfache Datennutzung ermöglichen, wird jeder Versuch, mit diesen Daten zu arbeiten, zur Anstrengung.” 7. Datenkultur fördern Technologische Fähigkeiten, Data Governance und Standards für die Analytics-Praxis sind die essenziellen Bausteine – allerdings muss auch die Kultur rundherum stimmen, damit “Data-driven” zur Realität wird. Ein guter Startpunkt dafür ist es, die Kommunikation und Kollaboration im Unternehmen zu optimieren. John Castleman, CEO des Digitalisierungsexperten Bridgenext, weiß, worauf es dabei ankommt: “Unternehmen sollten sich darauf konzentrieren, die Silos zwischen Geschäftseinheiten, Funktionen und Technologien aufzubrechen, die den Informationsaustausch und eine fundierte Entscheidungsfindung behindern. Allzu oft stehen interne Konstrukte betrieblicher Effizienz, Umsatzwachstum und Innovation im Weg.” Ein guter und einfach umsetzbarer Anfang sind regelmäßige, unternehmensweite Demos von neuen oder aktualisierten Analytics-Funktionen sowie den damit getroffenen Entscheidungen und ihrem Business Impact. Auch wenn sich zu Beginn solcher Initiativen Ängste breitmachen sollten: Zufriedene und erfolgreiche Endbenutzer tragen letztlich dazu bei, diese nachhaltig abzubauen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

7 Wege zum datengetriebenen Analytics-Erfolg​ Je besser Daten zu konsumieren sind, desto leichter fällt die Entscheidungsfindung.
Foto: LariBat | shutterstock.com

Wenn Manager sich vornehmen, ihr Unternehmen zu einer “Data-driven Company” zu machen, geht es im Regelfall darum, Business-Leute in die Lage zu versetzen, mit Hilfe von Technologie und Daten bessere Entscheidungen zu treffen.

Viele Unternehmen haben deshalb inzwischen in entsprechende Datenarchitekturen investiert, Analytics-Tools angeschafft, Machine-Learning-Modelle entwickelt und Visualisierungsfunktionen eingeführt. Allerdings ist die Wahrscheinlichkeit vergleichsweise hoch, dass die Akzeptanz bei den Endbenutzern nicht besonders hoch ausfällt und die Geschäftsergebnisse nicht überzeugen. So kommt etwa der “2023 State of Data Science & Machine Learning Report” (Download gegen Daten) des Low-Code-Anbieters Knime zum Ergebnis, dass nahezu jedes zweite Unternehmen (45 Prozent) lediglich ein Viertel seiner ML-Modelle produktiv einsetzt.

Dieser Artikel befasst sich mit sieben Maßnahmen, die dabei helfen können, die oben beschriebenen Lücken zu schließen und so ein besseres Decision Making zu realisieren. Die ersten vier Punkte fokussieren dabei auf einzelne Teams, Abteilungen und Unternehmen – die letzten drei darauf, die Analytics-Bemühungen in größeren Unternehmen oder Konzernen zu skalieren.

Its Funny Friday meme time again. Remember, building quality data systems is a process and needs to be adequately funded to get the best results! Data infrastructure should be built alongside all other development to ensure decisions are data driven. #python #coding #data pic.twitter.com/6twFBUX6Ur— Python Unbound (@PythonUnbound) February 24, 2023

1. Endbenutzer verstehen

Sich im Vorfeld mit neuen Datensätzen oder Analytics-Domänen zu befassen, ist wichtig. Allerdings besteht dabei die Gefahr, es zu übertreiben – was zum Beispiel darin gipfeln kann, Proof of Concepts in die Produktion zu überführen oder ganz wesentliche Schritte außer Acht zu lassen, wenn es darum geht, Endbenutzer-Personas zu definieren.

Soumendra Mohanty, Chief Strategy Officer beim Data-Science-Spezialisten Tredence, gibt Kontext: “In der Vergangenheit funktionierten Analytics-Lösungen traditionellerweise so, dass man einen Haufen gut durchdachter Algorithmen auf gut organisierte Daten losließ, überprüfte, was die Daten bestätigten und Empfehlungen in Form von Grafiken ausgab. Bei diesem Ansatz fällt der Input des Endbenutzers völlig unter den Tisch, der im Rahmen seiner täglichen Aufgaben Entscheidungen trifft und zu diesem Zweck Echtzeit-Empfehlungen benötigt.”

Folgende Fragen können mit Blick auf die End User relevant sein:

Wie, wann und wie häufig werden wichtige Entscheidungen getroffen?

Welche Auswirkungen hat eine falsche oder verzögerte Entscheidungsfindung?

Welche Daten und Informationen werden für die Entscheidungen genutzt und wie wird auf diese zugegriffen?

Welche Tools kommen zum Einsatz, um getroffene Entscheidungen umzusetzen?

Der Schlüssel liegt dabei darin, zu durchdringen, wie sich die jeweilige Analytics-Lösung in die Workflows einfügt, welche Integrationen dabei in Betracht zu ziehen sind und an welchen Stellen automatisiert werden sollte.

2. Datenqualitätsanforderungen definieren

Einige Endbenutzer sind vielleicht nicht in der Lage, zwischen statistischen Analysen, Machine Learning und Generative AI (GenAI) zu unterscheiden – wohl aber, fehlerhafte Empfehlungen und Daten zu erkennen. Wird der iterative Prozess der Datenqualitätsoptimierung nicht früh genug in den Entwicklungsprozess integriert, können die Endbenutzer das Vertrauen verlieren – und kehren zu ihren gewohnten Workflows zurück.

Irfan Khan, President und Chief Product Officer bei SAP, erklärt, warum die Datenqualität ein so entscheidendes Kriterium darstellt: “Gebrauchsfertige, qualitativ hochwertige Geschäftsdaten sind entscheidend, um präzise Unternehmensanalysen zu gewährleisten und die Vorteile von Generative AI nutzen zu können. Nur mit einer soliden Datengrundlage und einer einheitlichen Sicht auf die Daten sind Unternehmen in der Lage, vollständig digitalisierte Geschäftsprozesse und einen nahtlosen Datenaustausch in ihrem Unternehmen zu ermöglichen.”

Idealerweise definieren Sie Datenqualitätsmetriken als nicht-funktionale Anforderungen, veröffentlichen Verbesserungsmaßnahmen und bringen die Stakeholder auf den aktuellen Stand, wenn sich die Metriken verbessern.

3. Schneller entscheiden

Abseits der Datenqualität sollten zwei weitere Metriken in Zusammenhang mit Analytics im Fokus stehen, die mit der Geschwindigkeit der Entscheidungsfindung zusammenhängen:

Während die “Time-to-Data” die Verzögerungen umfasst, die entstehen, wenn Daten empfangen und verarbeitet werden,

erfasst die “Time-to-Decision” Faktoren wie Usability, Integration oder Automatisierungslevel – vom Zeitpunkt, ab dem die Daten dem Endbenutzer zur Verfügung stehen, bis hin zur Entscheidungsfindung.

“Time-to-Data war vor ein paar Jahren noch das Privileg von Hochfrequenz-Trading-Plattformen. Inzwischen kann jeder auf günstige Storage-, Compute- und Software-Tools zugreifen, um Daten in Echtzeit zu nutzen”, konstatiert Nikolaos Vasiloglou, VP of Research ML beim Datenspezialisten RelationalAI.

Und während die Kosten für skalierbare Infrastrukturen kontinuierlich sinken, erfordern optimiertes Datenmanagement und robuste Daten-Pipelines architektonische (Design-)Planung. Ein Weg, dabei Fallstricke zu vermeiden: Starten Sie mit bescheideneren Analytics-Zielsetzungen und validieren Sie die Performance der Architektur, während Sie Nutzung, Daten und Fähigkeiten skalieren.

4. Datensicherheit frühzeitig gewährleisten

Eilig zusammengezimmerte Prototypen von Analytics-Lösungen und Daten-Pipelines mit niedriger Latenz können signifikante Risiken – und Kosten – aufwerfen, wenn dabei sensible Daten kompromittiert werden. Deshalb ist es in vielen Fällen deutlich kosteneffektiver, die benötigten Datenschutzmaßnahmen in den Pipelines selbst oder über eine Data-Management-Plattform einzuziehen – statt sie in Analytics-Lösungen zu implementieren.

Ameesh Divatia, CEO und Mitbegründer des Plattformanbieters Baffle, erklärt das Vorgehen: “Sämtliche regulierten Daten sollten, sobald sie erstellt oder erfasst werden, kryptografisch geschützt werden – also verschlüsselt, maskiert oder mit Token versehen. Sobald das geschehen ist, kann die nachgelagerte Datennutzung für alle Anwendungsfälle, einschließlich Generative AI, deutlich schneller vonstattengehen. Die Daten können direkt genutzt werden – ohne weitere Data-Discovery- oder -Review-Maßnahmen.”

Datenschutz möglichst frühzeitig zu implementieren, eröffnet auch die Gelegenheit, Endbenutzer und Stakeholder mit Best Practices in diesem Bereich in Kontakt zu bringen.

5. Data-Governance-Programme skalieren

Analytics-getriebenes Decision Making für mehrere (Sub-)Unternehmen, Abteilungen oder Fachbereiche zu skalieren, erfordert, ein Analytics-Betriebsmodell zu entwickeln und Richtlinien im Bereich Data Governance zu etablieren.

Felix Van de Maele, CEO des Data-Intelligence-Anbieters Collibra, erklärt am Beispiel eines Fast-Food-Giganten, wie selbst Großkonzerne schnell Data-Governance-Prozesse einführen können: “Data Governance ist die Grundlage, um das wahre Potenzial von KI zu erschließen. McDonald’s hat in nur 60 Tagen eine vertrauenswürdige Datengrundlage geschaffen, auf die bereits über 570 Nutzer in 21 Ländern zugreifen. Diese Fortschritte haben die Art und Weise, wie das Unternehmen Daten nutzt, verändert und zu mehr Transparenz, Vertrauen und schnelleren Prozessen für seine Business-Anwender auf der ganzen Welt geführt.”

Dabei spielen Datenkataloge eine wichtige Rolle, um datengetriebene Organisationen zu skalieren. Emily Washington, SVP of Product Management beim Datenspezialisten Precisely, gibt tiefere Einblicke: “Datenkataloge, die eine robuste Data Governance und eine proaktive Qualitätsüberwachung bieten, fördern sichere Geschäftsentscheidungen. Angesichts der erhöhten Risiken, die nicht gemanagte oder ungenaue Daten in der KI-Ära mit sich bringen, ermöglicht die Priorisierung von Datenkatalogen den Anwendern ein umfassendes Verständnis ihrer Daten und des zugrundeliegenden Zustands. So können die Daten effektiv genutzt werden um Umsatz und Gewinn zu steigern.”

Wie die Marktforscher von Gartner in einer aktuellen Umfrage herausgefunden haben, entwickeln 78 Prozent der in diesem Rahmen befragten Chief Data and Analytics Officers ihre Betriebsmodelle weiter, um Innovationen zu unterstützen. Dabei sind für 61 Prozent der Befragten disruptive Marktentwicklungen – einschließlich ChatGPT – ein Treiber.

6. Implementierungsstandards definieren

Datengesteuerte Unternehmen erstellen und entwickeln Standards, damit sich ihre Data-Science-Teams auf die Endbenutzer konzentrieren können. Ein Playbook kann dabei helfen, die Delivery zu beschleunigen, Best Practices zu skalieren und Deployment-Anforderungen zu etablieren. In Bezug auf Datenstandards empfiehlt Marty Andolino, VP of Engineering beim Softwareanbieter Capital One: “Datenstandards, wie etwa Metadaten, SLAs oder Observability gewährleisten Datenintegrität, Benutzerfreundlichkeit und Datensicherheit über den gesamten Lebenszyklus. Diese Standards in einheitliche Self-Service-Erfahrungen einzubetten, ermöglicht es den Benutzern, auf vertrauenswürdige Daten zuzugreifen, die unternehmensweit ausgetauscht werden.”

Weitere Überlegungen werden nötig, wenn es darum geht, wie Analytics-Tools, Dashboards und ML-Modelle getestet werden. Giovanni Lanzani, Managing Director bei Xebia Data, empfiehlt an dieser Stelle: “Datenteams sollten ihre Daten von der Quelle über sämtliche Transformationen, die letztendlich die Insights bereitstellen, die das Business benötigt, hinweg testen. Nur so lassen sich potenzielle Probleme identifizieren, wenn sie gerade entstehen – und verhindern, dass die Business-Anwender mit fehlerhaften Daten arbeiten.”

Größere Unternehmen mit umfangreichen operativen, analytischen und unstrukturierten Datensätzen sollten zudem Standards für Datenmanagement und -architektur festlegen, wie Aislinn Wright, VP of Product Management beim Datenbankanbieter EDB, empfiehlt: “Unternehmen ist eine Datenplattform zu empfehlen, die Transaktions-, Analyse- und KI-Daten vereinheitlicht und offene, portable Standards implementiert, um neue Analytics- und Data-Science-Projekte schnell umzusetzen.”

Ein weiteres wichtiges Ziel sollte darin bestehen, den Zugriff auf Unternehmensdaten durch autorisierte Endnutzer zu vereinfachen. Krishna Sudhakar, Director of Partner Advisory beim Softwareanbieter Pricefx, erklärt: “Wenn Daten in Dutzenden von Systemen existieren und es keine Standards und Muster gibt, die schnellen Zugriff und einfache Datennutzung ermöglichen, wird jeder Versuch, mit diesen Daten zu arbeiten, zur Anstrengung.”

7. Datenkultur fördern

Technologische Fähigkeiten, Data Governance und Standards für die Analytics-Praxis sind die essenziellen Bausteine – allerdings muss auch die Kultur rundherum stimmen, damit “Data-driven” zur Realität wird. Ein guter Startpunkt dafür ist es, die Kommunikation und Kollaboration im Unternehmen zu optimieren.

John Castleman, CEO des Digitalisierungsexperten Bridgenext, weiß, worauf es dabei ankommt: “Unternehmen sollten sich darauf konzentrieren, die Silos zwischen Geschäftseinheiten, Funktionen und Technologien aufzubrechen, die den Informationsaustausch und eine fundierte Entscheidungsfindung behindern. Allzu oft stehen interne Konstrukte betrieblicher Effizienz, Umsatzwachstum und Innovation im Weg.”

Ein guter und einfach umsetzbarer Anfang sind regelmäßige, unternehmensweite Demos von neuen oder aktualisierten Analytics-Funktionen sowie den damit getroffenen Entscheidungen und ihrem Business Impact. Auch wenn sich zu Beginn solcher Initiativen Ängste breitmachen sollten: Zufriedene und erfolgreiche Endbenutzer tragen letztlich dazu bei, diese nachhaltig abzubauen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

7 Wege zum datengetriebenen Analytics-Erfolg​ Weiterlesen »

Microservices: Tipps für eine solide Softwarearchitektur​

Allgemein

Für ein harmonisches Zusammenspiel der verschiedenen Anwendungsschichten und Mikroservices braucht es eine solide Softwarearchitektur. Foto: nuchao – shutterstock.com Microservice-Architekturen sind eine moderne und effektive Methode, Softwareanwendungen zu entwickeln und bereitzustellen. Im Gegensatz zu monolithischen Architekturen, bei denen die gesamte Anwendung als eine einzige, umfassende Einheit betrachtet wird, zerlegt die Microservice-Architektur eine Anwendung in kleine, eigenständige Dienste – sogenannte Microservices. Jeder Microservice steht für eine spezifische Geschäftsfunktion und lässt sich unabhängig entwickeln, bereitstellen und skalieren. Über eine Zwischenschicht, die Middleware, können die Microservices gekoppelt und an die bestehende Unternehmens-IT angebunden werden. Die Vorteile einer Microservice-Architektur: Entwicklungsteams können sich auf die Entwicklung ihrer jeweiligen spezifischen Dienste konzentrieren. Diese Autonomie unterstützt zudem eine technologische Vielfalt, da für unterschiedliche Services verschiedene Technologien und Programmiersprachen verwendet werden können. Warum braucht es überhaupt eine Softwarearchitektur? Eine Softwarearchitektur gewährleistet eine klare Abgrenzung zwischen den verschiedenen Anwendungsebenen. Moderne Softwareapplikationen müssen eine ganze Reihe an Anforderungen erfüllen. Dabei geht es beispielsweise um Benutzerfreundlichkeit, den Einsatz von Cloud-Technologien, diverse Fähigkeiten zur Vernetzung und Integration sowie hohe Sicherheitsanforderungen. Eine gut funktionierende Softwarearchitektur trägt außerdem dazu bei, die Leistung der Anwendung zu optimieren, einschließlich schneller Antwortzeiten und einer auf Effizienz getrimmten Ressourcennutzung. Das sorgt insgesamt für eine gute Benutzererfahrung. Wenn Sie mehr über Microservice-Architekturen erfahren wollen, lesen Sie: Leistungsdaten in Echtzeit: Microservice-Umgebungen brauchen Monitoring Containerisierung: Wie Microservices gegen Provider-Lock-in helfen Was Sie über Microservices wissen müssen Microservices-Architekturen: Vor- und Nachteile für Unternehmen Architekturchaos: Die Schattenseiten von Microservices Darüber hinaus übernimmt die Softwarearchitektur wichtige Aufgaben aus den Bereichen Datenverschlüsselung, Authentifizierung sowie Autorisierung der User und schützt damit die Daten und Systeme vor einem unautorisierten Zugriff. Es ist daher wichtig, dass die Architektur selbst robust angelegt ist und eine hohe Verfügbarkeit des Systems unterstützt. Eine leicht wartbare Architektur erleichtert es zudem durch Funktionen für Protokollierung, Überwachung und Diagnosen, Fehler zu identifizieren und zu beheben. Zu guter Letzt sollten sich moderne Softwarearchitekturen nahtlos mit anderen Systemen und Plattformen integrieren lassen, um eine möglichst reibungslose Daten- und Informationsübertragung zu ermöglichen. Welche Vorteile bieten Microservices? Heutzutage bilden Microservices die Basis für eine Softwarearchitektur. Anstelle einer monolithischen und schwerfälligen Software wird die gesamte Funktionalität auf gut überschaubare Teilsysteme aufgeteilt. Diese Services sind in der Regel über das Internet und RESTful-APIs für die nutzenden Client-Systeme zugänglich. Zwei Gründe sind dafür maßgeblich: Benutzerinnen und Benutzer von Anwendungssystemen möchten heutzutage die Software ihrer Wahl von jedem Ort aus, mit verschiedenen Gerätetypen und unabhängig von der verwendeten Systemumgebung einsetzen. Viele Aufgaben werden nicht mehr ausschließlich auf stationären PCs, sondern vermehrt auf mobilen Geräten erledigt. Die Vorstellung, dass eine Anwendung an ein spezifisches Betriebssystem gebunden ist oder die App nur für ein bestimmtes System verfügbar ist, erscheint kaum noch nachvollziehbar. Es gilt daher, diese Anforderungen durch moderne und dynamische Anwendungssysteme zu erfüllen. Ein Ansatz hierfür besteht in der Implementierung geräte- und plattformübergreifender Software auf der Clientseite sowie einer flexiblen Gesamtsystemarchitektur, welche die Funktionalität als lose miteinander verbundene Services auf der Serverseite bereitstellt. Zu den technologischen Treibern für Microservices zählen Cloud-Plattformen. Die dort gebotene Skalierbarkeit erfordert ein hohes Maß an Flexibilität, was beispielsweise unterschiedliche Lasten der Softwaresysteme anbelangt. Die Integration von Künstlicher Intelligenz in Anwendungssysteme ermöglicht fortschrittliche Analysen, Prozessautomatisierung und personalisierte Benutzererlebnisse. Anwendungssysteme werden zudem vermehrt mit IoT-Geräten integriert, um Daten aus der physischen Welt zu erfassen und zu verarbeiten, insbesondere in Bereichen wie Smart Home und Industrie 4.0. Die Verwendung von Containern und Orchestrierungstools wie Kubernetes, erleichtert die Bereitstellung, Skalierung und Verwaltung von Anwendungen. Aus Sicht der Softwarearchitektur führt die Aufteilung von Anwendungen in kleine, unabhängige Microservices zu einer verbesserten Skalierbarkeit, Wartbarkeit und unterstützt agile Prozesse während der Softwareentwicklung und -pflege. Wie hängen Microservices und Schichtenarchitekturen zusammen? Moderne Anwendungssysteme basieren auf Schichtenarchitekturen (n-Tier) und Mikroservices. Die n-Tier-Architektur stellt einen gestalterischen Ansatz für die Strukturierung von Softwareanwendungen dar, bei dem die verschiedenen Komponenten in Schichten, den sogenannten Tiers, organisiert sind. Jede Schicht erfüllt eine spezifische Aufgabe und arbeitet autonom von den anderen Schichten. Varianten der Aufteilung der Schichten einer Anwendungsstruktur auf Client und Server. Foto: Veikko Krypczyk Meist umfasst eine n-Tier-Architektur die Präsentations-, Anwendungs- und Datenbankschicht. Es gibt unterschiedliche Varianten, wie diese Schichten auf Client- und Serversysteme aufgeteilt werden können. Mögliche Varianten sind die verteilte Präsentation, die entfernte Präsentation sowie die verteilte Datenhaltung und die entfernte Datenhaltung. Die Aufgaben der einzelnen Schichten lassen sich wie folgt beschreiben: Präsentationsschicht (Presentation Tier): Diese Schicht ist für die Benutzeroberfläche der Anwendung verantwortlich. Hier erfolgt die Darstellung von Daten für die User sowie die Entgegennahme von Benutzereingaben. Durch die Trennung des User Interface von der Anwendungslogik ermöglicht diese Schicht unabhängige Änderungen. Anwendungsschicht (Application Tier): In dieser Schicht befindet sich die Anwendungslogik, die Daten verarbeitet und Geschäftsregeln ausführt. Die Anwendungslogik kann mit verschiedenen Benutzeroberflächen wiederverwendet werden, was wiederum Flexibilität und Effizienz fördert. Datenbankschicht (Data Tier): Diese Schicht ist für die Speicherung, Abfrage und Verwaltung von Daten verantwortlich. Wie entwickelt man für eine Microservice-Architektur? Es braucht einen nahtlosen Entwicklungszyklus vom Client bis zum RESTful Service auf Serverseite, um den gesamten Entwicklungsprozess wirklich effizient gestalten zu können. Die geräte- und plattformübergreifende Programmierung kann ein Lösungsansatz sein, um Software für unterschiedliche Gerätetypen (Desktop, Mobile, Web) und Betriebssysteme (Windows, macOS, Linux, iOS, Android) aus einer gemeinsamen Quellcodebasis heraus zu erstellen. Hier gibt es inzwischen erfreulich viele Ansätze für die unterschiedlichsten Anforderungen, Vorgehensweisen und Programmiersprachen. Auf Server-Seite sollte idealerweise eine vermittelnde Zwischenschicht (Middleware) zum Einsatz kommen. Folgende Eigenschaften sollten Microservices im besten Fall mitbringen: Leichtgewichtig: Microservices sollten funktional begrenzt und damit leichtgewichtig sein. Die Inbetriebnahme von einzelnen Diensten erfolgt in der Regel unabhängig voneinander. Das ermöglicht ein einfaches Deployment (Bereitstellung). Änderungen lassen sich schnell einarbeiten. Skalierbar: Eine Microservice-basierte Architektur ermöglicht eine schnelle und effiziente Anpassung an wechselnde Lasten. Das Gesamtsystem kann über Austausch, Anpassung und Erweiterung der Services einfach skaliert werden. Unabhängigkeit: Die Dienste sind voneinander komplett unabhängig. Aus diesem Grund sind Microservices gut für ausfallssichere Systeme geeignet. Fehler in einem Microservice haben keine Auswirkung auf andere Dienste. Ausfälle einzelner Dienste lassen sich ohne Beeinträchtigung des Gesamtsystems beheben. Kombinierbar: Microservices können beliebig miteinander kombiniert werden. So lassen sich auch neue Funktionen gestalten und hinzufügen. Innovationsfördernd: Jeder Microservice stellt für sich eine kleine Applikation dar. Die Technologieauswahl für einzelne Dienste ist nicht eingeschränkt, das heißt Experimente mit neuen Technologien können einfach umgesetzt und die am besten zu dem jeweiligen Service passende Technologie ausgewählt werden. Wiederverwendbar: Eine Microservice-Architektur fördert die Wiederverwendbarkeit von Komponenten, beispielsweise auch die mehrfache Nutzung einer komplexen Geschäftslogik. Agil: Microservices unterstützen den agilen Ansatz, in dem Sinne, dass die Arbeit an einzelnen Diensten in kleineren Teams unabhängig voneinander erfolgen kann. Was braucht man für die Entwicklung von Microservices? Ein Softwaresystem auf der Basis einer Microservice-Architektur umzusetzen, stellt eine größere Herausforderung dar. Die REST-basierten Endpunkte müssen die Geschäftslogik widerspiegeln. Gefragt ist dafür ein umfassendes Knowhow in den Basistechnologien, wie REST, JSON, Authentication und Cloud-Services. Außerdem braucht es die richtigen Tools um zu gewährleisten, dass das Schnittstellendesign der Microservices und die Implementierung der Fachlogik effizient erfolgen. Grundsätzlich lassen sich Entwicklungsaufgaben für Frontend und Backend voneinander entkoppeln. Microservices erlauben eine getrennte Entwicklung von Front- und Backend. Foto: Veikko Krypczyk Ist die Schnittstelle – meist in Form einer REST-basierten API – definiert, dann kann die Entwicklung der Client-Applikationen und die Implementierung der serverseitigen Backendlogik parallel und voneinander unabhängig erfolgen. Microservices lassen sich für neue Softwaresysteme oder im Rahmen von Migrationsprojekten verwenden. Bei Letzteren existiert die Businesslogik bereits teilweise oder ganz in einem Legacy-System. Sie sollte aus solchen monolithischen Softwaresystemen allerdings zu universell über REST adressierbaren Microservices transformiert werden. Bei einem Microservice-basierten Architekturansatz wirken mehrere Komponenten zusammen. In der Praxis müssen dafür konkrete Technologien ausgewählt werden, welche eine effiziente Umsetzung ermöglichen. Beispielhaft wird hier die Kombination aus einem Tooling für Front- und Backend-Technologie skizziert. Die Client-Side betrifft die Entwicklung von nativen Apps beziehungsweise die Einbindung bestehender Applikationen in die Gesamtarchitektur. Desktop-, Mobile- und Web-Apps können genutzt werden. An dieser Stelle hat sich eine Entwicklung mit Cross Plattform-Technologien, beispielsweise mit RAD Studio für die Betriebssysteme Windows, macOS, Linux (Desktop) und Android beziehungsweise iOS (Mobile), bewährt. Mit entsprechenden Frameworks, wie beispielsweise TMS WEB Core, lassen sich auch Web-Applikationen aus der gleichen Codebasis erstellen. Die ausgewählte Technologie sollte den Entwicklungszyklus beschleunigen und auf die datengetriebene Entwicklung von Geschäftsanwendungen fokussiert werden. Die Server-Side agiert als Backend oder Middleware und bietet die folgenden Funktionen. Über einen flexibel nutzbaren REST-Endpunkt werden die Dienste als universelle API bereitgestellt und können somit von allen Arten von Clients genutzt werden. Eine integrierte Zugriffskontrolle ermöglicht die Festlegung von Berechtigungen für die API-Nutzung durch Benutzerauthentifizierung und -autorisierung. Durch die integrierte API-Analyse erhält man einen Überblick über die Nutzung der Dienste. Auf der Server-Seite gibt es verschiedene Möglichkeiten, darunter die Anbindung von Unternehmensdatenbanken, die Verwaltung von IoT-Hardware und die Integration von Cloud-Diensten. Ebenso werden eine Reihe von Anwendungsdiensten bereitgestellt einschließlich Benutzerverzeichnis- und Authentifizierungsdiensten und Push-Benachrichtigungen. Zusammenwirken der Komponenten des Anwendungssystems. Foto: Veikko Krypczyk Eine hohe Produktivität im gesamten Entwicklungszyklus wird erreicht, wenn ein zentrales Entwicklungswerkzeug verwendet wird. Auf der Grundlage einer komponentenbasierten Entwicklung lassen sich Anwendungen für verschiedene Plattformen erstellen und Technologiebrüche vermeiden. Welche Rolle spielen Rapid Application Development (RAD) und Low-Code-Entwicklung? Es gibt unterschiedliche Ansätze, die darauf abzielen, Softwareentwicklungsprozesse zu beschleunigen und die Beteiligung von Nicht-Entwicklern an der Erstellung von Anwendungen zu erleichtern. Rapid Application Development (RAD) ist eine Methode der Softwareentwicklung, die sich darauf konzentriert, Anwendungen schnell zu erstellen und iterativ zu verbessern. Der Fokus liegt dabei auf der raschen Entwicklung von Prototypen und Modellen, um früh im Entwicklungszyklus Feedback zu erhalten. RAD-Methoden betonen die Zusammenarbeit zwischen Entwicklern und Nutzern, um die Anforderungen genau zu verstehen und effektive Lösungen für deren Anforderungen zu liefern. Typischerweise werden visuelle Entwicklungswerkzeuge und reichhaltige Benutzeroberflächen verwendet, um den Prozess zu beschleunigen. Die Low-Code-Entwicklung stellt eine Methode dar, bei der visuelle Entwicklungswerkzeuge und abstrakte Benutzeroberflächen verwendet werden, um den Programmieraufwand zu reduzieren. Der Begriff “Low-Code” bezieht sich darauf, dass weniger handgeschriebener Code benötigt wird, um Anwendungen zu erstellen. Dies erlaubt auch Usern mit geringeren Programmierkenntnissen, komplexe Anwendungen zu entwickeln. Low-Code-Plattformen bieten oft vorgefertigte Bausteine, Drag-and-Drop-Funktionen und visuelle Designer, um die Erstellung von Anwendungen zu beschleunigen. Dieser Ansatz fördert zudem die Zusammenarbeit zwischen Mitarbeitenden aus den Fachabteilungen und IT-Entwicklern, um Anwendungen schneller und effizienter zu erstellen. Beide Ansätze, RAD und Low Code, zielen darauf ab, die Time-to-Market für Anwendungen zu verkürzen, die Flexibilität in der Entwicklung zu erhöhen und die Zusammenarbeit zwischen technischen und nicht-technischen Teammitgliedern zu verbessern. Sie sind besonders nützlich in Umgebungen, in denen schnelle Anpassungen an sich ändernde Anforderungen erforderlich sind und eine hohe Interaktion mit den Usern wichtig ist. Fazit Microservice-Architekturen ermöglichen es, auch komplexe Anwendungssysteme aus einzelnen, voneinander unabhängigen Anwendungsmodulen aufzubauen. Einen großen Vorteil bildet die so erreichte Flexibilität auf Clientseite. Hier ist man in der Wahl der Technologie (Desktop, Mobile, Web) nicht eingeschränkt und kann diese komplett auf die Belange der Zielgruppe ausrichten. Serverseitig kann über Middleware ein umfassendes Spektrum an Funktionen und weiteren Services als REST-fähige Web-Endpunkte zur Verfügung gestellt werden. (ba) 

Microservices: Tipps für eine solide Softwarearchitektur​ Für ein harmonisches Zusammenspiel der verschiedenen Anwendungsschichten und Mikroservices braucht es eine solide Softwarearchitektur.
Foto: nuchao – shutterstock.com

Microservice-Architekturen sind eine moderne und effektive Methode, Softwareanwendungen zu entwickeln und bereitzustellen. Im Gegensatz zu monolithischen Architekturen, bei denen die gesamte Anwendung als eine einzige, umfassende Einheit betrachtet wird, zerlegt die Microservice-Architektur eine Anwendung in kleine, eigenständige Dienste – sogenannte Microservices. Jeder Microservice steht für eine spezifische Geschäftsfunktion und lässt sich unabhängig entwickeln, bereitstellen und skalieren. Über eine Zwischenschicht, die Middleware, können die Microservices gekoppelt und an die bestehende Unternehmens-IT angebunden werden.

Die Vorteile einer Microservice-Architektur: Entwicklungsteams können sich auf die Entwicklung ihrer jeweiligen spezifischen Dienste konzentrieren. Diese Autonomie unterstützt zudem eine technologische Vielfalt, da für unterschiedliche Services verschiedene Technologien und Programmiersprachen verwendet werden können.

Warum braucht es überhaupt eine Softwarearchitektur?

Eine Softwarearchitektur gewährleistet eine klare Abgrenzung zwischen den verschiedenen Anwendungsebenen. Moderne Softwareapplikationen müssen eine ganze Reihe an Anforderungen erfüllen. Dabei geht es beispielsweise um Benutzerfreundlichkeit, den Einsatz von Cloud-Technologien, diverse Fähigkeiten zur Vernetzung und Integration sowie hohe Sicherheitsanforderungen. Eine gut funktionierende Softwarearchitektur trägt außerdem dazu bei, die Leistung der Anwendung zu optimieren, einschließlich schneller Antwortzeiten und einer auf Effizienz getrimmten Ressourcennutzung. Das sorgt insgesamt für eine gute Benutzererfahrung.

Wenn Sie mehr über Microservice-Architekturen erfahren wollen, lesen Sie:

Leistungsdaten in Echtzeit: Microservice-Umgebungen brauchen Monitoring

Containerisierung: Wie Microservices gegen Provider-Lock-in helfen

Was Sie über Microservices wissen müssen

Microservices-Architekturen: Vor- und Nachteile für Unternehmen

Architekturchaos: Die Schattenseiten von Microservices

Darüber hinaus übernimmt die Softwarearchitektur wichtige Aufgaben aus den Bereichen Datenverschlüsselung, Authentifizierung sowie Autorisierung der User und schützt damit die Daten und Systeme vor einem unautorisierten Zugriff. Es ist daher wichtig, dass die Architektur selbst robust angelegt ist und eine hohe Verfügbarkeit des Systems unterstützt. Eine leicht wartbare Architektur erleichtert es zudem durch Funktionen für Protokollierung, Überwachung und Diagnosen, Fehler zu identifizieren und zu beheben. Zu guter Letzt sollten sich moderne Softwarearchitekturen nahtlos mit anderen Systemen und Plattformen integrieren lassen, um eine möglichst reibungslose Daten- und Informationsübertragung zu ermöglichen.

Welche Vorteile bieten Microservices?

Heutzutage bilden Microservices die Basis für eine Softwarearchitektur. Anstelle einer monolithischen und schwerfälligen Software wird die gesamte Funktionalität auf gut überschaubare Teilsysteme aufgeteilt. Diese Services sind in der Regel über das Internet und RESTful-APIs für die nutzenden Client-Systeme zugänglich. Zwei Gründe sind dafür maßgeblich:

Benutzerinnen und Benutzer von Anwendungssystemen möchten heutzutage die Software ihrer Wahl von jedem Ort aus, mit verschiedenen Gerätetypen und unabhängig von der verwendeten Systemumgebung einsetzen. Viele Aufgaben werden nicht mehr ausschließlich auf stationären PCs, sondern vermehrt auf mobilen Geräten erledigt. Die Vorstellung, dass eine Anwendung an ein spezifisches Betriebssystem gebunden ist oder die App nur für ein bestimmtes System verfügbar ist, erscheint kaum noch nachvollziehbar. Es gilt daher, diese Anforderungen durch moderne und dynamische Anwendungssysteme zu erfüllen. Ein Ansatz hierfür besteht in der Implementierung geräte- und plattformübergreifender Software auf der Clientseite sowie einer flexiblen Gesamtsystemarchitektur, welche die Funktionalität als lose miteinander verbundene Services auf der Serverseite bereitstellt.

Zu den technologischen Treibern für Microservices zählen Cloud-Plattformen. Die dort gebotene Skalierbarkeit erfordert ein hohes Maß an Flexibilität, was beispielsweise unterschiedliche Lasten der Softwaresysteme anbelangt. Die Integration von Künstlicher Intelligenz in Anwendungssysteme ermöglicht fortschrittliche Analysen, Prozessautomatisierung und personalisierte Benutzererlebnisse. Anwendungssysteme werden zudem vermehrt mit IoT-Geräten integriert, um Daten aus der physischen Welt zu erfassen und zu verarbeiten, insbesondere in Bereichen wie Smart Home und Industrie 4.0. Die Verwendung von Containern und Orchestrierungstools wie Kubernetes, erleichtert die Bereitstellung, Skalierung und Verwaltung von Anwendungen. Aus Sicht der Softwarearchitektur führt die Aufteilung von Anwendungen in kleine, unabhängige Microservices zu einer verbesserten Skalierbarkeit, Wartbarkeit und unterstützt agile Prozesse während der Softwareentwicklung und -pflege.

Wie hängen Microservices und Schichtenarchitekturen zusammen?

Moderne Anwendungssysteme basieren auf Schichtenarchitekturen (n-Tier) und Mikroservices. Die n-Tier-Architektur stellt einen gestalterischen Ansatz für die Strukturierung von Softwareanwendungen dar, bei dem die verschiedenen Komponenten in Schichten, den sogenannten Tiers, organisiert sind. Jede Schicht erfüllt eine spezifische Aufgabe und arbeitet autonom von den anderen Schichten.

Varianten der Aufteilung der Schichten einer Anwendungsstruktur auf Client und Server.
Foto: Veikko Krypczyk

Meist umfasst eine n-Tier-Architektur die Präsentations-, Anwendungs- und Datenbankschicht. Es gibt unterschiedliche Varianten, wie diese Schichten auf Client- und Serversysteme aufgeteilt werden können. Mögliche Varianten sind die verteilte Präsentation, die entfernte Präsentation sowie die verteilte Datenhaltung und die entfernte Datenhaltung.

Die Aufgaben der einzelnen Schichten lassen sich wie folgt beschreiben:

Präsentationsschicht (Presentation Tier): Diese Schicht ist für die Benutzeroberfläche der Anwendung verantwortlich. Hier erfolgt die Darstellung von Daten für die User sowie die Entgegennahme von Benutzereingaben. Durch die Trennung des User Interface von der Anwendungslogik ermöglicht diese Schicht unabhängige Änderungen.

Anwendungsschicht (Application Tier): In dieser Schicht befindet sich die Anwendungslogik, die Daten verarbeitet und Geschäftsregeln ausführt. Die Anwendungslogik kann mit verschiedenen Benutzeroberflächen wiederverwendet werden, was wiederum Flexibilität und Effizienz fördert.

Datenbankschicht (Data Tier): Diese Schicht ist für die Speicherung, Abfrage und Verwaltung von Daten verantwortlich.

Wie entwickelt man für eine Microservice-Architektur?

Es braucht einen nahtlosen Entwicklungszyklus vom Client bis zum RESTful Service auf Serverseite, um den gesamten Entwicklungsprozess wirklich effizient gestalten zu können. Die geräte- und plattformübergreifende Programmierung kann ein Lösungsansatz sein, um Software für unterschiedliche Gerätetypen (Desktop, Mobile, Web) und Betriebssysteme (Windows, macOS, Linux, iOS, Android) aus einer gemeinsamen Quellcodebasis heraus zu erstellen. Hier gibt es inzwischen erfreulich viele Ansätze für die unterschiedlichsten Anforderungen, Vorgehensweisen und Programmiersprachen. Auf Server-Seite sollte idealerweise eine vermittelnde Zwischenschicht (Middleware) zum Einsatz kommen.

Folgende Eigenschaften sollten Microservices im besten Fall mitbringen:

Leichtgewichtig: Microservices sollten funktional begrenzt und damit leichtgewichtig sein. Die Inbetriebnahme von einzelnen Diensten erfolgt in der Regel unabhängig voneinander. Das ermöglicht ein einfaches Deployment (Bereitstellung). Änderungen lassen sich schnell einarbeiten.

Skalierbar: Eine Microservice-basierte Architektur ermöglicht eine schnelle und effiziente Anpassung an wechselnde Lasten. Das Gesamtsystem kann über Austausch, Anpassung und Erweiterung der Services einfach skaliert werden.

Unabhängigkeit: Die Dienste sind voneinander komplett unabhängig. Aus diesem Grund sind Microservices gut für ausfallssichere Systeme geeignet. Fehler in einem Microservice haben keine Auswirkung auf andere Dienste. Ausfälle einzelner Dienste lassen sich ohne Beeinträchtigung des Gesamtsystems beheben.

Kombinierbar: Microservices können beliebig miteinander kombiniert werden. So lassen sich auch neue Funktionen gestalten und hinzufügen.

Innovationsfördernd: Jeder Microservice stellt für sich eine kleine Applikation dar. Die Technologieauswahl für einzelne Dienste ist nicht eingeschränkt, das heißt Experimente mit neuen Technologien können einfach umgesetzt und die am besten zu dem jeweiligen Service passende Technologie ausgewählt werden.

Wiederverwendbar: Eine Microservice-Architektur fördert die Wiederverwendbarkeit von Komponenten, beispielsweise auch die mehrfache Nutzung einer komplexen Geschäftslogik.

Agil: Microservices unterstützen den agilen Ansatz, in dem Sinne, dass die Arbeit an einzelnen Diensten in kleineren Teams unabhängig voneinander erfolgen kann.

Was braucht man für die Entwicklung von Microservices?

Ein Softwaresystem auf der Basis einer Microservice-Architektur umzusetzen, stellt eine größere Herausforderung dar. Die REST-basierten Endpunkte müssen die Geschäftslogik widerspiegeln. Gefragt ist dafür ein umfassendes Knowhow in den Basistechnologien, wie REST, JSON, Authentication und Cloud-Services. Außerdem braucht es die richtigen Tools um zu gewährleisten, dass das Schnittstellendesign der Microservices und die Implementierung der Fachlogik effizient erfolgen. Grundsätzlich lassen sich Entwicklungsaufgaben für Frontend und Backend voneinander entkoppeln.

Microservices erlauben eine getrennte Entwicklung von Front- und Backend.
Foto: Veikko Krypczyk

Ist die Schnittstelle – meist in Form einer REST-basierten API – definiert, dann kann die Entwicklung der Client-Applikationen und die Implementierung der serverseitigen Backendlogik parallel und voneinander unabhängig erfolgen. Microservices lassen sich für neue Softwaresysteme oder im Rahmen von Migrationsprojekten verwenden. Bei Letzteren existiert die Businesslogik bereits teilweise oder ganz in einem Legacy-System. Sie sollte aus solchen monolithischen Softwaresystemen allerdings zu universell über REST adressierbaren Microservices transformiert werden.

Bei einem Microservice-basierten Architekturansatz wirken mehrere Komponenten zusammen. In der Praxis müssen dafür konkrete Technologien ausgewählt werden, welche eine effiziente Umsetzung ermöglichen. Beispielhaft wird hier die Kombination aus einem Tooling für Front- und Backend-Technologie skizziert.

Die Client-Side betrifft die Entwicklung von nativen Apps beziehungsweise die Einbindung bestehender Applikationen in die Gesamtarchitektur. Desktop-, Mobile- und Web-Apps können genutzt werden. An dieser Stelle hat sich eine Entwicklung mit Cross Plattform-Technologien, beispielsweise mit RAD Studio für die Betriebssysteme Windows, macOS, Linux (Desktop) und Android beziehungsweise iOS (Mobile), bewährt. Mit entsprechenden Frameworks, wie beispielsweise TMS WEB Core, lassen sich auch Web-Applikationen aus der gleichen Codebasis erstellen. Die ausgewählte Technologie sollte den Entwicklungszyklus beschleunigen und auf die datengetriebene Entwicklung von Geschäftsanwendungen fokussiert werden.

Die Server-Side agiert als Backend oder Middleware und bietet die folgenden Funktionen. Über einen flexibel nutzbaren REST-Endpunkt werden die Dienste als universelle API bereitgestellt und können somit von allen Arten von Clients genutzt werden. Eine integrierte Zugriffskontrolle ermöglicht die Festlegung von Berechtigungen für die API-Nutzung durch Benutzerauthentifizierung und -autorisierung. Durch die integrierte API-Analyse erhält man einen Überblick über die Nutzung der Dienste. Auf der Server-Seite gibt es verschiedene Möglichkeiten, darunter die Anbindung von Unternehmensdatenbanken, die Verwaltung von IoT-Hardware und die Integration von Cloud-Diensten. Ebenso werden eine Reihe von Anwendungsdiensten bereitgestellt einschließlich Benutzerverzeichnis- und Authentifizierungsdiensten und Push-Benachrichtigungen.

Zusammenwirken der Komponenten des Anwendungssystems.
Foto: Veikko Krypczyk

Eine hohe Produktivität im gesamten Entwicklungszyklus wird erreicht, wenn ein zentrales Entwicklungswerkzeug verwendet wird. Auf der Grundlage einer komponentenbasierten Entwicklung lassen sich Anwendungen für verschiedene Plattformen erstellen und Technologiebrüche vermeiden.

Welche Rolle spielen Rapid Application Development (RAD) und Low-Code-Entwicklung?

Es gibt unterschiedliche Ansätze, die darauf abzielen, Softwareentwicklungsprozesse zu beschleunigen und die Beteiligung von Nicht-Entwicklern an der Erstellung von Anwendungen zu erleichtern.

Rapid Application Development (RAD) ist eine Methode der Softwareentwicklung, die sich darauf konzentriert, Anwendungen schnell zu erstellen und iterativ zu verbessern. Der Fokus liegt dabei auf der raschen Entwicklung von Prototypen und Modellen, um früh im Entwicklungszyklus Feedback zu erhalten. RAD-Methoden betonen die Zusammenarbeit zwischen Entwicklern und Nutzern, um die Anforderungen genau zu verstehen und effektive Lösungen für deren Anforderungen zu liefern. Typischerweise werden visuelle Entwicklungswerkzeuge und reichhaltige Benutzeroberflächen verwendet, um den Prozess zu beschleunigen.

Die Low-Code-Entwicklung stellt eine Methode dar, bei der visuelle Entwicklungswerkzeuge und abstrakte Benutzeroberflächen verwendet werden, um den Programmieraufwand zu reduzieren. Der Begriff “Low-Code” bezieht sich darauf, dass weniger handgeschriebener Code benötigt wird, um Anwendungen zu erstellen. Dies erlaubt auch Usern mit geringeren Programmierkenntnissen, komplexe Anwendungen zu entwickeln. Low-Code-Plattformen bieten oft vorgefertigte Bausteine, Drag-and-Drop-Funktionen und visuelle Designer, um die Erstellung von Anwendungen zu beschleunigen. Dieser Ansatz fördert zudem die Zusammenarbeit zwischen Mitarbeitenden aus den Fachabteilungen und IT-Entwicklern, um Anwendungen schneller und effizienter zu erstellen.

Beide Ansätze, RAD und Low Code, zielen darauf ab, die Time-to-Market für Anwendungen zu verkürzen, die Flexibilität in der Entwicklung zu erhöhen und die Zusammenarbeit zwischen technischen und nicht-technischen Teammitgliedern zu verbessern. Sie sind besonders nützlich in Umgebungen, in denen schnelle Anpassungen an sich ändernde Anforderungen erforderlich sind und eine hohe Interaktion mit den Usern wichtig ist.

Fazit

Microservice-Architekturen ermöglichen es, auch komplexe Anwendungssysteme aus einzelnen, voneinander unabhängigen Anwendungsmodulen aufzubauen. Einen großen Vorteil bildet die so erreichte Flexibilität auf Clientseite. Hier ist man in der Wahl der Technologie (Desktop, Mobile, Web) nicht eingeschränkt und kann diese komplett auf die Belange der Zielgruppe ausrichten. Serverseitig kann über Middleware ein umfassendes Spektrum an Funktionen und weiteren Services als REST-fähige Web-Endpunkte zur Verfügung gestellt werden. (ba)

Microservices: Tipps für eine solide Softwarearchitektur​ Weiterlesen »

Wie KI-Fehler neue Jobs schaffen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?quality=50&strip=all 5472w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Bei unkontrollierter Nutzung kann GenAI auch Schaden anrichten. Shutterstock / Kaspars Grinvalds Unternehmen, die vorschnell menschliche Arbeitskräfte durch KI ersetzt haben, zahlen nun dafür, dass Menschen die Fehler der Technologie beheben. Wie die BBC berichtet, ist eine Art Nischenbranche für Texter und Entwicker entstanden, die sich darauf spezialisiert haben, KI-Fehler zu korrigieren– und wer darin gut ist, verdient damit ordentlich Geld. KI-Korrektur mit ordentlichem Stundensatz Sarah Skidd, eine Produktmarketing-Managerin aus Arizona, berichtete gegenüber dem britischen Sender, dass sie von einer Agentur beauftragt wurde, Webseitentexte komplett zu überarbeiten, die ursprünglich von generativer KI erstellt wurden. Statt Geld zu sparen, halste sich die Agentur durch den KI-Einsatz eine ganze Reihe von Problemen auf. „Es war genau die Art von Text, wie man sie typischerweise bei KI-generierten Inhalten sieht. Der Text sollte verkaufen und neugierig machen, stattdessen war er völlig nichtssagend“, erklärte Skidd gegenüber BBC. Letztlich, so die Marketing-Expertin, habe sie 20 Stunden damit verbracht, den Text komplett neu zu schreiben – bei einem Stundensatz von 100 Dollar. Und wie Skidd berichtet, ist sie wohl kein Einzelfall: Sie kenne eine Reihe von Textern, deren Hauptaufgabe mittlerweile darin besteht, KI-generierte Texte zu überarbeiten. Auch Sophie Warner von der britischen Agentur Create Designs hat einschlägige Erfahrungen mit Kunden, die sich für eine schnelle Lösung an KI gewandt hatten – dabei aber auf Probleme stießen. „Früher haben uns Kunden kontaktiert, wenn sie Probleme mit ihrer Website hatten oder neue Funktionen einführen wollten“, erklärte sie dem Sender. „Jetzt wenden sie sich zuerst an ChatGPT.“ Wie die Marketing-Spezialistin berichtet, ließen sich Kunden Code von ChatGPT schreiben, was dann oft zu Website-Abstürzen oder Sicherheitslücken geführt habe. Ein solcher Fall habe einen Kunden 360 Pfund und drei Tage Ausfallzeit gekostet – obwohl die geplante Aktualisierung der Website manuell in 15 Minuten zu lösen gewesen wäre. Generell würden professionelle Korrekturen oft länger dauern, weil zuerst die KI-bedingten Fehler untersucht werden müssen, so Warner. „Viele geben nicht zu, dass sie KI benutzt haben – wir müssen dann herausfinden, was schiefgelaufen ist.“ In Indien berichtet Kashish Barot, dass sie regelmäßig KI-Texte für US-Kunden menschlicher umformuliert, da diese oft künstlich und unpersönlich klingen. Das Problem, so erklärt Barot der BBC: Trotz der oft schlechten Qualität der Inhalte hätten sich die Kunden an die Geschwindigkeit der KI gewöhnt – was zu unrealistischen Erwartungen führe. „KI lässt wirklich jeden glauben, dass es nur ein paar Minuten Arbeit ist. Ordentlich zu lektorieren ist jedoch – wie das Schreiben – zeitaufwendig, weil man dabei nachdenken muss – anstatt wie eine KI einfach nur Inhalte zusammenzuwürfeln“, so Barot. 

Wie KI-Fehler neue Jobs schaffen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?quality=50&strip=all 5472w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2022/09/shutterstock_400718536.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Bei unkontrollierter Nutzung kann GenAI auch Schaden anrichten. Shutterstock / Kaspars Grinvalds

Unternehmen, die vorschnell menschliche Arbeitskräfte durch KI ersetzt haben, zahlen nun dafür, dass Menschen die Fehler der Technologie beheben. Wie die BBC berichtet, ist eine Art Nischenbranche für Texter und Entwicker entstanden, die sich darauf spezialisiert haben, KI-Fehler zu korrigieren– und wer darin gut ist, verdient damit ordentlich Geld.

KI-Korrektur mit ordentlichem Stundensatz

Sarah Skidd, eine Produktmarketing-Managerin aus Arizona, berichtete gegenüber dem britischen Sender, dass sie von einer Agentur beauftragt wurde, Webseitentexte komplett zu überarbeiten, die ursprünglich von generativer KI erstellt wurden.

Statt Geld zu sparen, halste sich die Agentur durch den KI-Einsatz eine ganze Reihe von Problemen auf. „Es war genau die Art von Text, wie man sie typischerweise bei KI-generierten Inhalten sieht. Der Text sollte verkaufen und neugierig machen, stattdessen war er völlig nichtssagend“, erklärte Skidd gegenüber BBC. Letztlich, so die Marketing-Expertin, habe sie 20 Stunden damit verbracht, den Text komplett neu zu schreiben – bei einem Stundensatz von 100 Dollar. Und wie Skidd berichtet, ist sie wohl kein Einzelfall: Sie kenne eine Reihe von Textern, deren Hauptaufgabe mittlerweile darin besteht, KI-generierte Texte zu überarbeiten.

Auch Sophie Warner von der britischen Agentur Create Designs hat einschlägige Erfahrungen mit Kunden, die sich für eine schnelle Lösung an KI gewandt hatten – dabei aber auf Probleme stießen. „Früher haben uns Kunden kontaktiert, wenn sie Probleme mit ihrer Website hatten oder neue Funktionen einführen wollten“, erklärte sie dem Sender. „Jetzt wenden sie sich zuerst an ChatGPT.“

Wie die Marketing-Spezialistin berichtet, ließen sich Kunden Code von ChatGPT schreiben, was dann oft zu Website-Abstürzen oder Sicherheitslücken geführt habe. Ein solcher Fall habe einen Kunden 360 Pfund und drei Tage Ausfallzeit gekostet – obwohl die geplante Aktualisierung der Website manuell in 15 Minuten zu lösen gewesen wäre.

Generell würden professionelle Korrekturen oft länger dauern, weil zuerst die KI-bedingten Fehler untersucht werden müssen, so Warner. „Viele geben nicht zu, dass sie KI benutzt haben – wir müssen dann herausfinden, was schiefgelaufen ist.“

In Indien berichtet Kashish Barot, dass sie regelmäßig KI-Texte für US-Kunden menschlicher umformuliert, da diese oft künstlich und unpersönlich klingen. Das Problem, so erklärt Barot der BBC: Trotz der oft schlechten Qualität der Inhalte hätten sich die Kunden an die Geschwindigkeit der KI gewöhnt – was zu unrealistischen Erwartungen führe. „KI lässt wirklich jeden glauben, dass es nur ein paar Minuten Arbeit ist. Ordentlich zu lektorieren ist jedoch – wie das Schreiben – zeitaufwendig, weil man dabei nachdenken muss – anstatt wie eine KI einfach nur Inhalte zusammenzuwürfeln“, so Barot.

Wie KI-Fehler neue Jobs schaffen​ Weiterlesen »

Nach oben scrollen
×