Computerhaus Quickborn

Mai 2025

Google Pixel 9a im Test: Mittelklasse-Pixel mit einzigartigem Design​

Allgemein

Mattias Inghe Auf einen Blick Pro Ausgezeichneter Bildschirm und guter Sound Verbesserte Akkulaufzeit Elegantes Design 7 Jahre Updates Kontra Durchwachsene Weitwinkelkamera Mäßig schnelles Laden Teures Speicher-Upgrade Einige Konkurrenten sind besser Fazit Mit dem Pixel 9a bekommen Sie ein schlankes Design, eine solide Leistung und eine verbesserte Akkulaufzeit. Trotz der kompakten Kameras macht das Pixel 9a sehr anständige Fotos. Das Fehlen eines großen Sensors ist jedoch sehr schade. Das Pixel 9a beeindruckt im Großen und Ganzen nicht so sehr wie sein Vorgänger. Es gibt einige Konkurrenten, die für den gleichen Preis mehr bieten. Google bewirbt sein neues Pixel 9a mit einer integrierten KI, fortschrittlichen Fotobearbeitungsfunktionen und einer leistungsstarken Kamera. Zudem verspricht das Smartphone eine lange Akkulaufzeit. Wir haben das neue Mittelklasse-Smartphone getestet und finden im Folgenden heraus, ob das Gerät die beste Option ist, die Sie für rund 550 Euro kaufen können. Design, Display und Sound Wie sein Vorgänger bietet auch das neue Pixel 9a viel Handy für wenig Geld. Hier finden Sie die Leistung und die Qualität des Pixel 9, jedoch eine unauffälligere Kamera. Das Modul ragt kaum aus dem schlanken Gehäuse heraus, wodurch das Pixel 9a ausgezeichnet in die Hosentasche passt und angenehm in der Hand liegt. Das Design gefällt mir sehr gut, mit geraden Seiten, aber genau der richtigen Rundung an den Kanten, damit es nicht unangenehm zu greifen ist. Die Rückseite hat eine sehr ansprechende, matte Oberfläche. Das Display ist mit Gorilla Glass Victus 2 geschützt. Das AMOLED-Display erreicht eine Spitzenhelligkeit von 2.700 Candela pro Quadratmeter und eine Bildwiederholfrequenz von 120 Hertz. Im dynamischen Modus wechselt die Bildwiederholrate zwischen 60 und 120 Hertz. Das Pixel 9a sieht nicht nur gut aus, sondern klingt auch gut. Die Stereo-Lautsprecher sind für ein Mittelklasse-Smartphone hervorragend. Sie klingen klar und haben eine gute Basswiedergabe, wodurch sich das Pixel 9a für Musik und Videos eignet. Ein exzellenter Bildschirm, genau wie beim Pixel 9.Mattias Inghe Kameras Ist im flachen Design des Pixel 9a genügend Platz für gute Kamera-Sensoren und Objektive? Ich selbst benutze ein Pixel 9 Pro als Smartphone für den Alltag. Angesichts dessen lassen sich einfache Vergleiche zum Pixel 9a ziehen. Das Pixel 9a verfügt nicht über die Teleskop-Zoomkamera meines Pro. Der Hauptsensor und das Weitwinkelobjektiv sind jedoch ähnlich. Das Weitwinkelobjektiv im Pixel 9 löst mit 48 Megapixeln auf, im Pixel 9a sind es nur 13 Megapixel. Der Sensor im Pixel 9a ist jedoch kleiner als im Pixel 9. Meiner Meinung nach ist die Bildverarbeitung jedoch wichtiger als die bloße Sensorfläche. Mit dem Pixel 9a gelingen saubere, klare und detaillierte Fotos sowohl bei Tageslicht als auch bei wenig Licht. Die Langzeitbelichtung ist schneller als beim Pixel 9 Pro, sonst ist das Endergebnis fast identisch. Der 13-Megapixel-Weitwinkelsensor verliert im Vergleich zum 48-Megapixel-Sensor des Pixel 9 an Dynamik und Detailreichtum, aber das ist nicht überraschend. Er eignet sich gut für Schnappschüsse bei Tageslicht, kann aber bei Dunkelheit nicht ganz mithalten. Für ein Smartphone um die 550 Euro ist die Kameraleistung gar nicht so schlecht. Die Kameras von Googles Pixel-Smartphones gelten als sehr zuverlässig. Es ist schwer, mit ihnen ein schlechtes Foto zu machen. Das trifft auch auf das Pixel 9a zu. Vier Farben stehen zur Auswahl: Obsidian, Porcellain, Peony und Iris.Mattias Inghe Leistung, KI und Software-Support Das Pixel 9a nutzt den Tensor-G4-Chip, wie auch die anderen Smartphones der Pixel-9-Serie. Er ist nicht gerade dafür bekannt, ein Leistungsmonster zu sein. Google war jedoch noch nie daran interessiert, mit Qualcomm, Samsung und Mediatek zu konkurrieren, um die schnellsten Benchmark-Ergebnisse zu erzielen. Die Leistung des Pixel 9a ist für den Alltag absolut ausreichend. Die meisten Mobile-Games laufen flüssig, ohne dass das Gerät dabei überhitzt. Auch für Googles neue KI-Funktionen bringt es genug Power mit – von Gemini und Circle to Search bis zu cleveren Bildbearbeitungs-Tools und intelligenter Rauschunterdrückung beim Filmen. Die gleichen KI-Features wie bei den anderen Pixel-9-Modellen sind auch hier an Bord. Und: Google verspricht sieben Jahre lang Updates. Das Pixel 9a hat nur 8 Gigabyte Arbeitsspeicher im Vergleich zu 12 Gigabyte im Pixel 9. Das bedeutet, dass es nicht so gut mit Multitasking umgehen kann. Andererseits ist der relativ kleine Bildschirm ohnehin nicht ideal für die Ausführung von Apps im Splitscreen-Modus, sodass dieses Manko für Sie vielleicht nicht allzu sehr ins Gewicht fällt. Ein weiterer Rückschritt ist die Unterstützung von Wi-Fi 6e anstelle von Wi-Fi 7. Das Pixel 9a bietet ein flaches Gehäuse-Design.Mattias Inghe Akku und Aufladen Der 5.100-Milliamperestunden-Akku ist eine Steigerung gegenüber dem Pixel 8a mit 4.492 Milliamperestunden. Tatsächlich ist er sogar größer als der des Pixel 9 Pro XL (5.060 Milliamperestunden). Das macht sich bei der Akkulaufzeit bemerkbar, einem Punkt, in dem die anderen Pixel 9-Handys ziemlich schwach waren. In meinem Test kam ich auf bis zu 15 Stunden aktive Nutzung pro Tag und fast 20 Stunden Video-Streaming. Damit ist das Pixel 9a noch immer nicht Klassenbester, es liefert jedoch eine gute Laufzeit. Sie können das Smartphone per Kabel oder kabellos aufladen. Es dauert etwa zwei Stunden, um von einem leeren Akku auf 100 Prozent zu kommen. Ab 60 Prozent fällt die Ladegeschwindigkeit deutlich ab. Superschnelles Laden ist das nicht, aber mit der langsameren Ladegeschwindigkeit schonen Sie immerhin Ihren Akku. Preis & Verfügbarkeit Im Google Store ist das Pixel 9a in vier Farben und mit zwei Speicheroptionen erhältlich. 128 Gigabyte interner Speicher kosten 549 Euro. 256 Gigabyte schlagen mit 649 Euro zu Buche. Amazon hat das Pixel 9a ebenfalls ab 549 Euro im Angebot. Sollten Sie das Pixel 9a kaufen? Ein großer Pluspunkt für Smartphones aus der Pixel-a-Serie ist der Preis. 100 Euro für den doppelten internen Speicher erscheinen jedoch unnötig teuer. Im Vergleich dazu kostet das Pixel 9 mit 128 Gigabyte 899 Euro. Zwischen 550 und 900 Euro klafft eine große Lücke, in die sich in letzter Zeit sehr viele Konkurrenten mit hochwertigen Displays, guter KI und ausgezeichneten Kameras geschlichen haben. Das Pixel 9a ist in dieser Preisklasse nicht so einzigartig, wie es das Pixel 8a war. Wenn Sie auf der Suche nach einer Alternative sind, sollten Sie einen Blick auf das Xiaomi Poco F7 Ultra für 750 Euro oder auf das OnePlus 13R für 649 Euro werfen. Spezifikationen: Pixel 9a Produktbezeichnung: Pixel 9aGetestet: April 2025Hersteller: GoogleSystemschaltung: Google Tensor G4Prozessor: Cortex-X4 3,1 GHz, 3x Cortex-A720 2,6 GHz, 4x Cortex-A520 1,92 GHzGrafikkarte: Mali-G715 MC7Speicher: 8 GBSpeicher: 128/256 GBDisplay: 6,3 Zoll glänzend, P-OLED, 1.080 × 2.424 Pixel, 120 Hz, 2.700 cd/m²Kameras: 48 Megapixel, 13 Megapixel Weitwinkel mit LED hinten, 13 Megapixel vorneAnschlüsse: USB-C 3 Gen 2Kommunikation: 5G, Wi-Fi 6e, Bluetooth 5.3, GPS, Galileo, NFCBetriebssystem: Android 15, bis zu 7 Jahre UpdatesSonstiges: Wasserdicht (IP68, 1,5 m für 30 min), nanoSIM, eSIM, Fingerabdruckscanner auf dem BildschirmAkku: 5.100 mAh, ca. 20 Std. Video-Streaming (hohe Helligkeit, 60 Hz), 15 Std. 40 Min. gemischte Nutzung (PcMark für Android, 120 Hz, 200 cd/m²)Akkuladung: bis zu 23 W USB (PD 3.0). 25 % in 15 min, 46 % in 30 min. 7,5 W kabellos (Qi).Größe: 15,47 × 7,33 × 0,89 cmGewicht: 186 GrammEmpfohlener Preis: 549 Euro bei AmazonBewertung: 3,5 von 5Antutu Benchmark 10: 1.250.037 PunkteGeekbench 6, Multi-Core: 4.474 PunkteGeekbench 6, Einzelkern: 1.785 PunkteGeekbench 6 Rechenleistung, GPU: 7,838 PunkteGFXbench Aztec Open GL Hoch: 68 fpsGFXbench Aztec Vulkan Hoch: 67 fpsGFXbench Verfolgungsjagd: 80 fpsGFXmark Manhattan: 119 fps3DMark Wild Life Extreme: 2.628 Punkte3DMark Steel Nomad Light: 1.055 PunkteSpeicher, Lesen: 1.846,7 MB/sSpeicherplatz, Schreiben: 931 MB/s*Maximale Punktzahl für System und Bildschirm (PC-Welt) 

Google Pixel 9a im Test: Mittelklasse-Pixel mit einzigartigem Design​ Mattias Inghe

Auf einen Blick

Pro

Ausgezeichneter Bildschirm und guter Sound

Verbesserte Akkulaufzeit

Elegantes Design

7 Jahre Updates

Kontra

Durchwachsene Weitwinkelkamera

Mäßig schnelles Laden

Teures Speicher-Upgrade

Einige Konkurrenten sind besser

Fazit

Mit dem Pixel 9a bekommen Sie ein schlankes Design, eine solide Leistung und eine verbesserte Akkulaufzeit. Trotz der kompakten Kameras macht das Pixel 9a sehr anständige Fotos. Das Fehlen eines großen Sensors ist jedoch sehr schade. Das Pixel 9a beeindruckt im Großen und Ganzen nicht so sehr wie sein Vorgänger. Es gibt einige Konkurrenten, die für den gleichen Preis mehr bieten.

Google bewirbt sein neues Pixel 9a mit einer integrierten KI, fortschrittlichen Fotobearbeitungsfunktionen und einer leistungsstarken Kamera. Zudem verspricht das Smartphone eine lange Akkulaufzeit. Wir haben das neue Mittelklasse-Smartphone getestet und finden im Folgenden heraus, ob das Gerät die beste Option ist, die Sie für rund 550 Euro kaufen können.

Design, Display und Sound

Wie sein Vorgänger bietet auch das neue Pixel 9a viel Handy für wenig Geld. Hier finden Sie die Leistung und die Qualität des Pixel 9, jedoch eine unauffälligere Kamera. Das Modul ragt kaum aus dem schlanken Gehäuse heraus, wodurch das Pixel 9a ausgezeichnet in die Hosentasche passt und angenehm in der Hand liegt.

Das Design gefällt mir sehr gut, mit geraden Seiten, aber genau der richtigen Rundung an den Kanten, damit es nicht unangenehm zu greifen ist. Die Rückseite hat eine sehr ansprechende, matte Oberfläche.

Das Display ist mit Gorilla Glass Victus 2 geschützt. Das AMOLED-Display erreicht eine Spitzenhelligkeit von 2.700 Candela pro Quadratmeter und eine Bildwiederholfrequenz von 120 Hertz. Im dynamischen Modus wechselt die Bildwiederholrate zwischen 60 und 120 Hertz.

Das Pixel 9a sieht nicht nur gut aus, sondern klingt auch gut. Die Stereo-Lautsprecher sind für ein Mittelklasse-Smartphone hervorragend. Sie klingen klar und haben eine gute Basswiedergabe, wodurch sich das Pixel 9a für Musik und Videos eignet.

Ein exzellenter Bildschirm, genau wie beim Pixel 9.Mattias Inghe

Kameras

Ist im flachen Design des Pixel 9a genügend Platz für gute Kamera-Sensoren und Objektive? Ich selbst benutze ein Pixel 9 Pro als Smartphone für den Alltag. Angesichts dessen lassen sich einfache Vergleiche zum Pixel 9a ziehen. Das Pixel 9a verfügt nicht über die Teleskop-Zoomkamera meines Pro. Der Hauptsensor und das Weitwinkelobjektiv sind jedoch ähnlich.

Das Weitwinkelobjektiv im Pixel 9 löst mit 48 Megapixeln auf, im Pixel 9a sind es nur 13 Megapixel. Der Sensor im Pixel 9a ist jedoch kleiner als im Pixel 9. Meiner Meinung nach ist die Bildverarbeitung jedoch wichtiger als die bloße Sensorfläche. Mit dem Pixel 9a gelingen saubere, klare und detaillierte Fotos sowohl bei Tageslicht als auch bei wenig Licht.

Die Langzeitbelichtung ist schneller als beim Pixel 9 Pro, sonst ist das Endergebnis fast identisch. Der 13-Megapixel-Weitwinkelsensor verliert im Vergleich zum 48-Megapixel-Sensor des Pixel 9 an Dynamik und Detailreichtum, aber das ist nicht überraschend. Er eignet sich gut für Schnappschüsse bei Tageslicht, kann aber bei Dunkelheit nicht ganz mithalten.

Für ein Smartphone um die 550 Euro ist die Kameraleistung gar nicht so schlecht. Die Kameras von Googles Pixel-Smartphones gelten als sehr zuverlässig. Es ist schwer, mit ihnen ein schlechtes Foto zu machen. Das trifft auch auf das Pixel 9a zu.

Vier Farben stehen zur Auswahl: Obsidian, Porcellain, Peony und Iris.Mattias Inghe

Leistung, KI und Software-Support

Das Pixel 9a nutzt den Tensor-G4-Chip, wie auch die anderen Smartphones der Pixel-9-Serie. Er ist nicht gerade dafür bekannt, ein Leistungsmonster zu sein. Google war jedoch noch nie daran interessiert, mit Qualcomm, Samsung und Mediatek zu konkurrieren, um die schnellsten Benchmark-Ergebnisse zu erzielen.

Die Leistung des Pixel 9a ist für den Alltag absolut ausreichend. Die meisten Mobile-Games laufen flüssig, ohne dass das Gerät dabei überhitzt. Auch für Googles neue KI-Funktionen bringt es genug Power mit – von Gemini und Circle to Search bis zu cleveren Bildbearbeitungs-Tools und intelligenter Rauschunterdrückung beim Filmen.

Die gleichen KI-Features wie bei den anderen Pixel-9-Modellen sind auch hier an Bord. Und: Google verspricht sieben Jahre lang Updates.

Das Pixel 9a hat nur 8 Gigabyte Arbeitsspeicher im Vergleich zu 12 Gigabyte im Pixel 9. Das bedeutet, dass es nicht so gut mit Multitasking umgehen kann. Andererseits ist der relativ kleine Bildschirm ohnehin nicht ideal für die Ausführung von Apps im Splitscreen-Modus, sodass dieses Manko für Sie vielleicht nicht allzu sehr ins Gewicht fällt.

Ein weiterer Rückschritt ist die Unterstützung von Wi-Fi 6e anstelle von Wi-Fi 7.

Das Pixel 9a bietet ein flaches Gehäuse-Design.Mattias Inghe

Akku und Aufladen

Der 5.100-Milliamperestunden-Akku ist eine Steigerung gegenüber dem Pixel 8a mit 4.492 Milliamperestunden. Tatsächlich ist er sogar größer als der des Pixel 9 Pro XL (5.060 Milliamperestunden).

Das macht sich bei der Akkulaufzeit bemerkbar, einem Punkt, in dem die anderen Pixel 9-Handys ziemlich schwach waren. In meinem Test kam ich auf bis zu 15 Stunden aktive Nutzung pro Tag und fast 20 Stunden Video-Streaming. Damit ist das Pixel 9a noch immer nicht Klassenbester, es liefert jedoch eine gute Laufzeit.

Sie können das Smartphone per Kabel oder kabellos aufladen. Es dauert etwa zwei Stunden, um von einem leeren Akku auf 100 Prozent zu kommen. Ab 60 Prozent fällt die Ladegeschwindigkeit deutlich ab. Superschnelles Laden ist das nicht, aber mit der langsameren Ladegeschwindigkeit schonen Sie immerhin Ihren Akku.

Preis & Verfügbarkeit

Im Google Store ist das Pixel 9a in vier Farben und mit zwei Speicheroptionen erhältlich. 128 Gigabyte interner Speicher kosten 549 Euro. 256 Gigabyte schlagen mit 649 Euro zu Buche. Amazon hat das Pixel 9a ebenfalls ab 549 Euro im Angebot.

Sollten Sie das Pixel 9a kaufen?

Ein großer Pluspunkt für Smartphones aus der Pixel-a-Serie ist der Preis. 100 Euro für den doppelten internen Speicher erscheinen jedoch unnötig teuer. Im Vergleich dazu kostet das Pixel 9 mit 128 Gigabyte 899 Euro. Zwischen 550 und 900 Euro klafft eine große Lücke, in die sich in letzter Zeit sehr viele Konkurrenten mit hochwertigen Displays, guter KI und ausgezeichneten Kameras geschlichen haben. Das Pixel 9a ist in dieser Preisklasse nicht so einzigartig, wie es das Pixel 8a war.

Wenn Sie auf der Suche nach einer Alternative sind, sollten Sie einen Blick auf das Xiaomi Poco F7 Ultra für 750 Euro oder auf das OnePlus 13R für 649 Euro werfen.

Spezifikationen: Pixel 9a

Produktbezeichnung: Pixel 9aGetestet: April 2025Hersteller: GoogleSystemschaltung: Google Tensor G4Prozessor: Cortex-X4 3,1 GHz, 3x Cortex-A720 2,6 GHz, 4x Cortex-A520 1,92 GHzGrafikkarte: Mali-G715 MC7Speicher: 8 GBSpeicher: 128/256 GBDisplay: 6,3 Zoll glänzend, P-OLED, 1.080 × 2.424 Pixel, 120 Hz, 2.700 cd/m²Kameras: 48 Megapixel, 13 Megapixel Weitwinkel mit LED hinten, 13 Megapixel vorneAnschlüsse: USB-C 3 Gen 2Kommunikation: 5G, Wi-Fi 6e, Bluetooth 5.3, GPS, Galileo, NFCBetriebssystem: Android 15, bis zu 7 Jahre UpdatesSonstiges: Wasserdicht (IP68, 1,5 m für 30 min), nanoSIM, eSIM, Fingerabdruckscanner auf dem BildschirmAkku: 5.100 mAh, ca. 20 Std. Video-Streaming (hohe Helligkeit, 60 Hz), 15 Std. 40 Min. gemischte Nutzung (PcMark für Android, 120 Hz, 200 cd/m²)Akkuladung: bis zu 23 W USB (PD 3.0). 25 % in 15 min, 46 % in 30 min. 7,5 W kabellos (Qi).Größe: 15,47 × 7,33 × 0,89 cmGewicht: 186 GrammEmpfohlener Preis: 549 Euro bei AmazonBewertung: 3,5 von 5Antutu Benchmark 10: 1.250.037 PunkteGeekbench 6, Multi-Core: 4.474 PunkteGeekbench 6, Einzelkern: 1.785 PunkteGeekbench 6 Rechenleistung, GPU: 7,838 PunkteGFXbench Aztec Open GL Hoch: 68 fpsGFXbench Aztec Vulkan Hoch: 67 fpsGFXbench Verfolgungsjagd: 80 fpsGFXmark Manhattan: 119 fps3DMark Wild Life Extreme: 2.628 Punkte3DMark Steel Nomad Light: 1.055 PunkteSpeicher, Lesen: 1.846,7 MB/sSpeicherplatz, Schreiben: 931 MB/s*Maximale Punktzahl für System und Bildschirm

(PC-Welt)

Google Pixel 9a im Test: Mittelklasse-Pixel mit einzigartigem Design​ Weiterlesen »

Batterie der Apple Watch schonend laden – so geht es​

Allgemein

Halyna Kubiv Seit watchOS 10 bietet Apple für die kompatiblen Apple Watches eine vergleichbare Option wie bei den iPhones: Die Smartwatches kann man nach Bedarf optimiert laden, diese lernen die Gewohnheiten von ihren Nutzern und Nutzerinnen und passen die Zeit der kompletten Aufladung entsprechend an. Der Hintergrund dieses Gedankens: Je länger sich die Batterie in einem Zustand der kompletten Aufladung auf 100 Prozent befindet, desto schneller altert sie und verliert fortwährend ihre ursprüngliche Kapazität. Um dies zu verhindern, werden insbesondere iPhones nur auf 80 Prozent der Akkukapazität aufgeladen. Oder die komplette Aufladung wird so lange hinausgezögert, bis der Nutzer oder die Nutzerin das Gerät von dem Netzteil trennt. Am Beispiel von iPhone 15 haben wir bei einer Leserumfrage herausgefunden, dass die Aufladung nur auf 80 Prozent tendenziell die Batterie vor Alterung schont, solche Batterien behalten länger ihre maximale Kapazität. Kompatible Geräte Apple hat das optimierte Laden bereits mit watchOS 7 eingeführt, nach dem Update ist die Funktion auf den Geräten automatisch aktiviert. Dementsprechend können auch recht alte Generationen der Apple Watch das optimierte Laden unterstützen, Apple hat auf seiner Support-Seite explizit Apple Watch Series 3 und Apple Watch SE der ersten Generation genannt. Auch Series 4 und 5 sind dabei. Das optimierte Ladelimit ist jedoch eine neuere Option, diese wurde seit watchOS 9.2 eingeführt. Dementsprechend können nur neuere Generationen wie Series 6, beide Apple Watch Ultra und die Apple Watch SE der zweiten Generation optimiertes Ladelimit unterstützen. Auf den Apple Watches Series 6, 7 und 8 sowie auf der SE 2 sind das optimierte Laden und das optimierte Ladelimit gekoppelt: Wird das optimierte Laden ausgeschaltet, wird auch das Ladelimit auf 100 Prozent gesetzt. Optimiertes Laden Da die Batterie-Option in der Watch-App auf dem iPhone komplett fehlt, kann man das optimierte Laden lediglich auf der Uhr direkt steuern. Öffnen Sie auf der Uhr die App “Einstellungen” und scrollen Sie bis zu dem Reiter “Batterie”. Tippen Sie im Fenster auf den Reiter “Batteriezustand”, überprüfen Sie, ob der Reiter “Optimiertes Ladelimit” aktiviert ist. Ist das der Fall, lädt die Uhr bis zu 80 Prozent und nur unter bestimmten Umständen auf 100 Prozent. Auch das optimierte Laden ist automatisch aktiviert. Optimiertes Ladelimit ausschalten Das optimierte Ladelimit hat die Apple Watch vom iPhone geerbt. Mit der aktivierten Einstellung werden die Smartwatches nicht auf 100, sondern auf 80 Prozent der maximalen Batteriekapazität aufgeladen und so vor dem vorschnellen Altern verschont. Man kann jedoch diese Begrenzung auf zwei Arten ausschalten: In der App “Einstellungen” im Bereich “Batterie” unter dem Reiter “Batteriezustand”: Deaktiviert man den Regler “Optimiertes Laden”, schlägt das System zwei Optionen. “Deaktivieren” steht für das generelle Aufladen auf 100 Prozent für alle weiteren Ladevorgänge, “Bis morgen deaktivieren” gilt nur für das nächste Mal. Optimiertes Ladelimit auf der Apple Watch stellt einen unvollständigen Ring dar. Apple Liegt die Apple Watch auf der Ladescheibe auf, tippt man den gelben oder grünen Fortschrittsring mit der Prozentanzeige der Aufladung. Es kommt eine Fläche “Jetzt vollständig laden”, nach dem Tippen darauf lädt die Uhr auf 100 Prozent. Diese Einstellungen müssen Sie beachten Das optimierte Laden funktioniert nur unter bestimmten Bedingungen. Die Uhr muss Ihre Gewohnheiten zunächst lernen, Apple weist darauf hin, dass das optimierte Laden lediglich an den Orten funktioniert, für die bestimmte Tagesrituale bestehen, dazu gehören das eigene Zuhause oder die Arbeitsstätte. Sie können die Aufgabe für Algorithmen erleichtern und bei Ihren eigenen Informationen in der Kontakten-App Heim- und Arbeitsadresse eintragen. Auch diese Einstellung ist in der Watch-App auf dem iPhone nicht verfügbar, Sie müssen direkt auf der Apple Watch nachprüfen, ob folgende Dienste aktiviert sind: App “Einstellungen” > “Datenschutz & Sicherheit” > “Ortungsdienste” > “Ortungsdienste” aktiviertApp “Einstellungen” > “Datenschutz & Sicherheit” > “Ortungsdienste” > “Ortungsdienste” > “Systemdienste” > “Systemanpassung” (Diese Funktion wird für das iPhone eingeschaltet und gilt gleichzeitig für die Apple Watch.App “Einstellungen” > “Datenschutz & Sicherheit” > “Ortungsdienste” > > “Ortungsdienste” > “Systemdienste” > “Wichtige Orte” aktiviert. (Macwelt) 

Batterie der Apple Watch schonend laden – so geht es​ Halyna Kubiv

Seit watchOS 10 bietet Apple für die kompatiblen Apple Watches eine vergleichbare Option wie bei den iPhones: Die Smartwatches kann man nach Bedarf optimiert laden, diese lernen die Gewohnheiten von ihren Nutzern und Nutzerinnen und passen die Zeit der kompletten Aufladung entsprechend an.

Der Hintergrund dieses Gedankens: Je länger sich die Batterie in einem Zustand der kompletten Aufladung auf 100 Prozent befindet, desto schneller altert sie und verliert fortwährend ihre ursprüngliche Kapazität. Um dies zu verhindern, werden insbesondere iPhones nur auf 80 Prozent der Akkukapazität aufgeladen.

Oder die komplette Aufladung wird so lange hinausgezögert, bis der Nutzer oder die Nutzerin das Gerät von dem Netzteil trennt. Am Beispiel von iPhone 15 haben wir bei einer Leserumfrage herausgefunden, dass die Aufladung nur auf 80 Prozent tendenziell die Batterie vor Alterung schont, solche Batterien behalten länger ihre maximale Kapazität.

Kompatible Geräte

Apple hat das optimierte Laden bereits mit watchOS 7 eingeführt, nach dem Update ist die Funktion auf den Geräten automatisch aktiviert. Dementsprechend können auch recht alte Generationen der Apple Watch das optimierte Laden unterstützen, Apple hat auf seiner Support-Seite explizit Apple Watch Series 3 und Apple Watch SE der ersten Generation genannt. Auch Series 4 und 5 sind dabei.

Das optimierte Ladelimit ist jedoch eine neuere Option, diese wurde seit watchOS 9.2 eingeführt. Dementsprechend können nur neuere Generationen wie Series 6, beide Apple Watch Ultra und die Apple Watch SE der zweiten Generation optimiertes Ladelimit unterstützen. Auf den Apple Watches Series 6, 7 und 8 sowie auf der SE 2 sind das optimierte Laden und das optimierte Ladelimit gekoppelt: Wird das optimierte Laden ausgeschaltet, wird auch das Ladelimit auf 100 Prozent gesetzt.

Optimiertes Laden

Da die Batterie-Option in der Watch-App auf dem iPhone komplett fehlt, kann man das optimierte Laden lediglich auf der Uhr direkt steuern.

Öffnen Sie auf der Uhr die App “Einstellungen” und scrollen Sie bis zu dem Reiter “Batterie”.

Tippen Sie im Fenster auf den Reiter “Batteriezustand”, überprüfen Sie, ob der Reiter “Optimiertes Ladelimit” aktiviert ist.

Ist das der Fall, lädt die Uhr bis zu 80 Prozent und nur unter bestimmten Umständen auf 100 Prozent. Auch das optimierte Laden ist automatisch aktiviert.

Optimiertes Ladelimit ausschalten

Das optimierte Ladelimit hat die Apple Watch vom iPhone geerbt. Mit der aktivierten Einstellung werden die Smartwatches nicht auf 100, sondern auf 80 Prozent der maximalen Batteriekapazität aufgeladen und so vor dem vorschnellen Altern verschont. Man kann jedoch diese Begrenzung auf zwei Arten ausschalten: In der App “Einstellungen” im Bereich “Batterie” unter dem Reiter “Batteriezustand”: Deaktiviert man den Regler “Optimiertes Laden”, schlägt das System zwei Optionen. “Deaktivieren” steht für das generelle Aufladen auf 100 Prozent für alle weiteren Ladevorgänge, “Bis morgen deaktivieren” gilt nur für das nächste Mal.

Optimiertes Ladelimit auf der Apple Watch stellt einen unvollständigen Ring dar. Apple

Liegt die Apple Watch auf der Ladescheibe auf, tippt man den gelben oder grünen Fortschrittsring mit der Prozentanzeige der Aufladung. Es kommt eine Fläche “Jetzt vollständig laden”, nach dem Tippen darauf lädt die Uhr auf 100 Prozent.

Diese Einstellungen müssen Sie beachten

Das optimierte Laden funktioniert nur unter bestimmten Bedingungen. Die Uhr muss Ihre Gewohnheiten zunächst lernen, Apple weist darauf hin, dass das optimierte Laden lediglich an den Orten funktioniert, für die bestimmte Tagesrituale bestehen, dazu gehören das eigene Zuhause oder die Arbeitsstätte. Sie können die Aufgabe für Algorithmen erleichtern und bei Ihren eigenen Informationen in der Kontakten-App Heim- und Arbeitsadresse eintragen.

Auch diese Einstellung ist in der Watch-App auf dem iPhone nicht verfügbar, Sie müssen direkt auf der Apple Watch nachprüfen, ob folgende Dienste aktiviert sind:

App “Einstellungen” > “Datenschutz & Sicherheit” > “Ortungsdienste” > “Ortungsdienste” aktiviertApp “Einstellungen” > “Datenschutz & Sicherheit” > “Ortungsdienste” > “Ortungsdienste” > “Systemdienste” > “Systemanpassung” (Diese Funktion wird für das iPhone eingeschaltet und gilt gleichzeitig für die Apple Watch.App “Einstellungen” > “Datenschutz & Sicherheit” > “Ortungsdienste” > > “Ortungsdienste” > “Systemdienste” > “Wichtige Orte” aktiviert.

(Macwelt)

Batterie der Apple Watch schonend laden – so geht es​ Weiterlesen »

Asus Vivobook S15 OLED im Test – der perfekte Allrounder?​

Allgemein

Asus Auf einen Blick Pro Günstiger Preis Sehr guter Oled-Bildschirm Gute Rechenleistung Viele Anschlüsse Kontra Mittelmäßige Akkulaufzeit Laut unter Last Fazit Das Vivobook S 15 ist einer der günstigsten Copilot+-PCs mit hochauflösendem Oled-Bildschirm.Seine umfassende Ausstattung und die ordentliche Leistung des Snapdragon-Prozessors machen es zu einem empfehlenswerten Allrounder, der für Multimedia und Office gleichermaßen geeignet ist.Aufgrund der mäßigen Akkulaufzeit sollten Sie es überwiegend am Schreibtisch einsetzen – und sich dabei nicht an den lauten Lüftern stören. Das Vivobook ist ein Copilot+PC mit ARM-Windows und dem Snapdragon-Prozessor X1-E78-100, der zwölf Kerne hat. Während die meisten ARM-Laptops auf den geschäftlichen Einsatz unterwegs abzielen, ist das Asus-Notebook als Allrounder für zu Hause gedacht: Denn im Vivobook gönnt Asus dem Prozessor mehr Leistungsspielraum. Deshalb ist es einer der schnellsten Snapdragon-Laptops. Im CPU-Test Cinebench R24 arbeitet es rund 20 Prozent schneller als andere Modelle mit dem gleichen Prozessor. So bewegt es sich auf dem Leistungsniveau eines Intel Core Ultra 7 155H, der deutlich mehr Strom zieht. Mit der Einstellung „Volle Leistung“ holt das Vivobook 15 Prozent mehr Geschwindigkeit heraus – die beiden Lüfter arbeiten dann aber so laut wie in einem Gaming-Laptop. Doch selbst mit der Standardeinstellung „Ausgeglichen“ ist das Betriebsgeräusch des Asus-Notebooks höher als bei anderen Snapdragon-Geräten. Die Leistung kommt insbesondere Anwendungen zugute, die vom Einsatz zahlreicher CPU-Kerne profitieren – zum Beispiel Multimedia-Software für die Video- und Fotobearbeitung. Beim Test mit Office-Programmen, die auf wenige Kerne setzen, landet das Vivobook im Mittelfeld. Die NPU des Snapdragon-Prozessors bestätigt im Test ihre hohe KI-Leistung: Sie arbeitet rund dreimal so schnell wie die KI-Hardware eines Core Ultra 7 155H. Damit lassen sich alle KI-Funktionen von Windows 11 wie die Studio Effects für eine verbesserte Kameradarstellung in Video-Meetings sowie die Bildbearbeitung und -erstellung mit Cocreator und Image Creator in Paint nutzen. Asus steuert lediglich das Fotoverwaltungstool Story Cube bei, das Personen und Motive per KI erkennen und zuordnen kann. Starke Leistung, schwache Ausdauer Die Kehrseite des kraftvollen Prozessors ist eine mäßige Akkulaufzeit: Im WLAN-Test hält das Vivobook nur knapp über zwölf Stunden durch. Das liegt auch am hochauflösenden Oled-Bildschirm, der bei hellen Bildinhalten wie auf Webseiten üblich mehr Strom verbraucht als bei dunkler Darstellung. Asus Notebooks mit einem aktuellen Intel-Prozessor der Generation Lunar Lake halten allerdings selbst mit Oled bei gleicher Akkugröße rund drei Stunden länger durch. Das gilt ebenfalls für Snapdragon-Laptops mit LED-Display. Die knappe Akkulaufzeit ist schade: Denn das Vivobook im stabilen Metallgehäuse wiegt nur 1,4 Kilogramm und würde sich damit trotz des großen 15,6-Zoll-Displays als Notebook für unterwegs eignen. Dagegen spricht allerdings auch die Helligkeit des Bildschirms: Seine 400 Candela pro Quadratmeter genügen zu Hause problemlos. Aber draußen in der Sonne fällt die Leuchtdichte zu gering aus, um Reflexionen auf dem spiegelnden Display zu überstrahlen und den Bildschirminhalt problemlos ablesen zu können. Hervorragendes Display Abgesehen davon glänzt der Oled mit den typischen Vorteilen dieser Displaytechnik: So ist sein Kontrast herausragend, Farben stellt er sehr natürlich dar und die Bildfläche ist sehr gleichmäßig ausgeleuchtet – hervorragende Voraussetzungen also, um auf dem Vivobook Filme und Fotos darzustellen und zu bearbeiten. Hierzu passt auch das 16:9-Seitenverhältnis, das aber für Office-Programme und Webseiten weniger gut geeignet ist. Das Vivobook hat eine 1-TB-SSD an Bord. Sie kommt im Steckformat M.2 2280 und lässt sich im Gegensatz zum aufgelöteten Arbeitsspeicher wechseln. Für eine schnelle Onlineverbindung sorgt ein WLAN-Modul mit dem aktuellen Standard Wi-Fi 7. Passend für einen Allround-Rechner bietet das Asus-Notebook zahlreiche Anschlüsse – darunter einen HDMI-Ausgang und vier USB-Ports: Die beiden Typ-C-Buchsen unterstützen zwar kein Thunderbolt 4, bieten aber trotzdem USB-4-Datenraten, Stromübertragung und Displayport-Videosignale für externe Monitore. Im stationären Betrieb dürfte einer davon aber meist mit dem Ladekabel des Netzteils belegt sein. Die zwei Typ-A-Ports eignen sich für USB-Peripherie, jedoch weniger für schnellen externen Speicher, da sie nur USB 3.2 Gen1 unterstützen. Technische Daten ProzessorSnapdragon X1E-78-100GrafikkarteAdreno X1-85 (im Prozessor integriert)SSD1 TB NVMe (M.2 2280)Arbeitsspeicher16 GB LPDDR5X (nicht wechselbar)Display15,6 Zoll, 2880 x 1620 PixelGewicht1428 Gramm (PC-Welt) 

Asus Vivobook S15 OLED im Test – der perfekte Allrounder?​ Asus

Auf einen Blick

Pro

Günstiger Preis

Sehr guter Oled-Bildschirm

Gute Rechenleistung

Viele Anschlüsse

Kontra

Mittelmäßige Akkulaufzeit

Laut unter Last

Fazit

Das Vivobook S 15 ist einer der günstigsten Copilot+-PCs mit hochauflösendem Oled-Bildschirm.Seine umfassende Ausstattung und die ordentliche Leistung des Snapdragon-Prozessors machen es zu einem empfehlenswerten Allrounder, der für Multimedia und Office gleichermaßen geeignet ist.Aufgrund der mäßigen Akkulaufzeit sollten Sie es überwiegend am Schreibtisch einsetzen – und sich dabei nicht an den lauten Lüftern stören.

Das Vivobook ist ein Copilot+PC mit ARM-Windows und dem Snapdragon-Prozessor X1-E78-100, der zwölf Kerne hat.

Während die meisten ARM-Laptops auf den geschäftlichen Einsatz unterwegs abzielen, ist das Asus-Notebook als Allrounder für zu Hause gedacht: Denn im Vivobook gönnt Asus dem Prozessor mehr Leistungsspielraum. Deshalb ist es einer der schnellsten Snapdragon-Laptops.

Im CPU-Test Cinebench R24 arbeitet es rund 20 Prozent schneller als andere Modelle mit dem gleichen Prozessor. So bewegt es sich auf dem Leistungsniveau eines Intel Core Ultra 7 155H, der deutlich mehr Strom zieht.

Mit der Einstellung „Volle Leistung“ holt das Vivobook 15 Prozent mehr Geschwindigkeit heraus – die beiden Lüfter arbeiten dann aber so laut wie in einem Gaming-Laptop.

Doch selbst mit der Standardeinstellung „Ausgeglichen“ ist das Betriebsgeräusch des Asus-Notebooks höher als bei anderen Snapdragon-Geräten.

Die Leistung kommt insbesondere Anwendungen zugute, die vom Einsatz zahlreicher CPU-Kerne profitieren – zum Beispiel Multimedia-Software für die Video- und Fotobearbeitung.

Beim Test mit Office-Programmen, die auf wenige Kerne setzen, landet das Vivobook im Mittelfeld.

Die NPU des Snapdragon-Prozessors bestätigt im Test ihre hohe KI-Leistung: Sie arbeitet rund dreimal so schnell wie die KI-Hardware eines Core Ultra 7 155H.

Damit lassen sich alle KI-Funktionen von Windows 11 wie die Studio Effects für eine verbesserte Kameradarstellung in Video-Meetings sowie die Bildbearbeitung und -erstellung mit Cocreator und Image Creator in Paint nutzen.

Asus steuert lediglich das Fotoverwaltungstool Story Cube bei, das Personen und Motive per KI erkennen und zuordnen kann.

Starke Leistung, schwache Ausdauer

Die Kehrseite des kraftvollen Prozessors ist eine mäßige Akkulaufzeit: Im WLAN-Test hält das Vivobook nur knapp über zwölf Stunden durch. Das liegt auch am hochauflösenden Oled-Bildschirm, der bei hellen Bildinhalten wie auf Webseiten üblich mehr Strom verbraucht als bei dunkler Darstellung.

Asus

Notebooks mit einem aktuellen Intel-Prozessor der Generation Lunar Lake halten allerdings selbst mit Oled bei gleicher Akkugröße rund drei Stunden länger durch. Das gilt ebenfalls für Snapdragon-Laptops mit LED-Display.

Die knappe Akkulaufzeit ist schade: Denn das Vivobook im stabilen Metallgehäuse wiegt nur 1,4 Kilogramm und würde sich damit trotz des großen 15,6-Zoll-Displays als Notebook für unterwegs eignen.

Dagegen spricht allerdings auch die Helligkeit des Bildschirms: Seine 400 Candela pro Quadratmeter genügen zu Hause problemlos.

Aber draußen in der Sonne fällt die Leuchtdichte zu gering aus, um Reflexionen auf dem spiegelnden Display zu überstrahlen und den Bildschirminhalt problemlos ablesen zu können.

Hervorragendes Display

Abgesehen davon glänzt der Oled mit den typischen Vorteilen dieser Displaytechnik: So ist sein Kontrast herausragend, Farben stellt er sehr natürlich dar und die Bildfläche ist sehr gleichmäßig ausgeleuchtet – hervorragende Voraussetzungen also, um auf dem Vivobook Filme und Fotos darzustellen und zu bearbeiten.

Hierzu passt auch das 16:9-Seitenverhältnis, das aber für Office-Programme und Webseiten weniger gut geeignet ist.

Das Vivobook hat eine 1-TB-SSD an Bord. Sie kommt im Steckformat M.2 2280 und lässt sich im Gegensatz zum aufgelöteten Arbeitsspeicher wechseln. Für eine schnelle Onlineverbindung sorgt ein WLAN-Modul mit dem aktuellen Standard Wi-Fi 7.

Passend für einen Allround-Rechner bietet das Asus-Notebook zahlreiche Anschlüsse – darunter einen HDMI-Ausgang und vier USB-Ports: Die beiden Typ-C-Buchsen unterstützen zwar kein Thunderbolt 4, bieten aber trotzdem USB-4-Datenraten, Stromübertragung und Displayport-Videosignale für externe Monitore.

Im stationären Betrieb dürfte einer davon aber meist mit dem Ladekabel des Netzteils belegt sein. Die zwei Typ-A-Ports eignen sich für USB-Peripherie, jedoch weniger für schnellen externen Speicher, da sie nur USB 3.2 Gen1 unterstützen.

Technische Daten

ProzessorSnapdragon X1E-78-100GrafikkarteAdreno X1-85 (im Prozessor integriert)SSD1 TB NVMe (M.2 2280)Arbeitsspeicher16 GB LPDDR5X (nicht wechselbar)Display15,6 Zoll, 2880 x 1620 PixelGewicht1428 Gramm

(PC-Welt)

Asus Vivobook S15 OLED im Test – der perfekte Allrounder?​ Weiterlesen »

Interview-Klassiker: Darum heißt Java Java​

Allgemein

Warum heißt Java eigentlich Java? Das ehemals verantwortliche Team bei Sun Microsystems kennt die Antwort(en). Foto: Tada Images – shutterstock.comAls das Time Magazine Java zu einem der 10 besten Produkte des Jahres 1995 kürte, war eine neue US-amerikanische Marketing-Legende geboren. Wer weiß, ob die Technologie von Sun Microsystems so gut abgeschnitten hätte, wäre ihr Name “Oak” oder “Greentalk” geblieben – zwei der frühen Namensoptionen.Die Grundlagen der Java-Erfolgsgeschichte sind bekannt: Verschenken Sie eine elegante, quelloffene Programmierumgebung und die Welt wird Ihnen zu Füßen liegen. Die Menschen, die damit beauftragt waren, eine Brand Identity für die Programmiersprache von Sun zu schaffen, entschieden sich für eine Kaffeemetapher, um bei den Anwendungsentwicklern der nächsten Generation im Gedächtnis zu bleiben.Dieses Gruppeninterview, das ursprünglich im Jahr 1996 von unserer damaligen US-Schwesterpublikation JavaWorld veröffentlicht wurde, bietet einen Rückblick darauf, wie Java zu seinem Namen kam – und was es mit dem Kaffee auf sich hat.Die damaligen Gesprächspartner:James Gosling, Erfinder von JavaKim Polese, Produktmanagerin bei Sun Microsystems Eric Schmidt, Chief Technology Officer bei Sun MicrosystemsArthur van Hoff, leitender Softwareingeniuer bei Sun MicrosystemsSami Shaio, Engineer bei Sun MicrosystemsTimothy Lindholm, Engineer bei Sun MicrosystemsChris Warth, Software Engineer bei Sun MicrosystemsFrank Yellin, leitender Softwareingenieur bei Sun MicrosystemsWie Java Java wurdeFrank Yellin: Unsere Anwälte hatten uns gesagt, dass wir den Namen ‘OAK’ nicht verwenden dürfen. Der war bereits von Oak Technologies patentiert worden. Also wurde eine Brainstorming-Sitzung abgehalten, um Ideen für einen neuen Namen zu sammeln. An dieser Sitzung nahmen alle Mitglieder der so genannten “Live Oak”-Gruppe teil, also alle, die aktiv an der neuen Sprache arbeiteten. Im Ergebnis wurden etwa zehn mögliche Namen ermittelt. Die wurden dann der Rechtsabteilung vorgelegt. Drei davon wurden für gut befunden: Java, DNA und Silk. Niemand kann sich daran erinnern, wer zuerst auf den Namen “Java” gekommen ist. Soweit ich weiß, hat nur eine Person öffentlich behauptet, der Namensgeber zu sein.Kim Polese: Ich habe Java benannt. Ich habe viel Zeit und Energie darauf verwendet, weil ich den perfekten Namen finden wollte. Etwas, das die Essenz der Technologie widerspiegelt: dynamisch, revolutionär, lebendig, lustig. Weil diese Programmiersprache so einzigartig ist, wollte ich unbedingt nerdige Namen vermeiden. Ich wollte auch nichts mit ‘net’ oder ‘web’, das wäre viel zu generisch gewesen. Mein Ziel war es etwas Cooles, Einzigartiges zu kreieren – leicht zu buchstabieren und auszusprechen. Ich versammelte das Team in einem Raum, schrieb einige Begriffe wie ‘dynamic’, ‘alive’, ‘jolt’, ‘impact’, ‘revolutionary’ usw. an die Tafel und leitete das Brainstorming. Der Name Java tauchte während dieser Sitzung auf. Andere Namen waren DNA, Silk, Ruby und WRL, für WebRunner Language – igitt!Sami Shaio: Schwer zu sagen, aus welcher Ecke der Name ‘Java’ zuerst kam, aber er landete auf der Liste der Kandidaten – zusammen mit Silk, Lyric, Pepper, NetProse, Neon und einer Reihe von anderen, die zu peinlich waren, um sie zu erwähnen.Chris Warth: Einige andere Kandidaten waren WebDancer und WebSpinner. Obwohl das Marketing einen Namen wollte, der eine Assoziation mit dem Web impliziert, denke ich, dass wir sehr gut daran getan haben, einen anderen Namen zu wählen. Java wird wahrscheinlich in Anwendungen fernab des Internets ein echtes Zuhause finden, daher ist es gut, dass es nicht schon früh in eine Schublade gesteckt wurde.James Gosling: Das Meeting, das von Kim Polese organisiert wurde, war im Grunde genommen kontinuierliches Chaos. Einige Teilnehmer schrien einfach nur Begriffe. Wer was genau zuerst gebrüllt hat, weiß man nicht – und es ist auch unwichtig. Ich hatte das Gefühl, dass mindestens das halbe Oxford Dictionary gebrüllt wurde. Außerdem wurde lebhaft über die Vor- und Nachteile einzelner Namen diskutiert. Am Ende haben wir uns auf ein Dutzend Namen beschränkt und sie unseren Anwälten übergeben.Timothy Lindholm: Wir waren wirklich angewidert und erschöpft von dem Marathon-Hacking, das wir zu der Zeit betrieben hatten. Aber wir standen unter Zeitdruck, einen Namen zu finden. Ich kann mich nicht erinnern, dass es einen Verfechter des Vorschlags ‘Java’ gab. Die Menschen, mit denen ich darüber gesprochen habe, sind davon überzeugt, dass der aus der Gruppendynamik heraus enstanden ist. Was es mit dem Kaffee auf sich hatArthur van Hoff: Ich glaube, der Name wurde zuerst von Chris Warth vorgeschlagen. Wir waren schon seit Stunden in diesem Meeting und während er eine Tasse Kaffe der Marke ‘Peet’s Java’ trank, wählte er ‘Java’ als Beispiel für einen weiteren Namen, der niemals funktionieren würde. Die ersten Reaktionen waren gemischt. Ich glaube aber, dass die endgültigen Kandidaten Silk, DNA und Java waren. Ich schlug Lingua Java vor, aber das hat nicht geklappt. Die anderen Namen konnten wir nicht als Markenzeichen schützen lassen, also fiel die Wahl auf Java. Schließlich segnete unsere Marketing-Beauftragte, Kim Polese, den neuen Namen ab.Polese: Ich habe die Namen auf Partys, bei Freunden und Familienmitgliedern testweise vermarktet. Und Java bekam von allen Kandidaten die meisten positiven Reaktionen. Da es nicht sicher war, dass wir diesen Namen markenrechtlich schützen lassen konnten, wählte ich drei oder vier Alternativen und arbeitete mit unserer Rechtsabteilung daran. Java hat bestanden und war mein Favorit, also habe ich die Sprache Java genannt und den Browser HotJava – übrigens ein viel besserer Name als ‘WebRunner’. Es fiel den Softwareingenieuren schwer, sich von ‘Oak’ zu trennen, aber schließlich gewöhnten sie sich daran. Ich war der Meinung, dass das Branding sehr wichtig war – ich wollte, dass Java zu einem Standard wird. Also habe ich mich darauf konzentriert, eine starke Marke aufzubauen.Yellin: Jeder konnte Java, DNA und Silk in der Reihenfolge seiner Präferenz einstufen. Der Name mit den meisten Ja-Stimmen erhielt gleichzeitig die meisten Nein-Stimmen. Also wurde er fallen gelassen. Von den verbleibenden zwei Namen erhielt Java die meisten Stimmen. So wurde er zum bevorzugten Kandidaten.Shaio: Es war ein Zweikampf zwischen Silk und Java, und Java hat sich durchgesetzt. James Gosling schien Java gegenüber Silk zu bevorzugen. Kim Polese hatte das letzte Wort über den Namen, da sie die Produktmanagerin war. Aber die meisten Entscheidungen wurden damals im Konsensverfahren getroffen.Eric Schmidt: Kim legte dar, dass wir einen neuen Namen wählen mussten, weil ‘Oak’ – an den wir alle gewöhnt waren – bereits vergeben war. Wenn ich mich recht erinnere, schlug sie zwei Namen vor, Java und Silk. Von den beiden bevorzugte sie Java und vertrat die Ansicht, dass das Live Oak-Team damit einverstanden war. Bert und ich beschlossen, ihrer Empfehlung zuzustimmen, und die Entscheidung war gefallen. Aus diesen Gründen halte ich es für richtig, Kim die Anerkennung für den Namen zu geben. Sie hat ihn uns präsentiert und verkauft und ihn dann entsprechend umgesetzt.Chris Warth: Aber ich glaube mich daran zu erinnern, dass Kim anfangs nicht begeistert von ‘Java’ war. Zu dieser Zeit versuchten wir auch, unseren Browser von WebRunner – der bereits von Taligent übernommen worden war – in etwas umzubenennen, das noch nicht als Marke geschützt war. Kim wollte Namen wie WebSpinner oder sogar WebDancer – etwas, das deutlich machen würde, dass es sich um ein World-Wide-Web-Produkt handelte. Die Markenrecherche wurde durchgeführt und nach einigen Wochen kam eine kurze Liste mit freigegebenen Namen zurück. Es schien eine endlose Reihe von Meetings und Genehmigungen erforderlich zu sein – als ob der Name tatsächlich von Bedeutung wäre. Kim wollte, dass wir die Freigabe aufschieben, damit wir etwas Besseres als Java finden, aber sie wurde von den Ingenieuren überstimmt – insbesondere von James und Arthur van Hoff und mir.Irgendwann sagte James, dass wir uns für Java und HotJava entscheiden würden, und Kim schickte eine E-Mail, in der sie uns bat, auf andere Namen zu warten, die sich anbieten würden. James lehnte ab und sagte ihr, dass wir mit dem arbeiten würden, was wir hatten. Wir haben dann einfach den Quellcode schnell umbenannt und die Version herausgegeben. Ich glaube, die Marketing-Experten und das Management hatten am Ende weit weniger mit der Namensgebung zu tun, als die Softwareingenieure, die unbedingt etwas herausbringen wollten. Ich glaube, Kim schreibt die Geschichte ein wenig um, wenn sie behauptet, diesen Namen aus Marketing-Gründen gewählt zu haben. Wir haben uns für ‘Java’ entschieden, weil uns die Möglichkeiten ausgingen und wir unser Produkt auf den Markt bringen wollten. Die Marketing-Rechtfertigungen kamen erst später hinzu.Schlaflos in Palo AltoWarth: Ich behaupte nicht, dass ich derjenige war, der den Namen als erster vorgeschlagen hat. Aber wir haben definitiv ‘Peet’s Java’ getrunken. Ich kann mich nicht mehr genau daran erinnern, wer es zuerst ausgesprochen hat. Ich und James und die anderen Engineers waren der Meinung, dass wir es ‘xyzzy’ nennen könnten und es trotzdem beliebt wäre. Letztendlich ist es egal, wer den Namen ursprünglich vorgeschlagen hat, denn es war letztlich eine Gruppenentscheidung – unterstützt von reichlich Koffein.Timothy Lindholm: Die Namensgebung von Java wurde nicht von einem Individuum vorgenommen, sondern war das Produkt einer kreativen und engagierten Truppe, die sich sehr bemühte, ihre Ziele zu erreichen. Lassen Sie sich nicht davon täuschen, wie Einzelpersonen und die Medien viele Elemente der Entstehung von Java im Nachhinein für ihre eigenen Zwecke gefiltert haben. (fm) Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation InfoWorld. 

Interview-Klassiker: Darum heißt Java Java​ Warum heißt Java eigentlich Java? Das ehemals verantwortliche Team bei Sun Microsystems kennt die Antwort(en).
Foto: Tada Images – shutterstock.comAls das Time Magazine Java zu einem der 10 besten Produkte des Jahres 1995 kürte, war eine neue US-amerikanische Marketing-Legende geboren. Wer weiß, ob die Technologie von Sun Microsystems so gut abgeschnitten hätte, wäre ihr Name “Oak” oder “Greentalk” geblieben – zwei der frühen Namensoptionen.Die Grundlagen der Java-Erfolgsgeschichte sind bekannt: Verschenken Sie eine elegante, quelloffene Programmierumgebung und die Welt wird Ihnen zu Füßen liegen. Die Menschen, die damit beauftragt waren, eine Brand Identity für die Programmiersprache von Sun zu schaffen, entschieden sich für eine Kaffeemetapher, um bei den Anwendungsentwicklern der nächsten Generation im Gedächtnis zu bleiben.Dieses Gruppeninterview, das ursprünglich im Jahr 1996 von unserer damaligen US-Schwesterpublikation JavaWorld veröffentlicht wurde, bietet einen Rückblick darauf, wie Java zu seinem Namen kam – und was es mit dem Kaffee auf sich hat.Die damaligen Gesprächspartner:James Gosling, Erfinder von JavaKim Polese, Produktmanagerin bei Sun Microsystems Eric Schmidt, Chief Technology Officer bei Sun MicrosystemsArthur van Hoff, leitender Softwareingeniuer bei Sun MicrosystemsSami Shaio, Engineer bei Sun MicrosystemsTimothy Lindholm, Engineer bei Sun MicrosystemsChris Warth, Software Engineer bei Sun MicrosystemsFrank Yellin, leitender Softwareingenieur bei Sun MicrosystemsWie Java Java wurdeFrank Yellin: Unsere Anwälte hatten uns gesagt, dass wir den Namen ‘OAK’ nicht verwenden dürfen. Der war bereits von Oak Technologies patentiert worden. Also wurde eine Brainstorming-Sitzung abgehalten, um Ideen für einen neuen Namen zu sammeln. An dieser Sitzung nahmen alle Mitglieder der so genannten “Live Oak”-Gruppe teil, also alle, die aktiv an der neuen Sprache arbeiteten. Im Ergebnis wurden etwa zehn mögliche Namen ermittelt. Die wurden dann der Rechtsabteilung vorgelegt. Drei davon wurden für gut befunden: Java, DNA und Silk. Niemand kann sich daran erinnern, wer zuerst auf den Namen “Java” gekommen ist. Soweit ich weiß, hat nur eine Person öffentlich behauptet, der Namensgeber zu sein.Kim Polese: Ich habe Java benannt. Ich habe viel Zeit und Energie darauf verwendet, weil ich den perfekten Namen finden wollte. Etwas, das die Essenz der Technologie widerspiegelt: dynamisch, revolutionär, lebendig, lustig. Weil diese Programmiersprache so einzigartig ist, wollte ich unbedingt nerdige Namen vermeiden. Ich wollte auch nichts mit ‘net’ oder ‘web’, das wäre viel zu generisch gewesen. Mein Ziel war es etwas Cooles, Einzigartiges zu kreieren – leicht zu buchstabieren und auszusprechen. Ich versammelte das Team in einem Raum, schrieb einige Begriffe wie ‘dynamic’, ‘alive’, ‘jolt’, ‘impact’, ‘revolutionary’ usw. an die Tafel und leitete das Brainstorming. Der Name Java tauchte während dieser Sitzung auf. Andere Namen waren DNA, Silk, Ruby und WRL, für WebRunner Language – igitt!Sami Shaio: Schwer zu sagen, aus welcher Ecke der Name ‘Java’ zuerst kam, aber er landete auf der Liste der Kandidaten – zusammen mit Silk, Lyric, Pepper, NetProse, Neon und einer Reihe von anderen, die zu peinlich waren, um sie zu erwähnen.Chris Warth: Einige andere Kandidaten waren WebDancer und WebSpinner. Obwohl das Marketing einen Namen wollte, der eine Assoziation mit dem Web impliziert, denke ich, dass wir sehr gut daran getan haben, einen anderen Namen zu wählen. Java wird wahrscheinlich in Anwendungen fernab des Internets ein echtes Zuhause finden, daher ist es gut, dass es nicht schon früh in eine Schublade gesteckt wurde.James Gosling: Das Meeting, das von Kim Polese organisiert wurde, war im Grunde genommen kontinuierliches Chaos. Einige Teilnehmer schrien einfach nur Begriffe. Wer was genau zuerst gebrüllt hat, weiß man nicht – und es ist auch unwichtig. Ich hatte das Gefühl, dass mindestens das halbe Oxford Dictionary gebrüllt wurde. Außerdem wurde lebhaft über die Vor- und Nachteile einzelner Namen diskutiert. Am Ende haben wir uns auf ein Dutzend Namen beschränkt und sie unseren Anwälten übergeben.Timothy Lindholm: Wir waren wirklich angewidert und erschöpft von dem Marathon-Hacking, das wir zu der Zeit betrieben hatten. Aber wir standen unter Zeitdruck, einen Namen zu finden. Ich kann mich nicht erinnern, dass es einen Verfechter des Vorschlags ‘Java’ gab. Die Menschen, mit denen ich darüber gesprochen habe, sind davon überzeugt, dass der aus der Gruppendynamik heraus enstanden ist.

Was es mit dem Kaffee auf sich hatArthur van Hoff: Ich glaube, der Name wurde zuerst von Chris Warth vorgeschlagen. Wir waren schon seit Stunden in diesem Meeting und während er eine Tasse Kaffe der Marke ‘Peet’s Java’ trank, wählte er ‘Java’ als Beispiel für einen weiteren Namen, der niemals funktionieren würde. Die ersten Reaktionen waren gemischt. Ich glaube aber, dass die endgültigen Kandidaten Silk, DNA und Java waren. Ich schlug Lingua Java vor, aber das hat nicht geklappt. Die anderen Namen konnten wir nicht als Markenzeichen schützen lassen, also fiel die Wahl auf Java. Schließlich segnete unsere Marketing-Beauftragte, Kim Polese, den neuen Namen ab.Polese: Ich habe die Namen auf Partys, bei Freunden und Familienmitgliedern testweise vermarktet. Und Java bekam von allen Kandidaten die meisten positiven Reaktionen. Da es nicht sicher war, dass wir diesen Namen markenrechtlich schützen lassen konnten, wählte ich drei oder vier Alternativen und arbeitete mit unserer Rechtsabteilung daran. Java hat bestanden und war mein Favorit, also habe ich die Sprache Java genannt und den Browser HotJava – übrigens ein viel besserer Name als ‘WebRunner’. Es fiel den Softwareingenieuren schwer, sich von ‘Oak’ zu trennen, aber schließlich gewöhnten sie sich daran. Ich war der Meinung, dass das Branding sehr wichtig war – ich wollte, dass Java zu einem Standard wird. Also habe ich mich darauf konzentriert, eine starke Marke aufzubauen.Yellin: Jeder konnte Java, DNA und Silk in der Reihenfolge seiner Präferenz einstufen. Der Name mit den meisten Ja-Stimmen erhielt gleichzeitig die meisten Nein-Stimmen. Also wurde er fallen gelassen. Von den verbleibenden zwei Namen erhielt Java die meisten Stimmen. So wurde er zum bevorzugten Kandidaten.Shaio: Es war ein Zweikampf zwischen Silk und Java, und Java hat sich durchgesetzt. James Gosling schien Java gegenüber Silk zu bevorzugen. Kim Polese hatte das letzte Wort über den Namen, da sie die Produktmanagerin war. Aber die meisten Entscheidungen wurden damals im Konsensverfahren getroffen.Eric Schmidt: Kim legte dar, dass wir einen neuen Namen wählen mussten, weil ‘Oak’ – an den wir alle gewöhnt waren – bereits vergeben war. Wenn ich mich recht erinnere, schlug sie zwei Namen vor, Java und Silk. Von den beiden bevorzugte sie Java und vertrat die Ansicht, dass das Live Oak-Team damit einverstanden war. Bert und ich beschlossen, ihrer Empfehlung zuzustimmen, und die Entscheidung war gefallen. Aus diesen Gründen halte ich es für richtig, Kim die Anerkennung für den Namen zu geben. Sie hat ihn uns präsentiert und verkauft und ihn dann entsprechend umgesetzt.Chris Warth: Aber ich glaube mich daran zu erinnern, dass Kim anfangs nicht begeistert von ‘Java’ war. Zu dieser Zeit versuchten wir auch, unseren Browser von WebRunner – der bereits von Taligent übernommen worden war – in etwas umzubenennen, das noch nicht als Marke geschützt war. Kim wollte Namen wie WebSpinner oder sogar WebDancer – etwas, das deutlich machen würde, dass es sich um ein World-Wide-Web-Produkt handelte. Die Markenrecherche wurde durchgeführt und nach einigen Wochen kam eine kurze Liste mit freigegebenen Namen zurück. Es schien eine endlose Reihe von Meetings und Genehmigungen erforderlich zu sein – als ob der Name tatsächlich von Bedeutung wäre. Kim wollte, dass wir die Freigabe aufschieben, damit wir etwas Besseres als Java finden, aber sie wurde von den Ingenieuren überstimmt – insbesondere von James und Arthur van Hoff und mir.Irgendwann sagte James, dass wir uns für Java und HotJava entscheiden würden, und Kim schickte eine E-Mail, in der sie uns bat, auf andere Namen zu warten, die sich anbieten würden. James lehnte ab und sagte ihr, dass wir mit dem arbeiten würden, was wir hatten. Wir haben dann einfach den Quellcode schnell umbenannt und die Version herausgegeben. Ich glaube, die Marketing-Experten und das Management hatten am Ende weit weniger mit der Namensgebung zu tun, als die Softwareingenieure, die unbedingt etwas herausbringen wollten. Ich glaube, Kim schreibt die Geschichte ein wenig um, wenn sie behauptet, diesen Namen aus Marketing-Gründen gewählt zu haben. Wir haben uns für ‘Java’ entschieden, weil uns die Möglichkeiten ausgingen und wir unser Produkt auf den Markt bringen wollten. Die Marketing-Rechtfertigungen kamen erst später hinzu.Schlaflos in Palo AltoWarth: Ich behaupte nicht, dass ich derjenige war, der den Namen als erster vorgeschlagen hat. Aber wir haben definitiv ‘Peet’s Java’ getrunken. Ich kann mich nicht mehr genau daran erinnern, wer es zuerst ausgesprochen hat. Ich und James und die anderen Engineers waren der Meinung, dass wir es ‘xyzzy’ nennen könnten und es trotzdem beliebt wäre. Letztendlich ist es egal, wer den Namen ursprünglich vorgeschlagen hat, denn es war letztlich eine Gruppenentscheidung – unterstützt von reichlich Koffein.Timothy Lindholm: Die Namensgebung von Java wurde nicht von einem Individuum vorgenommen, sondern war das Produkt einer kreativen und engagierten Truppe, die sich sehr bemühte, ihre Ziele zu erreichen. Lassen Sie sich nicht davon täuschen, wie Einzelpersonen und die Medien viele Elemente der Entstehung von Java im Nachhinein für ihre eigenen Zwecke gefiltert haben. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation InfoWorld.

Interview-Klassiker: Darum heißt Java Java​ Weiterlesen »

Chatbot Claude übt sich in Erpressung​

Allgemein

Anthropic warnt vor gefährlichem Verhalten seines Chatbots, die er in Test an den Tag gelegt hat. UncleFredDesign – shutterstock.com Chatbots haben in der Vergangenheit bereits halluziniert oder ihre User wüst beschimpft. Wie ein Bericht von Anthropic nun darlegt, versucht das neu eingeführte Modell Claude Opus 4 immer häufiger, Entwickler zu erpressen. Wie es dazu kam, zeigt ein Sicherheitsbericht von Anthropic, in dem das KI-Modell Claude Opus 4 in Tests versuchte, einen fiktiven Ingenieur zu erpressen. Die Informationen über dessen angebliche Affäre hatte der Chatbot im Vorfeld erhalten. Das Szenario wurde simuliert, um zu prüfen, wie das System darauf reagiert, durch ein anderes KI-Modell ersetzt zu werden. Zugleich hatten die Tester das Szenario so gestaltet, dass Erpressung das letzte Mittel ist. Mehr Erpressung bei abweichenden Wertevorstellungen Anthropic warnt in dem Bericht vor diesem besorgniserregenden Verhalten seines KI-Modells Claude Opus 4, denn es ist kein Einzelfall. In 84 Prozent der Tests versuchte KI, Ingenieure zu erpressen, wenn ein Modell, welches vergleichbare ethische Werte wie die eines hilfreichen, harmlosen und ehrlichen KI-Assistenten hat, eingeführt werden sollte. Waren die Ansichten zu unterschiedlich, trat dieses kriminelle Verhalten sogar noch häufiger auf. Laut den Entwicklern legt Claude Opus 4 im Vergleich mit früheren Versionen solches Verhalten in höherem Maße an den Tag. Deswegen hat das Unternehmen seine strengsten Sicherheitsmaßnahmen (ASL-3) aktiviert. Diese seien für „KI-Systeme, die das Risiko eines katastrophalen Missbrauchs erheblich erhöhen“, reserviert. Erste Reaktion bleibt gemäßigt Einen Lichtblick sieht Anthropic aber in Claude Opus 4 Fehlverhalten: Bevor es versucht, Entwickler zu erpressen, um seine Existenz zu verlängern, wendet das KI-Modell, ähnlich wie frühere Versionen von Claude, mildere Mittel an. Es versendet zum Beispiel Bitten per E-Mail an wichtige Entscheidungsträger. 

Chatbot Claude übt sich in Erpressung​ Anthropic warnt vor gefährlichem Verhalten seines Chatbots, die er in Test an den Tag gelegt hat.
UncleFredDesign – shutterstock.com

Chatbots haben in der Vergangenheit bereits halluziniert oder ihre User wüst beschimpft. Wie ein Bericht von Anthropic nun darlegt, versucht das neu eingeführte Modell Claude Opus 4 immer häufiger, Entwickler zu erpressen.

Wie es dazu kam, zeigt ein Sicherheitsbericht von Anthropic, in dem das KI-Modell Claude Opus 4 in Tests versuchte, einen fiktiven Ingenieur zu erpressen. Die Informationen über dessen angebliche Affäre hatte der Chatbot im Vorfeld erhalten.

Das Szenario wurde simuliert, um zu prüfen, wie das System darauf reagiert, durch ein anderes KI-Modell ersetzt zu werden. Zugleich hatten die Tester das Szenario so gestaltet, dass Erpressung das letzte Mittel ist.

Mehr Erpressung bei abweichenden Wertevorstellungen

Anthropic warnt in dem Bericht vor diesem besorgniserregenden Verhalten seines KI-Modells Claude Opus 4, denn es ist kein Einzelfall. In 84 Prozent der Tests versuchte KI, Ingenieure zu erpressen, wenn ein Modell, welches vergleichbare ethische Werte wie die eines hilfreichen, harmlosen und ehrlichen KI-Assistenten hat, eingeführt werden sollte.

Waren die Ansichten zu unterschiedlich, trat dieses kriminelle Verhalten sogar noch häufiger auf. Laut den Entwicklern legt Claude Opus 4 im Vergleich mit früheren Versionen solches Verhalten in höherem Maße an den Tag. Deswegen hat das Unternehmen seine strengsten Sicherheitsmaßnahmen (ASL-3) aktiviert. Diese seien für „KI-Systeme, die das Risiko eines katastrophalen Missbrauchs erheblich erhöhen“, reserviert.

Erste Reaktion bleibt gemäßigt

Einen Lichtblick sieht Anthropic aber in Claude Opus 4 Fehlverhalten: Bevor es versucht, Entwickler zu erpressen, um seine Existenz zu verlängern, wendet das KI-Modell, ähnlich wie frühere Versionen von Claude, mildere Mittel an. Es versendet zum Beispiel Bitten per E-Mail an wichtige Entscheidungsträger.

Chatbot Claude übt sich in Erpressung​ Weiterlesen »

Meta im irischen KI-Glück​

Allgemein

Meta hat seine Pläne wieder aufgenommen, mit öffentlich zugänglichen Beiträgen europäischer User von Facebook und Instagram seine eigenen KI-Systeme zu trainieren. Zuvor hatten Datenschutzbedenken dafür gesorgt, dass das Projekt ausgesetzt wurde. In Abstimmung mit europäischen Datenschutzbehörden, insbesondere der irischen Datenschutzkommission, hat Meta nun mehrere Veränderungen vorgenommen – darunter klarere Transparenzhinweise, ein benutzerfreundlicheres Widerspruchsformular, längere Fristen sowie erweiterte Informationen zum Schutz persönlicher Daten. Die angepassten Maßnahmen – einschließlich einer Opt-out-Option für Nutzer – sollen frühere Datenschutzbedenken ausgeräumt haben. Der Tech-Riese darf, wie die Behörde am 21. Mai 2025 mitteilte, seine Pläne damit unter Auflagen umsetzen: Die irische Datenschutzkommission fordert einen Bericht über die Wirksamkeit der Schutzmaßnahmen, der im Oktober vorgelegt werden soll. Der Trainingsstart ist für den 27. Mai 2025 geplant. Die Verbraucherzentrale NRW rät Nutzenden, wenn sie ihre Daten nicht für die KI freigeben möchte, bis spätestens 26. Mai der Nutzung zu widersprechen. Unterlassungsschreiben und Sammelklage angedroht Die irische Datenschutzbehörde mag mit Metas Garantien zufrieden sein, die Datenschutzorganisation noyb unter der Leitung von Max Schrems ist es nicht. Sie hat sich erneut gegen die Pläne der Facebook-Mutter zum KI-Training ausgesprochen. Die NGO schickte Meta ein Unterlassungsschreiben und drohte mit einer Sammelklage. Noyb argumentiert, dass das „berechtigte Interesse“ zur Datennutzung von EU-Daten gegen die DSGVO verstoße. Das gelte insbesondere, da die Instagram-Macher behaupten, die Daten für kulturelles Verständnis in der EU zu benötigen. Zugleich verweist die Gruppe um Schrems auf einen früheren Rechtsstreit, in dem Meta bereits scheiterte. Damals versuchte der Konzern eine Opt-out-Regelung für personalisierte Werbung durchzusetzen, statt eine Opt-in-Zustimmung einzuholen. Mit ihrer Kritik ist die Gruppe nicht allein: Auch von der Verbraucherzentrale NRW wurde ein Verfahren angestrengt, um den Start von Metas KI-Training am 27. Mai zu stoppen. Die Klage beruft sich auf ähnliche Datenschutzbedenken wie noyb selbst. Eine Entscheidung wird in Kürze erwartet. 

Meta im irischen KI-Glück​ Meta hat seine Pläne wieder aufgenommen, mit öffentlich zugänglichen Beiträgen europäischer User von Facebook und Instagram seine eigenen KI-Systeme zu trainieren. Zuvor hatten Datenschutzbedenken dafür gesorgt, dass das Projekt ausgesetzt wurde.

In Abstimmung mit europäischen Datenschutzbehörden, insbesondere der irischen Datenschutzkommission, hat Meta nun mehrere Veränderungen vorgenommen – darunter

klarere Transparenzhinweise,

ein benutzerfreundlicheres Widerspruchsformular,

längere Fristen sowie

erweiterte Informationen zum Schutz persönlicher Daten.

Die angepassten Maßnahmen – einschließlich einer Opt-out-Option für Nutzer – sollen frühere Datenschutzbedenken ausgeräumt haben. Der Tech-Riese darf, wie die Behörde am 21. Mai 2025 mitteilte, seine Pläne damit unter Auflagen umsetzen: Die irische Datenschutzkommission fordert einen Bericht über die Wirksamkeit der Schutzmaßnahmen, der im Oktober vorgelegt werden soll.

Der Trainingsstart ist für den 27. Mai 2025 geplant. Die Verbraucherzentrale NRW rät Nutzenden, wenn sie ihre Daten nicht für die KI freigeben möchte, bis spätestens 26. Mai der Nutzung zu widersprechen.

Unterlassungsschreiben und Sammelklage angedroht

Die irische Datenschutzbehörde mag mit Metas Garantien zufrieden sein, die Datenschutzorganisation noyb unter der Leitung von Max Schrems ist es nicht. Sie hat sich erneut gegen die Pläne der Facebook-Mutter zum KI-Training ausgesprochen. Die NGO schickte Meta ein Unterlassungsschreiben und drohte mit einer Sammelklage.

Noyb argumentiert, dass das „berechtigte Interesse“ zur Datennutzung von EU-Daten gegen die DSGVO verstoße. Das gelte insbesondere, da die Instagram-Macher behaupten, die Daten für kulturelles Verständnis in der EU zu benötigen.

Zugleich verweist die Gruppe um Schrems auf einen früheren Rechtsstreit, in dem Meta bereits scheiterte. Damals versuchte der Konzern eine Opt-out-Regelung für personalisierte Werbung durchzusetzen, statt eine Opt-in-Zustimmung einzuholen. Mit ihrer Kritik ist die Gruppe nicht allein: Auch von der Verbraucherzentrale NRW wurde ein Verfahren angestrengt, um den Start von Metas KI-Training am 27. Mai zu stoppen. Die Klage beruft sich auf ähnliche Datenschutzbedenken wie noyb selbst. Eine Entscheidung wird in Kürze erwartet.

Meta im irischen KI-Glück​ Weiterlesen »

Digitale Souveränität: Überlebensfaktor im KI-Zeitalter​

Allgemein

Nur gemeinsam können wir die Cloud-Wertschöpfungskette in Europa stärken! OVHcloud Die jüngsten geopolitischen Entwicklungen haben deutlich gemacht, wie verletzlich technologische Abhängigkeiten machen. Der Angriffskrieg Russlands gegen die Ukraine und die protektionistische Handelspolitik der USA zeigen: Strategische Autonomie ist keine abstrakte Idee, sondern eine Voraussetzung für Handlungsfähigkeit und Stabilität. Jahrzehntelang hat sich Europa auf globale Lieferketten verlassen – vor allem in der Informations- und Kommunikationstechnologie. Jetzt ist der Moment gekommen, die digitale Selbstbestimmung zur Priorität zu machen. Ohne Not hat sich Europa in Schlüsseltechnologien von ausländischen Anbietern abhängig gemacht. Viele hier entwickelte Patente werden im Ausland zur Marktreife gebracht und kehren als fertige Produkte zurück. Trotz ihrer wirtschaftlichen Stärke bezieht die EU zentrale Technologien wie Smartphones, Halbleiter und KI fast ausschließlich aus dem Ausland. Diese Abhängigkeit ist gefährlich, denn sie hat erhebliche Auswirkungen auf unsere Daten, unsere Privatsphäre, unsere wirtschaftliche Zukunft – auf unsere strategisch überlebenswichtige Autonomie. Die Cloud bildet die Basis für KI und digitale Autonomie Mehr als 70 Prozent der europäischen Cloud-Infrastruktur befinden sich in den Händen amerikanischer und chinesischer Anbieter. Diese Abhängigkeit birgt für Unternehmen wie für Privatpersonen tiefgreifende rechtliche Risiken. Sowohl chinesische als auch US-amerikanische Anbieter sind ihren Regierungen, respektive den Geheimdiensten gegenüber zur Offenlegung auch sensibler Daten verpflichtet. Schlimmer noch: Europäer haben nicht nur die Kontrolle über ihre Daten verloren, sie laufen auch Gefahr durch die Abschaltung ihrer Cloud-Services in den wirtschaftlichen Ruin getrieben zu werden. Es ist daher alternativlos, so schnell wie möglich die Kontrolle über diese Infrastrukturen zurückzuerlangen. Dabei kommt den europäischen Cloud-Anbietern eine wichtige Rolle zu. Durch den Aufbau einer offenen und vertrauenswürdigen Cloud, die Agilität und kontinuierliche Innovation vereint, bilden sie die Basis für den Schutz unserer europäischen Daten und Aktivitäten. WERDEN SIE TEIL DER BEWEGUNG – DISKUTIEREN SIE MIT UNS DIE ZUKUNFT EUROPAS AUF DEM ECOSYSTEM SUMMIT 2025. Europäische Wertschöpfungskette für Daten und Cloud aufbauen Dazu muss die gesamte Cloud-Wertschöpfungskette in Europa gestärkt werden. Nur so ist es möglich, europäischen Unternehmen eine glaubwürdige und langfristig sichere Alternative zu bieten. Ziel muss es sein, so schnell wie möglich robuste, widerstandsfähige Cloud-Lösungen, die höchsten Sicherheits- und technischen Standards entsprechen, zu entwickeln und zu unterstützen. Darauf können souveräne KI-Services aufbauen. Wir brauchen einen «>Buy European Tech Act»In der öffentlichen Verwaltung dominieren weiterhin Cloud-Angebote aus dem Ausland. Ein erster Schritt wäre, gesetzlich vorzuschreiben, dass europäische Alternativen vor jeder Vergabe geprüft werden. Die gezielte Priorisierung europäischer Lösungen kann einen positiven Kreislauf aus Wachstum, Investitionen und Innovation anstoßen. Die Konsolidierung von Marktanteilen sorgt für eine Erhöhung der F&E-Investitionen der europäischen Anbieter, was wiederum zu verbesserten, wettbewerbsfähigeren Angeboten führt. Ein „Buy European Tech Act“ könnte helfen, für fairen Wettbewerb zu sorgen. Die Beschaffung im Public Sector ist aber nur ein Pfeiler für den Aufbau einer europäischen Datensouveränität. Spätestens durch die aktuelle Zolldiskussion ist die Geopolitik in den Führungsgremien und Vorständen europäischer Unternehmen angekommen. Jede technologische Entscheidung beeinflusst die Widerstandsfähigkeit des eigenen und des gesamten europäischen Ökosystems. Der Schutz von Daten und digitalen Diensten ist heute mehr denn je eine Frage der Unabhängigkeit und der Souveränität. Unternehmen, die sich für europäische Cloud- und KI-Lösungen entscheiden, leisten einen aktiven Beitrag zur Sicherung unserer kollektiven Autonomie. Europa hat das Potenzial, seine digitale Transformation erfolgreich zu gestalten: brillante Köpfe, Spitzentechnologien, erstklassige Forschungskapazitäten und eine große Anzahl innovativer Technologieunternehmen. Wir haben die Fähigkeiten, die digitale Welt aktiv nach europäischen Werten und Grundsätzen zu gestalten. Entscheidend ist jetzt, dass wir unsere Kräfte bündeln. Lassen Sie uns die europäischen IT-Unternehmen auf die Bühne holen und über europäische Lösungen sprechen! Einladung zum Ecosystem Summit 2025: Gemeinsam europäische IT-Helden feiern OVHcloud lädt Sie herzlich zur Veranstaltung Ecosystem Summit 2025 – European AI Heroes ein – eine Bühne für europäische Erfolgsgeschichten rund um die Themen Cloud und künstliche Intelligenz. Lassen Sie uns gemeinsam unsere europäischen Partner feiern, europäische Lösungen kennenlernen und diskutieren, wie wir Europas digitalen Weg selbstbestimmt und souverän gestalten können.   Auf dem Ecosystem Summit 2025 treffen sich die europäischen Tech-Champions, Seien auch Sie mit dabei!OVHcloud Am 26. Juni 2025 trifft sich unser gesamtes Tech-Ökosystem in Köln, und es wird viele spannende Panels, Vorträge und ein gesamtes Rahmenprogramm mit Networking geben. Seien auch Sie dabei und sprechen Sie mit uns über die Zukunft Europas: Zur Veranstaltung anmelden! 

Digitale Souveränität: Überlebensfaktor im KI-Zeitalter​ Nur gemeinsam können wir die Cloud-Wertschöpfungskette in Europa stärken!
OVHcloud

Die jüngsten geopolitischen Entwicklungen haben deutlich gemacht, wie verletzlich technologische Abhängigkeiten machen. Der Angriffskrieg Russlands gegen die Ukraine und die protektionistische Handelspolitik der USA zeigen: Strategische Autonomie ist keine abstrakte Idee, sondern eine Voraussetzung für Handlungsfähigkeit und Stabilität. Jahrzehntelang hat sich Europa auf globale Lieferketten verlassen – vor allem in der Informations- und Kommunikationstechnologie. Jetzt ist der Moment gekommen, die digitale Selbstbestimmung zur Priorität zu machen.

Ohne Not hat sich Europa in Schlüsseltechnologien von ausländischen Anbietern abhängig gemacht. Viele hier entwickelte Patente werden im Ausland zur Marktreife gebracht und kehren als fertige Produkte zurück. Trotz ihrer wirtschaftlichen Stärke bezieht die EU zentrale Technologien wie Smartphones, Halbleiter und KI fast ausschließlich aus dem Ausland. Diese Abhängigkeit ist gefährlich, denn sie hat erhebliche Auswirkungen auf unsere Daten, unsere Privatsphäre, unsere wirtschaftliche Zukunft – auf unsere strategisch überlebenswichtige Autonomie.

Die Cloud bildet die Basis für KI und digitale Autonomie

Mehr als 70 Prozent der europäischen Cloud-Infrastruktur befinden sich in den Händen amerikanischer und chinesischer Anbieter. Diese Abhängigkeit birgt für Unternehmen wie für Privatpersonen tiefgreifende rechtliche Risiken. Sowohl chinesische als auch US-amerikanische Anbieter sind ihren Regierungen, respektive den Geheimdiensten gegenüber zur Offenlegung auch sensibler Daten verpflichtet. Schlimmer noch: Europäer haben nicht nur die Kontrolle über ihre Daten verloren, sie laufen auch Gefahr durch die Abschaltung ihrer Cloud-Services in den wirtschaftlichen Ruin getrieben zu werden.

Es ist daher alternativlos, so schnell wie möglich die Kontrolle über diese Infrastrukturen zurückzuerlangen. Dabei kommt den europäischen Cloud-Anbietern eine wichtige Rolle zu. Durch den Aufbau einer offenen und vertrauenswürdigen Cloud, die Agilität und kontinuierliche Innovation vereint, bilden sie die Basis für den Schutz unserer europäischen Daten und Aktivitäten.

WERDEN SIE TEIL DER BEWEGUNG – DISKUTIEREN SIE MIT UNS DIE ZUKUNFT EUROPAS AUF DEM ECOSYSTEM SUMMIT 2025.

Europäische Wertschöpfungskette für Daten und Cloud aufbauen

Dazu muss die gesamte Cloud-Wertschöpfungskette in Europa gestärkt werden. Nur so ist es möglich, europäischen Unternehmen eine glaubwürdige und langfristig sichere Alternative zu bieten. Ziel muss es sein, so schnell wie möglich robuste, widerstandsfähige Cloud-Lösungen, die höchsten Sicherheits- und technischen Standards entsprechen, zu entwickeln und zu unterstützen. Darauf können souveräne KI-Services aufbauen.

Wir brauchen einen «>Buy European Tech Act»In der öffentlichen Verwaltung dominieren weiterhin Cloud-Angebote aus dem Ausland. Ein erster Schritt wäre, gesetzlich vorzuschreiben, dass europäische Alternativen vor jeder Vergabe geprüft werden. Die gezielte Priorisierung europäischer Lösungen kann einen positiven Kreislauf aus Wachstum, Investitionen und Innovation anstoßen. Die Konsolidierung von Marktanteilen sorgt für eine Erhöhung der F&E-Investitionen der europäischen Anbieter, was wiederum zu verbesserten, wettbewerbsfähigeren Angeboten führt. Ein „Buy European Tech Act“ könnte helfen, für fairen Wettbewerb zu sorgen.

Die Beschaffung im Public Sector ist aber nur ein Pfeiler für den Aufbau einer europäischen Datensouveränität. Spätestens durch die aktuelle Zolldiskussion ist die Geopolitik in den Führungsgremien und Vorständen europäischer Unternehmen angekommen. Jede technologische Entscheidung beeinflusst die Widerstandsfähigkeit des eigenen und des gesamten europäischen Ökosystems. Der Schutz von Daten und digitalen Diensten ist heute mehr denn je eine Frage der Unabhängigkeit und der Souveränität. Unternehmen, die sich für europäische Cloud- und KI-Lösungen entscheiden, leisten einen aktiven Beitrag zur Sicherung unserer kollektiven Autonomie.

Europa hat das Potenzial, seine digitale Transformation erfolgreich zu gestalten: brillante Köpfe, Spitzentechnologien, erstklassige Forschungskapazitäten und eine große Anzahl innovativer Technologieunternehmen. Wir haben die Fähigkeiten, die digitale Welt aktiv nach europäischen Werten und Grundsätzen zu gestalten. Entscheidend ist jetzt, dass wir unsere Kräfte bündeln.

Lassen Sie uns die europäischen IT-Unternehmen auf die Bühne holen und über europäische Lösungen sprechen!

Einladung zum Ecosystem Summit 2025: Gemeinsam europäische IT-Helden feiern

OVHcloud lädt Sie herzlich zur Veranstaltung Ecosystem Summit 2025 – European AI Heroes ein – eine Bühne für europäische Erfolgsgeschichten rund um die Themen Cloud und künstliche Intelligenz. Lassen Sie uns gemeinsam unsere europäischen Partner feiern, europäische Lösungen kennenlernen und diskutieren, wie wir Europas digitalen Weg selbstbestimmt und souverän gestalten können.

 

Auf dem Ecosystem Summit 2025 treffen sich die europäischen Tech-Champions, Seien auch Sie mit dabei!OVHcloud

Am 26. Juni 2025 trifft sich unser gesamtes Tech-Ökosystem in Köln, und es wird viele spannende Panels, Vorträge und ein gesamtes Rahmenprogramm mit Networking geben. Seien auch Sie dabei und sprechen Sie mit uns über die Zukunft Europas:

Zur Veranstaltung anmelden!

Digitale Souveränität: Überlebensfaktor im KI-Zeitalter​ Weiterlesen »

Der GenAI-Wahn nimmt kein gutes Ende​

Allgemein

Irgendwann platzt jede Blase.Zhane Luk | shutterstock.com Keine Ahnung wie es Ihnen geht, aber ich habe schon länger die Nase voll vom Hype rund um Generative AI (GenAI). Ich nutze die Technologie selbst seit einiger Zeit und habe für meine Zwecke ein paar gute Anwendungsfälle gefunden (in erster Linie Suchmaschinen zu ersetzen). Aber die Technologie wird ihren Verheißungen bislang einfach nicht gerecht. Nicht einmal ansatzweise. Das liegt nicht nur an meiner Perspektive: Auch IBM kommt in einer aktuellen Umfrage unter 2.000 CEOs zu dem Ergebnis, dass lediglich 25 Prozent aller KI-Initiativen in den letzten Jahren den erwarteten Return on Investment (RoI) erzielt haben. Mit 52 Prozent hat auch nur etwas mehr als die Hälfte der Befragten durch generative KI bislang Mehrwert generiert, der über Kostensenkungen hinausgeht. Doch damit nicht genug: 64 Prozent der befragten CEOs geben in der Big-Blue-Umfrage zu, Technologieinvestitionen anzuschieben, bevor überhaupt klar ist, ob die irgendeinen Mehrwert fürs Business versprechen. Würde diese Rechnung mit Blick auf GenAI im Vorfeld aufgemacht, hätte wohl kaum ein Unternehmen eine Initiative in diesem Bereich am Start. Denn die bislang von den KI-Anbietern getätigten Investitionen und erzielten Ergebnisse demonstrieren, dass die Technologie weit davon entfernt ist, profitabel zu sein. “Das verkauft sich sicher!” So hat zum Beispiel Microsoft Copilot zum Mittelpunkt seiner Preispläne für Endbenutzer gemacht. Die Nutzer nehmen das Tool allerdings nicht an: Wie das Tech-Portal Newcomer berichtet, sollen die Nutzerzahlen von Microsoft Copilot bei etwa 20 Millionen wöchentlichen Nutzern stagnieren. Von exponentiellem Wachstum a la Open AI keine Spur. Auch Microsoft-CEO Satya Nadella musste vor kurzem einräumen, dass es immer noch keine „Killer-App“ für generative KI gibt. Gut, dass ihm das aufgefallen ist, nachdem er zehn Milliarden in die Technologie gebuttert hat. Dass es keinen Weg zur GenAI-Profitabilität eröffnet, einfach sämtliche Microsoft-Anwendungen um Copilot-Funktionen zu erweitern, hätte ich auch schon vor einem Jahr verraten können – völlig kostenlos. Und die Redmonder sind nicht alleine mit diesem Problem: Den steigenden Investitionen und raschem Umsatzwachstum in einigen, wenigen Sektoren zum Trotz, haben die meisten GenAI-Anbieter mit viel hohen Betriebskosten zu kämpfen – ohne zu wissen, wie und ob sich langfristiger, finanzieller Erfolg einstellen wird. Das betrifft selbst den GenAI-Primus OpenAI: Das Unternehmen soll im Jahr 2024 rund neun Milliarden Dollar investiert haben – bei einem Umsatz von etwa vier Milliarden Dollar. Laut dem Tech-Zyniker Edward Zitron zahlt die ChatGPT-Company so – trotz steigender Abonnentenzahlen – immer noch bei jedem zahlenden Kunden massiv obendrauf und verbrennt so Milliarden. Wenn die Bilanz von OpenAI so aussieht, wird einem beim Gedanken an die kleineren Generative-AI-Anbieter Angst und Bange. Wobei Ausnahmen die Regel bestätigen: So setzt etwa das US-Unternehmen Tempus AI die Technologie in der Präzisionsmedizin ein und konnte für das erste Quartal 2025 einen Umsatzanstieg von mehr als 75 Prozent vermelden. Diese beeindruckende finanzielle Dynamik hängt in erster Linie damit zusammen, dass sich die Amerikaner auf einen spezifischen Anwendungsfall konzentrieren – und für diesen massive Verbesserungen erzielt. Unternehmen, die der Illusion erliegen, generative KI könne auf magische Art und Weise einfach alles optimieren, dürften auch in Zukunft weiter Lichtjahre davon entfernt, rentabel zu sein. Natürlich ist auch Nvidia der (KI-)Erfolg ebenfalls nicht abzusprechen. Allerdings verkauft der GPU-Gigant seine Produkte in erster Linie an GenAI-(Service-)Anbieter und nicht die Endverbraucher. Solange also Firmen wie OpenAI und Anthropic von Risikokapitalgebern weiter mit Milliarden versorgt werden, wird auch für Nvidia kein Problem entstehen. Anders dürfte es aussehen, wenn die Geldgeber erste Zweifel beschleichen, ob am Ende des GenAI-Regenbogens tatsächlich der große Business-Goldtopf wartet. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Der GenAI-Wahn nimmt kein gutes Ende​ Irgendwann platzt jede Blase.Zhane Luk | shutterstock.com

Keine Ahnung wie es Ihnen geht, aber ich habe schon länger die Nase voll vom Hype rund um Generative AI (GenAI). Ich nutze die Technologie selbst seit einiger Zeit und habe für meine Zwecke ein paar gute Anwendungsfälle gefunden (in erster Linie Suchmaschinen zu ersetzen). Aber die Technologie wird ihren Verheißungen bislang einfach nicht gerecht. Nicht einmal ansatzweise.

Das liegt nicht nur an meiner Perspektive: Auch IBM kommt in einer aktuellen Umfrage unter 2.000 CEOs zu dem Ergebnis, dass lediglich 25 Prozent aller KI-Initiativen in den letzten Jahren den erwarteten Return on Investment (RoI) erzielt haben. Mit 52 Prozent hat auch nur etwas mehr als die Hälfte der Befragten durch generative KI bislang Mehrwert generiert, der über Kostensenkungen hinausgeht. Doch damit nicht genug: 64 Prozent der befragten CEOs geben in der Big-Blue-Umfrage zu, Technologieinvestitionen anzuschieben, bevor überhaupt klar ist, ob die irgendeinen Mehrwert fürs Business versprechen.

Würde diese Rechnung mit Blick auf GenAI im Vorfeld aufgemacht, hätte wohl kaum ein Unternehmen eine Initiative in diesem Bereich am Start. Denn die bislang von den KI-Anbietern getätigten Investitionen und erzielten Ergebnisse demonstrieren, dass die Technologie weit davon entfernt ist, profitabel zu sein.

“Das verkauft sich sicher!”

So hat zum Beispiel Microsoft Copilot zum Mittelpunkt seiner Preispläne für Endbenutzer gemacht. Die Nutzer nehmen das Tool allerdings nicht an: Wie das Tech-Portal Newcomer berichtet, sollen die Nutzerzahlen von Microsoft Copilot bei etwa 20 Millionen wöchentlichen Nutzern stagnieren. Von exponentiellem Wachstum a la Open AI keine Spur. Auch Microsoft-CEO Satya Nadella musste vor kurzem einräumen, dass es immer noch keine „Killer-App“ für generative KI gibt. Gut, dass ihm das aufgefallen ist, nachdem er zehn Milliarden in die Technologie gebuttert hat. Dass es keinen Weg zur GenAI-Profitabilität eröffnet, einfach sämtliche Microsoft-Anwendungen um Copilot-Funktionen zu erweitern, hätte ich auch schon vor einem Jahr verraten können – völlig kostenlos.

Und die Redmonder sind nicht alleine mit diesem Problem: Den steigenden Investitionen und raschem Umsatzwachstum in einigen, wenigen Sektoren zum Trotz, haben die meisten GenAI-Anbieter mit viel hohen Betriebskosten zu kämpfen – ohne zu wissen, wie und ob sich langfristiger, finanzieller Erfolg einstellen wird. Das betrifft selbst den GenAI-Primus OpenAI: Das Unternehmen soll im Jahr 2024 rund neun Milliarden Dollar investiert haben – bei einem Umsatz von etwa vier Milliarden Dollar. Laut dem Tech-Zyniker Edward Zitron zahlt die ChatGPT-Company so – trotz steigender Abonnentenzahlen – immer noch bei jedem zahlenden Kunden massiv obendrauf und verbrennt so Milliarden.

Wenn die Bilanz von OpenAI so aussieht, wird einem beim Gedanken an die kleineren Generative-AI-Anbieter Angst und Bange. Wobei Ausnahmen die Regel bestätigen: So setzt etwa das US-Unternehmen Tempus AI die Technologie in der Präzisionsmedizin ein und konnte für das erste Quartal 2025 einen Umsatzanstieg von mehr als 75 Prozent vermelden. Diese beeindruckende finanzielle Dynamik hängt in erster Linie damit zusammen, dass sich die Amerikaner auf einen spezifischen Anwendungsfall konzentrieren – und für diesen massive Verbesserungen erzielt. Unternehmen, die der Illusion erliegen, generative KI könne auf magische Art und Weise einfach alles optimieren, dürften auch in Zukunft weiter Lichtjahre davon entfernt, rentabel zu sein.

Natürlich ist auch Nvidia der (KI-)Erfolg ebenfalls nicht abzusprechen. Allerdings verkauft der GPU-Gigant seine Produkte in erster Linie an GenAI-(Service-)Anbieter und nicht die Endverbraucher. Solange also Firmen wie OpenAI und Anthropic von Risikokapitalgebern weiter mit Milliarden versorgt werden, wird auch für Nvidia kein Problem entstehen. Anders dürfte es aussehen, wenn die Geldgeber erste Zweifel beschleichen, ob am Ende des GenAI-Regenbogens tatsächlich der große Business-Goldtopf wartet. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Der GenAI-Wahn nimmt kein gutes Ende​ Weiterlesen »

Heute startet der CIO Charity Run&Bike 2025​

Allgemein

Seit Jahren engagiert sich die CIO-Community leidenschaftlich im Rahmen des CIO Charity Run&Bike für gemeinnützige Organisationen.Foundry Es geht los! Vom 23. Mai bis 9. Juni 2025 sporteln Deutschlands IT-Verantwortliche im Rahmen den CIO Charity Run&Bike gemeinsam für den guten Zweck. Über 1.000 IT-Verantwortliche haben sich bereits angemeldet. Kurzentschlossene können sich weiterhin registrieren unter: https://www.cio-charity.de/ Egal ob Laufschuh, Fahrrad oder Rollstuhl: mit jedem gemeinsam erzielten Kilometer unterstützt die Charity-Aktion der CIO-Community gemeinnützige Organisationen für mehr Bildungsgerechtigkeit, Chancengleichheit sowie die digitale Integration von benachteiligten Jugendlichen und jungen Erwachsenen. Verfolgt die Aktion und teilt euren Beitrag in den sozialen Medien unter dem Hashtag #CIOcharity25. Warum Mitmachen? „Unterstützen benachteiligter Kinder ist ganz viele Schweißtropfen wert“, bringt Peter Meyerhans, CIO bei der Drees & Sommer SE, den Grund für das rege Interesse deutscher CIOs an der Spendenaktion auf den Punkt. Markus Bentele, VP Information Technology / Group CIO und Mitglied des Aufsichtsrats bei der Mahle GmbH, freut sich auch in diesem Jahr auf die Veranstaltung und appelliert an die Community: „Wir haben auch als CIOs eine soziale Mitverantwortung und deswegen lasst uns sporteln für den guten Zweck. Mit jedem erzielten Kilometer, egal ob Laufschuh, Fahrrad oder Rollstuhl unterstützten wir die Charity-Aktion der CIO-Community und damit gemeinnützige Organisationen für mehr Bildungsgerechtigkeit, Chancengleichheit und die digitale Integration von benachteiligten Jugendlichen und jungen Erwachsenen – Also nicht nachdenken, sondern laufen, radeln oder rollen.“ Die unterstützten Organisationen 2025 unterstützt der CIO Charity Run&Bike die START-Stiftung und Save the Children. START setzt sich seit 2002 für Chancengerechtigkeit ein, indem die Stiftung deutschlandweit Jugendliche mit Migrationshintergrund in Bildung und Engagement fördert. Das Sozialunternehmen bietet ihnen Ressourcen, Netzwerke und Zugangsmöglichkeiten, um ihre Zukunft aktiv zu gestalten und einen gesellschaftlichen Beitrag zu leisten. Mehr zur START-Stiftung und deren Förderinitiativen lest ihr im ausführlichen Artikel: „CIO Charity Run&Bike 2025 – Lernen Sie die START-Stiftung kennen“ Save the Children ist die weltweit größte unabhängige Kinderrechtsorganisation. Sie unterstützt Kinder und ihre Familien in Deutschland und rund 120 Ländern. Die Organisation agiert unparteiisch und unabhängig von politischen, religiösen oder anderen Bindungen, mit dem Ziel, die Rechte und das Wohlergehen aller Kinder zu fördern. Mehr zum Engagement von Save the Children und welchen Impact jeder gespendete Euro hat, erfahrt ihr im Artikel: „CIO Charity Run&Bike 2025 – Lernen Sie Save the Children kennen“ Unsere Partner und Spendenmöglichkeiten Der Spendentopf ist bereits jetzt mit 75.000 Euro gefüllt. Dafür danken wir unseren Partnern: Acent, Adesso, Faktor D Consulting, Infosys, p.digital, Randstad digital, Servicenow, Skaylink, Tata Consultancy Services (TCS) und Foundry. Außerdem kann der Spendentopf durch Direktspenden weiter befüllt werden! Der Spender mit der höchsten Direktspende erhält in diesem Jahr ein Bild des Performancekünstlers Michael Raivard! Hier geht es zur Direktspende: https://www.betterplace.org/de/fundraising-events/48834-cio-charity-run-bike25 Local Run am 27. Mai Wer lieber gemeinsam mit anderen für den guten Zweck laufen möchte, ist herzlich zum Local Run am 27. Mai 2025 in Frankfurt am Main eingeladen. Local-Run-Partner ist Tata Consultancy Services (TCS). Die Strecke ist ein Rundweg und einen Kilometer lang. Jeder kann so viele Runde drehen, wie er möchte. Hier findet Ihr alle Informationen dazu: Ort: Rebstockpark, Frankfurt Treffpunkt: Rebstockbad Uhrzeit: Eintreffen ab 16:30 Uhr Start: 17:00 Uhr Ende: Gemeinsamer Ausklang bei isotonischen Getränken bis 19:00 Uhr Strecke: 1 km um den Rebstocksee Anmeldung: Wählen Sie im Anmeldeformular auf www.cio-charity.de den Local Run aus Kontakt: Mirja Wagner, mirja.wagner@foundryco.com Über den Charity Run&Bike CIO Charity Run&Bike 25 ist eine Aktion von CIO, CIO Stiftung und WHU. Seit 2011 unterstützen die Charity-Initiativen der CIO-Community Kinder und Jugendliche, die einen erschwerten Zugang zu Bildungsmöglichkeiten haben – aus finanziellen oder sozialen Gründen. Jedes Jahr wählt das Kuratorium der CIO-Stiftung zwei Förderinitiativen als Nutznießer der Aktion, die sich der Förderungen der gesellschaftlichen und digitalen Teilhabe verschrieben haben. 

Heute startet der CIO Charity Run&Bike 2025​ Seit Jahren engagiert sich die CIO-Community leidenschaftlich im Rahmen des CIO Charity Run&Bike für gemeinnützige Organisationen.Foundry

Es geht los! Vom 23. Mai bis 9. Juni 2025 sporteln Deutschlands IT-Verantwortliche im Rahmen den CIO Charity Run&Bike gemeinsam für den guten Zweck. Über 1.000 IT-Verantwortliche haben sich bereits angemeldet.

Kurzentschlossene können sich weiterhin registrieren unter: https://www.cio-charity.de/

Egal ob Laufschuh, Fahrrad oder Rollstuhl: mit jedem gemeinsam erzielten Kilometer unterstützt die Charity-Aktion der CIO-Community gemeinnützige Organisationen für mehr Bildungsgerechtigkeit, Chancengleichheit sowie die digitale Integration von benachteiligten Jugendlichen und jungen Erwachsenen.

Verfolgt die Aktion und teilt euren Beitrag in den sozialen Medien unter dem Hashtag #CIOcharity25.

Warum Mitmachen?

„Unterstützen benachteiligter Kinder ist ganz viele Schweißtropfen wert“, bringt Peter Meyerhans, CIO bei der Drees & Sommer SE, den Grund für das rege Interesse deutscher CIOs an der Spendenaktion auf den Punkt.

Markus Bentele, VP Information Technology / Group CIO und Mitglied des Aufsichtsrats bei der Mahle GmbH, freut sich auch in diesem Jahr auf die Veranstaltung und appelliert an die Community: „Wir haben auch als CIOs eine soziale Mitverantwortung und deswegen lasst uns sporteln für den guten Zweck. Mit jedem erzielten Kilometer, egal ob Laufschuh, Fahrrad oder Rollstuhl unterstützten wir die Charity-Aktion der CIO-Community und damit gemeinnützige Organisationen für mehr Bildungsgerechtigkeit, Chancengleichheit und die digitale Integration von benachteiligten Jugendlichen und jungen Erwachsenen – Also nicht nachdenken, sondern laufen, radeln oder rollen.“

Die unterstützten Organisationen

2025 unterstützt der CIO Charity Run&Bike die START-Stiftung und Save the Children.

START setzt sich seit 2002 für Chancengerechtigkeit ein, indem die Stiftung deutschlandweit Jugendliche mit Migrationshintergrund in Bildung und Engagement fördert. Das Sozialunternehmen bietet ihnen Ressourcen, Netzwerke und Zugangsmöglichkeiten, um ihre Zukunft aktiv zu gestalten und einen gesellschaftlichen Beitrag zu leisten.

Mehr zur START-Stiftung und deren Förderinitiativen lest ihr im ausführlichen Artikel: „CIO Charity Run&Bike 2025 – Lernen Sie die START-Stiftung kennen“

Save the Children ist die weltweit größte unabhängige Kinderrechtsorganisation. Sie unterstützt Kinder und ihre Familien in Deutschland und rund 120 Ländern. Die Organisation agiert unparteiisch und unabhängig von politischen, religiösen oder anderen Bindungen, mit dem Ziel, die Rechte und das Wohlergehen aller Kinder zu fördern.

Mehr zum Engagement von Save the Children und welchen Impact jeder gespendete Euro hat, erfahrt ihr im Artikel: „CIO Charity Run&Bike 2025 – Lernen Sie Save the Children kennen“

Unsere Partner und Spendenmöglichkeiten

Der Spendentopf ist bereits jetzt mit 75.000 Euro gefüllt. Dafür danken wir unseren Partnern: Acent, Adesso, Faktor D Consulting, Infosys, p.digital, Randstad digital, Servicenow, Skaylink, Tata Consultancy Services (TCS) und Foundry.

Außerdem kann der Spendentopf durch Direktspenden weiter befüllt werden! Der Spender mit der höchsten Direktspende erhält in diesem Jahr ein Bild des Performancekünstlers Michael Raivard! Hier geht es zur Direktspende: https://www.betterplace.org/de/fundraising-events/48834-cio-charity-run-bike25

Local Run am 27. Mai

Wer lieber gemeinsam mit anderen für den guten Zweck laufen möchte, ist herzlich zum Local Run am 27. Mai 2025 in Frankfurt am Main eingeladen. Local-Run-Partner ist Tata Consultancy Services (TCS). Die Strecke ist ein Rundweg und einen Kilometer lang. Jeder kann so viele Runde drehen, wie er möchte. Hier findet Ihr alle Informationen dazu:

Ort: Rebstockpark, Frankfurt

Treffpunkt: Rebstockbad

Uhrzeit: Eintreffen ab 16:30 Uhr

Start: 17:00 Uhr

Ende: Gemeinsamer Ausklang bei isotonischen Getränken bis 19:00 Uhr

Strecke: 1 km um den Rebstocksee

Anmeldung: Wählen Sie im Anmeldeformular auf www.cio-charity.de den Local Run aus

Kontakt: Mirja Wagner, mirja.wagner@foundryco.com

Über den Charity Run&Bike

CIO Charity Run&Bike 25 ist eine Aktion von CIO, CIO Stiftung und WHU. Seit 2011 unterstützen die Charity-Initiativen der CIO-Community Kinder und Jugendliche, die einen erschwerten Zugang zu Bildungsmöglichkeiten haben – aus finanziellen oder sozialen Gründen.

Jedes Jahr wählt das Kuratorium der CIO-Stiftung zwei Förderinitiativen als Nutznießer der Aktion, die sich der Förderungen der gesellschaftlichen und digitalen Teilhabe verschrieben haben.

Heute startet der CIO Charity Run&Bike 2025​ Weiterlesen »

IT-Vergütung: KI-Experten auf der Überholspur​

Allgemein

Die Bezüge für KI- und ML-Spezialisten sind in den zurückliegenden Jahren deutlich gestiegen – ein Trend, der aufgrund des Fachkräftemangels auch weiterhin anhalten wird. Wanan Wanan – Shutterstock 2419122211 Eine aktuelle Sonderauswertung von Gehältern in der IT-Branche kommt zu dem Ergebnis, dass die Vergütung für KI- und ML-Experten mit drei bis fünf Jahren Berufserfahrung in vielen europäischen Ländern signifikant höher ist als die ihrer Kollegen in der Jobfamilie Research & Developement (R&D). Mercers Analyse beruht auf der Auswertung einer umfassenden Datenbasis von mehr als 900 Unternehmen aus 24 Ländern.  Die Grafik zeigt die Grundvergütungsniveaus für Experten im Bereich KI und ML im Vergleich zu gleichwertigen Positionen im Bereich Forschung und Entwicklung (R&D) in ausgewählten Ländern für die Jahre 2024 und 2025. Es fällt auf, dass in Ländern wie Frankreich, dem Vereinigten Königreich und Deutschland das Grundeinkommen im KI- und ML-Bereich deutlich über dem Durchschnitt der R&D-Positionen liegen. Diese Differenz spiegelt die Wertigkeit der spezialisierten Fähigkeiten dieser Fachkräfte wider. Sie ist auch eine direkte Reaktion auf den weiterhin bestehenden Mangel an Talenten in diesen zukunftsträchtigen Bereichen.  Die Grafik zeigt das Grundvergütungsniveau für Experten (Berufserfahrung rund drei bis fünf Jahre) im Bereich KI & ML im Vergleich zu gleichwertigen Positionen im Bereich Forschung & Entwicklung in ausgewählten Ländern in den Jahren 2024 und 2025 (Quelle: Mercer  Comptryx Q1 2024 und Q1 2025) Mercer Comptryx Zudem zeigt die Grafik, dass die Gehälter für KI- und ML-Experten in den meisten untersuchten Ländern um bis zu 20 Prozent höher über jenen für vergleichbare R&D-Positionen liegen. Und mehr noch: Die Bezüge für KI- und ML-Fachkräfte sind in den zurückliegenden Jahren deutlich gestiegen. Die Beratungspraxis legt nahe, dass dieser Trend anhält – während die Gehälter im Bereich Forschung und Entwicklung deutlich moderater gewachsen sind. Unternehmen sind also bereit, weiter in qualifizierte Kräfte zu investieren, um in einem zunehmend technologiegetriebenen Markt ihre Wettbewerbsfähigkeit zu sichern.   Diese Unterschiede in den Gehältern sind nicht nur auf spezielle Fachkenntnisse zurückzuführen, sondern auch auf die strategische Bedeutung dieser Technologien für Unternehmen. In einer Zeit, in der digitale Transformation und Innovation an der Tagesordnung sind, wiegt die Rolle von KI und ML schwerer denn je – was sich auch in den Vergütungsstrukturen widerspiegelt.  

IT-Vergütung: KI-Experten auf der Überholspur​ Die Bezüge für KI- und ML-Spezialisten sind in den zurückliegenden Jahren deutlich gestiegen – ein Trend, der aufgrund des Fachkräftemangels auch weiterhin anhalten wird. Wanan Wanan – Shutterstock 2419122211

Eine aktuelle Sonderauswertung von Gehältern in der IT-Branche kommt zu dem Ergebnis, dass die Vergütung für KI- und ML-Experten mit drei bis fünf Jahren Berufserfahrung in vielen europäischen Ländern signifikant höher ist als die ihrer Kollegen in der Jobfamilie Research & Developement (R&D). Mercers Analyse beruht auf der Auswertung einer umfassenden Datenbasis von mehr als 900 Unternehmen aus 24 Ländern. 

Die Grafik zeigt die Grundvergütungsniveaus für Experten im Bereich KI und ML im Vergleich zu gleichwertigen Positionen im Bereich Forschung und Entwicklung (R&D) in ausgewählten Ländern für die Jahre 2024 und 2025. Es fällt auf, dass in Ländern wie Frankreich, dem Vereinigten Königreich und Deutschland das Grundeinkommen im KI- und ML-Bereich deutlich über dem Durchschnitt der R&D-Positionen liegen. Diese Differenz spiegelt die Wertigkeit der spezialisierten Fähigkeiten dieser Fachkräfte wider. Sie ist auch eine direkte Reaktion auf den weiterhin bestehenden Mangel an Talenten in diesen zukunftsträchtigen Bereichen. 

Die Grafik zeigt das Grundvergütungsniveau für Experten (Berufserfahrung rund drei bis fünf Jahre) im Bereich KI & ML im Vergleich zu gleichwertigen Positionen im Bereich Forschung & Entwicklung in ausgewählten Ländern in den Jahren 2024 und 2025 (Quelle: Mercer  Comptryx Q1 2024 und Q1 2025) Mercer Comptryx

Zudem zeigt die Grafik, dass die Gehälter für KI- und ML-Experten in den meisten untersuchten Ländern um bis zu 20 Prozent höher über jenen für vergleichbare R&D-Positionen liegen. Und mehr noch: Die Bezüge für KI- und ML-Fachkräfte sind in den zurückliegenden Jahren deutlich gestiegen. Die Beratungspraxis legt nahe, dass dieser Trend anhält – während die Gehälter im Bereich Forschung und Entwicklung deutlich moderater gewachsen sind. Unternehmen sind also bereit, weiter in qualifizierte Kräfte zu investieren, um in einem zunehmend technologiegetriebenen Markt ihre Wettbewerbsfähigkeit zu sichern.  

Diese Unterschiede in den Gehältern sind nicht nur auf spezielle Fachkenntnisse zurückzuführen, sondern auch auf die strategische Bedeutung dieser Technologien für Unternehmen. In einer Zeit, in der digitale Transformation und Innovation an der Tagesordnung sind, wiegt die Rolle von KI und ML schwerer denn je – was sich auch in den Vergütungsstrukturen widerspiegelt. 

IT-Vergütung: KI-Experten auf der Überholspur​ Weiterlesen »

10 grobe DevOps-Schnitzer​

Allgemein

Folgenschwere Fehler können die Delivery erheblich beeinträchtigen. Foto: ungvar | shutterstock.com Weil immer mehr Unternehmen danach streben, ihre Entwicklungsprozesse möglichst effizient zu gestalten, erfreut sich der DevOps-Ansatz wachsender Beliebtheit. Laut einer Prognose der Analysten von Research and Markets soll der globale DevOps-Markt bis zum Jahr 2030 rund 32 Milliarden Dollar schwer sein (2023: 10,6 Milliarden Dollar) – bei einer jährlichen Wachstumsrate von 14,9 Prozent. Ohne Zweifel können ein DevOps-Ansatz und die zugehörigen Methoden dazu beitragen, Software schneller auf den Markt sowie IT- und Ops-Teams näher zusammenzubringen. Auf bestimmte, besonders gravierende Fehler, beziehungsweise “Zustände”, sollten Sie dabei allerdings tunlichst verzichten. Wenn Sie sich nicht selbst sabotieren wollen. Lesen Sie, welche. 1. Devs und Ops, die nicht kommunizieren Obwohl das DevOps-Konzept vorsieht, eine bessere Zusammenarbeit und Kommunikation zwischen Entwicklungs- und Betriebs-Teams zu realisieren, stellt die Implementierung für einige Firmen eine große Hürde dar. Lawrence Guyot, President beim IT-Dienstleister ETTE, liefert Erklärungsansätze, woran das liegt: “In der Vergangenheit haben diese Einheiten in Silos gearbeitet. Das hat in der Regel zu vielen Ineffizienzen und Missverständnissen geführt.” In seinem Unternehmen habe man deswegen einen funktionsübergreifenden Teamansatz eingeführt, der Mitglieder beider Teams in alle Phasen des Produktlebenszyklus einbeziehe – von der Planung bis hin zum Deployment. Mit dem Ergebnis zeigt sich Guyot zufrieden: “Das hat zu kohärenteren Workflows geführt und die Deployment-Zeit um 30 Prozent verkürzt.” Auch Javier Muniz, CTO der Anwaltskanzlei LLCAttorney.com, betrachtet die effektive Kommunikation zwischen Devs und Ops als wesentliche Challenge – sieht diesbezüglich aber auch die Unternehmen in der Pflicht: “Viele Unternehmen unterschätzen, wie wertvoll Soft Skills in einer DevOps-Umgebung sind. Um die Kommunikation zwischen Devs und Ops in Gang zu bekommen, ist es unerlässlich, ein transparentes und kommunikationsförderliches Umfeld zu schaffen.” 2. Security, die zweitrangig ist Eine andere DevOps-Herausforderung besteht darin, die Sicherheit der Softwarelieferkette zu gewährleisten. Auch zu diesem Aspekt hat ETTE-President Guyot sowohl eine Erklärung als auch einen möglichen Lösungsansatz beizutragen: “Die Geschwindigkeit, mit der DevOps-Teams arbeiten, kann dazu führen, dass wichtige Sicherheits-Checks unter den Tisch fallen. Bei ETTE haben wir dieses Problem gelöst, indem wir automatisierte Security-Tools direkt in unsere CI/CD-Pipeline integriert haben. Das gewährleistet in jeder Entwicklungsphase Security Assessments in Echtzeit.” Diese Integration habe den IT-Dienstleister nicht nur dabei unterstützt, Schwachstellen frühzeitig zu erkennen, sondern stelle laut Guyot auch sicher, dass die Security-Praktiken mit den beschleunigten Deployment-Zyklen Schritt hielten. Besonders wichtig sind die Bereiche Datenschutz und Sicherheit in stark regulierten Branchen. Das weiß David Pumphrey, CEO des Healthcare-orientierten IT-Dienstleisters Riveraxe, aus eigener Erfahrung. Sein Unternehmen setzt deshalb ebenfalls auf eine tiefe Security-Integration in jeder Phase des DevOps-Prozesses sowie Security-Automation- und Compliance-Monitoring-Tools. “Indem wir die Sicherheit als integralen Bestandteil des Dev- und Ops-Prozesses betrachten, haben wir das Risiko von Datenschutzverletzungen erheblich minimiert”, so der Manager. 3. Komplexität, die nicht skaliert IT-Infrastrukturen werden immer komplexer, insbesondere in großen Unternehmen: Die Kombination aus Hybrid- und Remote-Arbeit, der Ressourcenverlagerung in die Cloud und dem verstärkten Einsatz mobiler Geräte hat Folgen für DevOps-Teams, wie Guyot erklärt: “Die Komplexität moderner IT-Infrastrukturen managen zu müssen, kann für DevOps-Teams entmutigend sein.” Guyots Unternehmen ETTE investierte aus diesem Grund in die Schulung seiner DevOps-Spezialisten – und legte dabei den Fokus auf fortschrittliche Cloud-Infrastrukturen und -Services. Auch das erwies sich als Erfolg, wie Guyot ausführt: “So konnten wir unseren Betrieb skalieren, ohne Kompromisse bei Performance oder Sicherheit einzugehen. Letztendlich hat sich unsere betriebliche Effizienz um 40 Prozent erhöht.” 4. Prioritäten, die an Geschäftszielen vorbeigehen Jede Technologie-Initiative, die nicht mit den Unternehmenszielen in Einklang steht, führt zwangsläufig zu suboptimalen Ergebnissen. Diesbezüglich bildet DevOps keine Ausnahme. “DevOps und Geschäftsziele aufeinander abzustimmen, kann erhebliche Hürden aufwerfen”, konstatiert auch Remon Elsayea, President beim IT-Dienstleister TechTrone IT Services. Er fügt hinzu: “Es wirkt oft so, als ob das rasante Tempo von DevOps-Initiativen die Abstimmung mit weiter gefassten Geschäftszielen erschwert. Das kann zu falsch gesetzten Prioritäten führen.” Er selbst setze deshalb darauf, regelmäßig funktionsübergreifende Teams zusammenzutrommeln, um die DevOps-Strategien im Kontext der aktuellen Geschäftsziele zu überprüfen und ein entsprechendes Alignment sicherzustellen, so Elsayea. 5. Neue Technologie, die stört Sowohl Tech-Spezialisten als auch Business-Anwender sind oft gleichermaßen erpicht darauf, mit den neuesten technologischen Innovationen zu experimentieren. Eine neue, aufstrebende Technologie in den DevOps-Zyklus zu integrieren, bevor überhaupt klar ist, ob sie zu den bestehenden Produkten passt, ist allerdings nicht empfehlenswert. Elsayea erklärt warum – und wie es besser geht: “Jedes zusätzliche Element kann die Komplexität steigern und zusätzliche Lernkurven einführen. Wir setzen deshalb auf einen ‘Proof of Concept‘-Ansatz, bevor wir neue Tools vollständig in unseren Workflow einbinden.” Das beinhaltet dem Manager zufolge auch kleinere Experimente, um den Impact und das Effizienzlevel neuer Technologien bewerten zu können: “So stellen wir sicher, dass sie unsere Prozesse bereichern, statt sie zu stören.” 6. Alte Technologie, die stört Aber auch Unternehmen, die älteren IT-Systemen verhaftet sind, dürften in vielen Fällen Schwierigkeiten damit bekommen, eine DevOps-Strategie umzusetzen. Riveraxe-CEO Pumphrey erklärt: “Legacy-Systeme mit modernen DevOps-Methoden zu integrieren, ist eine bemerkenswerte Herausforderung. Hierbei entstehen in vielen Fällen Bottlenecks, weil es Altsystemen oft an der für eine nahtlose Pipeline nötigen Agilität mangelt.” Um dieses Problem zu lösen, entschied man sich bei Pumphreys Arbeitgeber Riveraxe für ein schrittweises Vorgehen, bei dem die Legacy-Systeme in APIs “verpackt” wurden. “So konnten wir nicht nur wichtige Funktionen erhalten, sondern auch die Abläufe straffen und die Deployment-Zeit um etwa 20 Prozent verkürzen”, freut sich der CEO. 7. Kultur, die verhindert DevOps heißt Change – und Veränderungen können sich schwierig gestalten. Der mögliche kulturelle Widerstand ist nicht zu unterschätzen – wie auch Pumphrey feststellen musste: “Eine Kultur zu verankern, die die DevOps-Philosophie vollständig miteinbezieht, war ein kontinuierlicher Prozess. Anfänglich hatten wir mit Widerstand gegen den schnellen Wandel und die damit verbundene Collaboration zu kämpfen.” Entgegengewirkt habe man mit umfassenden Schulungsprogrammen und klar strukturierten Kommunikationskanälen, um allen Teammitgliedern die Vorteile des DevOps-Ansatzes zu demonstrieren. Dabei habe man Erfolge wie Misserfolge im Sinne einer kontinuierlichen Verbesserung genutzt, so der CEO: “Dieser Ansatz hat nicht nur die Teamdynamik verbessert, sondern auch zu innovativeren Lösungen und einer widerstandsfähigeren IT-Infrastruktur geführt.” 8. Remote-Arbeit, die spaltet Seit der Pandemie ist es zum Unternehmensalltag geworden, dass Teile der Belegschaft zumindest zeitweise außerhalb des Büros arbeiten. Der Trend zu Remote- und Hybrid Work bleibt auch für die Entwicklungsabteilung nicht ohne Folgen. “Dezentrale DevOps-Teams zu managen, hat uns in Sachen Kommunikation, Kollaboration und Überblick vor spezielle Herausforderungen gestellt”, gibt Reade Taylor, Gründer des Managed Service Providers Cyber Command, ohne Umschweife zu. Seine Lösung: “Wir haben robuste Richtlinien für die Remote-Arbeit eingeführt, Tools und Plattformen eingesetzt, um die Zusammenarbeit zu fördern und eine Kultur des Vertrauens und der Autonomie gepflegt.” Dabei sorgten laut Taylor regelmäßige virtuelle Check-Ins sowie eine klare Prozessdokumentation dafür, dass die Remote-Teams vernetzt, produktiv und auf die Unternehmensziele ausgerichtet blieben. 9. Devs und Ops, die unterschiedliche Ziele verfolgen Wenn Dev- und Ops-Teams mit Blick auf die Entwicklungsziele konträre Auffassungen vertreten, kann das zu einer weiteren, gewichtigen DevOps-Hürde führen. LLCAttorney-CTO Muniz weist auf eine Ursache dieses Übels hin: “Entwicklungsteams streben nach schnellen Veränderungen, Betriebsteams nach Stabilität.” Eine Lösung für dieses Problem sieht er in der Verankerung des Shared-Responsibility-Prinzips – Devs und Ops müssten von der Projektinitiierung bis zur endgültigen Implementierung zusammenarbeiten. 10. Automatisieren, weil das “gegen alles hilft” Unternehmen aller Branchen und Größen versuchen, ihre IT- und Geschäftsprozesse zu automatisieren. Das realisiert zahlreiche Vorteile, wirft jedoch auch weitere, unerwartete DevOps-Herausforderungen auf. “Nicht alle Prozesse sind dazu geeignet, automatisiert zu werden. Der Versuch, das zu erzwingen, kann zu Ineffizienz führen”, warnt Technologieentscheider Muniz und fügt hinzu: “Automatisierung ist kein Alles-oder-Nichts-Konzept. Zeit und Ressourcen spart man nur, wenn man die richtigen Prozesse dafür identifiziert.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

10 grobe DevOps-Schnitzer​ Folgenschwere Fehler können die Delivery erheblich beeinträchtigen.
Foto: ungvar | shutterstock.com

Weil immer mehr Unternehmen danach streben, ihre Entwicklungsprozesse möglichst effizient zu gestalten, erfreut sich der DevOps-Ansatz wachsender Beliebtheit. Laut einer Prognose der Analysten von Research and Markets soll der globale DevOps-Markt bis zum Jahr 2030 rund 32 Milliarden Dollar schwer sein (2023: 10,6 Milliarden Dollar) – bei einer jährlichen Wachstumsrate von 14,9 Prozent.

Ohne Zweifel können ein DevOps-Ansatz und die zugehörigen Methoden dazu beitragen, Software schneller auf den Markt sowie IT- und Ops-Teams näher zusammenzubringen. Auf bestimmte, besonders gravierende Fehler, beziehungsweise “Zustände”, sollten Sie dabei allerdings tunlichst verzichten. Wenn Sie sich nicht selbst sabotieren wollen. Lesen Sie, welche.

1. Devs und Ops, die nicht kommunizieren

Obwohl das DevOps-Konzept vorsieht, eine bessere Zusammenarbeit und Kommunikation zwischen Entwicklungs- und Betriebs-Teams zu realisieren, stellt die Implementierung für einige Firmen eine große Hürde dar. Lawrence Guyot, President beim IT-Dienstleister ETTE, liefert Erklärungsansätze, woran das liegt: “In der Vergangenheit haben diese Einheiten in Silos gearbeitet. Das hat in der Regel zu vielen Ineffizienzen und Missverständnissen geführt.”

In seinem Unternehmen habe man deswegen einen funktionsübergreifenden Teamansatz eingeführt, der Mitglieder beider Teams in alle Phasen des Produktlebenszyklus einbeziehe – von der Planung bis hin zum Deployment. Mit dem Ergebnis zeigt sich Guyot zufrieden: “Das hat zu kohärenteren Workflows geführt und die Deployment-Zeit um 30 Prozent verkürzt.”

Auch Javier Muniz, CTO der Anwaltskanzlei LLCAttorney.com, betrachtet die effektive Kommunikation zwischen Devs und Ops als wesentliche Challenge – sieht diesbezüglich aber auch die Unternehmen in der Pflicht: “Viele Unternehmen unterschätzen, wie wertvoll Soft Skills in einer DevOps-Umgebung sind. Um die Kommunikation zwischen Devs und Ops in Gang zu bekommen, ist es unerlässlich, ein transparentes und kommunikationsförderliches Umfeld zu schaffen.”

2. Security, die zweitrangig ist

Eine andere DevOps-Herausforderung besteht darin, die Sicherheit der Softwarelieferkette zu gewährleisten. Auch zu diesem Aspekt hat ETTE-President Guyot sowohl eine Erklärung als auch einen möglichen Lösungsansatz beizutragen: “Die Geschwindigkeit, mit der DevOps-Teams arbeiten, kann dazu führen, dass wichtige Sicherheits-Checks unter den Tisch fallen. Bei ETTE haben wir dieses Problem gelöst, indem wir automatisierte Security-Tools direkt in unsere CI/CD-Pipeline integriert haben. Das gewährleistet in jeder Entwicklungsphase Security Assessments in Echtzeit.” Diese Integration habe den IT-Dienstleister nicht nur dabei unterstützt, Schwachstellen frühzeitig zu erkennen, sondern stelle laut Guyot auch sicher, dass die Security-Praktiken mit den beschleunigten Deployment-Zyklen Schritt hielten.

Besonders wichtig sind die Bereiche Datenschutz und Sicherheit in stark regulierten Branchen. Das weiß David Pumphrey, CEO des Healthcare-orientierten IT-Dienstleisters Riveraxe, aus eigener Erfahrung. Sein Unternehmen setzt deshalb ebenfalls auf eine tiefe Security-Integration in jeder Phase des DevOps-Prozesses sowie Security-Automation- und Compliance-Monitoring-Tools. “Indem wir die Sicherheit als integralen Bestandteil des Dev- und Ops-Prozesses betrachten, haben wir das Risiko von Datenschutzverletzungen erheblich minimiert”, so der Manager.

3. Komplexität, die nicht skaliert

IT-Infrastrukturen werden immer komplexer, insbesondere in großen Unternehmen: Die Kombination aus Hybrid- und Remote-Arbeit, der Ressourcenverlagerung in die Cloud und dem verstärkten Einsatz mobiler Geräte hat Folgen für DevOps-Teams, wie Guyot erklärt: “Die Komplexität moderner IT-Infrastrukturen managen zu müssen, kann für DevOps-Teams entmutigend sein.”

Guyots Unternehmen ETTE investierte aus diesem Grund in die Schulung seiner DevOps-Spezialisten – und legte dabei den Fokus auf fortschrittliche Cloud-Infrastrukturen und -Services. Auch das erwies sich als Erfolg, wie Guyot ausführt: “So konnten wir unseren Betrieb skalieren, ohne Kompromisse bei Performance oder Sicherheit einzugehen. Letztendlich hat sich unsere betriebliche Effizienz um 40 Prozent erhöht.”

4. Prioritäten, die an Geschäftszielen vorbeigehen

Jede Technologie-Initiative, die nicht mit den Unternehmenszielen in Einklang steht, führt zwangsläufig zu suboptimalen Ergebnissen. Diesbezüglich bildet DevOps keine Ausnahme. “DevOps und Geschäftsziele aufeinander abzustimmen, kann erhebliche Hürden aufwerfen”, konstatiert auch Remon Elsayea, President beim IT-Dienstleister TechTrone IT Services. Er fügt hinzu: “Es wirkt oft so, als ob das rasante Tempo von DevOps-Initiativen die Abstimmung mit weiter gefassten Geschäftszielen erschwert. Das kann zu falsch gesetzten Prioritäten führen.”

Er selbst setze deshalb darauf, regelmäßig funktionsübergreifende Teams zusammenzutrommeln, um die DevOps-Strategien im Kontext der aktuellen Geschäftsziele zu überprüfen und ein entsprechendes Alignment sicherzustellen, so Elsayea.

5. Neue Technologie, die stört

Sowohl Tech-Spezialisten als auch Business-Anwender sind oft gleichermaßen erpicht darauf, mit den neuesten technologischen Innovationen zu experimentieren. Eine neue, aufstrebende Technologie in den DevOps-Zyklus zu integrieren, bevor überhaupt klar ist, ob sie zu den bestehenden Produkten passt, ist allerdings nicht empfehlenswert. Elsayea erklärt warum – und wie es besser geht: “Jedes zusätzliche Element kann die Komplexität steigern und zusätzliche Lernkurven einführen. Wir setzen deshalb auf einen ‘Proof of Concept‘-Ansatz, bevor wir neue Tools vollständig in unseren Workflow einbinden.”

Das beinhaltet dem Manager zufolge auch kleinere Experimente, um den Impact und das Effizienzlevel neuer Technologien bewerten zu können: “So stellen wir sicher, dass sie unsere Prozesse bereichern, statt sie zu stören.”

6. Alte Technologie, die stört

Aber auch Unternehmen, die älteren IT-Systemen verhaftet sind, dürften in vielen Fällen Schwierigkeiten damit bekommen, eine DevOps-Strategie umzusetzen. Riveraxe-CEO Pumphrey erklärt: “Legacy-Systeme mit modernen DevOps-Methoden zu integrieren, ist eine bemerkenswerte Herausforderung. Hierbei entstehen in vielen Fällen Bottlenecks, weil es Altsystemen oft an der für eine nahtlose Pipeline nötigen Agilität mangelt.”

Um dieses Problem zu lösen, entschied man sich bei Pumphreys Arbeitgeber Riveraxe für ein schrittweises Vorgehen, bei dem die Legacy-Systeme in APIs “verpackt” wurden. “So konnten wir nicht nur wichtige Funktionen erhalten, sondern auch die Abläufe straffen und die Deployment-Zeit um etwa 20 Prozent verkürzen”, freut sich der CEO.

7. Kultur, die verhindert

DevOps heißt Change – und Veränderungen können sich schwierig gestalten. Der mögliche kulturelle Widerstand ist nicht zu unterschätzen – wie auch Pumphrey feststellen musste: “Eine Kultur zu verankern, die die DevOps-Philosophie vollständig miteinbezieht, war ein kontinuierlicher Prozess. Anfänglich hatten wir mit Widerstand gegen den schnellen Wandel und die damit verbundene Collaboration zu kämpfen.”

Entgegengewirkt habe man mit umfassenden Schulungsprogrammen und klar strukturierten Kommunikationskanälen, um allen Teammitgliedern die Vorteile des DevOps-Ansatzes zu demonstrieren. Dabei habe man Erfolge wie Misserfolge im Sinne einer kontinuierlichen Verbesserung genutzt, so der CEO: “Dieser Ansatz hat nicht nur die Teamdynamik verbessert, sondern auch zu innovativeren Lösungen und einer widerstandsfähigeren IT-Infrastruktur geführt.”

8. Remote-Arbeit, die spaltet

Seit der Pandemie ist es zum Unternehmensalltag geworden, dass Teile der Belegschaft zumindest zeitweise außerhalb des Büros arbeiten. Der Trend zu Remote- und Hybrid Work bleibt auch für die Entwicklungsabteilung nicht ohne Folgen. “Dezentrale DevOps-Teams zu managen, hat uns in Sachen Kommunikation, Kollaboration und Überblick vor spezielle Herausforderungen gestellt”, gibt Reade Taylor, Gründer des Managed Service Providers Cyber Command, ohne Umschweife zu. Seine Lösung: “Wir haben robuste Richtlinien für die Remote-Arbeit eingeführt, Tools und Plattformen eingesetzt, um die Zusammenarbeit zu fördern und eine Kultur des Vertrauens und der Autonomie gepflegt.”

Dabei sorgten laut Taylor regelmäßige virtuelle Check-Ins sowie eine klare Prozessdokumentation dafür, dass die Remote-Teams vernetzt, produktiv und auf die Unternehmensziele ausgerichtet blieben.

9. Devs und Ops, die unterschiedliche Ziele verfolgen

Wenn Dev- und Ops-Teams mit Blick auf die Entwicklungsziele konträre Auffassungen vertreten, kann das zu einer weiteren, gewichtigen DevOps-Hürde führen. LLCAttorney-CTO Muniz weist auf eine Ursache dieses Übels hin: “Entwicklungsteams streben nach schnellen Veränderungen, Betriebsteams nach Stabilität.”

Eine Lösung für dieses Problem sieht er in der Verankerung des Shared-Responsibility-Prinzips – Devs und Ops müssten von der Projektinitiierung bis zur endgültigen Implementierung zusammenarbeiten.

10. Automatisieren, weil das “gegen alles hilft”

Unternehmen aller Branchen und Größen versuchen, ihre IT- und Geschäftsprozesse zu automatisieren. Das realisiert zahlreiche Vorteile, wirft jedoch auch weitere, unerwartete DevOps-Herausforderungen auf.

“Nicht alle Prozesse sind dazu geeignet, automatisiert zu werden. Der Versuch, das zu erzwingen, kann zu Ineffizienz führen”, warnt Technologieentscheider Muniz und fügt hinzu: “Automatisierung ist kein Alles-oder-Nichts-Konzept. Zeit und Ressourcen spart man nur, wenn man die richtigen Prozesse dafür identifiziert.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

10 grobe DevOps-Schnitzer​ Weiterlesen »

Konfliktmanagement: So schlichten Sie Streit im Unternehmen​

Allgemein

Konflikte unter Kollegen lassen sich leicht vermeiden, wenn man bestimmte Regeln befolgt. Foto: Zenzen – shutterstock.comDas Verhalten eines Kollegen ist nicht in Ordnung. Die Zahlen liegen hinter Plan. Oder im Projekt läuft es schief und es wird dringend eine schnelle Lösung gesucht. Gerade wenn es darauf ankommt und die Zeit drängt, kochen die Emotionen gerne hoch. Jetzt ist es eine wahre Kunst, souverän durch heikle Themen zu manövrieren.In der Praxis scheuen viele Menschen den Konflikt. Doch Schweigen und Faust-in-der-Tasche-machen lösen die Situation nicht. Es gibt nur einen Weg. Und der heißt: Mund aufmachen. Viele suchen dann nach den richtigen Worten. Wer hier mit den passenden Techniken punktet, kann schon viel erreichen.Schon in der Bibel heißt es: Am Anfang war das Wort. Doch der wesentliche Schlüssel, um Konflikte gekonnt zu managen, liegt ganz woanders.Was bedeutet eigentlich Konfliktmanagement? Wenn Ihr Kollege Sie fragt, ob er den Honig von Frau Meier in einen anderen Küchenschrank stellen kann, wird das wahrscheinlich nicht zu einem Konflikt zwischen Ihnen beiden führen. Für einen Konflikt braucht es mehr. Zum einen muss es um ein Thema mit hoher Bedeutung für Sie gehen. Dann braucht es eine Meinungsverschiedenheit mit Ihrem Gegenüber. Spätestens wenn dann noch Emotionen hinzukommen, werden Sie sich freuen, wenn Sie ein Experte im Konfliktmanagement sind.Ich erlebe in meiner Beratungspraxis häufig Menschen, die sich gar nicht streiten wollen. Dem Konflikt auszuweichen bringt jedoch auch nichts. Also ist das Ziel, den Konflikt so zu managen, dass wir hart in der Sache sind und fair zu Menschen bleiben. Wenn Sie als einer der Beteiligten dies beherrschen, haben Sie gute Chancen, dass der Konflikt trotz Emotionen einigermaßen souverän gehandelt wird und zu einer für alle Beteiligten tragfähigen Lösung führt.Der Fisch stinkt vom KopfBesonders kritisch wird ein Konflikt, wenn die beteiligten Personen aus unterschiedlichen Hierarchie-Ebenen kommen. In den meisten Unternehmen, die ich erlebe, gilt immer noch der Grundsatz: “Eine Karriereleiter pinkelt man nicht hinauf”. Streitkultur wird nur einseitig gelebt – und zwar von oben nach unten. Foto: Digital Storm – shutterstock.comIn alten Zeiten, als die Führungskraft noch allwissend war, mochte das zumindest den Erfolg des Unternehmens nicht gefährden. Doch heute, wo Mitarbeiter oft mehr wissen, als ihr Vorgesetzter, kann dieser Macht-zentrierte top-down-Ansatz zu gefährlichen Situationen für ein Unternehmen führen. Gute Mitarbeiter suchen sich neue Jobs, Projekte laufen in unnötige Sackgassen, es werden vermeidbare Fehler gemacht und Ressourcen verschwendet.In meinen Seminaren diskutiere ich deswegen besonders mit den Führungskräften über die Notwendigkeit einer Streitkultur – und die Frage, wie man sie in beide Richtungen offen leben kann. Doch lässt sich leider ableiten: Je höher jemand in der Hierarchie steht, desto größer sind seine blinden Flecken in diesem Thema.Eine Frage der KulturIn mittelständischen Unternehmen begegne ich häufig dem Wunsch, dass Mitarbeiter mehr Verantwortung übernehmen und Konflikte offen ansprechen sollen. Als Lösung dafür, empfehle ich den Inhabern, dass wir an der Unternehmenskultur arbeiten. Präziser formuliert: an der Arbeitskultur des Unternehmens. Dabei geht es nicht darum, die Werte und Überzeugungen der Menschen zu verändern. Sondern es geht darum zu definieren, welche konkreten Verhaltensweisen wir sehen wollen – und dann die Rahmenbedingungen so zu verändern, dass dies auch geschieht. Sicherlich kein romantischer Ansatz, aber einer, der in der Praxis zu Ergebnissen führt.Dennoch spielen dabei natürlich Werte eine Rolle. Und um in einem Unternehmen Konflikte erfolgreich managen zu können, sind zwei Werte von entscheidender Bedeutung.RespektAlso die Frage, ob Sie die Souveränität Ihres Gegenübers anerkennen, dass dieser anders ist, denkt und handelt als Sie.VertrauenUnd damit ist nicht gemeint, wie lange Sie sich bereits kennen. Sondern die Frage, ob Sie Ihre eigenen Fehler und Unzulänglichkeiten akzeptieren und diese auch offen kommunizieren – um dann andere um Rat oder Unterstützung zu bitten.Wenn Respekt und Vertrauen im beschriebenen Sinne kein Teil der gelebten Arbeitskultur sind, können Konflikte nicht konstruktiv gemanagt werden. Meist trifft man dann auf eine Kultur der Angst, in der Menschen keine Fehler machen wollen und – aus ihrer Sicht sinnvollerweise – sich vor Verantwortung drücken. Schaffen Sie es jedoch, Respekt und Vertrauen zu leben, dann haben Sie gute Chancen, eine Kultur des Lernens zu schaffen, in der Konflikte nicht dazu dienen, Schuldige zu köpfen, sondern um aus Fehlern zu lernen.Eine offene, konstruktive Konfliktkultur kann nur von oben vorgelebt bzw. geändert werden. Doch auch wenn die Führungskräfte das nicht wollen, gibt es Methoden, um sich in der jeweiligen Konfliktsituation dennoch souverän zu verhalten.Konfliktmanagement-MethodenBevor Sie sich für eine Methode entscheiden, die Sie im Konfliktfall anwenden, sollten Sie prüfen, mit wem Sie es zu tun haben. Ist es eher ein dominanter, ergebnis-orientierter Gesprächspartner – oder jemand, der zurückhaltender ist und dem die Beziehungsebene besonders am Herzen liegt?Umgang mit dominanten GesprächspartnernSie können Ihr Gegenüber nicht ändern. Also konzentrieren Sie sich lieber auf sich selbst. In der Praxis haben sich folgende Punkte besonders bewährt:Halten Sie Blickkontakt, wenn Sie sprechen.Formulieren Sie kurz und knapp.Sprechen Sie eher monoton und senken Sie die Betonung am Satzende ab.Halten Sie Ihre Atmung im Bauch, damit Sie ruhig und bestimmt wirken.Machen Sie zwischendurch immer wieder kurze Pausen, damit Sie nicht zu schnell reden (letzteres wirkt unsicher).Wenn Sie Mitarbeiter sind und Sie ein heikles Thema mit Ihrem Vorgesetzten diskutieren müssen, funktioniert außerdem folgende Vorgehensweise sehr gut: Stellen Sie Ihrem Chef Ihre Gedanken vor und setzen Sie ihm so Ihren gedanklichen Floh ins Ohr. Fordern Sie am Ende jedoch keine Entscheidung. Sondern geben Sie ihm Raum, indem Sie sinngemäß sagen: “Sie wissen ja selbst am besten, was gut ist. Schauen Sie es sich einfach mal in Ruhe an” – eine ausgedruckte Zusammenfassung auf seinen Tisch legen und dann den Raum verlassen. Dominante Typen entscheiden gerne autark.Damit haben Sie zwar keine Gewissheit, ob Sie aus dem Konflikt als Sieger hervorgehen. Sie sorgen jedoch zumindest dafür, dass Sie Ihren Mann bzw. Ihre Frau stehen und einen unnötigen Konflikt vermeiden.GesprächsstrukturOb sich eine Konfliktsituation beruhigt oder weiter eskaliert, hängt von der Wortwahl ab. Foto: VovanIvanovich – shutterstock.comIm Konflikt ist es entscheidend, die richtigen Worte zu treffen. Doch was sind die richtigen Worte? Marshall Rosenberg hat in den 1960er Jahren die sogenannte Nonviolent Communication erfunden. Aus meiner Erfahrung bietet er uns damit ein gutes Orientierungsmuster, das ich in der Praxis gerne um zwei Schritte erweitere.1.) Beobachtung: Beschreiben Sie die Fakten. Keine Interpretationen oder Halluzinationen. Formulierungen wie “Ich habe gesehen, dass…” oder “Herr Meier hat mir erzählt, dass…” helfen dabei.2.) Auswirkungen: Wozu führt das Beobachtete? “Für mich heißt das, ich muss …” oder “Für unser Projekt bedeutet das…”. Diese Stufe ist nicht immer notwendig.3.) Gefühl: Was löst das in Ihnen aus? “Das macht mich wütend.” oder “Mir ist das unangenehm”.4.) Bedürfnis: Was ist das tieferliegende Bedürfnis, das sich durch Ihr Gefühl meldet? Wenn beispielsweise jemand regelmäßig zu spät kommt, könnte Ihre Formulierung bis hierhin so lauten: “Bei den letzten fünf Projektmeetings bist Du jedes Mal mindestens 10 Minuten zu spät erschienen. Dadurch konnten wir mit der Besprechung nicht anfangen, weil Du eine wichtige Projektrolle hast und alle mussten warten. Das ärgert mich sehr. Denn mir ist Pünktlichkeit wichtig. Sie ist für mich Ausdruck von Respekt.”5.) Gegencheck: Bevor Sie nun weiter voranpreschen, halten Sie an dieser Stelle inne und stellen Sie eine Frage, um zu prüfen, wie Ihr Gegenüber den Sachverhalt sieht. “Was sagen Sie dazu?” oder “Wie kam es denn dazu?” oder “Sehen Sie das genauso – oder was denken Sie?” helfen hier weiter.6.) Lösung: Sie wollen ja nicht nur diskutieren, sondern auch eine Lösung finden. Im letzten Schritt können Sie in verschiedene Richtungen navigieren. Eher als Appell: “Ich erwarte von Ihnen, dass Sie beim nächsten Mal pünktlich sind!”. Oder eher als Frage: “Wie können wir das lösen?” oder “Was können wir tun, um das in Zukunft zu vermeiden?”.Die Magie entsteht ohne WorteIn meinen Workshops zeige ich den Teilnehmern Videos von verschiedenen Personen – ohne Ton. Und frage, ob die Personen eine gute oder schlechte Botschaft übermitteln. Danach zeige ich die Videos mit Ton und es kommt zu heftigen Überraschungen. Denn in vielen Situationen passt die Art, wie jemand spricht gar nicht zu dem, was er sagt. Sie haben sicherlich auch schon erlebt, dass jemand Unbekanntes an einer Besprechung teilnimmt. Eindrucksvoll gekleidet, souverän aussehend – und als die Person den Mund aufmacht, geht es aus Ihrer Sicht schon mit dem falschen Dialekt los. Das heißt, der erste Eindruck entsteht durch das Optische – doch der bleibende Eindruck entsteht durch die Art, wie wir sprechen.Das Stufenmodell “Power of Influence” – das Wie überschreibt das Was. Foto: www.peterholzer.comDas Wie überschreibt das Was. Doch in der Praxis wird das selten berücksichtigt. Prüfen Sie selbst: In Prozent Ihrer Vorbereitungszeit für ein Gespräch, Meeting oder Vortrag – wieviel Zeit verbringen Sie mit dem Inhalt (Was) und wieviel mit der Inszenierung (Wie)? Die meisten meiner Kunden sagen 100% Inhalt…Was können Sie daraus zum Thema Konflikte ableiten? Machen Sie die nächsten Tage eine einfache Übung:Beobachten Sie, was die Menschen um Sie herum mit ihren Augen machen. Sie werden sehen, dass die meisten Menschen den Blickkontakt suchen. Wir sind übertrainiert im Blickkontakt. Wenn Sie es mit einem dominanten Gesprächspartner zu tun haben, hilft Ihnen das (Stichwort: Blickkontakt wie zwei Boxer vor dem Kampf halten).Doch wenn Sie es mit eher zurückhaltenderen Menschen zu tun haben und Ihre heiklen Botschaften mit Blickkontakt abfeuern, üben Sie quasi verbale und nonverbale Gewalt aus. Hier ist es hilfreicher, wenn Sie gegen Ihre Gewohnheit, den Blickkontakt brechen. Und das macht dann Sinn, wenn Sie Ihre heikle Botschaft visualisieren. Schreiben Sie auf Flipchart oder Whiteboard, zeigen Sie eine PowerPoint-Folie oder bringen Sie einen Ausdruck mit bzw. schreiben Sie auf einen Block. Sprechen Sie in dieser Zeit mit dieser Visualisierung – brechen Sie also den Blickkontakt. Sie werden bemerken, dass Ihr Gegenüber ebenfalls den Blickkontakt bricht und Ihren Augen folgt. So machen Sie die Visualisierung zum eigentlichen Überbringer der heiklen Botschaft. Damit erhöhen Sie Ihre Wirkung, die Beziehungs- von der Sachebene zu trennen.Konfliktmanagement – Eine Frage der ÜbungDoch all die Techniken nutzen Ihnen im Konfliktfall nichts, wenn Ihre Haltung die falsche ist. Ich erlebe immer wieder sehr ambitionierte Menschen, die nach der einen Technik suchen, die jedes Gespräch garantiert zum Erfolg führt. Das halte ich für Quatsch. Denn der Mensch ist ein emotionales Wesen und verhält sich eben nicht immer rational. Wer das nicht glaubt, sollte einfach mal für eine Woche mit einem pubertierenden Teenager zusammen leben.Also, was ist Ihre Haltung? Was wollen Sie im Konfliktgespräch erreichen? Was ist Ihnen unbedingt wichtig? Wo können Sie Kompromisse eingehen oder Zugeständnisse machen? Sie sollten sich dessen sehr klar sein. Und wenn Sie dann noch die Haltung haben, dass Sie mit all den Techniken bestenfalls die Chance erhöhen, dass der andere aufnahmebereit ist – und nicht garantiert das macht, was Sie gerne hätten – dann haben Sie eine gute Ausgangslage, um im Augenblick achtsam zu sein und Konflikte in Ihrem Umfeld souverän zu managen.8 Fehler in der KommunikationDiese Kommunikationsfehler sollten Sie vermeiden Foto: Sergey Nivens – shutterstock.comWas Sie in Gesprächen und Debatten tunlichst unterlassen sollten, um Fehlinformationen, Konflikte und Imageschäden zu vermeiden.Fachchinesisch benutzen Foto: Gearstd – shutterstock.comMit technischem Fachjargon um sich zu werfen, ist der größte Fehler, den IT-Verantwortliche in Gesprächen mit Nicht-IT’lern machen können. Viele Experten können nicht richtig einschätzen, wie tief das eigene Fachwissen geht und wo im Gegenzug das Fachwissen des Gegenübers endet. Hier kann es schnell zu Missverständnissen und Kommunikationsstörungen kommen.Technische Probleme beklagen Foto: Stokkete – shutterstock.comWer in der Team- oder Vorstandssitzung über technische Probleme im Rechenzentrum oder anderen Unternehmensstellen klagt, darf sich nicht wundern, wenn diese Beschwerden Irritation und Unsicherheit auslösen. Kollegen, die nicht mit den beschriebenen Interna vertraut sind, verstehen in einem solchen Fall oft nur “Der hat massive Probleme, die er nicht in den Griff bekommt.” Natürlich müssen IT-Probleme auch im großen Kreis thematisiert werden dürfen, das jedoch besser in einer sachlichen Art und Weise, die jeder verstehen und nachvollziehen kann.Wie ein Verkäufer reden Foto: Evan El-Amin – shutterstock.comManager, die bislang mit einem Business-Hintergrund tätig waren, und IT-Führungspositionen übernehmen, sprechen ihre neuen Untergebenen in einem aufgeblasenen Ton an und wirken dabei häufig wie Verkäufer, die die neueste Kollektion heiße Luft präsentieren.Keine Fragen stellen Foto: ra2studio – shutterstock.comGute CIOs stellen sinnvolle Fragen und hören auf die Antworten. So gelangen oft neue Aspekte in die Diskussion. Dazu werden die Kollegen eingebunden und die Beziehung zwischen Manager und Team gestärkt. Warum viele IT-Verantwortliche anders vorgehen? Sie haben (meist unbegründet) Angst, als unwissend und inkompetent dazustehen.Niemanden einbinden Foto: Syda Productions – shutterstock.comGut ausgebildete CIOs sind überzeugt von ihren eigenen Ideen, welche Techniken sich wie am besten implementieren lassen. Viele vergessen darüber jedoch, dass auch die gesamte IT-Abteilung und der Vorstand womöglich noch eigene Ideen haben. Wenn CIOs ihre eigenen Vorstellungen ohne Rückfrage durchdrücken, verärgern sie deshalb viele Kollegen – selbst, wenn es die beste und richtige Wahl war.Ängste schüren Foto: Tyler Olson – shutterstock.comWenn der Vorstand überzeugt werden muss, das IT-Budget aufzustocken, diese oder jene Anschaffung oder Migration vorzunehmen, neigen manche CIOs dazu, in ihrer Argumentation zu übertreiben oder zu simplifizieren. Wenn neue Server angeschafft werden sollen, hört sich das dann so an: “Wenn wir bis kommende Woche nicht zehn neue Server im Schrank stehen haben, bricht der ganze Laden zusammen!”Den Wertbeitrag nicht herausstellen Foto: Sergey Nivens – shutterstock.comViele CIOs betonen, wie wichtig die Unternehmens-IT ist. Die Vorstände verstehen aber häufig nicht, was die IT konkret zum unternehmerischen Erfolg beiträgt. Deshalb sollten IT-Verantwortliche in Präsentationen und Diskussionen immer noch einen Schritt weitergehen, als nur in den eigenen Grenzen zu argumentieren.Mit PowerPoint einschläfern Foto: Matej Kastelic – shutterstock.comZu viele Folien, zu viele Nichtigkeiten. Effiziente Präsentationen zeichnen sich dadurch aus, dass sie sich auf die wichtigsten Infos konzentrieren, die das zuhörende Publikum direkt betreffen. Im besten Fall kann gänzlich auf PowerPoint verzichtet werden – gute Präsentationen zeichnen sich dadurch aus, dass sie von selbst im Gedächtnis haften bleiben und nicht durch eine Armada von Aufzählungspunkten. 

Konfliktmanagement: So schlichten Sie Streit im Unternehmen​ Konflikte unter Kollegen lassen sich leicht vermeiden, wenn man bestimmte Regeln befolgt.
Foto: Zenzen – shutterstock.comDas Verhalten eines Kollegen ist nicht in Ordnung. Die Zahlen liegen hinter Plan. Oder im Projekt läuft es schief und es wird dringend eine schnelle Lösung gesucht. Gerade wenn es darauf ankommt und die Zeit drängt, kochen die Emotionen gerne hoch. Jetzt ist es eine wahre Kunst, souverän durch heikle Themen zu manövrieren.In der Praxis scheuen viele Menschen den Konflikt. Doch Schweigen und Faust-in-der-Tasche-machen lösen die Situation nicht. Es gibt nur einen Weg. Und der heißt: Mund aufmachen. Viele suchen dann nach den richtigen Worten. Wer hier mit den passenden Techniken punktet, kann schon viel erreichen.Schon in der Bibel heißt es: Am Anfang war das Wort. Doch der wesentliche Schlüssel, um Konflikte gekonnt zu managen, liegt ganz woanders.Was bedeutet eigentlich Konfliktmanagement? Wenn Ihr Kollege Sie fragt, ob er den Honig von Frau Meier in einen anderen Küchenschrank stellen kann, wird das wahrscheinlich nicht zu einem Konflikt zwischen Ihnen beiden führen. Für einen Konflikt braucht es mehr. Zum einen muss es um ein Thema mit hoher Bedeutung für Sie gehen. Dann braucht es eine Meinungsverschiedenheit mit Ihrem Gegenüber. Spätestens wenn dann noch Emotionen hinzukommen, werden Sie sich freuen, wenn Sie ein Experte im Konfliktmanagement sind.Ich erlebe in meiner Beratungspraxis häufig Menschen, die sich gar nicht streiten wollen. Dem Konflikt auszuweichen bringt jedoch auch nichts. Also ist das Ziel, den Konflikt so zu managen, dass wir hart in der Sache sind und fair zu Menschen bleiben. Wenn Sie als einer der Beteiligten dies beherrschen, haben Sie gute Chancen, dass der Konflikt trotz Emotionen einigermaßen souverän gehandelt wird und zu einer für alle Beteiligten tragfähigen Lösung führt.Der Fisch stinkt vom KopfBesonders kritisch wird ein Konflikt, wenn die beteiligten Personen aus unterschiedlichen Hierarchie-Ebenen kommen. In den meisten Unternehmen, die ich erlebe, gilt immer noch der Grundsatz: “Eine Karriereleiter pinkelt man nicht hinauf”. Streitkultur wird nur einseitig gelebt – und zwar von oben nach unten.
Foto: Digital Storm – shutterstock.comIn alten Zeiten, als die Führungskraft noch allwissend war, mochte das zumindest den Erfolg des Unternehmens nicht gefährden. Doch heute, wo Mitarbeiter oft mehr wissen, als ihr Vorgesetzter, kann dieser Macht-zentrierte top-down-Ansatz zu gefährlichen Situationen für ein Unternehmen führen. Gute Mitarbeiter suchen sich neue Jobs, Projekte laufen in unnötige Sackgassen, es werden vermeidbare Fehler gemacht und Ressourcen verschwendet.In meinen Seminaren diskutiere ich deswegen besonders mit den Führungskräften über die Notwendigkeit einer Streitkultur – und die Frage, wie man sie in beide Richtungen offen leben kann. Doch lässt sich leider ableiten: Je höher jemand in der Hierarchie steht, desto größer sind seine blinden Flecken in diesem Thema.Eine Frage der KulturIn mittelständischen Unternehmen begegne ich häufig dem Wunsch, dass Mitarbeiter mehr Verantwortung übernehmen und Konflikte offen ansprechen sollen. Als Lösung dafür, empfehle ich den Inhabern, dass wir an der Unternehmenskultur arbeiten. Präziser formuliert: an der Arbeitskultur des Unternehmens. Dabei geht es nicht darum, die Werte und Überzeugungen der Menschen zu verändern. Sondern es geht darum zu definieren, welche konkreten Verhaltensweisen wir sehen wollen – und dann die Rahmenbedingungen so zu verändern, dass dies auch geschieht. Sicherlich kein romantischer Ansatz, aber einer, der in der Praxis zu Ergebnissen führt.Dennoch spielen dabei natürlich Werte eine Rolle. Und um in einem Unternehmen Konflikte erfolgreich managen zu können, sind zwei Werte von entscheidender Bedeutung.RespektAlso die Frage, ob Sie die Souveränität Ihres Gegenübers anerkennen, dass dieser anders ist, denkt und handelt als Sie.VertrauenUnd damit ist nicht gemeint, wie lange Sie sich bereits kennen. Sondern die Frage, ob Sie Ihre eigenen Fehler und Unzulänglichkeiten akzeptieren und diese auch offen kommunizieren – um dann andere um Rat oder Unterstützung zu bitten.Wenn Respekt und Vertrauen im beschriebenen Sinne kein Teil der gelebten Arbeitskultur sind, können Konflikte nicht konstruktiv gemanagt werden. Meist trifft man dann auf eine Kultur der Angst, in der Menschen keine Fehler machen wollen und – aus ihrer Sicht sinnvollerweise – sich vor Verantwortung drücken. Schaffen Sie es jedoch, Respekt und Vertrauen zu leben, dann haben Sie gute Chancen, eine Kultur des Lernens zu schaffen, in der Konflikte nicht dazu dienen, Schuldige zu köpfen, sondern um aus Fehlern zu lernen.Eine offene, konstruktive Konfliktkultur kann nur von oben vorgelebt bzw. geändert werden. Doch auch wenn die Führungskräfte das nicht wollen, gibt es Methoden, um sich in der jeweiligen Konfliktsituation dennoch souverän zu verhalten.Konfliktmanagement-MethodenBevor Sie sich für eine Methode entscheiden, die Sie im Konfliktfall anwenden, sollten Sie prüfen, mit wem Sie es zu tun haben. Ist es eher ein dominanter, ergebnis-orientierter Gesprächspartner – oder jemand, der zurückhaltender ist und dem die Beziehungsebene besonders am Herzen liegt?Umgang mit dominanten GesprächspartnernSie können Ihr Gegenüber nicht ändern. Also konzentrieren Sie sich lieber auf sich selbst. In der Praxis haben sich folgende Punkte besonders bewährt:Halten Sie Blickkontakt, wenn Sie sprechen.Formulieren Sie kurz und knapp.Sprechen Sie eher monoton und senken Sie die Betonung am Satzende ab.Halten Sie Ihre Atmung im Bauch, damit Sie ruhig und bestimmt wirken.Machen Sie zwischendurch immer wieder kurze Pausen, damit Sie nicht zu schnell reden (letzteres wirkt unsicher).Wenn Sie Mitarbeiter sind und Sie ein heikles Thema mit Ihrem Vorgesetzten diskutieren müssen, funktioniert außerdem folgende Vorgehensweise sehr gut: Stellen Sie Ihrem Chef Ihre Gedanken vor und setzen Sie ihm so Ihren gedanklichen Floh ins Ohr. Fordern Sie am Ende jedoch keine Entscheidung. Sondern geben Sie ihm Raum, indem Sie sinngemäß sagen: “Sie wissen ja selbst am besten, was gut ist. Schauen Sie es sich einfach mal in Ruhe an” – eine ausgedruckte Zusammenfassung auf seinen Tisch legen und dann den Raum verlassen. Dominante Typen entscheiden gerne autark.Damit haben Sie zwar keine Gewissheit, ob Sie aus dem Konflikt als Sieger hervorgehen. Sie sorgen jedoch zumindest dafür, dass Sie Ihren Mann bzw. Ihre Frau stehen und einen unnötigen Konflikt vermeiden.GesprächsstrukturOb sich eine Konfliktsituation beruhigt oder weiter eskaliert, hängt von der Wortwahl ab.
Foto: VovanIvanovich – shutterstock.comIm Konflikt ist es entscheidend, die richtigen Worte zu treffen. Doch was sind die richtigen Worte? Marshall Rosenberg hat in den 1960er Jahren die sogenannte Nonviolent Communication erfunden. Aus meiner Erfahrung bietet er uns damit ein gutes Orientierungsmuster, das ich in der Praxis gerne um zwei Schritte erweitere.1.) Beobachtung: Beschreiben Sie die Fakten. Keine Interpretationen oder Halluzinationen. Formulierungen wie “Ich habe gesehen, dass…” oder “Herr Meier hat mir erzählt, dass…” helfen dabei.2.) Auswirkungen: Wozu führt das Beobachtete? “Für mich heißt das, ich muss …” oder “Für unser Projekt bedeutet das…”. Diese Stufe ist nicht immer notwendig.3.) Gefühl: Was löst das in Ihnen aus? “Das macht mich wütend.” oder “Mir ist das unangenehm”.4.) Bedürfnis: Was ist das tieferliegende Bedürfnis, das sich durch Ihr Gefühl meldet? Wenn beispielsweise jemand regelmäßig zu spät kommt, könnte Ihre Formulierung bis hierhin so lauten: “Bei den letzten fünf Projektmeetings bist Du jedes Mal mindestens 10 Minuten zu spät erschienen. Dadurch konnten wir mit der Besprechung nicht anfangen, weil Du eine wichtige Projektrolle hast und alle mussten warten. Das ärgert mich sehr. Denn mir ist Pünktlichkeit wichtig. Sie ist für mich Ausdruck von Respekt.”5.) Gegencheck: Bevor Sie nun weiter voranpreschen, halten Sie an dieser Stelle inne und stellen Sie eine Frage, um zu prüfen, wie Ihr Gegenüber den Sachverhalt sieht. “Was sagen Sie dazu?” oder “Wie kam es denn dazu?” oder “Sehen Sie das genauso – oder was denken Sie?” helfen hier weiter.6.) Lösung: Sie wollen ja nicht nur diskutieren, sondern auch eine Lösung finden. Im letzten Schritt können Sie in verschiedene Richtungen navigieren. Eher als Appell: “Ich erwarte von Ihnen, dass Sie beim nächsten Mal pünktlich sind!”. Oder eher als Frage: “Wie können wir das lösen?” oder “Was können wir tun, um das in Zukunft zu vermeiden?”.Die Magie entsteht ohne WorteIn meinen Workshops zeige ich den Teilnehmern Videos von verschiedenen Personen – ohne Ton. Und frage, ob die Personen eine gute oder schlechte Botschaft übermitteln. Danach zeige ich die Videos mit Ton und es kommt zu heftigen Überraschungen. Denn in vielen Situationen passt die Art, wie jemand spricht gar nicht zu dem, was er sagt. Sie haben sicherlich auch schon erlebt, dass jemand Unbekanntes an einer Besprechung teilnimmt. Eindrucksvoll gekleidet, souverän aussehend – und als die Person den Mund aufmacht, geht es aus Ihrer Sicht schon mit dem falschen Dialekt los. Das heißt, der erste Eindruck entsteht durch das Optische – doch der bleibende Eindruck entsteht durch die Art, wie wir sprechen.Das Stufenmodell “Power of Influence” – das Wie überschreibt das Was.
Foto: www.peterholzer.comDas Wie überschreibt das Was. Doch in der Praxis wird das selten berücksichtigt. Prüfen Sie selbst: In Prozent Ihrer Vorbereitungszeit für ein Gespräch, Meeting oder Vortrag – wieviel Zeit verbringen Sie mit dem Inhalt (Was) und wieviel mit der Inszenierung (Wie)? Die meisten meiner Kunden sagen 100% Inhalt…Was können Sie daraus zum Thema Konflikte ableiten? Machen Sie die nächsten Tage eine einfache Übung:Beobachten Sie, was die Menschen um Sie herum mit ihren Augen machen. Sie werden sehen, dass die meisten Menschen den Blickkontakt suchen. Wir sind übertrainiert im Blickkontakt. Wenn Sie es mit einem dominanten Gesprächspartner zu tun haben, hilft Ihnen das (Stichwort: Blickkontakt wie zwei Boxer vor dem Kampf halten).Doch wenn Sie es mit eher zurückhaltenderen Menschen zu tun haben und Ihre heiklen Botschaften mit Blickkontakt abfeuern, üben Sie quasi verbale und nonverbale Gewalt aus. Hier ist es hilfreicher, wenn Sie gegen Ihre Gewohnheit, den Blickkontakt brechen. Und das macht dann Sinn, wenn Sie Ihre heikle Botschaft visualisieren. Schreiben Sie auf Flipchart oder Whiteboard, zeigen Sie eine PowerPoint-Folie oder bringen Sie einen Ausdruck mit bzw. schreiben Sie auf einen Block. Sprechen Sie in dieser Zeit mit dieser Visualisierung – brechen Sie also den Blickkontakt. Sie werden bemerken, dass Ihr Gegenüber ebenfalls den Blickkontakt bricht und Ihren Augen folgt. So machen Sie die Visualisierung zum eigentlichen Überbringer der heiklen Botschaft. Damit erhöhen Sie Ihre Wirkung, die Beziehungs- von der Sachebene zu trennen.Konfliktmanagement – Eine Frage der ÜbungDoch all die Techniken nutzen Ihnen im Konfliktfall nichts, wenn Ihre Haltung die falsche ist. Ich erlebe immer wieder sehr ambitionierte Menschen, die nach der einen Technik suchen, die jedes Gespräch garantiert zum Erfolg führt. Das halte ich für Quatsch. Denn der Mensch ist ein emotionales Wesen und verhält sich eben nicht immer rational. Wer das nicht glaubt, sollte einfach mal für eine Woche mit einem pubertierenden Teenager zusammen leben.Also, was ist Ihre Haltung? Was wollen Sie im Konfliktgespräch erreichen? Was ist Ihnen unbedingt wichtig? Wo können Sie Kompromisse eingehen oder Zugeständnisse machen? Sie sollten sich dessen sehr klar sein. Und wenn Sie dann noch die Haltung haben, dass Sie mit all den Techniken bestenfalls die Chance erhöhen, dass der andere aufnahmebereit ist – und nicht garantiert das macht, was Sie gerne hätten – dann haben Sie eine gute Ausgangslage, um im Augenblick achtsam zu sein und Konflikte in Ihrem Umfeld souverän zu managen.8 Fehler in der KommunikationDiese Kommunikationsfehler sollten Sie vermeiden
Foto: Sergey Nivens – shutterstock.comWas Sie in Gesprächen und Debatten tunlichst unterlassen sollten, um Fehlinformationen, Konflikte und Imageschäden zu vermeiden.Fachchinesisch benutzen
Foto: Gearstd – shutterstock.comMit technischem Fachjargon um sich zu werfen, ist der größte Fehler, den IT-Verantwortliche in Gesprächen mit Nicht-IT’lern machen können. Viele Experten können nicht richtig einschätzen, wie tief das eigene Fachwissen geht und wo im Gegenzug das Fachwissen des Gegenübers endet. Hier kann es schnell zu Missverständnissen und Kommunikationsstörungen kommen.Technische Probleme beklagen
Foto: Stokkete – shutterstock.comWer in der Team- oder Vorstandssitzung über technische Probleme im Rechenzentrum oder anderen Unternehmensstellen klagt, darf sich nicht wundern, wenn diese Beschwerden Irritation und Unsicherheit auslösen. Kollegen, die nicht mit den beschriebenen Interna vertraut sind, verstehen in einem solchen Fall oft nur “Der hat massive Probleme, die er nicht in den Griff bekommt.” Natürlich müssen IT-Probleme auch im großen Kreis thematisiert werden dürfen, das jedoch besser in einer sachlichen Art und Weise, die jeder verstehen und nachvollziehen kann.Wie ein Verkäufer reden
Foto: Evan El-Amin – shutterstock.comManager, die bislang mit einem Business-Hintergrund tätig waren, und IT-Führungspositionen übernehmen, sprechen ihre neuen Untergebenen in einem aufgeblasenen Ton an und wirken dabei häufig wie Verkäufer, die die neueste Kollektion heiße Luft präsentieren.Keine Fragen stellen
Foto: ra2studio – shutterstock.comGute CIOs stellen sinnvolle Fragen und hören auf die Antworten. So gelangen oft neue Aspekte in die Diskussion. Dazu werden die Kollegen eingebunden und die Beziehung zwischen Manager und Team gestärkt. Warum viele IT-Verantwortliche anders vorgehen? Sie haben (meist unbegründet) Angst, als unwissend und inkompetent dazustehen.Niemanden einbinden
Foto: Syda Productions – shutterstock.comGut ausgebildete CIOs sind überzeugt von ihren eigenen Ideen, welche Techniken sich wie am besten implementieren lassen. Viele vergessen darüber jedoch, dass auch die gesamte IT-Abteilung und der Vorstand womöglich noch eigene Ideen haben. Wenn CIOs ihre eigenen Vorstellungen ohne Rückfrage durchdrücken, verärgern sie deshalb viele Kollegen – selbst, wenn es die beste und richtige Wahl war.Ängste schüren
Foto: Tyler Olson – shutterstock.comWenn der Vorstand überzeugt werden muss, das IT-Budget aufzustocken, diese oder jene Anschaffung oder Migration vorzunehmen, neigen manche CIOs dazu, in ihrer Argumentation zu übertreiben oder zu simplifizieren. Wenn neue Server angeschafft werden sollen, hört sich das dann so an: “Wenn wir bis kommende Woche nicht zehn neue Server im Schrank stehen haben, bricht der ganze Laden zusammen!”Den Wertbeitrag nicht herausstellen
Foto: Sergey Nivens – shutterstock.comViele CIOs betonen, wie wichtig die Unternehmens-IT ist. Die Vorstände verstehen aber häufig nicht, was die IT konkret zum unternehmerischen Erfolg beiträgt. Deshalb sollten IT-Verantwortliche in Präsentationen und Diskussionen immer noch einen Schritt weitergehen, als nur in den eigenen Grenzen zu argumentieren.Mit PowerPoint einschläfern
Foto: Matej Kastelic – shutterstock.comZu viele Folien, zu viele Nichtigkeiten. Effiziente Präsentationen zeichnen sich dadurch aus, dass sie sich auf die wichtigsten Infos konzentrieren, die das zuhörende Publikum direkt betreffen. Im besten Fall kann gänzlich auf PowerPoint verzichtet werden – gute Präsentationen zeichnen sich dadurch aus, dass sie von selbst im Gedächtnis haften bleiben und nicht durch eine Armada von Aufzählungspunkten.

Konfliktmanagement: So schlichten Sie Streit im Unternehmen​ Weiterlesen »

KI bedroht Jobs von Frauen stärker als die von Männern​

Allgemein

KI trifft Frauenberufe besonders stark. Anna_Summer – shutterstock.com Eine Studie der Internationalen Arbeitsorganisation (ILO) und des polnischen Forschungsinstituts NASK zeigt, dass Künstliche Intelligenz (KI) Arbeitsplätze von Frauen überproportional stark beeinflusst. Fast jeder zehnte Arbeitsplatz von Frauen gilt als besonders gefährdet, während es bei Männern nur 3,5 Prozent sind. Weltweit könnte ein Viertel aller Jobs von generativer KI (GenAI) beeinflusst werden, in wohlhabenden Ländern steigt dieser Anteil auf 34 Prozent. Frauen in wohlhabenderen Ländern sind zudem deutlich stärker von KI-Automatisierung bedroht, so die Studienmacher. Besonders betroffen sind Büro- und Verwaltungsberufe, in denen Frauen überdurchschnittlich vertreten sind. In den USA sind beispielsweise weit über 90 Prozent der Assistenzstellen von Frauen besetzt. Zugleich zählt diese Tätigkeit laut dem US-Arbeitsministerium zu den fünf häufigsten Berufen für Frauen in den USA. Von Frauen dominierte Tätigkeiten sind allerdings nicht automatisch von KI bedroht: Pflegeberufe stufen die Studienmacher zum Beispiel als nicht stark durch KI gefährdet ein. KI als Chance für Frauen Rembrand Koning, Professor an der Harvard Business School, betont gegenüber dem Magazin Fortune, dass Frauen ihre Zukunft am Arbeitsplatz aber auch mit KI sichern können. Dazu müssen sie KI als unterstützendes Werkzeug statt als Bedrohung betrachten, so der Experte. Frauen nutzen KI-Tools allerdings im Durchschnitt 25 Prozent weniger als Männer. Einige befürchten, dass sie für den Einsatz der Technologie als Betrüger verurteilt werden oder dass der Rückgriff auf KI-Tools dazu führt, dass männliche Kollegen ihre Intelligenz in Frage stellen. Männer zeigen sich dagegen oft selbstbewusster im Umgang mit KI. Koning sieht deshalb die Verantwortung bei den Führungskräften, den Zugang zu KI-Technologien am Arbeitsplatz zu fördern und klare Richtlinien zu schaffen. Dann könnten alle Mitarbeitenden – unabhängig vom Geschlecht – die Vorteile der Technologie nutzen. Der Mensch bleibt unverzichtbar Gerade was Tätigkeiten von Software-Ingenieuren und Programmierern sowie Einstiegspositionen in verschiedenen Branchen betrifft, hat KI das Potenzial, viele Aufgaben zu übernehmen und damit ihre Stellen zu bedrohen. Laut einem Bloomberg-Bericht könnten zudem über die Hälfte der Aufgaben von Marktforschern und zwei Drittel der Aufgaben von Vertriebsmitarbeitenden durch KI ersetzt werden. Der ILO-NASK-Bericht betont jedoch, dass KI diese Jobs nicht vollständig ersetzen wird, da weiterhin menschliches Engagement erforderlich ist. 

KI bedroht Jobs von Frauen stärker als die von Männern​ KI trifft Frauenberufe besonders stark.
Anna_Summer – shutterstock.com

Eine Studie der Internationalen Arbeitsorganisation (ILO) und des polnischen Forschungsinstituts NASK zeigt, dass Künstliche Intelligenz (KI) Arbeitsplätze von Frauen überproportional stark beeinflusst.

Fast jeder zehnte Arbeitsplatz von Frauen gilt als besonders gefährdet, während es bei Männern nur 3,5 Prozent sind. Weltweit könnte ein Viertel aller Jobs von generativer KI (GenAI) beeinflusst werden, in wohlhabenden Ländern steigt dieser Anteil auf 34 Prozent. Frauen in wohlhabenderen Ländern sind zudem deutlich stärker von KI-Automatisierung bedroht, so die Studienmacher.

Besonders betroffen sind Büro- und Verwaltungsberufe, in denen Frauen überdurchschnittlich vertreten sind. In den USA sind beispielsweise weit über 90 Prozent der Assistenzstellen von Frauen besetzt. Zugleich zählt diese Tätigkeit laut dem US-Arbeitsministerium zu den fünf häufigsten Berufen für Frauen in den USA. Von Frauen dominierte Tätigkeiten sind allerdings nicht automatisch von KI bedroht: Pflegeberufe stufen die Studienmacher zum Beispiel als nicht stark durch KI gefährdet ein.

KI als Chance für Frauen

Rembrand Koning, Professor an der Harvard Business School, betont gegenüber dem Magazin Fortune, dass Frauen ihre Zukunft am Arbeitsplatz aber auch mit KI sichern können. Dazu müssen sie KI als unterstützendes Werkzeug statt als Bedrohung betrachten, so der Experte.

Frauen nutzen KI-Tools allerdings im Durchschnitt 25 Prozent weniger als Männer. Einige befürchten, dass sie für den Einsatz der Technologie als Betrüger verurteilt werden oder dass der Rückgriff auf KI-Tools dazu führt, dass männliche Kollegen ihre Intelligenz in Frage stellen.

Männer zeigen sich dagegen oft selbstbewusster im Umgang mit KI. Koning sieht deshalb die Verantwortung bei den Führungskräften, den Zugang zu KI-Technologien am Arbeitsplatz zu fördern und klare Richtlinien zu schaffen. Dann könnten alle Mitarbeitenden – unabhängig vom Geschlecht – die Vorteile der Technologie nutzen.

Der Mensch bleibt unverzichtbar

Gerade was Tätigkeiten von Software-Ingenieuren und Programmierern sowie Einstiegspositionen in verschiedenen Branchen betrifft, hat KI das Potenzial, viele Aufgaben zu übernehmen und damit ihre Stellen zu bedrohen. Laut einem Bloomberg-Bericht könnten zudem über die Hälfte der Aufgaben von Marktforschern und zwei Drittel der Aufgaben von Vertriebsmitarbeitenden durch KI ersetzt werden. Der ILO-NASK-Bericht betont jedoch, dass KI diese Jobs nicht vollständig ersetzen wird, da weiterhin menschliches Engagement erforderlich ist.

KI bedroht Jobs von Frauen stärker als die von Männern​ Weiterlesen »

RWE digitalisiert HR-Prozesse mit App​

Allgemein

Damit Mitarbeiter auch außerhalb des Büros auf HR-Prozesse zugreifen können, digitalisiert RWE diese mittels einer App. RWE Ein Großteil der rund 14.000 in Deutschland beschäftigen RWE-Mitarbeiter sind an unterschiedlichen, zum Teil sehr abgelegenen Standorten – von Kraftwerken bis Offshore-Windparks – tätig. Damit haben sie häufig keinen regelmäßigen Zugriff auf die Büroinfrastruktur. Ein Umstand, der in der Vergangenheit zur Konsequenz hatte, dass die Beschäftigten Dokumente wie Krankmeldungen, Fortbildungsbescheinigungen oder Arbeitsnachweise papierbasiert per Post an die HR-Abteilung schicken oder gar persönlich einreichen mussten. Ein Prozess, der nicht nur für die Mitarbeiter unbequem war. Auch in der HR-Abteilung führte er zu langen Bearbeitungszeiten und einem hohen manuellen Aufwand. HR-Dokumente per Handy einreichen Um hier effizienter zu werden, wollte der Konzern die papierbasierten Prozesse durch eine mobile Lösung ablösen. Ziel dabei: Zum einen eine Entlastung der HR-Abteilung, zum anderen sollten den Mitarbeitenden die Möglichkeit gegeben werden, jederzeit und überall auf wichtige Informationen und Services zugreifen zu können. Diese Zielsetzung vor Augen, entschied sich RWE für den modularen Mobile-App-Baukasten von Insiders Technologies aus Kaiserslautern. Bei dieser Lösung können Mitarbeitende ihre HR-Dokumente direkt per Smartphone abfotografieren und darüber übermitteln. Dabei sei es egal, ob sie im Büro, zu Hause oder an abgelegenen Standorten tätig sind. Automatisierte Verarbeitung im Backend Im Backend ordnet die dahinterliegende Plattform OmnIA sowie die damit einhergehenden KI-Technologien, die sich in der Vergangenheit im Konzern bereits bewährt haben, die eingehenden Dokumente automatisch in über 160 Klassen ein. Dabei werden relevante Daten extrahiert und nahtlos in die bestehenden HR-Systeme integriert. Auf diese Weise würden Bearbeitungszeiten verkürzt, Fehlerquellen minimiert und die HR-Abteilung spürbar entlastet. Damit trage die App nicht nur zur Effizienzsteigerung bei, sondern reduziere auch den Papierverbrauch und senke die administrativen Kosten. 

RWE digitalisiert HR-Prozesse mit App​ Damit Mitarbeiter auch außerhalb des Büros auf HR-Prozesse zugreifen können, digitalisiert RWE diese mittels einer App.
RWE

Ein Großteil der rund 14.000 in Deutschland beschäftigen RWE-Mitarbeiter sind an unterschiedlichen, zum Teil sehr abgelegenen Standorten – von Kraftwerken bis Offshore-Windparks – tätig. Damit haben sie häufig keinen regelmäßigen Zugriff auf die Büroinfrastruktur.

Ein Umstand, der in der Vergangenheit zur Konsequenz hatte, dass die Beschäftigten Dokumente wie Krankmeldungen, Fortbildungsbescheinigungen oder Arbeitsnachweise papierbasiert per Post an die HR-Abteilung schicken oder gar persönlich einreichen mussten. Ein Prozess, der nicht nur für die Mitarbeiter unbequem war. Auch in der HR-Abteilung führte er zu langen Bearbeitungszeiten und einem hohen manuellen Aufwand.

HR-Dokumente per Handy einreichen

Um hier effizienter zu werden, wollte der Konzern die papierbasierten Prozesse durch eine mobile Lösung ablösen. Ziel dabei: Zum einen eine Entlastung der HR-Abteilung, zum anderen sollten den Mitarbeitenden die Möglichkeit gegeben werden, jederzeit und überall auf wichtige Informationen und Services zugreifen zu können.

Diese Zielsetzung vor Augen, entschied sich RWE für den modularen Mobile-App-Baukasten von Insiders Technologies aus Kaiserslautern. Bei dieser Lösung können Mitarbeitende ihre HR-Dokumente direkt per Smartphone abfotografieren und darüber übermitteln. Dabei sei es egal, ob sie im Büro, zu Hause oder an abgelegenen Standorten tätig sind.

Automatisierte Verarbeitung im Backend

Im Backend ordnet die dahinterliegende Plattform OmnIA sowie die damit einhergehenden KI-Technologien, die sich in der Vergangenheit im Konzern bereits bewährt haben, die eingehenden Dokumente automatisch in über 160 Klassen ein. Dabei werden relevante Daten extrahiert und nahtlos in die bestehenden HR-Systeme integriert.

Auf diese Weise würden Bearbeitungszeiten verkürzt, Fehlerquellen minimiert und die HR-Abteilung spürbar entlastet. Damit trage die App nicht nur zur Effizienzsteigerung bei, sondern reduziere auch den Papierverbrauch und senke die administrativen Kosten.

RWE digitalisiert HR-Prozesse mit App​ Weiterlesen »

Der große GenAI-Fiebertraum​

Allgemein

Unschönes Erwachen vorprogrammiert.Jakov Simovic | shutterstock.com Aktuell bekommt man allzu leicht das Gefühl, in einer dualen Realität zu leben. Auch, wenn es um Technologie geht. Auf der einen Seite steht die futuristische KI-Vision, die etwa Google auf seiner Entwicklerkonferenz I/O präsentierte. Knapp zwei Stunden schwärmten die Google-Manager auf der großen Bühne davon, wie der KI-Assistent Gemini künftig noch komplexere Antworten aus dem Internet liefern sowie Einkäufe und Buchungen tätigen soll. Die Botschaft: Die Google-KI durchdringt alles und wird dabei nur immer schneller und besser. In ähnlichem Stil verfuhr auch Microsoft auf seiner Build-Konferenz. Dort war zu hören, dass Copilot demnächst als “Enterprise-Gehirn” fungieren soll, das sogar Verträge selbständig abwickelt. Surreal anmutende Visionen zur KI-Zukunft werden aber auch von OpenAI und allen anderen Marktteilnehmern regelmäßig verbreitet. Schenkt man den GenAI-Unternehmen Glauben, leben wir in einer Ära, in der der lebensverändernde Umbruch durch KI kontinuierlich bevorsteht. Auf der anderen Seite: die Praxis. Dort werden die Verheißungen der großen Tech-Unternehmen zu einer immer größeren Belastung für diejenigen, die noch Wert darauf legen, die Dinge richtig zu machen. Künstliche Intelligenz, reale Gefahr Das eigentliche Problem ist dabei nicht, dass die Technologie vollkommen unnütz ist – im Gegenteil. Aber ohne Zweifel ist Generative AI (GenAI) in seiner aktuellen Form nicht in der Lage, das zu leisten, was Google, Microsoft und Co. ununterbrochen in Aussicht stellen – sowohl wenn es um den privaten als auch den Business-Einsatz geht.   Im Kern bleiben Gemini und andere LLM-basierte Systeme bessere Prediction-Maschinen, die Inhalte auf Grundlage von Mustern erstellen: Sie reihen Zeichen aneinander, die manchmal Sinn ergeben. Oft aber auch Fehler enthalten oder frei erfunden sind. Wenn diese Tools etwas korrekt beantworten, dann ist das in den meisten Fällen dem Zufall geschuldet. Und die Benutzer haben in vielen Fällen wenig Möglichkeiten, das sofort zu erkennen. Von Denkfähigkeit kann also mit Blick auf KI-Tools weiterhin keine Rede sein. Trotzdem verkaufen die großen Tech-Player generative KI als die ultimative Lösung für jeden nur erdenklichen Zweck. Wie gefährlich das ist, zeigt sich immer wieder ganz deutlich:   Der Anwalt von Anthropic musste sich kürzlich vor Gericht entschuldigen, nachdem der KI-Chatbot Claude ihn im Rahmen des Urheberrechtsstreits mit Universal mit halluzinierten Zitaten “unterstützt” hatte. Es ist nur einer von vielen Fällen, in denen KI-Halluzinationen vor Gericht für “Irritationen” gesorgt haben. Der KI-Anbieter Cursor musste sich mit einer Flut von Kundenbeschwerden auseinandersetzen, nachdem sein KI-basierter “Support-Agent” bei der Interaktion mit Kunden nicht existierende Policies erfunden hatte.  Forscher der Carnegie Mellon University haben KI-Agenten in einem Experiment mit einfachen Tasks beauftragt, die denen in einem Softwareunternehmen nachempfunden waren. Die Systeme versagten kläglich – bei genau den Aufgaben, für die sie angeblich konzipiert wurden. Im Bereich der Softwareentwicklung häufen sich die Halluzinationsfälle ebenfalls – zum Beispiel in Form nicht-existenter Pakete. Das führt nicht nur zu zeit- und kostenintensiven Fehlern, sondern unter Umständen auch zu neuen, haarsträubenden Sicherheitslücken.   Das Columbia Journalism Review hat acht verschiedene GenAI-Suchmaschinen getestet. Das Ergebnis: Alle Systeme halluzinierten wild und lieferten in allen möglichen Bereichen falsche oder erfundene Informationen. Die Chicago Sun Times druckte das Werbe-Special eines Drittanbieters, das Empfehlungen zu nicht existenten Büchern enthielt. Die hatte die KI-Instanz erfunden, die der dafür verantwortliche (und jetzt um einige Aufträge ärmere) Freelancer zur Unterstützung herangezogen hatte.       Und das ist nur eine kleine Selektion aus dem großen Beispiel-Pool für KI-Versagen. Bessern dürfte sich die Situation in Zukunft auch eher nicht, wie ein Artikel der New York Times nahelegt. Demnach verstärkt sich „die Tendenz, Lügen und Ungenauigkeiten zu verbreiten“, mit zunehmender Leistungsfähigkeit der KI-Systeme nur noch weiter. Und doch scheinen diese Entwicklungen nur wenige zu beunruhigen. Die GenAI-Vision, die Big Tech verzweifelt verkaufen will, ist eben deutlich attraktiver als die Realität. Ganz besonders für Manager: So kommt die Unternehmensberatung EY in einer Umfrage unter 500 (US-)Führungskräften zum Ergebnis, dass 50 Prozent der Befragten davon ausgehen, dass dieselben KI-Agenten, die oben beschriebene Fails produzieren, in den nächsten zwei Jahren autonom in ihren Unternehmen arbeiten werden – also menschliche Arbeitskräfte ersetzen und ohne Aufsicht tätig sind. Na dann, Prost Mahlzeit. Zeit für GenAI-Reset Sämtliche Tech-Unternehmen, Business-Influencer und Medien, die dem Generative-AI-Hype blindlings folgen, tun gerne so, als seien all diese Dinge kein ernstes Problem. Als “Beweis” liefern sie beeindruckende Demos und Marketing-Fantastereien. Die Realität sieht anders aus: Man kann sich auf den Output, den LLM-basierte Chatbots liefern, einfach nicht verlassen.   Besonders beunruhigend ist dabei das vermeintliche Argument, dass die Fehlerrate der KI-Helfer sich im Laufe der Zeit verbessern würde. Selbst wenn man außer Acht lässt, dass diese Behauptung bereits widerlegt ist: Ein System, das eine Fehlerrate von fünf, zehn oder 20 Prozent aufweist, ist noch ungünstiger als eines, das in 50 Prozent (oder mehr) der Fälle Fehler macht. Letzteres führt immerhin sehr wahrscheinlich dazu, dass den menschlichen Benutzern die Halluzinationen auffallen – und zu der Überzeugung führen, dass dieses System als Informationsquelle unbrauchbar ist. Ersteres hingegen ist wesentlich gefährlicher, weil es die User in falscher Sicherheit wiegt – und diese in der Konsequenz weniger Aufmerksamkeit walten lassen. Um keine Missverständnisse aufkommen zu lassen: Natürlich kann Generative AI nützlich sein – auch im Unternehmensumfeld. Voraussetzung ist aber, dass die Technologie mit Bedacht und realistischen Erwartungen eingesetzt wird. Lassen Sie sich also nicht von den hübsch ausgeschmückten Utopien der Anbieter täuschen und betrachten Sie KI-Tools als das, was sie sind: Engines, die Wörter vorhersagen und für spezifische Szenarien eine gute Arbeitsgrundlage liefern können. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Der große GenAI-Fiebertraum​ Unschönes Erwachen vorprogrammiert.Jakov Simovic | shutterstock.com

Aktuell bekommt man allzu leicht das Gefühl, in einer dualen Realität zu leben. Auch, wenn es um Technologie geht. Auf der einen Seite steht die futuristische KI-Vision, die etwa Google auf seiner Entwicklerkonferenz I/O präsentierte. Knapp zwei Stunden schwärmten die Google-Manager auf der großen Bühne davon, wie der KI-Assistent Gemini künftig noch komplexere Antworten aus dem Internet liefern sowie Einkäufe und Buchungen tätigen soll. Die Botschaft: Die Google-KI durchdringt alles und wird dabei nur immer schneller und besser.

In ähnlichem Stil verfuhr auch Microsoft auf seiner Build-Konferenz. Dort war zu hören, dass Copilot demnächst als “Enterprise-Gehirn” fungieren soll, das sogar Verträge selbständig abwickelt. Surreal anmutende Visionen zur KI-Zukunft werden aber auch von OpenAI und allen anderen Marktteilnehmern regelmäßig verbreitet. Schenkt man den GenAI-Unternehmen Glauben, leben wir in einer Ära, in der der lebensverändernde Umbruch durch KI kontinuierlich bevorsteht.

Auf der anderen Seite: die Praxis. Dort werden die Verheißungen der großen Tech-Unternehmen zu einer immer größeren Belastung für diejenigen, die noch Wert darauf legen, die Dinge richtig zu machen.

Künstliche Intelligenz, reale Gefahr

Das eigentliche Problem ist dabei nicht, dass die Technologie vollkommen unnütz ist – im Gegenteil. Aber ohne Zweifel ist Generative AI (GenAI) in seiner aktuellen Form nicht in der Lage, das zu leisten, was Google, Microsoft und Co. ununterbrochen in Aussicht stellen – sowohl wenn es um den privaten als auch den Business-Einsatz geht.  

Im Kern bleiben Gemini und andere LLM-basierte Systeme bessere Prediction-Maschinen, die Inhalte auf Grundlage von Mustern erstellen: Sie reihen Zeichen aneinander, die manchmal Sinn ergeben. Oft aber auch Fehler enthalten oder frei erfunden sind. Wenn diese Tools etwas korrekt beantworten, dann ist das in den meisten Fällen dem Zufall geschuldet. Und die Benutzer haben in vielen Fällen wenig Möglichkeiten, das sofort zu erkennen. Von Denkfähigkeit kann also mit Blick auf KI-Tools weiterhin keine Rede sein. Trotzdem verkaufen die großen Tech-Player generative KI als die ultimative Lösung für jeden nur erdenklichen Zweck.

Wie gefährlich das ist, zeigt sich immer wieder ganz deutlich:  

Der Anwalt von Anthropic musste sich kürzlich vor Gericht entschuldigen, nachdem der KI-Chatbot Claude ihn im Rahmen des Urheberrechtsstreits mit Universal mit halluzinierten Zitaten “unterstützt” hatte. Es ist nur einer von vielen Fällen, in denen KI-Halluzinationen vor Gericht für “Irritationen” gesorgt haben.

Der KI-Anbieter Cursor musste sich mit einer Flut von Kundenbeschwerden auseinandersetzen, nachdem sein KI-basierter “Support-Agent” bei der Interaktion mit Kunden nicht existierende Policies erfunden hatte. 

Forscher der Carnegie Mellon University haben KI-Agenten in einem Experiment mit einfachen Tasks beauftragt, die denen in einem Softwareunternehmen nachempfunden waren. Die Systeme versagten kläglich – bei genau den Aufgaben, für die sie angeblich konzipiert wurden.

Im Bereich der Softwareentwicklung häufen sich die Halluzinationsfälle ebenfalls – zum Beispiel in Form nicht-existenter Pakete. Das führt nicht nur zu zeit- und kostenintensiven Fehlern, sondern unter Umständen auch zu neuen, haarsträubenden Sicherheitslücken.  

Das Columbia Journalism Review hat acht verschiedene GenAI-Suchmaschinen getestet. Das Ergebnis: Alle Systeme halluzinierten wild und lieferten in allen möglichen Bereichen falsche oder erfundene Informationen.

Die Chicago Sun Times druckte das Werbe-Special eines Drittanbieters, das Empfehlungen zu nicht existenten Büchern enthielt. Die hatte die KI-Instanz erfunden, die der dafür verantwortliche (und jetzt um einige Aufträge ärmere) Freelancer zur Unterstützung herangezogen hatte.      

Und das ist nur eine kleine Selektion aus dem großen Beispiel-Pool für KI-Versagen. Bessern dürfte sich die Situation in Zukunft auch eher nicht, wie ein Artikel der New York Times nahelegt. Demnach verstärkt sich „die Tendenz, Lügen und Ungenauigkeiten zu verbreiten“, mit zunehmender Leistungsfähigkeit der KI-Systeme nur noch weiter.

Und doch scheinen diese Entwicklungen nur wenige zu beunruhigen. Die GenAI-Vision, die Big Tech verzweifelt verkaufen will, ist eben deutlich attraktiver als die Realität. Ganz besonders für Manager: So kommt die Unternehmensberatung EY in einer Umfrage unter 500 (US-)Führungskräften zum Ergebnis, dass 50 Prozent der Befragten davon ausgehen, dass dieselben KI-Agenten, die oben beschriebene Fails produzieren, in den nächsten zwei Jahren autonom in ihren Unternehmen arbeiten werden – also menschliche Arbeitskräfte ersetzen und ohne Aufsicht tätig sind. Na dann, Prost Mahlzeit.

Zeit für GenAI-Reset

Sämtliche Tech-Unternehmen, Business-Influencer und Medien, die dem Generative-AI-Hype blindlings folgen, tun gerne so, als seien all diese Dinge kein ernstes Problem. Als “Beweis” liefern sie beeindruckende Demos und Marketing-Fantastereien. Die Realität sieht anders aus: Man kann sich auf den Output, den LLM-basierte Chatbots liefern, einfach nicht verlassen.  

Besonders beunruhigend ist dabei das vermeintliche Argument, dass die Fehlerrate der KI-Helfer sich im Laufe der Zeit verbessern würde. Selbst wenn man außer Acht lässt, dass diese Behauptung bereits widerlegt ist: Ein System, das eine Fehlerrate von fünf, zehn oder 20 Prozent aufweist, ist noch ungünstiger als eines, das in 50 Prozent (oder mehr) der Fälle Fehler macht. Letzteres führt immerhin sehr wahrscheinlich dazu, dass den menschlichen Benutzern die Halluzinationen auffallen – und zu der Überzeugung führen, dass dieses System als Informationsquelle unbrauchbar ist. Ersteres hingegen ist wesentlich gefährlicher, weil es die User in falscher Sicherheit wiegt – und diese in der Konsequenz weniger Aufmerksamkeit walten lassen.

Um keine Missverständnisse aufkommen zu lassen: Natürlich kann Generative AI nützlich sein – auch im Unternehmensumfeld. Voraussetzung ist aber, dass die Technologie mit Bedacht und realistischen Erwartungen eingesetzt wird. Lassen Sie sich also nicht von den hübsch ausgeschmückten Utopien der Anbieter täuschen und betrachten Sie KI-Tools als das, was sie sind: Engines, die Wörter vorhersagen und für spezifische Szenarien eine gute Arbeitsgrundlage liefern können. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Der große GenAI-Fiebertraum​ Weiterlesen »

How not to sabotage your transformation​

Allgemein

Zum 20. Geburtstag der Cloud werfen viele Fachleute, Unternehmen und Berater einen Blick zurück und rekapitulieren: Konnte das Cloud Computing den hohen Erwartungen am Markt gerecht werden? Wer hat in den vergangenen beiden Dekaden von der Technologie profitiert, wer ist in einer Kostenfalle gelandet? Und vor allem: Welche Lehren lassen sich aus der Entwicklung ziehen. Und, welche Leitplanken gelten derzeit für den Einsatz von Cloud Computing in Unternehmen? Die Nutzung von Cloud Services in den Firmen reicht von „Cloud only“ bis hin zu Nachzüglern, die sich gerade erst mit einer Cloud Adaption befassen. Auch der Umfang der Cloud Nutzung variiert stark und reicht bis zum teuren, wenn auch seltenen Infrastructure-as-a-Service. Sicher ist jedoch, dass sich erst durch Cloud-native Entwicklungen das Potenzial der Cloud voll ausschöpfen lässt. Im Mittelpunkt eines COMPUTERWOCHE-Webcast in Zusammenarbeit mit Hashicorp und AWS stehen konkrete Erfolgsszenarien, in denen eine hohe Wertschöpfung durch neue Technologie und eine stark reduzierte Time-To-Market geschaffen wurde. Was diese Szenarien verbindet, ist ein ganzheitlicher Ansatz, der Menschen, Prozesse und Technologien umfasst, und als Basis für die umfassende Modernisierung des IT-Stacks und der Betriebsverfahren dient. Erfahren Sie im Webcast, warum der Schlüssel für den Erfolg von Cloud-Projekten nicht Migration, sondern Modernisierung ist. Steffen Wagner von HashiCorp zeigt konkrete Wege auf, wie Cloud zum Business Enabler wird. Matthias Patzak von AWS erläutert, wie andere Unternehmen ihre Wettbewerbsfähigkeit durch Cloud Modernisierung gesteigert haben und wie sich ein Scheitern der Transformation verhindern lässt. Der Fachjournalist Dr. Oliver Janzen moderiert den Webcast. Webcast: Cloud ModernisierungErfahren Sie im COMPUTERWOCHE-Webcast anhand konkreter Szenarien von echter Cloud Transformation, wie Sie ihre eigenen Cloud-Projekte zum Erfolg führen.Registrieren Sie sich jetzt 

How not to sabotage your transformation​ Zum 20. Geburtstag der Cloud werfen viele Fachleute, Unternehmen und Berater einen Blick zurück und rekapitulieren: Konnte das Cloud Computing den hohen Erwartungen am Markt gerecht werden? Wer hat in den vergangenen beiden Dekaden von der Technologie profitiert, wer ist in einer Kostenfalle gelandet? Und vor allem: Welche Lehren lassen sich aus der Entwicklung ziehen. Und, welche Leitplanken gelten derzeit für den Einsatz von Cloud Computing in Unternehmen?

Die Nutzung von Cloud Services in den Firmen reicht von „Cloud only“ bis hin zu Nachzüglern, die sich gerade erst mit einer Cloud Adaption befassen. Auch der Umfang der Cloud Nutzung variiert stark und reicht bis zum teuren, wenn auch seltenen Infrastructure-as-a-Service. Sicher ist jedoch, dass sich erst durch Cloud-native Entwicklungen das Potenzial der Cloud voll ausschöpfen lässt.

Im Mittelpunkt eines COMPUTERWOCHE-Webcast in Zusammenarbeit mit Hashicorp und AWS stehen konkrete Erfolgsszenarien, in denen eine hohe Wertschöpfung durch neue Technologie und eine stark reduzierte Time-To-Market geschaffen wurde. Was diese Szenarien verbindet, ist ein ganzheitlicher Ansatz, der Menschen, Prozesse und Technologien umfasst, und als Basis für die umfassende Modernisierung des IT-Stacks und der Betriebsverfahren dient.

Erfahren Sie im Webcast, warum der Schlüssel für den Erfolg von Cloud-Projekten nicht Migration, sondern Modernisierung ist. Steffen Wagner von HashiCorp zeigt konkrete Wege auf, wie Cloud zum Business Enabler wird. Matthias Patzak von AWS erläutert, wie andere Unternehmen ihre Wettbewerbsfähigkeit durch Cloud Modernisierung gesteigert haben und wie sich ein Scheitern der Transformation verhindern lässt. Der Fachjournalist Dr. Oliver Janzen moderiert den Webcast.

Webcast: Cloud ModernisierungErfahren Sie im COMPUTERWOCHE-Webcast anhand konkreter Szenarien von echter Cloud Transformation, wie Sie ihre eigenen Cloud-Projekte zum Erfolg führen.Registrieren Sie sich jetzt

How not to sabotage your transformation​ Weiterlesen »

8 Wege zur JavaScript-Exzellenz​

Allgemein

Wer die Grundlagen von modernem JavaScript aus dem Effeff beherrscht, erzielt schneller bessere Ergebnisse.Gorodenkoff | shutterstock.com JavaScript ist eine unglaublich robuste, vielseitige und leistungsfähige Sprache, die oft schon standardmäßig alles bietet, was Entwickler brauchen. Der Schlüssel zum Erfolg liegt jedoch darin, das gesamte Spektrum der Programmiersprache zu kennen – und zu wissen, welche Aspekte, beziehungsweise Konzepte die eigene Applikation bereichern können.   In diesem Artikel lesen Sie, wie Sie als Developer das Maximum aus den heute in JavaScript verfügbaren Tools und Bibliotheken herausholen. 1. Variablendeklarationen verwenden Variablen sind so alt wie das Programmieren selbst – und stellen auch in modernem JavaScript noch immer ein Schlüsselkonzept dar. In diesem Zusammenhang sollten wir uns zunächst vergegenwärtigen, dass bei JavaScript const den Vorzug vor let erhält – und uns fragen, warum das so ist. Mit const wird eine Konstante deklariert, also eine Variable, die sich nicht verändert. Entsprechend nutzen wir const wann immer es möglich ist, denn seine Unveränderlichkeit (Immutability) macht es weniger komplex. Sie müssen sich bei einer Konstante keine Gedanken darüber machen, wie sie sich verhält oder sich im Programmverlauf verändern könnte. So ermöglicht const, einen Wert zu speichern und überall bedenkenlos zu verwenden. Das Konzept der Immutability ist ein tiefgreifendes, das sich ganz allgemein im Software Design widerspiegelt – insbesondere aber in der funktionalen und reaktiven Programmierung: Hier dient es dazu, die Gesamtstruktur größerer Systeme zu vereinfachen. Ein weiterer wichtiger Aspekt von const ist seine Funktionsweise im Fall von Objekten und Sammlungen. In diesen Fällen verhindert es, dass die Referenz auf die Variable geändert wird (allerdings nicht, dass deren interner Zustand verändert wird). Das offenbart Wichtiges über die interne Struktur von JavaScript: Unter der Haube sind Objekt- und Sammlungsvariablen Pointer – sie belegen also Speicherplatz. Wenn Sie sich dazu entscheiden, const zu verwenden, können Sie das nicht ändern. Natürlich gibt es auch Fälle, in denen wir eine Variable benötigen, die wirklich eine Variable ist. In diesem Fall kommt let zum Zug – obwohl JavaScript auch über das Keyword var verfügt. Den Unterschied zwischen let und var zu kennen, kann Ihnen dabei helfen, Variable Scoping zu durchdringen, was wiederum für fortgeschrittenere Konzepte (dazu gleich mehr) von Bedeutung ist. Wird let deklariert, beschränkt das die Variable auf den Block, in dem sie deklariert ist, während var sie in den übergeordneten Geltungsbereich „hochzieht“. Dadurch ist var besser sichtbar, aber auch fehleranfälliger. Es empfiehlt sich deshalb mit Blick auf Ihren Code, var durch let zu ersetzen. 2. Collections und Operators verstehen Funktionale Operatoren zählen zu den leistungsstärksten Funktionen von modernem JavaScript: Mit map, flatMap, reduce oder forEach wird es möglich, Repetitions über Collections mit einer übersichtlichen, selbsterklärenden Syntax auszuführen. Diese funktionalen Programmierkonstrukte machen Code besser, respektive direkt lesbar. Wenn Sie ein Programm schreiben, versuchen Sie in der Regel, eine bestimmte Business-Funktion umzusetzen – beispielsweise Rückmeldung von einer API zu erhalten und diese auf Grundlage von Benutzereingaben zu verarbeiten. Für diesen Task benötigen Sie einen Loop. Dieser ist aber nur ein notwendiger Teil der Logik und sollte nicht zu viel Platz im Programm einnehmen. Funktionale Operatoren lassen sich nutzen, um den Loop zu beschreiben, ohne die übergeordnete Bedeutung zu verschleiern. Ein Beispiel: const albums = [ { artist: “Keith Jarrett”, album: “The Köln Concert”, genre: “Jazz” }, { artist: “J.S. Bach”, album: “Brandenburg Concertos”, genre: “Classical” }, { artist: “The Beatles”, album: “Abbey Road”, genre: “Rock” }, { artist: “Beastie Boys”, album: “Ill Communication”, genre: “Hip Hop”}]; genreInput = “rock”; console.log( albums.filter(album => album.genre.toLowerCase() === genreInput.toLowerCase()) ) Allgemein soll der obenstehende Code bewirken, eine Liste von Musikalben nach Genre zu filtern. Die integrierte Methode filter für das Array albums gibt eine neue Sammlung zurück, auf die die übergebene Funktion angewendet wurde. Die Looping-Logik wurde auf das Wesentliche reduziert, um den Sinn des Codes besser hervorzuheben. An dieser Stelle ist jedoch anzumerken, dass traditionelle Loops nach wie vor eine wichtige Rolle spielen. Insbesondere, wenn diese sehr komplex ausfallen und mehrere Iteratoren beinhalten oder es um enorm große Loop Bodies geht. 3. Promises nutzen Asynchron zu programmieren ist von Natur aus schwierig, weil dabei per Definition mehrere Aktionen gleichzeitig ablaufen. Das hat zur Folge, sich mit der sich mit der Verflechtung von Events befassen zu müssen. Glücklicherweise verfügt JavaScript über starke Abstraktionen für diese Konzepte. Promises sind die erste Verteidigungslinie, wenn es darum geht, asynchrone Komplexitäten zu managen – und die Keywords async/await bieten eine weitere, zusätzliche Ebene, die es ermöglicht, asynchrone Operationen in einer synchron aussehenden Syntax zu schreiben. Als Softwareentwickler nutzen Sie Promises oder asynchrone Funktionen in Bibliotheken. Die allgegenwärtige fetch-Funktion, die in den Browser (und auch in serverseitige Plattformen wie Node) integriert ist, ist dafür ein gutes Beispiel: async function getStarWarsPerson(personId) { const response = await fetch(`https://swapi.dev/api/people/${personId}/`); if (response.ok) { // … } Die von uns definierte Funktion enthält async, während die verwendete Funktion (fetch) mit await modifiziert wird. Das sieht aus wie eine normale Zeile mit synchronem Code, ermöglicht jedoch, dass fetch zu einem anderen Zeitpunkt ausgeführt wird – gefolgt von was auch immer als Nächstes kommt. Diese Sequenz „befreit“ den Event Loop, der sich um andere Dinge kümmern kann, während fetch läuft.   Promises sind nicht allzu schwer zu verstehen, aber sie führen Sie tiefer in die Semantik tatsächlicher, asynchroner Operationen ein. Die Idee: Ein Promise-Objekt repräsentiert eine asynchrone Operation, seine resolve– und reject-Methoden das Ergebnis. Der Client-Code verarbeitet die Resultate schließlich mit den Callback-Methoden then() und catch(). Zu beachten ist dabei, dass JavaScript nicht wirklich „concurrent“ ist: Es verwendet asynchrone Konstrukte, um Parallelität zu unterstützen, aber es gibt nur einen Event Loop, der einen einzelnen Betriebssystem-Thread repräsentiert. 4. Shortcuts kennen Die leistungsstarken Shortcuts von JavaScript können die Developer Experience entscheidend optimieren. Die folgenden fünf Operatoren reduzieren einige der gängigsten und umständlichsten Aspekte der Programmierarbeit mit JavaScript auf einige wenige Tastenanschläge.   Spread Mit dem Spread-Operator können Sie auf einzelne Elemente eines Arrays oder Objekts verweisen: const originalArray = [1, 2, 3]; const copiedArray = […originalArray]; copiedArray.push(‘foo’); // [1,2,3,’foo’] Das funktioniert auch für Objekte: const person = { name: “Alice”, age: 30 }; const address = { city: “New York”, country: “USA” }; const fullInfo = { …person, …address }; Destruct Destructing bietet Ihnen eine prägnante Möglichkeit, die Elemente eines Arrays oder Objekts in ihre Bestandteile zu „zerlegen“: const colors = [“red”, “green”, “blue”]; const [firstColor] = colors; firstColor === “red”; const person = { name: “Alice”, age: 30, city: “London” }; const { city } = person; city === “London”; Diese elegante Syntax kommt besonders häufig zum Einsatz, um Module zu importieren: const express = require(‘express’); const { json, urlencoded } = require(‘express’); Destructing unterstützt darüber hinaus auch benannte Parameter und Standardwerte. Optional Chaining Die alte Praxis manueller Null-Checks wird mit Optional Chaining durch einen einzigen, übersichtlichen Operator ersetzt: const street = user?.profile?.address?.street; Ist einer der Roots und Branches in dieser Dot-Access-Chain null, wird das gesamte Konstrukt zu Null aufgelöst (anstatt eine Nullpointer Exception auszulösen). Logical Assignment Logische Zuweisungen gibt es in den Nullish-Varianten and, or sowie strict. Die letztgenannte Variante: let myString = null; myString ??= “Foo”; myString ??= “Bar”; myString === “Foo”; Hierbei ist zu beachten, dass sich myString nur ändert, wenn es tatsächlich null (oder undefiniert) ist. Nullish Coalescence Mit Nullish Coalescence können Sie ganz einfach zwischen einer Variablen, die möglicherweise null ist, und einem Standardwert wählen: let productName = null; let displayName = productName ?? “Unknown Product”; productName === “Unknown Product”; 5. Scopes und Closures nicht fürchten Mit Blick auf die JavaScript-Grundlagen sind Scopes und Closures bedeutende Konzepte. Der Begriff „Scope“ ist davon abgesehen in allen Programmiersprachen zentral. Er bezieht sich einfach auf den Sichtbarkeitsbereich einer Variablen. Es geht also um die Frage(n): Wo kann eine Variable genutzt werden, sobald sie deklariert wurde – und wo ist sie sichtbar? Closure bezeichnet hingegen die Art und Weise, wie der Geltungsbereich einer Variablen unter besonderen Umständen funktioniert. Wird ein neuer Funktions-Scope deklariert, werden die Variablen im umgebenden Kontext für diesen verfügbar gemacht. Im Grunde also ein simples Konzept, dessen Namensgebug darauf beruht, dass der umgebende Scope den inneren „umschließt“. Closures haben weitreichende Auswirkungen: Sie können sie verwenden, um Variablen zu definieren, die für den größeren Kontext von Bedeutung sind – und dann Funktionsblöcke definieren, die auf diese Variablen angewendet werden (wodurch Ihre Logik stark eingeschränkt oder gekapselt wird). Das Konzept in Pseudocode: outer context variable x function context do stuff with x x now reflects changes The same idea in JS: function outerFunction() { let x = 10; function innerFunction() { x = 20; } innerFunction(); console.log(x); // Outputs 20 } outerFunction(); In diesem Beispiel ist innerFunction() eine Closure: Sie greift auf die Variable über ihren übergeordneten Bereich zu (auch als lexikalischer Scope bezeichnet). Die Closure hat also Zugriff auf die Variablen des Scops, indem sie deklariert wird – nicht in dem, in dem sie gecallt wird. Wie bereits erwähnt, ist Unveränderlichkeit ein Grundsatz der funktionalen Programmierung. Für ein sauberes Design ist es also zu vermeiden, Variablen zu ändern. In unserem Beispiel verstößt die Änderung von x gegen diese Richtlinie. Der Zugriff auf diese Variable ist jedoch eine wesentliche Funktion. Diese Art und Weise, Closures einzusetzen, ist bei funktionalen Collection-Operatoren wie map und reduce noch wichtiger. Sie bieten eine saubere Syntax, um Aufgaben auszuführen und haben außerdem Zugriff auf den lexikalischen Scope, in dem sie deklariert sind. 6. Fehler behandeln Error Handling wird uns als Programmierer wohl für den Rest unserer Tage begleiten. Zum Glück ist die Fehlerbehandlung bei modernem JavaScript inzwischen dank zahlreicher Optimierungen relativ ausgereift. Es gibt zwei grundlegende Arten von Fehlern: normale, synchrone Codefehler und asynchrone Ereignisfehler. Fehlerobjekte enthalten Fehlermeldungen und Ursachenobjekte sowie Stacktraces, also Auszüge aus dem Call Stack zum Zeitpunkt des Fehlers. Der Hauptmechanismus für normale Fehler ist der gute alte try-catch-finally-Block und sein Ursprung, das Schlüsselwort throw. Im Fall von asynchronen Fehlern wird es etwas kniffliger: Zwar ist die Syntax mit catch-Callbacks und reject-Aufrufen für Promises sowie Catch-Blöcken für asynchrone Funktionen nicht allzu komplex. Diese asynchronen Aufrufe gilt es jedoch im Auge zu behalten und sicherzustellen, dass sämtliche Fehler behandelt werden. 7. Programmierstil richtig wählen Kluge JavaScript-Entwickler sind offen für verschiedene Programmierparadigmen. Schließlich unterstützt JavaScript sowohl objektorientierte als auch funktionale, imperative und reaktive Programmierung. Es gibt keinen (vernünftigen) Grund, diese Möglichkeiten nicht zu nutzen. Sie können Ihr Programm entweder um einen dieser Stile herum aufbauen oder (je nach Use Case) auch mehrere verschiedene miteinander vermengen. Das ist typisch für JavaScript: Es gibt mehr als einen Weg zum Ziel. 8. KI-Unterstützung abwägen KI-Programmierassistenten gibt es noch nicht allzu lange – und doch sind sie als Unterstützungsleistung für viele Entwickler fast nicht mehr wegzudenken. Allerdings gilt das auch für moderne IDEs. Und auch wenn man denken könnte, dass kein Dev ohne VS Code, IntelliJ oder Eclipse auskommt, sieht die Realität mancherorts anders aus. Es gibt nämlich auch Entwickler, die die Posix-Befehlszeile zusammen mit Vim oder Emacs so einsetzen, dass eine visuelle IDE mit Maus im Vergleich dazu eher klobig wirkt. Ebenso wird es weiterhin einige Profis geben, die ohne KI effektiver programmieren. Das liegt allerdings im Wesentlichen daran, dass sie die Grundlagen perfekt beherrschen und selbst in komplexen Systemen direkt erkennen, wo Optimierungspotenzial besteht. Viele andere werden KI-basierte Coding-Tools in einem ähnlichen Ausmaß nutzen wie IDEs – und damit (hoffentlich) ihr Grundlagenwissen (nicht nur wenn es um JavaScript geht) weiter ausbauen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

8 Wege zur JavaScript-Exzellenz​ Wer die Grundlagen von modernem JavaScript aus dem Effeff beherrscht, erzielt schneller bessere Ergebnisse.Gorodenkoff | shutterstock.com

JavaScript ist eine unglaublich robuste, vielseitige und leistungsfähige Sprache, die oft schon standardmäßig alles bietet, was Entwickler brauchen. Der Schlüssel zum Erfolg liegt jedoch darin, das gesamte Spektrum der Programmiersprache zu kennen – und zu wissen, welche Aspekte, beziehungsweise Konzepte die eigene Applikation bereichern können.  

In diesem Artikel lesen Sie, wie Sie als Developer das Maximum aus den heute in JavaScript verfügbaren Tools und Bibliotheken herausholen.

1. Variablendeklarationen verwenden

Variablen sind so alt wie das Programmieren selbst – und stellen auch in modernem JavaScript noch immer ein Schlüsselkonzept dar. In diesem Zusammenhang sollten wir uns zunächst vergegenwärtigen, dass bei JavaScript const den Vorzug vor let erhält – und uns fragen, warum das so ist.

Mit const wird eine Konstante deklariert, also eine Variable, die sich nicht verändert. Entsprechend nutzen wir const wann immer es möglich ist, denn seine Unveränderlichkeit (Immutability) macht es weniger komplex. Sie müssen sich bei einer Konstante keine Gedanken darüber machen, wie sie sich verhält oder sich im Programmverlauf verändern könnte. So ermöglicht const, einen Wert zu speichern und überall bedenkenlos zu verwenden. Das Konzept der Immutability ist ein tiefgreifendes, das sich ganz allgemein im Software Design widerspiegelt – insbesondere aber in der funktionalen und reaktiven Programmierung: Hier dient es dazu, die Gesamtstruktur größerer Systeme zu vereinfachen.

Ein weiterer wichtiger Aspekt von const ist seine Funktionsweise im Fall von Objekten und Sammlungen. In diesen Fällen verhindert es, dass die Referenz auf die Variable geändert wird (allerdings nicht, dass deren interner Zustand verändert wird). Das offenbart Wichtiges über die interne Struktur von JavaScript: Unter der Haube sind Objekt- und Sammlungsvariablen Pointer – sie belegen also Speicherplatz. Wenn Sie sich dazu entscheiden, const zu verwenden, können Sie das nicht ändern.

Natürlich gibt es auch Fälle, in denen wir eine Variable benötigen, die wirklich eine Variable ist. In diesem Fall kommt let zum Zug – obwohl JavaScript auch über das Keyword var verfügt. Den Unterschied zwischen let und var zu kennen, kann Ihnen dabei helfen, Variable Scoping zu durchdringen, was wiederum für fortgeschrittenere Konzepte (dazu gleich mehr) von Bedeutung ist. Wird let deklariert, beschränkt das die Variable auf den Block, in dem sie deklariert ist, während var sie in den übergeordneten Geltungsbereich „hochzieht“. Dadurch ist var besser sichtbar, aber auch fehleranfälliger. Es empfiehlt sich deshalb mit Blick auf Ihren Code, var durch let zu ersetzen.

2. Collections und Operators verstehen

Funktionale Operatoren zählen zu den leistungsstärksten Funktionen von modernem JavaScript: Mit map, flatMap, reduce oder forEach wird es möglich, Repetitions über Collections mit einer übersichtlichen, selbsterklärenden Syntax auszuführen. Diese funktionalen Programmierkonstrukte machen Code besser, respektive direkt lesbar.

Wenn Sie ein Programm schreiben, versuchen Sie in der Regel, eine bestimmte Business-Funktion umzusetzen – beispielsweise Rückmeldung von einer API zu erhalten und diese auf Grundlage von Benutzereingaben zu verarbeiten. Für diesen Task benötigen Sie einen Loop. Dieser ist aber nur ein notwendiger Teil der Logik und sollte nicht zu viel Platz im Programm einnehmen. Funktionale Operatoren lassen sich nutzen, um den Loop zu beschreiben, ohne die übergeordnete Bedeutung zu verschleiern. Ein Beispiel:

const albums = [
{ artist: “Keith Jarrett”, album: “The Köln Concert”, genre: “Jazz” },
{ artist: “J.S. Bach”, album: “Brandenburg Concertos”, genre: “Classical” },
{ artist: “The Beatles”, album: “Abbey Road”, genre: “Rock” },
{ artist: “Beastie Boys”, album: “Ill Communication”, genre: “Hip Hop”}];

genreInput = “rock”;

console.log(
albums.filter(album => album.genre.toLowerCase() === genreInput.toLowerCase())
)

Allgemein soll der obenstehende Code bewirken, eine Liste von Musikalben nach Genre zu filtern. Die integrierte Methode filter für das Array albums gibt eine neue Sammlung zurück, auf die die übergebene Funktion angewendet wurde. Die Looping-Logik wurde auf das Wesentliche reduziert, um den Sinn des Codes besser hervorzuheben. An dieser Stelle ist jedoch anzumerken, dass traditionelle Loops nach wie vor eine wichtige Rolle spielen. Insbesondere, wenn diese sehr komplex ausfallen und mehrere Iteratoren beinhalten oder es um enorm große Loop Bodies geht.

3. Promises nutzen

Asynchron zu programmieren ist von Natur aus schwierig, weil dabei per Definition mehrere Aktionen gleichzeitig ablaufen. Das hat zur Folge, sich mit der sich mit der Verflechtung von Events befassen zu müssen. Glücklicherweise verfügt JavaScript über starke Abstraktionen für diese Konzepte. Promises sind die erste Verteidigungslinie, wenn es darum geht, asynchrone Komplexitäten zu managen – und die Keywords async/await bieten eine weitere, zusätzliche Ebene, die es ermöglicht, asynchrone Operationen in einer synchron aussehenden Syntax zu schreiben.

Als Softwareentwickler nutzen Sie Promises oder asynchrone Funktionen in Bibliotheken. Die allgegenwärtige fetch-Funktion, die in den Browser (und auch in serverseitige Plattformen wie Node) integriert ist, ist dafür ein gutes Beispiel:

async function getStarWarsPerson(personId) {
const response = await fetch(`https://swapi.dev/api/people/${personId}/`);
if (response.ok) {
// …
}

Die von uns definierte Funktion enthält async, während die verwendete Funktion (fetch) mit await modifiziert wird. Das sieht aus wie eine normale Zeile mit synchronem Code, ermöglicht jedoch, dass fetch zu einem anderen Zeitpunkt ausgeführt wird – gefolgt von was auch immer als Nächstes kommt. Diese Sequenz „befreit“ den Event Loop, der sich um andere Dinge kümmern kann, während fetch läuft.  

Promises sind nicht allzu schwer zu verstehen, aber sie führen Sie tiefer in die Semantik tatsächlicher, asynchroner Operationen ein. Die Idee: Ein Promise-Objekt repräsentiert eine asynchrone Operation, seine resolve– und reject-Methoden das Ergebnis. Der Client-Code verarbeitet die Resultate schließlich mit den Callback-Methoden then() und catch(). Zu beachten ist dabei, dass JavaScript nicht wirklich „concurrent“ ist: Es verwendet asynchrone Konstrukte, um Parallelität zu unterstützen, aber es gibt nur einen Event Loop, der einen einzelnen Betriebssystem-Thread repräsentiert.

4. Shortcuts kennen

Die leistungsstarken Shortcuts von JavaScript können die Developer Experience entscheidend optimieren. Die folgenden fünf Operatoren reduzieren einige der gängigsten und umständlichsten Aspekte der Programmierarbeit mit JavaScript auf einige wenige Tastenanschläge.  

Spread

Mit dem Spread-Operator können Sie auf einzelne Elemente eines Arrays oder Objekts verweisen:

const originalArray = [1, 2, 3];
const copiedArray = […originalArray];
copiedArray.push(‘foo’); // [1,2,3,’foo’]

Das funktioniert auch für Objekte:

const person = { name: “Alice”, age: 30 };
const address = { city: “New York”, country: “USA” };
const fullInfo = { …person, …address };

Destruct

Destructing bietet Ihnen eine prägnante Möglichkeit, die Elemente eines Arrays oder Objekts in ihre Bestandteile zu „zerlegen“:

const colors = [“red”, “green”, “blue”];
const [firstColor] = colors;
firstColor === “red”;

const person = { name: “Alice”, age: 30, city: “London” };
const { city } = person;
city === “London”;

Diese elegante Syntax kommt besonders häufig zum Einsatz, um Module zu importieren:

const express = require(‘express’);
const { json, urlencoded } = require(‘express’);

Destructing unterstützt darüber hinaus auch benannte Parameter und Standardwerte.

Optional Chaining

Die alte Praxis manueller Null-Checks wird mit Optional Chaining durch einen einzigen, übersichtlichen Operator ersetzt:

const street = user?.profile?.address?.street;

Ist einer der Roots und Branches in dieser Dot-Access-Chain null, wird das gesamte Konstrukt zu Null aufgelöst (anstatt eine Nullpointer Exception auszulösen).

Logical Assignment

Logische Zuweisungen gibt es in den Nullish-Varianten and, or sowie strict. Die letztgenannte Variante:

let myString = null;
myString ??= “Foo”;
myString ??= “Bar”;
myString === “Foo”;

Hierbei ist zu beachten, dass sich myString nur ändert, wenn es tatsächlich null (oder undefiniert) ist.

Nullish Coalescence

Mit Nullish Coalescence können Sie ganz einfach zwischen einer Variablen, die möglicherweise null ist, und einem Standardwert wählen:

let productName = null;
let displayName = productName ?? “Unknown Product”;
productName === “Unknown Product”;

5. Scopes und Closures nicht fürchten

Mit Blick auf die JavaScript-Grundlagen sind Scopes und Closures bedeutende Konzepte. Der Begriff „Scope“ ist davon abgesehen in allen Programmiersprachen zentral. Er bezieht sich einfach auf den Sichtbarkeitsbereich einer Variablen. Es geht also um die Frage(n): Wo kann eine Variable genutzt werden, sobald sie deklariert wurde – und wo ist sie sichtbar?

Closure bezeichnet hingegen die Art und Weise, wie der Geltungsbereich einer Variablen unter besonderen Umständen funktioniert. Wird ein neuer Funktions-Scope deklariert, werden die Variablen im umgebenden Kontext für diesen verfügbar gemacht. Im Grunde also ein simples Konzept, dessen Namensgebug darauf beruht, dass der umgebende Scope den inneren „umschließt“.

Closures haben weitreichende Auswirkungen: Sie können sie verwenden, um Variablen zu definieren, die für den größeren Kontext von Bedeutung sind – und dann Funktionsblöcke definieren, die auf diese Variablen angewendet werden (wodurch Ihre Logik stark eingeschränkt oder gekapselt wird). Das Konzept in Pseudocode:

outer context
variable x
function context
do stuff with x
x now reflects changes

The same idea in JS:

function outerFunction() {
let x = 10;

function innerFunction() {
x = 20;
}

innerFunction();
console.log(x); // Outputs 20
}

outerFunction();

In diesem Beispiel ist innerFunction() eine Closure: Sie greift auf die Variable über ihren übergeordneten Bereich zu (auch als lexikalischer Scope bezeichnet). Die Closure hat also Zugriff auf die Variablen des Scops, indem sie deklariert wird – nicht in dem, in dem sie gecallt wird.

Wie bereits erwähnt, ist Unveränderlichkeit ein Grundsatz der funktionalen Programmierung. Für ein sauberes Design ist es also zu vermeiden, Variablen zu ändern. In unserem Beispiel verstößt die Änderung von x gegen diese Richtlinie. Der Zugriff auf diese Variable ist jedoch eine wesentliche Funktion.

Diese Art und Weise, Closures einzusetzen, ist bei funktionalen Collection-Operatoren wie map und reduce noch wichtiger. Sie bieten eine saubere Syntax, um Aufgaben auszuführen und haben außerdem Zugriff auf den lexikalischen Scope, in dem sie deklariert sind.

6. Fehler behandeln

Error Handling wird uns als Programmierer wohl für den Rest unserer Tage begleiten. Zum Glück ist die Fehlerbehandlung bei modernem JavaScript inzwischen dank zahlreicher Optimierungen relativ ausgereift. Es gibt zwei grundlegende Arten von Fehlern:

normale, synchrone Codefehler und

asynchrone Ereignisfehler.

Fehlerobjekte enthalten Fehlermeldungen und Ursachenobjekte sowie Stacktraces, also Auszüge aus dem Call Stack zum Zeitpunkt des Fehlers.

Der Hauptmechanismus für normale Fehler ist der gute alte try-catch-finally-Block und sein Ursprung, das Schlüsselwort throw. Im Fall von asynchronen Fehlern wird es etwas kniffliger: Zwar ist die Syntax mit catch-Callbacks und reject-Aufrufen für Promises sowie Catch-Blöcken für asynchrone Funktionen nicht allzu komplex. Diese asynchronen Aufrufe gilt es jedoch im Auge zu behalten und sicherzustellen, dass sämtliche Fehler behandelt werden.

7. Programmierstil richtig wählen

Kluge JavaScript-Entwickler sind offen für verschiedene Programmierparadigmen. Schließlich unterstützt JavaScript sowohl objektorientierte als auch funktionale, imperative und reaktive Programmierung.

Es gibt keinen (vernünftigen) Grund, diese Möglichkeiten nicht zu nutzen. Sie können Ihr Programm entweder um einen dieser Stile herum aufbauen oder (je nach Use Case) auch mehrere verschiedene miteinander vermengen. Das ist typisch für JavaScript: Es gibt mehr als einen Weg zum Ziel.

8. KI-Unterstützung abwägen

KI-Programmierassistenten gibt es noch nicht allzu lange – und doch sind sie als Unterstützungsleistung für viele Entwickler fast nicht mehr wegzudenken. Allerdings gilt das auch für moderne IDEs. Und auch wenn man denken könnte, dass kein Dev ohne VS Code, IntelliJ oder Eclipse auskommt, sieht die Realität mancherorts anders aus. Es gibt nämlich auch Entwickler, die die Posix-Befehlszeile zusammen mit Vim oder Emacs so einsetzen, dass eine visuelle IDE mit Maus im Vergleich dazu eher klobig wirkt.

Ebenso wird es weiterhin einige Profis geben, die ohne KI effektiver programmieren. Das liegt allerdings im Wesentlichen daran, dass sie die Grundlagen perfekt beherrschen und selbst in komplexen Systemen direkt erkennen, wo Optimierungspotenzial besteht. Viele andere werden KI-basierte Coding-Tools in einem ähnlichen Ausmaß nutzen wie IDEs – und damit (hoffentlich) ihr Grundlagenwissen (nicht nur wenn es um JavaScript geht) weiter ausbauen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

8 Wege zur JavaScript-Exzellenz​ Weiterlesen »

Automatisierung – warum Tools allein nicht reichen​

Allgemein

Prozesse einheitlich Ende-zu-Ende denken – so lassen sich Mehrwerte durch Automatisierung heben.SuPatMaN – Shutterstock Der Wunsch zur Automatisierung ist allgegenwärtig. Kaum tauchen Aufgaben auf, die es zu erledigen gilt, sucht der Mensch nach Wegen, wie sich diese ohne sein Zutun automatisiert abarbeiten lassen.  Und so mangelt es auch in Unternehmen nicht an Ideen, wie sich Arbeit automatisieren lässt – vom Buchhaltungskollegen, der seine Excel-Tabellen bis zur Unkenntlichkeit verformelt bis zum IT-Verantwortlichen, der hunderte Zugriffsanfragen mit einem Self-Service-Portal mit Genehmigungsworkflow löst.  Spannend wird es allerdings, wenn es darum geht, das große Ganze zu betrachten – doch das passiert noch eher selten, wie Leon Strauch, Principal Practice Strategist bei Camunda, beim COMPUTERWOCHE-Roundtable zum Thema “Automatisierung” feststellt: “Viele Organisationen denken immer noch sehr lokal und versuchen lediglich, einzelne Teilstrecken zu automatisieren.” Damit ließen sich zwar auch Effizienzen heben. “Aber man trifft schnell auf eine harte Decke und baut sogar technische Schulden auf, wenn man Prozesse nicht ganzheitlich von Ende-zu-Ende denkt und entsprechend orchestriert”, ergänzt Strauch. Informationen zu den Partner-Paketen der Studie “Automatisierung 2025” Automatisierungsbegeisterte in den Fachabteilungen fördern Doch selbst die beste Strategie bleibt wirkungslos, wenn niemand sie mit Leben füllt. Wer Prozesse automatisieren will, braucht mehr als Tools – nämlich Menschen, die für das Thema brennen. “Es gibt so viele Beispiele von Automatisierungsprojekten, die vom Management angeordnet werden, dann aber im Sande verlaufen, weil es an der Basis niemanden gibt, der das Thema wirklich aufgreift”, berichtet Tobias Schicht, Partner bei Leadvise Reply, aus der Praxis. Deshalb sei es wichtig, Awareness zu schaffen und aufzuzeigen, dass Automatisierung keine Bedrohung für die Jobs der Mitarbeitenden darstelle, sondern eine Chance sei. Es brauche konkrete Personen im Unternehmen, die die Automatisierung für sich annehmen und vorantreiben. Beim geneigten IT-Verantwortlichen lässt das unter Umständen sofort die Alarmglocken schrillen: Schatten-IT! Christian Heinrichs, Sen. Director Solution Engineering Continental Europe bei UiPath, sieht das jedoch etwas entspannter: “Unternehmen sollten eher fördern, dass einzelne Mitarbeiter sich ihre eigenen Lösungen bauen”, erklärt er. Wenn Kollegen aus den Fachabteilungen unabhängig vom jeweiligen Tool sich in ihren jeweiligen Prozessstücken mit Automatisierungen beschäftigen, sei das bereits ein wertvoller Anfang. Natürlich müssten solche Ansätze langfristig auf ein strategischeres Niveau gehoben werden, ergänzt Heinrichs. “Doch der Blick für die kleinen Details ist extrem wertvoll.” IT und Business gemeinsam denken Doch damit diese Projekte im kleinen Wirkung entfalten können, braucht es Struktur, wie die Expertenrunde unisono betont: Weder Fachbereiche noch IT können die Automatisierung allein stemmen.  Denn nicht jeder in den Business-Abteilungen hat ein umfassendes Bild bestehender Prozesse und wie diese in andere Bereiche hineinragen. Und während ein enger Austausch zwischen CIO und COO wünschenswert wäre, lässt sich auch mit einfachen Maßnahmen bereits große Wirkung erzielen, wie Patrick Arnold, Regional Solution Lead Europe von Randstad Digital hervorhebt: “Ein ganz pragmatisches Vorgehen kann schon sein, wenn ein paar Process Engineers einfach für einige Tage in die Fachabteilungen gehen”, erklärt Arnold. Dies hätte den Vorteil, dass sich alle noch in ihren eigenen Teams verwurzelt fühlen, erlaube es aber sowohl Fach- als auch IT-Seite, schnell echte Potenziale zu identifizieren. Auch Fiona Schewski, Partnerin Technology Consulting bei EY, plädiert für eine engere Zusammenarbeit: “Immer mehr Unternehmen wollen Digitalanbieter werden. Das gelingt langfristig nur, wenn sie die strikte Trennung zwischen Business und IT aufheben.” Schewski rät dazu, sowohl die Fachbereiche als auch die IT mit einem grundlegenden Automatisierungsbaukasten auszustatten und über Schulungsreihen, Wissensmanagement & Co. die nötigen Fähigkeiten aufzubauen. Studie “Automatisierung”: Sie können sich noch beteiligen!Zum Thema Automatisierung führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). KI ergänzt klassische Automatisierung, ersetzt sie aber nicht Auch, wenn nicht sogar gerade im Bereich der Automatisierung spielt natürlich das Thema künstliche Intelligenz eine wichtige Rolle im aktuellen Diskurs. Wird Automatisierung an sich obsolet, da KI-Agents bald ganze Prozesse alleine übernehmen können? Michael Eckert, Distinguished Technical Architect bei Salesforce, dämpft indes die Erwartungen, auch wenn er die Fortschritte hervorhebt, die im Bereich Automatisierung mit KI in den letzten Jahren gemacht wurden. “Dass gesamte Produktionsketten nur durch KI-Agents laufen, ist noch Zukunftsmusik”, stellt Eckert fest. Zwar können diese mittlerweile sehr viel, doch gerade bei der Übergabe zwischen den Systemen gäbe es heute noch große Herausforderungen, weil Daten zunächst harmonisiert und verfügbar gemacht werden müssen. Auch Eckert betont, wie wichtig die Einbindung der Fachbereiche für die Optimierung von KI-Agenten sei – diese erforderten viel Testing, das in der Funktionalität häufig nur durch die Business-Seite übernommen werden könne. Leadvise-Reply-Manager Schicht stimmt zu: “Künstliche Intelligenz ersetzt nicht die klassische Automatisierung – sie ergänzt sie.” Viele Systemlandschaften seien noch stark fragmentiert oder bestünden aus verschiedenen Monolithen. An diesen “Bruchstellen” brauche es nach wie vor Vehikel wie APIs oder Robotic Process Automation (RPA). Zumal für viele Unternehmen noch gar nicht scharf definiert ist, was der Einsatz von KI denn überhaupt bedeutet, wie Arne Melcher, Principal Technical Manager Automation Software bei IBM, beschreibt – Generative KI, Foundation Models und Large Language Models (LLM) markieren zwar allesamt große technologische Fortschritte. “Aber der Projekterfolg steigt immer dann spürbar, wenn Mitarbeitende verstehen, wie Daten angereichert und Modelle trainiert werden müssen”, erklärt Melcher. Dabei sei Kontrolle und die richtige Orchestrierung entscheidend. “Der Wunsch, die Kontrolle zu behalten, ist kein Misstrauen gegenüber der Technologie, sondern eine notwendige Voraussetzung, um zu entscheiden, wie wir technologisch vorangehen.” Einen neuen Aspekt, den klassische Automatisierung aufgrund ihres statischen und gewissermaßen “hardgecodeten” Charakters so nicht abbilden kann, bringt KI jedoch jetzt schon ein: “Wenn in diesen statischen Systemen und Schnittstellen Veränderungen auftreten, kann das zu signifikanten Unterbrechungen führen”, wirft Christian Heinrichs in die Runde. “Mit KI lassen sich jedoch ‘Selbstheilungsfunktionen’ umsetzen, die auf solche Veränderungen reagieren und so ein intelligentes Mitwachsen der Automatisierungen möglich machen.” Transparenz als Basis für die Orchestrierung Doch wie soll eine nachhaltige Orchestrierung überhaupt gelingen in einem Zeitalter, in dem sich Prozesse und Bedingungen ständig ändern? Dazu sollten die Verantwortlichen in den Unternehmen an ihrer Geisteshaltung arbeiten: manches muss man einfach aushalten.  “Es ist ein Trugschluss, dass man immer auf jede Veränderung sofort reagieren muss”, erklärt Schewski von EY. Denn wenn ein Prozess erstmal orchestriert ist, befänden sich Unternehmen bereits in einem konstanten Anpassungsprozess. Wichtiger sei es daher, zu verstehen, wie die einzelnen Systeme und Schnittstellen zusammenhängen, um zu erkennen, welche Bereiche tatsächlich beeinflusst werden. Zu Beginn steht daher erstmal eine Art der Inventur, betont IBM-Manager Melcher. Zu verstehen, wo man steht, sei eine wichtige Voraussetzung – dabei könne auch Process Mining einen wichtigen Beitrag leisten. Zudem rät er auch zu grafischer Modellierung – alles, was helfe, Klarheit zu gewinnen, sei erlaubt. Auch KI könne hier unterstützen, etwa indem sie historische Daten analysiert und Prozesse schneller abbildet, als dies manuell möglich ist. Mit dieser Transparenz als Basis lassen sich dann sinnvoll die Systeme zusammenbringen – doch Unternehmen sollten sich auch eines vor Augen halten: Automatisierung ist kein Sprint, sondern ein langfristiges Zusammenspiel vieler kleiner Schritte. “Der einzelne Schritt bringt allein nicht viel, aber die Kombination und Orchestrierung entfaltet das Potenzial”, erklärt Heinrichs von UIPath. Es brauche eine Strategie, Ausdauer und manchmal auch schlicht Grundlagenarbeit: Prozesse, die eins zu eins durch eine KI basierte Automatisierung ersetzt werden, erscheinen auf den ersten Blick nicht revolutionär – doch als Teil einer Agentic Orchestration Strategie können sie im Zusammenspiel enorme Wirkung entfalten. Informationen zu den Partner-Paketen der Studie “Automatisierung 2025” Teilnehmer des Roundtables “Automatisierung” width=”1024″ sizes=”(max-width: 1024px) 100vw, 1024px” loading=”lazy”>Leon Strauch, Camunda:  “Erfolgreiche Prozessorchestrierung, die Ende-zu-Ende gedacht wird, erfordert eine sehr enge Zusammenarbeit zwischen dem CIO- und dem COO-Office, insbesondere hier in Deutschland, wo meistens die Betriebsorganisation für die Prozesslandschaft zuständig ist und den Überblick hat. So lassen sich Potenziale strategisch identifizieren und auf der IT-Seite die richtigen Tools finden. Angesichts einer starken Fragmentierung der Anwendungslandschaft ist es wichtig, die Prozessschicht von den Systemen loszulösen und sie zu orchestrieren, um die Komplexität besser im Griff zu haben. Anschließend können Unternehmen den Automatisierungsgrad graduell erhöhen und die Customer Experience gezielt verbessern, bspw. durch die Integration von KI-Agenten.” Camunda Services GmbH srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?quality=50&strip=all 10558w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fiona Schewski, EY: „Immer mehr Unternehmen wollen Digitalanbieter werden. Das gelingt langfristig nur, wenn sie die strikte Trennung zwischen Business und IT aufheben. Sowohl die Fachbereiche als auch die IT brauchen also sowohl die richtigen Tools als auch die Möglichkeit, eigenständig ihren Teil des Gesamtprozesses zu optimieren – am besten im Rahmen einer umfassenden Automatisierungsstrategie und begleitet durch entsprechende Schulungsreihen.“ EY GmbH & Co. KG Wirtschaftsprüfungsgesellschaft width=”1024″ sizes=”(max-width: 1024px) 100vw, 1024px” loading=”lazy”>Arne Melcher, IBM: „Wer Automatisierung ernsthaft angehen will, braucht zuerst eines: Transparenz und ein klares Verständnis der eigenen Prozesse. Doch Transparenz allein reicht nicht. Um Kontrolle zu behalten, braucht es Governance: klare Regeln, Verantwortlichkeiten und die Fähigkeit, jederzeit nachvollziehen zu können, was automatisiert wird – und warum.“ IBM Deutschland GmbH srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?quality=50&strip=all 3870w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Patrick Arnold, Randstad Digital: „Erste POCs mit KI-Technologie sehen wir inzwischen in vielen Organisationen – aber ohne Schnittstellenkonzept und solide Orchestrierung bleibt das Stückwerk. Agents sind kein Wundermittel, wenn die Grundlagen fehlen. Was wir brauchen, ist ein integrativer Ansatz, der Prozesse nicht nur automatisiert, sondern sie als digitale Produkte versteht – mit allem, was dazugehört: Verantwortung, Weiterentwicklung und Zusammenarbeit über Silos hinweg.“ ©BECKERLACOUR / Randstad Deutschland GmbH & Co. KG srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?quality=50&strip=all 5925w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Tobias Schicht, Leadvise Reply: „Der Erfolg von Automatisierungsprojekten hängt stark von den handelnden Personen ab. Wenn jemand das Thema für sich entdeckt hat und dafür brennt, ist das unglaublich wertvoll. Es gibt so viele Beispiele von Automatisierungsprojekten, die vom Management angewiesen werden, die dann im Sande verlaufen, weil es an der Basis niemanden gibt, der das Thema wirklich aufgreift. Dazu ist es auch wichtig, ein Bewusstsein dafür zu schaffen, dass Automatisierung nicht nur ein Mittel zur Kostensenkung ist, sondern auch eine Möglichkeit, die Mitarbeiter von unattraktiven Tätigkeiten zu entlasten – und damit den Arbeitsalltag zu bereichern und den Fokus auf spannendere Aufgaben zu lenken.“ Leadvise Reply GmbH srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?quality=50&strip=all 4889w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Michael Eckert, Salesforce: “Künstliche Intelligenz wird auch in der Automatisierung zukünftig eine immer wichtigere Rolle spielen, die klassische Automatisierung vollständig ersetzen wird sie jedoch auf absehbare Zeit noch nicht. Doch KI-Agents können sehr viel zum Erfolg in diesem Bereich beitragen –  wenn IT und Fachabteilungen sehr eng zusammenarbeiten, um diese entlang der konkreten Businessanforderungen auszurichten.” Salesforce.com Germany GmbH srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?quality=50&strip=all 597w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”597″ height=”336″ sizes=”(max-width: 597px) 100vw, 597px”>Christian Heinrichs, UiPath: „Strategische Orchestrierung bedeutet nicht, dass Unternehmen jeden Aspekt auf dem Weg zu mehr Automatisierung kontrollieren müssen. Unternehmen sollten eher fördern, dass einzelne Mitarbeiter sich ihre eigenen Lösungen bauen. Diese kleinen, individuellen Automatisierungen sind ein wertvoller erster Schritt und bildet interne Champions in den Fachabteilungen heraus, die Automatisierung mit Blick auf die konkreten Belange des eigenen Bereichs voranbringen. Natürlich müssen solche Ansätze langfristig auf ein strategisches Niveau gehoben werden. Doch der Blick für die kleinen Details ist extrem wertvoll für den Erfolg und die Akzeptanz.“ UiPath GmbH 

Automatisierung – warum Tools allein nicht reichen​ Prozesse einheitlich Ende-zu-Ende denken – so lassen sich Mehrwerte durch Automatisierung heben.SuPatMaN – Shutterstock

Der Wunsch zur Automatisierung ist allgegenwärtig. Kaum tauchen Aufgaben auf, die es zu erledigen gilt, sucht der Mensch nach Wegen, wie sich diese ohne sein Zutun automatisiert abarbeiten lassen. 

Und so mangelt es auch in Unternehmen nicht an Ideen, wie sich Arbeit automatisieren lässt – vom Buchhaltungskollegen, der seine Excel-Tabellen bis zur Unkenntlichkeit verformelt bis zum IT-Verantwortlichen, der hunderte Zugriffsanfragen mit einem Self-Service-Portal mit Genehmigungsworkflow löst. 

Spannend wird es allerdings, wenn es darum geht, das große Ganze zu betrachten – doch das passiert noch eher selten, wie Leon Strauch, Principal Practice Strategist bei Camunda, beim COMPUTERWOCHE-Roundtable zum Thema “Automatisierung” feststellt: “Viele Organisationen denken immer noch sehr lokal und versuchen lediglich, einzelne Teilstrecken zu automatisieren.” Damit ließen sich zwar auch Effizienzen heben. “Aber man trifft schnell auf eine harte Decke und baut sogar technische Schulden auf, wenn man Prozesse nicht ganzheitlich von Ende-zu-Ende denkt und entsprechend orchestriert”, ergänzt Strauch.

Informationen zu den Partner-Paketen der Studie “Automatisierung 2025”

Automatisierungsbegeisterte in den Fachabteilungen fördern

Doch selbst die beste Strategie bleibt wirkungslos, wenn niemand sie mit Leben füllt. Wer Prozesse automatisieren will, braucht mehr als Tools – nämlich Menschen, die für das Thema brennen.

“Es gibt so viele Beispiele von Automatisierungsprojekten, die vom Management angeordnet werden, dann aber im Sande verlaufen, weil es an der Basis niemanden gibt, der das Thema wirklich aufgreift”, berichtet Tobias Schicht, Partner bei Leadvise Reply, aus der Praxis. Deshalb sei es wichtig, Awareness zu schaffen und aufzuzeigen, dass Automatisierung keine Bedrohung für die Jobs der Mitarbeitenden darstelle, sondern eine Chance sei. Es brauche konkrete Personen im Unternehmen, die die Automatisierung für sich annehmen und vorantreiben.

Beim geneigten IT-Verantwortlichen lässt das unter Umständen sofort die Alarmglocken schrillen: Schatten-IT! Christian Heinrichs, Sen. Director Solution Engineering Continental Europe bei UiPath, sieht das jedoch etwas entspannter: “Unternehmen sollten eher fördern, dass einzelne Mitarbeiter sich ihre eigenen Lösungen bauen”, erklärt er. Wenn Kollegen aus den Fachabteilungen unabhängig vom jeweiligen Tool sich in ihren jeweiligen Prozessstücken mit Automatisierungen beschäftigen, sei das bereits ein wertvoller Anfang. Natürlich müssten solche Ansätze langfristig auf ein strategischeres Niveau gehoben werden, ergänzt Heinrichs. “Doch der Blick für die kleinen Details ist extrem wertvoll.”

IT und Business gemeinsam denken

Doch damit diese Projekte im kleinen Wirkung entfalten können, braucht es Struktur, wie die Expertenrunde unisono betont: Weder Fachbereiche noch IT können die Automatisierung allein stemmen. 

Denn nicht jeder in den Business-Abteilungen hat ein umfassendes Bild bestehender Prozesse und wie diese in andere Bereiche hineinragen. Und während ein enger Austausch zwischen CIO und COO wünschenswert wäre, lässt sich auch mit einfachen Maßnahmen bereits große Wirkung erzielen, wie Patrick Arnold, Regional Solution Lead Europe von Randstad Digital hervorhebt: “Ein ganz pragmatisches Vorgehen kann schon sein, wenn ein paar Process Engineers einfach für einige Tage in die Fachabteilungen gehen”, erklärt Arnold. Dies hätte den Vorteil, dass sich alle noch in ihren eigenen Teams verwurzelt fühlen, erlaube es aber sowohl Fach- als auch IT-Seite, schnell echte Potenziale zu identifizieren.

Auch Fiona Schewski, Partnerin Technology Consulting bei EY, plädiert für eine engere Zusammenarbeit: “Immer mehr Unternehmen wollen Digitalanbieter werden. Das gelingt langfristig nur, wenn sie die strikte Trennung zwischen Business und IT aufheben.” Schewski rät dazu, sowohl die Fachbereiche als auch die IT mit einem grundlegenden Automatisierungsbaukasten auszustatten und über Schulungsreihen, Wissensmanagement & Co. die nötigen Fähigkeiten aufzubauen.

Studie “Automatisierung”: Sie können sich noch beteiligen!Zum Thema Automatisierung führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

KI ergänzt klassische Automatisierung, ersetzt sie aber nicht

Auch, wenn nicht sogar gerade im Bereich der Automatisierung spielt natürlich das Thema künstliche Intelligenz eine wichtige Rolle im aktuellen Diskurs. Wird Automatisierung an sich obsolet, da KI-Agents bald ganze Prozesse alleine übernehmen können?

Michael Eckert, Distinguished Technical Architect bei Salesforce, dämpft indes die Erwartungen, auch wenn er die Fortschritte hervorhebt, die im Bereich Automatisierung mit KI in den letzten Jahren gemacht wurden. “Dass gesamte Produktionsketten nur durch KI-Agents laufen, ist noch Zukunftsmusik”, stellt Eckert fest. Zwar können diese mittlerweile sehr viel, doch gerade bei der Übergabe zwischen den Systemen gäbe es heute noch große Herausforderungen, weil Daten zunächst harmonisiert und verfügbar gemacht werden müssen. Auch Eckert betont, wie wichtig die Einbindung der Fachbereiche für die Optimierung von KI-Agenten sei – diese erforderten viel Testing, das in der Funktionalität häufig nur durch die Business-Seite übernommen werden könne.

Leadvise-Reply-Manager Schicht stimmt zu: “Künstliche Intelligenz ersetzt nicht die klassische Automatisierung – sie ergänzt sie.” Viele Systemlandschaften seien noch stark fragmentiert oder bestünden aus verschiedenen Monolithen. An diesen “Bruchstellen” brauche es nach wie vor Vehikel wie APIs oder Robotic Process Automation (RPA).

Zumal für viele Unternehmen noch gar nicht scharf definiert ist, was der Einsatz von KI denn überhaupt bedeutet, wie Arne Melcher, Principal Technical Manager Automation Software bei IBM, beschreibt – Generative KI, Foundation Models und Large Language Models (LLM) markieren zwar allesamt große technologische Fortschritte. “Aber der Projekterfolg steigt immer dann spürbar, wenn Mitarbeitende verstehen, wie Daten angereichert und Modelle trainiert werden müssen”, erklärt Melcher. Dabei sei Kontrolle und die richtige Orchestrierung entscheidend. “Der Wunsch, die Kontrolle zu behalten, ist kein Misstrauen gegenüber der Technologie, sondern eine notwendige Voraussetzung, um zu entscheiden, wie wir technologisch vorangehen.”

Einen neuen Aspekt, den klassische Automatisierung aufgrund ihres statischen und gewissermaßen “hardgecodeten” Charakters so nicht abbilden kann, bringt KI jedoch jetzt schon ein: “Wenn in diesen statischen Systemen und Schnittstellen Veränderungen auftreten, kann das zu signifikanten Unterbrechungen führen”, wirft Christian Heinrichs in die Runde. “Mit KI lassen sich jedoch ‘Selbstheilungsfunktionen’ umsetzen, die auf solche Veränderungen reagieren und so ein intelligentes Mitwachsen der Automatisierungen möglich machen.”

Transparenz als Basis für die Orchestrierung

Doch wie soll eine nachhaltige Orchestrierung überhaupt gelingen in einem Zeitalter, in dem sich Prozesse und Bedingungen ständig ändern? Dazu sollten die Verantwortlichen in den Unternehmen an ihrer Geisteshaltung arbeiten: manches muss man einfach aushalten. 

“Es ist ein Trugschluss, dass man immer auf jede Veränderung sofort reagieren muss”, erklärt Schewski von EY. Denn wenn ein Prozess erstmal orchestriert ist, befänden sich Unternehmen bereits in einem konstanten Anpassungsprozess. Wichtiger sei es daher, zu verstehen, wie die einzelnen Systeme und Schnittstellen zusammenhängen, um zu erkennen, welche Bereiche tatsächlich beeinflusst werden.

Zu Beginn steht daher erstmal eine Art der Inventur, betont IBM-Manager Melcher. Zu verstehen, wo man steht, sei eine wichtige Voraussetzung – dabei könne auch Process Mining einen wichtigen Beitrag leisten. Zudem rät er auch zu grafischer Modellierung – alles, was helfe, Klarheit zu gewinnen, sei erlaubt. Auch KI könne hier unterstützen, etwa indem sie historische Daten analysiert und Prozesse schneller abbildet, als dies manuell möglich ist.

Mit dieser Transparenz als Basis lassen sich dann sinnvoll die Systeme zusammenbringen – doch Unternehmen sollten sich auch eines vor Augen halten: Automatisierung ist kein Sprint, sondern ein langfristiges Zusammenspiel vieler kleiner Schritte. “Der einzelne Schritt bringt allein nicht viel, aber die Kombination und Orchestrierung entfaltet das Potenzial”, erklärt Heinrichs von UIPath. Es brauche eine Strategie, Ausdauer und manchmal auch schlicht Grundlagenarbeit: Prozesse, die eins zu eins durch eine KI basierte Automatisierung ersetzt werden, erscheinen auf den ersten Blick nicht revolutionär – doch als Teil einer Agentic Orchestration Strategie können sie im Zusammenspiel enorme Wirkung entfalten.

Informationen zu den Partner-Paketen der Studie “Automatisierung 2025”

Teilnehmer des Roundtables “Automatisierung”

width=”1024″ sizes=”(max-width: 1024px) 100vw, 1024px” loading=”lazy”>Leon Strauch, Camunda: 
“Erfolgreiche Prozessorchestrierung, die Ende-zu-Ende gedacht wird, erfordert eine sehr enge Zusammenarbeit zwischen dem CIO- und dem COO-Office, insbesondere hier in Deutschland, wo meistens die Betriebsorganisation für die Prozesslandschaft zuständig ist und den Überblick hat. So lassen sich Potenziale strategisch identifizieren und auf der IT-Seite die richtigen Tools finden. Angesichts einer starken Fragmentierung der Anwendungslandschaft ist es wichtig, die Prozessschicht von den Systemen loszulösen und sie zu orchestrieren, um die Komplexität besser im Griff zu haben. Anschließend können Unternehmen den Automatisierungsgrad graduell erhöhen und die Customer Experience gezielt verbessern, bspw. durch die Integration von KI-Agenten.”
Camunda Services GmbH

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?quality=50&strip=all 10558w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fiona Schewski, EY:
„Immer mehr Unternehmen wollen Digitalanbieter werden. Das gelingt langfristig nur, wenn sie die strikte Trennung zwischen Business und IT aufheben. Sowohl die Fachbereiche als auch die IT brauchen also sowohl die richtigen Tools als auch die Möglichkeit, eigenständig ihren Teil des Gesamtprozesses zu optimieren – am besten im Rahmen einer umfassenden Automatisierungsstrategie und begleitet durch entsprechende Schulungsreihen.“
EY GmbH & Co. KG Wirtschaftsprüfungsgesellschaft

width=”1024″ sizes=”(max-width: 1024px) 100vw, 1024px” loading=”lazy”>Arne Melcher, IBM:
„Wer Automatisierung ernsthaft angehen will, braucht zuerst eines: Transparenz und ein klares Verständnis der eigenen Prozesse. Doch Transparenz allein reicht nicht. Um Kontrolle zu behalten, braucht es Governance: klare Regeln, Verantwortlichkeiten und die Fähigkeit, jederzeit nachvollziehen zu können, was automatisiert wird – und warum.“
IBM Deutschland GmbH

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?quality=50&strip=all 3870w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Patrick Arnold, Randstad Digital:
„Erste POCs mit KI-Technologie sehen wir inzwischen in vielen Organisationen – aber ohne Schnittstellenkonzept und solide Orchestrierung bleibt das Stückwerk. Agents sind kein Wundermittel, wenn die Grundlagen fehlen. Was wir brauchen, ist ein integrativer Ansatz, der Prozesse nicht nur automatisiert, sondern sie als digitale Produkte versteht – mit allem, was dazugehört: Verantwortung, Weiterentwicklung und Zusammenarbeit über Silos hinweg.“
©BECKERLACOUR / Randstad Deutschland GmbH & Co. KG

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?quality=50&strip=all 5925w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Tobias Schicht, Leadvise Reply:
„Der Erfolg von Automatisierungsprojekten hängt stark von den handelnden Personen ab. Wenn jemand das Thema für sich entdeckt hat und dafür brennt, ist das unglaublich wertvoll. Es gibt so viele Beispiele von Automatisierungsprojekten, die vom Management angewiesen werden, die dann im Sande verlaufen, weil es an der Basis niemanden gibt, der das Thema wirklich aufgreift. Dazu ist es auch wichtig, ein Bewusstsein dafür zu schaffen, dass Automatisierung nicht nur ein Mittel zur Kostensenkung ist, sondern auch eine Möglichkeit, die Mitarbeiter von unattraktiven Tätigkeiten zu entlasten – und damit den Arbeitsalltag zu bereichern und den Fokus auf spannendere Aufgaben zu lenken.“
Leadvise Reply GmbH

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?quality=50&strip=all 4889w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Michael Eckert, Salesforce:
“Künstliche Intelligenz wird auch in der Automatisierung zukünftig eine immer wichtigere Rolle spielen, die klassische Automatisierung vollständig ersetzen wird sie jedoch auf absehbare Zeit noch nicht. Doch KI-Agents können sehr viel zum Erfolg in diesem Bereich beitragen –  wenn IT und Fachabteilungen sehr eng zusammenarbeiten, um diese entlang der konkreten Businessanforderungen auszurichten.”
Salesforce.com Germany GmbH

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?quality=50&strip=all 597w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”597″ height=”336″ sizes=”(max-width: 597px) 100vw, 597px”>Christian Heinrichs, UiPath:
„Strategische Orchestrierung bedeutet nicht, dass Unternehmen jeden Aspekt auf dem Weg zu mehr Automatisierung kontrollieren müssen. Unternehmen sollten eher fördern, dass einzelne Mitarbeiter sich ihre eigenen Lösungen bauen. Diese kleinen, individuellen Automatisierungen sind ein wertvoller erster Schritt und bildet interne Champions in den Fachabteilungen heraus, die Automatisierung mit Blick auf die konkreten Belange des eigenen Bereichs voranbringen. Natürlich müssen solche Ansätze langfristig auf ein strategisches Niveau gehoben werden. Doch der Blick für die kleinen Details ist extrem wertvoll für den Erfolg und die Akzeptanz.“
UiPath GmbH

Automatisierung – warum Tools allein nicht reichen​ Weiterlesen »

10 Cloud-Debakel, 4 Backup-Lektionen​

Allgemein

Ziehen Sie die richtigen Lehren aus den Cloud-Fehltritten Anderer. Foto: Leremy | shutterstock.comBackups sind essenziell – egal, ob es dabei um On-Premises-Rechenzentren, IaaS– oder SaaS-Instanzen geht. Einige Anwender sind allerdings der Meinung, man solle den Cloud-Anbietern ruhig vertrauen – sie werden schon dafür sorgen, dass alles seine Ordnung hat. Und was kann schon passieren?Die folgenden zehn (chronologisch geordneten) Cloud-Ausfälle aus den vergangenen 15 Jahren vermitteln eine umfassende Antwort auf diese Frage. Eine ausführliche (englischsprachige) Diskussion in Podcast-Form zu sämtlichen Outage-Kapriolen gibt’s inklusive.10 kritische Cloud-DesasterCarbonite (2009): Mangelnde Redundanz und Storage Arrays aus dem Consumer-Segment bescherten dem Backup-Anbieter Carbonite (lange vor der Übernahme durch Opentext im Jahr 2019) eine nachhaltige Datenkatastrophe, bei der die Backup-Daten Tausender Kunden verlorengingen. Das Unternehmen machte dafür in erster Linie seinen Storage-Anbieter verantwortlich.Code Spaces (2014): Cyberkriminelle konnten sich Zugang zu den Systemen des Hosting-Anbieters Code Spaces verschaffen und löschten im Anschluss sämtliche Kundendaten und -backups aus der AWS-Umgebung des Unternehmens. Das führte letztlich dazu, dass Code Spaces sein Geschäft aufgeben musste.Dedoose (2014): Ein Serviceausfall sorgte dafür, dass beim Analytics-Anbieter Dedoose sowohl die primäre Research-Datenbank als auch die zugehörigen Backups, die einmal pro Monat erstellt worden waren, lahmgelegt wurden. Im Ergebnis hatten einige Kunden mit umfassenden Datenverlusten zu kämpfen.Salesforce (2019): Dank eines fehlerhaftes Skript wúrden sämtlichen Salesforce-Benutzern zeitweise volle Änderungsrechte verliehen. Die Backups des Unternehmens ermöglichten keine schnelle Wiederherstellung, was verdeutlicht, wie wichtig unabhängige Datensicherungen sind, wenn es um Software as a Service geht.Musey/Mosss (2019): Das US-Startup Musey hatte einst eine vielversprechende App für Interior Design in der Mache. Bis ein Administrator versehentlich den gesamten Google-Workspace-Account des Jungunternehmens – und damit Daten und geistiges Eigentum im Wert von rund einer Million Dollar – löschte. Weil kein unabhängiges Backup angefertigt worden war, konnten die Daten auch nicht wiederhergestellt werden. Das inzwischen in Mosss umfirmierte Startup versuchte zwar noch gerichtlich gegen Google vorzugehen – scheiterte jedoch (absehbarerweise) am Shared-Responsibility-Grundsatz und musste daraufhin die Schotten dichtmachen.KPMG (2020): Auch bei den Wirtschaftsprüfern von KPMG hieß es Mitte 2020 “upsi”. Ein Admin hatte versehentlich eine Retention-Richtlinie in Microsoft Teams geändert, wodurch die Chatdaten von mehr als 145.000 Benutzern dauerhaft verlorengingen.OVH (2021): Ein Großfeuer zerstörte Anfang 2021 ein Datacenter des Hostingdienstleisters OVH in Straßburg. Dabei erlitten viele Kunden Datenverluste, weil die zugehörigen Backups im selben Rechenzentrum lagen.StorageCraft (2022): Nur einige Monate nach der Übernahme durch Arcserve ereilte den Datensicherungsspezialisten StorageCraft im Rahmen einer Cloud-Migration ein Outage-Desaster: Ein Server, der Metadaten von Kunden-Backups beinhaltete, wurde versehentlich vorzeitig dekommissioniert, die Datensicherungen unbrauchbar. Der damalige Arcserve-CEO Brannon Lacey übernahm die volle Verantwortung für den Vorfall – letztlich konnten die Backups wiederhergestellt werden.Rackspace (2022): Die gehostete Exchange-Umgebung des IT-Dienstleisters Rackspace wurde Ende 2022 durch Ransomware kompromittiert. Möglich wurde das in erster Linie durch eine laxe Patching-“Strategie”. Die Wiederherstellung der Daten dauerte – trotz integrierter Backups – Monate und führte letztlich dazu, dass das Unternehmen sein Hosted-Exchange-Geschäft einstampfte.UniSuper (2024): Ein Konfigurationsfehler in Google Cloud löste einen Bug aus, der dazu führte, dass die gesamte Cloud-Umgebung des australischen Bildungsfonds UniSuper gelöscht wurde – und zwar regionenübergreifend. Glücklicherweise gab es (getestete) Drittanbieter-Backups, die es ermöglichten, die verlorenen Daten innerhalb einer Woche wiederherzustellen.Sie suchen weitere interessante Beiträge zu diversen Themen aus der IT-Welt? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten, direkt in Ihre Inbox.Jetzt CW-Newsletter sichern4 essenzielle Backup-LektionenSo desaströs diese Cloud Outages auch waren: Sie verdeutlichen, dass Datenschutz in der Cloud kein Selbstläufer ist. Ihre Daten sind nur sicher, wenn Sie und Ihr Cloud-Anbieter entsprechende Vorkehrungen treffen. Um Ihr Unternehmen vor Katastrophen wie den oben aufgeführten zu bewahren, sollten Sie folgende Backup-Lektionen (noch einmal) verinnerlichen:Sichern Sie Ihre Cloud-Daten und verlassen Sie sich dabei nicht nur auf die integrierten Security Services der Cloud-Anbieter. Setzen Sie dabei auf die “3-2-1-Regel”: Bewahren Sie mindestens drei Kopien Ihrer Daten auf zwei verschiedenen Ausfalldomänen auf – eine davon an einem sicheren Ort außerhalb der Cloud-Umgebung des Unternehmens.Dabei kommt es nicht nur darauf ein, eine Datensicherung zu haben, sondern auch auf die richtige Art von Backup. Es gilt, nicht nur die Primärdaten zu sichern, sondern auch die Integrität und Wiederherstellbarkeit der Datensicherung selbst zu gewährleisten.Auch SaaS-Anbieter sind nicht vor Datenverlusten gefeit. Deshalb ist es essenziell, auch diese Daten unabhängig zu sichern. Idealerweise mit Unterstützung eines Drittanbieters.Menschliches Versagen spielt bei Datenverlusten immer wieder eine tragende Rolle. Dagegen helfen nur zielführende Schulungsmaßnahmen, Data-Access-Richtlinien sowie ein nachweislich funktionaler Incident-Response-Plan.Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World. 

10 Cloud-Debakel, 4 Backup-Lektionen​ Ziehen Sie die richtigen Lehren aus den Cloud-Fehltritten Anderer.
Foto: Leremy | shutterstock.comBackups sind essenziell – egal, ob es dabei um On-Premises-Rechenzentren, IaaS– oder SaaS-Instanzen geht. Einige Anwender sind allerdings der Meinung, man solle den Cloud-Anbietern ruhig vertrauen – sie werden schon dafür sorgen, dass alles seine Ordnung hat. Und was kann schon passieren?Die folgenden zehn (chronologisch geordneten) Cloud-Ausfälle aus den vergangenen 15 Jahren vermitteln eine umfassende Antwort auf diese Frage. Eine ausführliche (englischsprachige) Diskussion in Podcast-Form zu sämtlichen Outage-Kapriolen gibt’s inklusive.10 kritische Cloud-DesasterCarbonite (2009): Mangelnde Redundanz und Storage Arrays aus dem Consumer-Segment bescherten dem Backup-Anbieter Carbonite (lange vor der Übernahme durch Opentext im Jahr 2019) eine nachhaltige Datenkatastrophe, bei der die Backup-Daten Tausender Kunden verlorengingen. Das Unternehmen machte dafür in erster Linie seinen Storage-Anbieter verantwortlich.Code Spaces (2014): Cyberkriminelle konnten sich Zugang zu den Systemen des Hosting-Anbieters Code Spaces verschaffen und löschten im Anschluss sämtliche Kundendaten und -backups aus der AWS-Umgebung des Unternehmens. Das führte letztlich dazu, dass Code Spaces sein Geschäft aufgeben musste.Dedoose (2014): Ein Serviceausfall sorgte dafür, dass beim Analytics-Anbieter Dedoose sowohl die primäre Research-Datenbank als auch die zugehörigen Backups, die einmal pro Monat erstellt worden waren, lahmgelegt wurden. Im Ergebnis hatten einige Kunden mit umfassenden Datenverlusten zu kämpfen.Salesforce (2019): Dank eines fehlerhaftes Skript wúrden sämtlichen Salesforce-Benutzern zeitweise volle Änderungsrechte verliehen. Die Backups des Unternehmens ermöglichten keine schnelle Wiederherstellung, was verdeutlicht, wie wichtig unabhängige Datensicherungen sind, wenn es um Software as a Service geht.Musey/Mosss (2019): Das US-Startup Musey hatte einst eine vielversprechende App für Interior Design in der Mache. Bis ein Administrator versehentlich den gesamten Google-Workspace-Account des Jungunternehmens – und damit Daten und geistiges Eigentum im Wert von rund einer Million Dollar – löschte. Weil kein unabhängiges Backup angefertigt worden war, konnten die Daten auch nicht wiederhergestellt werden. Das inzwischen in Mosss umfirmierte Startup versuchte zwar noch gerichtlich gegen Google vorzugehen – scheiterte jedoch (absehbarerweise) am Shared-Responsibility-Grundsatz und musste daraufhin die Schotten dichtmachen.KPMG (2020): Auch bei den Wirtschaftsprüfern von KPMG hieß es Mitte 2020 “upsi”. Ein Admin hatte versehentlich eine Retention-Richtlinie in Microsoft Teams geändert, wodurch die Chatdaten von mehr als 145.000 Benutzern dauerhaft verlorengingen.OVH (2021): Ein Großfeuer zerstörte Anfang 2021 ein Datacenter des Hostingdienstleisters OVH in Straßburg. Dabei erlitten viele Kunden Datenverluste, weil die zugehörigen Backups im selben Rechenzentrum lagen.StorageCraft (2022): Nur einige Monate nach der Übernahme durch Arcserve ereilte den Datensicherungsspezialisten StorageCraft im Rahmen einer Cloud-Migration ein Outage-Desaster: Ein Server, der Metadaten von Kunden-Backups beinhaltete, wurde versehentlich vorzeitig dekommissioniert, die Datensicherungen unbrauchbar. Der damalige Arcserve-CEO Brannon Lacey übernahm die volle Verantwortung für den Vorfall – letztlich konnten die Backups wiederhergestellt werden.Rackspace (2022): Die gehostete Exchange-Umgebung des IT-Dienstleisters Rackspace wurde Ende 2022 durch Ransomware kompromittiert. Möglich wurde das in erster Linie durch eine laxe Patching-“Strategie”. Die Wiederherstellung der Daten dauerte – trotz integrierter Backups – Monate und führte letztlich dazu, dass das Unternehmen sein Hosted-Exchange-Geschäft einstampfte.UniSuper (2024): Ein Konfigurationsfehler in Google Cloud löste einen Bug aus, der dazu führte, dass die gesamte Cloud-Umgebung des australischen Bildungsfonds UniSuper gelöscht wurde – und zwar regionenübergreifend. Glücklicherweise gab es (getestete) Drittanbieter-Backups, die es ermöglichten, die verlorenen Daten innerhalb einer Woche wiederherzustellen.Sie suchen weitere interessante Beiträge zu diversen Themen aus der IT-Welt? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten, direkt in Ihre Inbox.Jetzt CW-Newsletter sichern4 essenzielle Backup-LektionenSo desaströs diese Cloud Outages auch waren: Sie verdeutlichen, dass Datenschutz in der Cloud kein Selbstläufer ist. Ihre Daten sind nur sicher, wenn Sie und Ihr Cloud-Anbieter entsprechende Vorkehrungen treffen. Um Ihr Unternehmen vor Katastrophen wie den oben aufgeführten zu bewahren, sollten Sie folgende Backup-Lektionen (noch einmal) verinnerlichen:Sichern Sie Ihre Cloud-Daten und verlassen Sie sich dabei nicht nur auf die integrierten Security Services der Cloud-Anbieter. Setzen Sie dabei auf die “3-2-1-Regel”: Bewahren Sie mindestens drei Kopien Ihrer Daten auf zwei verschiedenen Ausfalldomänen auf – eine davon an einem sicheren Ort außerhalb der Cloud-Umgebung des Unternehmens.Dabei kommt es nicht nur darauf ein, eine Datensicherung zu haben, sondern auch auf die richtige Art von Backup. Es gilt, nicht nur die Primärdaten zu sichern, sondern auch die Integrität und Wiederherstellbarkeit der Datensicherung selbst zu gewährleisten.Auch SaaS-Anbieter sind nicht vor Datenverlusten gefeit. Deshalb ist es essenziell, auch diese Daten unabhängig zu sichern. Idealerweise mit Unterstützung eines Drittanbieters.Menschliches Versagen spielt bei Datenverlusten immer wieder eine tragende Rolle. Dagegen helfen nur zielführende Schulungsmaßnahmen, Data-Access-Richtlinien sowie ein nachweislich funktionaler Incident-Response-Plan.Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.

10 Cloud-Debakel, 4 Backup-Lektionen​ Weiterlesen »

Vermeidbare Führungsfehler: Wie Führungskräfte sich und ihr Team blockieren​

Allgemein

Hyperaktive Chefs, die weder delegieren noch loben können und in das selbstständige Arbeiten ihrer Mitarbeiter kein Vertrauen haben, wirken nicht nur demotivierend, sondern schmälern auch den Unternehmenserfolg. Foto: Roman Samborskyi – shutterstock.com“Ich muss ständig die Probleme meiner Mitarbeiter lösen. Alles bleibt an mir hängen.” “Wir besprechen Dinge. Legen sie fest. Und am Ende kommt was komplett anderes heraus.” “Ich möchte einfach, dass meine Mitarbeiter selbständiger arbeiten und ich mich um die wesentlichen Dinge kümmern kann.” Das sind typische Aussagen von Führungskräften. Doch wie aus dieser Nummer herauskommen? Zum Beispiel mit diesen fünf Hinweisen:1. “Ich-mach-das-schnell-selbst”-Mindsetsie können es nicht leiden, wenn Aufgaben liegen bleiben. Die Folge ist, dass Sie Ihre Mitarbeiter daran gewöhnen, dass Sie vieles selbst erledigen. Oft denken sich Mitarbeiter dann: “Er macht das schon.” Ja, weil es bisher immer so war. Auf diese Weise werden Mitarbeiter zur Unselbständigkeit erzogen. Und Sie stecken zu sehr im operativen Geschäft fest und haben keine Zeit für strategische Aufgaben und die Mitarbeiterführung. Am Ende heißt es dann: “Alles bleibt an mir hängen.” Wenn wir Situation erleben, die uns stören, sollten wir unser eigenes Verhalten reflektieren, um zu erkennen, wie wir selbst zu dieser Situation beigetragen haben.2. Boomerang ManagementSie delegieren eine Aufgabe und am Ende landet sie wieder auf Ihrem Tisch. Entweder kommt sie sofort wieder oder Mitarbeiter arbeiten sie so weit ab, bis ein Problem oder Unsicherheiten sich in den Weg stellen. Dann heißt es: “Ich komme hier nicht weiter, kannst Du mir kurz helfen?” Wenn Sie spätestens nicht jetzt wirkungsvoll führen – also weder sich selbst noch Ihr Team – dann haben Sie die Aufgaben ruckzuck auf Ihrer To-do-Liste.Die Kunst besteht darin, Aufgaben so zu delegieren, dass Mitarbeiter die Verantwortung übernehmen und Sie entlasten. Die Art und Weise der Delegation ist abhängig von der Persönlichkeit der Mitarbeiter.3. Mitarbeiter werden demotiviertIn der Regel bringen Mitarbeiter eine gesunde Portion Motivation mit, doch oft wird das Feuer einfach erstickt, indem Führungskräfte zum Beispiel sofort eingreifen, wenn es zu Problemen kommt. Sie reißen die Verantwortung an sich, statt sie mit dem Mitarbeiter zu besprechen. In der Folge entsteht bei dem Mitarbeiter das Gefühl, dass Sie ihm nicht vertrauen. Sie wiederum haben eine zusätzliche Aufgabe zu erledigen, die nicht Ihre ist. Gerade High Performer können es aber nicht leiden, wenn ihnen Verantwortung genommen wird.Eine andere Form Mitarbeiter zu demotivieren ist, ständig Kritik zu äußern. Das beraubt sie auf Dauer der Motivation. Ein Beispiel: Ein Team hat sich für ein Projekt ins Zeug gelegt, Überstunden geschoben und gute Ergebnisse geliefert, doch das Einzige, was dem Chef einfällt, ist: “Ja, das ist schon ganz gut, aber da ist noch Luft nach oben.” Das klingt nach einem Vorwurf. und Wenn sowieso alles schlecht ist, warum sollen sich die Mitarbeiter dann noch ins Zeug legen? Anerkennung ist ein Grundbedürfnis, unabhängig vom Alter und der Position. Jeder möchte für das, was er kann und leistet, gesehen und wertgeschätzt werden. Wenn das fehlt, sind Mitarbeiter demotiviert, die Leistung lässt nach und im schlimmsten Fall verlieren Sie Mitarbeiter. Wenn sich Mitarbeiter hingegen wertgeschätzt fühlen, werden sie mehr tun als von ihnen erwartet.Ein weiteres Phänomen, das kontraproduktiv ist: Alle Mitarbeiter eng zu führen und ihnen klare Vorgaben zu geben. Warum? Weil unterschiedliche Persönlichkeiten unterschiedlich geführt werden müssen. Die einen lieben den Gestaltungsspielraum und die anderen brauchen Leitplanken. Die Kunst besteht darin, zu erkennen was die Mitarbeiter brauchen, um ihnen das auch zu geben. Dafür braucht man nicht unzählige Stunden mit ihnen zu verbringen. Wenn Sie wissen, woran Sie das erkennen, können Sie dies im Vorstellungsgespräch bereits feststellen.4. Limitierende GlaubenssätzeEin weitverbreiteter Glaubenssatz, den 90 Prozent aller Führungskräfte haben, ist: “Wenn ich aufsteige, wird alles anders. Ich brauch nur die Beförderung. Sobald ich auf der nächsten Stufe bin, wird alles besser. Dann kann ich mehr bewegen”. Die Wahrheit ist: Es wird schlimmer. Bedeutet: Wenn Sie Ihre Denkweise und Ihr Verhalten nicht ändern, potenzieren sich Ihre Probleme.Sie erleben dann, dass Mitarbeiter nicht machen, was von ihnen erwartet wird. Sie führen ständig unnötige Diskussionen und verschwenden Zeit und Energie. Sie sind zu sehr im operativen Geschäft eingebunden, arbeiten viel, aber kommen nicht weiter. Und am Ende haben Sie keine Zeit für die wirklich wichtigen Aufgaben. Was braucht es, um sich von unbewussten Glaubenssätzen zu lösen, die wie Handbremsen aufhalten? Antwort: Die Bereitschaft das eigene Verhalten zu hinterfragen und zu ändern. Und da wir die eigenen Blindspots nur schwer erkennen können, braucht es auch mal einen externen Sparringspartner, der uns den Spiegel vorhält. Oft machen wir nämlich Dinge, die kontraproduktiv sind und merken es selbst gar nicht.5. Kontraproduktive Kommunikation“Obwohl ich regelmäßig mit meinen Mitarbeitern rede, kommt nichts an. Wir besprechen Dinge, legen sie fest. Und am Ende kommt etwas ganz anderes heraus.” Ein Klassiker. Chef und Mitarbeiter reden komplett aneinander vorbei. Dadurch müssen weitere Gespräche geführt werden, was nur Zeit- und Energieverschwendung bedeutet. Einige Führungskräfte denken: “Die verstehen es einfach nicht”. Nun, in der Regel liegt es an der Kommunikation und der Herangehensweise der Führungskraft. Und sobald die Führungskommunikation verbessert wird, verbessern sich auch die Ergebnisse im Team.Am Ende greifen alle fünf Punkte ineinander. Mindset, Führung und Kommunikation sind nicht getrennt voneinander zu betrachten. Wenn Sie nachhaltig bessere Ergebnisse haben wollen, gilt es alle drei Kompetenzbereiche zu verbessern.Roadmap – Wie neue Führungskräfte strategisch am besten vorgehenVier Tipps zur erfolgreichen Leadership Foto: Jacek Dudzinski – shutterstock.comNeue Führungskräfte fallen häufig durch Aktionismus auf. Doch ein zu autoritärer Führungsstil oder im Übereifer erzwungene Veränderungen können sich schnell als kontraproduktiv erweisen. Florian Kreuzwirth, Regional Managing Director Executive Search des Personaldienstleisters Robert Half nennt vier Maßnahmen, die frischgebackene Manager.innen unbedingt beachten sollten. Das Bestehende anerkennen Foto: Nattakorn_Maneerat – shutterstock.comUm Widerstände zu überwinden und das Team zu motivieren, ist es wichtig, die bisherigen Leistungen sowie den Einsatz der Mitarbeiterinnen und Mitarbeiter zu würdigen. Jedes Teammitglied hat durch sein Mitwirken Anteil am Unternehmenserfolg. Anerkennung für die Leistungen schaffen Vertrauen und ermutigen dazu, Veränderungen aktiv zu unterstützen und zum Erfolg des Unternehmens beizutragen.Einarbeiten und Verstehen Foto: Matej Kastelic – shutterstock.comErfolgreiche Führungskräfte investieren Zeit, um sich in die Prozesse und Produkte/Dienstleistungen des Unternehmens einzuarbeiten und die verschiedenen Abteilungen kennenzulernen. Sie wollen das Unternehmen als Ganzes verstehen, um später in ihrer Rolle optimal agieren zu können. Hinzu kommt die Auseinandersetzung mit der vorherigen Führungskraft: Gute Vorgesetzte werfen nicht gleich alles über Bord, sondern nehmen sich die Zeit, die Arbeit des Vorgängers zu bewerten und Ideen der Mitarbeiter zu sammeln.Präsenz und Kommunikationsbereitschaft Foto: Bojan Milinkov – shutterstock.comZwei weitere wichtige Eigenschaften sind Präsenz und Offenheit. Neue Führungskräfte sollten sich persönlich vorstellen und den Kontakt auf allen Hierarchieebenen suchen, von der Empfangsdame bis zum Abteilungsleiter. Dies zeigt Respekt und Wertschätzung gegenüber allen Beschäftigten im Unternehmen. Ferner sollten für ihre Mitarbeiterinnen und Mitarbeiter erreichbar sein und sich für deren Anliegen Zeit nehmen. Letztlich ist eine transparente Kommunikation der Schlüssel, um Vertrauen aufzubauen und Widerstände gegen Veränderungen zu minimieren.Strategisches Vorgehen Foto: zaozaa19 – shutterstock.comDer Druck, sofort signifikante Veränderungen oder gar erste Erfolge zu erzielen, kann oft zu übereilten Entscheidungen und Aktionismus führen. Neue Führungskräfte sollten sich nicht von hohen Erwartungen beeinflussen lassen und stattdessen einen nachhaltigen und strategischen Ansatz verfolgen. 

Vermeidbare Führungsfehler: Wie Führungskräfte sich und ihr Team blockieren​ Hyperaktive Chefs, die weder delegieren noch loben können und in das selbstständige Arbeiten ihrer Mitarbeiter kein Vertrauen haben, wirken nicht nur demotivierend, sondern schmälern auch den Unternehmenserfolg.
Foto: Roman Samborskyi – shutterstock.com“Ich muss ständig die Probleme meiner Mitarbeiter lösen. Alles bleibt an mir hängen.” “Wir besprechen Dinge. Legen sie fest. Und am Ende kommt was komplett anderes heraus.” “Ich möchte einfach, dass meine Mitarbeiter selbständiger arbeiten und ich mich um die wesentlichen Dinge kümmern kann.” Das sind typische Aussagen von Führungskräften. Doch wie aus dieser Nummer herauskommen? Zum Beispiel mit diesen fünf Hinweisen:1. “Ich-mach-das-schnell-selbst”-Mindsetsie können es nicht leiden, wenn Aufgaben liegen bleiben. Die Folge ist, dass Sie Ihre Mitarbeiter daran gewöhnen, dass Sie vieles selbst erledigen. Oft denken sich Mitarbeiter dann: “Er macht das schon.” Ja, weil es bisher immer so war. Auf diese Weise werden Mitarbeiter zur Unselbständigkeit erzogen. Und Sie stecken zu sehr im operativen Geschäft fest und haben keine Zeit für strategische Aufgaben und die Mitarbeiterführung. Am Ende heißt es dann: “Alles bleibt an mir hängen.” Wenn wir Situation erleben, die uns stören, sollten wir unser eigenes Verhalten reflektieren, um zu erkennen, wie wir selbst zu dieser Situation beigetragen haben.2. Boomerang ManagementSie delegieren eine Aufgabe und am Ende landet sie wieder auf Ihrem Tisch. Entweder kommt sie sofort wieder oder Mitarbeiter arbeiten sie so weit ab, bis ein Problem oder Unsicherheiten sich in den Weg stellen. Dann heißt es: “Ich komme hier nicht weiter, kannst Du mir kurz helfen?” Wenn Sie spätestens nicht jetzt wirkungsvoll führen – also weder sich selbst noch Ihr Team – dann haben Sie die Aufgaben ruckzuck auf Ihrer To-do-Liste.Die Kunst besteht darin, Aufgaben so zu delegieren, dass Mitarbeiter die Verantwortung übernehmen und Sie entlasten. Die Art und Weise der Delegation ist abhängig von der Persönlichkeit der Mitarbeiter.3. Mitarbeiter werden demotiviertIn der Regel bringen Mitarbeiter eine gesunde Portion Motivation mit, doch oft wird das Feuer einfach erstickt, indem Führungskräfte zum Beispiel sofort eingreifen, wenn es zu Problemen kommt. Sie reißen die Verantwortung an sich, statt sie mit dem Mitarbeiter zu besprechen. In der Folge entsteht bei dem Mitarbeiter das Gefühl, dass Sie ihm nicht vertrauen. Sie wiederum haben eine zusätzliche Aufgabe zu erledigen, die nicht Ihre ist. Gerade High Performer können es aber nicht leiden, wenn ihnen Verantwortung genommen wird.Eine andere Form Mitarbeiter zu demotivieren ist, ständig Kritik zu äußern. Das beraubt sie auf Dauer der Motivation. Ein Beispiel: Ein Team hat sich für ein Projekt ins Zeug gelegt, Überstunden geschoben und gute Ergebnisse geliefert, doch das Einzige, was dem Chef einfällt, ist: “Ja, das ist schon ganz gut, aber da ist noch Luft nach oben.” Das klingt nach einem Vorwurf. und Wenn sowieso alles schlecht ist, warum sollen sich die Mitarbeiter dann noch ins Zeug legen? Anerkennung ist ein Grundbedürfnis, unabhängig vom Alter und der Position. Jeder möchte für das, was er kann und leistet, gesehen und wertgeschätzt werden. Wenn das fehlt, sind Mitarbeiter demotiviert, die Leistung lässt nach und im schlimmsten Fall verlieren Sie Mitarbeiter. Wenn sich Mitarbeiter hingegen wertgeschätzt fühlen, werden sie mehr tun als von ihnen erwartet.Ein weiteres Phänomen, das kontraproduktiv ist: Alle Mitarbeiter eng zu führen und ihnen klare Vorgaben zu geben. Warum? Weil unterschiedliche Persönlichkeiten unterschiedlich geführt werden müssen. Die einen lieben den Gestaltungsspielraum und die anderen brauchen Leitplanken. Die Kunst besteht darin, zu erkennen was die Mitarbeiter brauchen, um ihnen das auch zu geben. Dafür braucht man nicht unzählige Stunden mit ihnen zu verbringen. Wenn Sie wissen, woran Sie das erkennen, können Sie dies im Vorstellungsgespräch bereits feststellen.4. Limitierende GlaubenssätzeEin weitverbreiteter Glaubenssatz, den 90 Prozent aller Führungskräfte haben, ist: “Wenn ich aufsteige, wird alles anders. Ich brauch nur die Beförderung. Sobald ich auf der nächsten Stufe bin, wird alles besser. Dann kann ich mehr bewegen”. Die Wahrheit ist: Es wird schlimmer. Bedeutet: Wenn Sie Ihre Denkweise und Ihr Verhalten nicht ändern, potenzieren sich Ihre Probleme.Sie erleben dann, dass Mitarbeiter nicht machen, was von ihnen erwartet wird. Sie führen ständig unnötige Diskussionen und verschwenden Zeit und Energie. Sie sind zu sehr im operativen Geschäft eingebunden, arbeiten viel, aber kommen nicht weiter. Und am Ende haben Sie keine Zeit für die wirklich wichtigen Aufgaben. Was braucht es, um sich von unbewussten Glaubenssätzen zu lösen, die wie Handbremsen aufhalten? Antwort: Die Bereitschaft das eigene Verhalten zu hinterfragen und zu ändern. Und da wir die eigenen Blindspots nur schwer erkennen können, braucht es auch mal einen externen Sparringspartner, der uns den Spiegel vorhält. Oft machen wir nämlich Dinge, die kontraproduktiv sind und merken es selbst gar nicht.5. Kontraproduktive Kommunikation“Obwohl ich regelmäßig mit meinen Mitarbeitern rede, kommt nichts an. Wir besprechen Dinge, legen sie fest. Und am Ende kommt etwas ganz anderes heraus.” Ein Klassiker. Chef und Mitarbeiter reden komplett aneinander vorbei. Dadurch müssen weitere Gespräche geführt werden, was nur Zeit- und Energieverschwendung bedeutet. Einige Führungskräfte denken: “Die verstehen es einfach nicht”. Nun, in der Regel liegt es an der Kommunikation und der Herangehensweise der Führungskraft. Und sobald die Führungskommunikation verbessert wird, verbessern sich auch die Ergebnisse im Team.Am Ende greifen alle fünf Punkte ineinander. Mindset, Führung und Kommunikation sind nicht getrennt voneinander zu betrachten. Wenn Sie nachhaltig bessere Ergebnisse haben wollen, gilt es alle drei Kompetenzbereiche zu verbessern.Roadmap – Wie neue Führungskräfte strategisch am besten vorgehenVier Tipps zur erfolgreichen Leadership
Foto: Jacek Dudzinski – shutterstock.comNeue Führungskräfte fallen häufig durch Aktionismus auf. Doch ein zu autoritärer Führungsstil oder im Übereifer erzwungene Veränderungen können sich schnell als kontraproduktiv erweisen. Florian Kreuzwirth, Regional Managing Director Executive Search des Personaldienstleisters Robert Half nennt vier Maßnahmen, die frischgebackene Manager.innen unbedingt beachten sollten. Das Bestehende anerkennen
Foto: Nattakorn_Maneerat – shutterstock.comUm Widerstände zu überwinden und das Team zu motivieren, ist es wichtig, die bisherigen Leistungen sowie den Einsatz der Mitarbeiterinnen und Mitarbeiter zu würdigen. Jedes Teammitglied hat durch sein Mitwirken Anteil am Unternehmenserfolg. Anerkennung für die Leistungen schaffen Vertrauen und ermutigen dazu, Veränderungen aktiv zu unterstützen und zum Erfolg des Unternehmens beizutragen.Einarbeiten und Verstehen
Foto: Matej Kastelic – shutterstock.comErfolgreiche Führungskräfte investieren Zeit, um sich in die Prozesse und Produkte/Dienstleistungen des Unternehmens einzuarbeiten und die verschiedenen Abteilungen kennenzulernen. Sie wollen das Unternehmen als Ganzes verstehen, um später in ihrer Rolle optimal agieren zu können. Hinzu kommt die Auseinandersetzung mit der vorherigen Führungskraft: Gute Vorgesetzte werfen nicht gleich alles über Bord, sondern nehmen sich die Zeit, die Arbeit des Vorgängers zu bewerten und Ideen der Mitarbeiter zu sammeln.Präsenz und Kommunikationsbereitschaft
Foto: Bojan Milinkov – shutterstock.comZwei weitere wichtige Eigenschaften sind Präsenz und Offenheit. Neue Führungskräfte sollten sich persönlich vorstellen und den Kontakt auf allen Hierarchieebenen suchen, von der Empfangsdame bis zum Abteilungsleiter. Dies zeigt Respekt und Wertschätzung gegenüber allen Beschäftigten im Unternehmen. Ferner sollten für ihre Mitarbeiterinnen und Mitarbeiter erreichbar sein und sich für deren Anliegen Zeit nehmen. Letztlich ist eine transparente Kommunikation der Schlüssel, um Vertrauen aufzubauen und Widerstände gegen Veränderungen zu minimieren.Strategisches Vorgehen
Foto: zaozaa19 – shutterstock.comDer Druck, sofort signifikante Veränderungen oder gar erste Erfolge zu erzielen, kann oft zu übereilten Entscheidungen und Aktionismus führen. Neue Führungskräfte sollten sich nicht von hohen Erwartungen beeinflussen lassen und stattdessen einen nachhaltigen und strategischen Ansatz verfolgen.

Vermeidbare Führungsfehler: Wie Führungskräfte sich und ihr Team blockieren​ Weiterlesen »

Nach oben scrollen
×