Computerhaus Quickborn

Allgemein

Lenovo Yoga Tab Plus im Test: Leistungsstarkes Android-Tablet​

Allgemein

Anyron Copeman / Foundry Auf einen Blick Pro Lange Akkulaufzeit Starke Leistung Großes, helles Display Nützliches Zubehör im Lieferumfang Kontra Display ist kein OLED Schwache Kameras Fazit Das Yoga Tab Plus ist eine starke Alternative zu teuren High-End-Tablets wie dem iPad Pro oder dem Galaxy Tab S10 Ultra. Mit umfangreichen Premium-Funktionen, beiliegendem Stylus und Tastatur bietet es ein rundes Gesamtpaket. Wenn Ihr Arbeitsstil es erlaubt, können Sie damit sogar problemlos Ihren Laptop ersetzen. Die Ära der künstlichen Intelligenz ist angebrochen – und während viele Tablets vor allem mit großen Versprechen werben, könnte das Lenovo Yoga Tab Plus zu den aktuell besten Android-Tablets auf dem Markt gehören. Es ist leistungsstark, bietet eine tolle Android-Erfahrung und eignet sich perfekt für den Medienkonsum. Dank ausreichender Leistung für KI-Anwendungen ist es auch für die kommenden Jahre gut gerüstet. Einziger Nachteil ist das fehlende OLED-Display, was sich jedoch dank der hohen Helligkeit des LCD gut verschmerzen lässt. Im Lieferumfang sind außerdem der Tab Pen Pro Stylus und eine Tastatur enthalten, wodurch sich das Tablet als praktische Alternative zum Laptop eignet. Wie gut sich das Tablet im Alltag schlägt, verrate ich Ihnen in meinem ausführlichen Test. Design & Verarbeitung Modulares Tastatur-Case Tab Pen Pro im Lieferumfang enthalten Lässt sich leicht mit einer Hand halten Schon beim Auspacken des Lenovo Yoga Tab Plus war ich begeistert. Im Lieferumfang sind nicht nur das Tablet, sondern auch der Tab Pen Pro Stylus und eine Tastatur enthalten – beides gehört bei vielen Tablets sonst oft zum kostenpflichtigen Extra-Zubehör. Das 12,7-Zoll-Display wird von einem schmalen Rahmen eingefasst. An einer Seite finden Sie den USB-C-Ladeanschluss und zwei Lautsprecher, auf der gegenüberliegenden Seite sitzen zwei weitere Lautsprecher sowie der Ein-/Aus-Knopf. Schon beim Auspacken des Lenovo Yoga Tab Plus war ich begeistert. Es ist ungewöhnlich, dass der Tab Pen Pro auf derselben Seite geladen wird, an der sich auch die Frontkamera befindet. Bei anderen Herstellern ist die Kamera meist auf der gegenüberliegenden Seite untergebracht, um Videoanrufe zu erleichtern. Unten wird die Tastatur magnetisch eingerastet. Tatsächlich gehört sie zu den besten Tastatur-Add-ons, die ich bisher genutzt habe. Die Tasten bieten mehr Hubweg als beim Magic Keyboard des iPad Pro, auch wenn dieses mittlerweile eine Generation älter ist. Das Trackpad ist groß und angenehm zu bedienen. Anyron Copeman / Foundry Insgesamt wirkt das Lenovo Yoga Tab Plus wie ein hochwertiges Tablet. Besonders gut gefällt mir, dass das Case modular aufgebaut ist. Wenn Sie keine Tastatur möchten, aber den integrierten Ständer auf der Rückseite nutzen wollen, können Sie ihn ganz einfach separat anbringen. Bildschirm & Lautsprecher 12,7-Zoll-IPS-LCD-Display 144 Hz Bildwiederholrate Auflösung: 2.944 x 1.840 Pixel Zuweilen wird das Lenovo Idea Tab Pro wegen seines IPS-LCD-Displays kritisiert, doch hier gibt es deutliche Unterschiede. Das Lenovo Yoga Tab Plus bietet trotz der gleichen Grundtechnik eine deutlich bessere Displayqualität. Es bietet eine flotte Bildwiederholrate von 144 Hertz und eine scharfe Auflösung von 2.944 x 1.840 Pixeln auf dem 12,7-Zoll-Display. Allerdings erreichen Sie nicht die gleichen Schwarzwerte und den Kontrast wie bei einem OLED-Bildschirm. Dafür ist das Display deutlich heller als bei vielen Konkurrenten, einschließlich des Idea Tab Pro, was besonders bei der Nutzung im Freien für gute Lesbarkeit sorgt. Anyron Copeman / Foundry Das Tablet bietet gleich sechs Lautsprecher: zwei Hochtöner und vier Subwoofer. So genießen Sie einen ausgewogenen Sound, egal ob beim Spielen oder Filme schauen. Ausstattung Snapdragon 8 Gen 3 16 GB RAM 256 oder 512 GB interner Speicher KI-Anwendungen erfordern viel Leistung, und genau die bietet das Lenovo Yoga Tab Plus. Es kommt zwar nicht ganz an das M4 iPad Pro heran, liegt aber deutlich vor vielen anderen Tablets dieser Klasse. Angetrieben wird es vom Snapdragon 8 Gen 3 von Qualcomm, einem der aktuell leistungsstärksten Chips, kombiniert mit großzügigen 16 Gigabyte Arbeitsspeicher. In Verbindung mit dem großen Display laufen Web-Browsing, Multitasking und soziale Medien besonders flüssig – nicht zuletzt dank der Bildwiederholrate von 144 Hertz. Auch beim Gaming überzeugt das Yoga Tab Plus auf ganzer Linie. Die starke Hardware sorgt für hohe Bildraten selbst bei anspruchsvollen Titeln wie “Genshin Impact” oder “Honkai: Star Rail”. Dank seiner hohen Leistungsreserven ist das Yoga Tab Plus sowohl für produktives Arbeiten als auch für anspruchsvolles Gaming bestens geeignet. Anyron Copeman / Foundry Der Fokus liegt, wie bei vielen aktuellen Geräten, auf KI-Funktionen. Mit dem Yoga Tab Plus bekommen Sie ein Tablet, das dafür technisch gut ausgestattet ist. Die Qualcomm Hexagon NPU arbeitet mit Lenovo AI Now zusammen und soll eine optimierte Nutzung von KI-Anwendungen ermöglichen. Auch der Speicher überzeugt mit schnellen 256 oder 512 Gigabyte, allerdings fehlt die Möglichkeit zur Erweiterung per microSD-Karte. Schade, denn gerade bei Lenovo ist dieses Feature sonst weit verbreitet. Rechenleistung > Kameras 13-MP-Frontkamera 13-MP-Hauptkamera auf der Rückseite Videoaufnahmen in bis zu 4K mit 30 fps über die Rückkamera Die Kameras im Lenovo Yoga Tab Plus erinnern an die des Idea Tab Pro. Sie erfüllen ihren Zweck im Alltag, können aber qualitativ nicht mit aktuellen Smartphone-Kameras mithalten. Die 13-Megapixel-Hauptkamera liefert Bilder mit wenig Details, oft blassen Farben und überbelichteten Bereichen. Für gelegentliche Schnappschüsse reicht das, wenn es darauf ankommt, sollten Sie jedoch lieber zum Smartphone greifen. Die 13-Megapixel-Hauptkamera liefert Bilder mit wenig Details, oft blassen Farben und überbelichteten Bereichen. Ähnliches gilt für die Frontkamera, die ebenfalls mit einem 13-Megapixel-Sensor ausgestattet ist. Hauttöne wirken blass und unnatürlich. Für Videotelefonate ist die Kamera zwar ausreichend, doch es gibt deutlich bessere Alternativen. Anhand der Beispielbilder unten wird deutlich, was ich meine: Meine Haare erscheinen als eine einzige dunkle Fläche. Einzelne Strähnen lassen sich nicht mehr erkennen. Anyron Copeman / Foundry Akkulaufzeit & Aufladen 10.200-mAh-Akku Starke Akkulaufzeit 45-W-Ladefunktion sorgt für lange Ladezeiten Das Tablet verfügt über einen großzügigen 10.200-Milliamperestunden-Akku, der für eine sehr lange Laufzeit sorgt. Ich habe das Yoga Tab Plus für die Arbeit und ein wenig Medienkonsum benutzt. Dabei hielt der Akku mehr als 14 Stunden durch. Bei KI-Anwendungen und Spielen leert er sich zwar schneller, trotzdem ist die Laufzeit beeindruckend. Im PCMark Work 3.0 Benchmark erreichte das Gerät sogar 18 Stunden und 3 Minuten. Das ist für Tablets ein überdurchschnittlicher Wert. Der große Akku sorgt zwar für eine lange Laufzeit, hat aber auch einen Nachteil: Das Laden dauert entsprechend lang. Obwohl das Yoga Tab Plus 45-Watt-Schnellladen unterstützt, benötigte es bei mir mehr als zwei Stunden, um von 0 auf 100 Prozent zu kommen. Benutzeroberfläche & Apps Lenovo ZUI basierend auf Android 14 Drei große Betriebssystem-Updates Sicherheitsupdates für vier Jahre Das Yoga Tab Plus wird mit Android 14 ausgeliefert, erhält jedoch garantierte Updates bis Android 17. Da Android 16 bereits verfügbar ist, ist dies besonders erwähnenswert. Wie lange es dauert, bis die neueste Version von Googles Betriebssystem verfügbar ist, bleibt jedoch unklar. Anyron Copeman / Foundry Sie erhalten allerdings vier Jahre lang Sicherheitsupdates, was durchaus solide ist. Lenovos eigene ZUI-Oberfläche basiert auf Android und nimmt nur vergleichsweise kleine Anpassungen am Standard-Android vor. Tatsächlich fallen diese Änderungen meist erst dann richtig auf, wenn Sie eine Tastatur und Maus anschließen und das Tablet so zu einer Art Chromebook wird. Die Software überzeugt durch eine übersichtliche und benutzerfreundliche Oberfläche. Abgesehen davon bietet das Yoga Tab Plus das vertraute Android-Erlebnis, bei dem Sie entweder per Gesten oder über Bildschirmtasten navigieren können. Neu ist der KI-Assistent Lenovo AI Now, ein Chatbot, der Ihnen beim Finden von Dateien, Websuchen, Zusammenfassen von Dokumenten und weiteren einfachen Aufgaben hilft. Wie bei vielen anderen Android-Tablets ist auch die Auswahl an speziell für Tablets optimierten Apps begrenzt. Dennoch überzeugt die Software durch eine übersichtliche und benutzerfreundliche Oberfläche. Preis & Verfügbarkeit Während die unverbindliche Preisempfehlung für das Lenovo Yoga Tab Plus bei 799 Euro liegt, ist das Gerät bei Online-Händler Amazon derzeit schon ab 699 Euro erhältlich. Es ist ein überzeugender Konkurrent zu einigen der aktuell besten Tablets auf dem Markt, darunter das iPad Air M3, das Samsung Galaxy Tab S10+ und das OnePlus Pad 3. Fazit Abgesehen vom fehlenden OLED-Display und den enttäuschenden Kameras gibt es kaum Gründe, das Lenovo Yoga Tab Plus nicht zu empfehlen. Das Tablet überzeugt mit einem hellen Bildschirm, praktischem Zubehör im Lieferumfang und einer starken Ausrichtung auf KI. In Kombination mit seiner beeindruckenden Leistung und dem großen Akku zählt es zu den aktuell besten Android-Tablets. Technische Daten Lenovo ZUI, basierend auf Android 14 12,7-Zoll IPS-LCD mit 2.944 x 1.840 Pixel und 144 Hz Qualcomm Snapdragon 8 Gen 3 16 GB RAM 256/512 GB Speicher 13-MP-Hauptkamera 13-MP-Frontkamera Sechs Lautsprecher Wi-Fi 7 Bluetooth 5.4 10.200-mAh-Akku 45 Watt kabelgebundenes Laden Maße: 290,9 x 188,3 x 8,5 mm Gewicht: 640 g Farben: Seashell, Tidal Teal (PC-Welt) 

Lenovo Yoga Tab Plus im Test: Leistungsstarkes Android-Tablet​ Anyron Copeman / Foundry

Auf einen Blick

Pro

Lange Akkulaufzeit

Starke Leistung

Großes, helles Display

Nützliches Zubehör im Lieferumfang

Kontra

Display ist kein OLED

Schwache Kameras

Fazit

Das Yoga Tab Plus ist eine starke Alternative zu teuren High-End-Tablets wie dem iPad Pro oder dem Galaxy Tab S10 Ultra. Mit umfangreichen Premium-Funktionen, beiliegendem Stylus und Tastatur bietet es ein rundes Gesamtpaket. Wenn Ihr Arbeitsstil es erlaubt, können Sie damit sogar problemlos Ihren Laptop ersetzen.

Die Ära der künstlichen Intelligenz ist angebrochen – und während viele Tablets vor allem mit großen Versprechen werben, könnte das Lenovo Yoga Tab Plus zu den aktuell besten Android-Tablets auf dem Markt gehören. Es ist leistungsstark, bietet eine tolle Android-Erfahrung und eignet sich perfekt für den Medienkonsum. Dank ausreichender Leistung für KI-Anwendungen ist es auch für die kommenden Jahre gut gerüstet.

Einziger Nachteil ist das fehlende OLED-Display, was sich jedoch dank der hohen Helligkeit des LCD gut verschmerzen lässt. Im Lieferumfang sind außerdem der Tab Pen Pro Stylus und eine Tastatur enthalten, wodurch sich das Tablet als praktische Alternative zum Laptop eignet. Wie gut sich das Tablet im Alltag schlägt, verrate ich Ihnen in meinem ausführlichen Test.

Design & Verarbeitung

Modulares Tastatur-Case

Tab Pen Pro im Lieferumfang enthalten

Lässt sich leicht mit einer Hand halten

Schon beim Auspacken des Lenovo Yoga Tab Plus war ich begeistert. Im Lieferumfang sind nicht nur das Tablet, sondern auch der Tab Pen Pro Stylus und eine Tastatur enthalten – beides gehört bei vielen Tablets sonst oft zum kostenpflichtigen Extra-Zubehör.

Das 12,7-Zoll-Display wird von einem schmalen Rahmen eingefasst. An einer Seite finden Sie den USB-C-Ladeanschluss und zwei Lautsprecher, auf der gegenüberliegenden Seite sitzen zwei weitere Lautsprecher sowie der Ein-/Aus-Knopf.

Schon beim Auspacken des Lenovo Yoga Tab Plus war ich begeistert.

Es ist ungewöhnlich, dass der Tab Pen Pro auf derselben Seite geladen wird, an der sich auch die Frontkamera befindet. Bei anderen Herstellern ist die Kamera meist auf der gegenüberliegenden Seite untergebracht, um Videoanrufe zu erleichtern.

Unten wird die Tastatur magnetisch eingerastet. Tatsächlich gehört sie zu den besten Tastatur-Add-ons, die ich bisher genutzt habe. Die Tasten bieten mehr Hubweg als beim Magic Keyboard des iPad Pro, auch wenn dieses mittlerweile eine Generation älter ist. Das Trackpad ist groß und angenehm zu bedienen.

Anyron Copeman / Foundry

Insgesamt wirkt das Lenovo Yoga Tab Plus wie ein hochwertiges Tablet. Besonders gut gefällt mir, dass das Case modular aufgebaut ist. Wenn Sie keine Tastatur möchten, aber den integrierten Ständer auf der Rückseite nutzen wollen, können Sie ihn ganz einfach separat anbringen.

Bildschirm & Lautsprecher

12,7-Zoll-IPS-LCD-Display

144 Hz Bildwiederholrate

Auflösung: 2.944 x 1.840 Pixel

Zuweilen wird das Lenovo Idea Tab Pro wegen seines IPS-LCD-Displays kritisiert, doch hier gibt es deutliche Unterschiede. Das Lenovo Yoga Tab Plus bietet trotz der gleichen Grundtechnik eine deutlich bessere Displayqualität.

Es bietet eine flotte Bildwiederholrate von 144 Hertz und eine scharfe Auflösung von 2.944 x 1.840 Pixeln auf dem 12,7-Zoll-Display. Allerdings erreichen Sie nicht die gleichen Schwarzwerte und den Kontrast wie bei einem OLED-Bildschirm. Dafür ist das Display deutlich heller als bei vielen Konkurrenten, einschließlich des Idea Tab Pro, was besonders bei der Nutzung im Freien für gute Lesbarkeit sorgt.

Anyron Copeman / Foundry

Das Tablet bietet gleich sechs Lautsprecher: zwei Hochtöner und vier Subwoofer. So genießen Sie einen ausgewogenen Sound, egal ob beim Spielen oder Filme schauen.

Ausstattung

Snapdragon 8 Gen 3

16 GB RAM

256 oder 512 GB interner Speicher

KI-Anwendungen erfordern viel Leistung, und genau die bietet das Lenovo Yoga Tab Plus. Es kommt zwar nicht ganz an das M4 iPad Pro heran, liegt aber deutlich vor vielen anderen Tablets dieser Klasse.

Angetrieben wird es vom Snapdragon 8 Gen 3 von Qualcomm, einem der aktuell leistungsstärksten Chips, kombiniert mit großzügigen 16 Gigabyte Arbeitsspeicher. In Verbindung mit dem großen Display laufen Web-Browsing, Multitasking und soziale Medien besonders flüssig – nicht zuletzt dank der Bildwiederholrate von 144 Hertz.

Auch beim Gaming überzeugt das Yoga Tab Plus auf ganzer Linie. Die starke Hardware sorgt für hohe Bildraten selbst bei anspruchsvollen Titeln wie “Genshin Impact” oder “Honkai: Star Rail”. Dank seiner hohen Leistungsreserven ist das Yoga Tab Plus sowohl für produktives Arbeiten als auch für anspruchsvolles Gaming bestens geeignet.

Anyron Copeman / Foundry

Der Fokus liegt, wie bei vielen aktuellen Geräten, auf KI-Funktionen. Mit dem Yoga Tab Plus bekommen Sie ein Tablet, das dafür technisch gut ausgestattet ist. Die Qualcomm Hexagon NPU arbeitet mit Lenovo AI Now zusammen und soll eine optimierte Nutzung von KI-Anwendungen ermöglichen.

Auch der Speicher überzeugt mit schnellen 256 oder 512 Gigabyte, allerdings fehlt die Möglichkeit zur Erweiterung per microSD-Karte. Schade, denn gerade bei Lenovo ist dieses Feature sonst weit verbreitet.

Rechenleistung

>

Kameras

13-MP-Frontkamera

13-MP-Hauptkamera auf der Rückseite

Videoaufnahmen in bis zu 4K mit 30 fps über die Rückkamera

Die Kameras im Lenovo Yoga Tab Plus erinnern an die des Idea Tab Pro. Sie erfüllen ihren Zweck im Alltag, können aber qualitativ nicht mit aktuellen Smartphone-Kameras mithalten.

Die 13-Megapixel-Hauptkamera liefert Bilder mit wenig Details, oft blassen Farben und überbelichteten Bereichen. Für gelegentliche Schnappschüsse reicht das, wenn es darauf ankommt, sollten Sie jedoch lieber zum Smartphone greifen.

Die 13-Megapixel-Hauptkamera liefert Bilder mit wenig Details, oft blassen Farben und überbelichteten Bereichen.

Ähnliches gilt für die Frontkamera, die ebenfalls mit einem 13-Megapixel-Sensor ausgestattet ist. Hauttöne wirken blass und unnatürlich. Für Videotelefonate ist die Kamera zwar ausreichend, doch es gibt deutlich bessere Alternativen.

Anhand der Beispielbilder unten wird deutlich, was ich meine: Meine Haare erscheinen als eine einzige dunkle Fläche. Einzelne Strähnen lassen sich nicht mehr erkennen.

Anyron Copeman / Foundry

Akkulaufzeit & Aufladen

10.200-mAh-Akku

Starke Akkulaufzeit

45-W-Ladefunktion sorgt für lange Ladezeiten

Das Tablet verfügt über einen großzügigen 10.200-Milliamperestunden-Akku, der für eine sehr lange Laufzeit sorgt. Ich habe das Yoga Tab Plus für die Arbeit und ein wenig Medienkonsum benutzt. Dabei hielt der Akku mehr als 14 Stunden durch. Bei KI-Anwendungen und Spielen leert er sich zwar schneller, trotzdem ist die Laufzeit beeindruckend.

Im PCMark Work 3.0 Benchmark erreichte das Gerät sogar 18 Stunden und 3 Minuten. Das ist für Tablets ein überdurchschnittlicher Wert.

Der große Akku sorgt zwar für eine lange Laufzeit, hat aber auch einen Nachteil: Das Laden dauert entsprechend lang. Obwohl das Yoga Tab Plus 45-Watt-Schnellladen unterstützt, benötigte es bei mir mehr als zwei Stunden, um von 0 auf 100 Prozent zu kommen.

Benutzeroberfläche & Apps

Lenovo ZUI basierend auf Android 14

Drei große Betriebssystem-Updates

Sicherheitsupdates für vier Jahre

Das Yoga Tab Plus wird mit Android 14 ausgeliefert, erhält jedoch garantierte Updates bis Android 17. Da Android 16 bereits verfügbar ist, ist dies besonders erwähnenswert. Wie lange es dauert, bis die neueste Version von Googles Betriebssystem verfügbar ist, bleibt jedoch unklar.

Anyron Copeman / Foundry

Sie erhalten allerdings vier Jahre lang Sicherheitsupdates, was durchaus solide ist.

Lenovos eigene ZUI-Oberfläche basiert auf Android und nimmt nur vergleichsweise kleine Anpassungen am Standard-Android vor. Tatsächlich fallen diese Änderungen meist erst dann richtig auf, wenn Sie eine Tastatur und Maus anschließen und das Tablet so zu einer Art Chromebook wird.

Die Software überzeugt durch eine übersichtliche und benutzerfreundliche Oberfläche.

Abgesehen davon bietet das Yoga Tab Plus das vertraute Android-Erlebnis, bei dem Sie entweder per Gesten oder über Bildschirmtasten navigieren können. Neu ist der KI-Assistent Lenovo AI Now, ein Chatbot, der Ihnen beim Finden von Dateien, Websuchen, Zusammenfassen von Dokumenten und weiteren einfachen Aufgaben hilft.

Wie bei vielen anderen Android-Tablets ist auch die Auswahl an speziell für Tablets optimierten Apps begrenzt. Dennoch überzeugt die Software durch eine übersichtliche und benutzerfreundliche Oberfläche.

Preis & Verfügbarkeit

Während die unverbindliche Preisempfehlung für das Lenovo Yoga Tab Plus bei 799 Euro liegt, ist das Gerät bei Online-Händler Amazon derzeit schon ab 699 Euro erhältlich.

Es ist ein überzeugender Konkurrent zu einigen der aktuell besten Tablets auf dem Markt, darunter das iPad Air M3, das Samsung Galaxy Tab S10+ und das OnePlus Pad 3.

Fazit

Abgesehen vom fehlenden OLED-Display und den enttäuschenden Kameras gibt es kaum Gründe, das Lenovo Yoga Tab Plus nicht zu empfehlen. Das Tablet überzeugt mit einem hellen Bildschirm, praktischem Zubehör im Lieferumfang und einer starken Ausrichtung auf KI. In Kombination mit seiner beeindruckenden Leistung und dem großen Akku zählt es zu den aktuell besten Android-Tablets.

Technische Daten

Lenovo ZUI, basierend auf Android 14

12,7-Zoll IPS-LCD mit 2.944 x 1.840 Pixel und 144 Hz

Qualcomm Snapdragon 8 Gen 3

16 GB RAM

256/512 GB Speicher

13-MP-Hauptkamera

13-MP-Frontkamera

Sechs Lautsprecher

Wi-Fi 7

Bluetooth 5.4

10.200-mAh-Akku

45 Watt kabelgebundenes Laden

Maße: 290,9 x 188,3 x 8,5 mm

Gewicht: 640 g

Farben: Seashell, Tidal Teal

(PC-Welt)

Lenovo Yoga Tab Plus im Test: Leistungsstarkes Android-Tablet​ Weiterlesen »

Wie Sie das Gendern am iPhone abstellen​

Allgemein

patat, keport / shutterstock.com iPhones sprechen seit iOS 15 (Release im September 2021) ihre Nutzer mit “Nutzer:innen” an. Das können Sie jedoch in den Einstellungen leicht ändern. Schon bei der Ersteinrichtung eines Geräts fragt das System nach der bevorzugten Anrede. Wenn Sie diesen Bildschirm übersprungen haben, dann weiß das Gerät im Zweifelsfall nicht, wie es Sie einordnen soll. So passen Sie die Anrede an: Gehen Sie in die Einstellungen-App und öffnen dort den Reiter “Allgemein”. Scrollen Sie in der Liste der Einstellungen zum Bereich mit Passwörtern, Datum und Uhrzeit. Dort findet sich auch die Einstellung “Sprache und Region”. Unterhalb der bevorzugten Sprachen befindet sich die Einstellung “Anredeform”. Wenn Sie darauf tippen, können Sie aus den vier Optionen “Keine Angabe”, “Weiblich”, “Männlich” und “Divers” wählen. Auf Wunsch können Sie die ausgewählte Anredeform mit Dritt-Apps teilen. Weibliche oder männliche Anredeform bei iPhone oder iPad festlegenHalyna Kubiv Seit iOS 17 lässt sich auch in Kontakten eine vergleichbare Information einstellen, also ob Sie lieber mit “sie” oder “er” angesprochen werden wollen. Solche Pronomina können Sie auch für andere Kontakte in Ihrem Adressbuch formatieren. Zugegebenermaßen bin ich auf den Tipp nur über Kommentare auf unserer Facebook-Seite aufmerksam geworden. Eine nicht repräsentative Umfrage unter Macwelt-Redakteuren ergab, dass alle selten bis nie im System gegenderte Anreden sehen. Ansonsten hat unser Kolumnist aus der Hölle (Macphisto) bereits vor drei Jahren dazu treffend kommentiert: Sachliche Kritik an dieser Erweiterung der Sprache, dieses Mitansprechens statt nur Mitmeinens ist nicht nur notwendig, sondern auch hochwillkommen, jede rationale Auseinandersetzung mit dem Thema lässt Wege und Ziele klarer aus dem Nebel hervortreten. Blanke Ablehnung mit Schmähungen wie „Gender-Gaga“ sagen aber mehr über den Schmähenden (meist Herren, seltsame Satzzeichen daher beinahe unnötig) aus als über Adressat:innen der Schmähkritik. Macphisto (Macwelt) 

Wie Sie das Gendern am iPhone abstellen​ patat, keport / shutterstock.com

iPhones sprechen seit iOS 15 (Release im September 2021) ihre Nutzer mit “Nutzer:innen” an. Das können Sie jedoch in den Einstellungen leicht ändern.

Schon bei der Ersteinrichtung eines Geräts fragt das System nach der bevorzugten Anrede. Wenn Sie diesen Bildschirm übersprungen haben, dann weiß das Gerät im Zweifelsfall nicht, wie es Sie einordnen soll. So passen Sie die Anrede an:

Gehen Sie in die Einstellungen-App und öffnen dort den Reiter “Allgemein”.

Scrollen Sie in der Liste der Einstellungen zum Bereich mit Passwörtern, Datum und Uhrzeit. Dort findet sich auch die Einstellung “Sprache und Region”.

Unterhalb der bevorzugten Sprachen befindet sich die Einstellung “Anredeform”.

Wenn Sie darauf tippen, können Sie aus den vier Optionen “Keine Angabe”, “Weiblich”, “Männlich” und “Divers” wählen.

Auf Wunsch können Sie die ausgewählte Anredeform mit Dritt-Apps teilen.

Weibliche oder männliche Anredeform bei iPhone oder iPad festlegenHalyna Kubiv

Seit iOS 17 lässt sich auch in Kontakten eine vergleichbare Information einstellen, also ob Sie lieber mit “sie” oder “er” angesprochen werden wollen. Solche Pronomina können Sie auch für andere Kontakte in Ihrem Adressbuch formatieren.

Zugegebenermaßen bin ich auf den Tipp nur über Kommentare auf unserer Facebook-Seite aufmerksam geworden. Eine nicht repräsentative Umfrage unter Macwelt-Redakteuren ergab, dass alle selten bis nie im System gegenderte Anreden sehen. Ansonsten hat unser Kolumnist aus der Hölle (Macphisto) bereits vor drei Jahren dazu treffend kommentiert:

Sachliche Kritik an dieser Erweiterung der Sprache, dieses Mitansprechens statt nur Mitmeinens ist nicht nur notwendig, sondern auch hochwillkommen, jede rationale Auseinandersetzung mit dem Thema lässt Wege und Ziele klarer aus dem Nebel hervortreten. Blanke Ablehnung mit Schmähungen wie „Gender-Gaga“ sagen aber mehr über den Schmähenden (meist Herren, seltsame Satzzeichen daher beinahe unnötig) aus als über Adressat:innen der Schmähkritik.

Macphisto

(Macwelt)

Wie Sie das Gendern am iPhone abstellen​ Weiterlesen »

Xiaomi Poco F7 im Test: Flaggschiff-Ausstattung zum Mittelklasse-Preis​

Allgemein

Luke Baker Auf einen Blick Pro Hochwertiges Gehäuse mit Aluminiumrahmen Schneller Snapdragon 8s Gen 4 Prozessor Großer 6.500-mAh-Akku 90-Watt-Schnellladen – Netzteil im Lieferumfang enthalten Kontra Keine Telekamera Kein eSIM- oder kabelloses Laden Vorinstallierte Bloatware Fazit Das Poco F7 bietet ein Gaming-Erlebnis auf Flaggschiff-Niveau – und das zu einem Bruchteil des Preises. Es überzeugt mit einem großartigen Display, einem hochwertigen Design, einem großen Akku und schnellem Laden. Die Kameras sind solide, jedoch fehlt eine Telekamera, was die Möglichkeiten im Vergleich zur Konkurrenz etwas einschränkt. Im Hinblick auf Leistung kann jedoch kaum ein anderes Handy in dieser Preisklasse mit dem schnellen Poco F7 mithalten. Vor einigen Monaten brachte Poco das F7 Pro und das F7 Ultra auf den Markt – beide leistungsstarke Smartphones zu erschwinglichen Preisen. Das Standardmodell F7 fehlte jedoch zunächst überraschend. Nun ist das Poco F7 endlich erhältlich und zählt zu den ersten Smartphones mit dem neuen Qualcomm Snapdragon 8s Gen 4 Prozessor. Dieser Chip liegt eine Stufe unter dem Topmodell 8 Elite, stellt aber einen deutlichen Leistungssprung gegenüber der 7er-Serie dar – bei deutlich geringeren Kosten. Deshalb kommt er in günstigeren Modellen wie dem F7 zum Einsatz. Neben dem Prozessor bietet das Gerät einen großen Akku, schnelles Laden, ein elegantes Design und ein hochwertiges Display. Insgesamt wirkt das Poco F7 auf den ersten Blick wie ein attraktives Gesamtpaket. Ob das Poco F7 den hohen Erwartungen gerecht wird und wo die Stärken und Schwächen liegen, zeigt unser ausführlicher Test. Design & Verarbeitung Aluminiumrahmen, Rückseite aus Kunststoff 216 Gramm, Corning Gorilla Glass Victus+ IP68-Zertifizierung für Wasser- und Staubschutz Das Poco F7 ist in drei Farbvarianten erhältlich. Für diesen Test standen mir alle drei zur Verfügung. Die Standardmodelle in Schwarz und Weiß zeichnen sich durch ein zweiteiliges Design auf der Rückseite aus: Eine diagonale Linie teilt das Panel, wobei der obere Bereich matt und der untere glänzend gestaltet ist. Luke Baker Außerdem gibt es eine besondere Limited Edition in Silber, die etwas auffälliger aussieht. Oben ist sie schwarz, mit eingeprägten Elementen, die einen halbtransparenten Effekt erzeugen, während der untere Bereich glänzend silbern gestaltet ist. Diese Variante wirkt, als wäre sie für Gamer entwickelt worden. Sie dürfte Geschmackssache sein, doch ich finde, dass sie richtig gut aussieht. Alle drei Varianten verfügen über Aluminiumrahmen an den Seiten und Kunststoffrückseiten. Auf den ersten Blick erscheint die Rückseite jedoch fast wie Glas. Einzig die dunkleren Farben neigen etwas stärker zu Fingerabdrücken als üblich. Insgesamt wirkt das Smartphone sehr hochwertig, was vordergründig an den Aluminiumseiten liegt. Zudem ist das Gerät dank Corning Gorilla Glass 7i auf dem Display und der IP68-Zertifizierung für Staub- und Wasserschutz auch ziemlich robust. Luke Baker Das Poco F7 ist mit seinem 6,83-Zoll-Display ein ziemlich großes Smartphone. Das kantige Design erinnert an ein iPhone und liegt dadurch sehr stabil in der Hand. Für mich war die Bedienung dank großer Hände problemlos, bei kleineren Händen könnte das Gerät jedoch etwas weniger komfortabel sein. Bildschirm & Lautsprecher 6,83-Zoll-Display mit 2.772 × 1.280 Pixeln, OLED und 120 Hertz Bildwiederholrate Spitzenhelligkeit von 3.200 Nits Stereo-Lautsprecher Das Poco F7 bietet Ihnen ein großes, komplett flaches Display – ideal zum Filmeschauen und Spielen. Das OLED-Panel liefert eine schnelle Bildwiederholrate von 120 Hertz und eine hohe Auflösung von 2.772 × 1.280 Pixeln. Das Display besitzt auf allen Seiten einen schlanken, gleichmäßigen Rahmen, der dem Smartphone einen edlen Look verleiht. Zudem ist das Panel extrem hell und erreicht in bestimmten Situationen bis zu 3.200 Nits. So können Sie den Bildschirm auch bei direkter Sonneneinstrahlung problemlos ablesen. HDR-Inhalte von Netflix oder YouTube wirken besonders lebendig und dynamisch. Luke Baker Das Smartphone ist mit zwei Stereo-Lautsprechern ausgestattet: Einer befindet sich an der Unterseite neben dem USB-C-Anschluss, der andere dient gleichzeitig als Ohrhörer. Stereo-Lautsprecher sind bei Mittelklasse-Modellen keine Selbstverständlichkeit, verbessern aber das Klangerlebnis deutlich – hauptsächlich beim Spielen ohne Headset. HDR-Inhalte von Netflix oder YouTube wirken besonders lebendig und dynamisch. Die Lautsprecher klingen insgesamt ausgezeichnet. Das Smartphone erreicht eine höhere Lautstärke als viele andere Modelle, mit klarer Wiedergabe und nur wenig Verzerrung. Wie üblich fehlt es etwas an Bass, doch die Klangqualität liegt dennoch deutlich über dem Durchschnitt. Für Spiele und Medienwiedergabe zu Hause sind sie mehr als ausreichend. Ausstattung & Rechenleistung Qualcomm Snapdragon 8s Gen 4 12 GB RAM 256 oder 512 GB interner Speicher Wie bereits eingangs erwähnt, ist das Poco F7 eines der ersten Geräte mit dem Qualcomm Snapdragon 8s Gen 4. Trotz etwas verwirrender Namensgebung ist der Prozessor etwas langsamer als der 8 Elite, aber schneller als der Vorgänger-Flaggschiff-Chip 8 Gen 3. Luke Baker In den meisten Benchmarks bestätigte sich dieser Eindruck. Zwar gab es bei GFXBench einige ungewöhnliche Ergebnisse, aber das kommt gelegentlich vor. Wichtig ist, dass das Poco F7 im Geekbench und 3DMark Wildlife Extreme das Samsung Galaxy S24 überholen konnte – eine beachtliche Leistung für ein so günstiges Smartphone. Doch die starke Performance zeigt sich nicht nur in synthetischen Tests. Auf dem Poco F7 läuft praktisch jedes Spiel problemlos, selbst bei maximalen Einstellungen. Nach längerer Nutzung wird das Smartphone spürbar warm – bei den derzeitigen hohen Temperaturen kein Wunder. Die beiliegende TPU-Hülle sorgt jedoch dafür, dass Sie sich nicht die Hände verbrennen. Luke Baker Mein Testgerät war mit 12 Gigabyte Arbeitsspeicher und 512 Gigabyte Speicher ausgestattet. Das Basismodell bietet 12 Gigabyte RAM und 256 Gigabyte internen Speicher. Auch ohne erweiterbaren Speicher bieten beide Varianten für die meisten Nutzer mehr als genug Kapazität, und das Smartphone meistert Multitasking mühelos. Auf die Gaming-Optionen gehe ich nicht näher ein, da sie bei allen aktuellen Poco-Modellen ähnlich sind. Es gibt zahlreiche Einstellungsmöglichkeiten, mit denen Sie die Leistung bei Bedarf weiter optimieren können. Luke Baker Besonders gut gefällt mir der Game-Launcher, der stark an die Funktion von Redmagic-Geräten erinnert. Er verwandelt Ihr Smartphone in ein handliches Gaming-Gerät – vor allem in Kombination mit einem Clamp-on-Controller wie dem Gamesir X2 Pro. Poco F7 Benchmarks Kameras 50-MP-Hauptkamera mit f/1.5 8-MP-Ultraweitwinkelkamera mit f/2.2 20-MP-Frontkamera mit f/2.2 Das Kamerasystem des Poco F7 bietet eine wirklich solide Hauptkamera, eine eher mittelmäßige Ultraweitwinkelkamera und eine ordentliche Frontkamera für Selfies. Luke Baker Das Poco F7 ist vielleicht nicht so vielseitig wie manche Konkurrenzmodelle, aber das muss es auch nicht sein. Während andere Smartphones die Fotografie in den Vordergrund stellen, setzt das Poco F7 auf Leistung. Die Kameras des F7 übertreffen viele Gaming-Smartphones. Xiaomi hat viel Erfahrung in der Bildverarbeitung, und das merkt man. Zwar sind die technischen Daten eher unspektakulär, doch die Ergebnisse waren besser als bei Geräten von Redmagic oder Asus ROG. Unabhängig von den Lichtverhältnissen sollten Sie möglichst zur Hauptkamera greifen. Sie liefert eine deutlich bessere Bildqualität und fängt weit mehr Details ein als die anderen beiden Linsen. Bei Dunkelheit wird dieser Unterschied noch klarer. Trotzdem hat die Ultraweitwinkelkamera ihre Daseinsberechtigung – lieber eine mittelmäßige Weitwinkelkamera als gar keine. Das Kamerasystem des Poco F7 bietet eine wirklich solide Hauptkamera, eine eher mittelmäßige Ultraweitwinkelkamera und eine ordentliche Frontkamera für Selfies. Die Selfie-Kamera liefert in allen Lichtsituationen gute Ergebnisse. Überraschend: Selbst bei wenig Licht gibt es kaum Bewegungsunschärfe – ein Problem, das viele andere Geräte haben. Auch der Porträtmodus funktioniert zuverlässig. Bei der Hauptkamera wirkt die Porträtverarbeitung allerdings etwas übertrieben, auch wenn der Beauty-Modus ausgeschaltet ist. Videoaufnahmen sind mit bis zu 4K mit 60 Bildern pro Sekunde möglich – allerdings nur mit der Hauptkamera. Die beiden anderen Linsen schaffen maximal 1080p. Die Bildstabilisierung ist sehr gut, allerdings reagieren die Mikrofone empfindlich auf Windgeräusche. Beim Filmen im Freien ist daher etwas Vorsicht geboten. Akkulaufzeit & Aufladen 6.500-mAh-Akku 90-Watt-Schnellladen per Kabel 22,5-Watt-Rückwärtsladen per Kabel Eines der Highlights am Poco F7 ist der riesige 6.500-Milliamperestunden-Akku. Das ist eine beeindruckende Kapazität und deutlich mehr als bei den meisten Flaggschiff-Modellen. Dass Xiaomi so einen großen Akku in einem vergleichsweise günstigen Gerät verbaut, macht Hoffnung für die Zukunft – vielleicht ist ein 10.000-Milliamperestunden-Akku in einem handlichen Smartphone gar nicht mehr so weit entfernt. Eines der Highlights am Poco F7 ist der riesige 6.500-Milliamperestunden-Akku. Die Akkuleistung ist solide, aber nicht ganz so beeindruckend wie erwartet. Zwei Tage Laufzeit sind problemlos drin, das schaffen aber auch Smartphones mit 5.500 Milliamperestunden. Vielleicht muss das Betriebssystem erst noch zuverlässiger lernen, wie ich das Gerät nutze, um den Akku noch effizienter zu machen. Luke Baker Unser üblicher PCMark-Akkutest ergab eine Laufzeit von 14 Stunden und 44 Minuten – fast genauso lange wie beim Poco F7 Ultra, das allerdings nur einen 5.300-Milliamperestunden-Akku besitzt. Es liegt also nicht nur an meinem Eindruck: Xiaomi muss noch etwas an der Optimierung arbeiten, um das volle Potenzial des großen Akkus auszuschöpfen. Das Poco F7 unterstützt kabelgebundenes Schnellladen mit bis zu 90 Watt – das passende Netzteil liegt bei. So ist der Akku in rund 30 Minuten auf fast 80 Prozent. Kabelloses Laden fehlt, was in dieser Preisklasse jedoch kaum verwundert. Benutzeroberfläche & Apps Hyper OS 2, basierend auf Android 15 HyperAI-Funktionen Einige vorinstallierte Apps Das Poco F7 nutzt Hyper OS 2, die gleiche Software, die auch auf anderen aktuellen Xiaomi- und Poco-Geräten zum Einsatz kommt. Dabei handelt es sich um eine stark angepasste Version von Android 15, die bei einigen Nutzern beliebt ist, während andere sich erst daran gewöhnen müssen. Das Betriebssystem bietet zahlreiche Anpassungsmöglichkeiten, sodass sich Design und Bedienung individuell einstellen lassen. Luke Baker Sie erhalten alle üblichen Google-Funktionen wie Gemini und Circle to Search, dazu kommt eine eigene KI-Suite von Xiaomi. Diese umfasst die bekannten Tools wie Übersetzungen, einen Schreibassistenten und KI-Zusammenfassungen. Überdies bietet Xiaomi praktische Bildbearbeitungsfunktionen, darunter einen KI-Objekt-Radierer, Bildvergrößerung und Bildverbesserung. Das Betriebssystem arbeitet äußerst flott und reagiert sofort, was nicht nur an der leistungsstarken Hardware liegt. Die geschmeidigen Animationen verstärken den Eindruck von Geschwindigkeit zusätzlich. Verzögerungen treten kaum auf, und das Nutzererlebnis ist durchweg flüssig und angenehm. Luke Baker Der größte Nachteil ist die Menge an vorinstallierter Bloatware. Zwar ist das Poco F7 preiswert, und solche Zusatzsoftware gehört oft dazu, doch hier fällt die Anzahl doch recht hoch aus – darunter auch diverse Spiele. Die meisten dieser Apps lassen sich zwar entfernen, dennoch schmälert das den positiven Ersteindruck beim Einrichten des neuen Smartphones. Preis & Verfügbarkeit Mit 256 Gigabyte internem Speicher ist das Poco F7 bei Online-Händler Amazon derzeit für 399,90 Euro erhältlich. Die Version mit 512 Gigabyte Speicher schlägt mit 449,90 Euro zu Buche. Gegenüber der unverbindlichen Preisempfehlung sparen Sie bei beiden Modellen jeweils 50 Euro. Preislich konkurriert das Poco F7 mit Modellen wie dem Google Pixel 9a, dem Nothing Phone (3a) Pro und dem Honor 400. Diese Mittelklasse-Smartphones bieten teils bessere Kameras, doch in puncto Leistung und Gaming hat das F7 die Nase vorn. Fazit Wer ein Smartphone unter 400 Euro sucht, das auch bei anspruchsvollen Games nicht ins Schwitzen gerät, sollte einen Blick auf das Poco F7 werfen. Es bietet Flaggschiff-Leistung, ein brillantes AMOLED-Display, schnellen Akku mit 90-Watt-Ladung und ein auffälliges Design. Nur die Kamera kann nicht ganz mithalten: Die Bildqualität ist ordentlich, aber ohne Teleobjektiv fehlt es an Vielseitigkeit. Dennoch überzeugt das F7 als rundes Gesamtpaket – deutlich ausgewogener als viele reine Gaming-Phones, die oft Kompromisse bei Display, Akku oder Verarbeitung machen. Fazit: Wer ein schnelles, ausdauerndes und gaming-taugliches Smartphone zum fairen Preis sucht, macht mit dem Poco F7 wenig falsch. Technische Daten Hyper OS 2 (basiert auf Android 15) 6,83 Zoll OLED, 2.772 × 1.280 Pixel, 120 Hertz Optischer Fingerabdrucksensor im Display Qualcomm Snapdragon 8s Gen 4 12 GB RAM 256 GB oder 512 GB Speicher Kamera: 50-MP-Hauptsensor, 8-MP-Ultraweitwinkel, 20-MP-Frontkamera Video: bis 4K mit 60 fps (Rückkamera) Stereo-Lautsprecher Dual-SIM Wi-Fi 7 / 6 / 5 / 4 Bluetooth 6 6.500 mAh Akku 90 Watt kabelgebundenes Laden 163,1 × 77,9 × 8,2 mm IP68-zertifiziert 216 Gramm Farben: Schwarz, Silber, Weiß (PC-Welt) 

Xiaomi Poco F7 im Test: Flaggschiff-Ausstattung zum Mittelklasse-Preis​ Luke Baker

Auf einen Blick

Pro

Hochwertiges Gehäuse mit Aluminiumrahmen

Schneller Snapdragon 8s Gen 4 Prozessor

Großer 6.500-mAh-Akku

90-Watt-Schnellladen – Netzteil im Lieferumfang enthalten

Kontra

Keine Telekamera

Kein eSIM- oder kabelloses Laden

Vorinstallierte Bloatware

Fazit

Das Poco F7 bietet ein Gaming-Erlebnis auf Flaggschiff-Niveau – und das zu einem Bruchteil des Preises. Es überzeugt mit einem großartigen Display, einem hochwertigen Design, einem großen Akku und schnellem Laden. Die Kameras sind solide, jedoch fehlt eine Telekamera, was die Möglichkeiten im Vergleich zur Konkurrenz etwas einschränkt. Im Hinblick auf Leistung kann jedoch kaum ein anderes Handy in dieser Preisklasse mit dem schnellen Poco F7 mithalten.

Vor einigen Monaten brachte Poco das F7 Pro und das F7 Ultra auf den Markt – beide leistungsstarke Smartphones zu erschwinglichen Preisen. Das Standardmodell F7 fehlte jedoch zunächst überraschend.

Nun ist das Poco F7 endlich erhältlich und zählt zu den ersten Smartphones mit dem neuen Qualcomm Snapdragon 8s Gen 4 Prozessor. Dieser Chip liegt eine Stufe unter dem Topmodell 8 Elite, stellt aber einen deutlichen Leistungssprung gegenüber der 7er-Serie dar – bei deutlich geringeren Kosten. Deshalb kommt er in günstigeren Modellen wie dem F7 zum Einsatz.

Neben dem Prozessor bietet das Gerät einen großen Akku, schnelles Laden, ein elegantes Design und ein hochwertiges Display. Insgesamt wirkt das Poco F7 auf den ersten Blick wie ein attraktives Gesamtpaket. Ob das Poco F7 den hohen Erwartungen gerecht wird und wo die Stärken und Schwächen liegen, zeigt unser ausführlicher Test.

Design & Verarbeitung

Aluminiumrahmen, Rückseite aus Kunststoff

216 Gramm, Corning Gorilla Glass Victus+

IP68-Zertifizierung für Wasser- und Staubschutz

Das Poco F7 ist in drei Farbvarianten erhältlich. Für diesen Test standen mir alle drei zur Verfügung. Die Standardmodelle in Schwarz und Weiß zeichnen sich durch ein zweiteiliges Design auf der Rückseite aus: Eine diagonale Linie teilt das Panel, wobei der obere Bereich matt und der untere glänzend gestaltet ist.

Luke Baker

Außerdem gibt es eine besondere Limited Edition in Silber, die etwas auffälliger aussieht. Oben ist sie schwarz, mit eingeprägten Elementen, die einen halbtransparenten Effekt erzeugen, während der untere Bereich glänzend silbern gestaltet ist. Diese Variante wirkt, als wäre sie für Gamer entwickelt worden. Sie dürfte Geschmackssache sein, doch ich finde, dass sie richtig gut aussieht.

Alle drei Varianten verfügen über Aluminiumrahmen an den Seiten und Kunststoffrückseiten. Auf den ersten Blick erscheint die Rückseite jedoch fast wie Glas. Einzig die dunkleren Farben neigen etwas stärker zu Fingerabdrücken als üblich.

Insgesamt wirkt das Smartphone sehr hochwertig, was vordergründig an den Aluminiumseiten liegt. Zudem ist das Gerät dank Corning Gorilla Glass 7i auf dem Display und der IP68-Zertifizierung für Staub- und Wasserschutz auch ziemlich robust.

Luke Baker

Das Poco F7 ist mit seinem 6,83-Zoll-Display ein ziemlich großes Smartphone. Das kantige Design erinnert an ein iPhone und liegt dadurch sehr stabil in der Hand. Für mich war die Bedienung dank großer Hände problemlos, bei kleineren Händen könnte das Gerät jedoch etwas weniger komfortabel sein.

Bildschirm & Lautsprecher

6,83-Zoll-Display mit 2.772 × 1.280 Pixeln, OLED und 120 Hertz Bildwiederholrate

Spitzenhelligkeit von 3.200 Nits

Stereo-Lautsprecher

Das Poco F7 bietet Ihnen ein großes, komplett flaches Display – ideal zum Filmeschauen und Spielen. Das OLED-Panel liefert eine schnelle Bildwiederholrate von 120 Hertz und eine hohe Auflösung von 2.772 × 1.280 Pixeln.

Das Display besitzt auf allen Seiten einen schlanken, gleichmäßigen Rahmen, der dem Smartphone einen edlen Look verleiht. Zudem ist das Panel extrem hell und erreicht in bestimmten Situationen bis zu 3.200 Nits. So können Sie den Bildschirm auch bei direkter Sonneneinstrahlung problemlos ablesen. HDR-Inhalte von Netflix oder YouTube wirken besonders lebendig und dynamisch.

Luke Baker

Das Smartphone ist mit zwei Stereo-Lautsprechern ausgestattet: Einer befindet sich an der Unterseite neben dem USB-C-Anschluss, der andere dient gleichzeitig als Ohrhörer. Stereo-Lautsprecher sind bei Mittelklasse-Modellen keine Selbstverständlichkeit, verbessern aber das Klangerlebnis deutlich – hauptsächlich beim Spielen ohne Headset.

HDR-Inhalte von Netflix oder YouTube wirken besonders lebendig und dynamisch.

Die Lautsprecher klingen insgesamt ausgezeichnet. Das Smartphone erreicht eine höhere Lautstärke als viele andere Modelle, mit klarer Wiedergabe und nur wenig Verzerrung. Wie üblich fehlt es etwas an Bass, doch die Klangqualität liegt dennoch deutlich über dem Durchschnitt. Für Spiele und Medienwiedergabe zu Hause sind sie mehr als ausreichend.

Ausstattung & Rechenleistung

Qualcomm Snapdragon 8s Gen 4

12 GB RAM

256 oder 512 GB interner Speicher

Wie bereits eingangs erwähnt, ist das Poco F7 eines der ersten Geräte mit dem Qualcomm Snapdragon 8s Gen 4. Trotz etwas verwirrender Namensgebung ist der Prozessor etwas langsamer als der 8 Elite, aber schneller als der Vorgänger-Flaggschiff-Chip 8 Gen 3.

Luke Baker

In den meisten Benchmarks bestätigte sich dieser Eindruck. Zwar gab es bei GFXBench einige ungewöhnliche Ergebnisse, aber das kommt gelegentlich vor. Wichtig ist, dass das Poco F7 im Geekbench und 3DMark Wildlife Extreme das Samsung Galaxy S24 überholen konnte – eine beachtliche Leistung für ein so günstiges Smartphone.

Doch die starke Performance zeigt sich nicht nur in synthetischen Tests. Auf dem Poco F7 läuft praktisch jedes Spiel problemlos, selbst bei maximalen Einstellungen.

Nach längerer Nutzung wird das Smartphone spürbar warm – bei den derzeitigen hohen Temperaturen kein Wunder. Die beiliegende TPU-Hülle sorgt jedoch dafür, dass Sie sich nicht die Hände verbrennen.

Luke Baker

Mein Testgerät war mit 12 Gigabyte Arbeitsspeicher und 512 Gigabyte Speicher ausgestattet. Das Basismodell bietet 12 Gigabyte RAM und 256 Gigabyte internen Speicher. Auch ohne erweiterbaren Speicher bieten beide Varianten für die meisten Nutzer mehr als genug Kapazität, und das Smartphone meistert Multitasking mühelos.

Auf die Gaming-Optionen gehe ich nicht näher ein, da sie bei allen aktuellen Poco-Modellen ähnlich sind. Es gibt zahlreiche Einstellungsmöglichkeiten, mit denen Sie die Leistung bei Bedarf weiter optimieren können.

Luke Baker

Besonders gut gefällt mir der Game-Launcher, der stark an die Funktion von Redmagic-Geräten erinnert. Er verwandelt Ihr Smartphone in ein handliches Gaming-Gerät – vor allem in Kombination mit einem Clamp-on-Controller wie dem Gamesir X2 Pro.

Poco F7 Benchmarks

Kameras

50-MP-Hauptkamera mit f/1.5

8-MP-Ultraweitwinkelkamera mit f/2.2

20-MP-Frontkamera mit f/2.2

Das Kamerasystem des Poco F7 bietet eine wirklich solide Hauptkamera, eine eher mittelmäßige Ultraweitwinkelkamera und eine ordentliche Frontkamera für Selfies.

Luke Baker

Das Poco F7 ist vielleicht nicht so vielseitig wie manche Konkurrenzmodelle, aber das muss es auch nicht sein. Während andere Smartphones die Fotografie in den Vordergrund stellen, setzt das Poco F7 auf Leistung.

Die Kameras des F7 übertreffen viele Gaming-Smartphones. Xiaomi hat viel Erfahrung in der Bildverarbeitung, und das merkt man. Zwar sind die technischen Daten eher unspektakulär, doch die Ergebnisse waren besser als bei Geräten von Redmagic oder Asus ROG.

Unabhängig von den Lichtverhältnissen sollten Sie möglichst zur Hauptkamera greifen. Sie liefert eine deutlich bessere Bildqualität und fängt weit mehr Details ein als die anderen beiden Linsen. Bei Dunkelheit wird dieser Unterschied noch klarer. Trotzdem hat die Ultraweitwinkelkamera ihre Daseinsberechtigung – lieber eine mittelmäßige Weitwinkelkamera als gar keine.

Das Kamerasystem des Poco F7 bietet eine wirklich solide Hauptkamera, eine eher mittelmäßige Ultraweitwinkelkamera und eine ordentliche Frontkamera für Selfies.

Die Selfie-Kamera liefert in allen Lichtsituationen gute Ergebnisse. Überraschend: Selbst bei wenig Licht gibt es kaum Bewegungsunschärfe – ein Problem, das viele andere Geräte haben. Auch der Porträtmodus funktioniert zuverlässig. Bei der Hauptkamera wirkt die Porträtverarbeitung allerdings etwas übertrieben, auch wenn der Beauty-Modus ausgeschaltet ist.

Videoaufnahmen sind mit bis zu 4K mit 60 Bildern pro Sekunde möglich – allerdings nur mit der Hauptkamera. Die beiden anderen Linsen schaffen maximal 1080p. Die Bildstabilisierung ist sehr gut, allerdings reagieren die Mikrofone empfindlich auf Windgeräusche. Beim Filmen im Freien ist daher etwas Vorsicht geboten.

Akkulaufzeit & Aufladen

6.500-mAh-Akku

90-Watt-Schnellladen per Kabel

22,5-Watt-Rückwärtsladen per Kabel

Eines der Highlights am Poco F7 ist der riesige 6.500-Milliamperestunden-Akku. Das ist eine beeindruckende Kapazität und deutlich mehr als bei den meisten Flaggschiff-Modellen. Dass Xiaomi so einen großen Akku in einem vergleichsweise günstigen Gerät verbaut, macht Hoffnung für die Zukunft – vielleicht ist ein 10.000-Milliamperestunden-Akku in einem handlichen Smartphone gar nicht mehr so weit entfernt.

Eines der Highlights am Poco F7 ist der riesige 6.500-Milliamperestunden-Akku.

Die Akkuleistung ist solide, aber nicht ganz so beeindruckend wie erwartet. Zwei Tage Laufzeit sind problemlos drin, das schaffen aber auch Smartphones mit 5.500 Milliamperestunden. Vielleicht muss das Betriebssystem erst noch zuverlässiger lernen, wie ich das Gerät nutze, um den Akku noch effizienter zu machen.

Luke Baker

Unser üblicher PCMark-Akkutest ergab eine Laufzeit von 14 Stunden und 44 Minuten – fast genauso lange wie beim Poco F7 Ultra, das allerdings nur einen 5.300-Milliamperestunden-Akku besitzt. Es liegt also nicht nur an meinem Eindruck: Xiaomi muss noch etwas an der Optimierung arbeiten, um das volle Potenzial des großen Akkus auszuschöpfen.

Das Poco F7 unterstützt kabelgebundenes Schnellladen mit bis zu 90 Watt – das passende Netzteil liegt bei. So ist der Akku in rund 30 Minuten auf fast 80 Prozent. Kabelloses Laden fehlt, was in dieser Preisklasse jedoch kaum verwundert.

Benutzeroberfläche & Apps

Hyper OS 2, basierend auf Android 15

HyperAI-Funktionen

Einige vorinstallierte Apps

Das Poco F7 nutzt Hyper OS 2, die gleiche Software, die auch auf anderen aktuellen Xiaomi- und Poco-Geräten zum Einsatz kommt. Dabei handelt es sich um eine stark angepasste Version von Android 15, die bei einigen Nutzern beliebt ist, während andere sich erst daran gewöhnen müssen. Das Betriebssystem bietet zahlreiche Anpassungsmöglichkeiten, sodass sich Design und Bedienung individuell einstellen lassen.

Luke Baker

Sie erhalten alle üblichen Google-Funktionen wie Gemini und Circle to Search, dazu kommt eine eigene KI-Suite von Xiaomi. Diese umfasst die bekannten Tools wie Übersetzungen, einen Schreibassistenten und KI-Zusammenfassungen. Überdies bietet Xiaomi praktische Bildbearbeitungsfunktionen, darunter einen KI-Objekt-Radierer, Bildvergrößerung und Bildverbesserung.

Das Betriebssystem arbeitet äußerst flott und reagiert sofort, was nicht nur an der leistungsstarken Hardware liegt. Die geschmeidigen Animationen verstärken den Eindruck von Geschwindigkeit zusätzlich. Verzögerungen treten kaum auf, und das Nutzererlebnis ist durchweg flüssig und angenehm.

Luke Baker

Der größte Nachteil ist die Menge an vorinstallierter Bloatware. Zwar ist das Poco F7 preiswert, und solche Zusatzsoftware gehört oft dazu, doch hier fällt die Anzahl doch recht hoch aus – darunter auch diverse Spiele. Die meisten dieser Apps lassen sich zwar entfernen, dennoch schmälert das den positiven Ersteindruck beim Einrichten des neuen Smartphones.

Preis & Verfügbarkeit

Mit 256 Gigabyte internem Speicher ist das Poco F7 bei Online-Händler Amazon derzeit für 399,90 Euro erhältlich. Die Version mit 512 Gigabyte Speicher schlägt mit 449,90 Euro zu Buche. Gegenüber der unverbindlichen Preisempfehlung sparen Sie bei beiden Modellen jeweils 50 Euro.

Preislich konkurriert das Poco F7 mit Modellen wie dem Google Pixel 9a, dem Nothing Phone (3a) Pro und dem Honor 400. Diese Mittelklasse-Smartphones bieten teils bessere Kameras, doch in puncto Leistung und Gaming hat das F7 die Nase vorn.

Fazit

Wer ein Smartphone unter 400 Euro sucht, das auch bei anspruchsvollen Games nicht ins Schwitzen gerät, sollte einen Blick auf das Poco F7 werfen. Es bietet Flaggschiff-Leistung, ein brillantes AMOLED-Display, schnellen Akku mit 90-Watt-Ladung und ein auffälliges Design.

Nur die Kamera kann nicht ganz mithalten: Die Bildqualität ist ordentlich, aber ohne Teleobjektiv fehlt es an Vielseitigkeit. Dennoch überzeugt das F7 als rundes Gesamtpaket – deutlich ausgewogener als viele reine Gaming-Phones, die oft Kompromisse bei Display, Akku oder Verarbeitung machen.

Fazit: Wer ein schnelles, ausdauerndes und gaming-taugliches Smartphone zum fairen Preis sucht, macht mit dem Poco F7 wenig falsch.

Technische Daten

Hyper OS 2 (basiert auf Android 15)

6,83 Zoll OLED, 2.772 × 1.280 Pixel, 120 Hertz

Optischer Fingerabdrucksensor im Display

Qualcomm Snapdragon 8s Gen 4

12 GB RAM

256 GB oder 512 GB Speicher

Kamera: 50-MP-Hauptsensor, 8-MP-Ultraweitwinkel, 20-MP-Frontkamera

Video: bis 4K mit 60 fps (Rückkamera)

Stereo-Lautsprecher

Dual-SIM

Wi-Fi 7 / 6 / 5 / 4

Bluetooth 6

6.500 mAh Akku

90 Watt kabelgebundenes Laden

163,1 × 77,9 × 8,2 mm

IP68-zertifiziert

216 Gramm

Farben: Schwarz, Silber, Weiß

(PC-Welt)

Xiaomi Poco F7 im Test: Flaggschiff-Ausstattung zum Mittelklasse-Preis​ Weiterlesen »

iOS 26 auf alten iPhones: Wie gut läuft das neue System auf einem iPhone SE oder 11?​

Allgemein

IDG Das neue iOS 26 hat vor allem mit seinem gläsernen neuen Design für Aufsehen gesorgt, auch unter der Haube gibt es aber viele neue Funktionen wie Apple Intelligence, Dolmetscher und Bildanalyse per KI. Leider bleiben viele der neuen Funktionen aktuellen iPhones vorbehalten, im Grunde läuft iOS 26 aber sogar noch auf einem alten iPhone SE 2020 und einem iPhone 11. Ist dies aber sinnvoll? Es gibt dabei nämlich eine große Gefahr: Manchmal ist ein iPhone von einem neuen System einfach überfordert und die Nutzung wird zur Qual. Besonders auffällig fand ich dies schon bei iOS 18. Dieses System hat deutlich höhere Hardwareanforderungen als iOS 17 und machte mein für Tests genutztes altes iPhone XR endgültig zu Alteisen. Ich habe die neue Beta deshalb auf einem iPhone SE von 2020 installiert und einige Tage Systemfunktionen und übliche Apps damit ausprobiert. Das neue iOS 26 ist auch für alte iPhones sehr verlockend: Apple Intelligence gibt es zwar erst ab dem iPhone 15 Pro, das neue Design Liquid Glass sollte aber problemlos funktionieren und iOS 26 bietet noch viele weitere Neuerungen. Ich hatte dabei drei verschiedene Eindrücke: Einiges funktioniert hervorragend, einiges aber auch miserabel. Es gibt außerdem einige unschöne Eindrücke, die ich nicht unerwähnt lassen möchte. Beta-Probleme der aktuellen Version Was man aber vorab klarstellen muss: iOS 26 ist aktuell in einer frühen Beta-Phase. Im Alltag sind kleinere Probleme und Fehler zu erwarten.  So ist die Akkulaufzeit noch deutlich schlechter als unter iOS 18 und es kann immer wieder zu Funktionsfehlern kommen. Bis zum finalen Erscheinen der neuen iOS-Version wird iOS 26 aber von vielen Fehlern befreit sein und flüssiger und zuverlässiger laufen – wie bei früheren Systemwechseln auch. Nicht ohne Grund empfehlen viele erfahrene Anwender auf eine spätere Version zu warten, in diesem Falle die Version iOS 26.1 – einige Kommentare behauten sogar, bei iOS 18 war dieser Zustand erst mit iOS 18.4 erreicht. The Good – positive Überraschungen Mein iPhone SE 2020 ist zwar recht alt, ich habe aber immer noch eine Schwäche für alte iPhones mit Home Button. Zwar ist der Bildschirm mit 4,7-Zoll eigentlich zu klein für aktuelle Apps und Webseiten, das Design gefällt mir aber noch immer. Das geringe Gewicht und die kleinen Abmessungen machen es zu einem guten Zweithandy für Festivals oder unterwegs. Es sind bei iOS 26 viele kleine Verbesserungen, die den Umstieg attraktiv machen: Selbst auf diesem alten LC-Display sieht etwa das neue Design Liquid Glass hervorragend aus und wertet das alte iPhone optisch auf. Mit der neuen Icon-Ansicht “Durchsichtig” kann ich wenig anfangen, finde aber begrüßenswert, dass es endlich mehr Darstellungs-Modi gibt. Die neue Optik soll auch einen höheren Nutzwert erreichen, hier sind die Meinungen aber doch geteilt. iOS 26 bietet deutlich mehr KonfigurationsmöglichkeitenIDG Alle neuen (und alten) Apple-Intelligence-Funktionen fehlen auf dem alten Gerät, es gibt aber immer noch viel Neues zu entdecken. Gut gefällt mir etwa die Optik der neuen Kamera-App, die Oberfläche ist moderner und übersichtlicher geworden. Safari 26 bietet zudem einen neuen Kompaktmodus, der gerade für den kleinen Bildschirm des SE sehr interessant ist. Neue Funktionen bieten aber auch die App Karten und Fotos. So ist die Darstellung von Fotos übersichtlicher geworden. Besonders überzeugt mich aber eine der neuen Optionen für Airpods: Sprachaufnahmen mittel Airpods Pro 2 oder Airpods 4 werden nun mit “Studioqualität” erstellt, Hintergrundgeräusche dabei ausgeblendet. Auch Kamera-Aufnahmen können Sie jetzt mit dem Drücken der Airpod-Taste starten. Als häufiger Nutzer von Carplay profitiere ich von einer neuen Optik und neuen Funktionen. Es gibt etwa erstmals Live-Aktivitäten und Widgets. Ob ich wirklich im Parkmodus Videos abspielen muss, finde ich dagegen fraglich. Die neuen KI-Funktionen bleiben natürlich außen vor. Apple hat in vielen Apps sinnvolle Detailverbesserungen vorgenommen – darunter auch Podcasts und Musik. Bei Podcasts gibt es nun eine neue Option für bessere Sprachqualität. Praktisch sind zudem die neue Vorschau-App sowie die überarbeitete Dateiverwaltungs-App “Dateien”. Besonders für Blogger interessant: Die Notizen-App unterstützt jetzt den Export im Markdown-Format. Es gibt auch für alte Geräte neue Funktionen wie die lokale Aufnahme von Audio – etwa Telefonaten.IDG Es stimmt übrigens nicht, dass man auf einem älteren iPhone keine KI nutzen kann: Eine App wie Google Gemini läuft auch auf dem iPhone SE einwandfrei. Die Funktion Gemini Live erkennt auf Wunsch sogar alle Objekte im Kamerabild – direkt auf dem SE. Dank einer in die Cloud ausgelagerten KI funktionieren auch viele weitere Apps wie Perplexity und ChatGPT auf dem SE dabei kaum langsamer als auf einem iPhone 16. Es gibt jedoch auch einige weniger positive Erfahrungen zu berichten. The Bad – negative Erfahrungen Geringes Gewicht und kleine Abmessungen sind beim SE gut und schön: Mit iOS 26 ist aber das iPhone SE 2020 nach meinem Eindruck doch ein wenig überfordert – wie schon von iOS 18. Der Grund ist nach meiner Meinung ein großer Unterschied zwischen dem Modell von 2022 mit 5G und dem Modell von 2020: Beim älteren Modell stehen nur 3 GB RAM zur Verfügung, das ist offensichtlich zu wenig. Beim Nachfolgemodell von 2022 und dem iPhone 11 stehen immerhin 4 GB RAM zur Verfügung – das macht sich im Alltag spürbar bemerkbar. Gerade beim Scrollen durch komplexe Webseiten kommt es auf älteren Geräten schnell zu Rucklern oder sogar Abstürzen. Kein Wunder also, dass sich manche Nutzer fragen, ob ein Verbleib bei iOS 17 nicht die bessere Wahl gewesen wäre. Bei der Nutzung des iPhones gab es noch ein anderes Problem, das bei einem alten iPhone unvermeidlich ist: Das neue System lastet nicht nur das iPhone stärker aus, der Akku des stark genutzten iPhones bietet nur noch 80 Prozent Leistung. Auch wenn Sie ein geduldiger Mensch sind und das iPhone nur für Telefonate, E-Mail und Whatsapp nutzen wollen: Sie müssen wohl auch bei der finalen Version von iOS 26 mit kürzeren Laufzeiten und einer schnellen Entladung als unter iOS 17 leben. Ein Austausch des Akkus kostet 79 Euro und ist wirtschaftlich kaum noch sinnvoll. Kein Wunder, dass ein gebrauchtes iPhone SE auf Ebay schon für 60 Euro ersteigert werden kann! Wir müssen hier noch einmal erwähnen, worauf Sie alles verzichten müssen: Wie schon unter iOS 18 bleiben Image Playground und die vielen Apple Intelligence-Funktionen außen vor. Es bleiben nun auch viele neue Funktionen auf Basis von Apple Intelligence neuen Modellen vorbehalten: Visual Intelligence funktioniert wie die Aufnahme eines Bildschirmfotos.IDG Visuelle Intelligenz: Sie können bei neueren Versionen ein Bildschirmfoto machen und es analysieren lassen – etwa um zu erfahren, was für eine Pflanze zu sehen ist, oder wo Sie die schicke Lampe in einem Foto kaufen können. Echtzeit-Übersetzung: in Nachrichten werden auf Wunsch fremdsprachige Texte in Echtzeit übersetzt, bei Gesprächen in Facetime erhalten Sie Untertitel, Telefonate werden ebenfalls live übersetzt. Anhand von Nachrichten und E-Mails schlägt die App Erinnerungen automatisch Einträge vor. Wallet: Bei Einkäufen mit Apple Pay erkennt das System, ob es Informationen zum Lieferstatus gibt. Genmoji und Image Playground bleiben wie schon unter iOS 18 aktuellen Systemen vorbehalten und bei einem Chat über Nachrichten schlägt Ihnen das System passende Umfragen vor. Ob Sie diese Funktionen aber wirklich vermissen werden, muss jeder selbst entscheiden. Manche davon sind vielleicht nur “Nice to have”, in vielen Arbeitsumgebungen kann KI aber viel Zeit sparen. The Ugly – könnte Apple alte iPhones besser unterstützen? Ein wenig Kritik an Apple ist aber doch angebracht: Zugegeben, von einem fünf Jahre alten Smartphone darf man nicht zu viel erwarten. Ich habe aber doch den Eindruck, dass Apple die alten Geräte unnötig benachteiligt und vernachlässigt. Die Abstände in den Menüs sind auf dem kleinen Bildschirm deutlich zu groß, und die eigentlich hilfreiche Zoom-Funktion (“Anzeige-Zoom”) führt zu unscharfen, teils pixeligen Symbolen. Das lässt sich zwar korrigieren – etwa, indem man unter “Anzeige & Helligkeit” die Textgröße auf den kleinsten Wert stellt –, dennoch wirkt es, als würde Apple ältere Modelle zunehmend vernachlässigen. Es sind Kleinigkeiten, ja – aber dennoch ärgerlich. Zumal das iPhone SE (2022) erst Ende 2024 aus dem Programm genommen wurde. Bei manchen der Funktionen bin ich mir nicht sicher, ob Apple sie nicht doch für ältere Geräte bereitstellen könnte. So gibt es erst ab dem iPhone 12 einen 3D-Effekt für den Sperrbildschirm und auch einige KI-Funktionen wären wohl für ältere iPhones problemlos bereitzustellen. So gibt es eine neue Bildanalyse, bei der Sie ein Bildschirmfoto macht und die Bildinhalte durchsuchen kann. Diese Funktionen könnte man sicher auch per Webdienst nutzbar machen, etwa per ChatGPT oder Apples Cloud-AI. Auch die Einbindung von ChatGPT in das System wäre vielleicht möglich. Fazit: Auch auf einem alten iPhone 11, iPhone SE 2022 oder 12 sollte die finale Version von iOS 26 recht problemlos laufen und viele Verbesserungen bieten. Gerade bei älteren Modellen rate ich aber, auf die finale Version zu warten. Die Anforderungen entsprechen nach meiner Einschätzung etwa iOS 18 und sind recht hoch. Bei einem iPhone SE 2020 können Sie ebenfalls iOS 26 installieren – durch die mäßige RAM-Ausstattung könnte das neue System aber zu viel für das alte Smartphone sein. Weitere neue Funktionen von iOS 26 (Auswahl)(Funktionen, die erst ab dem iPhone 15 Pro verfügbar sind, fett markiert)Apple IntelligenceErweiterte KI-Funktionen, intelligente Vorschläge in Reminders, automatische Kategorisierung.Telefon und NachrichtLive-Übersetzung in Anrufen, FaceTime & Messages, Gruppenchats mit Aktivitätsanzeige, Apple Cash, Umfragen, Hintergründe pro ChatErinnerungenKI-gestützte Vorschläge, automatische Kategorisierung, Aufgaben aus E-Mails/TextenKurzbefehleKurzbefehle mit KI-FunktionenFotosNeue Layouts, einfache Steuerung, räumliche 3D-Effekte für Fotos ab iPhone 12), neue TabsBildschirmhintergrundDynamische Hintergründe, diese reagieren auf Bewegung des Geräts (3D-Effekt ab iPhone 12, KI-basierte Effekte ab iPhone 15 Pro)Apple MusicLyrics-Übersetzung und -Aussprachehilfe, Auto-MixApple MapsSpeicherung besuchter Orte, intelligente Routenempfehlungen, Verzögerungsinfos.Apple GamesNeue AppAirPodsSchlaferkennung, neue Gestensteuerung, Konversationserkennung, Fernsteuerung der iPhone- oder iPad-KameraJournalMehrere Journale, Kartenansicht für EinträgeBarrierefreiheitNeues Braille-Erlebnis, Anzeige von Fahrzeug-Bewegungen (gegen Übelkeit)FamilieLeichteres Verschieben zu anderen Konten, mehr KontrollenUhrFlexiblere Schlummern-Dauer (1–15 Minuten)GerätewiederherstellungiPhone-Wiederherstellung ohne Mac/PC über ein zweites Apple-GerätBenachrichtigungenBlaue Benachrichtigung-Badges für unbekannte Absenderund weitere 

iOS 26 auf alten iPhones: Wie gut läuft das neue System auf einem iPhone SE oder 11?​ IDG

Das neue iOS 26 hat vor allem mit seinem gläsernen neuen Design für Aufsehen gesorgt, auch unter der Haube gibt es aber viele neue Funktionen wie Apple Intelligence, Dolmetscher und Bildanalyse per KI. Leider bleiben viele der neuen Funktionen aktuellen iPhones vorbehalten, im Grunde läuft iOS 26 aber sogar noch auf einem alten iPhone SE 2020 und einem iPhone 11.

Ist dies aber sinnvoll? Es gibt dabei nämlich eine große Gefahr: Manchmal ist ein iPhone von einem neuen System einfach überfordert und die Nutzung wird zur Qual. Besonders auffällig fand ich dies schon bei iOS 18. Dieses System hat deutlich höhere Hardwareanforderungen als iOS 17 und machte mein für Tests genutztes altes iPhone XR endgültig zu Alteisen. Ich habe die neue Beta deshalb auf einem iPhone SE von 2020 installiert und einige Tage Systemfunktionen und übliche Apps damit ausprobiert.

Das neue iOS 26 ist auch für alte iPhones sehr verlockend: Apple Intelligence gibt es zwar erst ab dem iPhone 15 Pro, das neue Design Liquid Glass sollte aber problemlos funktionieren und iOS 26 bietet noch viele weitere Neuerungen. Ich hatte dabei drei verschiedene Eindrücke: Einiges funktioniert hervorragend, einiges aber auch miserabel. Es gibt außerdem einige unschöne Eindrücke, die ich nicht unerwähnt lassen möchte.

Beta-Probleme der aktuellen Version

Was man aber vorab klarstellen muss: iOS 26 ist aktuell in einer frühen Beta-Phase. Im Alltag sind kleinere Probleme und Fehler zu erwarten.  So ist die Akkulaufzeit noch deutlich schlechter als unter iOS 18 und es kann immer wieder zu Funktionsfehlern kommen. Bis zum finalen Erscheinen der neuen iOS-Version wird iOS 26 aber von vielen Fehlern befreit sein und flüssiger und zuverlässiger laufen – wie bei früheren Systemwechseln auch. Nicht ohne Grund empfehlen viele erfahrene Anwender auf eine spätere Version zu warten, in diesem Falle die Version iOS 26.1 – einige Kommentare behauten sogar, bei iOS 18 war dieser Zustand erst mit iOS 18.4 erreicht.

The Good – positive Überraschungen

Mein iPhone SE 2020 ist zwar recht alt, ich habe aber immer noch eine Schwäche für alte iPhones mit Home Button. Zwar ist der Bildschirm mit 4,7-Zoll eigentlich zu klein für aktuelle Apps und Webseiten, das Design gefällt mir aber noch immer. Das geringe Gewicht und die kleinen Abmessungen machen es zu einem guten Zweithandy für Festivals oder unterwegs.

Es sind bei iOS 26 viele kleine Verbesserungen, die den Umstieg attraktiv machen: Selbst auf diesem alten LC-Display sieht etwa das neue Design Liquid Glass hervorragend aus und wertet das alte iPhone optisch auf. Mit der neuen Icon-Ansicht “Durchsichtig” kann ich wenig anfangen, finde aber begrüßenswert, dass es endlich mehr Darstellungs-Modi gibt. Die neue Optik soll auch einen höheren Nutzwert erreichen, hier sind die Meinungen aber doch geteilt.

iOS 26 bietet deutlich mehr KonfigurationsmöglichkeitenIDG

Alle neuen (und alten) Apple-Intelligence-Funktionen fehlen auf dem alten Gerät, es gibt aber immer noch viel Neues zu entdecken. Gut gefällt mir etwa die Optik der neuen Kamera-App, die Oberfläche ist moderner und übersichtlicher geworden. Safari 26 bietet zudem einen neuen Kompaktmodus, der gerade für den kleinen Bildschirm des SE sehr interessant ist. Neue Funktionen bieten aber auch die App Karten und Fotos. So ist die Darstellung von Fotos übersichtlicher geworden.

Besonders überzeugt mich aber eine der neuen Optionen für Airpods: Sprachaufnahmen mittel Airpods Pro 2 oder Airpods 4 werden nun mit “Studioqualität” erstellt, Hintergrundgeräusche dabei ausgeblendet. Auch Kamera-Aufnahmen können Sie jetzt mit dem Drücken der Airpod-Taste starten.

Als häufiger Nutzer von Carplay profitiere ich von einer neuen Optik und neuen Funktionen. Es gibt etwa erstmals Live-Aktivitäten und Widgets. Ob ich wirklich im Parkmodus Videos abspielen muss, finde ich dagegen fraglich. Die neuen KI-Funktionen bleiben natürlich außen vor.

Apple hat in vielen Apps sinnvolle Detailverbesserungen vorgenommen – darunter auch Podcasts und Musik. Bei Podcasts gibt es nun eine neue Option für bessere Sprachqualität. Praktisch sind zudem die neue Vorschau-App sowie die überarbeitete Dateiverwaltungs-App “Dateien”. Besonders für Blogger interessant: Die Notizen-App unterstützt jetzt den Export im Markdown-Format.

Es gibt auch für alte Geräte neue Funktionen wie die lokale Aufnahme von Audio – etwa Telefonaten.IDG

Es stimmt übrigens nicht, dass man auf einem älteren iPhone keine KI nutzen kann: Eine App wie Google Gemini läuft auch auf dem iPhone SE einwandfrei. Die Funktion Gemini Live erkennt auf Wunsch sogar alle Objekte im Kamerabild – direkt auf dem SE. Dank einer in die Cloud ausgelagerten KI funktionieren auch viele weitere Apps wie Perplexity und ChatGPT auf dem SE dabei kaum langsamer als auf einem iPhone 16.

Es gibt jedoch auch einige weniger positive Erfahrungen zu berichten.

The Bad – negative Erfahrungen

Geringes Gewicht und kleine Abmessungen sind beim SE gut und schön: Mit iOS 26 ist aber das iPhone SE 2020 nach meinem Eindruck doch ein wenig überfordert – wie schon von iOS 18. Der Grund ist nach meiner Meinung ein großer Unterschied zwischen dem Modell von 2022 mit 5G und dem Modell von 2020: Beim älteren Modell stehen nur 3 GB RAM zur Verfügung, das ist offensichtlich zu wenig.

Beim Nachfolgemodell von 2022 und dem iPhone 11 stehen immerhin 4 GB RAM zur Verfügung – das macht sich im Alltag spürbar bemerkbar. Gerade beim Scrollen durch komplexe Webseiten kommt es auf älteren Geräten schnell zu Rucklern oder sogar Abstürzen. Kein Wunder also, dass sich manche Nutzer fragen, ob ein Verbleib bei iOS 17 nicht die bessere Wahl gewesen wäre.

Bei der Nutzung des iPhones gab es noch ein anderes Problem, das bei einem alten iPhone unvermeidlich ist: Das neue System lastet nicht nur das iPhone stärker aus, der Akku des stark genutzten iPhones bietet nur noch 80 Prozent Leistung.

Auch wenn Sie ein geduldiger Mensch sind und das iPhone nur für Telefonate, E-Mail und Whatsapp nutzen wollen: Sie müssen wohl auch bei der finalen Version von iOS 26 mit kürzeren Laufzeiten und einer schnellen Entladung als unter iOS 17 leben. Ein Austausch des Akkus kostet 79 Euro und ist wirtschaftlich kaum noch sinnvoll. Kein Wunder, dass ein gebrauchtes iPhone SE auf Ebay schon für 60 Euro ersteigert werden kann!

Wir müssen hier noch einmal erwähnen, worauf Sie alles verzichten müssen: Wie schon unter iOS 18 bleiben Image Playground und die vielen Apple Intelligence-Funktionen außen vor. Es bleiben nun auch viele neue Funktionen auf Basis von Apple Intelligence neuen Modellen vorbehalten:

Visual Intelligence funktioniert wie die Aufnahme eines Bildschirmfotos.IDG

Visuelle Intelligenz: Sie können bei neueren Versionen ein Bildschirmfoto machen und es analysieren lassen – etwa um zu erfahren, was für eine Pflanze zu sehen ist, oder wo Sie die schicke Lampe in einem Foto kaufen können.

Echtzeit-Übersetzung: in Nachrichten werden auf Wunsch fremdsprachige Texte in Echtzeit übersetzt, bei Gesprächen in Facetime erhalten Sie Untertitel, Telefonate werden ebenfalls live übersetzt.

Anhand von Nachrichten und E-Mails schlägt die App Erinnerungen automatisch Einträge vor.

Wallet: Bei Einkäufen mit Apple Pay erkennt das System, ob es Informationen zum Lieferstatus gibt.

Genmoji und Image Playground bleiben wie schon unter iOS 18 aktuellen Systemen vorbehalten und bei einem Chat über Nachrichten schlägt Ihnen das System passende Umfragen vor.

Ob Sie diese Funktionen aber wirklich vermissen werden, muss jeder selbst entscheiden. Manche davon sind vielleicht nur “Nice to have”, in vielen Arbeitsumgebungen kann KI aber viel Zeit sparen.

The Ugly – könnte Apple alte iPhones besser unterstützen?

Ein wenig Kritik an Apple ist aber doch angebracht: Zugegeben, von einem fünf Jahre alten Smartphone darf man nicht zu viel erwarten. Ich habe aber doch den Eindruck, dass Apple die alten Geräte unnötig benachteiligt und vernachlässigt.

Die Abstände in den Menüs sind auf dem kleinen Bildschirm deutlich zu groß, und die eigentlich hilfreiche Zoom-Funktion (“Anzeige-Zoom”) führt zu unscharfen, teils pixeligen Symbolen. Das lässt sich zwar korrigieren – etwa, indem man unter “Anzeige & Helligkeit” die Textgröße auf den kleinsten Wert stellt –, dennoch wirkt es, als würde Apple ältere Modelle zunehmend vernachlässigen.

Es sind Kleinigkeiten, ja – aber dennoch ärgerlich. Zumal das iPhone SE (2022) erst Ende 2024 aus dem Programm genommen wurde.

Bei manchen der Funktionen bin ich mir nicht sicher, ob Apple sie nicht doch für ältere Geräte bereitstellen könnte. So gibt es erst ab dem iPhone 12 einen 3D-Effekt für den Sperrbildschirm und auch einige KI-Funktionen wären wohl für ältere iPhones problemlos bereitzustellen.

So gibt es eine neue Bildanalyse, bei der Sie ein Bildschirmfoto macht und die Bildinhalte durchsuchen kann. Diese Funktionen könnte man sicher auch per Webdienst nutzbar machen, etwa per ChatGPT oder Apples Cloud-AI. Auch die Einbindung von ChatGPT in das System wäre vielleicht möglich.

Fazit:

Auch auf einem alten iPhone 11, iPhone SE 2022 oder 12 sollte die finale Version von iOS 26 recht problemlos laufen und viele Verbesserungen bieten. Gerade bei älteren Modellen rate ich aber, auf die finale Version zu warten. Die Anforderungen entsprechen nach meiner Einschätzung etwa iOS 18 und sind recht hoch. Bei einem iPhone SE 2020 können Sie ebenfalls iOS 26 installieren – durch die mäßige RAM-Ausstattung könnte das neue System aber zu viel für das alte Smartphone sein.

Weitere neue Funktionen von iOS 26 (Auswahl)(Funktionen, die erst ab dem iPhone 15 Pro verfügbar sind, fett markiert)Apple IntelligenceErweiterte KI-Funktionen, intelligente Vorschläge in Reminders, automatische Kategorisierung.Telefon und NachrichtLive-Übersetzung in Anrufen, FaceTime & Messages, Gruppenchats mit Aktivitätsanzeige, Apple Cash, Umfragen, Hintergründe pro ChatErinnerungenKI-gestützte Vorschläge, automatische Kategorisierung, Aufgaben aus E-Mails/TextenKurzbefehleKurzbefehle mit KI-FunktionenFotosNeue Layouts, einfache Steuerung, räumliche 3D-Effekte für Fotos ab iPhone 12), neue TabsBildschirmhintergrundDynamische Hintergründe, diese reagieren auf Bewegung des Geräts (3D-Effekt ab iPhone 12, KI-basierte Effekte ab iPhone 15 Pro)Apple MusicLyrics-Übersetzung und -Aussprachehilfe, Auto-MixApple MapsSpeicherung besuchter Orte, intelligente Routenempfehlungen, Verzögerungsinfos.Apple GamesNeue AppAirPodsSchlaferkennung, neue Gestensteuerung, Konversationserkennung, Fernsteuerung der iPhone- oder iPad-KameraJournalMehrere Journale, Kartenansicht für EinträgeBarrierefreiheitNeues Braille-Erlebnis, Anzeige von Fahrzeug-Bewegungen (gegen Übelkeit)FamilieLeichteres Verschieben zu anderen Konten, mehr KontrollenUhrFlexiblere Schlummern-Dauer (1–15 Minuten)GerätewiederherstellungiPhone-Wiederherstellung ohne Mac/PC über ein zweites Apple-GerätBenachrichtigungenBlaue Benachrichtigung-Badges für unbekannte Absenderund weitere

iOS 26 auf alten iPhones: Wie gut läuft das neue System auf einem iPhone SE oder 11?​ Weiterlesen »

Made in Germany: Souveräne Cloud als Datentresor​

Allgemein

Geheime Informationen sicher aufbewahren und bearbeiten? Dies soll mit der SINA Cloud möglich sein. metamorworks – Shutterstock.com Souverän, sicher, hosted in Europe oder noch besser in Deutschland – so lauten heute angesichts der geänderten geopolitischen Lage die Anforderungen an eine Cloud-Lösung. Und damit fallen für viele Unternehmen und Behörden die Angebote der US-basierten Hyperscaler aus dem Rennen. Angesichts von CLOUD-Act und Co. erscheinen sie ihnen nicht mehr sicher genug für sensible Daten. Genau diese Anforderungen will die Essener secunet AG mit ihrer SINA Cloud erfüllen. Dabei wirbt der IT-Dienstleister, der unter anderem für die öffentliche Hand, die Bundeswehr, die Bundesdruckerei tätig ist, dass sein Cloud-Stack, „die erste Cloud mit BSI-Zulassungen für Verschlusssachen bis GEHEIM“ sei. Geheimhaltungsstufen Damit erfüllt die SINA Cloud den zweithöchsten Geheimhaltungsgrad gemäß der in Deutschland üblichen Geheimhaltungsstufen: VS-Nur für den Dienstgebrauch (VS-NfD) VS-Vertraulich Geheim Streng Geheim Um dies zu erreichen, kombiniert das Unternehmen Sicherheitsmechanismen mit Open-Source-Technologie wie Kubernetes, Yaook, NixOS oder OpenStack. Ferner setzt sich die Cloud-Lösung aus einem Security-Layer und einem Cloud-Orchestrierungs-Layer zusammen. Die SINA-Cloud-Architektur Das Architekturkonzept der SINA Cloud besteht aus mehreren Schichten. secunet AG Diese Entkoppelung ist für Andreas Rückriegel, Vice President Cloud Services bei secunet, ein zentrales Architekturelement der Lösung. Darüber hinaus lässt sich die SINA Cloud in die folgenden Bereiche einteilen: Physische Infrastruktur Sie umfasst Komponenten wie Netzwerk, Speicher und Server. Security Layer Er baut auf der physischen Infrastruktur auf und fügt eine zusätzliche Ebene hinzu, die für die sichere Trennung von Sicherheitsdomänen zuständig ist. Eine Sicherheitsdomäne beinhaltet eine Gruppe von Ressourcen mit demselben Zugriffsbedarf (Need-to-know) und kann beispielsweise einer Benutzergruppe oder auch einem Mandanten im Sinne einer Behörde zugeordnet werden. Die Trennung der Sicherheitsdomänen wird durch starke Kryptografie realisiert. Cloud Infrastructure Layer Dieser liegt über dem Security Layer und unterteilt sich in Undercloud und Overcloud. Die Undercloud organisiert die physischen Ressourcen innerhalb einer Sicherheitsdomäne zur Vorbereitung für die Overcloud. Letztere stellt diese Infrastrukturressourcen den Anwendern bereit. Die Verarbeitung von Workloads findet ausschließlich in der Overcloud statt. Nur sie ist für die Benutzer zugänglich. Hier lassen sich auch Kundenservices einrichten und steuern. Verfügbarkeit Derzeit steht die Lösung allerdings nur in einer On-Premises-Variante bereit, die Anwender in ihren Rechenzentren selbst betreiben können. Darüber hinaus ist eine von secunet betriebene Version als Infrastructure-as-a-Service-(IaaS-)Lösung in Vorbereitung. Diese soll dann in zertifizierten Rechenzentren von secunet laufen. 

Made in Germany: Souveräne Cloud als Datentresor​ Geheime Informationen sicher aufbewahren und bearbeiten? Dies soll mit der SINA Cloud möglich sein.
metamorworks – Shutterstock.com

Souverän, sicher, hosted in Europe oder noch besser in Deutschland – so lauten heute angesichts der geänderten geopolitischen Lage die Anforderungen an eine Cloud-Lösung. Und damit fallen für viele Unternehmen und Behörden die Angebote der US-basierten Hyperscaler aus dem Rennen. Angesichts von CLOUD-Act und Co. erscheinen sie ihnen nicht mehr sicher genug für sensible Daten.

Genau diese Anforderungen will die Essener secunet AG mit ihrer SINA Cloud erfüllen. Dabei wirbt der IT-Dienstleister, der unter anderem für die öffentliche Hand, die Bundeswehr, die Bundesdruckerei tätig ist, dass sein Cloud-Stack, „die erste Cloud mit BSI-Zulassungen für Verschlusssachen bis GEHEIM“ sei.

Geheimhaltungsstufen

Damit erfüllt die SINA Cloud den zweithöchsten Geheimhaltungsgrad gemäß der in Deutschland üblichen Geheimhaltungsstufen:

VS-Nur für den Dienstgebrauch (VS-NfD)

VS-Vertraulich

Geheim

Streng Geheim

Um dies zu erreichen, kombiniert das Unternehmen Sicherheitsmechanismen mit Open-Source-Technologie wie Kubernetes, Yaook, NixOS oder OpenStack. Ferner setzt sich die Cloud-Lösung aus einem Security-Layer und einem Cloud-Orchestrierungs-Layer zusammen.

Die SINA-Cloud-Architektur

Das Architekturkonzept der SINA Cloud besteht aus mehreren Schichten.
secunet AG

Diese Entkoppelung ist für Andreas Rückriegel, Vice President Cloud Services bei secunet, ein zentrales Architekturelement der Lösung. Darüber hinaus lässt sich die SINA Cloud in die folgenden Bereiche einteilen:

Physische Infrastruktur

Sie umfasst Komponenten wie Netzwerk, Speicher und Server.

Security Layer

Er baut auf der physischen Infrastruktur auf und fügt eine zusätzliche Ebene hinzu, die für die sichere Trennung von Sicherheitsdomänen zuständig ist. Eine Sicherheitsdomäne beinhaltet eine Gruppe von Ressourcen mit demselben Zugriffsbedarf (Need-to-know) und kann beispielsweise einer Benutzergruppe oder auch einem Mandanten im Sinne einer Behörde zugeordnet werden. Die Trennung der Sicherheitsdomänen wird durch starke Kryptografie realisiert.

Cloud Infrastructure Layer

Dieser liegt über dem Security Layer und unterteilt sich in Undercloud und Overcloud. Die Undercloud organisiert die physischen Ressourcen innerhalb einer Sicherheitsdomäne zur Vorbereitung für die Overcloud. Letztere stellt diese Infrastrukturressourcen den Anwendern bereit. Die Verarbeitung von Workloads findet ausschließlich in der Overcloud statt. Nur sie ist für die Benutzer zugänglich. Hier lassen sich auch Kundenservices einrichten und steuern.

Verfügbarkeit

Derzeit steht die Lösung allerdings nur in einer On-Premises-Variante bereit, die Anwender in ihren Rechenzentren selbst betreiben können. Darüber hinaus ist eine von secunet betriebene Version als Infrastructure-as-a-Service-(IaaS-)Lösung in Vorbereitung. Diese soll dann in zertifizierten Rechenzentren von secunet laufen.

Made in Germany: Souveräne Cloud als Datentresor​ Weiterlesen »

Gnadenfrist für alte Exchange- und Skype-Server​

Allgemein

Danke eines neuen Programms bekommen IT-Teams etwas mehr Zeit für die Migration ihrer alten Exchange- oder Skype-for-Business-Instanzen.Sunlight_s – Shutterstock.com Die Uhr tickt für Microsoft-Kunden: Mitte Oktober endet nicht nur der reguläre Support für Windows 10 und Office 2016/2019. Auch für Exchange 2016/2019 und Skype for Business 2015/2019 entfallen Sicherheits-Updates, Fehlerbehebungen und technischer Support. Da etliche IT-Teams mit der Fülle an Veränderungen offenbar überfordert sind, hat Microsoft nun ein Einsehen: „Wir haben von einigen Kunden erfahren, dass sie mit der Migration zu Skype for Business Subscription Edition (SE)/ Exchange Subscription Edition (SE) begonnen haben, jedoch möglicherweise einige zusätzliche Monate für die Sicherheits-Updates (SU) benötigen“, schreibt der Softwareriese in zwei ähnlich lautenden Blogposts zu Exchange 2016/2019 und Skype for Business 2015/2019. Support, aber ohne offizielle Verlängerung Für diese Kunden bietet Microsoft nun eine Lösung an: Ab dem 1. August 2025 können sich Unternehmen an ihr Microsoft-Konto-Team wenden, um Informationen zum Erwerb eines zusätzlichen 6-monatigen Extended Security Update (ESU) für Exchange 2016- und 2019-Server, respektive Skype for Business 2015/2019 zu erhalten. Ab diesem Zeitpunkt stellen die Ansprechpartner Details zu den Serverkosten und zum Kauf- und Bereitstellungsprozess der ESUs bereit, heißt es. Deutlich klarer als in Bezug auf Kosten wird Microsoft, wenn es um den Umfang und die Bedeutung des ESU geht. So handle es sich nicht um eine Verlängerung des offiziellen Support-Lebenszyklus, sondern die Server liefen weiterhin am 14. Oktober 2025 aus dem Support. Entsprechend könnten auch keine Support-Anfragen mehr gestellt werden – außer, es handle sich direkt um ein Problem mit einem während des ESU-Zeitraums veröffentlichten Sicherheits-Update (SU) für ESU-Kunden. Stattdessen deckt das ESU-Programm Microsoft nur alle als kritisch oder wichtig eingestuften Sicherheitsupdates ab, die nach dem 14. Oktober 2025 – dem Tag, an dem der Support für die Produkte endet – veröffentlicht werden. Diese Updates werden nicht öffentlich über das Download Center oder Windows Update bereitgestellt, sondern nur privat an Kunden mit ESU weitergegeben. 

Gnadenfrist für alte Exchange- und Skype-Server​ Danke eines neuen Programms bekommen IT-Teams etwas mehr Zeit für die Migration ihrer alten Exchange- oder Skype-for-Business-Instanzen.Sunlight_s – Shutterstock.com

Die Uhr tickt für Microsoft-Kunden: Mitte Oktober endet nicht nur der reguläre Support für Windows 10 und Office 2016/2019. Auch für Exchange 2016/2019 und Skype for Business 2015/2019 entfallen Sicherheits-Updates, Fehlerbehebungen und technischer Support.

Da etliche IT-Teams mit der Fülle an Veränderungen offenbar überfordert sind, hat Microsoft nun ein Einsehen: „Wir haben von einigen Kunden erfahren, dass sie mit der Migration zu Skype for Business Subscription Edition (SE)/ Exchange Subscription Edition (SE) begonnen haben, jedoch möglicherweise einige zusätzliche Monate für die Sicherheits-Updates (SU) benötigen“, schreibt der Softwareriese in zwei ähnlich lautenden Blogposts zu Exchange 2016/2019 und Skype for Business 2015/2019.

Support, aber ohne offizielle Verlängerung

Für diese Kunden bietet Microsoft nun eine Lösung an: Ab dem 1. August 2025 können sich Unternehmen an ihr Microsoft-Konto-Team wenden, um Informationen zum Erwerb eines zusätzlichen 6-monatigen Extended Security Update (ESU) für Exchange 2016- und 2019-Server, respektive Skype for Business 2015/2019 zu erhalten. Ab diesem Zeitpunkt stellen die Ansprechpartner Details zu den Serverkosten und zum Kauf- und Bereitstellungsprozess der ESUs bereit, heißt es.

Deutlich klarer als in Bezug auf Kosten wird Microsoft, wenn es um den Umfang und die Bedeutung des ESU geht. So handle es sich nicht um eine Verlängerung des offiziellen Support-Lebenszyklus, sondern die Server liefen weiterhin am 14. Oktober 2025 aus dem Support. Entsprechend könnten auch keine Support-Anfragen mehr gestellt werden – außer, es handle sich direkt um ein Problem mit einem während des ESU-Zeitraums veröffentlichten Sicherheits-Update (SU) für ESU-Kunden.

Stattdessen deckt das ESU-Programm Microsoft nur alle als kritisch oder wichtig eingestuften Sicherheitsupdates ab, die nach dem 14. Oktober 2025 – dem Tag, an dem der Support für die Produkte endet – veröffentlicht werden. Diese Updates werden nicht öffentlich über das Download Center oder Windows Update bereitgestellt, sondern nur privat an Kunden mit ESU weitergegeben.

Gnadenfrist für alte Exchange- und Skype-Server​ Weiterlesen »

Urlaubstage (ver)kaufen: Was das Arbeitsrecht erlaubt​

Allgemein

Mitarbeiter können durchaus Urlaub kaufen und verkaufen – das sollte dann gründlich mit dem Arbeitgeber geklärt werden. Foto: Ground Picture – shutterstock.com Mit dem Obstkorb im Büro locken Unternehmen schon lange keine Mitarbeiter mehr. Was sich die meisten Beschäftigten vor allem wünschen, ist die Möglichkeit, ihre Arbeitszeit flexibel gestalten zu können. Überhaupt ist “Flexibilität” das Buzzword der Stunde. Warum nicht auch die Zahl der Urlaubstage individuell und flexibel gestalten? Denn: Die allermeisten Menschen wünschen sich ein ausgewogenes Verhältnis zwischen Privat- und Arbeitsleben, die sogenannte Work-Life-Balance. Je nach Lebenssituation sind dafür manchmal mehr oder weniger Urlaubstage nötig. Urlaubstage (ver)kaufen – so geht’s Um Urlaubstage zu verkaufen, müssen Mitarbeiter schriftlich auf die gewünschte Anzahl von vertraglich zugesicherten Urlaubstagen verzichten, erläutern die Arbeitsrechtler der Kanzlei Wittig Ünalp. Im Gegenzug erhalten Mitarbeiter dafür eine Erhöhung der jährlichen Vergütung. Andersherum können zusätzliche Urlaubstage gegen eine Reduzierung der jährlichen Vergütung auch “gekauft” werden. Auch dafür ist eine schriftliche Zusatzvereinbarung zum geltenden Arbeitsvertrag nötig. Einer solchen Vereinbarung muss der Arbeitgeber jedoch zustimmen, da es keinen gesetzlichen Anspruch auf den Kauf und Verkauf von Urlaubstagen gibt. “Der Verkauf von Urlaubstagen darf nicht dazu führen, dass der gesetzliche Mindesturlaub unterschritten wird”, erklärt Nils Wigger, Fachanwalt für Arbeitsrecht. “Deshalb sollte in jedem Arbeitsvertrag eine klare Trennung zwischen dem gesetzlichen Urlaubsanspruch und dem vertraglich vereinbarten Zusatzurlaub zu erkennen sein.” Der Arbeitsrechtler empfiehlt Unternehmen, die Anzahl der gekauften oder verkauften Urlaubstage zu begrenzen. Mehr noch: “Zur Vorbeugung von Personalmangel kann es sinnvoll sein, wenn sich die Unternehmen ein Veto-Recht vorbehalten”, erklärt er. So oder so sollten sich Arbeitgeber bei der Gestaltung der Zusatzvereinbarung rechtlich beraten lassen, lautet seine Empfehlung. 

Urlaubstage (ver)kaufen: Was das Arbeitsrecht erlaubt​ Mitarbeiter können durchaus Urlaub kaufen und verkaufen – das sollte dann gründlich mit dem Arbeitgeber geklärt werden.
Foto: Ground Picture – shutterstock.com

Mit dem Obstkorb im Büro locken Unternehmen schon lange keine Mitarbeiter mehr. Was sich die meisten Beschäftigten vor allem wünschen, ist die Möglichkeit, ihre Arbeitszeit flexibel gestalten zu können. Überhaupt ist “Flexibilität” das Buzzword der Stunde. Warum nicht auch die Zahl der Urlaubstage individuell und flexibel gestalten? Denn: Die allermeisten Menschen wünschen sich ein ausgewogenes Verhältnis zwischen Privat- und Arbeitsleben, die sogenannte Work-Life-Balance. Je nach Lebenssituation sind dafür manchmal mehr oder weniger Urlaubstage nötig.

Urlaubstage (ver)kaufen – so geht’s

Um Urlaubstage zu verkaufen, müssen Mitarbeiter schriftlich auf die gewünschte Anzahl von vertraglich zugesicherten Urlaubstagen verzichten, erläutern die Arbeitsrechtler der Kanzlei Wittig Ünalp. Im Gegenzug erhalten Mitarbeiter dafür eine Erhöhung der jährlichen Vergütung. Andersherum können zusätzliche Urlaubstage gegen eine Reduzierung der jährlichen Vergütung auch “gekauft” werden. Auch dafür ist eine schriftliche Zusatzvereinbarung zum geltenden Arbeitsvertrag nötig. Einer solchen Vereinbarung muss der Arbeitgeber jedoch zustimmen, da es keinen gesetzlichen Anspruch auf den Kauf und Verkauf von Urlaubstagen gibt.

“Der Verkauf von Urlaubstagen darf nicht dazu führen, dass der gesetzliche Mindesturlaub unterschritten wird”, erklärt Nils Wigger, Fachanwalt für Arbeitsrecht. “Deshalb sollte in jedem Arbeitsvertrag eine klare Trennung zwischen dem gesetzlichen Urlaubsanspruch und dem vertraglich vereinbarten Zusatzurlaub zu erkennen sein.” Der Arbeitsrechtler empfiehlt Unternehmen, die Anzahl der gekauften oder verkauften Urlaubstage zu begrenzen. Mehr noch: “Zur Vorbeugung von Personalmangel kann es sinnvoll sein, wenn sich die Unternehmen ein Veto-Recht vorbehalten”, erklärt er. So oder so sollten sich Arbeitgeber bei der Gestaltung der Zusatzvereinbarung rechtlich beraten lassen, lautet seine Empfehlung.

Urlaubstage (ver)kaufen: Was das Arbeitsrecht erlaubt​ Weiterlesen »

Digitale Barrierefreiheit schafft neue Berufsbilder​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?quality=50&strip=all 3537w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Accessibility-Profis gestalten eine Welt, die eine digitale Barrierefreiheit für Personen mit Behinderung schafft – weltweit immerhin 1,3 Milliarden Menschen.Viktoria Kurpas – Shutterstock 1310253262 Mit Inkrafttreten des European Accessibility Act (EAA) am 28. Juni ist barrierefreies Design für viele Unternehmen zur rechtlichen Verpflichtung geworden. Wer digitale Produkte oder Services anbietet, muss sicherstellen, dass alle sie nutzen können – auch Menschen mit Behinderung. Das klingt erst einmal nach zusätzlicher Arbeit und Kosten. Aber schauen wir uns die andere Seite der Medaille an: Weltweit leben über 1,3 Milliarden Menschen mit Behinderungen. Diese Gruppe verfügt über eine Kaufkraft von fast zwei Billionen Dollar jährlich. Wer seine Produkte barrierefrei gestaltet, erschließt sich also nicht nur einen riesigen Markt – er zeigt auch, dass er Vielfalt ernst nimmt. Die Botschaft ist also klar: Digitale Barrierefreiheit ist längst keine Pflichtübung mehr. Sie ist ein strategischer Vorteil, der Innovation vorantreibt und neue Möglichkeiten schafft.    Was der European Accessibility Act für Unternehmen bedeutet Der Ende Juni in Kraft getretene EAA ist die weitreichendste Regelung für digitale Barrierefreiheit, die Europa je gesehen hat. In Deutschland wird das Ganze über das Barrierefreiheitsstärkungsgesetz umgesetzt. Praktisch alle, die im digitalen Raum aktiv sind, fallen in den Geltungsbereich: Onlineshops, Banken, Softwareanbieter, sogar Ticketautomaten und E-Books.  Was bedeutet das konkret? Künftig wird der EAA die Einhaltung des harmonisierten europäischen Barrierefreiheitsstandards EN 301 549 vorschreiben, der die Erfolgskriterien der Web Content Accessibility Guidelines (WCAG) für digitale Benutzeroberflächen integriert. Mit anderen Worten: Screenreader müssen funktionieren, die Navigation per Tastatur muss möglich sein, Farbkontraste müssen stimmen, und Bilder brauchen alternative Texte. Und das sind nur einige der Herausforderungen. Klingt technisch – ist es auch. Aber es geht um mehr als Code und Design. Unternehmen, die zu spät reagieren, riskieren Bußgelder. Und sie verpassen auch die Chance, sich als inklusiver Arbeitgeber zu positionieren, von unterschiedlichen Standpunkten zu profitieren und neue Kundengruppen zu gewinnen. Von vielen Companies zunehmend als soziale und ethische Verantwortung anerkannt, wird Barrierefreiheit zum Qualitätsmerkmal, das Arbeitgeber auch bei potenziellen Neueinstellungen auf dem Radar haben sollten.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7ceAEuLgxXNISB37Ty0Ve6?utm_source=oembed”>   5 neue Jobs für eine barrierefreie Zukunft Mit dem EAA entsteht ein völlig neuer Arbeitsmarkt. Plötzlich brauchen Unternehmen Fachkräfte, die nicht nur verstehen, wie Technik funktioniert, sondern auch, wie Menschen mit unterschiedlichen Bedürfnissen digitale Produkte nutzen. Fünf neue Jobprofile sind diesbezüglich künftig besonders relevant:  1. Accessibility Experten kennen sich aus mit WCAG und dem deutschen Barrierefreiheitsgesetz. Sie prüfen Websites und Apps auf Herz und Nieren und wissen genau, wo noch nachgebessert werden muss.  2. Inclusive-Design-Experten denken Barrierefreiheit von Anfang an mit. Statt nachträglich zu reparieren, entwerfen sie Benutzeroberflächen, die für alle funktionieren – elegant und durchdacht.  3. Accessibility Operations Manager organisieren Tests mit echten Nutzern, die verschiedene Hilfstechnologien verwenden. Sie sorgen dafür, dass Feedback von Menschen mit Behinderungen systematisch eingeholt und umgesetzt wird.  4. Inclusive Design Researcher sprechen mit den Menschen, für die sie entwickeln. Ihre Aufgabe ist es, zu verstehen, wie digitale Produkte im echten Leben genutzt werden – und daraus Verbesserungsvorschläge abzuleiten.  5. Professional Accessibility Tester sind die Nutzer selbst: Menschen mit verschiedenen Behinderungen, die Produkte unter realen Bedingungen testen. Ihr Feedback ist unbezahlbar, denn sie erleben täglich, was funktioniert und was nicht.  Diese neuen Jobprofile zeigen: Barrierefreiheit ist Teamarbeit. Und sie eröffnet spannende Karrierewege für alle, die Technik und soziale Verantwortung verbinden wollen.    Wie Unternehmen Barrierefreiheit umsetzen (sollten) Barrierefreiheit ist nur die halbe Geschichte. Die WCAG stellen lediglich sicher, dass jemand ein Produkt technisch nutzen kann – sie garantieren jedoch nicht, dass das Nutzungserlebnis auch gut ist. Digitale Barrierefreiheit braucht Empathie, Verständnis und echte Begegnungen. Keine KI kann vollständig simulieren, wie es ist, eine schlecht strukturierte Website mit einem Screenreader zu navigieren oder ein komplexes Formular mit motorischen Einschränkungen auszufüllen – nur Tests mit Nutzern mit Behinderung liefern authentische und umsetzbare Erkenntnisse. Deshalb setzen Unternehmen auf Crowdtesting mit Menschen, die täglich mit Barrieren konfrontiert sind. Sie holen sich Feedback von denen, die wirklich wissen, wovon sie sprechen.  Aber es geht auch um die interne Haltung: Wie sprechen wir über Behinderung? Wie gestalten wir unsere Meetings, damit alle teilnehmen können? Stellen wir Menschen mit Behinderungen und andere unterrepräsentierte Gruppen ein? Wie schaffen wir Arbeitsplätze, die für verschiedene Bedürfnisse funktionieren? Fachwissen ist wichtig – aber ohne die richtige Einstellung bleibt es oberflächlich.  Fakt ist: Der EAA kommt, ob Unternehmen bereit sind oder nicht. Wer klug ist, fängt jetzt an, seine Teams strategisch aufzustellen. Eine schnelle Compliance-Lösung wird nicht reichen – nachhaltige Barrierefreiheit braucht Zeit, Struktur und die richtigen Leute. Accessibility-Experten sollten von Anfang an in die Produktentwicklung eingebunden werden, nicht erst beim finalen Test. UX-Designer, Produktmanager und Entwickler müssen zusammenarbeiten und regelmäßig Feedback von Nutzern mit Behinderungen einholen. Und Accessibility Operations Manager sorgen dafür, dass das alles nicht im Chaos endet, sondern systematisch und effizient abläuft.  Viele Unternehmen arbeiten auch mit externen Partnern zusammen, die das nötige Know-how, diverse Perspektiven und ein Netzwerk mitbringen. Das kann gerade am Anfang helfen, um schnell voranzukommen und von erfahrenen Experten zu lernen.    Was Bewerber für Accessibility-Jobs mitbringen sollten Wer sich in diesem Bereich positionieren will, braucht mehr als nur technisches Know-how. Empathie, Kommunikationsstärke und die Fähigkeit, in verschiedenen Disziplinen zu denken, sind mindestens genauso wichtig.  Aus technischer Perspektive sollten Bewerber in erster Linie: die Webstandards kennen, Erfahrung mit assistiven Technologien haben, und verstehen, wie gutes UX-Design funktioniert. Wer zusätzlich Erfahrung mit inklusivem Research oder barrierefreiem Testing mitbringt, hat ausgezeichnete Chancen in einem Bereich, der gerade erst richtig im Kommen ist. Das Schöne an diesem Berufsfeld: Es verbindet technische Herausforderungen mit gesellschaftlichem Sinn. Accessibility-Profis gestalten eine digitale Welt, die für alle da ist. Und das ist ein Ziel, hinter dem sich alle versammeln können. (pg/fm) 

Digitale Barrierefreiheit schafft neue Berufsbilder​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?quality=50&strip=all 3537w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Barrierefreiheit-shutterstock_1310253262.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Accessibility-Profis gestalten eine Welt, die eine digitale Barrierefreiheit für Personen mit Behinderung schafft – weltweit immerhin 1,3 Milliarden Menschen.Viktoria Kurpas – Shutterstock 1310253262

Mit Inkrafttreten des European Accessibility Act (EAA) am 28. Juni ist barrierefreies Design für viele Unternehmen zur rechtlichen Verpflichtung geworden. Wer digitale Produkte oder Services anbietet, muss sicherstellen, dass alle sie nutzen können – auch Menschen mit Behinderung. Das klingt erst einmal nach zusätzlicher Arbeit und Kosten. Aber schauen wir uns die andere Seite der Medaille an: Weltweit leben über 1,3 Milliarden Menschen mit Behinderungen. Diese Gruppe verfügt über eine Kaufkraft von fast zwei Billionen Dollar jährlich.

Wer seine Produkte barrierefrei gestaltet, erschließt sich also nicht nur einen riesigen Markt – er zeigt auch, dass er Vielfalt ernst nimmt. Die Botschaft ist also klar: Digitale Barrierefreiheit ist längst keine Pflichtübung mehr. Sie ist ein strategischer Vorteil, der Innovation vorantreibt und neue Möglichkeiten schafft. 

 

Was der European Accessibility Act für Unternehmen bedeutet

Der Ende Juni in Kraft getretene EAA ist die weitreichendste Regelung für digitale Barrierefreiheit, die Europa je gesehen hat. In Deutschland wird das Ganze über das Barrierefreiheitsstärkungsgesetz umgesetzt. Praktisch alle, die im digitalen Raum aktiv sind, fallen in den Geltungsbereich: Onlineshops, Banken, Softwareanbieter, sogar Ticketautomaten und E-Books. 

Was bedeutet das konkret? Künftig wird der EAA die Einhaltung des harmonisierten europäischen Barrierefreiheitsstandards EN 301 549 vorschreiben, der die Erfolgskriterien der Web Content Accessibility Guidelines (WCAG) für digitale Benutzeroberflächen integriert. Mit anderen Worten:

Screenreader müssen funktionieren,

die Navigation per Tastatur muss möglich sein,

Farbkontraste müssen stimmen, und

Bilder brauchen alternative Texte.

Und das sind nur einige der Herausforderungen. Klingt technisch – ist es auch. Aber es geht um mehr als Code und Design. Unternehmen, die zu spät reagieren, riskieren Bußgelder. Und sie verpassen auch die Chance, sich als inklusiver Arbeitgeber zu positionieren, von unterschiedlichen Standpunkten zu profitieren und neue Kundengruppen zu gewinnen. Von vielen Companies zunehmend als soziale und ethische Verantwortung anerkannt, wird Barrierefreiheit zum Qualitätsmerkmal, das Arbeitgeber auch bei potenziellen Neueinstellungen auf dem Radar haben sollten. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7ceAEuLgxXNISB37Ty0Ve6?utm_source=oembed”>

 

5 neue Jobs für eine barrierefreie Zukunft

Mit dem EAA entsteht ein völlig neuer Arbeitsmarkt. Plötzlich brauchen Unternehmen Fachkräfte, die nicht nur verstehen, wie Technik funktioniert, sondern auch, wie Menschen mit unterschiedlichen Bedürfnissen digitale Produkte nutzen. Fünf neue Jobprofile sind diesbezüglich künftig besonders relevant: 

1. Accessibility Experten kennen sich aus mit WCAG und dem deutschen Barrierefreiheitsgesetz. Sie prüfen Websites und Apps auf Herz und Nieren und wissen genau, wo noch nachgebessert werden muss. 

2. Inclusive-Design-Experten denken Barrierefreiheit von Anfang an mit. Statt nachträglich zu reparieren, entwerfen sie Benutzeroberflächen, die für alle funktionieren – elegant und durchdacht. 

3. Accessibility Operations Manager organisieren Tests mit echten Nutzern, die verschiedene Hilfstechnologien verwenden. Sie sorgen dafür, dass Feedback von Menschen mit Behinderungen systematisch eingeholt und umgesetzt wird. 

4. Inclusive Design Researcher sprechen mit den Menschen, für die sie entwickeln. Ihre Aufgabe ist es, zu verstehen, wie digitale Produkte im echten Leben genutzt werden – und daraus Verbesserungsvorschläge abzuleiten. 

5. Professional Accessibility Tester sind die Nutzer selbst: Menschen mit verschiedenen Behinderungen, die Produkte unter realen Bedingungen testen. Ihr Feedback ist unbezahlbar, denn sie erleben täglich, was funktioniert und was nicht. 

Diese neuen Jobprofile zeigen: Barrierefreiheit ist Teamarbeit. Und sie eröffnet spannende Karrierewege für alle, die Technik und soziale Verantwortung verbinden wollen. 

 

Wie Unternehmen Barrierefreiheit umsetzen (sollten)

Barrierefreiheit ist nur die halbe Geschichte. Die WCAG stellen lediglich sicher, dass jemand ein Produkt technisch nutzen kann – sie garantieren jedoch nicht, dass das Nutzungserlebnis auch gut ist. Digitale Barrierefreiheit braucht Empathie, Verständnis und echte Begegnungen. Keine KI kann vollständig simulieren, wie es ist, eine schlecht strukturierte Website mit einem Screenreader zu navigieren oder ein komplexes Formular mit motorischen Einschränkungen auszufüllen – nur Tests mit Nutzern mit Behinderung liefern authentische und umsetzbare Erkenntnisse. Deshalb setzen Unternehmen auf Crowdtesting mit Menschen, die täglich mit Barrieren konfrontiert sind. Sie holen sich Feedback von denen, die wirklich wissen, wovon sie sprechen. 

Aber es geht auch um die interne Haltung: Wie sprechen wir über Behinderung? Wie gestalten wir unsere Meetings, damit alle teilnehmen können? Stellen wir Menschen mit Behinderungen und andere unterrepräsentierte Gruppen ein? Wie schaffen wir Arbeitsplätze, die für verschiedene Bedürfnisse funktionieren? Fachwissen ist wichtig – aber ohne die richtige Einstellung bleibt es oberflächlich. 

Fakt ist: Der EAA kommt, ob Unternehmen bereit sind oder nicht. Wer klug ist, fängt jetzt an, seine Teams strategisch aufzustellen. Eine schnelle Compliance-Lösung wird nicht reichen – nachhaltige Barrierefreiheit braucht Zeit, Struktur und die richtigen Leute. Accessibility-Experten sollten von Anfang an in die Produktentwicklung eingebunden werden, nicht erst beim finalen Test. UX-Designer, Produktmanager und Entwickler müssen zusammenarbeiten und regelmäßig Feedback von Nutzern mit Behinderungen einholen. Und Accessibility Operations Manager sorgen dafür, dass das alles nicht im Chaos endet, sondern systematisch und effizient abläuft. 

Viele Unternehmen arbeiten auch mit externen Partnern zusammen, die das nötige Know-how, diverse Perspektiven und ein Netzwerk mitbringen. Das kann gerade am Anfang helfen, um schnell voranzukommen und von erfahrenen Experten zu lernen. 

 

Was Bewerber für Accessibility-Jobs mitbringen sollten

Wer sich in diesem Bereich positionieren will, braucht mehr als nur technisches Know-how. Empathie, Kommunikationsstärke und die Fähigkeit, in verschiedenen Disziplinen zu denken, sind mindestens genauso wichtig. 

Aus technischer Perspektive sollten Bewerber in erster Linie:

die Webstandards kennen,

Erfahrung mit assistiven Technologien haben, und

verstehen, wie gutes UX-Design funktioniert.

Wer zusätzlich Erfahrung mit inklusivem Research oder barrierefreiem Testing mitbringt, hat ausgezeichnete Chancen in einem Bereich, der gerade erst richtig im Kommen ist. Das Schöne an diesem Berufsfeld: Es verbindet technische Herausforderungen mit gesellschaftlichem Sinn. Accessibility-Profis gestalten eine digitale Welt, die für alle da ist. Und das ist ein Ziel, hinter dem sich alle versammeln können. (pg/fm)

Digitale Barrierefreiheit schafft neue Berufsbilder​ Weiterlesen »

KI-Agenten erstellen mit Google ADK​

Allgemein

So gelingen erste Schritte mit dem quelloffenen Agent Development Kit von Google.Foundry KI-Agenten zu erstellen, ist ein häufiger Anwendungsfall im Bereich Generative AI. Selbst wenn dafür kommerzielle Modelle genutzt werden, kann es allerdings äußerst aufwändig sein, diese Systeme zu entwickeln. Um die Anstrengungen für Entwickler zu reduzieren, hat Google auf seiner Next-Konferenz im April 2025 sein Agent Development Kit (ADK) vorgestellt. Ein quelloffenes Toolkit, das diverse Standardaufgaben übernehmen kann, wenn es darum geht, KI-Agenten zu entwickeln. Dabei unterstützt das ADK sowohl Agenten für simple Tasks als auch solche für komplexe, mehrstufige Workflows. Und: Googles Toolkit funktioniert nicht nur mit den hauseigenen Modellen wie Gemini, sondern auch mit so gut wie allen anderen, die per API bereitgestellt werden. Dieses Tutorial vermittelt, wie Sie: das Agent Development Kit von Google einrichten, KI-Agenten und Multi-Agenten-Architekturen realisieren, Ihre Agenten mit den Zusatz-Tools von Googles ADK erweitern, und sich mit Beispielprojekten den Einstieg erleichtern. Google Agent Development Kit einrichten Googles Agent Development Kit unterstützt zwei Programmiersprachen, Python und Java. Wir nutzen für dieses Tutorial die Python-Version. Um mit dem Agenten-Toolkit arbeiten zu können, erstellen Sie im ersten Schritt eine neue virtuelle Umgebung und installieren das ADK mit folgendem Befehl: pip install google-adk Zu beachten ist dabei, dass dadurch auch eine Vielzahl von Abhängigkeiten installiert wird (zum Zeitpunkt der Erstellung dieses Artikels waren es 84). Sie sollten also mindestens 285 MB Speicherplatz einplanen – nur für die Umgebung und ihre Abhängigkeiten. Außerdem empfiehlt es sich, eine .env-Datei im Stammverzeichnis Ihres Projekts anzulegen. Dort können Sie die API-Keys für die KI-Dienste speichern, mit denen Sie sich verbinden möchten. Das Google ADK erkennt .env-Files automatisch und nutzt deren Inhalt. Dafür müssen Sie also keinerlei Code schreiben. Einen simplen KI-Agenten erstellen Für den Anfang wollen wir mit dem Agent Development Kit einen einfachen KI-Agenten aufsetzen. Sein einziger Task ist es, das Internet nach Antworten auf Fragen zu durchsuchen. Dazu erstellen Sie in Ihrem Projektverzeichnis ein Unterverzeichnis namens searchagent und legen dort zwei Dateien ab. Dabei:   markiert __init__.py das Verzeichnis als “Agentenverzeichnis”, indem es den eigentlichen Agenten-Code importiert, während agent.py den Agenten selbst einrichtet – wie durch das Agent-Objekt beschrieben. Der Code für __init__.py: from . import agent Und der für agent.py: from google.adk.agents import Agent from google.adk.tools import google_search root_agent = Agent( name=”search_assistant”, description=”An agent that answers questions augmented with web searches.”, model=”gemini-2.0-flash”, instruction=”Answer questions provided by the user. Compare and contrast information gathered from Google with your own information. If you are given a statement that is not a question, reply, ‘Please ask me a question.'”, tools=[google_search] ) Die gewählte Verzeichnisstruktur (searchagent) ermöglicht es, bei Bedarf mehrere Agenten in einem Projekt zu erstellen, die entweder eigenständig agieren oder zusammenarbeiten können. Als Schnittstelle nutzt (je)der KI-Agent eine Modell-API, in unserem Fall gemini-2.0-flash. Die initialen Befehle an den Agenten, die jedem Benutzer-Input vorangestellt werden, sind in instruction definiert. Dabei ist allerdings zu beachten, dass diese weitaus detaillierter ausgestaltet sein können, als in unserem Beispiel. Der Abschnitt tools enthält zusätzliche Werkzeuge, auf die der KI-Agent zugreifen kann. Das ist in diesem Fall die Google-Suche (google_search), die zum Einsatz kommt, um die Ergebnisse anzureichern. Um diesen Beispiel-Agenten lokal über ein Web-Interface auszuführen, öffnen Sie die Kommandozeile, aktivieren venv und nutzen den Befehl adk web. Nach einer kurzen Wartezeit folgt ein Prompt, der darüber Auskunft gibt, dass das ADK-Interface auf Port 8000 ausgeführt wird. Anschließend können Sie über Ihren Browser zu http://localhost:8000 navigieren. Dort erwartet Sie nun die Standard-ADK-Webschnittstelle mit dem einsatzbereiten simpleagent-Agenten. Falls Sie mehrere Agenten für ein bestimmtes Projekt konfiguriert haben, können Sie über das Dropdown-Menü oben links zwischen diesen wählen. Um sicherzustellen, dass der KI-Agent ordnungsgemäß ausgeführt wird, füttern Sie diesen mit einer Frage – der Output sollte innerhalb weniger Sekunden angezeigt werden. Auf der linken Seite der Benutzeroberfläche werden Debugging-Informationen zu jeder Konversation mit dem Agenten angezeigt. Ein Klick auf das Bot-Symbol links neben der Konversation, macht deren Backend-Details sichtbar – inklusive der vom Dienst zurückgegebenen Metadaten. Die Details variieren je nach Service. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?quality=50&strip=all 1490w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wenn Sie die Token Streaming-Option oben rechts im Chatfenster aktivieren, werden die Ergebnisse schrittweise (Wort für Wort) zurückgegeben.Foundry Eine Multi-Agenten-Architektur entwickeln Im nächsten Schritt wollen wir nun ein System entwickeln, bei dem mehrere KI-Agenten parallel arbeiten sollen. Dabei lassen sich die Interaktionen zwischen den Agenten mithilfe sogenannter Workflow Agents kompositionieren. Diese starten die Tasks der Agenten und steuern anschließend, wie diese (auf Grundlage strikter Regeln) ausgeführt werden. Trotz ihres Namens handelt es sich bei den Workflow Agents jedoch nicht um KI-Agenten, sondern lediglich um Programme, die in Python (oder Java) geschrieben sind und die Funktionsweise der Agenten erweitern. Die Workflow Agents treten in verschiedenen Varianten auf: Sequential Agents leiten Benutzer-Inputs an ein spezifisches LLM oder einen bestimmten Workflow weiter, nehmen die Ergebnisse entgegen und leiten diese an ein anderes LLM oder einen anderen Workflow weiter (inklusive einiger zusätzlicher Anweisungen dazu, wie dieser Agent die Eingabe verarbeiten soll). Auf diese Weise lässt sich ein Agent nutzen, um die Outputs eines anderen zu transformieren oder zu verfeinern. Beispielsweise könnte ein KI-Agent einen Text generieren, ein anderer ihn in einem bestimmten Sprachstil umschreiben. Loop Agents nehmen definierte Inputs entgegen, leiten sie an ein LLM oder einen Workflow weiter und führen diesen Prozess so lange aus, bis eine bestimmte Bedingung erfüllt ist. Diese kann rein mechanischer Natur sein – etwa, den Loop x Mal hintereinander auszuführen. Es kann aber auch darum gehen, bestimmte Kriterien mit Hilfe eines andereren LLM-Agenten zu überprüfen. Ein Beispiel wäre ein Agent, der einen längeren Text simplifiziert, während ein anderer feststellt, ob die vereinfachte Version wichtige Details vermissen lässt (und falls ja, eine neue Version generiert). Parallel Agents führen zwei oder mehr Agenten-Jobs nebeneinander aus und geben die Ergebnisse erst dann aus, wenn alle Tasks abgeschlossen sind. Dabei wird während der Ausführung kein State zwischen den Jobs ausgetauscht. Diese müssen vorab mit den erforderlichen Daten versorgt werden. Ein Beispiel hierfür wäre ein Agent, der im Rahmen der Faktenprüfung eines Dokuments drei verschiedene Suchmaschinen verwendet. Jeder Prüfungsdurchgang wird parallel mit einer anderen Suchmaschine vorgenommen, die Ergebnisse nach Abschluss aller Suchvorgänge miteinander kombiniert. Weil die Workflow Agents im Grunde nur Python- oder Java-Programme sind, sind sie durch das Verhalten konventioneller Programme eingeschränkt. Ein Parallel Agent ist beispielsweise durch die Tasks eingeschränkt, die er parallel ausführen möchte. Soll er mehrere Aufträge auf einem Remote-Dienst ausführen, der aber nur jeweils einen Auftrag von Ihrem API-Key akzeptiert, haben Sie keinen Parallel Agent mehr. KI-Agenten werweitern mit ADK-Tools Mit dem Agent Development Kit erstellte KI-Agenten lassen sich zudem mit diversen Tools erweitern. In diesem Zusammenhang handelt es sich dabei ebenfalls um Python- (oder Java-) Code, der mit Nicht-LLM-Komponenten interagiert. Zum Beispiel, um etwas von einem URL-Endpunkt abzurufen, etwas aus einer Datenbank zu holen oder eine andere Aktion auszuführen, für die kein LLM erforderlich ist (obwohl möglicherweise LLM-generierte Daten zum Einsatz kommen, um die Aufgabe zu erledigen). Die ADK-Tools lassen sich in drei grundlegende Kategorien einteilen: Funktions-Tools wrappen vorhandene Funktionen in der von Ihnen geschriebenen Sprache. Sie geben JSON zurück, sodass alle Datentypen, die für Rückgabewerte verwendet werden standardmäßig JSON-serialisierbar sein müssen. Funktionen können so eingestellt werden, dass sie ausgeführt werden, ohne andere Verhaltensweisen zu blockieren. Sie können aber auch als Agenten fungieren. Integrierte Tools bieten gängige Standardfunktionen wie die Google-Suche, sodass Sie diese nicht von Grund auf neu implementieren müssen. Sie können auch beliebigen Code ausführen oder Google Vertex AI Search über integrierte Funktionen ausführen. Tools von Drittanbietern ermöglichen es anderen Entwicklern, Tools für ihre eigenen Workflows bereitzustellen, beispielsweise LangChain. Es ist zu empfehlen, sämtliche vorhandenen Geschäftslogiken, die Sie mit einem ADK-basierten Agenten verbinden möchten, mit einem Tool zu implementieren. Die Praxis, Logiken stattdessen in den Code des Agenten zu kopieren, sollte ausschließlich für Experimente eingesetzt werden. Empfehlenswerte ADK-Beispielprojekte Die über GitHub einsehbaren ADK-Beispielprojekte sind ein guter Startpunkt: Suchen Sie sich eines aus und passen Sie es auf Ihre eignen Anforderungen an. Die Beispielprojekte decken eine Vielzahl von Use Cases und Verhaltensweisen ab. Die Chance ist hoch, dass ein Muster, das Sie replizieren möchten, bereits vorhanden ist. Diese drei Projekte sind besonders zu empfehlen: LLM Auditor ist ein automatisiertes System, um Fakten mit zwei KI-Agenten zu prüfen. Der eine stellt Behauptungen auf den Prüfstand, der andere erstellt überarbeitete Versionen dieser ursprünglichen Behauptungen – auf Grundlage der Fact-Checking-Ergebnisse. Dieses Beispiel nutzt eine Architektur mit Sequential Agents, die es Ihnen ermöglicht ihr eigenen System daran auszurichten. Customer Service beinhaltet einen KI-Agenten für den Kundenservice, der mit verschiedenen Backend-Diensten verbunden ist, um diverse Tasks in diesem Bereich auszuführen. In diesem Beispiel werden viele verschiedene Tools nachgebildet (etwa Videoanrufe oder die Kommunikation mit Diensten wie Salesforce). Dieses Beispiel lässt sich also bei Bedarf an tatsächliche Backend-Dienste koppeln. Image Scoring Agent generiert Bilder und validiert die Ergebnisse anhand von Kriterien, die an einen anderen Agenten zur Bewertung übermittelt werden. Dieses Beispiel nutzt einen Loop Agent – und eignet sich damit potenziell als Grundlage für Projekte, die erfordern, Inputs kontinuierlich zu verfeinern. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KI-Agenten erstellen mit Google ADK​ So gelingen erste Schritte mit dem quelloffenen Agent Development Kit von Google.Foundry

KI-Agenten zu erstellen, ist ein häufiger Anwendungsfall im Bereich Generative AI. Selbst wenn dafür kommerzielle Modelle genutzt werden, kann es allerdings äußerst aufwändig sein, diese Systeme zu entwickeln.

Um die Anstrengungen für Entwickler zu reduzieren, hat Google auf seiner Next-Konferenz im April 2025 sein Agent Development Kit (ADK) vorgestellt. Ein quelloffenes Toolkit, das diverse Standardaufgaben übernehmen kann, wenn es darum geht, KI-Agenten zu entwickeln. Dabei unterstützt das ADK sowohl Agenten für simple Tasks als auch solche für komplexe, mehrstufige Workflows. Und: Googles Toolkit funktioniert nicht nur mit den hauseigenen Modellen wie Gemini, sondern auch mit so gut wie allen anderen, die per API bereitgestellt werden.

Dieses Tutorial vermittelt, wie Sie:

das Agent Development Kit von Google einrichten,

KI-Agenten und Multi-Agenten-Architekturen realisieren,

Ihre Agenten mit den Zusatz-Tools von Googles ADK erweitern, und

sich mit Beispielprojekten den Einstieg erleichtern.

Google Agent Development Kit einrichten

Googles Agent Development Kit unterstützt zwei Programmiersprachen, Python und Java. Wir nutzen für dieses Tutorial die Python-Version. Um mit dem Agenten-Toolkit arbeiten zu können, erstellen Sie im ersten Schritt eine neue virtuelle Umgebung und installieren das ADK mit folgendem Befehl:

pip install google-adk

Zu beachten ist dabei, dass dadurch auch eine Vielzahl von Abhängigkeiten installiert wird (zum Zeitpunkt der Erstellung dieses Artikels waren es 84). Sie sollten also mindestens 285 MB Speicherplatz einplanen – nur für die Umgebung und ihre Abhängigkeiten. Außerdem empfiehlt es sich, eine .env-Datei im Stammverzeichnis Ihres Projekts anzulegen. Dort können Sie die API-Keys für die KI-Dienste speichern, mit denen Sie sich verbinden möchten. Das Google ADK erkennt .env-Files automatisch und nutzt deren Inhalt. Dafür müssen Sie also keinerlei Code schreiben.

Einen simplen KI-Agenten erstellen

Für den Anfang wollen wir mit dem Agent Development Kit einen einfachen KI-Agenten aufsetzen. Sein einziger Task ist es, das Internet nach Antworten auf Fragen zu durchsuchen. Dazu erstellen Sie in Ihrem Projektverzeichnis ein Unterverzeichnis namens searchagent und legen dort zwei Dateien ab. Dabei:  

markiert __init__.py das Verzeichnis als “Agentenverzeichnis”, indem es den eigentlichen Agenten-Code importiert, während

agent.py den Agenten selbst einrichtet – wie durch das Agent-Objekt beschrieben.

Der Code für __init__.py:

from . import agent

Und der für agent.py:

from google.adk.agents import Agent
from google.adk.tools import google_search

root_agent = Agent(
name=”search_assistant”,
description=”An agent that answers questions augmented with web searches.”,
model=”gemini-2.0-flash”,
instruction=”Answer questions provided by the user. Compare and contrast information gathered from Google with your own information. If you are given a statement that is not a question, reply, ‘Please ask me a question.'”,
tools=[google_search]
)

Die gewählte Verzeichnisstruktur (searchagent) ermöglicht es, bei Bedarf mehrere Agenten in einem Projekt zu erstellen, die entweder eigenständig agieren oder zusammenarbeiten können. Als Schnittstelle nutzt (je)der KI-Agent eine Modell-API, in unserem Fall gemini-2.0-flash. Die initialen Befehle an den Agenten, die jedem Benutzer-Input vorangestellt werden, sind in instruction definiert. Dabei ist allerdings zu beachten, dass diese weitaus detaillierter ausgestaltet sein können, als in unserem Beispiel. Der Abschnitt tools enthält zusätzliche Werkzeuge, auf die der KI-Agent zugreifen kann. Das ist in diesem Fall die Google-Suche (google_search), die zum Einsatz kommt, um die Ergebnisse anzureichern.

Um diesen Beispiel-Agenten lokal über ein Web-Interface auszuführen, öffnen Sie die Kommandozeile, aktivieren venv und nutzen den Befehl adk web. Nach einer kurzen Wartezeit folgt ein Prompt, der darüber Auskunft gibt, dass das ADK-Interface auf Port 8000 ausgeführt wird. Anschließend können Sie über Ihren Browser zu http://localhost:8000 navigieren. Dort erwartet Sie nun die Standard-ADK-Webschnittstelle mit dem einsatzbereiten simpleagent-Agenten. Falls Sie mehrere Agenten für ein bestimmtes Projekt konfiguriert haben, können Sie über das Dropdown-Menü oben links zwischen diesen wählen.

Um sicherzustellen, dass der KI-Agent ordnungsgemäß ausgeführt wird, füttern Sie diesen mit einer Frage – der Output sollte innerhalb weniger Sekunden angezeigt werden. Auf der linken Seite der Benutzeroberfläche werden Debugging-Informationen zu jeder Konversation mit dem Agenten angezeigt. Ein Klick auf das Bot-Symbol links neben der Konversation, macht deren Backend-Details sichtbar – inklusive der vom Dienst zurückgegebenen Metadaten. Die Details variieren je nach Service.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?quality=50&strip=all 1490w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/GoogleADK-Screen-2-16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wenn Sie die Token Streaming-Option oben rechts im Chatfenster aktivieren, werden die Ergebnisse schrittweise (Wort für Wort) zurückgegeben.Foundry

Eine Multi-Agenten-Architektur entwickeln

Im nächsten Schritt wollen wir nun ein System entwickeln, bei dem mehrere KI-Agenten parallel arbeiten sollen. Dabei lassen sich die Interaktionen zwischen den Agenten mithilfe sogenannter Workflow Agents kompositionieren. Diese starten die Tasks der Agenten und steuern anschließend, wie diese (auf Grundlage strikter Regeln) ausgeführt werden. Trotz ihres Namens handelt es sich bei den Workflow Agents jedoch nicht um KI-Agenten, sondern lediglich um Programme, die in Python (oder Java) geschrieben sind und die Funktionsweise der Agenten erweitern. Die Workflow Agents treten in verschiedenen Varianten auf:

Sequential Agents leiten Benutzer-Inputs an ein spezifisches LLM oder einen bestimmten Workflow weiter, nehmen die Ergebnisse entgegen und leiten diese an ein anderes LLM oder einen anderen Workflow weiter (inklusive einiger zusätzlicher Anweisungen dazu, wie dieser Agent die Eingabe verarbeiten soll). Auf diese Weise lässt sich ein Agent nutzen, um die Outputs eines anderen zu transformieren oder zu verfeinern. Beispielsweise könnte ein KI-Agent einen Text generieren, ein anderer ihn in einem bestimmten Sprachstil umschreiben.

Loop Agents nehmen definierte Inputs entgegen, leiten sie an ein LLM oder einen Workflow weiter und führen diesen Prozess so lange aus, bis eine bestimmte Bedingung erfüllt ist. Diese kann rein mechanischer Natur sein – etwa, den Loop x Mal hintereinander auszuführen. Es kann aber auch darum gehen, bestimmte Kriterien mit Hilfe eines andereren LLM-Agenten zu überprüfen. Ein Beispiel wäre ein Agent, der einen längeren Text simplifiziert, während ein anderer feststellt, ob die vereinfachte Version wichtige Details vermissen lässt (und falls ja, eine neue Version generiert).

Parallel Agents führen zwei oder mehr Agenten-Jobs nebeneinander aus und geben die Ergebnisse erst dann aus, wenn alle Tasks abgeschlossen sind. Dabei wird während der Ausführung kein State zwischen den Jobs ausgetauscht. Diese müssen vorab mit den erforderlichen Daten versorgt werden. Ein Beispiel hierfür wäre ein Agent, der im Rahmen der Faktenprüfung eines Dokuments drei verschiedene Suchmaschinen verwendet. Jeder Prüfungsdurchgang wird parallel mit einer anderen Suchmaschine vorgenommen, die Ergebnisse nach Abschluss aller Suchvorgänge miteinander kombiniert.

Weil die Workflow Agents im Grunde nur Python- oder Java-Programme sind, sind sie durch das Verhalten konventioneller Programme eingeschränkt. Ein Parallel Agent ist beispielsweise durch die Tasks eingeschränkt, die er parallel ausführen möchte. Soll er mehrere Aufträge auf einem Remote-Dienst ausführen, der aber nur jeweils einen Auftrag von Ihrem API-Key akzeptiert, haben Sie keinen Parallel Agent mehr.

KI-Agenten werweitern mit ADK-Tools

Mit dem Agent Development Kit erstellte KI-Agenten lassen sich zudem mit diversen Tools erweitern. In diesem Zusammenhang handelt es sich dabei ebenfalls um Python- (oder Java-) Code, der mit Nicht-LLM-Komponenten interagiert. Zum Beispiel, um etwas von einem URL-Endpunkt abzurufen, etwas aus einer Datenbank zu holen oder eine andere Aktion auszuführen, für die kein LLM erforderlich ist (obwohl möglicherweise LLM-generierte Daten zum Einsatz kommen, um die Aufgabe zu erledigen). Die ADK-Tools lassen sich in drei grundlegende Kategorien einteilen:

Funktions-Tools wrappen vorhandene Funktionen in der von Ihnen geschriebenen Sprache. Sie geben JSON zurück, sodass alle Datentypen, die für Rückgabewerte verwendet werden standardmäßig JSON-serialisierbar sein müssen. Funktionen können so eingestellt werden, dass sie ausgeführt werden, ohne andere Verhaltensweisen zu blockieren. Sie können aber auch als Agenten fungieren.

Integrierte Tools bieten gängige Standardfunktionen wie die Google-Suche, sodass Sie diese nicht von Grund auf neu implementieren müssen. Sie können auch beliebigen Code ausführen oder Google Vertex AI Search über integrierte Funktionen ausführen.

Tools von Drittanbietern ermöglichen es anderen Entwicklern, Tools für ihre eigenen Workflows bereitzustellen, beispielsweise LangChain.

Es ist zu empfehlen, sämtliche vorhandenen Geschäftslogiken, die Sie mit einem ADK-basierten Agenten verbinden möchten, mit einem Tool zu implementieren. Die Praxis, Logiken stattdessen in den Code des Agenten zu kopieren, sollte ausschließlich für Experimente eingesetzt werden.

Empfehlenswerte ADK-Beispielprojekte

Die über GitHub einsehbaren ADK-Beispielprojekte sind ein guter Startpunkt: Suchen Sie sich eines aus und passen Sie es auf Ihre eignen Anforderungen an. Die Beispielprojekte decken eine Vielzahl von Use Cases und Verhaltensweisen ab. Die Chance ist hoch, dass ein Muster, das Sie replizieren möchten, bereits vorhanden ist.

Diese drei Projekte sind besonders zu empfehlen:

LLM Auditor ist ein automatisiertes System, um Fakten mit zwei KI-Agenten zu prüfen. Der eine stellt Behauptungen auf den Prüfstand, der andere erstellt überarbeitete Versionen dieser ursprünglichen Behauptungen – auf Grundlage der Fact-Checking-Ergebnisse. Dieses Beispiel nutzt eine Architektur mit Sequential Agents, die es Ihnen ermöglicht ihr eigenen System daran auszurichten.

Customer Service beinhaltet einen KI-Agenten für den Kundenservice, der mit verschiedenen Backend-Diensten verbunden ist, um diverse Tasks in diesem Bereich auszuführen. In diesem Beispiel werden viele verschiedene Tools nachgebildet (etwa Videoanrufe oder die Kommunikation mit Diensten wie Salesforce). Dieses Beispiel lässt sich also bei Bedarf an tatsächliche Backend-Dienste koppeln.

Image Scoring Agent generiert Bilder und validiert die Ergebnisse anhand von Kriterien, die an einen anderen Agenten zur Bewertung übermittelt werden. Dieses Beispiel nutzt einen Loop Agent – und eignet sich damit potenziell als Grundlage für Projekte, die erfordern, Inputs kontinuierlich zu verfeinern.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KI-Agenten erstellen mit Google ADK​ Weiterlesen »

Den Geheimcode entziffern: So knacken Sie das Arbeitszeugnis​

Allgemein

Foto: eccolo – Fotolia.com Ein qualifiziertes Arbeitszeugnis zu schreiben kostet Zeit. Es gilt, sich zuerst über die Leistungen des scheidenden Mitarbeiters bei Kollegen und Vorgesetzten zu informieren und die Bewertung dann so zu formulieren, dass sie den gesetzlichen Vorgaben – jedes Zeugnis muss wahr und wohlwollend sein – entspricht. Gleichzeitig soll das Zeugnis der Individualität des Einzelnen gerecht werden. Diesen Anspruch können heute viele Personalverantwortliche nicht mehr erfülllen, weil ihnen dafür die Zeit fehlt. Die Bewertung hinter der Formulierung Die Folge: Entweder greifen die Personaler auf mehr oder minder passende Zeugnisse von bereits ausgeschiedenen Mitarbeitern zurück, aus denen sie eine neue Variante zusammenmixen, oder sie benutzen eine Software, die nach Eingabe von Schulnoten für bestimmte Kategorien die standardisierten Textbausteine ausspuckt. Oft wird aber auch der Mitarbeiter aufgefordert, sich selbst sein Arbeitszeugnis zu schreiben. Allerdings ist es gar nicht so leicht, die eigene Leistung und das Sozialverhalten zu bewerten. Mittlerweile beschäftigen sich darum zahlreiche Bücher mit dem Thema und zeigen anhand von Beispielen, welche Bewertungen sich hinter den Formulierungen verstecken. Hier die wichtigsten Codes der Personaler im Überblick, die Professor Arnulf Weuster und Brigitte Scheer in ihrem Ratgeber “Arbeitszeugnisse in Textbausteinen” auflisten. Einleitung In der Einleitung steht, wie lange der Mitarbeiter im Unternehmen und in welcher Funktion er tätig war. Das Wort “tätig” zeigt schon hier den aktiven Mitarbeiter. Weniger gut, da passiver sind Formeln wie “wurde beschäftigt” oder “Hatte zu erledigen”. Wird im Eingangssatz nur die rechtliche Existenz eines Arbeitsverhältnisses betont (“Das Arbeitsverhältnis dauerte von/bis”, “xy war von/bis Angehöriger unseres Unternehmens”), kann dies andeuten, dass der Mitarbeiter aufgrund langer Fehlzeiten nur kurze Zeit wirklich arbeitete. Positions- und Aufgabenbeschreibung Es genügt nicht, die bloße Position oder Funktion zu nennen, da sich in der Praxis hinter gleichen Begriffen unterschiedliche Aufgaben und Kompetenzen verbergen. Ein Beispiel dafür ist etwa der Projektleiter. Erklärungsbedürftig sind auch englische Funktionsbezeichnungen (etwa Technical Support Engineer), da sie außerhalb der Branche oft nicht verständlich sind. Fällt die Aufgabenbeschreibung zu knapp aus, könnte das so ausgelegt werden, dass der Mitarbeiter nicht gut gearbeitet hat. Ein Pluspunkt ist, wer sein ein Arbeiten als “selbständig” oder “eigenverantwortlich” beschreiben kann. Die Begriffe sollten aber nicht eingeschränkt werden, da sie eher negativ wirken. Beispiele dafür sind: “Zum Teil selbständig”, “nach Vorgaben/ unter Anleitung selbständig”. Wichtig ist auch, bei welchen Aufgaben Selbständigkeit testiert wird. Ein Negativ-Beispiel ist: “Er erledigte weitgehend selbständig alle Routine-Aufgaben.” Wichtig ist auch die Reihenfolge, in der die Aufgaben genannt werden: Das Wichtigste kommt immer zuerst, weniger qualifizierte Aufgaben am Schluss. Werden Routineaufgaben besonders betont und wichtige Tätigkeiten mit dem Wort “neben” eingeführt, kann dies abwertend wirken. Ein Negativ-Beispiel für Entwickler: “Neben dem Aufbau des Qualitäts-Sicherungsprozesses übernahm Herr Maier klassische Software-Entwicklungsaufgaben im Java/J2EE-Umfeld.” Wer sich als dynamischer Mitarbeiter darstellen will, sollte aktive und erfolgsbezogene Verben wie erledigen, verbessern, optimieren, einführen, realisieren, erreichen, steigern, erzielen, etc. wählen. Passive Formulierungen wie “Wurde eingesetzt/beschäftigt/versetzt” signalisieren oft fehlende Initiative oder Unselbständigkeit. Beurteilung der Arbeitsbereitschaft Positive Signalwörter sind hier Einsatzwille, Fleiß, Interesse, Initiative, Engagement. Heißt es dagegen “Er setzt sich für die Interessen der Firma ein”, ist das nur eine Umschreibung einer puren Selbstverständlichkeit und nicht sehr aussagekräftig. Beurteilung der Leistungsfähigkeit Ein zentraler Punkt im Zeugnis, hier geht es um Intelligenz, Auffassungsgabe, Urteilvermögen, Kreativität, Belastbarkeit, Ausdauer, Ausbildung, Berufserfahrung, Fachwissen und auch Weiterbildungsaktivitäten. Intelligenz/ Auffassungsgabe: “Er hat eine (ungewöhnlich) rasche Auffassungsgabe”, “er arbeitet sich rasch in neue Probleme ein”. Belastbarkeit: “Er ist auch in schwierigen Situationen sehr gut belastbar und handelt dabei ruhig und überlegt.” Flexibilität/ Kreativität/ Vielseitigkeit: “Sie ist jederzeit fähig und bereit, auch schwierige Aufgaben selbständig zu lösen.” “Er stellt sich auf veränderte Arbeitssituationen schnell ei n und ist daher vielseitig einsetzbar.” Den Begriff “visionär” sollte man dagegen sparsam verwenden, da er auch als weltfremd gedeutet werden kann. Fachwissen: Hier werden die Aussagen im Präsens formuliert, da der Mitarbeiter auch nach dem Ausscheiden aus dem Unternehmen noch über sein Wissen verfügt. Positiv sind hier Sätze wie “Frau X verfügt über ein umfangreiches, fundiertes und aktuelles Fachwissen, das sie stets zum Nutzen des Unternehmens sehr gut in der Praxis umsetzte. Wer in seinem Zeugnis aber liest, dass “Seine umfangreiche Bildung ihn stets zu einem gesuchten Gesprächpartner machte”, hat wahrscheinlich zu viele Privatgespräche im Büro geführt. Negativ wirkt auch, wenn nur Anforderungen beschrieben werden ( “Diese Aufgabe erforderte Kenntnisse in…”). Weiterbildung: Erfolgsbezogene Aussagen wie “Hat sich angeeignet/ vervollkommnete” sind besser als “Wurde ausgebildet” oder “Hat absolviert”. Beurteilung der Arbeitsweise Hier geht es um Selbständigkeit, Sorgfalt, Gewissenhaftigkeit und Zuverlässigkeit. Wird aber die Sorgfalt und Genauigkeit eines Mitarbeiters ohne Aussage über die Arbeitsmenge gelobt, kann das als Indiz für die mangelnde Arbeitsgeschwindigkeit gelesen werden. Auch ist es ein Unterschied ob “Herr Müller pünktlich ist ( = besonders am Feierabend, persönliche Eigenschaft) oder ob Herr Müller seine Arbeit pünktlich erledigt ( = termingerecht). Zusammenfassende Beurteilung der Leistung Sehr gute Beurteilung: Sie hat die Aufgaben stets zu unserer vollsten Zufriedenheit erledigt. Wir waren mit seinen Leistungen stets außerordentlich zufrieden. Gute Beurteilung: stets zu unserer vollen Zufriedenheit. Befriedigende Beurteilung: Sie hat die Aufgaben zu unserer vollen Zufriedenheit erledigt. Sie hat ihre Aufgaben voll zufriedenstellend getan. Ausreichende Beurteilung: Sie hat ihre Aufgaben zufriedenstellend getan. Mangelhafte Beurteilung: Er hat die Aufgaben zum großen Teil zu unserer Zufriedenheit getan. Sie hat ihre Aufgaben weitgehend/ in der Regel/ meist zufrieden stellend getan. Beurteilung des Sozialverhaltens Hier wird das Verhalten gegenüber Kollegen, Chefs und Externen beurteilt. Wird nur die Kollegialität (“Im Mitarbeiterkreis gilt er als toleranter Kollege”) herausgestellt, deutet das auf Schwierigkeiten mit den Vorgesetzten hin. Beispiele für eine (versteckte) negative Bewertung des Sozialverhaltens sind: “In letzter Zeit kam es zu Konflikten mit dem Vorgesetzten/ Auseinandersetzungen im Kollegenkreis” ( sehr negativ, kann Alkoholkonsum andeuten) “Frau Schuster hat ein bescheidenes und zuvorkommendes Wesen” ( = sie ist zurückhaltend, angepasst, unterwürfig) “Mit ihren Vorgesetzten ist sie immer gut ausgekommen” ( = Anpassung um jeden Preis) “Sein Verhalten war ohne Tadel/ hat nie zu Klagen Anlass gegeben.” (Damit wird ausgedrückt, dass es auch nicht lobenswert war). “Anspruchsvoller und kritischer Mitarbeiter (= anspruchsvoll gegenüber anderen, eigensüchtiger Nörgler”) “kontaktfreudiger/ allseits Beliebter/ kontaktwilliger Mitarbeiter” (= kann im Sinne von Sexualkontakt missgedeutet werden) Wenn bei qualifizierten Mitarbeitern und Führungskräften Basistugenden wie Pünktlichkeit oder Zuverlässigkeit übermäßig betont werden, kann das eine bewusste Abwertung bedeuten. Beispiel: “Wir bestätigen gern, dass Herr Müller mit Fleiß und Ehrlichkeit an seine Aufgaben herangegangen ist.” (= aber ohne fachliche Qualifikation). Schlussformel Fast drei Viertel aller Zeugnisse enthalten den Hinweis, dass der Mitarbeiter das Unternehmen “auf eigenen Wunsch” verlässt. Diese Formel wird zum Teil bei Kündigungen durch den Arbeitgeber oder Aufhebungsverträgen verwendet. Zweifel weckt sie im nächsten Vorstellungsgespräch dann, wenn der Lebenslauf des Arbeitnehmers nach dem Arbeitsverhältnis eine Lücke aufweist oder der nächste Job einen beruflichen Abstieg bedeutet. Bei einer betriebsbedingten Kündigung kann der Mitarbeiter verlangen, dass diese im Zeugnis genannt wird und der konkrete Grund wie Auftragsrückgang oder Rationalisierung genannt wird. “Für ihren weiteren Berufsweg wünschen wir Frau Schulz alles Gute”: Zukunftswünsche, Dank und Bedauern gehören in jedes gute Zeugnis von qualifizierten Mitarbeitern. Fehlen sie oder werden sie nur sehr kurz ausgesprochen, mindert das den Wert des gesamten Zeugnisses. Ganz wichtig sind hier die Zukunftswünsche: Wenn sie nicht ausgesprochen werden, wirkt das wie ein grußloser, unversöhnlicher Abschied, der auf eine tiefe Verstimmung hindeuten kann. Aufbau eines Zeugnisses Einleitung ( Personalien, Gesamtdauer der Beschäftigung und Funktion im Unternehmen, Erläuterung zum Unternehmen) Aufgabenbeschreibung Beurteilung der Leistung und des Erfolgs Beurteilung des Sozialverhaltens Schlussformel (Ausscheiden, Dankes-Bedauern-Formel, Zukunftswünsche) Ort, Datum, Unterschrift Mehr zum Thema? Der Klassiker: Weuster, Arnulf, Scheer, Brigitte: Arbeitszeugnisse in Textbausteinen: Rationelle Erstellung, Analyse, Rechtsfragen, 14. Auflage von 2019, 416 Seiten, Richard Boorberg Verlag, 23,80 Euro IT-Arbeitszeugnisse, Broschüre mit zahlreichen Beispielzeugnissen für IT-Berufe, herausgegeben von Verdi. geheimcodesPhrase 1Phrase 1Übersetzung 1Übersetzung 1Phrase 2Phrase 2Übersetzung 2Übersetzung 2Phrase 3Phrase 3Übersetzung 3Übersetzung 3Phrase 4Phrase 4Übersetzung 4Übersetzung 4Phrase 5Phrase 5Übersetzung 5Übersetzung 5Phrase 6Phrase 6Übersetzung 6Übersetzung 6Phrase 7Phrase 7Übersetzung 7Übersetzung 7Phrase 8Phrase 8Übersetzung 8Übersetzung 8Phrase 9Phrase 9Übersetzung 9Übersetzung 9Phrase 10Phrase 10Übersetzung 10Übersetzung 10Phrase 11Phrase 11Übersetzung 11Übersetzung 11Phrase 12Phrase 12Übersetzung 12Übersetzung 12Phrase 13Phrase 13Übersetzung 13Übersetzung 13Phrase 14Phrase 14Übersetzung 14Übersetzung 14Phrase 15Phrase 15Übersetzung 15Übersetzung 15Phrase 16Phrase 16Übersetzung 16Übersetzung 16Phrase 17Phrase 17Übersetzung 17Übersetzung 17Phrase 18Phrase 18Übersetzung 18Übersetzung 18Phrase 19Phrase 19Übersetzung 19Übersetzung 19Phrase 20Phrase 20Übersetzung 20Übersetzung 20Phrase 21Phrase 21Übersetzung 21Übersetzung 21Phrase 22Phrase 22Übersetzung 22Übersetzung 22Phrase 23Phrase 23Übersetzung 23Übersetzung 23Phrase 24Phrase 24Übersetzung 24Übersetzung 24Phrase 25Phrase 25Übersetzung 25Übersetzung 25Phrase 26Phrase 26Übersetzung 26Übersetzung 26Phrase 27Phrase 27Übersetzung 27Übersetzung 27Phrase 28Phrase 28Übersetzung 28Übersetzung 28Phrase 29Phrase 29Übersetzung 29Übersetzung 29Phrase 30Phrase 30Übersetzung 30Übersetzung 30Phrase 31Phrase 31Übersetzung 31Übersetzung 31Phrase 32Phrase 32Übersetzung 32Übersetzung 32Phrase 33Phrase 33Übersetzung 33Übersetzung 33Phrase 34Phrase 34Übersetzung 34Übersetzung 34Phrase 35Phrase 35Übersetzung 35Übersetzung 35Phrase 36Phrase 36Übersetzung 36Übersetzung 36Phrase 37Phrase 37Übersetzung 37Übersetzung 37Phrase 38Phrase 38Übersetzung 38Übersetzung 38Phrase 39Phrase 39Übersetzung 39Übersetzung 39Phrase 40Phrase 40Übersetzung 40Übersetzung 40 

Den Geheimcode entziffern: So knacken Sie das Arbeitszeugnis​ Foto: eccolo – Fotolia.com

Ein qualifiziertes Arbeitszeugnis zu schreiben kostet Zeit. Es gilt, sich zuerst über die Leistungen des scheidenden Mitarbeiters bei Kollegen und Vorgesetzten zu informieren und die Bewertung dann so zu formulieren, dass sie den gesetzlichen Vorgaben – jedes Zeugnis muss wahr und wohlwollend sein – entspricht. Gleichzeitig soll das Zeugnis der Individualität des Einzelnen gerecht werden. Diesen Anspruch können heute viele Personalverantwortliche nicht mehr erfülllen, weil ihnen dafür die Zeit fehlt.

Die Bewertung hinter der Formulierung

Die Folge: Entweder greifen die Personaler auf mehr oder minder passende Zeugnisse von bereits ausgeschiedenen Mitarbeitern zurück, aus denen sie eine neue Variante zusammenmixen, oder sie benutzen eine Software, die nach Eingabe von Schulnoten für bestimmte Kategorien die standardisierten Textbausteine ausspuckt. Oft wird aber auch der Mitarbeiter aufgefordert, sich selbst sein Arbeitszeugnis zu schreiben. Allerdings ist es gar nicht so leicht, die eigene Leistung und das Sozialverhalten zu bewerten. Mittlerweile beschäftigen sich darum zahlreiche Bücher mit dem Thema und zeigen anhand von Beispielen, welche Bewertungen sich hinter den Formulierungen verstecken. Hier die wichtigsten Codes der Personaler im Überblick, die Professor Arnulf Weuster und Brigitte Scheer in ihrem Ratgeber “Arbeitszeugnisse in Textbausteinen” auflisten.

Einleitung

In der Einleitung steht, wie lange der Mitarbeiter im Unternehmen und in welcher Funktion er tätig war. Das Wort “tätig” zeigt schon hier den aktiven Mitarbeiter. Weniger gut, da passiver sind Formeln wie “wurde beschäftigt” oder “Hatte zu erledigen”. Wird im Eingangssatz nur die rechtliche Existenz eines Arbeitsverhältnisses betont (“Das Arbeitsverhältnis dauerte von/bis”, “xy war von/bis Angehöriger unseres Unternehmens”), kann dies andeuten, dass der Mitarbeiter aufgrund langer Fehlzeiten nur kurze Zeit wirklich arbeitete.

Positions- und Aufgabenbeschreibung

Es genügt nicht, die bloße Position oder Funktion zu nennen, da sich in der Praxis hinter gleichen Begriffen unterschiedliche Aufgaben und Kompetenzen verbergen. Ein Beispiel dafür ist etwa der Projektleiter. Erklärungsbedürftig sind auch englische Funktionsbezeichnungen (etwa Technical Support Engineer), da sie außerhalb der Branche oft nicht verständlich sind. Fällt die Aufgabenbeschreibung zu knapp aus, könnte das so ausgelegt werden, dass der Mitarbeiter nicht gut gearbeitet hat.

Ein Pluspunkt ist, wer sein ein Arbeiten als “selbständig” oder “eigenverantwortlich” beschreiben kann. Die Begriffe sollten aber nicht eingeschränkt werden, da sie eher negativ wirken. Beispiele dafür sind: “Zum Teil selbständig”, “nach Vorgaben/ unter Anleitung selbständig”. Wichtig ist auch, bei welchen Aufgaben Selbständigkeit testiert wird. Ein Negativ-Beispiel ist: “Er erledigte weitgehend selbständig alle Routine-Aufgaben.”

Wichtig ist auch die Reihenfolge, in der die Aufgaben genannt werden: Das Wichtigste kommt immer zuerst, weniger qualifizierte Aufgaben am Schluss. Werden Routineaufgaben besonders betont und wichtige Tätigkeiten mit dem Wort “neben” eingeführt, kann dies abwertend wirken. Ein Negativ-Beispiel für Entwickler: “Neben dem Aufbau des Qualitäts-Sicherungsprozesses übernahm Herr Maier klassische Software-Entwicklungsaufgaben im Java/J2EE-Umfeld.”

Wer sich als dynamischer Mitarbeiter darstellen will, sollte aktive und erfolgsbezogene Verben wie erledigen, verbessern, optimieren, einführen, realisieren, erreichen, steigern, erzielen, etc. wählen. Passive Formulierungen wie “Wurde eingesetzt/beschäftigt/versetzt” signalisieren oft fehlende Initiative oder Unselbständigkeit.

Beurteilung der Arbeitsbereitschaft

Positive Signalwörter sind hier Einsatzwille, Fleiß, Interesse, Initiative, Engagement. Heißt es dagegen “Er setzt sich für die Interessen der Firma ein”, ist das nur eine Umschreibung einer puren Selbstverständlichkeit und nicht sehr aussagekräftig.

Beurteilung der Leistungsfähigkeit

Ein zentraler Punkt im Zeugnis, hier geht es um Intelligenz, Auffassungsgabe, Urteilvermögen, Kreativität, Belastbarkeit, Ausdauer, Ausbildung, Berufserfahrung, Fachwissen und auch Weiterbildungsaktivitäten.

Intelligenz/ Auffassungsgabe: “Er hat eine (ungewöhnlich) rasche Auffassungsgabe”, “er arbeitet sich rasch in neue Probleme ein”.

Belastbarkeit: “Er ist auch in schwierigen Situationen sehr gut belastbar und handelt dabei ruhig und überlegt.”

Flexibilität/ Kreativität/ Vielseitigkeit: “Sie ist jederzeit fähig und bereit, auch schwierige Aufgaben selbständig zu lösen.” “Er stellt sich auf veränderte Arbeitssituationen schnell ei n und ist daher vielseitig einsetzbar.” Den Begriff “visionär” sollte man dagegen sparsam verwenden, da er auch als weltfremd gedeutet werden kann.

Fachwissen: Hier werden die Aussagen im Präsens formuliert, da der Mitarbeiter auch nach dem Ausscheiden aus dem Unternehmen noch über sein Wissen verfügt. Positiv sind hier Sätze wie “Frau X verfügt über ein umfangreiches, fundiertes und aktuelles Fachwissen, das sie stets zum Nutzen des Unternehmens sehr gut in der Praxis umsetzte. Wer in seinem Zeugnis aber liest, dass “Seine umfangreiche Bildung ihn stets zu einem gesuchten Gesprächpartner machte”, hat wahrscheinlich zu viele Privatgespräche im Büro geführt. Negativ wirkt auch, wenn nur Anforderungen beschrieben werden ( “Diese Aufgabe erforderte Kenntnisse in…”).

Weiterbildung: Erfolgsbezogene Aussagen wie “Hat sich angeeignet/ vervollkommnete” sind besser als “Wurde ausgebildet” oder “Hat absolviert”.

Beurteilung der Arbeitsweise

Hier geht es um Selbständigkeit, Sorgfalt, Gewissenhaftigkeit und Zuverlässigkeit. Wird aber die Sorgfalt und Genauigkeit eines Mitarbeiters ohne Aussage über die Arbeitsmenge gelobt, kann das als Indiz für die mangelnde Arbeitsgeschwindigkeit gelesen werden. Auch ist es ein Unterschied ob “Herr Müller pünktlich ist ( = besonders am Feierabend, persönliche Eigenschaft) oder ob Herr Müller seine Arbeit pünktlich erledigt ( = termingerecht).

Zusammenfassende Beurteilung der Leistung

Sehr gute Beurteilung: Sie hat die Aufgaben stets zu unserer vollsten Zufriedenheit erledigt. Wir waren mit seinen Leistungen stets außerordentlich zufrieden.

Gute Beurteilung: stets zu unserer vollen Zufriedenheit.

Befriedigende Beurteilung: Sie hat die Aufgaben zu unserer vollen Zufriedenheit erledigt. Sie hat ihre Aufgaben voll zufriedenstellend getan.

Ausreichende Beurteilung: Sie hat ihre Aufgaben zufriedenstellend getan.

Mangelhafte Beurteilung: Er hat die Aufgaben zum großen Teil zu unserer Zufriedenheit getan. Sie hat ihre Aufgaben weitgehend/ in der Regel/ meist zufrieden stellend getan.

Beurteilung des Sozialverhaltens

Hier wird das Verhalten gegenüber Kollegen, Chefs und Externen beurteilt. Wird nur die Kollegialität (“Im Mitarbeiterkreis gilt er als toleranter Kollege”) herausgestellt, deutet das auf Schwierigkeiten mit den Vorgesetzten hin. Beispiele für eine (versteckte) negative Bewertung des Sozialverhaltens sind:

“In letzter Zeit kam es zu Konflikten mit dem Vorgesetzten/ Auseinandersetzungen im Kollegenkreis” ( sehr negativ, kann Alkoholkonsum andeuten)

“Frau Schuster hat ein bescheidenes und zuvorkommendes Wesen” ( = sie ist zurückhaltend, angepasst, unterwürfig)

“Mit ihren Vorgesetzten ist sie immer gut ausgekommen” ( = Anpassung um jeden Preis)

“Sein Verhalten war ohne Tadel/ hat nie zu Klagen Anlass gegeben.” (Damit wird ausgedrückt, dass es auch nicht lobenswert war).

“Anspruchsvoller und kritischer Mitarbeiter (= anspruchsvoll gegenüber anderen, eigensüchtiger Nörgler”)

“kontaktfreudiger/ allseits Beliebter/ kontaktwilliger Mitarbeiter” (= kann im Sinne von Sexualkontakt missgedeutet werden)

Wenn bei qualifizierten Mitarbeitern und Führungskräften Basistugenden wie Pünktlichkeit oder Zuverlässigkeit übermäßig betont werden, kann das eine bewusste Abwertung bedeuten. Beispiel: “Wir bestätigen gern, dass Herr Müller mit Fleiß und Ehrlichkeit an seine Aufgaben herangegangen ist.” (= aber ohne fachliche Qualifikation).

Schlussformel

Fast drei Viertel aller Zeugnisse enthalten den Hinweis, dass der Mitarbeiter das Unternehmen “auf eigenen Wunsch” verlässt. Diese Formel wird zum Teil bei Kündigungen durch den Arbeitgeber oder Aufhebungsverträgen verwendet. Zweifel weckt sie im nächsten Vorstellungsgespräch dann, wenn der Lebenslauf des Arbeitnehmers nach dem Arbeitsverhältnis eine Lücke aufweist oder der nächste Job einen beruflichen Abstieg bedeutet.

Bei einer betriebsbedingten Kündigung kann der Mitarbeiter verlangen, dass diese im Zeugnis genannt wird und der konkrete Grund wie Auftragsrückgang oder Rationalisierung genannt wird.

“Für ihren weiteren Berufsweg wünschen wir Frau Schulz alles Gute”: Zukunftswünsche, Dank und Bedauern gehören in jedes gute Zeugnis von qualifizierten Mitarbeitern. Fehlen sie oder werden sie nur sehr kurz ausgesprochen, mindert das den Wert des gesamten Zeugnisses. Ganz wichtig sind hier die Zukunftswünsche: Wenn sie nicht ausgesprochen werden, wirkt das wie ein grußloser, unversöhnlicher Abschied, der auf eine tiefe Verstimmung hindeuten kann.

Aufbau eines Zeugnisses

Einleitung ( Personalien, Gesamtdauer der Beschäftigung und Funktion im Unternehmen, Erläuterung zum Unternehmen)

Aufgabenbeschreibung

Beurteilung der Leistung und des Erfolgs

Beurteilung des Sozialverhaltens

Schlussformel (Ausscheiden, Dankes-Bedauern-Formel, Zukunftswünsche)

Ort, Datum, Unterschrift

Mehr zum Thema?

Der Klassiker: Weuster, Arnulf, Scheer, Brigitte: Arbeitszeugnisse in Textbausteinen: Rationelle Erstellung, Analyse, Rechtsfragen, 14. Auflage von 2019, 416 Seiten, Richard Boorberg Verlag, 23,80 Euro

IT-Arbeitszeugnisse, Broschüre mit zahlreichen Beispielzeugnissen für IT-Berufe, herausgegeben von Verdi.

geheimcodesPhrase 1Phrase 1Übersetzung 1Übersetzung 1Phrase 2Phrase 2Übersetzung 2Übersetzung 2Phrase 3Phrase 3Übersetzung 3Übersetzung 3Phrase 4Phrase 4Übersetzung 4Übersetzung 4Phrase 5Phrase 5Übersetzung 5Übersetzung 5Phrase 6Phrase 6Übersetzung 6Übersetzung 6Phrase 7Phrase 7Übersetzung 7Übersetzung 7Phrase 8Phrase 8Übersetzung 8Übersetzung 8Phrase 9Phrase 9Übersetzung 9Übersetzung 9Phrase 10Phrase 10Übersetzung 10Übersetzung 10Phrase 11Phrase 11Übersetzung 11Übersetzung 11Phrase 12Phrase 12Übersetzung 12Übersetzung 12Phrase 13Phrase 13Übersetzung 13Übersetzung 13Phrase 14Phrase 14Übersetzung 14Übersetzung 14Phrase 15Phrase 15Übersetzung 15Übersetzung 15Phrase 16Phrase 16Übersetzung 16Übersetzung 16Phrase 17Phrase 17Übersetzung 17Übersetzung 17Phrase 18Phrase 18Übersetzung 18Übersetzung 18Phrase 19Phrase 19Übersetzung 19Übersetzung 19Phrase 20Phrase 20Übersetzung 20Übersetzung 20Phrase 21Phrase 21Übersetzung 21Übersetzung 21Phrase 22Phrase 22Übersetzung 22Übersetzung 22Phrase 23Phrase 23Übersetzung 23Übersetzung 23Phrase 24Phrase 24Übersetzung 24Übersetzung 24Phrase 25Phrase 25Übersetzung 25Übersetzung 25Phrase 26Phrase 26Übersetzung 26Übersetzung 26Phrase 27Phrase 27Übersetzung 27Übersetzung 27Phrase 28Phrase 28Übersetzung 28Übersetzung 28Phrase 29Phrase 29Übersetzung 29Übersetzung 29Phrase 30Phrase 30Übersetzung 30Übersetzung 30Phrase 31Phrase 31Übersetzung 31Übersetzung 31Phrase 32Phrase 32Übersetzung 32Übersetzung 32Phrase 33Phrase 33Übersetzung 33Übersetzung 33Phrase 34Phrase 34Übersetzung 34Übersetzung 34Phrase 35Phrase 35Übersetzung 35Übersetzung 35Phrase 36Phrase 36Übersetzung 36Übersetzung 36Phrase 37Phrase 37Übersetzung 37Übersetzung 37Phrase 38Phrase 38Übersetzung 38Übersetzung 38Phrase 39Phrase 39Übersetzung 39Übersetzung 39Phrase 40Phrase 40Übersetzung 40Übersetzung 40

Den Geheimcode entziffern: So knacken Sie das Arbeitszeugnis​ Weiterlesen »

Auto als Office: Mercedes integriert Teams, Intune und Copilot​

Allgemein

Mit der Integration von Teams und Intune will Mercedes-Benz das Auto zum mobilen Arbeitsplatz machen. Mercedes-Benz Während bei chinesischen Autobauern die Fahrzeuge mit Features wie Karaoke, Laser/LED-Beamern und ausfahrbaren Leinwänden immer mehr zum mobilen Entertainment-Eldorado werden, wollen deutsche Hersteller die Fahrzeuge eher zum mobilen Office umgestalten. Wie etwa Mercedes-Benz, wo man die Zusammenarbeit mit Microsoft erweitert. So bringen die Stuttgarter etwa die Meetings App MS Teams ins Fahrzeug und integrieren zudem die Cloud-basierte Managementlösung MS Intune. Die Partner arbeiten ferner daran, Microsoft 365 Copilot im Auto anzubieten. Auf diese Weise will man, so das ehrgeizige Ziel der Schwaben, „das Fahrzeug in einen dritten Arbeitsplatz verwandeln, der das Büro und das Homeoffice ergänzt“. Teams nutzt Kamera des Autos Mit der Meetings App Teams will Mercedes nach eigenen Worten dabei „die Produktivität im Auto auf ein neues Niveau“ heben. So können die Nutzer die Innenraumkamera während der Fahrt verwenden, sodass andere Teilnehmer sie während eines Meetings sehen können. Während deutsche Autobauer wie Mercedes-Benz das Auto als mobiles Office sehen, setzen chinesische Hersteller auf den Freizeitaspekt – etwa mit Videobeamer und Leinwand.  Hill Dabei betonen die Stuttgarter, dass die Verwendung der Kamera den Gesetzen des jeweiligen Landes entspreche und für den Einsatz unterwegs zugelassen sei. Um Ablenkungen zu minimieren und die Sicherheit während der Fahrt zu maximieren, schalte sich der Meeting-Videostream automatisch aus, sobald die Kamera aktiviert wird. Dadurch seien keine freigegebenen Bildschirme oder Folien zu sehen. Zudem kann die Kamera jederzeit ausgeschaltet werden.   E-Mails per Spracheingabe Darüber hinaus biete die aktualisierte Meetings App Geschäftskunden eine noch effizientere Möglichkeit, im Fahrzeug zu arbeiten. So zeigt ein neues Dashboard unter „Nächste Meetings“ anstehende Termine und ermöglicht einen schnellen Zugriff auf häufig genutzte Kontakte. Ferner soll eine erweiterte Chat-Funktion das Lesen und Schreiben von Nachrichten erleichtern. Die Texteingabe erfolgt dabei per Sprachsteuerung. Ferner können die Nutzer direkt aus dem Kalender an einer Teams-Besprechung teilnehmen. Damit die Security nicht zu kurz, kommt integriert Mercedes-Benz MS Intune, um so einen sicheren, unternehmenskonformen Zugriff auf Geschäftskonten zu ermöglichen. Dabei erlaube die Management-Lösung die Trennung von privaten und geschäftlichen Daten. Ferner könnten IT-Administratoren auf diese Weise Zugriffsrechte und Sicherheitsrichtlinien zentral verwalten. Auf diese Weise will der Autobauer sicherstellen, dass seine Fahrzeuge die gleichen Sicherheitsstandards auf Unternehmensniveau erfüllen können wie mobile Endgeräte – etwa Firmen-Smartphones. MB.OS als technische Basis Technische Basis für Teams und Intune im Auto ist das neue Mercedes-Benz-Betriebssystem MB.OS in Verbindung mit einem MBUX-Infotainmentsystem der vierten Generation. Darüber hinaus sind für die Nutzung ein aktives Entertainment Package Plus und Datenvolumen erforderlich. Kalender- und Teams-Integration im neuen Mercedes-Benz CLA: Mercedes-Benz Des Weiteren hängt die Verfügbarkeit etlicher Funktionen und Services von der jeweiligen Konfiguration des Fahrzeugs ab – sprich, welche kostenpflichtigen Zusatzausstattungen ausgewählt wurden. Ab Sommer erhält der neue CLA als erstes Modell die Teams- und Intune-Integration. Weitere Baureihen sollen folgen. GenAI fürs Auto Darüber hinaus arbeiten Mercedes-Benz und Microsoft gemeinsam daran, Microsoft 365 Copilot in kommende Modelle zu integrieren. Per GenAI soll es so möglich sein, sich unterwegs auf bevorstehende Meetings vorzubereiten. Dazu könnten per Sprachsteuerung E-Mails zusammengefasst, Kundenpräferenzen und -details abgerufen und tägliche Aufgaben ohne Ablenkung erledigt werden. Dazu, wann Microsoft 365 Copilot im Auto Einzug hält, machte Mercedes-Benz keine Angaben. 

Auto als Office: Mercedes integriert Teams, Intune und Copilot​ Mit der Integration von Teams und Intune will Mercedes-Benz das Auto zum mobilen Arbeitsplatz machen.
Mercedes-Benz

Während bei chinesischen Autobauern die Fahrzeuge mit Features wie Karaoke, Laser/LED-Beamern und ausfahrbaren Leinwänden immer mehr zum mobilen Entertainment-Eldorado werden, wollen deutsche Hersteller die Fahrzeuge eher zum mobilen Office umgestalten. Wie etwa Mercedes-Benz, wo man die Zusammenarbeit mit Microsoft erweitert.

So bringen die Stuttgarter etwa die Meetings App MS Teams ins Fahrzeug und integrieren zudem die Cloud-basierte Managementlösung MS Intune. Die Partner arbeiten ferner daran, Microsoft 365 Copilot im Auto anzubieten. Auf diese Weise will man, so das ehrgeizige Ziel der Schwaben, „das Fahrzeug in einen dritten Arbeitsplatz verwandeln, der das Büro und das Homeoffice ergänzt“.

Teams nutzt Kamera des Autos

Mit der Meetings App Teams will Mercedes nach eigenen Worten dabei „die Produktivität im Auto auf ein neues Niveau“ heben. So können die Nutzer die Innenraumkamera während der Fahrt verwenden, sodass andere Teilnehmer sie während eines Meetings sehen können.

Während deutsche Autobauer wie Mercedes-Benz das Auto als mobiles Office sehen, setzen chinesische Hersteller auf den Freizeitaspekt – etwa mit Videobeamer und Leinwand. 
Hill

Dabei betonen die Stuttgarter, dass die Verwendung der Kamera den Gesetzen des jeweiligen Landes entspreche und für den Einsatz unterwegs zugelassen sei. Um Ablenkungen zu minimieren und die Sicherheit während der Fahrt zu maximieren, schalte sich der Meeting-Videostream automatisch aus, sobald die Kamera aktiviert wird. Dadurch seien keine freigegebenen Bildschirme oder Folien zu sehen. Zudem kann die Kamera jederzeit ausgeschaltet werden.  

E-Mails per Spracheingabe

Darüber hinaus biete die aktualisierte Meetings App Geschäftskunden eine noch effizientere Möglichkeit, im Fahrzeug zu arbeiten. So zeigt ein neues Dashboard unter „Nächste Meetings“ anstehende Termine und ermöglicht einen schnellen Zugriff auf häufig genutzte Kontakte. Ferner soll eine erweiterte Chat-Funktion das Lesen und Schreiben von Nachrichten erleichtern. Die Texteingabe erfolgt dabei per Sprachsteuerung. Ferner können die Nutzer direkt aus dem Kalender an einer Teams-Besprechung teilnehmen.

Damit die Security nicht zu kurz, kommt integriert Mercedes-Benz MS Intune, um so einen sicheren, unternehmenskonformen Zugriff auf Geschäftskonten zu ermöglichen. Dabei erlaube die Management-Lösung die Trennung von privaten und geschäftlichen Daten. Ferner könnten IT-Administratoren auf diese Weise Zugriffsrechte und Sicherheitsrichtlinien zentral verwalten. Auf diese Weise will der Autobauer sicherstellen, dass seine Fahrzeuge die gleichen Sicherheitsstandards auf Unternehmensniveau erfüllen können wie mobile Endgeräte – etwa Firmen-Smartphones.

MB.OS als technische Basis

Technische Basis für Teams und Intune im Auto ist das neue Mercedes-Benz-Betriebssystem MB.OS in Verbindung mit einem MBUX-Infotainmentsystem der vierten Generation. Darüber hinaus sind für die Nutzung ein aktives Entertainment Package Plus und Datenvolumen erforderlich.

Kalender- und Teams-Integration im neuen Mercedes-Benz CLA:
Mercedes-Benz

Des Weiteren hängt die Verfügbarkeit etlicher Funktionen und Services von der jeweiligen Konfiguration des Fahrzeugs ab – sprich, welche kostenpflichtigen Zusatzausstattungen ausgewählt wurden. Ab Sommer erhält der neue CLA als erstes Modell die Teams- und Intune-Integration. Weitere Baureihen sollen folgen.

GenAI fürs Auto

Darüber hinaus arbeiten Mercedes-Benz und Microsoft gemeinsam daran, Microsoft 365 Copilot in kommende Modelle zu integrieren. Per GenAI soll es so möglich sein, sich unterwegs auf bevorstehende Meetings vorzubereiten. Dazu könnten per Sprachsteuerung E-Mails zusammengefasst, Kundenpräferenzen und -details abgerufen und tägliche Aufgaben ohne Ablenkung erledigt werden. Dazu, wann Microsoft 365 Copilot im Auto Einzug hält, machte Mercedes-Benz keine Angaben.

Auto als Office: Mercedes integriert Teams, Intune und Copilot​ Weiterlesen »

ProPublica: Microsoft setzt chinesische Techniker für Pentagon-IT ein​

Allgemein

width=”1915″ height=”1077″ sizes=”(max-width: 1915px) 100vw, 1915px”>Gefährdet Microsofts dubioser Escort-Service die Sicherheit des US-Verteidigungsministeriums?Ivan Cholakov – shutterstock.com Laut einem Medienbericht warten Ingenieure in China im Auftrag von Microsoft die Computersysteme des US-Verteidigungsministeriums. Die Vereinbarung sieht vor, dass US-Mitarbeiter, sogenannte „digitale Begleiter” („Digital Escorts“), die chinesischen Mitarbeiter beaufsichtigen. Wie der investigative Nachrichtendienst ProPublica berichtet, fehle diesen Begleitern jedoch häufig das technische Know-how, um die Arbeiten wirksam zu kontrollieren. Vertrauen ist gut, Kontrolle nicht möglich „Wir vertrauen darauf, dass sie nichts Böswilliges tun – aber wirklich wissen können wir es nicht“, zitiert ProPublica einen der „Spezialisten“. Die Vereinbarung besteht laut ProPublica seit fast zehn Jahren, wurde jedoch bisher nicht öffentlich bekannt. Angesichts der Spannungen, die in den letzten Jahren zwischen den beiden Ländern entstanden sind, sei es überraschend, dass chinesische Arbeitnehmer ohne angemessene Aufsicht Zugang zu US-Regierungssystemen erhielten. In seiner Bedrohungsanalyse für 2023 stufte die US-Geheimdienst-Direktion ODNI China immerhin als „die umfassendste, aktivste und hartnäckigste Cyberspionage-Bedrohung für die Netzwerke der US-Regierung und des privaten Sektors“. In der Bedrohungsanalyse 2025 bekräftigte das ODNI diese Einschätzung sogar noch und erklärte: „China ist der Akteur, der am stärksten in der Lage ist, US-Interessen weltweit potenziell am stärksten bedrohen.“ Schutzmaßnahmen unzureichend? Microsoft reagierte zunächst nicht auf eine Anfrage um Stellungnahme, teilte laut ProPublica jedoch mit, man habe der US-Regierung Details zum sogenannten Escort-Modell offengelegt. Zudem habe Microsoft erklärt, dass globale Mitarbeiter „keinen direkten Zugang zu Kundendaten oder -systemen“ hätten und dass sogenannte „Escorts“ mit entsprechender Sicherheitsfreigabe und Schulung direkte Unterstützung leisten. Diese Schulung umfasse laut Microsoft „den Schutz sensibler Daten, die Vermeidung von Schäden sowie die Nutzung spezifischer Befehle und Steuerungen innerhalb der Umgebung“. Den mit der Arbeit befassten Personen zufolge sind diese Schutzmaßnahmen jedoch unzureichend, heißt es in dem ProPublica-Bericht. Ausländische Ingenieure hätten Zugang zu detaillierten Informationen über die Cloud der Regierung, die von Hackern ausgenutzt werden könnten. Zudem seien die digitalen „Escorts“ nicht ausreichend qualifiziert, um alle verdächtigen Aktivitäten zu erkennen. Eine Stellenanzeige des Auftragnehmers Insight Global für einen „DoD Secret Cleared Escort“ verdeutlicht die Art der Aufgaben, die die Digital Escorts übernehmen – ohne jedoch Angaben zur Nationalität der zu überwachenden Mitarbeiter zu machen. Für einen Stundenlohn zwischen 18 und 28 Dollar zuzüglich Krankenversicherung sollen die Escorts „als Aushängeschild des Dienstes” für die Arbeit an der souveränen Cloud von Insight Global für Kunden der US-Bundes- und -Landesbehörden fungieren. Dabei sollen sie „Anweisungen der anfordernden Ingenieure” (die möglicherweise nicht über die erforderliche Sicherheitsfreigabe verfügen) befolgen. Die Escorts führen die von den Ingenieuren bereitgestellten Befehle aus und teilen ihnen die Ergebnisse mit. Zu ihren Aufgaben gehören etwa die Wartung von Exchange-Servern, die Administration von Active Directory, die Arbeit mit SQL-Datenbanken, das Management virtueller Maschinen über Hyper-V sowie Netzwerkverwaltung. (mb) 

ProPublica: Microsoft setzt chinesische Techniker für Pentagon-IT ein​ width=”1915″ height=”1077″ sizes=”(max-width: 1915px) 100vw, 1915px”>Gefährdet Microsofts dubioser Escort-Service die Sicherheit des US-Verteidigungsministeriums?Ivan Cholakov – shutterstock.com

Laut einem Medienbericht warten Ingenieure in China im Auftrag von Microsoft die Computersysteme des US-Verteidigungsministeriums. Die Vereinbarung sieht vor, dass US-Mitarbeiter, sogenannte „digitale Begleiter” („Digital Escorts“), die chinesischen Mitarbeiter beaufsichtigen. Wie der investigative Nachrichtendienst ProPublica berichtet, fehle diesen Begleitern jedoch häufig das technische Know-how, um die Arbeiten wirksam zu kontrollieren.

Vertrauen ist gut, Kontrolle nicht möglich

„Wir vertrauen darauf, dass sie nichts Böswilliges tun – aber wirklich wissen können wir es nicht“, zitiert ProPublica einen der „Spezialisten“.

Die Vereinbarung besteht laut ProPublica seit fast zehn Jahren, wurde jedoch bisher nicht öffentlich bekannt. Angesichts der Spannungen, die in den letzten Jahren zwischen den beiden Ländern entstanden sind, sei es überraschend, dass chinesische Arbeitnehmer ohne angemessene Aufsicht Zugang zu US-Regierungssystemen erhielten.

In seiner Bedrohungsanalyse für 2023 stufte die US-Geheimdienst-Direktion ODNI China immerhin als „die umfassendste, aktivste und hartnäckigste Cyberspionage-Bedrohung für die Netzwerke der US-Regierung und des privaten Sektors“. In der Bedrohungsanalyse 2025 bekräftigte das ODNI diese Einschätzung sogar noch und erklärte: „China ist der Akteur, der am stärksten in der Lage ist, US-Interessen weltweit potenziell am stärksten bedrohen.“

Schutzmaßnahmen unzureichend?

Microsoft reagierte zunächst nicht auf eine Anfrage um Stellungnahme, teilte laut ProPublica jedoch mit, man habe der US-Regierung Details zum sogenannten Escort-Modell offengelegt. Zudem habe Microsoft erklärt, dass globale Mitarbeiter „keinen direkten Zugang zu Kundendaten oder -systemen“ hätten und dass sogenannte „Escorts“ mit entsprechender Sicherheitsfreigabe und Schulung direkte Unterstützung leisten.

Diese Schulung umfasse laut Microsoft „den Schutz sensibler Daten, die Vermeidung von Schäden sowie die Nutzung spezifischer Befehle und Steuerungen innerhalb der Umgebung“.

Den mit der Arbeit befassten Personen zufolge sind diese Schutzmaßnahmen jedoch unzureichend, heißt es in dem ProPublica-Bericht. Ausländische Ingenieure hätten Zugang zu detaillierten Informationen über die Cloud der Regierung, die von Hackern ausgenutzt werden könnten. Zudem seien die digitalen „Escorts“ nicht ausreichend qualifiziert, um alle verdächtigen Aktivitäten zu erkennen.

Eine Stellenanzeige des Auftragnehmers Insight Global für einen „DoD Secret Cleared Escort“ verdeutlicht die Art der Aufgaben, die die Digital Escorts übernehmen – ohne jedoch Angaben zur Nationalität der zu überwachenden Mitarbeiter zu machen.

Für einen Stundenlohn zwischen 18 und 28 Dollar zuzüglich Krankenversicherung sollen die Escorts „als Aushängeschild des Dienstes” für die Arbeit an der souveränen Cloud von Insight Global für Kunden der US-Bundes- und -Landesbehörden fungieren. Dabei sollen sie „Anweisungen der anfordernden Ingenieure” (die möglicherweise nicht über die erforderliche Sicherheitsfreigabe verfügen) befolgen. Die Escorts führen die von den Ingenieuren bereitgestellten Befehle aus und teilen ihnen die Ergebnisse mit. Zu ihren Aufgaben gehören etwa die Wartung von Exchange-Servern, die Administration von Active Directory, die Arbeit mit SQL-Datenbanken, das Management virtueller Maschinen über Hyper-V sowie Netzwerkverwaltung. (mb)

ProPublica: Microsoft setzt chinesische Techniker für Pentagon-IT ein​ Weiterlesen »

7 Wege, Ihr Development zu lähmen​

Allgemein

Automatisierungsinitiativen halten auch im Bereich der Softwareentwicklung etliche Fallstricke bereit. Foto: DC Studio – shutterstock.com Welcher Dev träumt nicht davon, am Pool zu prokrastinieren, während Generative-AI– und Low-Code-Tools den Enterprise Stack am Laufen halten? Es ist ein schöner Traum, der beim Blick auf die Realität schnell platzt: Keines der aktuellen Werkzeuge ist ausgereift genug, um menschliche Interaktion im Bereich der Softwareentwicklung komplett überflüssig zu machen. Bislang funktioniert das nur in einigen Teilbereichen. Allerdings können diese Tools und Automatisierungsinitiativen auch am Ziel vorbeischießen. Und wenn sie das tun, drohen mindestens unschöne Konsequenzen – mitunter auch Katastrophen. Die folgenden sieben Wege führen direkt ins Development-Automatisierungsverderben. 1. Garbage Collection In der Theorie ist die Zuweisung von Speicher etwas, über das sich Softwareentwickler keine Gedanken machen müssen. Die meisten modernen Programmiersprachen verfügen über einen Layer, der das automatisiert erledigt – die Garbage Collection (GC). Sie hat auch dafür gesorgt, dass Memory Leaks weitestgehend der Vergangenheit angehören. Das führt bei einigen Programmierern zu der Annahme, dass diese nun eine Sache für die GC sind. Statt manuell nach falsch zugewiesenen Daten zu suchen, wird in vielen Fällen einfach der RAM des Cloud-Servers erhöht. Es gibt weitere Probleme mit der automatischen Speicherverwaltung: Die Zuweisung von Objekten ist einer der größten Zeitfresser, weswegen smarte Programmierer dazu übergangen sind, zu Beginn ein Objekt zuzuweisen – und dieses dann wiederzuverwenden. Ein allgemeineres Problem in diesem Zusammenhang ist die Frage, warum die Garbage Collection immer zum ungünstigsten Zeitpunkt erfolgt. Dafür sind Automatisierungsroutinen verantwortlich – die GC kann nicht “wissen”, wann Latenzen das Nutzererlebnis ruinieren. 2. Interpretierter Code Diverse Skriptsprachen haben die Softwareentwicklung geöffnet und es einfacher gemacht, einen Einstieg in Sachen Coding zu finden. Das begeistert nicht nur Vollzeit-Programmierer, sondern auch Experten in angrenzenden Bereichen – etwa Datenwissenschaftler. Nicht ohne Grund gehört etwa Python zu den aktuell populärsten Programmiersprachen. Der Grad an Automatisierung, den interpretierte Sprachen wie Python mitbringen, erleichtert zwar den Umgang mit ihnen, kann jedoch auch Ineffizienzen und Security-Probleme verursachen. Zudem sind interpretierte Programmiersprachen in der Regel deutlich langsamer. Die Kombination aus automatisiertem Memory Management, wenig Zeit für Optimierungen und Runtime Interpretation kann sich als echter Bremsklotz erweisen. Abhilfe kann an dieser Stelle ein guter Just-in-Time (JIT)-Compiler schaffen. Python-Entwickler können zum Beispiel Jython verwenden, das über einen integrierten Java-basierten, JIT-Compiler verfügt. PHP und Python haben jedoch auch ihre eigenen JIT-Compiler wie PyPy, Numba und Pyston (um nur einige zu nennen). Dennoch: Die Möglichkeiten eines Interpreters sind begrenzt. Zudem kann die bei interpretierten Sprachen beliebte Dynamic-Typing-Funktionalität Injection-Attacken und ähnlichen Angriffsformen zuträglich sein. Was nun nicht heißen soll, dass kompilierter Code nicht auch anfällig wäre. Softwareentwickler sollten generell wachsam bleiben – ganz egal, welche Sprache sie verwenden. 3. Künstliche Intelligenz Künstliche Intelligenz (KI) ist ein weit größeres Thema als Automatisierung, das mit zahlreichen Schattenseiten einhergeht. Auch wenn die Technologie teilweise als Heilsbringer gepriesen wird: Die Ergebnisse, die sie liefert, wirken – wenn man die Hype-Brille einmal ablegt – eher fade und wiedergekäut. Letztendlich geben Large Language Models nicht viel mehr als massiv skalierte Durchschnittswerte ihrer Trainingsdaten wieder. Und KI kann durchaus auch für Probleme im Bereich der Softwareentwicklung sorgen – etwa wenn sie zufällige Fehler einstreut, beziehungsweise halluziniert. KI-Tools sollten deswegen weniger als omnipotente Werkzeuge und mehr als semi-schlaue Assistenten für smarte und agile menschliche Experten betrachtet werden. 4. Datenbankabfragen Im Grunde ist die Datenbank das ursprünglichste Automatisierungs-Tool, über das wir verfügen. Oracle bezeichnet seine Datenbanken sogar als “autonom”, um zu unterstreichen, wie weit die Automatisierung geht. Moderne Unternehmen wären ohne die “Magie” großer Datenbanken nicht mehr funktionsfähig. Speziell die Softwareentwicklungs-Teams lernen dabei jedoch schnell: Die Plattformen haben Grenzen. Manche Abfrage-Engines sind viel zu komplex, was dazu führt, dass Queries von Entwicklern viel Zeit beanspruchen. Dazu kommt, dass es diffizil sein kann, komplexe SQL-Abfragen zu schreiben, die gleichzeitig auch effizient sind. Manche Teams können es sich leisten, spezialisierte Datenbankadministratoren einzustellen, die dann dafür sorgen, dass die Daten reibungslos fließen. Diese Spezialisten passen die Parameter an und stellen sicher, dass genügend Arbeitsspeicher vorhanden ist, um die Indizes zu verarbeiten, ohne dass es zu Ausfällen kommt. 5. Low-Code Einige Enterprise-Tools, -Portale und -Webanwendungen sind inzwischen so ausgereift, dass sie sich im Handumdrehen anpassen lassen – mit wenig bis gar keinem Programmieraufwand. Das nennt man im Vertriebssprech dann “Low-Code” oder “No Code” – was teilweise korrekt ist, weil der Automatisierungsgrad dieser Lösungen relativ hoch ist, aber den Eindruck vermitteln kann, dass hierbei keinerlei Probleme zu erwarten sind. Das erste und allgemeine Problem an solchen Lösungen: Jedes Unternehmen bringt seine eigenen Voraussetzungen mit. Low-Code- und No-Code-Plattformen bieten jedoch ein einheitliches System, in dem alle Anpassungen in der Regel nur oberflächlich erledigt werden. Der zugrundeliegende, generalisierte Code ist dabei oft wesentlich langsamer, als er sein könnte, weil sämtliche Eventualitäten abgedeckt sein und deshalb kontinuierlich Daten geprüft und (re)formatiert werden müssen. Kommen neue Informationen hinzu, muss der “Glue Code”, der automatisiert Verbindungen herstellt, jedes Mal neu ausgeführt werden. Das treibt die Hardwarekosten und kann zu erheblichen Slowdowns führen. 6. RPA Eine mit Low-Code und No Code verwandte Technologie ist Robotic Process Automation (RPA). Sie hat in den Bürolandschaften Einzug gehalten, um gewöhnliche Office-Tasks wie Dokumentenmanagement zu automatisieren. Dabei kombinieren RPA-Tools leider die potenziellen Probleme von KI- und Low-Code-Tools. Ein wesentliches Verkaufsargument für RPA-Lösungen: Sie können eine moderne Schnittstelle für ältere Systeme bereitstellen und gleichzeitig Integration bieten. Das ist unter Umständen ein schneller Weg zu einem modernen “Gesicht”, ohne den zugrundeliegenden, alten Code zu verändern. Das ist dann ein bisschen so, als wäre RPA ein technologisches Panzerband, mit dem man kaum noch laufenden Legacy-Code zusammenhält. Zur Gefahr wird das insbesondere dann, wenn die Automatisierung als selbstverständlich hingenommen wird und keinerlei manuelle Überprüfung mehr stattfindet. Es ist verlockend, Dinge mit einem Knopfdruck erledigen zu können, kann jedoch auch schnell zu folgenschweren Fehlern führen. 7. Automatisierungsabsenz Das Einzige, was noch schlimmer ist als zu viel Automatisierung, ist gar keine Automatisierung. Das führt zu Software-Stacks, die irgendwann so veraltet sind, dass es sich nicht mehr lohnt, sie zu aktualisieren – sprich technischen Schulden. Ein vor sich hinsiechender Tech-Stack wirkt sich negativ auf alle Beteiligten aus, denn er ist maßgeblich für die Workflows im Unternehmen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

7 Wege, Ihr Development zu lähmen​ Automatisierungsinitiativen halten auch im Bereich der Softwareentwicklung etliche Fallstricke bereit.
Foto: DC Studio – shutterstock.com

Welcher Dev träumt nicht davon, am Pool zu prokrastinieren, während Generative-AI– und Low-Code-Tools den Enterprise Stack am Laufen halten? Es ist ein schöner Traum, der beim Blick auf die Realität schnell platzt: Keines der aktuellen Werkzeuge ist ausgereift genug, um menschliche Interaktion im Bereich der Softwareentwicklung komplett überflüssig zu machen. Bislang funktioniert das nur in einigen Teilbereichen.

Allerdings können diese Tools und Automatisierungsinitiativen auch am Ziel vorbeischießen. Und wenn sie das tun, drohen mindestens unschöne Konsequenzen – mitunter auch Katastrophen. Die folgenden sieben Wege führen direkt ins Development-Automatisierungsverderben.

1. Garbage Collection

In der Theorie ist die Zuweisung von Speicher etwas, über das sich Softwareentwickler keine Gedanken machen müssen. Die meisten modernen Programmiersprachen verfügen über einen Layer, der das automatisiert erledigt – die Garbage Collection (GC). Sie hat auch dafür gesorgt, dass Memory Leaks weitestgehend der Vergangenheit angehören. Das führt bei einigen Programmierern zu der Annahme, dass diese nun eine Sache für die GC sind. Statt manuell nach falsch zugewiesenen Daten zu suchen, wird in vielen Fällen einfach der RAM des Cloud-Servers erhöht. Es gibt weitere Probleme mit der automatischen Speicherverwaltung: Die Zuweisung von Objekten ist einer der größten Zeitfresser, weswegen smarte Programmierer dazu übergangen sind, zu Beginn ein Objekt zuzuweisen – und dieses dann wiederzuverwenden.

Ein allgemeineres Problem in diesem Zusammenhang ist die Frage, warum die Garbage Collection immer zum ungünstigsten Zeitpunkt erfolgt. Dafür sind Automatisierungsroutinen verantwortlich – die GC kann nicht “wissen”, wann Latenzen das Nutzererlebnis ruinieren.

2. Interpretierter Code

Diverse Skriptsprachen haben die Softwareentwicklung geöffnet und es einfacher gemacht, einen Einstieg in Sachen Coding zu finden. Das begeistert nicht nur Vollzeit-Programmierer, sondern auch Experten in angrenzenden Bereichen – etwa Datenwissenschaftler. Nicht ohne Grund gehört etwa Python zu den aktuell populärsten Programmiersprachen.

Der Grad an Automatisierung, den interpretierte Sprachen wie Python mitbringen, erleichtert zwar den Umgang mit ihnen, kann jedoch auch Ineffizienzen und Security-Probleme verursachen. Zudem sind interpretierte Programmiersprachen in der Regel deutlich langsamer. Die Kombination aus automatisiertem Memory Management, wenig Zeit für Optimierungen und Runtime Interpretation kann sich als echter Bremsklotz erweisen.

Abhilfe kann an dieser Stelle ein guter Just-in-Time (JIT)-Compiler schaffen. Python-Entwickler können zum Beispiel Jython verwenden, das über einen integrierten Java-basierten, JIT-Compiler verfügt. PHP und Python haben jedoch auch ihre eigenen JIT-Compiler wie PyPy, Numba und Pyston (um nur einige zu nennen). Dennoch: Die Möglichkeiten eines Interpreters sind begrenzt.

Zudem kann die bei interpretierten Sprachen beliebte Dynamic-Typing-Funktionalität Injection-Attacken und ähnlichen Angriffsformen zuträglich sein. Was nun nicht heißen soll, dass kompilierter Code nicht auch anfällig wäre. Softwareentwickler sollten generell wachsam bleiben – ganz egal, welche Sprache sie verwenden.

3. Künstliche Intelligenz

Künstliche Intelligenz (KI) ist ein weit größeres Thema als Automatisierung, das mit zahlreichen Schattenseiten einhergeht. Auch wenn die Technologie teilweise als Heilsbringer gepriesen wird: Die Ergebnisse, die sie liefert, wirken – wenn man die Hype-Brille einmal ablegt – eher fade und wiedergekäut. Letztendlich geben Large Language Models nicht viel mehr als massiv skalierte Durchschnittswerte ihrer Trainingsdaten wieder.

Und KI kann durchaus auch für Probleme im Bereich der Softwareentwicklung sorgen – etwa wenn sie zufällige Fehler einstreut, beziehungsweise halluziniert. KI-Tools sollten deswegen weniger als omnipotente Werkzeuge und mehr als semi-schlaue Assistenten für smarte und agile menschliche Experten betrachtet werden.

4. Datenbankabfragen

Im Grunde ist die Datenbank das ursprünglichste Automatisierungs-Tool, über das wir verfügen. Oracle bezeichnet seine Datenbanken sogar als “autonom”, um zu unterstreichen, wie weit die Automatisierung geht. Moderne Unternehmen wären ohne die “Magie” großer Datenbanken nicht mehr funktionsfähig. Speziell die Softwareentwicklungs-Teams lernen dabei jedoch schnell: Die Plattformen haben Grenzen. Manche Abfrage-Engines sind viel zu komplex, was dazu führt, dass Queries von Entwicklern viel Zeit beanspruchen. Dazu kommt, dass es diffizil sein kann, komplexe SQL-Abfragen zu schreiben, die gleichzeitig auch effizient sind.

Manche Teams können es sich leisten, spezialisierte Datenbankadministratoren einzustellen, die dann dafür sorgen, dass die Daten reibungslos fließen. Diese Spezialisten passen die Parameter an und stellen sicher, dass genügend Arbeitsspeicher vorhanden ist, um die Indizes zu verarbeiten, ohne dass es zu Ausfällen kommt.

5. Low-Code

Einige Enterprise-Tools, -Portale und -Webanwendungen sind inzwischen so ausgereift, dass sie sich im Handumdrehen anpassen lassen – mit wenig bis gar keinem Programmieraufwand. Das nennt man im Vertriebssprech dann “Low-Code” oder “No Code” – was teilweise korrekt ist, weil der Automatisierungsgrad dieser Lösungen relativ hoch ist, aber den Eindruck vermitteln kann, dass hierbei keinerlei Probleme zu erwarten sind.

Das erste und allgemeine Problem an solchen Lösungen: Jedes Unternehmen bringt seine eigenen Voraussetzungen mit. Low-Code- und No-Code-Plattformen bieten jedoch ein einheitliches System, in dem alle Anpassungen in der Regel nur oberflächlich erledigt werden. Der zugrundeliegende, generalisierte Code ist dabei oft wesentlich langsamer, als er sein könnte, weil sämtliche Eventualitäten abgedeckt sein und deshalb kontinuierlich Daten geprüft und (re)formatiert werden müssen. Kommen neue Informationen hinzu, muss der “Glue Code”, der automatisiert Verbindungen herstellt, jedes Mal neu ausgeführt werden. Das treibt die Hardwarekosten und kann zu erheblichen Slowdowns führen.

6. RPA

Eine mit Low-Code und No Code verwandte Technologie ist Robotic Process Automation (RPA). Sie hat in den Bürolandschaften Einzug gehalten, um gewöhnliche Office-Tasks wie Dokumentenmanagement zu automatisieren. Dabei kombinieren RPA-Tools leider die potenziellen Probleme von KI- und Low-Code-Tools.

Ein wesentliches Verkaufsargument für RPA-Lösungen: Sie können eine moderne Schnittstelle für ältere Systeme bereitstellen und gleichzeitig Integration bieten. Das ist unter Umständen ein schneller Weg zu einem modernen “Gesicht”, ohne den zugrundeliegenden, alten Code zu verändern. Das ist dann ein bisschen so, als wäre RPA ein technologisches Panzerband, mit dem man kaum noch laufenden Legacy-Code zusammenhält.

Zur Gefahr wird das insbesondere dann, wenn die Automatisierung als selbstverständlich hingenommen wird und keinerlei manuelle Überprüfung mehr stattfindet. Es ist verlockend, Dinge mit einem Knopfdruck erledigen zu können, kann jedoch auch schnell zu folgenschweren Fehlern führen.

7. Automatisierungsabsenz

Das Einzige, was noch schlimmer ist als zu viel Automatisierung, ist gar keine Automatisierung. Das führt zu Software-Stacks, die irgendwann so veraltet sind, dass es sich nicht mehr lohnt, sie zu aktualisieren – sprich technischen Schulden. Ein vor sich hinsiechender Tech-Stack wirkt sich negativ auf alle Beteiligten aus, denn er ist maßgeblich für die Workflows im Unternehmen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

7 Wege, Ihr Development zu lähmen​ Weiterlesen »

SAP S/4HANA-Studie: Cloud und KI im Aufwind, Kosten steigen​

Allgemein

Wie die Studie „SAP S/4HANA 2025“ zeigt, liegen Cloud und KI auch bei SAP-Anwendern im Trend.A9 Studio – Shutterstock.com Speziell auf LinkedIn wird gegenwärtig individuellen, ganz auf individuelle Geschäftsprozesse und Anforderungen eines Unternehmen zugeschnittenen Softwarelösungen das Wort geredet. Die Realität sieht anders aus. Standard-ERP-Systeme, sei es als On-Premises- oder SaaS-Cloud-Lösung, spielen nach wie vor eine dominierende Rolle bei der Unternehmensplanung und -steuerung. Bei ERP ist SAP S/4HANA (Cloud) das Maß der Dinge 81 Prozent der Firmen nutzen ein Standard-ERP, zwei Drittel davon SAP S/4HANA und etwas mehr als ein Drittel (34 Prozent) noch ein älteres SAP-System wie ECC 6.0 oder R/3 Enterprise. Überraschenderweise betreibt nur ein Fünftel der SAP-S/4HANA-Anwender diese ERP-Suite On-Premises. Bei 46 Prozent läuft sie in der Cloud eines Hyperscalers (Amazon Web Services, Microsoft Azure, Google Cloud Platform) oder in der eines professionellen Hosting-Anbieters. Insgesamt 26 Prozent nutzen SAP S/4HANA Cloud-Edition, davon 19 Prozent die Public-Cloud-Edition und sieben Prozent die Private-Cloud-Edition. Sechs Prozent entscheiden sich für ein hybrides Two-Tier-Modell. Das bedeutet: Sie betreiben SAP S/4HANA On-Premise im Verbund mit einer der Cloud-Editionen oder erweitern die ERP-Suite nach dem Clean-Core-Ansatz durch Cloud-Apps und -Services auf Basis der SAP Business Technology Platform (SAP BTP). Diese Kernergebnisse stammen aus der aktuellen Studie „SAP S/4HANA 2025“, die CIO und COMPUTERWOCHE zusammen mit den Partnern Stibo Systems, All for One Group, Spirit/21 und USU umgesetzt haben. „Die Umfrage bestätigt den deutlichen Trend zur Nutzung Cloud-basierter ERP-Systeme – sowohl bei kleinen als auch bei großen Unternehmen”, kommentiert Damien Fellowes, Manufacturing Practice Lead EMEA bei Stibo Systems, die Ergebnisse. Besonders auffällig ist die zunehmende Präferenz für S/4HANA-Umgebungen, die bei Hyperscalern gehostet werden, was wiederum neue Anforderungen im Hinblick auf die Datenintegrität und die Systeminteroperabilität mit sich bringt.” Olaf Diehl, Director Product Management bei USU, ergänzt: „SAP S/4HANA entwickelt sich zunehmend zum Standard, besonders im Rahmen von Transformationsprojekten. Dabei gewinnt ein effizientes SAP-Lizenzmanagement an Bedeutung, um komplexe Lizenzmodelle wie zum Beispiel Digital Access, Full Use Equivalent (FUE) oder Engine transparent zu steuern.“ Damien Fellowes von Stibo SystemsStibo Systems GmbH Der Trend geht zu SAP S/4HANA in der Cloud SAP S/4HANA kommt überdurchschnittlich häufig in größeren Unternehmen mit 1.000 und mehr Beschäftigten (74 Prozent) wie auch in kleinen Betrieben mit weniger als 250 Beschäftigten (70 Prozent) zum Einsatz; in mittelgroße Firmen mit 250 bis 999 Beschäftigten dagegen nur in 56 Prozent der Fälle. Aufschlussreich: 91 Prozent der Unternehmen, die SAP-S/4HANA einsetzen, nutzen den Funktionsumfang dieser ERP-Suite vollständig oder größtenteils. Bei größeren Unternehmen liegt dieser Anteil sogar bei 95 Prozent, bei mittelgroßen beträgt er 90 Prozent, bei kleinerer 88 Prozent. Was Sie über S/4HANA wissen müssen Eine weitere interessante Erkenntnis: 85 Prozent der Befragten, die gegenwärtig SAP S/4HANA On-Premises einsetzen, wollen die ERP-Suite über kurz oder lang in eine Cloud hieven: 58 Prozent in die Cloud eines Hyperscalers, 21 Prozent in eine Public Cloud und sechs Prozent in die Private Cloud eines Hosting-Anbieters oder in die SAP HANA Enterprise Cloud (HEC). „Dass mehr Unternehmen inzwischen auf eine Cloud-Edition von SAP S/4HANA setzen, statt auf die On-Premises-Version, überrascht nicht, sondern entspricht unseren Beobachtungen im Mittelstand“, verdeutlicht Steffen Würth, Head of SAP bei SPIRIT/21. „Für viele unserer Kunden ist die Entscheidung für die Cloud weniger eine Frage der Technik, sondern ein strategischer Schritt hin zu mehr Flexibilität und Skalierbarkeit in einem dynamischen Markt.“ Philipp Rockel, Sales Manager Public Cloud ERP bei All for One, beobachtet zudem, dass „sich immer mehr Non-SAP-Kunden sowie SAP-Bestandskunden für die SaaS-Lösung SAP S/4HANA Cloud Public Edition entscheiden. SAP integriert diese moderne Cloud-ERP-Lösung nun in die Lösungspakete für die SAP Business Suite, die technologisch zukunftsweisend aufgestellt ist und Unternehmen maximale Flexibilität und Skalierbarkeit bietet. Für diese nachhaltige IT-Zukunftsstrategie ist jedoch die Entwicklung einer klaren Roadmap unerlässlich.“ Philipp Rockel, All for One GroupAll for One Group SE Mehr Flexibilität, weniger Kosten, höherer Umsatz Generell rechnen Unternehmen damit, aus der Einführung von, beziehungsweise dem Umstieg auf SAP S/4HANA konkreten geschäftlichen Nutzen zu ziehen. Die drei Top-Erwartungen sind: schnelle und flexible Anpassung des eigenen Business an neue Anforderungen (35 Prozent), Kosteneinsparungen (32 Prozent) und mehr Umsatzwachstum (31 Prozent). Etwas mehr als sechs von zehn Befragten (61 Prozent) gehen davon aus, durch einen möglichst frühzeitigen Umstieg auf SAP S/4HANA einen entscheidenden Wettbewerbsvorteil (stimme voll und ganz zu/stimme zu) zu erzielen. Darüber hinaus sind insgesamt 71 Prozent überzeugt, dass der Einsatz dieser ERP-Suite ihre digitale Transformation entscheidend voranbringt (entscheidende Bedeutung = 13 Prozent, sehr große Bedeutung = 27 Prozent, große Bedeutung = 31 Prozent). Das trifft allen voran auf größere Unternehmen zu, von denen 80 Prozent sagen, der Wechsel auf SAP S/4HANA (Cloud) sei von entscheidender, sehr großer oder großer Bedeutung für ihre digitale Transformationsagenda. Bei kleineren Betrieben sind nur 63 Prozent dieser Meinung. Dass ein Großteil der Befragten (85 Prozent) mit dem Einsatz dieser ERP-Suite „sehr zufrieden“ oder „zufrieden“ sind, bestätigt, dass sie die Anforderungen nach Mehrwert mehrheitlich erfüllt. Im Übrigen: 77 Prozent zeigen sich auch mit dem Projektverlauf beim Wechsel auf SAP S/4HANA zufrieden. Das ist ein Indiz, dass mit der Umstellung verbundene Herausforderungen im Großen und Ganzen gemeistert werden. Von diesen gibt es eine ganze Reihe, allen voran die Anpassung der IT-Landschaft und -Architektur (35 Prozent), die Verwaltung und der Abgleich von Stammdaten aus unterschiedlichen Quellsystemen (33 Prozent) und der Aufbau einer „Single Source of Truth“ für Kunden-, Produkt- oder Lieferantendaten (28 Prozent). 85 Prozent der Befragten sind mit dem Einsatz dieser ERP-Suite „sehr zufrieden“ oder „zufrieden“  Research Services: Patrick Birnbreier SAP-KI wird vielerorts bereits umfassend genutzt Besonders interessant: Die in SAP-S/4HANA-Prozesse integrierte KI von SAP findet regen Zuspruch. Mehr als zwei Drittel (67 Prozent) derer, die SAP S/4HANA einsetzen, nutzen KI-Lösungen von SAP (SAP Business AI) umfassend oder für bestimmte Aufgaben. SAP Business AI besteht im Kern aus den in die ERP-Suite integrierten KI-Funktionen (Embedded-KI). Diese automatisieren Routineaufgaben und ganze Prozessabläufe , die bislang weitgehend manuell erledigt werden, und dem SAP eigenen generativen KI-Copiloten Joule. 15 Prozent arbeiten sporadisch damit und 13 Prozent haben die Nutzung eingeplant. Nach Angaben von SAP sollen bis Ende 2025 SAP Business AI mehr als 400 KI-Szenarien und 1600 Joule-Funktionen verfügbar sein. „Es ist erfreulich zu sehen, dass der Einsatz von KI im Umfeld von S/4HANA Cloud spürbar zunimmt, auch im Mittelstand“, stellt SAP-Experte Würth fest. „Damit daraus echter Mehrwert entsteht, darf KI aber nicht als bloßes Technologiethema verstanden werden. Entscheidend ist, sie gezielt zur Automatisierung und Optimierung zentraler Geschäftsprozesse einzusetzen.“ Steffen Würth, SPIRIT/21SPIRIT/21 GmbH „KI gewinnt zunehmend an Bedeutung in der SAP-Welt, speziell in SAP S/4HANA Cloud für Geschäftsprozesse”, bestätigt USU-Manager Diehl. “Auch im Bereich des SAP-Lizenzmanagements kann KI, integriert in spezialisierte SAM-Tools, klaren Nutzen bieten. Sie analysiert automatisch die tatsächliche Nutzung, erkennt Anomalien und unterstützt bei der optimalen Lizenzzuweisung“, erläutert er. Eine zusätzliche Perspektive bringt Rockel von All for One ein. Ihm zufolge „bildet die SAP Business Suite auf Basis der SAP Business Data Cloud und der SAP Business Technology Platform das Fundament für SAP Business AI. Damit schafft SAP die Voraussetzung, Daten end-to-end über alle Anwendungen hinweg intelligent zu verarbeiten und KI-gestützte Geschäftsprozesse zu ermöglichen. Entscheidend für den erfolgreichen Einsatz von KI ist die Validierung konkreter Business Cases.“ Olaf Diehl, USU USU GmbH Vorteile in SAP integrierter KI sind klar messbar Selbstredend wollen Unternehmen aus dem Einsatz von SAP Business AI konkreten Nutzen ziehen. 52 Prozent sehen in der Beschleunigung der Prozessabwicklung und 45 Prozent in Kostensenkungen den größten Benefit. Bei jeweils 39 Prozent ist es die Prozessautomatisierung und die Einhaltung von Compliance-Anforderungen, unter anderem gemäß dem ESG-Regelwerk (Environmental, Social, Governance). Damien Fellowes betont: „Bemerkenswert ist, wie integrierte KI-Funktionen bereits heute messbare Vorteile bringen, etwa bei der Prozessbeschleunigung und der Unterstützung von Compliance-Anforderungen. Die Vielfalt der KI-Anwendungen von der Automatisierung bis hin zu ESG, zeigt, dass Datenbereitschaft zunehmend zur Voraussetzung für den tatsächlichen Mehrwert von KI wird.“ Ebenfalls aufschlussreich: 29 Prozent der Befragten nutzen die SAP BTP als Platform-as-a-Service-Angebot (PaaS) bereits aktiv, 38 Prozent befinden sich in der Implementierungsphase. die Unternehmen, die diese PaaS-Plattform einsetzen, nutzen sie in zwei Drittel (67 Prozent) der Fälle für die Integration von Third-Party-Lösungen und Eigenentwicklungen in ihre SAP-S/4HANA-Umgebung. 51 Prozent entwickeln und automatisieren auf Basis der SAP BTP ihre Businessapplikationen, und 36 Prozent setzen sie für das Datenbank- und Datenmanagement ein. SAP-Preispolitik forciert Nachdenken über ERP-Alternativen Doch damit nicht genug: Die Studie wartet mit weiteren interessanten Ergebnissen auf, unter anderem zur Preispolitik von SAP. Halten vier Fünftel der Befragten die Preiserhöhungen entweder absolut (27 Prozent) oder eher schon (52 Prozent) für adäquat und nachvollziehbar, sieht sich dennoch jeder Zweite dadurch vor konkrete Budgetprobleme gestellt. 58 Prozent befassen sich deshalb ernsthaft damit, SAP S/4HANA durch ein anderes ERP-System zu ersetzen. Das ist nachvollziehbar, wenn man bedenkt, dass das SAP-Budget nur bei zehn Prozent der Befragten im Vergleich zu 2024 um mehr als zehn Prozent steigt. Bei 30 Prozent erhöht es sich um fünf bis zehn Prozent, bei etwas mehr als einem Drittel gar um weniger als fünf Prozent. Geht es um den Weg zu SAP S/4HANA, setzen 41 Prozent der Befragten auf ein Hybridmodell, auch bekannt als Color‑Field‑ oder Selective‑Data‑Transition‑Ansatz, das die Vorteile der Greenfield‑ und Brownfield‑Methode kombiniert. Knapp ein Drittel (32 Prozent) führt den Umstieg in Form einer System Conversion nach dem Brownfield‑Ansatz durch, ein Fünftel entscheidet sich für die Neueinführung auf der grünen Wiese (Greenfield‑Ansatz). Erstaunlich ist, dass lediglich 35 Prozent der Befragten im Hinblick auf den SAP-S/4HANA-Umstieg den Reifegrad ihrer Organisation und ihrer Prozesse als „hervorragend“ oder „sehr gut“ einstufen, und knapp ein Viertel als „gut“. Das verwundert nicht, denn nur 48 Prozent gleichen im Vorfeld die SAP-S/4HANA-Einsatzziele mit der IT-Strategie und 43 Prozent mit den Geschäftszielen ab. Das belegt, dass die Umstellung unzureichend vorbereitet ist, obwohl es sich nicht nur um ein IT-, sondern allen voran um ein Transformationsprojekt handelt, und in diesem Punkt Handlungsbedarf besteht. SAP-Anwender kämpfen mit S4/HANA-Migration Die neue Studie “SAP S/4HANA 2025” von CIO Research Services Research Services: Patrick Birnbreier Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: Stibo Systems GmbH; All for One Group SE; SPIRIT/21 GmbH; USU Software AG Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheider-Datenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 307 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 2. bis 5. Mai 2025 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

SAP S/4HANA-Studie: Cloud und KI im Aufwind, Kosten steigen​ Wie die Studie „SAP S/4HANA 2025“ zeigt, liegen Cloud und KI auch bei SAP-Anwendern im Trend.A9 Studio – Shutterstock.com

Speziell auf LinkedIn wird gegenwärtig individuellen, ganz auf individuelle Geschäftsprozesse und Anforderungen eines Unternehmen zugeschnittenen Softwarelösungen das Wort geredet. Die Realität sieht anders aus. Standard-ERP-Systeme, sei es als On-Premises- oder SaaS-Cloud-Lösung, spielen nach wie vor eine dominierende Rolle bei der Unternehmensplanung und -steuerung.

Bei ERP ist SAP S/4HANA (Cloud) das Maß der Dinge

81 Prozent der Firmen nutzen ein Standard-ERP, zwei Drittel davon SAP S/4HANA und etwas mehr als ein Drittel (34 Prozent) noch ein älteres SAP-System wie ECC 6.0 oder R/3 Enterprise. Überraschenderweise betreibt nur ein Fünftel der SAP-S/4HANA-Anwender diese ERP-Suite On-Premises.

Bei 46 Prozent läuft sie in der Cloud eines Hyperscalers (Amazon Web Services, Microsoft Azure, Google Cloud Platform) oder in der eines professionellen Hosting-Anbieters. Insgesamt 26 Prozent nutzen SAP S/4HANA Cloud-Edition, davon 19 Prozent die Public-Cloud-Edition und sieben Prozent die Private-Cloud-Edition. Sechs Prozent entscheiden sich für ein hybrides Two-Tier-Modell. Das bedeutet: Sie betreiben SAP S/4HANA On-Premise im Verbund mit einer der Cloud-Editionen oder erweitern die ERP-Suite nach dem Clean-Core-Ansatz durch Cloud-Apps und -Services auf Basis der SAP Business Technology Platform (SAP BTP).

Diese Kernergebnisse stammen aus der aktuellen Studie „SAP S/4HANA 2025“, die CIO und COMPUTERWOCHE zusammen mit den Partnern Stibo Systems, All for One Group, Spirit/21 und USU umgesetzt haben.

„Die Umfrage bestätigt den deutlichen Trend zur Nutzung Cloud-basierter ERP-Systeme – sowohl bei kleinen als auch bei großen Unternehmen”, kommentiert Damien Fellowes, Manufacturing Practice Lead EMEA bei Stibo Systems, die Ergebnisse. Besonders auffällig ist die zunehmende Präferenz für S/4HANA-Umgebungen, die bei Hyperscalern gehostet werden, was wiederum neue Anforderungen im Hinblick auf die Datenintegrität und die Systeminteroperabilität mit sich bringt.” Olaf Diehl, Director Product Management bei USU, ergänzt: „SAP S/4HANA entwickelt sich zunehmend zum Standard, besonders im Rahmen von Transformationsprojekten. Dabei gewinnt ein effizientes SAP-Lizenzmanagement an Bedeutung, um komplexe Lizenzmodelle wie zum Beispiel Digital Access, Full Use Equivalent (FUE) oder Engine transparent zu steuern.“

Damien Fellowes von Stibo SystemsStibo Systems GmbH

Der Trend geht zu SAP S/4HANA in der Cloud

SAP S/4HANA kommt überdurchschnittlich häufig in größeren Unternehmen mit 1.000 und mehr Beschäftigten (74 Prozent) wie auch in kleinen Betrieben mit weniger als 250 Beschäftigten (70 Prozent) zum Einsatz; in mittelgroße Firmen mit 250 bis 999 Beschäftigten dagegen nur in 56 Prozent der Fälle. Aufschlussreich: 91 Prozent der Unternehmen, die SAP-S/4HANA einsetzen, nutzen den Funktionsumfang dieser ERP-Suite vollständig oder größtenteils. Bei größeren Unternehmen liegt dieser Anteil sogar bei 95 Prozent, bei mittelgroßen beträgt er 90 Prozent, bei kleinerer 88 Prozent.

Was Sie über S/4HANA wissen müssen

Eine weitere interessante Erkenntnis: 85 Prozent der Befragten, die gegenwärtig SAP S/4HANA On-Premises einsetzen, wollen die ERP-Suite über kurz oder lang in eine Cloud hieven:

58 Prozent in die Cloud eines Hyperscalers,

21 Prozent in eine Public Cloud und

sechs Prozent in die Private Cloud eines Hosting-Anbieters oder in die SAP HANA Enterprise Cloud (HEC).

„Dass mehr Unternehmen inzwischen auf eine Cloud-Edition von SAP S/4HANA setzen, statt auf die On-Premises-Version, überrascht nicht, sondern entspricht unseren Beobachtungen im Mittelstand“, verdeutlicht Steffen Würth, Head of SAP bei SPIRIT/21. „Für viele unserer Kunden ist die Entscheidung für die Cloud weniger eine Frage der Technik, sondern ein strategischer Schritt hin zu mehr Flexibilität und Skalierbarkeit in einem dynamischen Markt.“

Philipp Rockel, Sales Manager Public Cloud ERP bei All for One, beobachtet zudem, dass „sich immer mehr Non-SAP-Kunden sowie SAP-Bestandskunden für die SaaS-Lösung SAP S/4HANA Cloud Public Edition entscheiden. SAP integriert diese moderne Cloud-ERP-Lösung nun in die Lösungspakete für die SAP Business Suite, die technologisch zukunftsweisend aufgestellt ist und Unternehmen maximale Flexibilität und Skalierbarkeit bietet. Für diese nachhaltige IT-Zukunftsstrategie ist jedoch die Entwicklung einer klaren Roadmap unerlässlich.“

Philipp Rockel, All for One GroupAll for One Group SE

Mehr Flexibilität, weniger Kosten, höherer Umsatz

Generell rechnen Unternehmen damit, aus der Einführung von, beziehungsweise dem Umstieg auf SAP S/4HANA konkreten geschäftlichen Nutzen zu ziehen. Die drei Top-Erwartungen sind: schnelle und flexible Anpassung des eigenen Business an neue Anforderungen (35 Prozent), Kosteneinsparungen (32 Prozent) und mehr Umsatzwachstum (31 Prozent).

Etwas mehr als sechs von zehn Befragten (61 Prozent) gehen davon aus, durch einen möglichst frühzeitigen Umstieg auf SAP S/4HANA einen entscheidenden Wettbewerbsvorteil (stimme voll und ganz zu/stimme zu) zu erzielen. Darüber hinaus sind insgesamt 71 Prozent überzeugt, dass der Einsatz dieser ERP-Suite ihre digitale Transformation entscheidend voranbringt (entscheidende Bedeutung = 13 Prozent, sehr große Bedeutung = 27 Prozent, große Bedeutung = 31 Prozent).

Das trifft allen voran auf größere Unternehmen zu, von denen 80 Prozent sagen, der Wechsel auf SAP S/4HANA (Cloud) sei von entscheidender, sehr großer oder großer Bedeutung für ihre digitale Transformationsagenda. Bei kleineren Betrieben sind nur 63 Prozent dieser Meinung.

Dass ein Großteil der Befragten (85 Prozent) mit dem Einsatz dieser ERP-Suite „sehr zufrieden“ oder „zufrieden“ sind, bestätigt, dass sie die Anforderungen nach Mehrwert mehrheitlich erfüllt. Im Übrigen: 77 Prozent zeigen sich auch mit dem Projektverlauf beim Wechsel auf SAP S/4HANA zufrieden. Das ist ein Indiz, dass mit der Umstellung verbundene Herausforderungen im Großen und Ganzen gemeistert werden. Von diesen gibt es eine ganze Reihe, allen voran die Anpassung der IT-Landschaft und -Architektur (35 Prozent), die Verwaltung und der Abgleich von Stammdaten aus unterschiedlichen Quellsystemen (33 Prozent) und der Aufbau einer „Single Source of Truth“ für Kunden-, Produkt- oder Lieferantendaten (28 Prozent).

85 Prozent der Befragten sind mit dem Einsatz dieser ERP-Suite „sehr zufrieden“ oder „zufrieden“ 
Research Services: Patrick Birnbreier

SAP-KI wird vielerorts bereits umfassend genutzt

Besonders interessant: Die in SAP-S/4HANA-Prozesse integrierte KI von SAP findet regen Zuspruch. Mehr als zwei Drittel (67 Prozent) derer, die SAP S/4HANA einsetzen, nutzen KI-Lösungen von SAP (SAP Business AI) umfassend oder für bestimmte Aufgaben. SAP Business AI besteht im Kern aus den in die ERP-Suite integrierten KI-Funktionen (Embedded-KI). Diese automatisieren Routineaufgaben und ganze Prozessabläufe , die bislang weitgehend manuell erledigt werden, und dem SAP eigenen generativen KI-Copiloten Joule. 15 Prozent arbeiten sporadisch damit und 13 Prozent haben die Nutzung eingeplant. Nach Angaben von SAP sollen bis Ende 2025 SAP Business AI mehr als 400 KI-Szenarien und 1600 Joule-Funktionen verfügbar sein.

„Es ist erfreulich zu sehen, dass der Einsatz von KI im Umfeld von S/4HANA Cloud spürbar zunimmt, auch im Mittelstand“, stellt SAP-Experte Würth fest. „Damit daraus echter Mehrwert entsteht, darf KI aber nicht als bloßes Technologiethema verstanden werden. Entscheidend ist, sie gezielt zur Automatisierung und Optimierung zentraler Geschäftsprozesse einzusetzen.“

Steffen Würth, SPIRIT/21SPIRIT/21 GmbH

„KI gewinnt zunehmend an Bedeutung in der SAP-Welt, speziell in SAP S/4HANA Cloud für Geschäftsprozesse”, bestätigt USU-Manager Diehl. “Auch im Bereich des SAP-Lizenzmanagements kann KI, integriert in spezialisierte SAM-Tools, klaren Nutzen bieten. Sie analysiert automatisch die tatsächliche Nutzung, erkennt Anomalien und unterstützt bei der optimalen Lizenzzuweisung“, erläutert er. Eine zusätzliche Perspektive bringt Rockel von All for One ein. Ihm zufolge „bildet die SAP Business Suite auf Basis der SAP Business Data Cloud und der SAP Business Technology Platform das Fundament für SAP Business AI. Damit schafft SAP die Voraussetzung, Daten end-to-end über alle Anwendungen hinweg intelligent zu verarbeiten und KI-gestützte Geschäftsprozesse zu ermöglichen. Entscheidend für den erfolgreichen Einsatz von KI ist die Validierung konkreter Business Cases.“

Olaf Diehl, USU
USU GmbH

Vorteile in SAP integrierter KI sind klar messbar

Selbstredend wollen Unternehmen aus dem Einsatz von SAP Business AI konkreten Nutzen ziehen. 52 Prozent sehen in der Beschleunigung der Prozessabwicklung und 45 Prozent in Kostensenkungen den größten Benefit. Bei jeweils 39 Prozent ist es die Prozessautomatisierung und die Einhaltung von Compliance-Anforderungen, unter anderem gemäß dem ESG-Regelwerk (Environmental, Social, Governance). Damien Fellowes betont: „Bemerkenswert ist, wie integrierte KI-Funktionen bereits heute messbare Vorteile bringen, etwa bei der Prozessbeschleunigung und der Unterstützung von Compliance-Anforderungen. Die Vielfalt der KI-Anwendungen von der Automatisierung bis hin zu ESG, zeigt, dass Datenbereitschaft zunehmend zur Voraussetzung für den tatsächlichen Mehrwert von KI wird.“

Ebenfalls aufschlussreich: 29 Prozent der Befragten nutzen die SAP BTP als Platform-as-a-Service-Angebot (PaaS) bereits aktiv, 38 Prozent befinden sich in der Implementierungsphase. die Unternehmen, die diese PaaS-Plattform einsetzen, nutzen sie in zwei Drittel (67 Prozent) der Fälle für die Integration von Third-Party-Lösungen und Eigenentwicklungen in ihre SAP-S/4HANA-Umgebung. 51 Prozent entwickeln und automatisieren auf Basis der SAP BTP ihre Businessapplikationen, und 36 Prozent setzen sie für das Datenbank- und Datenmanagement ein.

SAP-Preispolitik forciert Nachdenken über ERP-Alternativen

Doch damit nicht genug: Die Studie wartet mit weiteren interessanten Ergebnissen auf, unter anderem zur Preispolitik von SAP. Halten vier Fünftel der Befragten die Preiserhöhungen entweder absolut (27 Prozent) oder eher schon (52 Prozent) für adäquat und nachvollziehbar, sieht sich dennoch jeder Zweite dadurch vor konkrete Budgetprobleme gestellt. 58 Prozent befassen sich deshalb ernsthaft damit, SAP S/4HANA durch ein anderes ERP-System zu ersetzen.

Das ist nachvollziehbar, wenn man bedenkt, dass das SAP-Budget nur bei zehn Prozent der Befragten im Vergleich zu 2024 um mehr als zehn Prozent steigt. Bei 30 Prozent erhöht es sich um fünf bis zehn Prozent, bei etwas mehr als einem Drittel gar um weniger als fünf Prozent.

Geht es um den Weg zu SAP S/4HANA, setzen 41 Prozent der Befragten auf ein Hybridmodell, auch bekannt als Color‑Field‑ oder Selective‑Data‑Transition‑Ansatz, das die Vorteile der Greenfield‑ und Brownfield‑Methode kombiniert. Knapp ein Drittel (32 Prozent) führt den Umstieg in Form einer System Conversion nach dem Brownfield‑Ansatz durch, ein Fünftel entscheidet sich für die Neueinführung auf der grünen Wiese (Greenfield‑Ansatz).

Erstaunlich ist, dass lediglich 35 Prozent der Befragten im Hinblick auf den SAP-S/4HANA-Umstieg den Reifegrad ihrer Organisation und ihrer Prozesse als „hervorragend“ oder „sehr gut“ einstufen, und knapp ein Viertel als „gut“. Das verwundert nicht, denn nur 48 Prozent gleichen im Vorfeld die SAP-S/4HANA-Einsatzziele mit der IT-Strategie und 43 Prozent mit den Geschäftszielen ab. Das belegt, dass die Umstellung unzureichend vorbereitet ist, obwohl es sich nicht nur um ein IT-, sondern allen voran um ein Transformationsprojekt handelt, und in diesem Punkt Handlungsbedarf besteht.

SAP-Anwender kämpfen mit S4/HANA-Migration

Die neue Studie “SAP S/4HANA 2025” von CIO Research Services
Research Services: Patrick Birnbreier

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: Stibo Systems GmbH; All for One Group SE; SPIRIT/21 GmbH; USU Software AG

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheider-Datenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 307 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 2. bis 5. Mai 2025

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

SAP S/4HANA-Studie: Cloud und KI im Aufwind, Kosten steigen​ Weiterlesen »

6 Taktiken, um Observability-Kosten zu senken​

Allgemein

Durchblick kostet – auch in der Cloud. Stephen Chung | shutterstock.com Cloud-Observability ist für die meisten modernen Unternehmen ziemlich wichtig. Schließlich tragen die so gewonnenen Einblicke dazu bei, die Anwendungsfunktionalität aufrechzuerhalten und eine reibungslose Benutzererfahrung zu gewährleisten. Gleichzeitig steigen die Kosten aufgrund stetig wachsender Telemetriedatenmengen (Protokolle, Metriken, Traces) quasi im Minutentakt. In Sachen Observability nun Kompromisse einzugehen, um die Kosten zu senken, ist allerdings kein Weg, den Sie beschreiten sollten. In diesem Beitrag bringen wir Ihnen einige Strategien und Best Practices näher, mit denen sich Cloud-Observability-Kosten optimieren lassen. Observability-Kostentreiber Bevor wir uns mit Lösungsansätzen für ausufernde Observability-Rechnungen befassen, werden wir einen Blick auf die Faktoren, die die Kosten für Observability regelmäßig treiben. Data Ingestion: Je mehr Protokolle, Metriken und Traces Sie aufnehmen, desto teurer wird es. Dazu zählen etwa Daten aus Anwendungen, Infrastruktur, Netzwerken und von Drittanbieter-Services. Data Retention: Große (historische) Datenmengen langfristig zu speichern, ist ebenfalls teuer. High-Cardinality-Metriken: Kennzahlen mit vielen einzigartigen Labels oder Dimensionen können dazu führen, dass Datenpunkte explosionsartig zunehmen und die Storage-Anforderungen steigen. Overcollection: Daten zu erfassen, die nie in Echtzeit für Monitoring-, Alert- oder Analysezwecken verwendet werden, treibt die Kosten unnötig in die Höhe. Tool-Wildwuchs: Unterschiedliche Observability-Tools, die nicht miteinander verbunden sind, können zu Data-Ingestion-Duplikaten und damit zu einem erhöhten Management-Aufwand führen. Mangelndes Kostenbewusstsein: Wenn niemand sich um die finanziellen Konsequenzen Gedanken macht, sind bodenlose Rechnungen vorprogrammiert. Observability-Kostenoptimierung Im Folgenden sechs Techniken, Taktiken und Best Practices, um die Observability-Kosten bestmöglich in Schach zu halten. 1. Datenerfassung optimieren In diesem Bereich lassen sich die Observability-Kosten am effektivsten senken. Stellen Sie sicher, dass nur die Daten erfasst werden, die wirklich wichtig sind. Logs, Metriken und Traces filtern: An der Quelle sollte aggressiv gefiltert werden, um Debug-Protokolle, nicht relevante Informationen oder Daten aus nicht kritischen Diensten zu entfernen. Einige Observability-Plattformen ermöglichen auch, Logs zu filtern, bevor diese erfasst werden. In Bezug auf Metriken sollten Sie sich auf diejenigen fokussieren, die sich auf die App-Performance, die Benutzererfahrung und die Ressourcennutzung auswirken – und unnötige oder ungenutzte verwerfen. Was Traces angeht: Konzentrieren Sie sich auf geschäftskritische Transaktionen und verteilte Traces, die Ihr Unternehmen dabei unterstützen, Serviceabhängigkeiten zu verstehen. Strategische Stichproben erwägen: Für Datenströme mit hohem Volumen (insbesondere Traces und Protokolle) sollten Sie intelligente Sampling-Verfahren in Betracht ziehen. Damit ist es möglich, statistisch signifikante Teilmengen der Daten zu erfassen. Das reduziert wiederum das Datenvolumen, während Anomalien weiterhin erkannt und Trends analysiert werden können. Scrape-Intervalle berücksichtigen: Ist es wirklich nötig, alle zehn Sekunden Metriken zu scrapen, wenn alle 60 Sekunden auch ausreichen würde, um einen Überblick über den jeweiligen Service zu erhalten? Indem Sie diese Scrape-Intervalle anpassen, können Sie die Anzahl der Datenpunkte erheblich reduzieren. Datentransformation regeln: Transformieren Sie Rohdaten in ein kompakteres und effizienteres Format, bevor Sie sie erfassen. Das kann etwa umfassen, Logs zu parsen, um ausschließlich relevante Felder zu extrahieren. Komprimierungstechniken einsetzen: Die meisten Observability-Plattformen stellen spezifische Komprimierungstechniken zur Verfügung, um das zu speichernde Datenvolumen drastisch zu reduzieren. 2. Data-Retention-Richtlinien smart gestalten Daten vorzuhalten, ist eine äußerst kostspielige Angelegenheit. Sie sollten deshalb auf ein mehrstufiges Storage-Konzept setzen, indem Sie intelligente Data-Retention-Richtlinien aufsetzen.   Storage-Tiers ermitteln: Daten mit hoher Granularität müssen für kürzere Zeiträume (sieben bis 30 Tage für detaillierte Fehlerbehebung) aufbewahrt werden, ältere Daten, auf die vergleichsweise seltener zugegriffen wird, hingegen archiviert und langfristig gespeichert werden (in S3 oder Glacier für Compliance- und historische Analysen). Aufbewahrung nach Datentyp: Nicht alle Daten passen in denselben Retention-Zeitraum. Einige, etwa Anwendungsprotokolle für die sofortige Fehlerbehebung, müssen möglicherweise nur wenige Tage aufbewahrt werden. Andere, beispielsweise Audit-Protokolle, müssen mehrere Jahre vorgehalten werden. Archivierung und Löschung automatisieren: Automatisieren Sie Archivierungs- und Löschprozesse entsprechend den definierten Aufbewahrungsrichtlinien. 3. Richtig dimensionieren und Ressourcen optimieren Observability-Tools können Sie dabei unterstützen, Ineffizienzen in Ihrer Cloud-Infrastruktur zu identifizieren und dadurch Kosten zu sparen. Ressourcenverschwendung erkennen: Mit den Daten die Observability-Tools liefern, ist es etwa möglich, ungenutzte oder nicht ausgelastete Ressourcen (EC2-Instanzen, Datenbanken, Load Balancer) zu identifizieren. Diese können dann entweder ausgemustert oder richtig dimensioniert werden. Automatisch skalieren: Nutzen Sie die Möglichkeit, Rechenkapazität automatisch proportional zum Bedarf zu skalieren. Das gewährleistet, dass Sie ausschließlich für das bezahlen, was Sie auch tatsächlich nutzen. Sparmöglichkeiten nutzen: Geht es umvorhersehbare Workloads, macht es Sinn einen Blick auf die Rabatte zu werfen, die die Cloud-Anbieter für Reserved Instances oder im Rahmen von Sparplänen anbieten. Für fehlertolerante Workloads, die unterbrochen werden können, realisieren Spot-Instanzen regelmäßig erhebliche Rabatte. Storage optimieren: Nutzen Sie unterschiedliche Storage-Klassen (etwa S3 Standard, S3 Intelligent-Tiering, S3 Glacier) entsprechend der Datenzugriffsmuster und Retention-Anforderungen. 4. Observability dezentralisieren Erwägen Sie Strategien, um die Abhängigkeit von einer einzelnen, unter Umständen teuren Observability-Plattform zu reduzieren. Open-Source-Lösungen evaluieren: Unternehmen, die über entsprechendes Knowhow verfügen, können quelloffene Tools wie Grafana, Prometheus, Loki oder Jaeger selbst hosten, um (Infrastruktur-)Kosten zu sparen. Dabei gilt es jedoch, den Betriebsaufwand im Auge zu behalten. Gemischte Ansätze erwägen: Nutzen Sie kommerzielle Observability-Plattformen wie Middleware oder DataDog für unternehmenskritische Anwendungen. Für weniger kritische Daten oder Use Cases können Open-Source- oder native Cloud-Logging-Lösungen zum Einsatz kommen. Native Cloud-Observability-Tools einsetzen: Nutzen Sie die Monitoring-/Logging-Services Ihres Cloud-Anbieters (etwa AWS CloudWatch, Google Cloud Monitoring oder Azure Monitor). Diese stellen im Regelfall die kostengünstigsten Optionen dar, um grundlegende Telemetriedaten zu erfassen und zu speichern. 5. FinOps-Kultur fördern Observability-Kosten zu optimieren, ist nicht nur eine technische, sondern auch eine kulturelle Herausforderung. Wissen vermitteln: Schulen Sie Entwickler und Betriebsteams hinsichtlich der Kostenauswirkungen ihrer Observability-Entscheidungen. Das kann dazu beitragen, eine „kostenbewusste” Entwicklungskultur zu schaffen. Budgets und Warnmeldungen definieren: Legen Sie ein klares Budget für Observability-Ausgaben fest und richten Sie Alerts ein, die anschlagen, wenn dieses erreicht ist oder überschritten wird. Kosten verteilen und verrechnen: Es empfiehlt sich, Tags und Labels einzuführen, anhand derer die Observability-Kosten fair auf Teams, Projekte oder Geschäftsbereiche verteilt werden können. Das trägt auch dazu bei Accountability herzustellen. Observability-Ausgaben regelmäßig prüfen: Nur wenn Sie die Kosten wirklich dauerhaft im Blick behalten, können Sie auch besonders teure Probleme identifizieren, Nutzungsmuster analysieren und weitere Optimierungsmöglichkeiten auftun. Cost-Management-Dashboards können an dieser Stelle äußerst hilfreich sein. 6. KI und Machine Learning einsetzen Mit Hilfe von KI und ML lassen sich die Observability-Kosten zusätzlich optimieren. Anomalieerkennung einsetzen: Identifizieren Sie ungewöhnliche Lastspitzen bei der Datenerfassung oder Ressourcenauslastung, die auf Ineffizienz oder Fehlkonfigurationen hindeuten. Predictive Analytics nutzen: Antizipieren Sie Observability-Anforderungen und -Kosten auf der Grundlage historischer Trends, um anschließend proaktiv zu optimieren. Fehler automatisiert beheben: Einige Plattformen können auf der Grundlage erkannter Anomalien spezifische Maßnahmen automatisieren (etwa Ressourcen reduzieren), was Verschwendung reduziert. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

6 Taktiken, um Observability-Kosten zu senken​ Durchblick kostet – auch in der Cloud. Stephen Chung | shutterstock.com

Cloud-Observability ist für die meisten modernen Unternehmen ziemlich wichtig. Schließlich tragen die so gewonnenen Einblicke dazu bei, die Anwendungsfunktionalität aufrechzuerhalten und eine reibungslose Benutzererfahrung zu gewährleisten. Gleichzeitig steigen die Kosten aufgrund stetig wachsender Telemetriedatenmengen (Protokolle, Metriken, Traces) quasi im Minutentakt. In Sachen Observability nun Kompromisse einzugehen, um die Kosten zu senken, ist allerdings kein Weg, den Sie beschreiten sollten.

In diesem Beitrag bringen wir Ihnen einige Strategien und Best Practices näher, mit denen sich Cloud-Observability-Kosten optimieren lassen.

Observability-Kostentreiber

Bevor wir uns mit Lösungsansätzen für ausufernde Observability-Rechnungen befassen, werden wir einen Blick auf die Faktoren, die die Kosten für Observability regelmäßig treiben.

Data Ingestion: Je mehr Protokolle, Metriken und Traces Sie aufnehmen, desto teurer wird es. Dazu zählen etwa Daten aus Anwendungen, Infrastruktur, Netzwerken und von Drittanbieter-Services.

Data Retention: Große (historische) Datenmengen langfristig zu speichern, ist ebenfalls teuer.

High-Cardinality-Metriken: Kennzahlen mit vielen einzigartigen Labels oder Dimensionen können dazu führen, dass Datenpunkte explosionsartig zunehmen und die Storage-Anforderungen steigen.

Overcollection: Daten zu erfassen, die nie in Echtzeit für Monitoring-, Alert- oder Analysezwecken verwendet werden, treibt die Kosten unnötig in die Höhe.

Tool-Wildwuchs: Unterschiedliche Observability-Tools, die nicht miteinander verbunden sind, können zu Data-Ingestion-Duplikaten und damit zu einem erhöhten Management-Aufwand führen.

Mangelndes Kostenbewusstsein: Wenn niemand sich um die finanziellen Konsequenzen Gedanken macht, sind bodenlose Rechnungen vorprogrammiert.

Observability-Kostenoptimierung

Im Folgenden sechs Techniken, Taktiken und Best Practices, um die Observability-Kosten bestmöglich in Schach zu halten.

1. Datenerfassung optimieren

In diesem Bereich lassen sich die Observability-Kosten am effektivsten senken. Stellen Sie sicher, dass nur die Daten erfasst werden, die wirklich wichtig sind.

Logs, Metriken und Traces filtern: An der Quelle sollte aggressiv gefiltert werden, um Debug-Protokolle, nicht relevante Informationen oder Daten aus nicht kritischen Diensten zu entfernen. Einige Observability-Plattformen ermöglichen auch, Logs zu filtern, bevor diese erfasst werden. In Bezug auf Metriken sollten Sie sich auf diejenigen fokussieren, die sich auf die App-Performance, die Benutzererfahrung und die Ressourcennutzung auswirken – und unnötige oder ungenutzte verwerfen. Was Traces angeht: Konzentrieren Sie sich auf geschäftskritische Transaktionen und verteilte Traces, die Ihr Unternehmen dabei unterstützen, Serviceabhängigkeiten zu verstehen.

Strategische Stichproben erwägen: Für Datenströme mit hohem Volumen (insbesondere Traces und Protokolle) sollten Sie intelligente Sampling-Verfahren in Betracht ziehen. Damit ist es möglich, statistisch signifikante Teilmengen der Daten zu erfassen. Das reduziert wiederum das Datenvolumen, während Anomalien weiterhin erkannt und Trends analysiert werden können.

Scrape-Intervalle berücksichtigen: Ist es wirklich nötig, alle zehn Sekunden Metriken zu scrapen, wenn alle 60 Sekunden auch ausreichen würde, um einen Überblick über den jeweiligen Service zu erhalten? Indem Sie diese Scrape-Intervalle anpassen, können Sie die Anzahl der Datenpunkte erheblich reduzieren.

Datentransformation regeln: Transformieren Sie Rohdaten in ein kompakteres und effizienteres Format, bevor Sie sie erfassen. Das kann etwa umfassen, Logs zu parsen, um ausschließlich relevante Felder zu extrahieren.

Komprimierungstechniken einsetzen: Die meisten Observability-Plattformen stellen spezifische Komprimierungstechniken zur Verfügung, um das zu speichernde Datenvolumen drastisch zu reduzieren.

2. Data-Retention-Richtlinien smart gestalten

Daten vorzuhalten, ist eine äußerst kostspielige Angelegenheit. Sie sollten deshalb auf ein mehrstufiges Storage-Konzept setzen, indem Sie intelligente Data-Retention-Richtlinien aufsetzen.  

Storage-Tiers ermitteln: Daten mit hoher Granularität müssen für kürzere Zeiträume (sieben bis 30 Tage für detaillierte Fehlerbehebung) aufbewahrt werden, ältere Daten, auf die vergleichsweise seltener zugegriffen wird, hingegen archiviert und langfristig gespeichert werden (in S3 oder Glacier für Compliance- und historische Analysen).

Aufbewahrung nach Datentyp: Nicht alle Daten passen in denselben Retention-Zeitraum. Einige, etwa Anwendungsprotokolle für die sofortige Fehlerbehebung, müssen möglicherweise nur wenige Tage aufbewahrt werden. Andere, beispielsweise Audit-Protokolle, müssen mehrere Jahre vorgehalten werden.

Archivierung und Löschung automatisieren: Automatisieren Sie Archivierungs- und Löschprozesse entsprechend den definierten Aufbewahrungsrichtlinien.

3. Richtig dimensionieren und Ressourcen optimieren

Observability-Tools können Sie dabei unterstützen, Ineffizienzen in Ihrer Cloud-Infrastruktur zu identifizieren und dadurch Kosten zu sparen.

Ressourcenverschwendung erkennen: Mit den Daten die Observability-Tools liefern, ist es etwa möglich, ungenutzte oder nicht ausgelastete Ressourcen (EC2-Instanzen, Datenbanken, Load Balancer) zu identifizieren. Diese können dann entweder ausgemustert oder richtig dimensioniert werden.

Automatisch skalieren: Nutzen Sie die Möglichkeit, Rechenkapazität automatisch proportional zum Bedarf zu skalieren. Das gewährleistet, dass Sie ausschließlich für das bezahlen, was Sie auch tatsächlich nutzen.

Sparmöglichkeiten nutzen: Geht es umvorhersehbare Workloads, macht es Sinn einen Blick auf die Rabatte zu werfen, die die Cloud-Anbieter für Reserved Instances oder im Rahmen von Sparplänen anbieten. Für fehlertolerante Workloads, die unterbrochen werden können, realisieren Spot-Instanzen regelmäßig erhebliche Rabatte.

Storage optimieren: Nutzen Sie unterschiedliche Storage-Klassen (etwa S3 Standard, S3 Intelligent-Tiering, S3 Glacier) entsprechend der Datenzugriffsmuster und Retention-Anforderungen.

4. Observability dezentralisieren

Erwägen Sie Strategien, um die Abhängigkeit von einer einzelnen, unter Umständen teuren Observability-Plattform zu reduzieren.

Open-Source-Lösungen evaluieren: Unternehmen, die über entsprechendes Knowhow verfügen, können quelloffene Tools wie Grafana, Prometheus, Loki oder Jaeger selbst hosten, um (Infrastruktur-)Kosten zu sparen. Dabei gilt es jedoch, den Betriebsaufwand im Auge zu behalten.

Gemischte Ansätze erwägen: Nutzen Sie kommerzielle Observability-Plattformen wie Middleware oder DataDog für unternehmenskritische Anwendungen. Für weniger kritische Daten oder Use Cases können Open-Source- oder native Cloud-Logging-Lösungen zum Einsatz kommen.

Native Cloud-Observability-Tools einsetzen: Nutzen Sie die Monitoring-/Logging-Services Ihres Cloud-Anbieters (etwa AWS CloudWatch, Google Cloud Monitoring oder Azure Monitor). Diese stellen im Regelfall die kostengünstigsten Optionen dar, um grundlegende Telemetriedaten zu erfassen und zu speichern.

5. FinOps-Kultur fördern

Observability-Kosten zu optimieren, ist nicht nur eine technische, sondern auch eine kulturelle Herausforderung.

Wissen vermitteln: Schulen Sie Entwickler und Betriebsteams hinsichtlich der Kostenauswirkungen ihrer Observability-Entscheidungen. Das kann dazu beitragen, eine „kostenbewusste” Entwicklungskultur zu schaffen.

Budgets und Warnmeldungen definieren: Legen Sie ein klares Budget für Observability-Ausgaben fest und richten Sie Alerts ein, die anschlagen, wenn dieses erreicht ist oder überschritten wird.

Kosten verteilen und verrechnen: Es empfiehlt sich, Tags und Labels einzuführen, anhand derer die Observability-Kosten fair auf Teams, Projekte oder Geschäftsbereiche verteilt werden können. Das trägt auch dazu bei Accountability herzustellen.

Observability-Ausgaben regelmäßig prüfen: Nur wenn Sie die Kosten wirklich dauerhaft im Blick behalten, können Sie auch besonders teure Probleme identifizieren, Nutzungsmuster analysieren und weitere Optimierungsmöglichkeiten auftun. Cost-Management-Dashboards können an dieser Stelle äußerst hilfreich sein.

6. KI und Machine Learning einsetzen

Mit Hilfe von KI und ML lassen sich die Observability-Kosten zusätzlich optimieren.

Anomalieerkennung einsetzen: Identifizieren Sie ungewöhnliche Lastspitzen bei der Datenerfassung oder Ressourcenauslastung, die auf Ineffizienz oder Fehlkonfigurationen hindeuten.

Predictive Analytics nutzen: Antizipieren Sie Observability-Anforderungen und -Kosten auf der Grundlage historischer Trends, um anschließend proaktiv zu optimieren.

Fehler automatisiert beheben: Einige Plattformen können auf der Grundlage erkannter Anomalien spezifische Maßnahmen automatisieren (etwa Ressourcen reduzieren), was Verschwendung reduziert.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

6 Taktiken, um Observability-Kosten zu senken​ Weiterlesen »

Dauerstress – wie Arbeitgeber ihre IT-Mitarbeiter entlasten​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?quality=50&strip=all 7072w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Eine dauerhafte Überforderung sorgt dafür, dass Potenziale nicht genutzt werden und erhöht die Kündigungsbereitschaft.PeopleImages.com – Yuri A – Shutterstock 2485947825 Die IT-Branche nimmt heute eine zentrale und komplexe Rolle am Wirtschaftsstandort Deutschland ein. So ist sie einerseits ein Schlüsselbereich für die Modernisierung und Digitalisierung traditioneller Industrien und damit Motor für Innovation und Wachstum. Andererseits steht auch sie zahlreichen Herausforderungen gegenüber – ob technologisch, strukturell oder gesellschaftlich.   Eine neue Studie des Personaldienstleisters YER Deutschland zeigt nun, wie es um die Mitarbeiterzufriedenheit bestellt ist. Die gute Nachricht vorweg: Trotz Krisenmodus und einer schwächelnden Wirtschaft ist die allgemeine Arbeitszufriedenheit in Deutschland weiterhin auf einem sehr hohen Niveau.   Dies zeigt die neue repräsentativen Studie zur Arbeitszufriedenheit von YER Deutschland (ehemals: Avantgarde Experts) in Zusammenarbeit mit YouGov unter 1118 Akademikern, davon 162 aus der IT-Branche. Derzeit sind 83 Prozent der Beschäftigten mit ihren Arbeitsbedingungen eher bis sehr zufrieden. Bei genauerer Betrachtung legt die Umfrage jedoch offen: die IT-Branche schwächelt. Im Vergleich zum Vorjahr ist hier die Jobzufriedenheit von 92 auf 86 Prozent gesunken – neuer Spitzenreiter ist nun der Energiesektor mit 95 Prozent.     Kippt die Stimmung? Ob chronischer Personalmangel, unzureichende Managementvorgaben, hohe Erwartungen oder fehlende Investitionen in notwendige Systeme – IT-Experten stehen im Job zunehmend unter Druck – trotz wachsender Komplexität die anfallenden Aufgaben effizient und fehlerfrei zu bewältigen. Dies bestätigt auch die Studie: 73 Prozent geben an, ausgelastet oder überfordert zu sein, während es im Vorjahr noch 58 Prozent waren. Zugleich zeigen die Ergebnisse aber auch, dass 28 Prozent der Befragten (leicht) unterfordert sind. Das sollte Führungskräfte aufhorchen lassen: Sowohl eine dauerhafte Über- als auch Unterforderung sorgen dafür, dass Potenziale nicht (richtig) genutzt werden. Das erhöht die Kündigungsbereitschaft. So denken aktuell 44 Prozent der IT-Experten in den kommenden sechs Monaten (vielleicht) über einen Jobwechsel nach, 2024 waren dies noch 42 Prozent.      Leistung hat ihren Preis Faktoren wie Purpose und Führung werden zwar immer wichtiger, aber wer Top-IT-Talente gewinnen und langfristig binden will, sollte eine attraktive Vergütung nicht vergessen. Knapp die Hälfte der Befragten (48 Prozent) würde nämlich bei einer Gehaltserhöhung vom geplanten Jobwechsel absehen (2024: 35 Prozent).   Daneben schätzen IT-Professionals im Rahmen eines Arbeitsverhältnisses:   Flexibilität, um Job und private Interessen gut miteinander zu vereinbaren (41 Prozent),   Stabilität (32 Prozent) sowie   das Gefühl, gebraucht zu werden und etwas bewirken zu können (30 Prozent).     Welche Schlüsselbereiche Arbeitgeber auf den Prüfstand stellen müssen Damit die IT-Branche in Deutschland international nicht ins Hintertreffen gerät, muss das Management – so noch nicht geschehen – aktiv werden. Folgende drei Handlungsfelder bieten sich an, um den bestehenden Unternehmenskurs auf den Prüfstand zu stellen:   Offenheit für neue Anstellungsarten zeigen   Die IT-Branche ist geprägt von Agilität, Fachkräftemangel und Innovationsdruck. Das verlangt hinsichtlich des Personalmanagements einen immer höheren Flexibilisierungsgrad. Hier empfiehlt es sich, weniger auf traditionelles Recruiting zu setzen, sondern für verschiedene Anstellungsarten offen zu sein. Eines der Recruiting-Instrumente: die akademische Arbeitnehmerüberlassung. Denn gerade top ausgebildete Spezialisten entscheiden sich bewusst für diese Art der Zeitarbeit, da sie attraktive Verdienstmöglichkeiten, abwechslungsreiche Projekte und gute Einstiegschancen ermöglicht. Unternehmen wiederum profitieren von einer wettbewerbsstarken hybriden Workforce.   Wertschätzende Führungskultur schaffen  Auch wenn es banal klingt: Schaffen Sie ein Arbeitsumfeld, in dem sich die Mitarbeitenden zugleich angespornt und wohlfühlen. Mit Wertschätzung schaffen Sie beste Voraussetzungen für langfristige Mitarbeiterbindung und Arbeitgeberattraktivität. Die Zahlen aus der Studie zeigen: Die IT-Experten fühlen sich durchaus in ihrem Job wertgeschätzt – vor allem von ihrem Team (68 Prozent), gefolgt von der direkten Führungskraft (57 Prozent) und dem Management (38 Prozent). Unternehmen sollten sich die besondere Vorbildfunktion des C-Levels bewusst machen. So würde rund ein Fünftel der IT-Befragten (20 Prozent) von einem Jobwechsel absehen, wenn es eine Führungskraft gibt, von der man lernen kann und gefördert wird.    Technologieoffenheit und Transformation leben  Digitalisierung, Automatisierung und Künstliche Intelligenz verändern Geschäftsmodelle, Arbeitsprozesse und Berufe grundlegend – Remote Work und agile Strukturen gewinnen an Bedeutung. Viele Unternehmen stehen hier allerdings noch am Anfang, wie die Studie bestätigt: Laut 35 Prozent der befragten IT-Experten gibt es nur selten Anpassungen bei Prozessen und internen Strukturen in einzelnen Unternehmensbereichen – bei acht Prozent sind diese seit Jahren sogar sehr starr. Mein Tipp: Identifizieren Sie potenzielle Handlungsfelder und modernisieren Sie analoge, ineffiziente oder überregulierte Abläufe mit Hilfe von passenden Tools (z. B. Workflow-Automatisierung, Cloud-Dienste). Auch manch alteingesessener Arbeitsablauf kann ein Refresh gebrauchen. Veränderungen und Verbesserungen gelingen in einem Umfeld, indem „Entrepreneurship“ Teil der Unternehmenskultur ist.  Klare Kommunikation und die Beteiligung des Teams sorgen dafür, dass Innovationen und ein Kulturwandel stattfinden. Übrigens: Laut Studie blickt ein Viertel der IT-Experten motiviert und mit großem Gestaltungswillen auf die bevorstehenden Neuerungen und Umstrukturierungen in ihrem Arbeitsumfeld. Nutzen Sie dieses Momentum.    

Dauerstress – wie Arbeitgeber ihre IT-Mitarbeiter entlasten​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?quality=50&strip=all 7072w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Stress-shutterstock_2485947825.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Eine dauerhafte Überforderung sorgt dafür, dass Potenziale nicht genutzt werden und erhöht die Kündigungsbereitschaft.PeopleImages.com – Yuri A – Shutterstock 2485947825

Die IT-Branche nimmt heute eine zentrale und komplexe Rolle am Wirtschaftsstandort Deutschland ein. So ist sie einerseits ein Schlüsselbereich für die Modernisierung und Digitalisierung traditioneller Industrien und damit Motor für Innovation und Wachstum. Andererseits steht auch sie zahlreichen Herausforderungen gegenüber – ob technologisch, strukturell oder gesellschaftlich.  

Eine neue Studie des Personaldienstleisters YER Deutschland zeigt nun, wie es um die Mitarbeiterzufriedenheit bestellt ist. Die gute Nachricht vorweg: Trotz Krisenmodus und einer schwächelnden Wirtschaft ist die allgemeine Arbeitszufriedenheit in Deutschland weiterhin auf einem sehr hohen Niveau.  

Dies zeigt die neue repräsentativen Studie zur Arbeitszufriedenheit von YER Deutschland (ehemals: Avantgarde Experts) in Zusammenarbeit mit YouGov unter 1118 Akademikern, davon 162 aus der IT-Branche. Derzeit sind 83 Prozent der Beschäftigten mit ihren Arbeitsbedingungen eher bis sehr zufrieden. Bei genauerer Betrachtung legt die Umfrage jedoch offen: die IT-Branche schwächelt. Im Vergleich zum Vorjahr ist hier die Jobzufriedenheit von 92 auf 86 Prozent gesunken – neuer Spitzenreiter ist nun der Energiesektor mit 95 Prozent. 

  

Kippt die Stimmung?

Ob chronischer Personalmangel, unzureichende Managementvorgaben, hohe Erwartungen oder fehlende Investitionen in notwendige Systeme – IT-Experten stehen im Job zunehmend unter Druck – trotz wachsender Komplexität die anfallenden Aufgaben effizient und fehlerfrei zu bewältigen. Dies bestätigt auch die Studie: 73 Prozent geben an, ausgelastet oder überfordert zu sein, während es im Vorjahr noch 58 Prozent waren. Zugleich zeigen die Ergebnisse aber auch, dass 28 Prozent der Befragten (leicht) unterfordert sind. Das sollte Führungskräfte aufhorchen lassen: Sowohl eine dauerhafte Über- als auch Unterforderung sorgen dafür, dass Potenziale nicht (richtig) genutzt werden. Das erhöht die Kündigungsbereitschaft. So denken aktuell 44 Prozent der IT-Experten in den kommenden sechs Monaten (vielleicht) über einen Jobwechsel nach, 2024 waren dies noch 42 Prozent.  

  

Leistung hat ihren Preis

Faktoren wie Purpose und Führung werden zwar immer wichtiger, aber wer Top-IT-Talente gewinnen und langfristig binden will, sollte eine attraktive Vergütung nicht vergessen. Knapp die Hälfte der Befragten (48 Prozent) würde nämlich bei einer Gehaltserhöhung vom geplanten Jobwechsel absehen (2024: 35 Prozent).  

Daneben schätzen IT-Professionals im Rahmen eines Arbeitsverhältnisses:  

Flexibilität, um Job und private Interessen gut miteinander zu vereinbaren (41 Prozent),  

Stabilität (32 Prozent) sowie  

das Gefühl, gebraucht zu werden und etwas bewirken zu können (30 Prozent).  

 

Welche Schlüsselbereiche Arbeitgeber auf den Prüfstand stellen müssen

Damit die IT-Branche in Deutschland international nicht ins Hintertreffen gerät, muss das Management – so noch nicht geschehen – aktiv werden. Folgende drei Handlungsfelder bieten sich an, um den bestehenden Unternehmenskurs auf den Prüfstand zu stellen:  

Offenheit für neue Anstellungsarten zeigen  

Die IT-Branche ist geprägt von Agilität, Fachkräftemangel und Innovationsdruck. Das verlangt hinsichtlich des Personalmanagements einen immer höheren Flexibilisierungsgrad. Hier empfiehlt es sich, weniger auf traditionelles Recruiting zu setzen, sondern für verschiedene Anstellungsarten offen zu sein. Eines der Recruiting-Instrumente: die akademische Arbeitnehmerüberlassung. Denn gerade top ausgebildete Spezialisten entscheiden sich bewusst für diese Art der Zeitarbeit, da sie attraktive Verdienstmöglichkeiten, abwechslungsreiche Projekte und gute Einstiegschancen ermöglicht. Unternehmen wiederum profitieren von einer wettbewerbsstarken hybriden Workforce.  

Wertschätzende Führungskultur schaffen 

Auch wenn es banal klingt: Schaffen Sie ein Arbeitsumfeld, in dem sich die Mitarbeitenden zugleich angespornt und wohlfühlen. Mit Wertschätzung schaffen Sie beste Voraussetzungen für langfristige Mitarbeiterbindung und Arbeitgeberattraktivität. Die Zahlen aus der Studie zeigen: Die IT-Experten fühlen sich durchaus in ihrem Job wertgeschätzt – vor allem von ihrem Team (68 Prozent), gefolgt von der direkten Führungskraft (57 Prozent) und dem Management (38 Prozent). Unternehmen sollten sich die besondere Vorbildfunktion des C-Levels bewusst machen. So würde rund ein Fünftel der IT-Befragten (20 Prozent) von einem Jobwechsel absehen, wenn es eine Führungskraft gibt, von der man lernen kann und gefördert wird.   

Technologieoffenheit und Transformation leben 

Digitalisierung, Automatisierung und Künstliche Intelligenz verändern Geschäftsmodelle, Arbeitsprozesse und Berufe grundlegend – Remote Work und agile Strukturen gewinnen an Bedeutung. Viele Unternehmen stehen hier allerdings noch am Anfang, wie die Studie bestätigt: Laut 35 Prozent der befragten IT-Experten gibt es nur selten Anpassungen bei Prozessen und internen Strukturen in einzelnen Unternehmensbereichen – bei acht Prozent sind diese seit Jahren sogar sehr starr. Mein Tipp: Identifizieren Sie potenzielle Handlungsfelder und modernisieren Sie analoge, ineffiziente oder überregulierte Abläufe mit Hilfe von passenden Tools (z. B. Workflow-Automatisierung, Cloud-Dienste). Auch manch alteingesessener Arbeitsablauf kann ein Refresh gebrauchen. Veränderungen und Verbesserungen gelingen in einem Umfeld, indem „Entrepreneurship“ Teil der Unternehmenskultur ist. 

Klare Kommunikation und die Beteiligung des Teams sorgen dafür, dass Innovationen und ein Kulturwandel stattfinden. Übrigens: Laut Studie blickt ein Viertel der IT-Experten motiviert und mit großem Gestaltungswillen auf die bevorstehenden Neuerungen und Umstrukturierungen in ihrem Arbeitsumfeld. Nutzen Sie dieses Momentum.   

Dauerstress – wie Arbeitgeber ihre IT-Mitarbeiter entlasten​ Weiterlesen »

So geht Hackathon​

Allgemein

Hackathons, die Mitarbeiter-Engagement, cross-funktionale Zusammenarbeit und Innovationskraft befeuern sollen, erfordern die richtige Planung. Foto: DC Studio | shutterstock.com Hackathons wurden vor einigen Jahren in erster Linie mit Startups und kleinen Developer-Teams in Verbindung gebracht. Inzwischen haben jedoch auch die IT-Verantwortlichen in Großunternehmen erkannt, dass diese kollaborativ ausgerichteten Entwicklungs-Events ein gutes Mittel sind, um die Innovationskraft im Unternehmen anzukurbeln. Über einen Hackathon greifbaren Mehrwert für das eigene Unternehmen zu generieren, ist allerdings nicht ohne. Die Grundlage dafür schaffen Unternehmen insbesondere, indem sie Hackathons ausschließlich aus sinnvollem Anlass veranstalten – also nicht, weil das gerade bei der direkten Konkurrenz in Mode ist. Liegen greifbare, legitime Gründe vor, um einen Event dieser Art aufzuziehen, kann das – insbesondere in der IT-Abteilung – Innovationen fördern und ein Image als “Innovationsbremse” verhindern. Das kann Rock Tsai, CIO von Taiwan Mobile, auf Grundlage eigener Erfahrungen bestätigen: “Wenn das Business noch vor ein paar Jahren bei der IT Unterstützung für neue Services oder Prozessinnovationen angefragt hat, lautete die Antwort oft, dass das nicht vorgesehen ist oder mangels Ressourcen oder Budget nicht möglich ist. Das hat uns dazu bewogen, die Innovationsleidenschaft der IT-Abteilung mit Hackathons neu zu entflammen.” Dabei unterscheidet der CIO des zweitgrößten taiwanesischen Mobilfunkanbieters ganz grundsätzlich zwischen zwei verschiedenen Hackathon-Formen: “Inside-Out”-Hackathons richten sich ausschließlich an die internen IT-Beschäftigten. “Outside-In”-Hackathons sind die “traditionelle” Form und beziehen das gesamte Unternehmen mit ein. Speziell erstgenannte Form könne laut Tsai dafür sorgen, dass die “Buy-In”-Rate in den Reihen des IT-Teams steigt – selbst wenn die zugrundeliegende Idee sich im Laufe der Zeit verändere: “Vielleicht unterscheidet sich der finale Vorschlag von dem, was die IT-Mitarbeiter ursprünglich vorgeschlagen haben. Weil sie aber bereits motiviert wurden, zu innovieren, glauben sie auch an den Change”, konstatiert der CIO. Wir haben mit Tsai und weiteren Experten zum Thema Hackathon gesprochen und fünf Schlüsselkriterien identifiziert, die ganz wesentlich über den Erfolg der kollaborativen Entwicklungsinitiativen entscheiden. 1. Konkret werden Existiert eine solide Grundlage dafür, einen Hackathon zu organisieren, tun Unternehmen gut daran, diesen nicht ergebnisoffen zu gestalten. Das rät zumindest Leah Balter, Chief Information and Transformation Officer bei Bunnings, einem australischen Einzelhändler mit Fokus auf Heimwerkerbedarf, auf Grundlage ihrer Erfahrungswerte: “Wir mussten feststellen, dass es nicht gut funktioniert, sich auf ein breites Spektrum einzulassen, bei dem man sozusagen an allem Möglichen arbeitet. Die meisten Ideen, die diese allgemein ausgerichteten Hackathons hervorgebracht haben, waren nicht produktionsreif. Es gab zwar schöne Konzepte, aber keines, das einen wesentlichen Business Impact gebracht hätte.” Deshalb rät die Managerin zu Hackathons, die eine bestimmte Technologie, einen spezifischen Use Case – oder beides – fokussieren. Als Beispiel führt Balter den jüngsten Hackathon bei Bunnings an, bei dem es darum ging, Produktivität und Sales-Initiativen mit Hilfe von generativer KI zu optimieren: “Innerhalb von zwei Stunden wurden mir 25 Ideen vorgelegt, die mich wirklich zum Nachdenken angeregt haben. Die zehn besten sollten wir idealerweise in den nächsten drei Monaten umsetzen”, stellt die Transformationsexpertin in Aussicht. Sie fügt hinzu: “Auf diesen Hackathon zu verzichten, hätte monatelange, strategische Arbeit nötig gemacht, um zu den gleichen Ergebnissen zu kommen. Es war eine tolle Möglichkeit, den gesamten Innovationsprozess zu beschleunigen und dabei die besten Ideen zu sammeln.” 2. Teams kombinieren Bereits der Begriff “Hackathon” legt nahe, dass die Teilnehmer technische Skills mitbringen sollten – in der Regel Softwareentwickler oder Designer mit einem Händchen für Problemlösungen. Zumindest gilt das für traditionelle Hackathons. Geht es dabei um Veranstaltungen in Großunternehmen, empfiehlt sich hingegen ein breites Spektrum von Teilnehmerinnen und Teilnehmern. Zwar seien Tech-Spezialisten in der Regel wenig begeistert von “Ideengebern” aus nicht-technischen Bereichen – genau deshalb sei dieser Ansatz jedoch von Vorteil, meint Aran Azarzar, CIO beim DevOps-Spezialisten JFrog: “Jede Teilnehmergruppe sollte einige nicht-technische Personen an Bord haben, die Ideen einbringen können – und zwar ohne die technischen Barrieren, die Entwickler oft im Kopf haben. Manchmal kommen von diesen die besten Inputs.” Leider sei es schwierig, diese Art von Beschäftigten als Freiwillige zu gewinnen, berichtet der IT-Entscheider – und appelliert an seine Berufsstandskollegen: “Sie müssen im Rahmen der Organisation von Hackathons proaktiv um solche Teilnehmer werben. Das ist insbesondere deswegen eine Herausforderung, weil nicht jeder um die Talente weiß, die ihn ihm oder ihr schlummern. Es gilt, diese Personen und das für sie optimale Einsatzgebiet vorab zu identifizieren.” 3. Begeisterung wecken Um diese Strategie in der Praxis umzusetzen, reicht es natürlich nicht, einfach einen Hackathon zu organisieren und anschließend darauf zu hoffen, dass der Geist der Collaboration schon dafür sorgen wird, das daraus etwas Sinnvolles entsteht. Geht es nach JFrog-CIO Azarzar muss ein End-to-End Owner sich dabei um alles kümmern – vom Facility Management über die Ideation bis hin zur Team-Zusammenstellung und dem eigentlichen Wettbewerb. Bunnings-Managerin Balter bemüht sich darüber hinaus auch aktiv darum, Teilnehmer aus allen Bereichen des Unternehmens an Bord zu holen. Das funktioniere in erster Linie durch interne Kommunikationskampagnen rund um den Hackathon, wie die Technologieentscheiderin preisgibt: “Es geht darum, auch durch Bildsprache zu vermitteln, dass es darum geht, funktionsübergreifend zusammenzukommen, um etwas zu kreieren. Dabei beziehen wir Online-Channel wie unseren Social Media Workspace ebenso ein wie Offline-Kanäle – etwa Banner oder Poster in den Bürogebäuden.” Was nicht heißen soll, dass bei JFrog bezüglich interner Kommunikationsmaßnahmen weniger Sorgfalt an den Tag gelegt würde. Azarzar verfolgt das Konzept, die Details zu Hackathons schrittweise und in kleinen Häppchen zu servieren, um abteilungsübergreifende (Teilnahme-)Begeisterung zu wecken. “Den Wettbewerb langsam zu enthüllen, weckt die Neugierde der Mitarbeiter – und den Wunsch, daran teilhaben zu wollen”, berichtet der CIO nicht ohne Stolz. Auch für den zweigleisigen Ansatz des Taiwan-Mobile-CIO ist multidisziplinäre Zusammenarbeit entscheidend. Insbesondere mit Blick auf Outside-In-Hackathons: “Um die Kundenperspektive einnehmen zu können, sollten Teams aus dem gesamten Unternehmen teilnehmen. Das schließt diejenigen mit ein, die häufig in Kundenkontakt stehen, wie Marketing- oder Vertriebsmitarbeiter”, erklärt Tsai. 4. Kontinuität gewährleisten Ähnlich wie bei Business-Konferenzen besteht auch bei Hackathons die Gefahr, dass die Begeisterung (auch bezüglich der funktionsübergreifenden Zusammenarbeit) im Sande verläuft und brillante Ideen verpuffen, sobald die Veranstaltung beendet ist. Erfolgreiche Hackathons zeichnen sich hingegen durch eine Kontinuität zwischen dem Event und der geschäftlichen Realität des Unternehmens aus. Diese Kontinuität beginnt wiederum bei der Auswahl der Juroren, die am Ende darüber entscheiden, wer den Wettbewerb gewinnt. Dabei sind externe Tech-Persönlichkeiten oder Tech-Führungskräfte beliebte Optionen. Über deren Tellerrand es sich allerdings hinauszublicken lohnt, wie Bunnings-Entscheiderin Balter nahelegt: “Bei dieser Gelegenheit empfiehlt es sich, Führungskräfte aus allen Bereichen einzubeziehen. Wenn die Teilnehmer ihre Ideen mehreren Entscheidern präsentieren müssen, sendet das auch die Botschaft, dass es sich nicht um eine Spaßveranstaltung handelt. Aber es verpflichtet auf der anderen Seite auch die Führungskräfte, wirklich gute Ideen am Ende auch zu finanzieren und umzusetzen.” Um die Kontinuität nach dem Hackathon zu gewährleisten, ergreift man auch bei Taiwan Mobile entsprechende Maßnahmen, wie CIO Tsai darlegt: “Wir haben die Hackathons auf unseren jährlichen Planungszyklus abgestimmt, um die siegreichen Vorschläge im nächsten Jahresbudget berücksichtigen zu können. Im Rahmen dieses Prozesses erhalten die Siegerteams außerdem ein Zwischenbudget, um initiale Entwicklung- und Planungsarbeit leisten zu können. Sobald das erfolgreich erledigt ist, kann weiteres Budget freigeschaltet werden.” In erfolgversprechende Ideen zu investieren, die aus Hackathons entstehen, kann einen positiven Kreislauf in Gang setzen, der weit über die bloße Umsetzung hinausgeht: Talentierte Entwickler wollen in der Regel an spannenden Projekten arbeiten. Hackathons sind also auch Mittel, Dev-Talente anzuziehen und zu binden, wie Balter bestätigen kann: “Es demonstriert einen Fokus auf Innovation und ein Interesse an neuen Ideen, die dabei helfen, das Unternehmen voranzubringen.” 5. Kulturwandel vollziehen Hackathons werden in vielen Fällen als reine Geschäftsaktivität betrachtet, die Innovation schafft. Viel zu selten werden die kollaborativen Events als Mittel gesehen, um zu einer Innovationskultur im Unternehmen beizutragen. Azarzar sieht für CIOs vor allem zwei Gründe, einen Hackathon in Betracht zu ziehen: “Erstens, wenn Sie ein echtes Problem haben, das Sie schnell lösen wollen – und dabei alle Hände voll zu tun haben. Zweitens, wenn Sie die Innovation im Unternehmen fördern wollen.” Letzteres deckt sich mit der Erfarung von Taiwan-Mobile-CIO Tsai, der von einer kulturellen Verbesserung berichten kann. Zwar habe sein Arbeitgeber zahlreiche Produkte und Verbesserungen als direktes Ergebnis von Hackathons eingeführt, den eigentlichen Vorteil sieht der Manager aber in der tiefgreifenden Veränderung der Beschäftigtenperspektive: “Die Einstellung der Mitarbeiter verändert sich. Sie erkennen zunehmend, dass sie Innovatoren sein können und wollen.” Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So geht Hackathon​ Hackathons, die Mitarbeiter-Engagement, cross-funktionale Zusammenarbeit und Innovationskraft befeuern sollen, erfordern die richtige Planung.
Foto: DC Studio | shutterstock.com

Hackathons wurden vor einigen Jahren in erster Linie mit Startups und kleinen Developer-Teams in Verbindung gebracht. Inzwischen haben jedoch auch die IT-Verantwortlichen in Großunternehmen erkannt, dass diese kollaborativ ausgerichteten Entwicklungs-Events ein gutes Mittel sind, um die Innovationskraft im Unternehmen anzukurbeln.

Über einen Hackathon greifbaren Mehrwert für das eigene Unternehmen zu generieren, ist allerdings nicht ohne. Die Grundlage dafür schaffen Unternehmen insbesondere, indem sie Hackathons ausschließlich aus sinnvollem Anlass veranstalten – also nicht, weil das gerade bei der direkten Konkurrenz in Mode ist. Liegen greifbare, legitime Gründe vor, um einen Event dieser Art aufzuziehen, kann das – insbesondere in der IT-Abteilung – Innovationen fördern und ein Image als “Innovationsbremse” verhindern.

Das kann Rock Tsai, CIO von Taiwan Mobile, auf Grundlage eigener Erfahrungen bestätigen: “Wenn das Business noch vor ein paar Jahren bei der IT Unterstützung für neue Services oder Prozessinnovationen angefragt hat, lautete die Antwort oft, dass das nicht vorgesehen ist oder mangels Ressourcen oder Budget nicht möglich ist. Das hat uns dazu bewogen, die Innovationsleidenschaft der IT-Abteilung mit Hackathons neu zu entflammen.”

Dabei unterscheidet der CIO des zweitgrößten taiwanesischen Mobilfunkanbieters ganz grundsätzlich zwischen zwei verschiedenen Hackathon-Formen:

“Inside-Out”-Hackathons richten sich ausschließlich an die internen IT-Beschäftigten.

“Outside-In”-Hackathons sind die “traditionelle” Form und beziehen das gesamte Unternehmen mit ein.

Speziell erstgenannte Form könne laut Tsai dafür sorgen, dass die “Buy-In”-Rate in den Reihen des IT-Teams steigt – selbst wenn die zugrundeliegende Idee sich im Laufe der Zeit verändere: “Vielleicht unterscheidet sich der finale Vorschlag von dem, was die IT-Mitarbeiter ursprünglich vorgeschlagen haben. Weil sie aber bereits motiviert wurden, zu innovieren, glauben sie auch an den Change”, konstatiert der CIO.

Wir haben mit Tsai und weiteren Experten zum Thema Hackathon gesprochen und fünf Schlüsselkriterien identifiziert, die ganz wesentlich über den Erfolg der kollaborativen Entwicklungsinitiativen entscheiden.

1. Konkret werden

Existiert eine solide Grundlage dafür, einen Hackathon zu organisieren, tun Unternehmen gut daran, diesen nicht ergebnisoffen zu gestalten. Das rät zumindest Leah Balter, Chief Information and Transformation Officer bei Bunnings, einem australischen Einzelhändler mit Fokus auf Heimwerkerbedarf, auf Grundlage ihrer Erfahrungswerte: “Wir mussten feststellen, dass es nicht gut funktioniert, sich auf ein breites Spektrum einzulassen, bei dem man sozusagen an allem Möglichen arbeitet. Die meisten Ideen, die diese allgemein ausgerichteten Hackathons hervorgebracht haben, waren nicht produktionsreif. Es gab zwar schöne Konzepte, aber keines, das einen wesentlichen Business Impact gebracht hätte.”

Deshalb rät die Managerin zu Hackathons, die eine bestimmte Technologie, einen spezifischen Use Case – oder beides – fokussieren. Als Beispiel führt Balter den jüngsten Hackathon bei Bunnings an, bei dem es darum ging, Produktivität und Sales-Initiativen mit Hilfe von generativer KI zu optimieren: “Innerhalb von zwei Stunden wurden mir 25 Ideen vorgelegt, die mich wirklich zum Nachdenken angeregt haben. Die zehn besten sollten wir idealerweise in den nächsten drei Monaten umsetzen”, stellt die Transformationsexpertin in Aussicht. Sie fügt hinzu: “Auf diesen Hackathon zu verzichten, hätte monatelange, strategische Arbeit nötig gemacht, um zu den gleichen Ergebnissen zu kommen. Es war eine tolle Möglichkeit, den gesamten Innovationsprozess zu beschleunigen und dabei die besten Ideen zu sammeln.”

2. Teams kombinieren

Bereits der Begriff “Hackathon” legt nahe, dass die Teilnehmer technische Skills mitbringen sollten – in der Regel Softwareentwickler oder Designer mit einem Händchen für Problemlösungen. Zumindest gilt das für traditionelle Hackathons. Geht es dabei um Veranstaltungen in Großunternehmen, empfiehlt sich hingegen ein breites Spektrum von Teilnehmerinnen und Teilnehmern.

Zwar seien Tech-Spezialisten in der Regel wenig begeistert von “Ideengebern” aus nicht-technischen Bereichen – genau deshalb sei dieser Ansatz jedoch von Vorteil, meint Aran Azarzar, CIO beim DevOps-Spezialisten JFrog: “Jede Teilnehmergruppe sollte einige nicht-technische Personen an Bord haben, die Ideen einbringen können – und zwar ohne die technischen Barrieren, die Entwickler oft im Kopf haben. Manchmal kommen von diesen die besten Inputs.”

Leider sei es schwierig, diese Art von Beschäftigten als Freiwillige zu gewinnen, berichtet der IT-Entscheider – und appelliert an seine Berufsstandskollegen: “Sie müssen im Rahmen der Organisation von Hackathons proaktiv um solche Teilnehmer werben. Das ist insbesondere deswegen eine Herausforderung, weil nicht jeder um die Talente weiß, die ihn ihm oder ihr schlummern. Es gilt, diese Personen und das für sie optimale Einsatzgebiet vorab zu identifizieren.”

3. Begeisterung wecken

Um diese Strategie in der Praxis umzusetzen, reicht es natürlich nicht, einfach einen Hackathon zu organisieren und anschließend darauf zu hoffen, dass der Geist der Collaboration schon dafür sorgen wird, das daraus etwas Sinnvolles entsteht. Geht es nach JFrog-CIO Azarzar muss ein End-to-End Owner sich dabei um alles kümmern – vom Facility Management über die Ideation bis hin zur Team-Zusammenstellung und dem eigentlichen Wettbewerb.

Bunnings-Managerin Balter bemüht sich darüber hinaus auch aktiv darum, Teilnehmer aus allen Bereichen des Unternehmens an Bord zu holen. Das funktioniere in erster Linie durch interne Kommunikationskampagnen rund um den Hackathon, wie die Technologieentscheiderin preisgibt: “Es geht darum, auch durch Bildsprache zu vermitteln, dass es darum geht, funktionsübergreifend zusammenzukommen, um etwas zu kreieren. Dabei beziehen wir Online-Channel wie unseren Social Media Workspace ebenso ein wie Offline-Kanäle – etwa Banner oder Poster in den Bürogebäuden.”

Was nicht heißen soll, dass bei JFrog bezüglich interner Kommunikationsmaßnahmen weniger Sorgfalt an den Tag gelegt würde. Azarzar verfolgt das Konzept, die Details zu Hackathons schrittweise und in kleinen Häppchen zu servieren, um abteilungsübergreifende (Teilnahme-)Begeisterung zu wecken. “Den Wettbewerb langsam zu enthüllen, weckt die Neugierde der Mitarbeiter – und den Wunsch, daran teilhaben zu wollen”, berichtet der CIO nicht ohne Stolz.

Auch für den zweigleisigen Ansatz des Taiwan-Mobile-CIO ist multidisziplinäre Zusammenarbeit entscheidend. Insbesondere mit Blick auf Outside-In-Hackathons: “Um die Kundenperspektive einnehmen zu können, sollten Teams aus dem gesamten Unternehmen teilnehmen. Das schließt diejenigen mit ein, die häufig in Kundenkontakt stehen, wie Marketing- oder Vertriebsmitarbeiter”, erklärt Tsai.

4. Kontinuität gewährleisten

Ähnlich wie bei Business-Konferenzen besteht auch bei Hackathons die Gefahr, dass die Begeisterung (auch bezüglich der funktionsübergreifenden Zusammenarbeit) im Sande verläuft und brillante Ideen verpuffen, sobald die Veranstaltung beendet ist. Erfolgreiche Hackathons zeichnen sich hingegen durch eine Kontinuität zwischen dem Event und der geschäftlichen Realität des Unternehmens aus. Diese Kontinuität beginnt wiederum bei der Auswahl der Juroren, die am Ende darüber entscheiden, wer den Wettbewerb gewinnt. Dabei sind externe Tech-Persönlichkeiten oder Tech-Führungskräfte beliebte Optionen.

Über deren Tellerrand es sich allerdings hinauszublicken lohnt, wie Bunnings-Entscheiderin Balter nahelegt: “Bei dieser Gelegenheit empfiehlt es sich, Führungskräfte aus allen Bereichen einzubeziehen. Wenn die Teilnehmer ihre Ideen mehreren Entscheidern präsentieren müssen, sendet das auch die Botschaft, dass es sich nicht um eine Spaßveranstaltung handelt. Aber es verpflichtet auf der anderen Seite auch die Führungskräfte, wirklich gute Ideen am Ende auch zu finanzieren und umzusetzen.”

Um die Kontinuität nach dem Hackathon zu gewährleisten, ergreift man auch bei Taiwan Mobile entsprechende Maßnahmen, wie CIO Tsai darlegt: “Wir haben die Hackathons auf unseren jährlichen Planungszyklus abgestimmt, um die siegreichen Vorschläge im nächsten Jahresbudget berücksichtigen zu können. Im Rahmen dieses Prozesses erhalten die Siegerteams außerdem ein Zwischenbudget, um initiale Entwicklung- und Planungsarbeit leisten zu können. Sobald das erfolgreich erledigt ist, kann weiteres Budget freigeschaltet werden.”

In erfolgversprechende Ideen zu investieren, die aus Hackathons entstehen, kann einen positiven Kreislauf in Gang setzen, der weit über die bloße Umsetzung hinausgeht: Talentierte Entwickler wollen in der Regel an spannenden Projekten arbeiten. Hackathons sind also auch Mittel, Dev-Talente anzuziehen und zu binden, wie Balter bestätigen kann: “Es demonstriert einen Fokus auf Innovation und ein Interesse an neuen Ideen, die dabei helfen, das Unternehmen voranzubringen.”

5. Kulturwandel vollziehen

Hackathons werden in vielen Fällen als reine Geschäftsaktivität betrachtet, die Innovation schafft. Viel zu selten werden die kollaborativen Events als Mittel gesehen, um zu einer Innovationskultur im Unternehmen beizutragen. Azarzar sieht für CIOs vor allem zwei Gründe, einen Hackathon in Betracht zu ziehen: “Erstens, wenn Sie ein echtes Problem haben, das Sie schnell lösen wollen – und dabei alle Hände voll zu tun haben. Zweitens, wenn Sie die Innovation im Unternehmen fördern wollen.”

Letzteres deckt sich mit der Erfarung von Taiwan-Mobile-CIO Tsai, der von einer kulturellen Verbesserung berichten kann. Zwar habe sein Arbeitgeber zahlreiche Produkte und Verbesserungen als direktes Ergebnis von Hackathons eingeführt, den eigentlichen Vorteil sieht der Manager aber in der tiefgreifenden Veränderung der Beschäftigtenperspektive: “Die Einstellung der Mitarbeiter verändert sich. Sie erkennen zunehmend, dass sie Innovatoren sein können und wollen.”

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So geht Hackathon​ Weiterlesen »

Wie SAPs Business Data Cloud das Datenmanagement verschlankt​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Dank der Partnerschaft mit Databricks ist in SAP Business Data Cloud ein freien Datenaustausch möglich.DIA TV – Shutterstock.com SAP präsentiert seine Business Data Cloud (BDC) als wichtiges Unterscheidungsmerkmal für Kunden, die datengesteuerte Innovationen anstreben. Der Clou dabei: Ein „ZeroCopy“-Ansatz, der es ermöglicht, Datenmodelle direkt im SAP-Umfeld zu erstellen – ganz ohne Datenverschiebung oder -duplizierung aus externen Quellen. Neu ist auch die native Integration mit Databricks, wodurch SAP-Kunden direkten Zugriff auf fortschrittliche Machine-Learning-, Data-Science- und KI-Funktionen erhalten. „SAP hat zuletzt zahlreiche Anwendungen veröffentlicht, die qualitativ hochwertige Geschäftsdaten generieren. Darauf mit vertrauenswürdiger KI aufzubauen, ist ein zentrales Element unserer Strategie“, erklärte Irfan Khan, President und Chief Product Officer für SAP Data & Analytics, im Rahmen einer Pressekonferenz am 15. Juli in Seoul. SAP Business Data Cloud – das steckt drin Bei der Erläuterung der technischen Funktionen und Alleinstellungsmerkmale von BDC sprach Khan von einem „Flywheel-Effekt“ – SAPs Strategie, einen Kreislauf aus Datengenerierung, vertrauensbasierter KI-Implementierung, KI- und Datenintegration sowie Generierung von Geschäftswert zu schaffen. Die im Februar gestartete BDC sei eine SaaS-basierte Datenplattform, die genau diese Strategie verkörpere, so Khan, der die Entwicklung der Plattform persönlich geleitet hat. BDC integriere und strukturiere sowohl SAP- als auch Nicht-SAP-Daten semantisch – also nach Bedeutung –, und sei ausdrücklich offen für Drittsysteme. Die so integrierten Daten ließen sich sowohl von KI-Agenten als auch vom SAP-Digitalassistenten Joule nutzen, erklärte Khan. „Es gibt nur wenige Produkte, die so viel Resonanz erhalten haben wie BDC“, hielt der SAP-CPO fest. Irfan Khan, Chief Product Officer and President of SAP Data & Analytics / SAP Korea Dadurch könnten sich Unternehmen über 80 Prozent der typischen Datenmanagement-Aufgaben sparen – etwa Daten zu sammeln, aufzubereiten und hinsichtlich ihrer Qualität zu kontrollieren. Den dadurch gewonnene Freiraum könnten die Anwender nutzen, um sich stattdessen auf das Training und die Anwendung von KI-Modellen konzentrieren.  SAP unterstützt auch eine „BDC Everywhere“-Strategie, die es ermöglicht, die Business Data Cloud nahtlos in verschiedenen Cloud-Umgebungen wie AWS, Google Cloud und Microsoft Azure zu betreiben. „Offener Datenzugang ist entscheidend, da 70 Prozent unserer Kunden auch Nicht-SAP-Daten nutzen“, erklärte Khan. Gemeinsam mit Databricks habe SAP eine Struktur geschaffen, die einen freien Datenaustausch erlaube. Khan stellte auf dem Symposium auch KI-Anwendungsfälle auf Basis der BDC vor. So seien in SAP-Anwendungen verschiedene KI-Agenten integriert – etwa ein „Dispute Resolution Agent“ für das Finanzwesen oder ein „Shipment Confirmation Agent“ für die Logistik. Diese Agenten arbeiteten organisch zusammen und bildeten einen durchgängigen, integrierten Workflow. „Die meisten Plattformen verfügen über Machine-Learning- und KI-Bibliotheken, aber oft fehlen ihnen wertvolle Daten. SAPs Alleinstellungsmerkmal ist die enge Verzahnung von Daten und Anwendungen.Abgesehen von Oracle ist SAP praktisch das einzige Unternehmen, das sowohl über ein Anwendungsportfolio für alle Geschäftsbereiche als auch über enorme Datenmengen verfügt“, betonte der Manager. Diese Grundlage ermögliche es SAP,  „BDC, KI-Agenten und KI organisch zu verbinden, um Kunden integrierte Lösungen anzubieten“. (mb) 

Wie SAPs Business Data Cloud das Datenmanagement verschlankt​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2604061529_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Dank der Partnerschaft mit Databricks ist in SAP Business Data Cloud ein freien Datenaustausch möglich.DIA TV – Shutterstock.com

SAP präsentiert seine Business Data Cloud (BDC) als wichtiges Unterscheidungsmerkmal für Kunden, die datengesteuerte Innovationen anstreben. Der Clou dabei: Ein „ZeroCopy“-Ansatz, der es ermöglicht, Datenmodelle direkt im SAP-Umfeld zu erstellen – ganz ohne Datenverschiebung oder -duplizierung aus externen Quellen.

Neu ist auch die native Integration mit Databricks, wodurch SAP-Kunden direkten Zugriff auf fortschrittliche Machine-Learning-, Data-Science- und KI-Funktionen erhalten.

„SAP hat zuletzt zahlreiche Anwendungen veröffentlicht, die qualitativ hochwertige Geschäftsdaten generieren. Darauf mit vertrauenswürdiger KI aufzubauen, ist ein zentrales Element unserer Strategie“, erklärte Irfan Khan, President und Chief Product Officer für SAP Data & Analytics, im Rahmen einer Pressekonferenz am 15. Juli in Seoul.

SAP Business Data Cloud – das steckt drin

Bei der Erläuterung der technischen Funktionen und Alleinstellungsmerkmale von BDC sprach Khan von einem „Flywheel-Effekt“ – SAPs Strategie, einen Kreislauf aus Datengenerierung, vertrauensbasierter KI-Implementierung, KI- und Datenintegration sowie Generierung von Geschäftswert zu schaffen.

Die im Februar gestartete BDC sei eine SaaS-basierte Datenplattform, die genau diese Strategie verkörpere, so Khan, der die Entwicklung der Plattform persönlich geleitet hat. BDC integriere und strukturiere sowohl SAP- als auch Nicht-SAP-Daten semantisch – also nach Bedeutung –, und sei ausdrücklich offen für Drittsysteme. Die so integrierten Daten ließen sich sowohl von KI-Agenten als auch vom SAP-Digitalassistenten Joule nutzen, erklärte Khan. „Es gibt nur wenige Produkte, die so viel Resonanz erhalten haben wie BDC“, hielt der SAP-CPO fest.

Irfan Khan, Chief Product Officer and President of SAP Data & Analytics / SAP Korea

Dadurch könnten sich Unternehmen über 80 Prozent der typischen Datenmanagement-Aufgaben sparen – etwa Daten zu sammeln, aufzubereiten und hinsichtlich ihrer Qualität zu kontrollieren. Den dadurch gewonnene Freiraum könnten die Anwender nutzen, um sich stattdessen auf das Training und die Anwendung von KI-Modellen konzentrieren. 

SAP unterstützt auch eine „BDC Everywhere“-Strategie, die es ermöglicht, die Business Data Cloud nahtlos in verschiedenen Cloud-Umgebungen wie AWS, Google Cloud und Microsoft Azure zu betreiben. „Offener Datenzugang ist entscheidend, da 70 Prozent unserer Kunden auch Nicht-SAP-Daten nutzen“, erklärte Khan. Gemeinsam mit Databricks habe SAP eine Struktur geschaffen, die einen freien Datenaustausch erlaube.

Khan stellte auf dem Symposium auch KI-Anwendungsfälle auf Basis der BDC vor. So seien in SAP-Anwendungen verschiedene KI-Agenten integriert – etwa ein „Dispute Resolution Agent“ für das Finanzwesen oder ein „Shipment Confirmation Agent“ für die Logistik. Diese Agenten arbeiteten organisch zusammen und bildeten einen durchgängigen, integrierten Workflow.

„Die meisten Plattformen verfügen über Machine-Learning- und KI-Bibliotheken, aber oft fehlen ihnen wertvolle Daten. SAPs Alleinstellungsmerkmal ist die enge Verzahnung von Daten und Anwendungen.Abgesehen von Oracle ist SAP praktisch das einzige Unternehmen, das sowohl über ein Anwendungsportfolio für alle Geschäftsbereiche als auch über enorme Datenmengen verfügt“, betonte der Manager. Diese Grundlage ermögliche es SAP,  „BDC, KI-Agenten und KI organisch zu verbinden, um Kunden integrierte Lösungen anzubieten“. (mb)

Wie SAPs Business Data Cloud das Datenmanagement verschlankt​ Weiterlesen »

Die 4 wichtigsten LLM-App-Frameworks​

Allgemein

Ein symbolischer Blick auf die LLM-App-Framework-Landkarte.Andis Rea | shutterstock.com Isoliert betrachtet könnte man Large Language Models (LLMs) durchaus als stochastische Papageien bezeichnen. Erst in Verbindung mit Retrieval Augmented Generation (RAG) und Software entstehen KI-Systeme, die Nutzwert erzeugen. Damit das funktioniert, benötigen die KI-Apps jedoch ein Rahmenwerk, das die Komponenten miteinander verbindet und koordiniert. In diesem Artikel werfen wir einen Blick auf die vier wichtigsten LLM-App-Frameworks. Alle vier sind quelloffen – Sie können sie also jederzeit kostenlos austesten (idealerweise mit einem möglichst simplen Use Case). 1. Haystack Das Open-Source-Framework Haystack ist darauf konzipiert, LLM- und RAG-Anwendungen sowie Suchsysteme für große Dokumentensammlungen zu erstellen. Haystack integriert mit: KI-Modellen, die auf Plattformen wie Hugging Face, OpenAI und Cohere gehostet werden;  KI-Modellen, die auf Plattformen wie Amazon SageMaker, Microsoft Azure AI und Google Cloud Vertex AI bereitgestellt werden;   Dokumentenspeichern wie OpenSearch, Pinecone und Qdrant. Über die Haystack-Community stehen zudem weitere Integrationen bereit – beispielsweise für Evaluierung, Monitoring und Datenerfassung. Zu den Anwendungsfällen für Haystack zählen: RAG, Chatbots, Agenten, multimodale Fragen sowie Informationsextraktion aus Dokumenten. Haystack deckt funktional die volle Bandbreite von LLM-Projekten ab – inklusive Datenquellenintegration, Datenbereinigung und -vorverarbeitung, Modelle, Protokollierung und Instrumentierung. Tiefgehendere Einblicke in Haystack bietet unser ausführlicher Test des Frameworks. 2. LangChain LangChain verbindet Sprachmodelle mit Datenquellen und ermöglicht ihnen auch, mit ihrer Umgebung zu interagieren. Dieses quelloffene Framework besteht aus sechs Modulen: Model I/O​ ist ein Interface mit Sprachmodellen. Data connection ist eine Schnittstelle mit anwendungsspezifischen Daten. Chains​ konstruieren Call-Sequenzen. Agents lassen Chains anhand übergeordneter Anweisungen auswählen, welche Tools verwendet werden sollen. Memory speichert den Anwendungsstatus zwischen den Chain-Durchläufen. Callbacks protokollieren und streamen Zwischenschritte jeder Chain. Im Fall von LangChain gibt es zwei Arten von Sprachmodellen, LLMs und ChatModels. Erstere nutzen einen String als Input und geben auch einen solchen zurück. Zweiteren dient eine Liste von Nachrichten als Input, der Output ist eine ChatMessage. Einen umfassenden Überblick über LangChain verschafft unser Grundlagenartikel zum Thema. 3. LlamaIndex LlamaIndex ist darauf ausgelegt, Anwender dabei zu unterstützen, kontextbezogene LLM-Anwendungen auf die Beine zu stellen. Im Klartext ermöglicht dieses Framework also, Large Language Models und eigene Daten zusammenzubringen – etwa in Form eines Chatbots oder eines autonomen Agenten. Dieses Framework stellt folgende Tools bereit, um Daten zu verarbeiten: Data Connectors nehmen vorhandene Daten aus ihrer nativen Quelle und in ihrem nativen Format auf. Data Indexes (auch Embeddings genannt), strukturieren Daten in Zwischendarstellungen. Engines bieten natürlichsprachlichen Zugriff auf die Daten. Agenten sind LLM-gestützte Knowledge Worker, die von Software-Tools unterstützt werden. Integrationen für Observability-, Tracing- und Evaluierungs-Tools ermöglichen es, LLM-basierte App zu testen, zu bewerten und zu überwachen. Ausführliche Infos zu LlamaIndex entnehmen Sie unserem umfassenden Test. 4. Semantic Kernel Das quelloffene SDK Semantic Kernel übernimmt innerhalb des Open-Source-LLM-Stacks von Microsoft dieselbe Funktion wie die KI-Orchestrierung im internen Stack für Copilot: Es fungiert als Herz- und Verbindungsstück. Anders ausgedrückt: Semantic Kernel verbindet große Sprachmodelle mit Daten und Code. Darüber hinaus ist es mit diesem Framework möglich, mit Hilfe von LLMs und Templates Pläne zu generieren. Das geht über das hinaus, was man mit Funktionsaufrufen erreichen kann, und ist ein Alleinstellungsmerkmal von Semantic Kernel. Die Funktion nimmt einen User Request entgegen und gibt einen Plan darüber zurück, wie dessen Anforderungen erfüllt werden können. Semantic Kernel ist im Wesentlichen so etwas wie ein “Verkehrspolizist” für KI-Anwendungen, der: KI-Services auswählt und aufruft, Prompts rendert, LLM-Outputs analysiert und Funktionsergebnisse generiert. In unserem englischsprachigen Review zu Semantic Kernel erfahren Sie mehr über dieses LLM-App-Framework. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die 4 wichtigsten LLM-App-Frameworks​ Ein symbolischer Blick auf die LLM-App-Framework-Landkarte.Andis Rea | shutterstock.com

Isoliert betrachtet könnte man Large Language Models (LLMs) durchaus als stochastische Papageien bezeichnen. Erst in Verbindung mit Retrieval Augmented Generation (RAG) und Software entstehen KI-Systeme, die Nutzwert erzeugen. Damit das funktioniert, benötigen die KI-Apps jedoch ein Rahmenwerk, das die Komponenten miteinander verbindet und koordiniert.

In diesem Artikel werfen wir einen Blick auf die vier wichtigsten LLM-App-Frameworks. Alle vier sind quelloffen – Sie können sie also jederzeit kostenlos austesten (idealerweise mit einem möglichst simplen Use Case).

1. Haystack

Das Open-Source-Framework Haystack ist darauf konzipiert, LLM- und RAG-Anwendungen sowie Suchsysteme für große Dokumentensammlungen zu erstellen.

Haystack integriert mit:

KI-Modellen, die auf Plattformen wie Hugging Face, OpenAI und Cohere gehostet werden; 

KI-Modellen, die auf Plattformen wie Amazon SageMaker, Microsoft Azure AI und Google Cloud Vertex AI bereitgestellt werden;  

Dokumentenspeichern wie OpenSearch, Pinecone und Qdrant.

Über die Haystack-Community stehen zudem weitere Integrationen bereit – beispielsweise für Evaluierung, Monitoring und Datenerfassung.

Zu den Anwendungsfällen für Haystack zählen:

RAG,

Chatbots,

Agenten,

multimodale Fragen sowie

Informationsextraktion aus Dokumenten.

Haystack deckt funktional die volle Bandbreite von LLM-Projekten ab – inklusive Datenquellenintegration, Datenbereinigung und -vorverarbeitung, Modelle, Protokollierung und Instrumentierung.

Tiefgehendere Einblicke in Haystack bietet unser ausführlicher Test des Frameworks.

2. LangChain

LangChain verbindet Sprachmodelle mit Datenquellen und ermöglicht ihnen auch, mit ihrer Umgebung zu interagieren.

Dieses quelloffene Framework besteht aus sechs Modulen:

Model I/O​ ist ein Interface mit Sprachmodellen.

Data connection ist eine Schnittstelle mit anwendungsspezifischen Daten.

Chains​ konstruieren Call-Sequenzen.

Agents lassen Chains anhand übergeordneter Anweisungen auswählen, welche Tools verwendet werden sollen.

Memory speichert den Anwendungsstatus zwischen den Chain-Durchläufen.

Callbacks protokollieren und streamen Zwischenschritte jeder Chain.

Im Fall von LangChain gibt es zwei Arten von Sprachmodellen, LLMs und ChatModels. Erstere nutzen einen String als Input und geben auch einen solchen zurück. Zweiteren dient eine Liste von Nachrichten als Input, der Output ist eine ChatMessage.

Einen umfassenden Überblick über LangChain verschafft unser Grundlagenartikel zum Thema.

3. LlamaIndex

LlamaIndex ist darauf ausgelegt, Anwender dabei zu unterstützen, kontextbezogene LLM-Anwendungen auf die Beine zu stellen. Im Klartext ermöglicht dieses Framework also, Large Language Models und eigene Daten zusammenzubringen – etwa in Form eines Chatbots oder eines autonomen Agenten.

Dieses Framework stellt folgende Tools bereit, um Daten zu verarbeiten:

Data Connectors nehmen vorhandene Daten aus ihrer nativen Quelle und in ihrem nativen Format auf.

Data Indexes (auch Embeddings genannt), strukturieren Daten in Zwischendarstellungen.

Engines bieten natürlichsprachlichen Zugriff auf die Daten.

Agenten sind LLM-gestützte Knowledge Worker, die von Software-Tools unterstützt werden.

Integrationen für Observability-, Tracing- und Evaluierungs-Tools ermöglichen es, LLM-basierte App zu testen, zu bewerten und zu überwachen.

Ausführliche Infos zu LlamaIndex entnehmen Sie unserem umfassenden Test.

4. Semantic Kernel

Das quelloffene SDK Semantic Kernel übernimmt innerhalb des Open-Source-LLM-Stacks von Microsoft dieselbe Funktion wie die KI-Orchestrierung im internen Stack für Copilot: Es fungiert als Herz- und Verbindungsstück. Anders ausgedrückt: Semantic Kernel verbindet große Sprachmodelle mit Daten und Code.

Darüber hinaus ist es mit diesem Framework möglich, mit Hilfe von LLMs und Templates Pläne zu generieren. Das geht über das hinaus, was man mit Funktionsaufrufen erreichen kann, und ist ein Alleinstellungsmerkmal von Semantic Kernel. Die Funktion nimmt einen User Request entgegen und gibt einen Plan darüber zurück, wie dessen Anforderungen erfüllt werden können.

Semantic Kernel ist im Wesentlichen so etwas wie ein “Verkehrspolizist” für KI-Anwendungen, der:

KI-Services auswählt und aufruft,

Prompts rendert,

LLM-Outputs analysiert und

Funktionsergebnisse generiert.

In unserem englischsprachigen Review zu Semantic Kernel erfahren Sie mehr über dieses LLM-App-Framework. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die 4 wichtigsten LLM-App-Frameworks​ Weiterlesen »

Wer am Hyperscaler-Thron sägt​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?quality=50&strip=all 6487w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Oracle und Cloudflare nehmen das Hyperscaler-Triumvirat in die Zange.Tada Images | shutterstock.com Seit mehr als einem Jahrzehnt steht “Cloud” in erster Linie stellvertretend für Amazon Web Services (AWS), Microsoft Azure und Google Cloud (GCP). Doch die Hyperscaler-Dominanz könnte künftig schwinden. Denn sowohl Cloudflare als auch Oracle versuchen die Dominanz der großen Drei aufzubrechen. Cloudflare fokussiert Der Webhoster Cloudflare wandelt sich zunehmend zu einem vollwertigen Cloud Service. Das verdeutlicht unter anderem die Veröffentlichung von Cloudflare Containers. Damit können Entwickler containerisierte Applikationen über das globale Edge-Netzwerk des Anbieters ausführen, das wiederum eng mit der Serverless-Plattform Cloudflare Workers verzahnt ist. Das Ziel: Container möglichst einfach bereitzustellen. Laut Cloudflare sind dazu lediglich einige wenige Zeilen Code zu definieren. Eine komplexe Infrastruktur ist nicht erforderlich. Damit fokussiert Cloudflare weiter auf die Developer Experience und positioniert sich als Cloud-Plattform, die mühsame Infrastrukturarbeit abstrahiert. Das hat AWS vor Jahren bereits angestrebt – aber Cloudflare geht noch einen Schritt weiter. Statt alle erdenklichen Services anzubieten und dann von den Entwicklern zu erwarten, sich in einem komplexen Konstrukt zurechtzufinden, setzt Cloudflare auf Asketismus. Oder wie es die Finanzexperten von “The Motley Fool” im Rahmen einer Analyse ausdrücken: “Während Developer bei AWS virtuelle Server und Hunderte von komplexen Produkten zur Verfügung stehen, fokussiert Cloudflare darauf, deren Leben leichter zu machen.” Eine Stärke von Cloudflare ist dabei auch sein globales Netzwerk. Dank dieser Edge-Infrastruktur können Anwendungen auf Cloudflare-Basis praktisch überall Antworten mit geringer Latenz liefern – verspricht zumindest der Webhoster. Entwickler sollen ihren Code oder Container einmal erstellen und bereitstellen, das Netzwerk ihn dann automatisch in der Nähe des Benutzers ausführen. Regionen manuell auszuwählen oder sich um die geografische Skalierung kümmern, ist Cloudflare zufolge nicht mehr nötig – ein wesentlicher Unterschied zu AWS oder Azure.  Auch das Produktportfolio von Cloudflare unterscheidet sich deutlich von dem der Hyperscaler. Im Lauf der letzten Jahre hat sich der Anbieter zunehmend darum bemüht, mit seinem Produktportfolio die Anforderungen von Full-Stack-Anwendungen abzudecken. Auf dieses Ziel zahlen unter anderem ein:   die bereits genannte Serverless-Plattform (Workers), ein Konkurrenzangebot zu AWS S3 (R2), sowie eine SQL-Datenbank (D1; derzeit in der Beta-Phase). Dennoch gibt es bei Cloudflare noch Lücken, die geschlossen werden müssen, um AWS, Azure und Google Cloud wirklich irgendwann Paroli bieten zu können. Entwickler mit sehr spezifischen Anforderungen werden mit Cloudflare nämlich nicht unbedingt glücklich. Kurzum: Der Webhoster deckt die Grundlagen ab, aber nicht jede Nische. Um das zu ändern, wird das Unternehmen auch in Zukunft seine Services erweitern müssen. Über mangelhafte Nachfrage kann sich Cloudflare dennoch nicht beschweren: So gab der Webhoster im Rahmen seiner Geschäftsergebnisse für das erste Quartal 2025 bekannt, mit einem Kundenauftrag in Höhe von mehr als 100 Millionen Dollar den größten Deal seiner bisherigen Geschichte an Land gezogen zu haben – dank seiner Dev-Plattform Workers. Oracle meint’s ernst Während Cloudflare auf Entwickler und seine Edge-Infrastruktur setzt, adressiert Oracles Cloud Infrastructure (OCI) in erster Linie dessen historisch gewachsenen Enterprise-Kundenstamm. Diese Strategie scheint sich ebenfalls auszuzahlen: Zumindest verkündete der Konzern in seinem jüngsten Geschäftsbericht einen Umsatzsprung von elf Prozent im Jahresvergleich. Das hat Oracle in erster Linie erreicht, indem es sich seine Kernkompetenzen – Datenbanken und Unternehmensanwendungen – konzentriert und diese Cloud- und KI-zentriert ausgerichtet hat. Statt zu versuchen, OpenAI oder Google im KI-Bereich zu übertrumpfen, bietet der Konzern seinen Kunden die Möglichkeit, KI mit ihren eigenen Daten innerhalb der Oracle-Cloud zusammenzubringen. Über Machine-Learning-Funktionen, die direkt in die Datenbank integriert sind, verspricht der Konzern Anwendern zudem, Erkenntnisse aus ihren privaten Daten zu gewinnen, ohne diese an einen Drittanbieter weitergeben zu müssen. Davon abgesehen hat Oracle auch mit seinem Multicloud-Ansatz nicht wenige Marktbeobachter überrascht: Der Konzern hat seine Datenbank auf AWS, Google Cloud und Azure verfügbar gemacht – statt sich darauf zu versteifen, sämtliche Workloads ausschließlich in OCI-Rechenzentren ausführen zu wollen. Diese Flexibilität macht Oracles Technologie für Cloud-skeptische Kunden attraktiver.   Allerdings fehlt Oracle ein entscheidender Faktor, um AWS, GCP und Microsoft nachhaltig auf die Pelle zu rücken: die Akzeptanz der Entwickler. Denn in der Technologiewelt von heute sind Developer oft  das Zünglein an der Waage, wenn entschieden wird, welche Plattform sich am Ende durchsetzt. Das scheint man auch in der Führungsriege von Oracle erkannt zu haben und erste Maßnahmen ergriffen: So hat der Konzern eine kostenlose OCI-Option eingeführt und versucht, seine Preisstruktur transparenter und einfacher zu gestalten. Zwei Ansätze, ein Ziel Cloudflare und Oracle wollen die Hyperscaler an verschiedenen Fronten ins Visier nehmen: Cloudflare hat die Entwickler auf seiner Seite und muss sich in Enterprise-Szenarien beweisen, Oracle hingegen hat sich im Unternehmensumfeld bereits bewährt und muss die Dev-Gemeinschaft für sich gewinnen. Je nachdem, wie die beiden Unternehmen künftig agieren, könnten sie zunächst eigene Nischen innerhalb des Cloud-Marktes erschließen. An der Dominanz von AWS, Azure und GCP dürfte sich dennoch erst einmal nichts ändern. Aber die Cloud-Offensiven von Oracle und Cloudflare könnten dafür sorgen, dass der Druck auf die Hyperscaler wächst, sich weiterzuentwickeln. Unabhängig davon, wie das Rennen um die Cloud-Vorherrschaft weitergeht – Developer dürften davon plattformunabhängig profitieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Wer am Hyperscaler-Thron sägt​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?quality=50&strip=all 6487w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Tada-Images-shutterstock_2395507941_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Oracle und Cloudflare nehmen das Hyperscaler-Triumvirat in die Zange.Tada Images | shutterstock.com

Seit mehr als einem Jahrzehnt steht “Cloud” in erster Linie stellvertretend für Amazon Web Services (AWS), Microsoft Azure und Google Cloud (GCP). Doch die Hyperscaler-Dominanz könnte künftig schwinden. Denn sowohl Cloudflare als auch Oracle versuchen die Dominanz der großen Drei aufzubrechen.

Cloudflare fokussiert

Der Webhoster Cloudflare wandelt sich zunehmend zu einem vollwertigen Cloud Service. Das verdeutlicht unter anderem die Veröffentlichung von Cloudflare Containers. Damit können Entwickler containerisierte Applikationen über das globale Edge-Netzwerk des Anbieters ausführen, das wiederum eng mit der Serverless-Plattform Cloudflare Workers verzahnt ist. Das Ziel: Container möglichst einfach bereitzustellen. Laut Cloudflare sind dazu lediglich einige wenige Zeilen Code zu definieren. Eine komplexe Infrastruktur ist nicht erforderlich.

Damit fokussiert Cloudflare weiter auf die Developer Experience und positioniert sich als Cloud-Plattform, die mühsame Infrastrukturarbeit abstrahiert. Das hat AWS vor Jahren bereits angestrebt – aber Cloudflare geht noch einen Schritt weiter. Statt alle erdenklichen Services anzubieten und dann von den Entwicklern zu erwarten, sich in einem komplexen Konstrukt zurechtzufinden, setzt Cloudflare auf Asketismus. Oder wie es die Finanzexperten von “The Motley Fool” im Rahmen einer Analyse ausdrücken: “Während Developer bei AWS virtuelle Server und Hunderte von komplexen Produkten zur Verfügung stehen, fokussiert Cloudflare darauf, deren Leben leichter zu machen.”

Eine Stärke von Cloudflare ist dabei auch sein globales Netzwerk. Dank dieser Edge-Infrastruktur können Anwendungen auf Cloudflare-Basis praktisch überall Antworten mit geringer Latenz liefern – verspricht zumindest der Webhoster. Entwickler sollen ihren Code oder Container einmal erstellen und bereitstellen, das Netzwerk ihn dann automatisch in der Nähe des Benutzers ausführen. Regionen manuell auszuwählen oder sich um die geografische Skalierung kümmern, ist Cloudflare zufolge nicht mehr nötig – ein wesentlicher Unterschied zu AWS oder Azure. 

Auch das Produktportfolio von Cloudflare unterscheidet sich deutlich von dem der Hyperscaler. Im Lauf der letzten Jahre hat sich der Anbieter zunehmend darum bemüht, mit seinem Produktportfolio die Anforderungen von Full-Stack-Anwendungen abzudecken. Auf dieses Ziel zahlen unter anderem ein:  

die bereits genannte Serverless-Plattform (Workers),

ein Konkurrenzangebot zu AWS S3 (R2), sowie

eine SQL-Datenbank (D1; derzeit in der Beta-Phase).

Dennoch gibt es bei Cloudflare noch Lücken, die geschlossen werden müssen, um AWS, Azure und Google Cloud wirklich irgendwann Paroli bieten zu können. Entwickler mit sehr spezifischen Anforderungen werden mit Cloudflare nämlich nicht unbedingt glücklich. Kurzum: Der Webhoster deckt die Grundlagen ab, aber nicht jede Nische. Um das zu ändern, wird das Unternehmen auch in Zukunft seine Services erweitern müssen. Über mangelhafte Nachfrage kann sich Cloudflare dennoch nicht beschweren: So gab der Webhoster im Rahmen seiner Geschäftsergebnisse für das erste Quartal 2025 bekannt, mit einem Kundenauftrag in Höhe von mehr als 100 Millionen Dollar den größten Deal seiner bisherigen Geschichte an Land gezogen zu haben – dank seiner Dev-Plattform Workers.

Oracle meint’s ernst

Während Cloudflare auf Entwickler und seine Edge-Infrastruktur setzt, adressiert Oracles Cloud Infrastructure (OCI) in erster Linie dessen historisch gewachsenen Enterprise-Kundenstamm. Diese Strategie scheint sich ebenfalls auszuzahlen: Zumindest verkündete der Konzern in seinem jüngsten Geschäftsbericht einen Umsatzsprung von elf Prozent im Jahresvergleich.

Das hat Oracle in erster Linie erreicht, indem es sich seine Kernkompetenzen – Datenbanken und Unternehmensanwendungen – konzentriert und diese Cloud- und KI-zentriert ausgerichtet hat. Statt zu versuchen, OpenAI oder Google im KI-Bereich zu übertrumpfen, bietet der Konzern seinen Kunden die Möglichkeit, KI mit ihren eigenen Daten innerhalb der Oracle-Cloud zusammenzubringen. Über Machine-Learning-Funktionen, die direkt in die Datenbank integriert sind, verspricht der Konzern Anwendern zudem, Erkenntnisse aus ihren privaten Daten zu gewinnen, ohne diese an einen Drittanbieter weitergeben zu müssen.

Davon abgesehen hat Oracle auch mit seinem Multicloud-Ansatz nicht wenige Marktbeobachter überrascht: Der Konzern hat seine Datenbank auf AWS, Google Cloud und Azure verfügbar gemacht – statt sich darauf zu versteifen, sämtliche Workloads ausschließlich in OCI-Rechenzentren ausführen zu wollen. Diese Flexibilität macht Oracles Technologie für Cloud-skeptische Kunden attraktiver.  

Allerdings fehlt Oracle ein entscheidender Faktor, um AWS, GCP und Microsoft nachhaltig auf die Pelle zu rücken: die Akzeptanz der Entwickler. Denn in der Technologiewelt von heute sind Developer oft  das Zünglein an der Waage, wenn entschieden wird, welche Plattform sich am Ende durchsetzt. Das scheint man auch in der Führungsriege von Oracle erkannt zu haben und erste Maßnahmen ergriffen: So hat der Konzern eine kostenlose OCI-Option eingeführt und versucht, seine Preisstruktur transparenter und einfacher zu gestalten.

Zwei Ansätze, ein Ziel

Cloudflare und Oracle wollen die Hyperscaler an verschiedenen Fronten ins Visier nehmen: Cloudflare hat die Entwickler auf seiner Seite und muss sich in Enterprise-Szenarien beweisen, Oracle hingegen hat sich im Unternehmensumfeld bereits bewährt und muss die Dev-Gemeinschaft für sich gewinnen. Je nachdem, wie die beiden Unternehmen künftig agieren, könnten sie zunächst eigene Nischen innerhalb des Cloud-Marktes erschließen. An der Dominanz von AWS, Azure und GCP dürfte sich dennoch erst einmal nichts ändern.

Aber die Cloud-Offensiven von Oracle und Cloudflare könnten dafür sorgen, dass der Druck auf die Hyperscaler wächst, sich weiterzuentwickeln. Unabhängig davon, wie das Rennen um die Cloud-Vorherrschaft weitergeht – Developer dürften davon plattformunabhängig profitieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Wer am Hyperscaler-Thron sägt​ Weiterlesen »

Nach oben scrollen
×