Computerhaus Quickborn

Juli 2025

Pixel 9 Pro und Galaxy S25 Ultra im Vergleich: Welches Smartphone macht die besseren Bilder?​

Allgemein

Foundry | Alex Walker-Todd Das Google Pixel 9 Pro und das Samsung Galaxy S25 Ultra sind zwei der besten Handys, die Sie derzeit kaufen können, primär wegen ihrer guten Kameras. Wenn es Ihnen hauptsächlich ums Fotografieren geht: Wir vergleichen die Kamerafunktionen der beiden Geräte und sagen Ihnen, welches Smartphone die besseren Fotos liefert. Was ein gutes Fotohandy ausmacht, hat sich im Laufe der Jahre grundlegend gewandelt. Anfangs stand vordergründig die Anzahl der Megapixel im Fokus. Später rückten größere Pixel, vielfältige Objektive mit unterschiedlichen Brennweiten, Pixel-Binning und variable Blenden in den Vordergrund. Hinzu kamen immer ausgefeiltere Formen der optischen Bildstabilisierung. In jüngerer Zeit spielt vor allem die Integration von maschinellem Lernen und Künstlicher Intelligenz in die Bildverarbeitung eine zentrale Rolle. Das Google Pixel 9 Pro und das Samsung Galaxy S25 Ultra bieten all diese Technologien in unterschiedlichem Umfang. Ich habe mit beiden Geräten Hunderte von Fotos gemacht, um genau zu analysieren, wie sie bei unterschiedlichen Bedingungen und in verschiedenen Szenarien abschneiden. Hinweis: Sofern nicht anders angegeben, sehen Sie Aufnahmen mit dem Pixel 9 Pro auf der linken Seite und mit dem Galaxy S25 Ultra auf der rechten Seite. Der Hauptsensor Sehen wir uns an, wie der Hauptsensor jedes Smartphones mit einigen alltäglichen Umgebungen umgeht. Stellen Sie sich vor, Sie haben gerade ein Motiv entdeckt, Ihr Pixel 9 Pro oder Galaxy S25 Ultra herausgezogen, die Kamera-App geöffnet und den Auslöser betätigt, ohne irgendwelche Einstellungen zu ändern. So sehen dann die Ergebnisse der beiden Smartphones aus: St.-Pauls-Kathedrale Foundry | Alex Walker-Todd Foundry | Alex Walker-Todd Bei dieser hellen Szene haben beide Smartphones in Bezug auf Belichtung, Dynamikumfang und Detailreichtum eine hervorragende Leistung gebracht. Allerdings gibt es einen deutlichen Unterschied in der Art und Weise, wie diese Bilder verarbeitet wurden. Die Farben der beiden Modelle unterscheiden sich deutlich. Das Pixel neigt zu einem Magentaton, während das Galaxy einen stärkeren Gelbton aufweist. Das ist schon bei früheren Modellen beider Smartphone-Serien aufgefallen, aber der Kontrast ist immer wieder überraschend, wenn man die Ergebnisse vergleichbarer Geräte sieht. Die Aufnahme des Pixel 9 Pro liefert ein farblich gedämpfteres, aber kontrastreicheres Bild, das dem näher kommt, was man mit dem bloßen Auge sieht. Samsungs Vorliebe für aufwändigere Nachbearbeitung verleiht der Aufnahme des S25 Ultra hingegen einen bewussteren HDR-Look und leuchtendere Farben. Wer Wert auf Authentizität legt, ist mit dem Pixel gut bedient. Das Samsung liefert hier jedoch die Social-Media-tauglichere Aufnahme. The Gherkin Foundry | Alex Walker-Todd Foundry | Alex Walker-Todd Das Glasdach auf der rechten Seite des Bildes unterstreicht die Vorliebe des Pixel für gedämpfte Authentizität, während die Verarbeitung des Dynamikbereichs die umliegenden Elemente – wie das pflaumenfarbige Mauerwerk auf der linken Seite des Bildes – unterbelichtet lässt. Die HDR-Verarbeitung von Samsung belichtet die gesamte Szene besser und bewahrt in den hellsten Bereichen der Aufnahme auch mehr Wolkendetails als das Pixel, allerdings sind die Körnung und der Detailverlust in den dunkleren Bereichen auch viel deutlicher. Atrium Foundry | Alex Walker-Todd Foundry | Alex Walker-Todd Die indirekte und künstliche Beleuchtung in dieser Atrium-Aufnahme stellt jedes Kamerahandy vor eine andere Herausforderung. Das Pixel hat eine dramatischere Szene eingefangen, die den dunkelsten Bereichen der Umgebung mehr Raum lässt, um authentisch zu wirken, im Vergleich zu der flacheren, insgesamt helleren Aufnahme des S25 Ultra.Samsungs überlegene HDR-Verarbeitung schafft es, einen Teil des Himmels durch das große, helle Fenster auf der linken Seite des Bildes beizubehalten, der bei der Pixel-Aufnahme sonst überbelichtet ist (wo das Smartphone auch Schwierigkeiten hat, die Lichtstreuung durch die kreisförmige hängende Skulptur auszugleichen). Durch die stärkere Bearbeitung des Galaxy sind die Farben übersättigt, aber die Details sind im Vergleich zum Pixel schärfer (wie die Nieten in den Balken am oberen Rand des Bildes zeigen). Zoom Es dürfte nicht überraschen, dass das Galaxy S25 Ultra wie seine Vorgänger besser ausgestattet ist als das Pixel, wenn es um die Hardware für Aufnahmen aus der Entfernung geht. Googles Pixel 9 Pro kann mit 0,5-facher, einfacher, zweifacher, fünffacher, zehnfacher und in der Spitze dreißigfacher Vergrößerung fotografieren, wobei das Sensor-Cropping einen verlustfreien optischen Zoom bei zweifachem und zehnfachem Zoom ermöglicht, ohne dass zusätzliche Sensoren erforderlich sind. Das Samsung verfügt über spezielle Brennweiten von 0,6-fach, einfach, zweifach, dreifach, fünffach, zehnfach, dreißigfach und hundertfach, ermöglicht Sensor-Cropping für Zweifach- und Zehnfach-Vergrößerung und hat einen zusätzlichen Dreifach-Telezoom-Sensor, der beim Pixel-Smartphone komplett fehlt. Wie bei anderen Aufnahmen nimmt das Pixel einen wärmeren, fast magentafarbenen Farbton an, während das S25 Ultra über den gesamten Zoombereich einen besseren Weißabgleich bietet. Obwohl Kontrast, Details und Dynamikumfang bei beiden Smartphones auf ähnlichem Niveau liegen, gelingt es dem Pixel dank der Nachbearbeitung besser, feine Details über alle Brennweiten hinweg zu erhalten. Beim Galaxy S25 Ultra hingegen zeigt sich ein deutlicher Unterschied in der Detailtreue zwischen optisch gezoomten Aufnahmen und solchen, die durch einen Sensorschnitt entstanden sind. Schwaches Licht Ein echter Test für jede Handykamera ist, wie sie mit Aufnahmen bei wenig Licht umgeht. Weniger Licht zwingt die Smartphones zu Belichtungsreihen und zur Kombination mehrerer Aufnahmen, um Farben akkurat darzustellen und gleichzeitig unerwünschte Artefakte wie Unschärfe, Körnung und Rauschen zu minimieren. Foundry | Alex Walker-Todd Foundry | Alex Walker-Todd Beim Pixel 9 Pro sorgt der leicht ins Magenta verschobene Farbraum für eine fast traumhafte Bildwirkung: Der Himmel zeigt sich in violetten Tönen, die über Rosa in ein tiefes Zinnoberrot übergehen. Das Samsung hingegen bietet einen realistischeren Weißabgleich mit naturgetreueren Blautönen und einer erneut typischen Tendenz zu Gelbtönen in Richtung des Horizonts. Die Detailgenauigkeit ist bei der Betrachtung der Silhouetten in der Szene bei beiden Geräten ziemlich gleich. Allerdings macht das Pixel hier trotz der künstlerischen Interpretation der Farben die besseren Aufnahmen. Auf dem Foto des S25 Ultra fehlen die Farbstreifen am Himmel. Bildrauschen und Körnung in den dunkelsten Bildbereichen sind geringer. Auch das Bokeh im Vordergrund (am deutlichsten im Sand am unteren Bildrand) ist beim Pixel besser als beim Ultra, ein Aspekt, in dem Samsungs Top-Handys bekanntermaßen stark sind. Foundry | Alex Walker-Todd Foundry | Alex Walker-Todd Porträt-Modus Standardmäßig machen beide Smartphones im Porträt-Modus Aufnahmen mit einem zweifachen Bildausschnitt, was der Brennweite des menschlichen Auges am nächsten kommt und die Motive natürlicher aussehen lassen. Wenn Sie allerdings auf Vielseitigkeit in diesem Modus Wert legen, können Sie mit dem Galaxy S25 Ultra auch Porträtaufnahmen mit den Brennweiten einfach, dreifach und fünffach machen, während Sie beim Pixel 9 Pro auf 1,5-fach und zweifach beschränkt sind. Das Pixel liefert in seinen Aufnahmen einen natürlicheren Look: Dunkle Bereiche bleiben dunkel, die Hauttöne sind ansprechend und die Details sind gut. Das S25 übertrifft das 9 Pro mit seiner überlegenen Kantenerkennung, die nicht an Haarsträhnen hängenbleibt und sowohl das Motiv besser vom Hintergrund trennt als auch ein attraktiveres, realistischeres Bokeh liefert. Nicht so überzeugend ist die Nachbearbeitung. Die gesamte Aufnahme ist gleichmäßig heller, aber es ist offensichtlich, dass auch das Gesicht und insbesondere die Augen aufgehellt und verbessert wurden. Das Ergebnis ist erneut ein Bild, das den Anschein erweckt, als sei es absichtlich mit HDR bearbeitet worden – im Guten wie im Schlechten. Selfies Foundry | Alex Walker-Todd Foundry | Alex Walker-Todd Ähnlich wie bei der Porträtaufnahme werden Selfies auf beiden Smartphones standardmäßig beschnitten. Für diesen Vergleich habe ich jedoch das gesamte Sichtfeld genommen, das die Frontkamera jedes Handys aufnehmen kann – wichtig für alle, die gerne Gruppenfotos machen. Dabei wird sofort deutlich, dass Sie mit dem Pixel mehr Bildfläche haben. Basierend auf den obigen Beispielen scheint der Dynamikumfang ähnlich zu sein, wobei die Farbwiedergabe bei beiden Handys viel konsistenter ist. Das S25 Ultra nimmt zwar das lebendigere Bild auf, aber der Unterschied ist weit weniger ausgeprägt als bei den rückseitigen Kameras. Die HDR-Verarbeitung erzeugt jedoch einen seltsamen Bloom-Effekt um die Blüten auf der linken Seite des Bildes, der bei der genaueren Aufnahme des Pixel 9 Pro nicht zu sehen ist. Das Pixel schafft eine gleichmäßigere Belichtung auf dem Gesicht, mit authentischeren Hauttönen und besserer Detailtreue im Vergleich zum S25 Ultra. Video Beide Smartphones bieten umfangreiche Videofunktionen – etwa den “Video Boost” des Pixel oder die LOG-Videoaufnahme des S25 Ultra. Für diesen Test haben wir jedoch bewusst auf Spezialmodi verzichtet und stattdessen die Standardaufnahmen in 4K mit 60 fps direkt miteinander verglichen. Foundry | Alex Walker-Todd Das Pixel ist hier durchweg schwächer, mit mehr Rauschen, in dunkleren Bildbereichen und bei schnellen Bewegungen – so, als ob die genialen Bildverarbeitungsalgorithmen des Unternehmens nicht an Video auf dem Gerät angepasst werden können. Im Vergleich wirken die Videos des S25 Ultra sauberer und etwas lebendiger – ähnlich wie die Fotos – und auch der Ton überzeugt mehr, da er etwas mehr Tiefe aufweist als die Audioaufnahmen des Pixel. Beide Smartphones bieten mit dem “Audio Eraser” ein leistungsfähiges Werkzeug zur Geräuschisolierung, das etwa Sprache, Naturklänge oder Wind gezielt herausfiltern kann – auf Wunsch sogar vollständig. Obwohl diese Funktion erstaunlich zuverlässig arbeitet und die Klangtreue meist so gut erhält, dass das Ergebnis nicht künstlich bearbeitet oder überkomprimiert wirkt, klingt die Audiowiedergabe des S25 Ultra insgesamt einen Hauch überzeugender als die des Pixel. Fazit Beide Smartphones treffen in ausgewählten Szenarien deutlich unterschiedliche Entscheidungen hinsichtlich Licht, Gesichter, Farben und mehr. Das Pixel beweist seinen Wert für diejenigen, die authentischere Bilder mit größerem Kontrast suchen. Die Bilder haben einen Magenta-Farbstich, der bei schwächerem Licht noch ausgeprägter zu sein scheint, aber die Ergebnisse sind dennoch beeindruckend, insbesondere wenn es um Rauschen und Körnung geht. Samsungs Vorliebe für die Verarbeitung setzt sich auch beim Kamerasystem des S25 Ultra fort. Die Aufnahmen haben durchweg einen ausgeprägten HDR-Look, was bedeutet, dass es manchmal die Dynamik einer Szene zerstört, indem alles aufgehellt wird. Dennoch sorgt die Hardware für bessere Zoomaufnahmen und Videos, während die Verarbeitung für ein schönes Bokeh bei Porträts und einen besseren Weißabgleich und ein besseres Farbmanagement sorgt. Wählen Sie das Pixel 9 Pro für Fotografie bei schwachem Licht Makroaufnahmen KI-Foto-/Videoverbesserung Wählen Sie das Galaxy S25 Ultra für Porträtfotografie Zoom-Fotografie Videoaufnahmen (PC-Welt) 

Pixel 9 Pro und Galaxy S25 Ultra im Vergleich: Welches Smartphone macht die besseren Bilder?​ Foundry | Alex Walker-Todd

Das Google Pixel 9 Pro und das Samsung Galaxy S25 Ultra sind zwei der besten Handys, die Sie derzeit kaufen können, primär wegen ihrer guten Kameras. Wenn es Ihnen hauptsächlich ums Fotografieren geht: Wir vergleichen die Kamerafunktionen der beiden Geräte und sagen Ihnen, welches Smartphone die besseren Fotos liefert.

Was ein gutes Fotohandy ausmacht, hat sich im Laufe der Jahre grundlegend gewandelt. Anfangs stand vordergründig die Anzahl der Megapixel im Fokus. Später rückten größere Pixel, vielfältige Objektive mit unterschiedlichen Brennweiten, Pixel-Binning und variable Blenden in den Vordergrund. Hinzu kamen immer ausgefeiltere Formen der optischen Bildstabilisierung. In jüngerer Zeit spielt vor allem die Integration von maschinellem Lernen und Künstlicher Intelligenz in die Bildverarbeitung eine zentrale Rolle.

Das Google Pixel 9 Pro und das Samsung Galaxy S25 Ultra bieten all diese Technologien in unterschiedlichem Umfang. Ich habe mit beiden Geräten Hunderte von Fotos gemacht, um genau zu analysieren, wie sie bei unterschiedlichen Bedingungen und in verschiedenen Szenarien abschneiden.

Hinweis: Sofern nicht anders angegeben, sehen Sie Aufnahmen mit dem Pixel 9 Pro auf der linken Seite und mit dem Galaxy S25 Ultra auf der rechten Seite.

Der Hauptsensor

Sehen wir uns an, wie der Hauptsensor jedes Smartphones mit einigen alltäglichen Umgebungen umgeht.

Stellen Sie sich vor, Sie haben gerade ein Motiv entdeckt, Ihr Pixel 9 Pro oder Galaxy S25 Ultra herausgezogen, die Kamera-App geöffnet und den Auslöser betätigt, ohne irgendwelche Einstellungen zu ändern. So sehen dann die Ergebnisse der beiden Smartphones aus:

St.-Pauls-Kathedrale

Foundry | Alex Walker-Todd

Foundry | Alex Walker-Todd

Bei dieser hellen Szene haben beide Smartphones in Bezug auf Belichtung, Dynamikumfang und Detailreichtum eine hervorragende Leistung gebracht. Allerdings gibt es einen deutlichen Unterschied in der Art und Weise, wie diese Bilder verarbeitet wurden.

Die Farben der beiden Modelle unterscheiden sich deutlich. Das Pixel neigt zu einem Magentaton, während das Galaxy einen stärkeren Gelbton aufweist. Das ist schon bei früheren Modellen beider Smartphone-Serien aufgefallen, aber der Kontrast ist immer wieder überraschend, wenn man die Ergebnisse vergleichbarer Geräte sieht.

Die Aufnahme des Pixel 9 Pro liefert ein farblich gedämpfteres, aber kontrastreicheres Bild, das dem näher kommt, was man mit dem bloßen Auge sieht. Samsungs Vorliebe für aufwändigere Nachbearbeitung verleiht der Aufnahme des S25 Ultra hingegen einen bewussteren HDR-Look und leuchtendere Farben.

Wer Wert auf Authentizität legt, ist mit dem Pixel gut bedient. Das Samsung liefert hier jedoch die Social-Media-tauglichere Aufnahme.

The Gherkin

Foundry | Alex Walker-Todd

Foundry | Alex Walker-Todd

Das Glasdach auf der rechten Seite des Bildes unterstreicht die Vorliebe des Pixel für gedämpfte Authentizität, während die Verarbeitung des Dynamikbereichs die umliegenden Elemente – wie das pflaumenfarbige Mauerwerk auf der linken Seite des Bildes – unterbelichtet lässt.

Die HDR-Verarbeitung von Samsung belichtet die gesamte Szene besser und bewahrt in den hellsten Bereichen der Aufnahme auch mehr Wolkendetails als das Pixel, allerdings sind die Körnung und der Detailverlust in den dunkleren Bereichen auch viel deutlicher.

Atrium

Foundry | Alex Walker-Todd

Foundry | Alex Walker-Todd

Die indirekte und künstliche Beleuchtung in dieser Atrium-Aufnahme stellt jedes Kamerahandy vor eine andere Herausforderung. Das Pixel hat eine dramatischere Szene eingefangen, die den dunkelsten Bereichen der Umgebung mehr Raum lässt, um authentisch zu wirken, im Vergleich zu der flacheren, insgesamt helleren Aufnahme des S25 Ultra.Samsungs überlegene HDR-Verarbeitung schafft es, einen Teil des Himmels durch das große, helle Fenster auf der linken Seite des Bildes beizubehalten, der bei der Pixel-Aufnahme sonst überbelichtet ist (wo das Smartphone auch Schwierigkeiten hat, die Lichtstreuung durch die kreisförmige hängende Skulptur auszugleichen).

Durch die stärkere Bearbeitung des Galaxy sind die Farben übersättigt, aber die Details sind im Vergleich zum Pixel schärfer (wie die Nieten in den Balken am oberen Rand des Bildes zeigen).

Zoom

Es dürfte nicht überraschen, dass das Galaxy S25 Ultra wie seine Vorgänger besser ausgestattet ist als das Pixel, wenn es um die Hardware für Aufnahmen aus der Entfernung geht.

Googles Pixel 9 Pro kann mit 0,5-facher, einfacher, zweifacher, fünffacher, zehnfacher und in der Spitze dreißigfacher Vergrößerung fotografieren, wobei das Sensor-Cropping einen verlustfreien optischen Zoom bei zweifachem und zehnfachem Zoom ermöglicht, ohne dass zusätzliche Sensoren erforderlich sind.

Das Samsung verfügt über spezielle Brennweiten von 0,6-fach, einfach, zweifach, dreifach, fünffach, zehnfach, dreißigfach und hundertfach, ermöglicht Sensor-Cropping für Zweifach- und Zehnfach-Vergrößerung und hat einen zusätzlichen Dreifach-Telezoom-Sensor, der beim Pixel-Smartphone komplett fehlt.

Wie bei anderen Aufnahmen nimmt das Pixel einen wärmeren, fast magentafarbenen Farbton an, während das S25 Ultra über den gesamten Zoombereich einen besseren Weißabgleich bietet.

Obwohl Kontrast, Details und Dynamikumfang bei beiden Smartphones auf ähnlichem Niveau liegen, gelingt es dem Pixel dank der Nachbearbeitung besser, feine Details über alle Brennweiten hinweg zu erhalten. Beim Galaxy S25 Ultra hingegen zeigt sich ein deutlicher Unterschied in der Detailtreue zwischen optisch gezoomten Aufnahmen und solchen, die durch einen Sensorschnitt entstanden sind.

Schwaches Licht

Ein echter Test für jede Handykamera ist, wie sie mit Aufnahmen bei wenig Licht umgeht.

Weniger Licht zwingt die Smartphones zu Belichtungsreihen und zur Kombination mehrerer Aufnahmen, um Farben akkurat darzustellen und gleichzeitig unerwünschte Artefakte wie Unschärfe, Körnung und Rauschen zu minimieren.

Foundry | Alex Walker-Todd

Foundry | Alex Walker-Todd

Beim Pixel 9 Pro sorgt der leicht ins Magenta verschobene Farbraum für eine fast traumhafte Bildwirkung: Der Himmel zeigt sich in violetten Tönen, die über Rosa in ein tiefes Zinnoberrot übergehen. Das Samsung hingegen bietet einen realistischeren Weißabgleich mit naturgetreueren Blautönen und einer erneut typischen Tendenz zu Gelbtönen in Richtung des Horizonts.

Die Detailgenauigkeit ist bei der Betrachtung der Silhouetten in der Szene bei beiden Geräten ziemlich gleich. Allerdings macht das Pixel hier trotz der künstlerischen Interpretation der Farben die besseren Aufnahmen. Auf dem Foto des S25 Ultra fehlen die Farbstreifen am Himmel. Bildrauschen und Körnung in den dunkelsten Bildbereichen sind geringer.

Auch das Bokeh im Vordergrund (am deutlichsten im Sand am unteren Bildrand) ist beim Pixel besser als beim Ultra, ein Aspekt, in dem Samsungs Top-Handys bekanntermaßen stark sind.

Foundry | Alex Walker-Todd

Foundry | Alex Walker-Todd

Porträt-Modus

Standardmäßig machen beide Smartphones im Porträt-Modus Aufnahmen mit einem zweifachen Bildausschnitt, was der Brennweite des menschlichen Auges am nächsten kommt und die Motive natürlicher aussehen lassen.

Wenn Sie allerdings auf Vielseitigkeit in diesem Modus Wert legen, können Sie mit dem Galaxy S25 Ultra auch Porträtaufnahmen mit den Brennweiten einfach, dreifach und fünffach machen, während Sie beim Pixel 9 Pro auf 1,5-fach und zweifach beschränkt sind.

Das Pixel liefert in seinen Aufnahmen einen natürlicheren Look: Dunkle Bereiche bleiben dunkel, die Hauttöne sind ansprechend und die Details sind gut.

Das S25 übertrifft das 9 Pro mit seiner überlegenen Kantenerkennung, die nicht an Haarsträhnen hängenbleibt und sowohl das Motiv besser vom Hintergrund trennt als auch ein attraktiveres, realistischeres Bokeh liefert.

Nicht so überzeugend ist die Nachbearbeitung. Die gesamte Aufnahme ist gleichmäßig heller, aber es ist offensichtlich, dass auch das Gesicht und insbesondere die Augen aufgehellt und verbessert wurden.

Das Ergebnis ist erneut ein Bild, das den Anschein erweckt, als sei es absichtlich mit HDR bearbeitet worden – im Guten wie im Schlechten.

Selfies

Foundry | Alex Walker-Todd

Foundry | Alex Walker-Todd

Ähnlich wie bei der Porträtaufnahme werden Selfies auf beiden Smartphones standardmäßig beschnitten. Für diesen Vergleich habe ich jedoch das gesamte Sichtfeld genommen, das die Frontkamera jedes Handys aufnehmen kann – wichtig für alle, die gerne Gruppenfotos machen.

Dabei wird sofort deutlich, dass Sie mit dem Pixel mehr Bildfläche haben.

Basierend auf den obigen Beispielen scheint der Dynamikumfang ähnlich zu sein, wobei die Farbwiedergabe bei beiden Handys viel konsistenter ist.

Das S25 Ultra nimmt zwar das lebendigere Bild auf, aber der Unterschied ist weit weniger ausgeprägt als bei den rückseitigen Kameras. Die HDR-Verarbeitung erzeugt jedoch einen seltsamen Bloom-Effekt um die Blüten auf der linken Seite des Bildes, der bei der genaueren Aufnahme des Pixel 9 Pro nicht zu sehen ist.

Das Pixel schafft eine gleichmäßigere Belichtung auf dem Gesicht, mit authentischeren Hauttönen und besserer Detailtreue im Vergleich zum S25 Ultra.

Video

Beide Smartphones bieten umfangreiche Videofunktionen – etwa den “Video Boost” des Pixel oder die LOG-Videoaufnahme des S25 Ultra. Für diesen Test haben wir jedoch bewusst auf Spezialmodi verzichtet und stattdessen die Standardaufnahmen in 4K mit 60 fps direkt miteinander verglichen.

Foundry | Alex Walker-Todd

Das Pixel ist hier durchweg schwächer, mit mehr Rauschen, in dunkleren Bildbereichen und bei schnellen Bewegungen – so, als ob die genialen Bildverarbeitungsalgorithmen des Unternehmens nicht an Video auf dem Gerät angepasst werden können.

Im Vergleich wirken die Videos des S25 Ultra sauberer und etwas lebendiger – ähnlich wie die Fotos – und auch der Ton überzeugt mehr, da er etwas mehr Tiefe aufweist als die Audioaufnahmen des Pixel.

Beide Smartphones bieten mit dem “Audio Eraser” ein leistungsfähiges Werkzeug zur Geräuschisolierung, das etwa Sprache, Naturklänge oder Wind gezielt herausfiltern kann – auf Wunsch sogar vollständig.

Obwohl diese Funktion erstaunlich zuverlässig arbeitet und die Klangtreue meist so gut erhält, dass das Ergebnis nicht künstlich bearbeitet oder überkomprimiert wirkt, klingt die Audiowiedergabe des S25 Ultra insgesamt einen Hauch überzeugender als die des Pixel.

Fazit

Beide Smartphones treffen in ausgewählten Szenarien deutlich unterschiedliche Entscheidungen hinsichtlich Licht, Gesichter, Farben und mehr.

Das Pixel beweist seinen Wert für diejenigen, die authentischere Bilder mit größerem Kontrast suchen. Die Bilder haben einen Magenta-Farbstich, der bei schwächerem Licht noch ausgeprägter zu sein scheint, aber die Ergebnisse sind dennoch beeindruckend, insbesondere wenn es um Rauschen und Körnung geht.

Samsungs Vorliebe für die Verarbeitung setzt sich auch beim Kamerasystem des S25 Ultra fort. Die Aufnahmen haben durchweg einen ausgeprägten HDR-Look, was bedeutet, dass es manchmal die Dynamik einer Szene zerstört, indem alles aufgehellt wird. Dennoch sorgt die Hardware für bessere Zoomaufnahmen und Videos, während die Verarbeitung für ein schönes Bokeh bei Porträts und einen besseren Weißabgleich und ein besseres Farbmanagement sorgt.

Wählen Sie das Pixel 9 Pro für

Fotografie bei schwachem Licht

Makroaufnahmen

KI-Foto-/Videoverbesserung

Wählen Sie das Galaxy S25 Ultra für

Porträtfotografie

Zoom-Fotografie

Videoaufnahmen

(PC-Welt)

Pixel 9 Pro und Galaxy S25 Ultra im Vergleich: Welches Smartphone macht die besseren Bilder?​ Weiterlesen »

Huion Kamvas 16 (Gen 3) im Test: Grafik-Tablett mit vielen Funktionen zum fairen Preis​

Allgemein

Jérémie Kaiser Auf einen Blick Pro Gutes Preis-Leistungs-Verhältnis Bedienelement für Shortcuts Tolles Zeichenerlebnis Gute Reaktionszeit Kontra Firmeneigene Software müsste verbessert und erweitert werden Qualität des mitgelieferten Ständers ist fragil Fazit Das Kamvas 16 (Gen 3) (hier bei Amazon erhältlich) ist ein solides Grafikdisplay, das im Alltag richtig Spaß macht. Besonders die Stiftqualität überzeugt: präzise, angenehm in der Hand und reaktionsschnell. Ein Highlight ist das Bedienelement am Bildschirmrand, mit dem sich bequem Shortcuts nutzen oder ins Bild zoomen lässt. Das Display ist für Rechts- und Linkshänder geeignet.Der mitgelieferte Standfuß ist stabil, wirkt aber billig verarbeitet. Auch die Software könnte Feinschliff vertragen: Die Übersetzung ist holprig, mehrere Profile für die Button-Belegung wären wünschenswert. Ein Stolperstein: In meinem Fall musste ich eine andere Pen-Software deinstallieren, damit der Huion-Treiber lief.Trotz Schwächen vergebe ich vier von fünf Sternen, denn das Arbeiten am Display überzeugt. Wenn Huion jetzt noch die Schwachstellen bei der Software und Verarbeitungsqualität nachlegt, wäre dieses Modell ganz klar mein Favorit. Für 539 Euro bekommt man ein gutes Gerät inklusive Ständer. Zum Vergleich: Das neue Wacom Cintiq 16 kostet regulär 780 Euro. Wer vielleicht meinen Testbericht vom Grafiktablett Artist Pro 22 (Gen 2) der Firma XP-Pen gelesen hat, weiß, dass ich gerne zeichne. Heute komme ich zeitlich nicht mehr so oft dazu wie früher, aber das Knowhow ist nach wie vor da. Darum würde ich sagen, ich bringe ein gewisses Maß an Erfahrung mit, wenn es um das digitale Zeichnen geht. Und das ist relevant, wenn es um das Testen eines Grafiktabletts in dem Preissegment geht. Heute sehen wir uns nämlich das Kamvas 16 (Gen 3) der chinesischen Firma Huion an (hier bei Amazon erhältlich), das Pendant zum Wacom Cintiq 16. Huion wurde 2011 gegründet und stellt hauptsächlich Zeichentabletts und Stift-Displays her. Es ist mein erstes Gerät von Huion. Für diesen Test habe ich mir vorgenommen meinen absoluten Lieblingscomichelden nachzumalen: Gaston Lagaffe von Franquin. Das Huion Kamvas 16 (Gen 3) ist daJérémie Kaiser Erster Eindruck: Das Huion Kamvas 16 (Gen 3) Beim Auspacken macht das Kamvas 16 (Gen 3) einen aufgeräumten Eindruck. Die Verpackung ist schlicht gehalten, wirkt aber hochwertig, nichts Überladenes, aber dennoch ansprechend. Das Tablet ist werkseitig farbkalibriertJérémie Kaiser Was direkt ins Auge fällt: Oben auf dem Display liegt ein Papier: Das „Huion Pen Display Color Calibration Report“. Das ist erfreulich, denn dieser Bericht zeigt, dass das Display werkseitig farbkalibriert wurde. Das heißt, dass das Tablet mit professioneller Farbtreue ausgeliefert wird. Das ist gerade für alle, die mit Farben arbeiten (Design, Illustration, …), ein echter Pluspunkt. Alle Teile sind sicher und ordentlich verstaut. Alles ist ordentlich verpacktJérémie Kaiser Der Stift ist leicht und liegt angenehm in der Hand. Allerdings fühlt sich das Material des Griffbereichs etwas rutschig an. Die beiden seitlichen Tasten sind nicht klar voneinander unterscheidbar, weder haptisch noch vom Druckgefühl her. Man spürt kaum, ob man gedrückt hat. Hier würde ich mir mehr taktiles Feedback wünschen. Die Stiftspitze kann bei großer Abnutzung – wie auch bei anderen Anbietern auch – gewechselt werden. Hier finde ich die Lösung zur Aufbewahrung der Spitzen äußerst spannend. Aber dazu später. Auffällig war allerdings ein beißender, künstlicher Geruch am Gummigriff des Stifts. Wir haben nachgefragt: Das Material entspricht der REACH-Konformität und die Gummiteile sind sicher. Die Dokumente liegen uns vor. Den Stift eine Weile an der frischen Luft liegen lassen löst das Problem. Der Stift zum Kamvas 16 (Gen 3)Jérémie Kaiser Der beigelegte Tablet-Ständer (ST300) wirkt beim ersten Anfassen eher enttäuschend: viel Kunststoff, wenig Gewicht, kein hochwertiges Gefühl. Ob er im Arbeitsalltag dennoch nützlich ist, wird der Langzeittest zeigen. Immerhin: Es ist überhaupt ein Ständer dabei, das ist keine Selbstverständlichkeit. Der beigelegte Ständer fühlt sich qualitativ nicht hochwertig anJérémie Kaiser Der beiliegende Handschuh ist Standard und passt mir einwandfrei. Wie auch bei den anderen Tablets dürfte er aber keinesfalls kleiner ausfallen. Zum Vergleich: Meine Hand ist ca. 19 cm groß. Der beiliegende Handschuh ist Standard und passt, dürfte aber nicht größer seinJérémie Kaiser Das Tablet selbst macht dagegen einen sehr guten ersten Eindruck. Es ist leicht und schlank. Links am Rand sitzen mehrere Bedienelemente: der Power-Knopf, zwei Drehräder mit zusätzlichen Tasten und dazwischen sechs weitere große Funktionstasten. Diese wirken solide und langlebig. Besonders praktisch: Die Tasten unterscheiden sich spürbar dank Tastfühlpunkten, was die Orientierung bei der Arbeit erleichtert. Da das Kamvas 16 (Gen 3) keine separate Shortcut-Tastatur besitzt, sind diese Tasten eine sehr gute Lösung, um beispielsweise Zoom, Pinselgröße oder Werkzeugwechsel schnell zu steuern. Das Kamvas-16-(Gen 3)-Display: Guter erster EindruckJérémie Kaiser Jérémie Kaiser Das Display fühlt sich beim ersten Darüberstreichen besonders gut an: angenehm matt, leicht texturiert. Der Stift gleitet nicht zu glatt, sondern bietet ein fast papierähnliches Gefühl, das dem analogen Arbeiten sehr nahekommt. An der Seite, an der sich das Logo befindet, sind zwei USB-C-Buchsen verbaut. Jérémie Kaiser Inbetriebnahme des Kamvas 16 (Gen 3) Für den Anschluss des Huion Kamvas 16 (Gen 3) stehen Ihnen zwei Möglichkeiten zur Verfügung: Entweder verwenden Sie das 3-in-1-Kabel (HDMI, USB und Strom in einem) oder Sie greifen zur zweiten Variante mit zwei USB-C-zu-USB-C-Kabeln. Ich habe mich in diesem Fall für die zweite Option entschieden, einfach, weil dadurch bei mir weniger dicke Kabel auf dem Schreibtisch liegen. In meinem Fall hätte das mitgelieferte USB-C-Kabel für die Stromversorgung allerdings ruhig ein wenig länger sein dürfen. Spannend an der USB-C-Variante: Sie können das Grafiktablett nicht nur mit einem PC, sondern auch direkt mit einem Smartphone oder Tablet verbinden. Sobald alles angeschlossen ist, geht’s an die Software. Laden Sie dafür den passenden Treiber von der offiziellen Huion-Website herunter. Achten Sie beim Download unbedingt darauf, das richtige Modell auszuwählen: „Kamvas 16 (Gen 3) (GS1563)“. Suchen sie am besten nach „Kamvas 16 (Gen 3). Ansonsten: der entsprechende Eintrag versteckt sich ein Stück weiter unten in der Liste. Die Huion Tablet Software Die Huion Tablet Software bietet drei Hauptreiter: Stiftanzeige, Digitaler Stift und Store, wobei letzteres ein direkter Link zum Huion-Store ist und sich dabei der Browser öffnet. Die Huion Tablet Software bietet drei Hauptreiter: Stiftanzeige, Digitaler Stift und StoreJérémie Kaiser Unter dem Hauptmenü „Stiftanzeige“, womit das Grafiktablett gemeint ist, hat man zum einen über das Untermenü „Taste drücken“ die Möglichkeit die Tasten des Bedienelements am Rand des Tabletts einzustellen. Zum anderen kann man unter „Arbeitsbereich“ das Display anpassen. Hier muss man unbedingt vor der ersten Nutzung die Monitor-Kalibrierung durchführen, damit das Display den Stift auch richtig erkennt. Huion Software: Display anpassenJérémie Kaiser Unter dem Hauptmenü „Digitaler Stift“ kann man unter „Taste drücken“ die Tasten des Stifts einstellen und unter „Anpassung der Druckempfindlichkeit“ den Stift anpassen. Huion Software: Stift anpassenJérémie Kaiser In meinem Fall hat nach der Kalibrierung und Schließen des Treibers plötzlich das Display den Stift nicht mehr erkannt. Sobald man im Huion-Programm ist, funktioniert der Stift wieder, minimiert man das Fenster wird der Stift nicht mehr erkannt. Ein- und Ausschalten des Tabletts und ein Neustart genügten bei mir nicht. Das ist ärgerlich und nach einer kurzen Internetrecherche auch kein Einzelfall. Wenn man unter „Digitaler Stift“ > „Taste drücken“ die Option „Windows-Tinte aktivieren“ (also Windows Ink) deaktiviert, dann geht der Stift zwar, aber die Druckerkennung nicht. Das Tablett wird von Windows erkannt. Also wurde der Treiber neu installiert. Hier konnte gleich die Backup-Möglichkeit getestet werden, die in den Einstellungen der Huion-Software zu finden ist und einwandfrei funktioniert hat. Das Neuinstallieren hat das Problem für eine Arbeitssession behoben, am nächsten Tag wurde der Stift erneut nicht mehr erkannt. Die Knöpfe funktionieren aber noch. Für einen einfachen Nutzer, der auf „Plug and Play“ hofft und nicht technikaffin ist, ist dieses Problem alles andere als erfreulich. Die Lösung war einfach und doch etwas ärgerlich: Ich hatte noch den XP-Pen-Treiber von meinen vorherigen Tests installiert. Obwohl die Software nicht in Betrieb war, hat sie die Huion-Software wohl gestört. Nach einer Deinstallation und einem Neustart lief schließlich alles einwandfrei. Wenn mehrere Geräte genutzt werden, kann dieses Problem störend sein. Das Grafikdisplay: Groß und klar Das Erste, was ich mache, wenn ich ein neues Grafikdisplay teste, ist die gefühlte Druckempfindlichkeit und den Strich selbst zu testen. Und ich bin ehrlich begeistert: Der Strich, sowie die Haptik bei der Bewegung ist hervorragend. Meine anfängliche Skepsis hat sich ins Positive gedreht. Kamvas 16 (Gen 3): Die ersten Striche fühlen sich top anJérémie Kaiser Das Tablet bietet mit 15,8 Zoll eine angenehme Größe. Die QHD-Auflösung von 2560 x 1440 Pixel sorgt für eine scharfe Darstellung im 16:9-Format, bei satten 186 Pixeln pro Zoll. Damit ist das Bild schön detailliert, was gerade bei grafischen Arbeiten oder Videoschnitt richtig Spaß macht. Farben werden mit 16,7 Millionen Nuancen dargestellt, und das Display deckt fast den kompletten Farbraum ab. Für alle, die Wert auf präzise Farben legen, ist das ein echtes Plus. Das Panel ist vollständig laminiert, was Reflexionen minimiert und den Blickwinkel mit 89 Grad horizontal und vertikal angenehm breit hält. Der Start von Gaston Lagaffe: Das Tablet fühlt sich wunderbar an!Jérémie Kaiser Das LCD ist ein IPS-Panel mit 60 Hz und einem Kontrast von 1000:1. Die maximale Helligkeit liegt bei 220 Nits. Bei starkem Tageslicht kann es eventuell an seine Grenzen kommen. Die Reaktionszeit von 14 ms ist für ein Tablet dieser Klasse solide. Aber es ist kein Touch-Display. Das Displayglas ist entspiegeltes, geätztes Glas der 2. Generation: eine angenehme Kombination, die Spiegelungen reduziert und gleichzeitig eine gute Haptik bietet. Die Bildschirmdrehung in alle Richtungen rundet das Display ab: so kann das Tablett auch für Linkshänder eingestellt werden. Das finden Sie in der Huion-Software unter „Stiftanzeige“ > „Arbeitsbereich“ (unten rechts: „Drehen“). Gaston Lagaffe nach Franquin: Tuschen – Das Tablet leistet, was es versprichtJérémie Kaiser Der Stift überzeugt Der Geruch, den ich zu Beginn erwähnt hatte, ist mittlerweile verflogen. Die Tasten könnten zwar haptisch etwas hochwertiger sein, aber das fällt jetzt im Arbeitsalltag kaum noch auf. Man gewöhnt sich schnell daran. Entscheidend ist ohnehin, wie gut sich mit dem Gerät zeichnen lässt. Und da punktet das Kamvas 16 (Gen 3) ganz klar: Der Stift gleitet angenehm über das Display, und die Stiftqualität überzeugt im Test durchweg. Linienführung, Druckempfindlichkeit und Reaktionsgeschwindigkeit stimmen. Der Stift mit dem Modell PW600L nutzt die Huion-Stifttechnologie der vierten Generation (Pentech 4.0) mit über 16.000 Druckstufen und einer Stiftauflösung von 5080 Lines per Inch (LPI). Sehr praktisch gelöst ist auch das Wechseln der Stiftspitze: Dazu drehen Sie einfach den Stiftständer um, entfernen die Spitze mit Hilfe des kleinen Lochs auf der Unterseite und schon ist sie draußen. Neue Ersatzspitzen befinden sich im Inneren des Ständers, den man einfach aufdrehen kann. Eine durchdachte und benutzerfreundliche Lösung. Aufbewahrung der Ersatzspitzen: Eine durchdachte und benutzerfreundliche LösungJérémie Kaiser Ein weiteres Highlight ist die dritte anpassbare Schnellzugriffstaste: Beim Drücken öffnet sich ein Radialmenü rund um den Cursor, das Sie individuell mit Funktionen belegen können: ideal für eine effiziente Arbeit. Die finale Arbeit – wie mein Gaston Lagaffe aussieht – finden Sie nach den technischen Daten. Fazit Das Kamvas 16 (Gen 3) (hier bei Amazon erhältlich) ist ein wirklich solides Grafikdisplay, das im Alltag richtig Spaß macht. Besonders die Stiftqualität überzeugt auf ganzer Linie: präzise, angenehm in der Hand und reaktionsschnell. Ein echtes Highlight ist das Bedienelement am Bildschirmrand, mit dem Sie bequem Shortcuts nutzen oder ins Bild hinein- und herauszoomen können. Praktisch: Das Display ist sowohl für Rechts- als auch für Linkshänder bestens geeignet. Für viele Designer und Illustratoren dürfte die günstige Produktlinie von Huion ein echtes Preis-Leistungs-Highlight sein. Der mitgelieferte Standfuß erfüllt seinen Zweck (stabil und funktional) wirkt aber in Sachen Verarbeitung zu billig und qualitativ minderwertig. Die Software von Huion könnte ebenfalls noch Feinschliff vertragen: Die Übersetzung ist stellenweise holprig, aber man kommt trotzdem gut zurecht. Was ich mir persönlich wünschen würde: die Möglichkeit, mehrere Profile für die Button-Belegung anzulegen. Zum Beispiel: eins fürs Tuschen und ein anderes fürs Kolorieren. Ein kleiner Stolperstein: In meinem Fall musste ich eine andere Pen-Software komplett deinstallieren (obwohl sie gar nicht aktiv war), damit der Huion-Treiber einwandfrei läuft. Das war etwas umständlich und sollte künftig besser gelöst sein. Bei der Bewertung war ich hin- und hergerissen. Letztlich habe ich mich für vier von fünf Sternen entschieden, weil das Arbeiten am Display selbst einfach hervorragend funktioniert. Wenn Huion jetzt noch die Schwachstellen bei der Software und an der Qualität nachlegt, wäre dieses Modell ganz klar mein Favorit. Ich kann das Huion Kamvas 16 (Gen 3.) jedenfalls empfehlen, da man zu dem Preis von aktuell 539 Euro (der separate faltbare Doppelschichtständer ist aktuell geschenkt) ein ordentliches Grafikdisplay inklusive verstellbaren Ständer bekommt. Zum Vergleich: Das neue Wacom Cintiq 16 kostet 780 € mit integrierten ausklappbaren Füßen. Technische Daten: Huion Kamvas 16 (Gen 3) Name und Modell:Kamvas 16 (Gen 3)GS1563 Größe und Gewicht:Abmessungen: 421.2 x 236.81 x 12.62mmGewicht: 1,2kg Tablet:Panelgröße: 15.8″ (Diagonal)Auflösung: 2560 x 1440 (16:9) QHDFarben: 16,7 MillionenBetrachtungswinkel: 89°/89°(H)/89°/89°(V) (Typ.) (CR>10)Vollständige Laminierung: JaFarbraumvolumen: 120 % sRGBAbdeckung des Farbraums: 99 % sRGB / 99 % Rec.709 / 90% Adobe RGBPixel pro Zoll: 186 PPIAktiver Bereich: 349.6 x 196.7mmLCD-Typ: IPS 60 HzKontrastverhältnis: 1000:1Helligkeit: 220nit (Typ.)Anzeigefarbe: 2. Generation entspiegeltes geätztes GlasReaktionszeit: 14ms (Typ.)Touch: Nein Stift:Modell: PW600LTechnologie: Pentech 4.0Stiftauflösung: 5080 LPIDruckstufen: 16384Genauigkeit: ~0.3mm (Center), ~2mm (Corner)Lesehöhe: 10mmNeigungserkennung: ~60° Ständer:Modell: ST300 Anschlüsse, Leistung und Kompatibilität:Eingangsspannung: AC 100-240V, 50/60HzAusgangsspannung: 5V 3AEnergieverbrauch: ≤10WVESA-Kompatibilität: NeinVideoschnittstelle: USB-C (HDMI Signal), Full-featured USB-C (DP Signal)Tasten: 6 programmierbare Drucktasten, 2 Wählscheibenregler, 2 FunktionsschalterKompatibilität: Windows 7 oder jünger, macOS 10.12 oder jünger, Android (USB 3.1 DP 1.2 oder jünger), Linux (Ubuntu 20.04 LTS) (PC-Welt) 

Huion Kamvas 16 (Gen 3) im Test: Grafik-Tablett mit vielen Funktionen zum fairen Preis​ Jérémie Kaiser

Auf einen Blick

Pro

Gutes Preis-Leistungs-Verhältnis

Bedienelement für Shortcuts

Tolles Zeichenerlebnis

Gute Reaktionszeit

Kontra

Firmeneigene Software müsste verbessert und erweitert werden

Qualität des mitgelieferten Ständers ist fragil

Fazit

Das Kamvas 16 (Gen 3) (hier bei Amazon erhältlich) ist ein solides Grafikdisplay, das im Alltag richtig Spaß macht. Besonders die Stiftqualität überzeugt: präzise, angenehm in der Hand und reaktionsschnell. Ein Highlight ist das Bedienelement am Bildschirmrand, mit dem sich bequem Shortcuts nutzen oder ins Bild zoomen lässt. Das Display ist für Rechts- und Linkshänder geeignet.Der mitgelieferte Standfuß ist stabil, wirkt aber billig verarbeitet. Auch die Software könnte Feinschliff vertragen: Die Übersetzung ist holprig, mehrere Profile für die Button-Belegung wären wünschenswert. Ein Stolperstein: In meinem Fall musste ich eine andere Pen-Software deinstallieren, damit der Huion-Treiber lief.Trotz Schwächen vergebe ich vier von fünf Sternen, denn das Arbeiten am Display überzeugt. Wenn Huion jetzt noch die Schwachstellen bei der Software und Verarbeitungsqualität nachlegt, wäre dieses Modell ganz klar mein Favorit. Für 539 Euro bekommt man ein gutes Gerät inklusive Ständer. Zum Vergleich: Das neue Wacom Cintiq 16 kostet regulär 780 Euro.

Wer vielleicht meinen Testbericht vom Grafiktablett Artist Pro 22 (Gen 2) der Firma XP-Pen gelesen hat, weiß, dass ich gerne zeichne. Heute komme ich zeitlich nicht mehr so oft dazu wie früher, aber das Knowhow ist nach wie vor da.

Darum würde ich sagen, ich bringe ein gewisses Maß an Erfahrung mit, wenn es um das digitale Zeichnen geht. Und das ist relevant, wenn es um das Testen eines Grafiktabletts in dem Preissegment geht.

Heute sehen wir uns nämlich das Kamvas 16 (Gen 3) der chinesischen Firma Huion an (hier bei Amazon erhältlich), das Pendant zum Wacom Cintiq 16. Huion wurde 2011 gegründet und stellt hauptsächlich Zeichentabletts und Stift-Displays her. Es ist mein erstes Gerät von Huion. Für diesen Test habe ich mir vorgenommen meinen absoluten Lieblingscomichelden nachzumalen: Gaston Lagaffe von Franquin.

Das Huion Kamvas 16 (Gen 3) ist daJérémie Kaiser

Erster Eindruck: Das Huion Kamvas 16 (Gen 3)

Beim Auspacken macht das Kamvas 16 (Gen 3) einen aufgeräumten Eindruck. Die Verpackung ist schlicht gehalten, wirkt aber hochwertig, nichts Überladenes, aber dennoch ansprechend.

Das Tablet ist werkseitig farbkalibriertJérémie Kaiser

Was direkt ins Auge fällt: Oben auf dem Display liegt ein Papier: Das „Huion Pen Display Color Calibration Report“. Das ist erfreulich, denn dieser Bericht zeigt, dass das Display werkseitig farbkalibriert wurde. Das heißt, dass das Tablet mit professioneller Farbtreue ausgeliefert wird. Das ist gerade für alle, die mit Farben arbeiten (Design, Illustration, …), ein echter Pluspunkt.

Alle Teile sind sicher und ordentlich verstaut.

Alles ist ordentlich verpacktJérémie Kaiser

Der Stift ist leicht und liegt angenehm in der Hand. Allerdings fühlt sich das Material des Griffbereichs etwas rutschig an. Die beiden seitlichen Tasten sind nicht klar voneinander unterscheidbar, weder haptisch noch vom Druckgefühl her. Man spürt kaum, ob man gedrückt hat. Hier würde ich mir mehr taktiles Feedback wünschen.

Die Stiftspitze kann bei großer Abnutzung – wie auch bei anderen Anbietern auch – gewechselt werden. Hier finde ich die Lösung zur Aufbewahrung der Spitzen äußerst spannend. Aber dazu später. Auffällig war allerdings ein beißender, künstlicher Geruch am Gummigriff des Stifts. Wir haben nachgefragt:

Das Material entspricht der REACH-Konformität und die Gummiteile sind sicher. Die Dokumente liegen uns vor. Den Stift eine Weile an der frischen Luft liegen lassen löst das Problem.

Der Stift zum Kamvas 16 (Gen 3)Jérémie Kaiser

Der beigelegte Tablet-Ständer (ST300) wirkt beim ersten Anfassen eher enttäuschend: viel Kunststoff, wenig Gewicht, kein hochwertiges Gefühl. Ob er im Arbeitsalltag dennoch nützlich ist, wird der Langzeittest zeigen. Immerhin: Es ist überhaupt ein Ständer dabei, das ist keine Selbstverständlichkeit.

Der beigelegte Ständer fühlt sich qualitativ nicht hochwertig anJérémie Kaiser

Der beiliegende Handschuh ist Standard und passt mir einwandfrei. Wie auch bei den anderen Tablets dürfte er aber keinesfalls kleiner ausfallen. Zum Vergleich: Meine Hand ist ca. 19 cm groß.

Der beiliegende Handschuh ist Standard und passt, dürfte aber nicht größer seinJérémie Kaiser

Das Tablet selbst macht dagegen einen sehr guten ersten Eindruck. Es ist leicht und schlank. Links am Rand sitzen mehrere Bedienelemente: der Power-Knopf, zwei Drehräder mit zusätzlichen Tasten und dazwischen sechs weitere große Funktionstasten. Diese wirken solide und langlebig.

Besonders praktisch: Die Tasten unterscheiden sich spürbar dank Tastfühlpunkten, was die Orientierung bei der Arbeit erleichtert. Da das Kamvas 16 (Gen 3) keine separate Shortcut-Tastatur besitzt, sind diese Tasten eine sehr gute Lösung, um beispielsweise Zoom, Pinselgröße oder Werkzeugwechsel schnell zu steuern.

Das Kamvas-16-(Gen 3)-Display: Guter erster EindruckJérémie Kaiser

Jérémie Kaiser

Das Display fühlt sich beim ersten Darüberstreichen besonders gut an: angenehm matt, leicht texturiert. Der Stift gleitet nicht zu glatt, sondern bietet ein fast papierähnliches Gefühl, das dem analogen Arbeiten sehr nahekommt.

An der Seite, an der sich das Logo befindet, sind zwei USB-C-Buchsen verbaut.

Jérémie Kaiser

Inbetriebnahme des Kamvas 16 (Gen 3)

Für den Anschluss des Huion Kamvas 16 (Gen 3) stehen Ihnen zwei Möglichkeiten zur Verfügung: Entweder verwenden Sie das 3-in-1-Kabel (HDMI, USB und Strom in einem) oder Sie greifen zur zweiten Variante mit zwei USB-C-zu-USB-C-Kabeln.

Ich habe mich in diesem Fall für die zweite Option entschieden, einfach, weil dadurch bei mir weniger dicke Kabel auf dem Schreibtisch liegen. In meinem Fall hätte das mitgelieferte USB-C-Kabel für die Stromversorgung allerdings ruhig ein wenig länger sein dürfen.

Spannend an der USB-C-Variante: Sie können das Grafiktablett nicht nur mit einem PC, sondern auch direkt mit einem Smartphone oder Tablet verbinden.

Sobald alles angeschlossen ist, geht’s an die Software. Laden Sie dafür den passenden Treiber von der offiziellen Huion-Website herunter. Achten Sie beim Download unbedingt darauf, das richtige Modell auszuwählen: „Kamvas 16 (Gen 3) (GS1563)“. Suchen sie am besten nach „Kamvas 16 (Gen 3). Ansonsten: der entsprechende Eintrag versteckt sich ein Stück weiter unten in der Liste.

Die Huion Tablet Software

Die Huion Tablet Software bietet drei Hauptreiter: Stiftanzeige, Digitaler Stift und Store, wobei letzteres ein direkter Link zum Huion-Store ist und sich dabei der Browser öffnet.

Die Huion Tablet Software bietet drei Hauptreiter: Stiftanzeige, Digitaler Stift und StoreJérémie Kaiser

Unter dem Hauptmenü „Stiftanzeige“, womit das Grafiktablett gemeint ist, hat man zum einen über das Untermenü „Taste drücken“ die Möglichkeit die Tasten des Bedienelements am Rand des Tabletts einzustellen.

Zum anderen kann man unter „Arbeitsbereich“ das Display anpassen. Hier muss man unbedingt vor der ersten Nutzung die Monitor-Kalibrierung durchführen, damit das Display den Stift auch richtig erkennt.

Huion Software: Display anpassenJérémie Kaiser

Unter dem Hauptmenü „Digitaler Stift“ kann man unter „Taste drücken“ die Tasten des Stifts einstellen und unter „Anpassung der Druckempfindlichkeit“ den Stift anpassen.

Huion Software: Stift anpassenJérémie Kaiser

In meinem Fall hat nach der Kalibrierung und Schließen des Treibers plötzlich das Display den Stift nicht mehr erkannt. Sobald man im Huion-Programm ist, funktioniert der Stift wieder, minimiert man das Fenster wird der Stift nicht mehr erkannt. Ein- und Ausschalten des Tabletts und ein Neustart genügten bei mir nicht. Das ist ärgerlich und nach einer kurzen Internetrecherche auch kein Einzelfall. Wenn man unter „Digitaler Stift“ > „Taste drücken“ die Option „Windows-Tinte aktivieren“ (also Windows Ink) deaktiviert, dann geht der Stift zwar, aber die Druckerkennung nicht. Das Tablett wird von Windows erkannt.

Also wurde der Treiber neu installiert. Hier konnte gleich die Backup-Möglichkeit getestet werden, die in den Einstellungen der Huion-Software zu finden ist und einwandfrei funktioniert hat. Das Neuinstallieren hat das Problem für eine Arbeitssession behoben, am nächsten Tag wurde der Stift erneut nicht mehr erkannt. Die Knöpfe funktionieren aber noch. Für einen einfachen Nutzer, der auf „Plug and Play“ hofft und nicht technikaffin ist, ist dieses Problem alles andere als erfreulich.

Die Lösung war einfach und doch etwas ärgerlich: Ich hatte noch den XP-Pen-Treiber von meinen vorherigen Tests installiert. Obwohl die Software nicht in Betrieb war, hat sie die Huion-Software wohl gestört. Nach einer Deinstallation und einem Neustart lief schließlich alles einwandfrei. Wenn mehrere Geräte genutzt werden, kann dieses Problem störend sein.

Das Grafikdisplay: Groß und klar

Das Erste, was ich mache, wenn ich ein neues Grafikdisplay teste, ist die gefühlte Druckempfindlichkeit und den Strich selbst zu testen. Und ich bin ehrlich begeistert: Der Strich, sowie die Haptik bei der Bewegung ist hervorragend. Meine anfängliche Skepsis hat sich ins Positive gedreht.

Kamvas 16 (Gen 3): Die ersten Striche fühlen sich top anJérémie Kaiser

Das Tablet bietet mit 15,8 Zoll eine angenehme Größe. Die QHD-Auflösung von 2560 x 1440 Pixel sorgt für eine scharfe Darstellung im 16:9-Format, bei satten 186 Pixeln pro Zoll. Damit ist das Bild schön detailliert, was gerade bei grafischen Arbeiten oder Videoschnitt richtig Spaß macht.

Farben werden mit 16,7 Millionen Nuancen dargestellt, und das Display deckt fast den kompletten Farbraum ab. Für alle, die Wert auf präzise Farben legen, ist das ein echtes Plus. Das Panel ist vollständig laminiert, was Reflexionen minimiert und den Blickwinkel mit 89 Grad horizontal und vertikal angenehm breit hält.

Der Start von Gaston Lagaffe: Das Tablet fühlt sich wunderbar an!Jérémie Kaiser

Das LCD ist ein IPS-Panel mit 60 Hz und einem Kontrast von 1000:1. Die maximale Helligkeit liegt bei 220 Nits. Bei starkem Tageslicht kann es eventuell an seine Grenzen kommen. Die Reaktionszeit von 14 ms ist für ein Tablet dieser Klasse solide. Aber es ist kein Touch-Display.

Das Displayglas ist entspiegeltes, geätztes Glas der 2. Generation: eine angenehme Kombination, die Spiegelungen reduziert und gleichzeitig eine gute Haptik bietet.

Die Bildschirmdrehung in alle Richtungen rundet das Display ab: so kann das Tablett auch für Linkshänder eingestellt werden. Das finden Sie in der Huion-Software unter „Stiftanzeige“ > „Arbeitsbereich“ (unten rechts: „Drehen“).

Gaston Lagaffe nach Franquin: Tuschen – Das Tablet leistet, was es versprichtJérémie Kaiser

Der Stift überzeugt

Der Geruch, den ich zu Beginn erwähnt hatte, ist mittlerweile verflogen. Die Tasten könnten zwar haptisch etwas hochwertiger sein, aber das fällt jetzt im Arbeitsalltag kaum noch auf. Man gewöhnt sich schnell daran.

Entscheidend ist ohnehin, wie gut sich mit dem Gerät zeichnen lässt. Und da punktet das Kamvas 16 (Gen 3) ganz klar: Der Stift gleitet angenehm über das Display, und die Stiftqualität überzeugt im Test durchweg. Linienführung, Druckempfindlichkeit und Reaktionsgeschwindigkeit stimmen. Der Stift mit dem Modell PW600L nutzt die Huion-Stifttechnologie der vierten Generation (Pentech 4.0) mit über 16.000 Druckstufen und einer Stiftauflösung von 5080 Lines per Inch (LPI).

Sehr praktisch gelöst ist auch das Wechseln der Stiftspitze: Dazu drehen Sie einfach den Stiftständer um, entfernen die Spitze mit Hilfe des kleinen Lochs auf der Unterseite und schon ist sie draußen. Neue Ersatzspitzen befinden sich im Inneren des Ständers, den man einfach aufdrehen kann. Eine durchdachte und benutzerfreundliche Lösung.

Aufbewahrung der Ersatzspitzen: Eine durchdachte und benutzerfreundliche LösungJérémie Kaiser

Ein weiteres Highlight ist die dritte anpassbare Schnellzugriffstaste: Beim Drücken öffnet sich ein Radialmenü rund um den Cursor, das Sie individuell mit Funktionen belegen können: ideal für eine effiziente Arbeit. Die finale Arbeit – wie mein Gaston Lagaffe aussieht – finden Sie nach den technischen Daten.

Fazit

Das Kamvas 16 (Gen 3) (hier bei Amazon erhältlich) ist ein wirklich solides Grafikdisplay, das im Alltag richtig Spaß macht. Besonders die Stiftqualität überzeugt auf ganzer Linie: präzise, angenehm in der Hand und reaktionsschnell. Ein echtes Highlight ist das Bedienelement am Bildschirmrand, mit dem Sie bequem Shortcuts nutzen oder ins Bild hinein- und herauszoomen können. Praktisch: Das Display ist sowohl für Rechts- als auch für Linkshänder bestens geeignet.

Für viele Designer und Illustratoren dürfte die günstige Produktlinie von Huion ein echtes Preis-Leistungs-Highlight sein. Der mitgelieferte Standfuß erfüllt seinen Zweck (stabil und funktional) wirkt aber in Sachen Verarbeitung zu billig und qualitativ minderwertig.

Die Software von Huion könnte ebenfalls noch Feinschliff vertragen: Die Übersetzung ist stellenweise holprig, aber man kommt trotzdem gut zurecht. Was ich mir persönlich wünschen würde: die Möglichkeit, mehrere Profile für die Button-Belegung anzulegen. Zum Beispiel: eins fürs Tuschen und ein anderes fürs Kolorieren.

Ein kleiner Stolperstein: In meinem Fall musste ich eine andere Pen-Software komplett deinstallieren (obwohl sie gar nicht aktiv war), damit der Huion-Treiber einwandfrei läuft. Das war etwas umständlich und sollte künftig besser gelöst sein.

Bei der Bewertung war ich hin- und hergerissen. Letztlich habe ich mich für vier von fünf Sternen entschieden, weil das Arbeiten am Display selbst einfach hervorragend funktioniert. Wenn Huion jetzt noch die Schwachstellen bei der Software und an der Qualität nachlegt, wäre dieses Modell ganz klar mein Favorit.

Ich kann das Huion Kamvas 16 (Gen 3.) jedenfalls empfehlen, da man zu dem Preis von aktuell 539 Euro (der separate faltbare Doppelschichtständer ist aktuell geschenkt) ein ordentliches Grafikdisplay inklusive verstellbaren Ständer bekommt. Zum Vergleich: Das neue Wacom Cintiq 16 kostet 780 € mit integrierten ausklappbaren Füßen.

Technische Daten: Huion Kamvas 16 (Gen 3)

Name und Modell:Kamvas 16 (Gen 3)GS1563

Größe und Gewicht:Abmessungen: 421.2 x 236.81 x 12.62mmGewicht: 1,2kg

Tablet:Panelgröße: 15.8″ (Diagonal)Auflösung: 2560 x 1440 (16:9) QHDFarben: 16,7 MillionenBetrachtungswinkel: 89°/89°(H)/89°/89°(V) (Typ.) (CR>10)Vollständige Laminierung: JaFarbraumvolumen: 120 % sRGBAbdeckung des Farbraums: 99 % sRGB / 99 % Rec.709 / 90% Adobe RGBPixel pro Zoll: 186 PPIAktiver Bereich: 349.6 x 196.7mmLCD-Typ: IPS 60 HzKontrastverhältnis: 1000:1Helligkeit: 220nit (Typ.)Anzeigefarbe: 2. Generation entspiegeltes geätztes GlasReaktionszeit: 14ms (Typ.)Touch: Nein

Stift:Modell: PW600LTechnologie: Pentech 4.0Stiftauflösung: 5080 LPIDruckstufen: 16384Genauigkeit: ~0.3mm (Center), ~2mm (Corner)Lesehöhe: 10mmNeigungserkennung: ~60°

Ständer:Modell: ST300

Anschlüsse, Leistung und Kompatibilität:Eingangsspannung: AC 100-240V, 50/60HzAusgangsspannung: 5V 3AEnergieverbrauch: ≤10WVESA-Kompatibilität: NeinVideoschnittstelle: USB-C (HDMI Signal), Full-featured USB-C (DP Signal)Tasten: 6 programmierbare Drucktasten, 2 Wählscheibenregler, 2 FunktionsschalterKompatibilität: Windows 7 oder jünger, macOS 10.12 oder jünger, Android (USB 3.1 DP 1.2 oder jünger), Linux (Ubuntu 20.04 LTS)

(PC-Welt)

Huion Kamvas 16 (Gen 3) im Test: Grafik-Tablett mit vielen Funktionen zum fairen Preis​ Weiterlesen »

Physische Werbung mit einer AR-Brille ausblenden​

Allgemein

Was es bis jetzt nur digital gibt, könnte schon bald in Form einer Brille Werbung in echt ausblenden. TarikVision – shutterstock.com Werbung kann ärgerlich sein, sei es digital in der Form von Ads vor Videos, als Ansteckzettel am Auto oder als riesige Plakate im öffentlichen Raum. Szenen wie im Film Minority Report, wo der von Tom Cruise gespielte Protagonist regelmäßig von Werbefiguren direkt angesprochen wird, scheinen immerhin noch Zukunftsmusik zu sein. Sollte eine solche Form der invasiven Werbung doch eines Tages Realität werden, bleibt abzuwarten, wie man sich ihr entgegenstellen kann. Belgischer Ad-Blocker in der realen Welt Definitiv jetzt schon keine Werbung mehr sehen wollte Stijn Spanhove, ein belgischer Softwareentwickler, der einen Ad-Blocker für die reale Welt entwickelt hat. Bei dem Prototypen handelt es sich um eine Augmented-Reality-App, die wie ein Pop-up-Blocker wirkt und physische Werbung aus dem Sichtfeld herausfiltert. Zensurkästchen statt Werbung Allzu subtil geht die für Snaps AR Spectacles konzipierte Appdabei allerdings nicht vor. Die Anwendung nutzt Googles Gemini AI, um Werbung in der realen Welt zu erkennen und legt dann einfach ein großes rotes Zensurkästchen darüber. Die App wurde mithilfe der Depth Cache-Entwicklungs-Tools von Snap erstellt. Das bedeutet, dass sie derzeit exklusiv für AR-Brille von Snap funktioniert. In einem Demovideo ist zu sehen, wie die App alles von Plakaten und Werbetafeln bis hin zu Logos auf Lebensmittelverpackungen identifiziert und blockiert. Interessant dabei ist, dass die roten Kästchen mit den entsprechenden Markennamen gekennzeichnet werden. Dadurch weiß der Träger zumindest, wessen Werbebotschaft er verpasst. 🚫🕶️ I’ve been building an XR app for a real-world ad blocker using Snap @Spectacles. It uses Gemini to detect and block ads in the environment.It’s still early and experimental, but it’s exciting to imagine a future where you control the physical content you see. pic.twitter.com/ySkFfF6rxS— Stijn Spanhove (@stspanho) June 19, 2025 Proof-of-Concept mit Potenzial Dass das Ganze noch nicht wirklich ausgereift ist, gibt der Erfinder selbst zu. Er betont, dass sein Gerät mehr als Proof of Concept, denn als ausgefeiltes Produkt zu verstehen sei. Zugleich sieht er für seine Anti-Werbung-Brille großes Potential, da Nutzende zum Beispiel die roten Quadrate bereits jetzt durch alles Mögliche ersetzen ließen, angefangen von persönlichen Fotos bis hin zu To-Do-Listen. 

Physische Werbung mit einer AR-Brille ausblenden​ Was es bis jetzt nur digital gibt, könnte schon bald in Form einer Brille Werbung in echt ausblenden.
TarikVision – shutterstock.com

Werbung kann ärgerlich sein, sei es digital in der Form von Ads vor Videos, als Ansteckzettel am Auto oder als riesige Plakate im öffentlichen Raum.

Szenen wie im Film Minority Report, wo der von Tom Cruise gespielte Protagonist regelmäßig von Werbefiguren direkt angesprochen wird, scheinen immerhin noch Zukunftsmusik zu sein. Sollte eine solche Form der invasiven Werbung doch eines Tages Realität werden, bleibt abzuwarten, wie man sich ihr entgegenstellen kann.

Belgischer Ad-Blocker in der realen Welt

Definitiv jetzt schon keine Werbung mehr sehen wollte Stijn Spanhove, ein belgischer Softwareentwickler, der einen Ad-Blocker für die reale Welt entwickelt hat. Bei dem Prototypen handelt es sich um eine Augmented-Reality-App, die wie ein Pop-up-Blocker wirkt und physische Werbung aus dem Sichtfeld herausfiltert.

Zensurkästchen statt Werbung

Allzu subtil geht die für Snaps AR Spectacles konzipierte Appdabei allerdings nicht vor. Die Anwendung nutzt Googles Gemini AI, um Werbung in der realen Welt zu erkennen und legt dann einfach ein großes rotes Zensurkästchen darüber.

Die App wurde mithilfe der Depth Cache-Entwicklungs-Tools von Snap erstellt. Das bedeutet, dass sie derzeit exklusiv für AR-Brille von Snap funktioniert.

In einem Demovideo ist zu sehen, wie die App alles von Plakaten und Werbetafeln bis hin zu Logos auf Lebensmittelverpackungen identifiziert und blockiert. Interessant dabei ist, dass die roten Kästchen mit den entsprechenden Markennamen gekennzeichnet werden. Dadurch weiß der Träger zumindest, wessen Werbebotschaft er verpasst.

🚫🕶️ I’ve been building an XR app for a real-world ad blocker using Snap @Spectacles. It uses Gemini to detect and block ads in the environment.It’s still early and experimental, but it’s exciting to imagine a future where you control the physical content you see. pic.twitter.com/ySkFfF6rxS— Stijn Spanhove (@stspanho) June 19, 2025

Proof-of-Concept mit Potenzial

Dass das Ganze noch nicht wirklich ausgereift ist, gibt der Erfinder selbst zu. Er betont, dass sein Gerät mehr als Proof of Concept, denn als ausgefeiltes Produkt zu verstehen sei. Zugleich sieht er für seine Anti-Werbung-Brille großes Potential, da Nutzende zum Beispiel die roten Quadrate bereits jetzt durch alles Mögliche ersetzen ließen, angefangen von persönlichen Fotos bis hin zu To-Do-Listen.

Physische Werbung mit einer AR-Brille ausblenden​ Weiterlesen »

KI-Chatbot als Phishing-Assistent​

Allgemein

Kriminelle suchen gezielt nach nicht registrierten Websites, um diese zu übernehmen und zu infizieren FGC – shutterstock.com Chatbots leisten sich immer wieder Aussetzer, sei es, dass sie Nutzende beleidigen oder Ergebnisse halluzinieren. Mit falschen Adressen von Websites kommt nun ein weiterer Punkt auf die Liste der Fehltritte: Wie die Cybersecurity-Firma Netcraft herausfand, liefert die Künstliche Intelligenz (KI) oft falsche Informationen, wenn sie nach Web-Adressen gefragt wird. Entdeckt hatte das Team von Netcraft diesen Lapsus, als es GPT-4.1-Modelle um die Links zu Anmeldeseiten bekannter Marken aus verschiedenen Bereichen bat. Zwar gab die KI in zwei Dritteln der Fälle die korrekte Website an, 29 Prozent der Links führten jedoch ins Leere, fünf Prozent zu falschen, aber immerhin legitimen Seiten. Phisher nutzen Chatbot-Schwächen gezielt aus Laut Netcraft-Experte Rob Duncan könnten Phisher solche Fehler ausnutzen, indem sie ChatGPT &Co. gezielt nach einer bekannten URL fragen. Ist das erste Ergebnis dann eine nicht registrierte Website bestehe die Chance, dass die Kriminellen diese kaufen und eine Phishing-Website einrichten. Das dieses Szenario bereits jetzt möglich ist, zeigt die von ChatGPT empfohlene Seite des großen Finanzdienstleister Wells Fargo: Der Link führe eine lange bekannte Phishing-Seite, so die Experten. Phishing passt sich an KI-Nutzung an Zusätzlich passen Phishing-Angreifer ihre Strategie zunehmend an die Nutzung von KI-Systemen an, wie The Register berichtet, anstatt sich auf klassische Suchmaschinenoptimierung zu konzentrieren. So gestalteten sie ihre gefälschten Websites nun gezielt so, dass sie in den Ergebnissen von KI-Chatbots wie ChatGPT erscheinen. Technisch sei dies möglich, da die KI nach Wörtern und Assoziationen sucht und nicht Dinge wie URLs oder den Ruf einer Website bewertet, so der Experte. Duncan erklärt auch, dass immer mehr Internetnutzende KI-Modelle statt herkömmlicher Suchmaschinen verwenden. Dabei seien sie sich aber oft der möglichen Fehler von KI gar nicht bewusst. Alles damit die KI einen wahrnimmt Die Forscher von Netcraft entdeckten auch eine ausgeklügelte Methode zur Manipulation von KI-gestützten Programmierassistenten. Die Kriminellen erstellten dazu eine gefälschte API namens SolanaApis, die die legitime Solana-Blockchain-Schnittstelle imitieren sollte. Anschließend erhöhten die Betrüger dann gezielt die Sichtbarkeit ihres schadhaften Codes in KI-generierten Antworten, indem sie zahlreiche gefälschte GitHub-Repositories, Q&A-Dokumente, Anleitungen sowie manipulierte Social-Media- und Entwicklerkonten erstellen. So sollte der Eindruck gegenüber Large Language Models (LLMs) entstehen, der Code sei legitim. Laut Rob Duncan von Netcraft ähnelt dieses Vorgehen einem Supply-Chain-Angriff: eine langfristige Täuschungsstrategie, die darauf abzielt, Vertrauen zu gewinnen und Nutzer zur Nutzung kompromittierter Inhalte zu verleiten. Vibe-Coding“ als Schwachstelle Der Unterschied zu „traditionellen“ Angriffen liege darin, dass hier gezielt Entwickler angesprochen werden. Das Ganze funktioniere wie „einige der Supply-Chain-Angriffe, die wir schon gesehen haben“, so Duncan. Es sei allerdings ein ziemlich langwieriges Spiel, eine Person davon zu überzeugen, eine Pull-Anfrage zu akzeptieren. Die präsentierten Fälle seien zudem „ein bisschen anders, weil man versucht, jemanden, der ein wenig Vibe-Coding betreibt, dazu zu bringen, die falsche API zu verwenden. Es ist ein ähnlich langes Spiel, aber man erhält ein ähnliches Ergebnis“, erklärte Duncan gegenüber The Register. Und es funktioniert: Die Experten von Netcraft fanden mindestens fünf Opfer, die diesen Schadcode in ihre eigenen öffentlichen Projekte kopiert haben – einige davon weisen Anzeichen dafür auf, dass sie mit Code-Assistenten, darunter Cursor, erstellt wurden. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KI-Chatbot als Phishing-Assistent​ Kriminelle suchen gezielt nach nicht registrierten Websites, um diese zu übernehmen und zu infizieren
FGC – shutterstock.com

Chatbots leisten sich immer wieder Aussetzer, sei es, dass sie Nutzende beleidigen oder Ergebnisse halluzinieren. Mit falschen Adressen von Websites kommt nun ein weiterer Punkt auf die Liste der Fehltritte: Wie die Cybersecurity-Firma Netcraft herausfand, liefert die Künstliche Intelligenz (KI) oft falsche Informationen, wenn sie nach Web-Adressen gefragt wird.

Entdeckt hatte das Team von Netcraft diesen Lapsus, als es GPT-4.1-Modelle um die Links zu Anmeldeseiten bekannter Marken aus verschiedenen Bereichen bat.

Zwar gab die KI in zwei Dritteln der Fälle die korrekte Website an, 29 Prozent der Links führten jedoch ins Leere, fünf Prozent zu falschen, aber immerhin legitimen Seiten.

Phisher nutzen Chatbot-Schwächen gezielt aus

Laut Netcraft-Experte Rob Duncan könnten Phisher solche Fehler ausnutzen, indem sie ChatGPT &Co. gezielt nach einer bekannten URL fragen. Ist das erste Ergebnis dann eine nicht registrierte Website bestehe die Chance, dass die Kriminellen diese kaufen und eine Phishing-Website einrichten.

Das dieses Szenario bereits jetzt möglich ist, zeigt die von ChatGPT empfohlene Seite des großen Finanzdienstleister Wells Fargo: Der Link führe eine lange bekannte Phishing-Seite, so die Experten.

Phishing passt sich an KI-Nutzung an

Zusätzlich passen Phishing-Angreifer ihre Strategie zunehmend an die Nutzung von KI-Systemen an, wie The Register berichtet, anstatt sich auf klassische Suchmaschinenoptimierung zu konzentrieren. So gestalteten sie ihre gefälschten Websites nun gezielt so, dass sie in den Ergebnissen von KI-Chatbots wie ChatGPT erscheinen.

Technisch sei dies möglich, da die KI nach Wörtern und Assoziationen sucht und nicht Dinge wie URLs oder den Ruf einer Website bewertet, so der Experte.

Duncan erklärt auch, dass immer mehr Internetnutzende KI-Modelle statt herkömmlicher Suchmaschinen verwenden. Dabei seien sie sich aber oft der möglichen Fehler von KI gar nicht bewusst.

Alles damit die KI einen wahrnimmt

Die Forscher von Netcraft entdeckten auch eine ausgeklügelte Methode zur Manipulation von KI-gestützten Programmierassistenten. Die Kriminellen erstellten dazu eine gefälschte API namens SolanaApis, die die legitime Solana-Blockchain-Schnittstelle imitieren sollte.

Anschließend erhöhten die Betrüger dann gezielt die Sichtbarkeit ihres schadhaften Codes in KI-generierten Antworten, indem sie

zahlreiche gefälschte GitHub-Repositories,

Q&A-Dokumente,

Anleitungen sowie

manipulierte Social-Media- und Entwicklerkonten

erstellen. So sollte der Eindruck gegenüber Large Language Models (LLMs) entstehen, der Code sei legitim.

Laut Rob Duncan von Netcraft ähnelt dieses Vorgehen einem Supply-Chain-Angriff: eine langfristige Täuschungsstrategie, die darauf abzielt, Vertrauen zu gewinnen und Nutzer zur Nutzung kompromittierter Inhalte zu verleiten.

Vibe-Coding“ als Schwachstelle

Der Unterschied zu „traditionellen“ Angriffen liege darin, dass hier gezielt Entwickler angesprochen werden. Das Ganze funktioniere wie „einige der Supply-Chain-Angriffe, die wir schon gesehen haben“, so Duncan. Es sei allerdings ein ziemlich langwieriges Spiel, eine Person davon zu überzeugen, eine Pull-Anfrage zu akzeptieren.

Die präsentierten Fälle seien zudem „ein bisschen anders, weil man versucht, jemanden, der ein wenig Vibe-Coding betreibt, dazu zu bringen, die falsche API zu verwenden. Es ist ein ähnlich langes Spiel, aber man erhält ein ähnliches Ergebnis“, erklärte Duncan gegenüber The Register.

Und es funktioniert: Die Experten von Netcraft fanden mindestens fünf Opfer, die diesen Schadcode in ihre eigenen öffentlichen Projekte kopiert haben – einige davon weisen Anzeichen dafür auf, dass sie mit Code-Assistenten, darunter Cursor, erstellt wurden.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KI-Chatbot als Phishing-Assistent​ Weiterlesen »

Die KI-Shopping-Assistenten kommen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?quality=50&strip=all 6016w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Online Produkte finden, in den Warenkorb legen und bezahlen – auch diese Aufgaben kann die KI übernehmen. William Potter – Shutterstock.com OpenAI hat eine neue Möglichkeit vorgestellt, wie Einzelhändler mit ein paar Klicks KI-Shopping-Assistenten in Shopify integrieren können. Wie aus einem Beitrag auf X hervorgeht, müssen Entwickler dazu lediglich den Storefront MCP Server (Managed Compute Platform) direkt mit der OpenAI Responses API verbinden. Building your storefront AI agent just got easier.Connect the Storefront MCP server directly to the @OpenAI Responses API to search products, add items to cart, and create checkout links.No auth required. pic.twitter.com/oZsKdhX8QY— Shopify Developers (@ShopifyDevs) July 2, 2025 Das Ergebnis sind Agenten, die basierend auf Hinweisen des Nutzers Produkte suchen, Artikel in den Warenkorb legen und Checkout-Links generieren – ohne sich authentifizieren zu müssen. Weitere Einkaufserlebnisse mit KI Die Maßnahme spiegelt OpenAIs Strategie wider, sich stärker im Bereich Einkaufsmöglichkeiten zu positionieren. So bietet der Rivale Perplexity bereits einen Einkaufsassistenten innerhalb seines KI-Chatbots an. Pro-Nutzer können dort sogar direkt im Chatbot mit nur einem Klick über „Buy with Pro“ einkaufen. Shopify ist dabei einer der Händler, dessen Produkte über diesen Weg auffindbar sind. Zudem hat Perplexity ein kostenloses Händlerprogramm eingeführt, das es Einzelhändlern ermöglicht, ihre Produktspezifikationen bereitzustellen, damit Kunden ihre Produkte leichter finden können. Auch Wettbewerber Google adressiert das Thema Einkaufsassistenten. Wie auf der Entwicklermesse I/O vorgestellt wurde, kombiniert künftig ein neues „Einkaufserlebnis“ im AI Mode die Fähigkeiten von Google Gemini mit Googles Shopping Graph – einer Sammlung von mehr als 50 Milliarden Produktangeboten mit Details wie Bewertungen, Preisen, Farboptionen und Verfügbarkeit. Basierend auf der Eingabe zeigt der KI-Assistent dann eine Auswahl an Bildern und Produktlisten und engt diese nach weiteren Kriterien ein. class=”wp-video”> https://storage.googleapis.com/gweb-uniblog-publish-prod/original_videos/Copy_of_AI_Mode_Travel_Bag_1.mp4 Damit nicht genug, hilft Agentic Checkout anschließend dabei, das Produkt zu einem Budget-freundlichen Preis zu erwerben, indem der Nutzer die richtige Größe, Farbe (oder andere Optionen seiner Wahl) sowie den gewünschten Betrag festlegt. Wurde das passende Angebot gefunden, drückt er auf „Jetzt kaufen“ und die KI legt den Artikel in den Warenkorb auf der Website des Händlers und schließt den Kaufvorgang per Google Pay ab. Einziger Wermutstropfen: Die Shopping-Funktionen sowie Agentic Checkout werden zunächst in den USA zusammen mit dem AI Mode verfügbar sein. Wann sie nach Deutschland kommen, ist nicht bekannt. 

Die KI-Shopping-Assistenten kommen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?quality=50&strip=all 6016w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Online Produkte finden, in den Warenkorb legen und bezahlen – auch diese Aufgaben kann die KI übernehmen. William Potter – Shutterstock.com

OpenAI hat eine neue Möglichkeit vorgestellt, wie Einzelhändler mit ein paar Klicks KI-Shopping-Assistenten in Shopify integrieren können. Wie aus einem Beitrag auf X hervorgeht, müssen Entwickler dazu lediglich den Storefront MCP Server (Managed Compute Platform) direkt mit der OpenAI Responses API verbinden.

Building your storefront AI agent just got easier.Connect the Storefront MCP server directly to the @OpenAI Responses API to search products, add items to cart, and create checkout links.No auth required. pic.twitter.com/oZsKdhX8QY— Shopify Developers (@ShopifyDevs) July 2, 2025

Das Ergebnis sind Agenten, die basierend auf Hinweisen des Nutzers Produkte suchen, Artikel in den Warenkorb legen und Checkout-Links generieren – ohne sich authentifizieren zu müssen.

Weitere Einkaufserlebnisse mit KI

Die Maßnahme spiegelt OpenAIs Strategie wider, sich stärker im Bereich Einkaufsmöglichkeiten zu positionieren. So bietet der Rivale Perplexity bereits einen Einkaufsassistenten innerhalb seines KI-Chatbots an. Pro-Nutzer können dort sogar direkt im Chatbot mit nur einem Klick über „Buy with Pro“ einkaufen. Shopify ist dabei einer der Händler, dessen Produkte über diesen Weg auffindbar sind. Zudem hat Perplexity ein kostenloses Händlerprogramm eingeführt, das es Einzelhändlern ermöglicht, ihre Produktspezifikationen bereitzustellen, damit Kunden ihre Produkte leichter finden können.

Auch Wettbewerber Google adressiert das Thema Einkaufsassistenten. Wie auf der Entwicklermesse I/O vorgestellt wurde, kombiniert künftig ein neues „Einkaufserlebnis“ im AI Mode die Fähigkeiten von Google Gemini mit Googles Shopping Graph – einer Sammlung von mehr als 50 Milliarden Produktangeboten mit Details wie Bewertungen, Preisen, Farboptionen und Verfügbarkeit. Basierend auf der Eingabe zeigt der KI-Assistent dann eine Auswahl an Bildern und Produktlisten und engt diese nach weiteren Kriterien ein.

class=”wp-video”>
https://storage.googleapis.com/gweb-uniblog-publish-prod/original_videos/Copy_of_AI_Mode_Travel_Bag_1.mp4

Damit nicht genug, hilft Agentic Checkout anschließend dabei, das Produkt zu einem Budget-freundlichen Preis zu erwerben, indem der Nutzer die richtige Größe, Farbe (oder andere Optionen seiner Wahl) sowie den gewünschten Betrag festlegt. Wurde das passende Angebot gefunden, drückt er auf „Jetzt kaufen“ und die KI legt den Artikel in den Warenkorb auf der Website des Händlers und schließt den Kaufvorgang per Google Pay ab.

Einziger Wermutstropfen: Die Shopping-Funktionen sowie Agentic Checkout werden zunächst in den USA zusammen mit dem AI Mode verfügbar sein. Wann sie nach Deutschland kommen, ist nicht bekannt.

Die KI-Shopping-Assistenten kommen​ Weiterlesen »

Metas große KI-Abwerbetour​

Allgemein

Meta lockt nicht nur mit modernen Büros, sondern auch erklecklichen Gehältern – und Boni.RAMAN SHAUNIA | shutterstock.com Um im KI-Wettlauf nicht ins Hintertreffen zu geraten, hat Meta-CEO Mark Zuckerberg mit den “Superintelligence Labs” (MSL) kürzlich eine eigene Abteilung ins Leben gerufen. Sie soll die KI-Produkte und angewandte Forschung des Unternehmens bündeln. Designierter Leiter ist Medienberichten zufolge der frühere CEO von Scale AI, Alexandr Wang – inzwischen Chief AI Officer bei Meta. Er soll zudem vom ehemaligen GitHub-Chef Nat Friedman unterstützt werden. Zuträglich dürfte der neuen Abteilung auch ein Personalbudget in Höhe von bis zu 300 Millionen Dollar sein. Und das nutzt Meta, um namhafte KI-Spezialisten von seiner KI-Konkurrenz abzuwerben. Diese KI-Experten wechseln zu Meta Bisher hat die Facebook-Mutter auf diese Weise elf KI-Fachkräfte für seine Superintelligence Labs verpflichtet, wie Bloomberg berichtete. Diese waren zuvor bei Anthropic, Google, Sesame und OpenAI beschäftigt. Die Meta-Neuzugänge im Überblick: Trapit Bansal (zuvor bei OpenAI beteiligt an der Entwicklung der Modelle der o-Serie), Shuchao Bi (zuvor bei OpenAI beteiligt an der Entwicklung von GPT-4o voice mode und o4-mini), Huiwen Chang (zuvor bei OpenAI mitverantwortlich für die Bilderzeugung von GPT-4o), Ji Lin (zuvor bei OpenAI beteiligt an der Entwicklung diverser Modelle), Joel Pobar (zuvor bei Anthropic, kehrt zu Meta zurück), Jack Rae (zuvor bei Google als technischer Leiter beteiligt an der Entwicklung von Gemini), Hongyu Ren (zuvor bei OpenAI beteiligt an der Entwicklundg diverser Modelle), Johan Schalkwyk (zuvor bei Sesame als ML-Lead, davor langjähriger Google Fellow), Pei Sun (zuvor bei Google Deepmind beteiligt an der Entwicklung von Gemini), Jiahui Yu (zuvor bei OpenAI als Mitschöpfer von 03, 04-mini, GPT-4.1 und GPT-4o), Shengjia Zhao (zuvor bei OpenAI beteiligt an der Entwicklung diverser Modelle). Altman reagiert auf Metas monetäre Verlockungen Wie unter anderem Wired berichtet, lockt Meta dabei in erster Linie mit extrem großzügigen Gehaltspaketen – von bis zu 300 Millionen Dollar für einen Vierjahresvertrag ist die Rede. Mindestens zehn OpenAI-Mitarbeiter sollen solche Angebote erhalten haben. Meta-CTO Andrew Bosworth stellte jedoch in Dokumenten (die die Redaktion von The Verge einsehen konnte) klar, dass nur wenige Spitzenkräfte solche Angebote erhalten hätten. Zudem handle es sich nicht um Antrittsprämien, sondern um Gesamtpakete inklusive Aktienanteilen. Die Führungsriege von OpenAI hat auf Metas Abwerbewelle mit Kritik reagiert. So verglich Forschungsleiter Mark Chen diese mit einem “Einbruch” und kündigte als Reaktion an, die Vergütungsstruktur von OpenAI überarbeiten und neue Supercomputer anschaffen zu wollen. Auch CEO Sam Altman kritisierte öffentlich das “kulturell problematische” Vorgehen der Zuckerberg-Company und verteidigte OpenAI als erste Adresse für Artificial General Intelligence. Dabei betonte er den missionsgetriebenen Ansatz seines Unternehmens. Mit der Aussage “Missionare werden über Söldner triumphieren” fasste Altman laut Wired seine Kritik am Zuckerberg-Konzern in einem Memo an die OpenAI-Belegschaft zusammen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Metas große KI-Abwerbetour​ Meta lockt nicht nur mit modernen Büros, sondern auch erklecklichen Gehältern – und Boni.RAMAN SHAUNIA | shutterstock.com

Um im KI-Wettlauf nicht ins Hintertreffen zu geraten, hat Meta-CEO Mark Zuckerberg mit den “Superintelligence Labs” (MSL) kürzlich eine eigene Abteilung ins Leben gerufen. Sie soll die KI-Produkte und angewandte Forschung des Unternehmens bündeln. Designierter Leiter ist Medienberichten zufolge der frühere CEO von Scale AI, Alexandr Wang – inzwischen Chief AI Officer bei Meta. Er soll zudem vom ehemaligen GitHub-Chef Nat Friedman unterstützt werden.

Zuträglich dürfte der neuen Abteilung auch ein Personalbudget in Höhe von bis zu 300 Millionen Dollar sein. Und das nutzt Meta, um namhafte KI-Spezialisten von seiner KI-Konkurrenz abzuwerben.

Diese KI-Experten wechseln zu Meta

Bisher hat die Facebook-Mutter auf diese Weise elf KI-Fachkräfte für seine Superintelligence Labs verpflichtet, wie Bloomberg berichtete. Diese waren zuvor bei Anthropic, Google, Sesame und OpenAI beschäftigt.

Die Meta-Neuzugänge im Überblick:

Trapit Bansal (zuvor bei OpenAI beteiligt an der Entwicklung der Modelle der o-Serie),

Shuchao Bi (zuvor bei OpenAI beteiligt an der Entwicklung von GPT-4o voice mode und o4-mini),

Huiwen Chang (zuvor bei OpenAI mitverantwortlich für die Bilderzeugung von GPT-4o),

Ji Lin (zuvor bei OpenAI beteiligt an der Entwicklung diverser Modelle),

Joel Pobar (zuvor bei Anthropic, kehrt zu Meta zurück),

Jack Rae (zuvor bei Google als technischer Leiter beteiligt an der Entwicklung von Gemini),

Hongyu Ren (zuvor bei OpenAI beteiligt an der Entwicklundg diverser Modelle),

Johan Schalkwyk (zuvor bei Sesame als ML-Lead, davor langjähriger Google Fellow),

Pei Sun (zuvor bei Google Deepmind beteiligt an der Entwicklung von Gemini),

Jiahui Yu (zuvor bei OpenAI als Mitschöpfer von 03, 04-mini, GPT-4.1 und GPT-4o),

Shengjia Zhao (zuvor bei OpenAI beteiligt an der Entwicklung diverser Modelle).

Altman reagiert auf Metas monetäre Verlockungen

Wie unter anderem Wired berichtet, lockt Meta dabei in erster Linie mit extrem großzügigen Gehaltspaketen – von bis zu 300 Millionen Dollar für einen Vierjahresvertrag ist die Rede. Mindestens zehn OpenAI-Mitarbeiter sollen solche Angebote erhalten haben. Meta-CTO Andrew Bosworth stellte jedoch in Dokumenten (die die Redaktion von The Verge einsehen konnte) klar, dass nur wenige Spitzenkräfte solche Angebote erhalten hätten. Zudem handle es sich nicht um Antrittsprämien, sondern um Gesamtpakete inklusive Aktienanteilen.

Die Führungsriege von OpenAI hat auf Metas Abwerbewelle mit Kritik reagiert. So verglich Forschungsleiter Mark Chen diese mit einem “Einbruch” und kündigte als Reaktion an, die Vergütungsstruktur von OpenAI überarbeiten und neue Supercomputer anschaffen zu wollen. Auch CEO Sam Altman kritisierte öffentlich das “kulturell problematische” Vorgehen der Zuckerberg-Company und verteidigte OpenAI als erste Adresse für Artificial General Intelligence. Dabei betonte er den missionsgetriebenen Ansatz seines Unternehmens.

Mit der Aussage “Missionare werden über Söldner triumphieren” fasste Altman laut Wired seine Kritik am Zuckerberg-Konzern in einem Memo an die OpenAI-Belegschaft zusammen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Metas große KI-Abwerbetour​ Weiterlesen »

KI-Kosten sparen mit Neoclouds?​

Allgemein

Neoclouds können eine Alternative zu den KI-Infrastrukturangeboten der Hyperscaler darstellen.Zamurovic Brothers | shutterstock.com Neoclouds sind weder Produkt noch Technologie – und haben auch nichts mit der Matrix-Filmreihe zu tun. In diesem Artikel lesen Sie: was sich hinter dem Begriff verbirgt, welche Neocloud-Anbieter Sie auf dem Zettel haben sollten, wie Experten die Kosten im Vergleich zu Hyperscaler- und On-Premises-Angeboten einschätzen, und welche Aspekte Sie vor einem Investment bedenken sollten. Neocloud – was ist das? Neoclouds sind Anbieter, die auf GPU-as-a-Service (GPUaaS) spezialisiert sind. Die Unternehmen in diesem Bereich wollen von der steigenden Nachfrage nach künstlicher Intelligenz, Machine Learning und Datenanalysen (sowie weiteren HPC-Workloads) profitieren. Dabei heben sie sich von AWS, Google Cloud und Microsoft (die ebenfalls GPU-Dienstleistungen anbieten) in erster Linie dadurch ab, dass es sich um hochspezialisierte, reine GPU-Serviceanbieter handelt. Neocloud-Anbieter können im Vergleich zu den Hyperscalern in vielen Fällen wettbewerbsfähigere Preise bieten – in Kombination mit schnell verfügbaren State-of-the-Art-GPUs sowie speziell auf KI- und ML-Workloads optimierter Infrastruktur. Das ist insbesondere Multicloud-Strategien zuträglich – in solchen Umgebungen können die Neoclouds als spezialisierte Hubs für das KI-Training zum Einsatz kommen. Die wichtigsten Neocloud-Anbieter Vier Anbieter haben sich derzeit als Marktführer im Neocloud-Markt etabliert: CoreWeave gilt als unangefochtener Neocloud-Marktführer und hat bereits einen erfolgreichen Börsengang hinter sich gebracht. Das Unternehmen war ursprünglich im Bereich Cryptomining tätig, orientierte sich aber ab 2019 auf Cloud-, respektive KI-Infrastruktur um. In der Folge konnte das US-Startup diverse Investoren von sich überzeugen, darunter auch Nvidia. Neben GPUaaS bietet das Unternehmen auch Objektspeicher für KI-Workloads und CPU-Cluster an. Medienberichten zufolge ist CoreWeave zudem der erste Cloud-Provider, der Nvidias Blackwell-Ultra-GPUs einsetzt. Lambda Labs bezeichnet sich selbst als die “Superintelligence Cloud” und bietet nicht nur GPU-Dienstleistungen aus der Cloud, sondern auch in Form von lokalen, privaten Clustern an – inklusive Infiniband-Netzwerk und Storage. Besonderen Fokus legt dieser Neocloud-Anbieter (zu dessen Investoren ebenfalls Nvidia zählt) dabei auf die Benutzerfreundlichkeit. Crusoe legt seinen Fokus darauf, nachhaltige Rechenzentren zu bauen, die von erneuerbaren Energien angetrieben werden. Davon abgesehen gehören auch eine moderne GPU-Infrastruktur, intelligente Orchestrierung und API-gesteuerte Managed Services zum Portfolio.  Nebius ist ein europäischer Neocloud-Anbieter, der unter anderem ein großes Rechenzentrum in Finnland sein Eigen nennt. Das Unternehmen bietet eine Full-Stack-KI-Infrastruktur als Dienstleistung an. Neoclouds im Kostenvergleich Falls Sie sich vor allem fragen, wie viel man mit einem Neocloud-Anbieter im Vergleich zu einem Hyperscaler sparen kann: Das Uptime Institute hat in einer aktuellen Untersuchung die durchschnittlichen, stündlichen Kosten für eine Nvidia-DGX-H100-Instanz verglichen. Diese kostet demnach: bei einem Hyperscaler im Schnitt 98 Dollar, während eine gleichwertige von einem Neocloud-Anbieter durchschnittlich 34 Dollar kostet. Daraus ergibt sich eine Ersparnis von satten 66 Prozent. Owen Rogers, Senior Research Director beim Uptime Institute, erklärt, wie es zu dieser Diskrepanz kommt: “Neocloud-Anbieter können niedrigere Preise anbieten, weil sie im Gegensatz zu den Hyperscalern neben modernen keine Legacy-Infrastrukturen betreiben müssen. Hyperscaler bieten in der Regel Dutzende von Produkten an, die sich jeweils individuell erweitern lassen. Im Gegensatz dazu bieten Neoclouds nur eine Handvoll Produktlinien mit wenigen Varianten.” Durch diese Fokussierung sei es den Neocloud-Anbietern unter anderem möglich, mit weniger qualifiziertem Personal arbeiten, eine homogene IT-Landschaft in großem Maßstab optimieren und den Verwaltungsaufwand reduzieren, meint Rogers. Zwar könnten die Hyperscaler dem Research-Experten zufolge ihre eigenen GPUaaS-Angebote ebenfalls rabattieren, um den Neocloud-Anbietern den Wind aus den Segeln zu nehmen – das hätten sie allerdings gar nicht nötig: “Unternehmen, die eine Neocloud in Betracht ziehen, müssen Faktoren abwägen, die man bei den etablierten Anbietern in der Regel voraussetzen kann: Hyperscale-Rechenzentren sind sicher, in Sachen Compliance auf der Höhe der Zeit und mit diversen Management- und Monitoring-Tools ausgestattet.” Dazu komme laut Rogers, dass mit AWS, Google Cloud oder Azure in vielen Fällen keine neuen Verträge ausgehandelt werden müssten: “Hyperscaler haben einen festen Kundenstamm. Und für viele Kunden ist es schlicht einfacher, mehr für ihre bestehenden Hyperscaler-GPU-Instanzen zu bezahlen, als eine günstigere Alternative zu finden.” Darüber hinaus hat das Uptime Institute auch die Preisunterschiede zwischen dedizierter GPU-Infrastruktur On-Premises, von Hyperscalern und Neoclouds berechnet. Das Ergebnis: Ein Unternehmen, das über einen längeren Zeitraum bei einem dedizierten Infrastruktur-Cluster eine Auslastung von 22 Prozent erreicht und aufrechterhält, kann im Vergleich zum Hyperscaler-Angebot Kosten einsparen. Damit sich ein On-Premises-Modell aber auch im Vergleich mit einem Neocloud-Angebot rechnet, müsste die Auslastung laut Uptime bereits bei 66 Prozent liegen: “Diese 66-Prozent-Schwelle könnten nur die effizientesten KI-Implementierungen erreichen. In diesem Szenario würden viele Unternehmen Geld sparen, wenn sie auf eine Neocloud setzen, statt eigene Infrastruktur bereitzustellen”, ordnen die Infrastrukturexperten ein. Liegt die durchschnittliche Auslastung bei mindestens 22 Prozent, ist dedizierte Infrastruktur laut dem Uptime Institute bei einem etablierten Cloud-Anbieter günstiger als die Public Cloud. Im Fall einer Neocloud müsste der Wert auf 66 Prozent klettern.Uptime Institute Neoclouds bieten neben ihrer Kosteneffizienz eine Vielzahl weiterer Vorteile. So sind die Rechenzentren der Anbieter im Regelfall auf dem neuesten Stand der Technik und bieten unter anderem: Infiniband- oder RoCEv2-Netzwerke, Flüssigkeitskühlung, aktuelle Nvidia-GPUs, Skalierbarkeit sowie flexible On-Demand-Optionen. Insbesondere für Unternehmen, die gerade am Anfang ihrer KI-Reise stehen, bieten Neocloud-Anbieter eine Möglichkeit, mit der Technologie zu experimentieren – ohne große Investitionen in lokale Infrastruktur tätigen zu müssen. Vor dem Neocloud-Investment Wie so oft gilt aber auch bei Neoclouds: Wo Licht ist, ist auch Schatten. Zumindest potenziell. Deshalb sollten Sie folgende Aspekte berücksichtigen, bevor Sie auf einen Neocloud-Anbieter setzen. In der aktuellen AI-Goldgräberstimmung übersteigt die Nachfrage nach GPUs das Angebot. Sie sollten deshalb sicherstellen, dass der Neocloud-Anbieter Ihrer Wahl Zugang zu den neuesten GPU-Modellen garantieren kann. Die Neoclouds konkurrieren derzeit über den Preis, was die Preisspirale immer weiter nach unten treibt. Inzwischen sind die durchschnittlichen Preise von rund acht Dollar pro Stunde und GPU auf unter zwei Dollar gefallen. Nebius bietet etwa Nvidias L40S GPU für 1,55 Dollar pro Stunde an. Es ist davon auszugehen, dass die Neocloud-Anbieter künftig zusätzliche Services anbieten werden, um neue Einnahmequellen zu erschließen. Wie in der IT üblich, konkurrieren Unternehmen und kooperieren parallel miteinander. So erklärt sich auch, dass Nvidia, in mehrere Neoclouds investiert hat – oder dass Microsoft und Google als Hyperscaler Kunden von CoreWeave sind. Es ist wahrscheinlich, dass sich auch der Neocloud-Markt künftig konsolidieren wird. Das sollten Sie entsprechend einkalkulieren. Wenn Unternehmen ihre KI-Strategie ausarbeiten, ist reine GPU-Rechenleistung, wie sie Neoclouds bieten, eine Möglichkeit, um weiterzukommen. Allerdings müssen Sie als Anwender in diesem Fall weiterhin die hochkomplexen und technischen Aufgaben selbst übernehmen, die nötig sind, um KI-Anwendungen aufzubauen und zu betreiben. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KI-Kosten sparen mit Neoclouds?​ Neoclouds können eine Alternative zu den KI-Infrastrukturangeboten der Hyperscaler darstellen.Zamurovic Brothers | shutterstock.com

Neoclouds sind weder Produkt noch Technologie – und haben auch nichts mit der Matrix-Filmreihe zu tun.

In diesem Artikel lesen Sie:

was sich hinter dem Begriff verbirgt,

welche Neocloud-Anbieter Sie auf dem Zettel haben sollten,

wie Experten die Kosten im Vergleich zu Hyperscaler- und On-Premises-Angeboten einschätzen, und

welche Aspekte Sie vor einem Investment bedenken sollten.

Neocloud – was ist das?

Neoclouds sind Anbieter, die auf GPU-as-a-Service (GPUaaS) spezialisiert sind. Die Unternehmen in diesem Bereich wollen von der steigenden Nachfrage nach künstlicher Intelligenz, Machine Learning und Datenanalysen (sowie weiteren HPC-Workloads) profitieren. Dabei heben sie sich von AWS, Google Cloud und Microsoft (die ebenfalls GPU-Dienstleistungen anbieten) in erster Linie dadurch ab, dass es sich um hochspezialisierte, reine GPU-Serviceanbieter handelt.

Neocloud-Anbieter können im Vergleich zu den Hyperscalern in vielen Fällen wettbewerbsfähigere Preise bieten – in Kombination mit schnell verfügbaren State-of-the-Art-GPUs sowie speziell auf KI- und ML-Workloads optimierter Infrastruktur. Das ist insbesondere Multicloud-Strategien zuträglich – in solchen Umgebungen können die Neoclouds als spezialisierte Hubs für das KI-Training zum Einsatz kommen.

Die wichtigsten Neocloud-Anbieter

Vier Anbieter haben sich derzeit als Marktführer im Neocloud-Markt etabliert:

CoreWeave gilt als unangefochtener Neocloud-Marktführer und hat bereits einen erfolgreichen Börsengang hinter sich gebracht. Das Unternehmen war ursprünglich im Bereich Cryptomining tätig, orientierte sich aber ab 2019 auf Cloud-, respektive KI-Infrastruktur um. In der Folge konnte das US-Startup diverse Investoren von sich überzeugen, darunter auch Nvidia. Neben GPUaaS bietet das Unternehmen auch Objektspeicher für KI-Workloads und CPU-Cluster an. Medienberichten zufolge ist CoreWeave zudem der erste Cloud-Provider, der Nvidias Blackwell-Ultra-GPUs einsetzt.

Lambda Labs bezeichnet sich selbst als die “Superintelligence Cloud” und bietet nicht nur GPU-Dienstleistungen aus der Cloud, sondern auch in Form von lokalen, privaten Clustern an – inklusive Infiniband-Netzwerk und Storage. Besonderen Fokus legt dieser Neocloud-Anbieter (zu dessen Investoren ebenfalls Nvidia zählt) dabei auf die Benutzerfreundlichkeit.

Crusoe legt seinen Fokus darauf, nachhaltige Rechenzentren zu bauen, die von erneuerbaren Energien angetrieben werden. Davon abgesehen gehören auch eine moderne GPU-Infrastruktur, intelligente Orchestrierung und API-gesteuerte Managed Services zum Portfolio. 

Nebius ist ein europäischer Neocloud-Anbieter, der unter anderem ein großes Rechenzentrum in Finnland sein Eigen nennt. Das Unternehmen bietet eine Full-Stack-KI-Infrastruktur als Dienstleistung an.

Neoclouds im Kostenvergleich

Falls Sie sich vor allem fragen, wie viel man mit einem Neocloud-Anbieter im Vergleich zu einem Hyperscaler sparen kann: Das Uptime Institute hat in einer aktuellen Untersuchung die durchschnittlichen, stündlichen Kosten für eine Nvidia-DGX-H100-Instanz verglichen. Diese kostet demnach:

bei einem Hyperscaler im Schnitt 98 Dollar, während

eine gleichwertige von einem Neocloud-Anbieter durchschnittlich 34 Dollar kostet.

Daraus ergibt sich eine Ersparnis von satten 66 Prozent.

Owen Rogers, Senior Research Director beim Uptime Institute, erklärt, wie es zu dieser Diskrepanz kommt: “Neocloud-Anbieter können niedrigere Preise anbieten, weil sie im Gegensatz zu den Hyperscalern neben modernen keine Legacy-Infrastrukturen betreiben müssen. Hyperscaler bieten in der Regel Dutzende von Produkten an, die sich jeweils individuell erweitern lassen. Im Gegensatz dazu bieten Neoclouds nur eine Handvoll Produktlinien mit wenigen Varianten.”

Durch diese Fokussierung sei es den Neocloud-Anbietern unter anderem möglich, mit weniger qualifiziertem Personal arbeiten, eine homogene IT-Landschaft in großem Maßstab optimieren und den Verwaltungsaufwand reduzieren, meint Rogers. Zwar könnten die Hyperscaler dem Research-Experten zufolge ihre eigenen GPUaaS-Angebote ebenfalls rabattieren, um den Neocloud-Anbietern den Wind aus den Segeln zu nehmen – das hätten sie allerdings gar nicht nötig: “Unternehmen, die eine Neocloud in Betracht ziehen, müssen Faktoren abwägen, die man bei den etablierten Anbietern in der Regel voraussetzen kann: Hyperscale-Rechenzentren sind sicher, in Sachen Compliance auf der Höhe der Zeit und mit diversen Management- und Monitoring-Tools ausgestattet.”

Dazu komme laut Rogers, dass mit AWS, Google Cloud oder Azure in vielen Fällen keine neuen Verträge ausgehandelt werden müssten: “Hyperscaler haben einen festen Kundenstamm. Und für viele Kunden ist es schlicht einfacher, mehr für ihre bestehenden Hyperscaler-GPU-Instanzen zu bezahlen, als eine günstigere Alternative zu finden.”

Darüber hinaus hat das Uptime Institute auch die Preisunterschiede zwischen dedizierter GPU-Infrastruktur On-Premises, von Hyperscalern und Neoclouds berechnet. Das Ergebnis: Ein Unternehmen, das über einen längeren Zeitraum bei einem dedizierten Infrastruktur-Cluster eine Auslastung von 22 Prozent erreicht und aufrechterhält, kann im Vergleich zum Hyperscaler-Angebot Kosten einsparen. Damit sich ein On-Premises-Modell aber auch im Vergleich mit einem Neocloud-Angebot rechnet, müsste die Auslastung laut Uptime bereits bei 66 Prozent liegen: “Diese 66-Prozent-Schwelle könnten nur die effizientesten KI-Implementierungen erreichen. In diesem Szenario würden viele Unternehmen Geld sparen, wenn sie auf eine Neocloud setzen, statt eigene Infrastruktur bereitzustellen”, ordnen die Infrastrukturexperten ein.

Liegt die durchschnittliche Auslastung bei mindestens 22 Prozent, ist dedizierte Infrastruktur laut dem Uptime Institute bei einem etablierten Cloud-Anbieter günstiger als die Public Cloud. Im Fall einer Neocloud müsste der Wert auf 66 Prozent klettern.Uptime Institute

Neoclouds bieten neben ihrer Kosteneffizienz eine Vielzahl weiterer Vorteile. So sind die Rechenzentren der Anbieter im Regelfall auf dem neuesten Stand der Technik und bieten unter anderem:

Infiniband- oder RoCEv2-Netzwerke,

Flüssigkeitskühlung,

aktuelle Nvidia-GPUs,

Skalierbarkeit sowie

flexible On-Demand-Optionen.

Insbesondere für Unternehmen, die gerade am Anfang ihrer KI-Reise stehen, bieten Neocloud-Anbieter eine Möglichkeit, mit der Technologie zu experimentieren – ohne große Investitionen in lokale Infrastruktur tätigen zu müssen.

Vor dem Neocloud-Investment

Wie so oft gilt aber auch bei Neoclouds: Wo Licht ist, ist auch Schatten. Zumindest potenziell. Deshalb sollten Sie folgende Aspekte berücksichtigen, bevor Sie auf einen Neocloud-Anbieter setzen.

In der aktuellen AI-Goldgräberstimmung übersteigt die Nachfrage nach GPUs das Angebot. Sie sollten deshalb sicherstellen, dass der Neocloud-Anbieter Ihrer Wahl Zugang zu den neuesten GPU-Modellen garantieren kann.

Die Neoclouds konkurrieren derzeit über den Preis, was die Preisspirale immer weiter nach unten treibt. Inzwischen sind die durchschnittlichen Preise von rund acht Dollar pro Stunde und GPU auf unter zwei Dollar gefallen. Nebius bietet etwa Nvidias L40S GPU für 1,55 Dollar pro Stunde an. Es ist davon auszugehen, dass die Neocloud-Anbieter künftig zusätzliche Services anbieten werden, um neue Einnahmequellen zu erschließen.

Wie in der IT üblich, konkurrieren Unternehmen und kooperieren parallel miteinander. So erklärt sich auch, dass Nvidia, in mehrere Neoclouds investiert hat – oder dass Microsoft und Google als Hyperscaler Kunden von CoreWeave sind. Es ist wahrscheinlich, dass sich auch der Neocloud-Markt künftig konsolidieren wird. Das sollten Sie entsprechend einkalkulieren.

Wenn Unternehmen ihre KI-Strategie ausarbeiten, ist reine GPU-Rechenleistung, wie sie Neoclouds bieten, eine Möglichkeit, um weiterzukommen. Allerdings müssen Sie als Anwender in diesem Fall weiterhin die hochkomplexen und technischen Aufgaben selbst übernehmen, die nötig sind, um KI-Anwendungen aufzubauen und zu betreiben.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KI-Kosten sparen mit Neoclouds?​ Weiterlesen »

Zig Language: Die moderne C-Alternative?​

Allgemein

Bis zur Ablösung von C hat Zig noch einen weiten Weg vor sich – aber auch eine gute Perspektive. Foto: Leonid Andronov – shutterstock.com Softwareentwickler kommen nie zur Ruhe: Sobald ein zuvor unerreichbar scheinendes Ziel abgehakt ist, beginnt bereits die Arbeit an einem neuen. Die systemorientierte Entwicklung ist dafür ein gutes Beispiel: In diesem Bereich gibt es bereits eine Reihe starker Programmmiersprachen – etwa C, C++, Rust oder Go. Mit der neuen Language Zig kommt nun eine hinzu, die die Vorzüge der eben genannten Sprachen vereinen will – bei vergleichbarer Performance und einer besseren Developer Experience. Zig wurde im Jahr 2015 von Andrew Kelley als Projekt gestartet und scheint inzwischen eine kritische Masse zu erreichen. Das Ziel ist dabei hochgesteckt: Zig soll die langjährige Herrschaft von C beenden und es sowohl als die maßgebliche Low-Level-Sprache als auch als Standard, an dem andere Sprachen gemessen werden, ablösen. Zig – ein Ersatz für C? Zig wird als “Low-Level-Systemsprache” beschrieben, aber was ist das eigentlich genau? Wir haben Loris Cro, VP of Community bei der Zig Software Foundation gefragt, wie er die Programmiersprache definieren würde: “Zig ist eine Allzweck-Programmiersprache, denn obwohl sie gut für die Systemprogrammierung geeignet ist, eignet sie sich auch für Entwicklungsarbeit auf Embedded Devices, für WebAssembly, Games und die meisten anderen Tasks, die normalerweise High-Level-Sprachen vorbehalten bleiben.” Zig ist am einfachsten zu verstehen, wenn man es in Relation zu C setzt – als eine universelle, portable Sprache mit Pointern und ohne Garbage Collection. Heute basiert quasi die gesamte Entwicklungsinfrastruktur auf C – die Sprache bildet unter anderem die Grundlage für andere Programmiersprachen wie Java, JavaScript und Python. Stellen Sie sich vor, welchen Impact es hätte, eine Programmiersprache zu entwickeln, die wie C ist – nur sicherer, weniger fehleranfällig und leichter zu pflegen. Wenn Zig auf breiter Basis als C-Ersatz angenommen würde, könnte das enorme systemische Vorteile mit sich bringen. Laut Cro konkurriere Zig zwar mit C – dennoch sei es nicht sehr wahrscheinlich, C einfach so zu verdrängen. Stattdessen sei zu erwarten, dass beide Programmiersprachen über einen sehr langen Zeitraum nebeneinander existierten. Zig – Syntax & Design Zig ist eine “Close to the Metal”-Programmiersprache, die es Developern ermöglicht, direkt mit dem Systemspeicher zu arbeiten – eine Voraussetzung dafür, Code zu schreiben, der so gut wie möglich auf seinen jeweiligen Task optimiert ist. Sowohl die C-Familie als auch Rust und andere Low-Level-Systemsprachen setzen auf eine direkte Speicherzuweisung. Zig bietet ähnliche Fähigkeiten, zielt aber darauf ab, diese in mehrfacher Hinsicht zu optimieren. Zig will eine simplere, systemorientierte Sprache sein und es einfacher machen, sicheren und korrekten Code zu schreiben. Außerdem soll die Programmiersprache die Developer Experience verbessern, indem sie die “scharfen Kanten”, die bei der Programmierarbeit mit C-ähnlicher Software auftreten, reduziert. Die Funktionen von Zig mögen auf den ersten flüchtigen Blick nicht weltbewegend erscheinen – zusammengenommen ergeben sie jedoch eine Plattform, die für Developer einfacher zu beherrschen und verwenden ist. Derzeit wird Zig genutzt, um die JavaScript-Runtime Bun.js als Alternative zu Node.js zu implementieren. Jarred Sumner, der Schöpfer von Bun, weiß um die Vorteile der Programmiersprache: “Zig ähnelt C, weist aber bessere Memory-Safety-Funktionen auf und bringt zudem moderne Features wie defer (ähnlich wie bei Go) und Arbitrary Code mit, der zur Kompilierzeit über comptime ausgeführt wird. Weil es in Zig zudem sehr wenige Keywords gibt, ist es viel einfacher zu erlernen als beispielsweise C++ oder Rust.” Zig unterscheidet sich von den meisten anderen Sprachen durch einen vergleichsweise geringen Feature-Footprint, der das Ergebnis eines expliziten Designziels ist: Es soll möglichst nur eine offensichtliche Möglichkeit geben, Dinge zu tun. Das haben sich die Verantwortlichen so sehr zu Herzen genommen, dass Zig keinen for-Loop enthielt. Dieser wurde als unnötige Erweiterung des adäquaten while-Loop angesehen. Rust-Experte Kevin Lynagh beschreibt in einem Blogbeitrag, warum er eine Keyboard-Firmware in Zig neu geschrieben hat: “Die Sprache ist so klein und konsistent, dass ich bereits nach ein paar Stunden des Studiums in der Lage war, einfach meine Arbeit zu erledigen.” Eine Einschätzung, die C-Entwickler Nathan Craddock in seinem Blogbeitrag nur bestätigen kann. Programmierer wissen die fokussierte Qualität von Zigs Syntax also offensichtlich zu schätzen. Friendly reminder to all new people interested in trying out Zig: learning a new language is even better when you have access to someone that can help you when you get stuck!Join one of the Zig communities and enjoy a comfy on-boarding experiencehttps://t.co/1gFIcf5ktD— Zig (@ziglang) March 7, 2021 Zig – Memory Management Eine Besonderheit von Zig ist, dass sie die Speicherzuweisung nicht direkt händelt. Es gibt kein malloc-Keyword wie in C/C++. Stattdessen wird der Zugriff auf den Heap explizit über die Standardbibliothek abgewickelt. Wenn Sie eine solche Funktion benötigen, übergeben Sie ein Allocator-Objekt. Das hat den Effekt, dass eindeutig angegeben wird, wann die Bibliotheken auf den Speicher zugreifen, während gleichzeitig abstrahiert wird, wie er adressiert werden soll. Welche Art von Allokator angemessen ist, bestimmt Ihr Client-Code. Weil Speicherzugriff ein Bibliotheksmerkmal wird, werden versteckte Zuweisungen vermieden. Das ist für Echtzeit-Umgebungen und solche mit limitierten Ressourcen ein Segen. Die Memory wird aus der Sprachsyntax herausgelöst und das Handling wird expliziter. Wenn der Client-Code spezifizieren darf, welche Art von Allokator er an eine API weitergibt, wählt er diese entsprechend der Umgebung, die er targetiert. Das sorgt dafür, dass Library Code offensichtlicher zu verstehen und wiederverwendbar wird. Eine Anwendung kann exakt bestimmen, wann eine von ihr verwendete Bibliothek auf den Speicher zugreift und ihr den für die Laufzeit am besten geeigneten Allokator-Typ (embedded, Server, WASM) übergeben. Die Zig-Standardbibliothek wird beispielsweise mit einem Basis-Allokator (Page Allocator) ausgeliefert. Dieser fordert folgendermaßen Memory vom Betriebssystem an: const allocator = std.heap.page_allocator; Zig enthält darüber hinaus auch Sicherheitsfunktionen, um Buffer Overflows zu verhindern und wird mit einem Debug-Allokator ausgeliefert, der Memory Leaks aufspüren soll. Weitere Informationen über verfügbare Allokatoren finden Sie in der offiziellen Zig-Dokumentation. Zig – Konditionale Kompilierung Zig verwendet Conditional Compilation, was einen Preprocessor wie in C überflüssig macht. Entsprechend gibt es in Zig auch keine Makros wie in C/C++. Vom Design-Standpunkt aus betrachtet das Entwicklungsteam von Zig die Notwendigkeit eines Preprocessor als Anzeichen für eine Sprachlimitierung, die lediglich grob geflickt wurde. Anstelle von Makros bestimmt der Compiler von Zig, welche Code-Teile zum Zeitpunkt der Kompilierung evaluiert werden können. Ein if-Statement wird zum Beispiel (wenn möglich) seinen toten Branch zur Kompilierungszeit eliminieren. Anstatt über #define eine Konstante zur Kompilierungszeit zu erstellen, ermittelt Zig, ob der const-Wert auf diese Weise behandelt werden kann – und tut es einfach. Das macht den Code nicht nur einfacher zu lesen, zu schreiben und zu durchdenken, sondern eröffnet auch Optimierungsmöglichkeiten. Wie Softwareentwickler Erik Engheim in einem Blogeintrag treffend anmerkt, macht Zig Compile-time Computing zu einem zentralen Feature und enthebt es dem Status eines nachgelagerten Gedankens: “Das ermöglicht Entwicklern, generischen Code zu schreiben und sich der Meta-Programmierarbeit zu widmen – ganz ohne Expliziten Support für Generics oder Templates.” Ein charakteristisches Zig-Feature ist das comptime-Keyword. Es ermöglicht, Code zur Kompilierzeit auszuführen. So können Entwickler (unter anderem) Types gegen Generics durchsetzen. Zig – Interoperabilität mit C/C++ Zig bietet ein hohes Maß an Interoperabilität mit C und C++. Aus gutem Grund, wie in der Dokumentation nachzulesen ist: “Derzeit ist es es Fakt, dass C die vielseitigste und portabelste Programmiersprache ist. Jede Sprache, die nicht mit C-Code interagieren kann, riskiert es, bedeutungslos zu werden.” Zig kann C und C++ kompilieren. Außerdem wird es mit libc-Bibliotheken für diverse Plattformen ausgeliefert, die ohne Verknüpfung mit externen Bibliotheken erstellt werden können. Eine ausführliche Diskussion über die Beziehung zwischen Zig und libc finden Sie in diesem Reddit-Thread. Zig-Schöpfer Andrew Kelley legt in einem eigenen Blogbeitrag nahe, dass Zig C nicht nur mit seiner eigenen Syntax ersetzen, sondern C so weit wie möglich “absorbieren” will. “Zig ist besser als andere C/C++-Compiler, weil er unter anderem von Haus aus Cross-Compilation unterstützt”, ergänzt Cro. “Zig kann auch trivial mit C interagieren – man kann C-Header-Dateien direkt importieren – und es ist insgesamt besser als C bei der Verwendung von C-Bibliotheken, eines stärkeren Typsystems und Sprachfunktionen wie Defer sei Dank.” Das Type-System von Zig Zig ist stark typisiert und nutzt struct für objektähnliche Semantik, aber keine Klassen und Objekte. Die Sprache unterstützt Generics, wie C++ oder Java und nutzt das anytype-Keyword, um generische Parameter zu ermöglichen (arg: anytype). Zig bietet zudem Support für Unions. Nice summary of the Zig language: pic.twitter.com/vwC3nkmttG— Michal Ziulek🇺🇦 (@MichalZiulek) March 13, 2022 Zig – Error Handling Zig weist ein einzigartiges Error-Handling-System auf. Als Teil einer “avoid hidden control flow”-Designphilosophie greift die Programmiersprache nicht auf throw zurück, um Ausnahmen zu erzeugen. Stattdessen können Statements und Funktionen bei Bedarf einen Error Type zurückgeben. Der Code kann das Error Object verwenden, um entsprechend zu reagieren – oder den Fehler mit dem Keyword try übergehen. Ein Error Union Type weist folgende Syntax auf: ! . Wie das in Aktion aussieht, zeigt folgendes “Hello, world”-Beispiel: const std = @import(“std”); pub fn main() !void { const stdout = std.io.getStdOut().writer(); try stdout.print(“Hello, {s}!n”, .{“world”}); } Der Großteil dieses Listings ist selbsterklärend. Interessant ist dabei vor allem die !void-Syntax. Sie besagt, dass die Funktion entweder void oder einen Fehler zurückgeben kann. Das bedeutet: Läuft die Funktion main() ohne Fehler, gibt sie nichts zurück. Wenn nicht, gibt sie ein Error Object zurück, das den Fehlerzustand beschreibt. Zig – Toolchain & Testing Zig beinhaltet auch ein Build-Tool. Als Beispiel könnten wir das eben gesehene “Hello, world”-Beispiel erstellen und mit folgenden Befehlen ausführen: $ zig build-exe hello.zig $ ./hello Hello, world! Das Build-Tool von Zig arbeitet plattformübergreifend und ersetzt Werkzeuge wie make und cmake. Ein Package Manager ist derzeit in Arbeit – Support für Testing ist direkt in die Sprache und den Runner integriert. LLVM als Basis Zig wurde ursprünglich auf dem LLVM-Toolset aufgebaut – inzwischen ist dieses aber eine optionale Komponente. Das trägt weiter dazu bei, die Portabilität von Zig zu erhöhen, und sorgt dafür, dass sie sich besser für eigenständige Builds eignet. Zig – Status Quo Zu Zig gehört auch eine aktive Discord-Community und ein ausgedehntes GitHub-Ökosystem. Zig nähert sich laut Cro der Produktionsreife: “Zig ist noch nicht in der Version 1.0, deswegen stecken Dinge wie Webdev noch in den Kinderschuhen. Dennoch ist Datenverarbeitung der einzige Zweck, für den ich Zig nicht empfehlen würde. Dafür ist eine dynamische Sprache wie Python oder Julia meiner Meinung nach praktischer.” Den Fortschritt bis zur Version 1.0 können Sie über GitHub nachvollziehen. Folgende Beiträge und Artikel halten mehr Informationen über Zig bereit – und darüber, wie es die Welt der systemorientierten Programmierung aufrüttelt: Is Zig the long-awaited C Replacement? Why Zig when there is already C++, D and Rust? Revisiting the design approach to the Zig Programming Language A Review of the Zig Programming Language (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Zig Language: Die moderne C-Alternative?​ Bis zur Ablösung von C hat Zig noch einen weiten Weg vor sich – aber auch eine gute Perspektive.
Foto: Leonid Andronov – shutterstock.com

Softwareentwickler kommen nie zur Ruhe: Sobald ein zuvor unerreichbar scheinendes Ziel abgehakt ist, beginnt bereits die Arbeit an einem neuen. Die systemorientierte Entwicklung ist dafür ein gutes Beispiel: In diesem Bereich gibt es bereits eine Reihe starker Programmmiersprachen – etwa C, C++, Rust oder Go. Mit der neuen Language Zig kommt nun eine hinzu, die die Vorzüge der eben genannten Sprachen vereinen will – bei vergleichbarer Performance und einer besseren Developer Experience.

Zig wurde im Jahr 2015 von Andrew Kelley als Projekt gestartet und scheint inzwischen eine kritische Masse zu erreichen. Das Ziel ist dabei hochgesteckt: Zig soll die langjährige Herrschaft von C beenden und es sowohl als die maßgebliche Low-Level-Sprache als auch als Standard, an dem andere Sprachen gemessen werden, ablösen.

Zig – ein Ersatz für C?

Zig wird als “Low-Level-Systemsprache” beschrieben, aber was ist das eigentlich genau? Wir haben Loris Cro, VP of Community bei der Zig Software Foundation gefragt, wie er die Programmiersprache definieren würde: “Zig ist eine Allzweck-Programmiersprache, denn obwohl sie gut für die Systemprogrammierung geeignet ist, eignet sie sich auch für Entwicklungsarbeit auf Embedded Devices, für WebAssembly, Games und die meisten anderen Tasks, die normalerweise High-Level-Sprachen vorbehalten bleiben.”

Zig ist am einfachsten zu verstehen, wenn man es in Relation zu C setzt – als eine universelle, portable Sprache mit Pointern und ohne Garbage Collection. Heute basiert quasi die gesamte Entwicklungsinfrastruktur auf C – die Sprache bildet unter anderem die Grundlage für andere Programmiersprachen wie Java, JavaScript und Python.

Stellen Sie sich vor, welchen Impact es hätte, eine Programmiersprache zu entwickeln, die wie C ist – nur sicherer, weniger fehleranfällig und leichter zu pflegen. Wenn Zig auf breiter Basis als C-Ersatz angenommen würde, könnte das enorme systemische Vorteile mit sich bringen. Laut Cro konkurriere Zig zwar mit C – dennoch sei es nicht sehr wahrscheinlich, C einfach so zu verdrängen. Stattdessen sei zu erwarten, dass beide Programmiersprachen über einen sehr langen Zeitraum nebeneinander existierten.

Zig – Syntax & Design

Zig ist eine “Close to the Metal”-Programmiersprache, die es Developern ermöglicht, direkt mit dem Systemspeicher zu arbeiten – eine Voraussetzung dafür, Code zu schreiben, der so gut wie möglich auf seinen jeweiligen Task optimiert ist. Sowohl die C-Familie als auch Rust und andere Low-Level-Systemsprachen setzen auf eine direkte Speicherzuweisung. Zig bietet ähnliche Fähigkeiten, zielt aber darauf ab, diese in mehrfacher Hinsicht zu optimieren.

Zig will eine simplere, systemorientierte Sprache sein und es einfacher machen, sicheren und korrekten Code zu schreiben. Außerdem soll die Programmiersprache die Developer Experience verbessern, indem sie die “scharfen Kanten”, die bei der Programmierarbeit mit C-ähnlicher Software auftreten, reduziert. Die Funktionen von Zig mögen auf den ersten flüchtigen Blick nicht weltbewegend erscheinen – zusammengenommen ergeben sie jedoch eine Plattform, die für Developer einfacher zu beherrschen und verwenden ist.

Derzeit wird Zig genutzt, um die JavaScript-Runtime Bun.js als Alternative zu Node.js zu implementieren. Jarred Sumner, der Schöpfer von Bun, weiß um die Vorteile der Programmiersprache: “Zig ähnelt C, weist aber bessere Memory-Safety-Funktionen auf und bringt zudem moderne Features wie defer (ähnlich wie bei Go) und Arbitrary Code mit, der zur Kompilierzeit über comptime ausgeführt wird. Weil es in Zig zudem sehr wenige Keywords gibt, ist es viel einfacher zu erlernen als beispielsweise C++ oder Rust.”

Zig unterscheidet sich von den meisten anderen Sprachen durch einen vergleichsweise geringen Feature-Footprint, der das Ergebnis eines expliziten Designziels ist: Es soll möglichst nur eine offensichtliche Möglichkeit geben, Dinge zu tun. Das haben sich die Verantwortlichen so sehr zu Herzen genommen, dass Zig keinen for-Loop enthielt. Dieser wurde als unnötige Erweiterung des adäquaten while-Loop angesehen.

Rust-Experte Kevin Lynagh beschreibt in einem Blogbeitrag, warum er eine Keyboard-Firmware in Zig neu geschrieben hat: “Die Sprache ist so klein und konsistent, dass ich bereits nach ein paar Stunden des Studiums in der Lage war, einfach meine Arbeit zu erledigen.” Eine Einschätzung, die C-Entwickler Nathan Craddock in seinem Blogbeitrag nur bestätigen kann. Programmierer wissen die fokussierte Qualität von Zigs Syntax also offensichtlich zu schätzen.

Friendly reminder to all new people interested in trying out Zig: learning a new language is even better when you have access to someone that can help you when you get stuck!Join one of the Zig communities and enjoy a comfy on-boarding experiencehttps://t.co/1gFIcf5ktD— Zig (@ziglang) March 7, 2021

Zig – Memory Management

Eine Besonderheit von Zig ist, dass sie die Speicherzuweisung nicht direkt händelt. Es gibt kein malloc-Keyword wie in C/C++. Stattdessen wird der Zugriff auf den Heap explizit über die Standardbibliothek abgewickelt. Wenn Sie eine solche Funktion benötigen, übergeben Sie ein Allocator-Objekt. Das hat den Effekt, dass eindeutig angegeben wird, wann die Bibliotheken auf den Speicher zugreifen, während gleichzeitig abstrahiert wird, wie er adressiert werden soll. Welche Art von Allokator angemessen ist, bestimmt Ihr Client-Code.

Weil Speicherzugriff ein Bibliotheksmerkmal wird, werden versteckte Zuweisungen vermieden. Das ist für Echtzeit-Umgebungen und solche mit limitierten Ressourcen ein Segen. Die Memory wird aus der Sprachsyntax herausgelöst und das Handling wird expliziter.

Wenn der Client-Code spezifizieren darf, welche Art von Allokator er an eine API weitergibt, wählt er diese entsprechend der Umgebung, die er targetiert. Das sorgt dafür, dass Library Code offensichtlicher zu verstehen und wiederverwendbar wird. Eine Anwendung kann exakt bestimmen, wann eine von ihr verwendete Bibliothek auf den Speicher zugreift und ihr den für die Laufzeit am besten geeigneten Allokator-Typ (embedded, Server, WASM) übergeben.

Die Zig-Standardbibliothek wird beispielsweise mit einem Basis-Allokator (Page Allocator) ausgeliefert. Dieser fordert folgendermaßen Memory vom Betriebssystem an: const allocator = std.heap.page_allocator; Zig enthält darüber hinaus auch Sicherheitsfunktionen, um Buffer Overflows zu verhindern und wird mit einem Debug-Allokator ausgeliefert, der Memory Leaks aufspüren soll. Weitere Informationen über verfügbare Allokatoren finden Sie in der offiziellen Zig-Dokumentation.

Zig – Konditionale Kompilierung

Zig verwendet Conditional Compilation, was einen Preprocessor wie in C überflüssig macht. Entsprechend gibt es in Zig auch keine Makros wie in C/C++. Vom Design-Standpunkt aus betrachtet das Entwicklungsteam von Zig die Notwendigkeit eines Preprocessor als Anzeichen für eine Sprachlimitierung, die lediglich grob geflickt wurde.

Anstelle von Makros bestimmt der Compiler von Zig, welche Code-Teile zum Zeitpunkt der Kompilierung evaluiert werden können. Ein if-Statement wird zum Beispiel (wenn möglich) seinen toten Branch zur Kompilierungszeit eliminieren. Anstatt über #define eine Konstante zur Kompilierungszeit zu erstellen, ermittelt Zig, ob der const-Wert auf diese Weise behandelt werden kann – und tut es einfach. Das macht den Code nicht nur einfacher zu lesen, zu schreiben und zu durchdenken, sondern eröffnet auch Optimierungsmöglichkeiten.

Wie Softwareentwickler Erik Engheim in einem Blogeintrag treffend anmerkt, macht Zig Compile-time Computing zu einem zentralen Feature und enthebt es dem Status eines nachgelagerten Gedankens: “Das ermöglicht Entwicklern, generischen Code zu schreiben und sich der Meta-Programmierarbeit zu widmen – ganz ohne Expliziten Support für Generics oder Templates.”

Ein charakteristisches Zig-Feature ist das comptime-Keyword. Es ermöglicht, Code zur Kompilierzeit auszuführen. So können Entwickler (unter anderem) Types gegen Generics durchsetzen.

Zig – Interoperabilität mit C/C++

Zig bietet ein hohes Maß an Interoperabilität mit C und C++. Aus gutem Grund, wie in der Dokumentation nachzulesen ist: “Derzeit ist es es Fakt, dass C die vielseitigste und portabelste Programmiersprache ist. Jede Sprache, die nicht mit C-Code interagieren kann, riskiert es, bedeutungslos zu werden.”

Zig kann C und C++ kompilieren. Außerdem wird es mit libc-Bibliotheken für diverse Plattformen ausgeliefert, die ohne Verknüpfung mit externen Bibliotheken erstellt werden können. Eine ausführliche Diskussion über die Beziehung zwischen Zig und libc finden Sie in diesem Reddit-Thread. Zig-Schöpfer Andrew Kelley legt in einem eigenen Blogbeitrag nahe, dass Zig C nicht nur mit seiner eigenen Syntax ersetzen, sondern C so weit wie möglich “absorbieren” will.

“Zig ist besser als andere C/C++-Compiler, weil er unter anderem von Haus aus Cross-Compilation unterstützt”, ergänzt Cro. “Zig kann auch trivial mit C interagieren – man kann C-Header-Dateien direkt importieren – und es ist insgesamt besser als C bei der Verwendung von C-Bibliotheken, eines stärkeren Typsystems und Sprachfunktionen wie Defer sei Dank.”

Das Type-System von Zig

Zig ist stark typisiert und nutzt struct für objektähnliche Semantik, aber keine Klassen und Objekte. Die Sprache unterstützt Generics, wie C++ oder Java und nutzt das anytype-Keyword, um generische Parameter zu ermöglichen (arg: anytype). Zig bietet zudem Support für Unions.

Nice summary of the Zig language: pic.twitter.com/vwC3nkmttG— Michal Ziulek🇺🇦 (@MichalZiulek) March 13, 2022

Zig – Error Handling

Zig weist ein einzigartiges Error-Handling-System auf. Als Teil einer “avoid hidden control flow”-Designphilosophie greift die Programmiersprache nicht auf throw zurück, um Ausnahmen zu erzeugen. Stattdessen können Statements und Funktionen bei Bedarf einen Error Type zurückgeben. Der Code kann das Error Object verwenden, um entsprechend zu reagieren – oder den Fehler mit dem Keyword try übergehen.

Ein Error Union Type weist folgende Syntax auf: ! . Wie das in Aktion aussieht, zeigt folgendes “Hello, world”-Beispiel:

const std = @import(“std”);

pub fn main() !void {

const stdout = std.io.getStdOut().writer();

try stdout.print(“Hello, {s}!n”, .{“world”});

}

Der Großteil dieses Listings ist selbsterklärend. Interessant ist dabei vor allem die !void-Syntax. Sie besagt, dass die Funktion entweder void oder einen Fehler zurückgeben kann. Das bedeutet: Läuft die Funktion main() ohne Fehler, gibt sie nichts zurück. Wenn nicht, gibt sie ein Error Object zurück, das den Fehlerzustand beschreibt.

Zig – Toolchain & Testing

Zig beinhaltet auch ein Build-Tool. Als Beispiel könnten wir das eben gesehene “Hello, world”-Beispiel erstellen und mit folgenden Befehlen ausführen:

$ zig build-exe hello.zig

$ ./hello

Hello, world!

Das Build-Tool von Zig arbeitet plattformübergreifend und ersetzt Werkzeuge wie make und cmake. Ein Package Manager ist derzeit in Arbeit – Support für Testing ist direkt in die Sprache und den Runner integriert.

LLVM als Basis

Zig wurde ursprünglich auf dem LLVM-Toolset aufgebaut – inzwischen ist dieses aber eine optionale Komponente. Das trägt weiter dazu bei, die Portabilität von Zig zu erhöhen, und sorgt dafür, dass sie sich besser für eigenständige Builds eignet.

Zig – Status Quo

Zu Zig gehört auch eine aktive Discord-Community und ein ausgedehntes GitHub-Ökosystem. Zig nähert sich laut Cro der Produktionsreife: “Zig ist noch nicht in der Version 1.0, deswegen stecken Dinge wie Webdev noch in den Kinderschuhen. Dennoch ist Datenverarbeitung der einzige Zweck, für den ich Zig nicht empfehlen würde. Dafür ist eine dynamische Sprache wie Python oder Julia meiner Meinung nach praktischer.”

Den Fortschritt bis zur Version 1.0 können Sie über GitHub nachvollziehen. Folgende Beiträge und Artikel halten mehr Informationen über Zig bereit – und darüber, wie es die Welt der systemorientierten Programmierung aufrüttelt:

Is Zig the long-awaited C Replacement?

Why Zig when there is already C++, D and Rust?

Revisiting the design approach to the Zig Programming Language

A Review of the Zig Programming Language

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Zig Language: Die moderne C-Alternative?​ Weiterlesen »

Spaghetti-Code verhindern: So entwickeln Sie besser​

Allgemein

Wenn Spaghetti-Strukturen der Programmierarbeit entspringen, kann Einiges schiefgehen. Lesen Sie, wie Sie das verhindern. Foto: Lightfield Studios – shutterstock.comDer Begriff Spaghetti-Code bezeichnet schlecht organisierten, verworrenen oder kompliziert verschachtelten Quellcode, der schwierig zu verstehen, zu aktualisieren, zu erweitern und zu warten ist. Zur Anwendung kommt der Terminus im Regelfall bei Code, der:nicht richtig organisiert ist,einen komplexen oder verworrenen Kontrollfluss aufweist undgegen die allgemeinen Grundsätze guten Softwaredesigns verstößt.Spaghetti-Code kann sich auch in den Quellcode Ihrer Anwendung einschleichen, egal wie raffiniert dieser auch sein mag. Entstehen kann Spaghetti-Code, indem:empfohlene Methoden und Prinzipien für sauberen Code keine Beachtung finden;Programmcode ohne Struktur, Plan oder Organisation geschrieben wird;Code-Teile “entliehen” oder von unerfahrenen Entwicklern geschrieben werden.Die Folgen können mitunter schwerwiegend ausfallen: Entwickler haben es schwerer, Fehler zu beheben oder neue Funktionen hinzuzufügen. Eine unübersichtliche und unorganisierte Codebasis führt zu Verwirrung.Ineffiziente Algorithmen und mangelnde Optimierung können zu einer verminderten Anwendungsleistung führen. Dann wachsen die Antwortzeiten, der Speicherverbrauch steigt und die Benutzerfreundlichkeit wird beeinträchtigt.Spaghetti-Code kann auch Schwachstellen verdecken, die möglicherweise von Hackern ausgenutzt werden können. Spaghetti-Code verhindern: Best Practices für DeveloperDie Kosten für Spaghetti-Code sind also hoch. Die gute Nachricht ist, dass er auch vermeidbar ist. Nachfolgend stellen wir Ihnen zehn Best Practices vor, die Sie dabei unterstützen, Ihre Applikationen sauber, gut organisiert und wartbar zu halten.1. OOP-Prinzipien befolgenSie sollten Data und Behavior in Ihren Klassen und Objekten kapseln und sich die Vorteile objektorientierter Programmierung (OOP) zunutze machen – etwa Vererbung, Komposition und Polymorphie. Das gewährleistet modularen, verwaltbaren und organisierten Code.2. SOLID-Prinzipien befolgenSoftware, die auf der Grundlage etablierter Programmierprinzipien wie SOLID entsteht, minimiert die Risiken, die mit schlecht strukturiertem Code verknüpft sind. Nach dem Single-Responsibility-Prinzip (eines der fünf SOLID-Prinzipien) sollte jede Klasse oder Methode nur eine Responsibility aufweisen. Die Logger-Klasse sollte beispielsweise ausschließlich dafür zuständig sein, Daten zu protokollieren und keine anderen Funktionen enthalten.3. Fokus mit DRY bewahrenKomplexe Funktionen zu verstehen und zu pflegen ist einfacher, wenn diese in kleinere, fokussierte Komponenten aufgeteilt sind. Indem Sie allgemeine Funktionen in wiederverwendbare Methoden, Klassen und Bibliotheken abstrahieren und dabei das DRY-Prinzip anwenden, reduzieren Sie Code-Duplizierung. Zudem wird so sichergestellt, dass Code-Änderungen an einer stelle automatisch synchronisiert werden.4. Nomenklatur sinnhaft gestaltenHalten Sie eine saubere und konsistente Codebasis aufrecht, indem Sie sich an Kodierungsstandards und Stil-Richtlinien halten. Stellen Sie sicher, dass Ihre Variablen, Klassen, Methoden und andere Elemente aussagekräftige Namen aufweisen. Das macht Ihren Code leichter verständlich, macht viele Kommentare überflüssig und erleichtert die Code-Pflege.5. Zyklomatische Komplexität reduzierenDie McCabe-Metrik (auch zyklomatische Komplexität) ist ein quantitatives Maß, um die Anzahl der linear unabhängigen Pfade im Quellcode und damit die Softwarekomplexität zu erfassen. Übermäßig viele if-else-Anweisungen und weitreichende Verschachtelungen erhöhen die zyklomatische Komplexität. Mit Hilfe von Code Refactoring können Sie Verschachtelungsebenen reduzieren und die Branch-Logik vereinfachen.6. Mit Kommentaren sparenIhr Code sollte Kommentare enthalten, die den Zweck und die Absicht von Klassen, Schnittstellen, Methoden und Eigenschaften erklären. Gut dokumentierter Code ist schließlich wesentlich einfacher zu managen. zu pflegen und zu debuggen. Vergessen Sie dabei aber nicht, dass gut dokumentiert auch klar dokumentiert bedeutet: Aussagekräftige Namen (siehe oben) und weniger komplexer Code sind hier möglicherweise hilfreicher als zu viele Kommentare.7. Regelmäßig refaktorierenRefactoring auf regelmäßiger Basis beseitigt Redundanzen, verringert Komplexität und verbessert die Codequalität. Darüber hinaus trägt es durch Design- und Strukturoptimierungen und auch dazu bei, dass die Codebasis im Zeitverlauf deutlich einfacher zu pflegen ist.8. Einfach haltenUm die einfachste Lösung zu entwickeln, die den Anforderungen der Benutzer entspricht, und um unnötige Komplexität zu vermeiden, können Sie für Ihr Projekt auf das KISS-Prinzip zurückgreifen.Enthält Ihre Applikationen unnötige Funktionen, erschwert das nicht nur Unit-Tests und Wartung, sondern beeinträchtigt auch die Benutzerfreundlichkeit. An dieser Stelle hilft Ihnen das YAGNI-Prinzip.Kurzum: Konzentrieren Sie sich auf das Wesentliche und sehen Sie davon ab, Ihren Code um der Perfektion willen “vergolden” zu wollen.9. Unit-Tests ausschöpfenUm Fehler in Ihren Anwendungen zu reduzieren, sollten Sie die Vorteile von Unit-Tests in Ihrem Softwareentwicklungs-Workflow voll ausschöpfen. So können Sie sicherstellen, dass eine Code-Einheit wie gewünscht funktioniert. Wenn Sie Ihren Code geändert oder umstrukturiert haben, sollten Sie die Unit-Tests zudem wiederholen, um sicherzustellen, dass noch alles so funktioniert wie es soll.10. Code-Reviews nutzenCode-Reviews können wertvolle Einblicke und Feedback liefern. Auch das eröffnet Ihnen und Ihrem Team nicht nur die Möglichkeit, Verbesserungsvorschläge zu sammeln, sondern auch Spaghetti-Code zu identifizieren. Peer-Reviews von Code können zudem dabei helfen, die Fallstricke zu verstehen, die bei der Programmierarbeit lauern. (fm) The amount of spaghetti code in this program is actually what makes it a horror game https://t.co/vJA5fXDmEe— Toph (@Tophrrr) June 16, 2023 Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

Spaghetti-Code verhindern: So entwickeln Sie besser​ Wenn Spaghetti-Strukturen der Programmierarbeit entspringen, kann Einiges schiefgehen. Lesen Sie, wie Sie das verhindern.
Foto: Lightfield Studios – shutterstock.comDer Begriff Spaghetti-Code bezeichnet schlecht organisierten, verworrenen oder kompliziert verschachtelten Quellcode, der schwierig zu verstehen, zu aktualisieren, zu erweitern und zu warten ist. Zur Anwendung kommt der Terminus im Regelfall bei Code, der:nicht richtig organisiert ist,einen komplexen oder verworrenen Kontrollfluss aufweist undgegen die allgemeinen Grundsätze guten Softwaredesigns verstößt.Spaghetti-Code kann sich auch in den Quellcode Ihrer Anwendung einschleichen, egal wie raffiniert dieser auch sein mag. Entstehen kann Spaghetti-Code, indem:empfohlene Methoden und Prinzipien für sauberen Code keine Beachtung finden;Programmcode ohne Struktur, Plan oder Organisation geschrieben wird;Code-Teile “entliehen” oder von unerfahrenen Entwicklern geschrieben werden.Die Folgen können mitunter schwerwiegend ausfallen: Entwickler haben es schwerer, Fehler zu beheben oder neue Funktionen hinzuzufügen. Eine unübersichtliche und unorganisierte Codebasis führt zu Verwirrung.Ineffiziente Algorithmen und mangelnde Optimierung können zu einer verminderten Anwendungsleistung führen. Dann wachsen die Antwortzeiten, der Speicherverbrauch steigt und die Benutzerfreundlichkeit wird beeinträchtigt.Spaghetti-Code kann auch Schwachstellen verdecken, die möglicherweise von Hackern ausgenutzt werden können.

Spaghetti-Code verhindern: Best Practices für DeveloperDie Kosten für Spaghetti-Code sind also hoch. Die gute Nachricht ist, dass er auch vermeidbar ist. Nachfolgend stellen wir Ihnen zehn Best Practices vor, die Sie dabei unterstützen, Ihre Applikationen sauber, gut organisiert und wartbar zu halten.1. OOP-Prinzipien befolgenSie sollten Data und Behavior in Ihren Klassen und Objekten kapseln und sich die Vorteile objektorientierter Programmierung (OOP) zunutze machen – etwa Vererbung, Komposition und Polymorphie. Das gewährleistet modularen, verwaltbaren und organisierten Code.2. SOLID-Prinzipien befolgenSoftware, die auf der Grundlage etablierter Programmierprinzipien wie SOLID entsteht, minimiert die Risiken, die mit schlecht strukturiertem Code verknüpft sind. Nach dem Single-Responsibility-Prinzip (eines der fünf SOLID-Prinzipien) sollte jede Klasse oder Methode nur eine Responsibility aufweisen. Die Logger-Klasse sollte beispielsweise ausschließlich dafür zuständig sein, Daten zu protokollieren und keine anderen Funktionen enthalten.3. Fokus mit DRY bewahrenKomplexe Funktionen zu verstehen und zu pflegen ist einfacher, wenn diese in kleinere, fokussierte Komponenten aufgeteilt sind. Indem Sie allgemeine Funktionen in wiederverwendbare Methoden, Klassen und Bibliotheken abstrahieren und dabei das DRY-Prinzip anwenden, reduzieren Sie Code-Duplizierung. Zudem wird so sichergestellt, dass Code-Änderungen an einer stelle automatisch synchronisiert werden.4. Nomenklatur sinnhaft gestaltenHalten Sie eine saubere und konsistente Codebasis aufrecht, indem Sie sich an Kodierungsstandards und Stil-Richtlinien halten. Stellen Sie sicher, dass Ihre Variablen, Klassen, Methoden und andere Elemente aussagekräftige Namen aufweisen. Das macht Ihren Code leichter verständlich, macht viele Kommentare überflüssig und erleichtert die Code-Pflege.5. Zyklomatische Komplexität reduzierenDie McCabe-Metrik (auch zyklomatische Komplexität) ist ein quantitatives Maß, um die Anzahl der linear unabhängigen Pfade im Quellcode und damit die Softwarekomplexität zu erfassen. Übermäßig viele if-else-Anweisungen und weitreichende Verschachtelungen erhöhen die zyklomatische Komplexität. Mit Hilfe von Code Refactoring können Sie Verschachtelungsebenen reduzieren und die Branch-Logik vereinfachen.6. Mit Kommentaren sparenIhr Code sollte Kommentare enthalten, die den Zweck und die Absicht von Klassen, Schnittstellen, Methoden und Eigenschaften erklären. Gut dokumentierter Code ist schließlich wesentlich einfacher zu managen. zu pflegen und zu debuggen. Vergessen Sie dabei aber nicht, dass gut dokumentiert auch klar dokumentiert bedeutet: Aussagekräftige Namen (siehe oben) und weniger komplexer Code sind hier möglicherweise hilfreicher als zu viele Kommentare.7. Regelmäßig refaktorierenRefactoring auf regelmäßiger Basis beseitigt Redundanzen, verringert Komplexität und verbessert die Codequalität. Darüber hinaus trägt es durch Design- und Strukturoptimierungen und auch dazu bei, dass die Codebasis im Zeitverlauf deutlich einfacher zu pflegen ist.8. Einfach haltenUm die einfachste Lösung zu entwickeln, die den Anforderungen der Benutzer entspricht, und um unnötige Komplexität zu vermeiden, können Sie für Ihr Projekt auf das KISS-Prinzip zurückgreifen.Enthält Ihre Applikationen unnötige Funktionen, erschwert das nicht nur Unit-Tests und Wartung, sondern beeinträchtigt auch die Benutzerfreundlichkeit. An dieser Stelle hilft Ihnen das YAGNI-Prinzip.Kurzum: Konzentrieren Sie sich auf das Wesentliche und sehen Sie davon ab, Ihren Code um der Perfektion willen “vergolden” zu wollen.9. Unit-Tests ausschöpfenUm Fehler in Ihren Anwendungen zu reduzieren, sollten Sie die Vorteile von Unit-Tests in Ihrem Softwareentwicklungs-Workflow voll ausschöpfen. So können Sie sicherstellen, dass eine Code-Einheit wie gewünscht funktioniert. Wenn Sie Ihren Code geändert oder umstrukturiert haben, sollten Sie die Unit-Tests zudem wiederholen, um sicherzustellen, dass noch alles so funktioniert wie es soll.10. Code-Reviews nutzenCode-Reviews können wertvolle Einblicke und Feedback liefern. Auch das eröffnet Ihnen und Ihrem Team nicht nur die Möglichkeit, Verbesserungsvorschläge zu sammeln, sondern auch Spaghetti-Code zu identifizieren. Peer-Reviews von Code können zudem dabei helfen, die Fallstricke zu verstehen, die bei der Programmierarbeit lauern. (fm)

The amount of spaghetti code in this program is actually what makes it a horror game https://t.co/vJA5fXDmEe— Toph (@Tophrrr) June 16, 2023

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

Spaghetti-Code verhindern: So entwickeln Sie besser​ Weiterlesen »

Microsoft Exchange Server SE allgemein verfügbar​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”> Microsoft Exchange Server SE, der Exchange 2016 und Exchange 2019 ablösen soll, steht jetzt bereit.Emagnetic / Shutterstock Wenn Ihr Unternehmen noch Exchange 2016 oder Exchange 2019 lokal betreibt, sollten Sie nicht länger zögern: Microsoft hat nun die Exchange Server Subscription Edition (SE) offiziell verfügbar gemacht, um diese Versionen abzulösen. SE ist genau das, wonach es klingt: Unternehmenskunden müssen künftig Abonnement-Lizenzen für alle Benutzer und Server erwerben. Die Änderung, die ab sofort gilt, geht mit Preiserhöhungen einher: zehn Prozent für eigenständige On-Premises-Serverprodukte, 15 Prozent für die On-Prem Core CAL Suite und  20 Prozent für die On-Prem Enterprise CAL Suite, die letzten beiden wirksam ab dem 1. August. Beim Exchange Server SE, so erklärt Microsoft, müssen Kunden zusätzlich zum Kauf der erforderlichen Serverlizenzen und CALs auch ein aktives Abonnement aufrechterhalten. Das hat zur Folge, dass: Cloud-Abonnement-Lizenzen für alle Benutzer und Geräte, die auf Exchange Server SE zugreifen (z. B. Microsoft 365 E3- oder E5-Lizenzen) oder Exchange Server SE-Lizenzen und CALs mit Software Assurance (SA) erworben werden müssen. Der Technologiekonzern wird den Support für Exchange Server 2016 und 2019 am 14. Oktober offiziell einstellen. Das heißt, ab diesem Zeitpunkt werden keine Updates, technischer Support, Bug Fixes oder Sicherheits-Patches mehr bereitgestellt. Unternehmen könnten SE Exchange Server 2016 und 2019 nach dem Ende der Lebensdauer (EOL) zwar weiterhin verwenden, jedoch auf eigenes Risiko, so das Unternehmen. Umstellung auf eine „moderne Lifecycle-Richtlinie” „Da das EOL-Datum noch etwa dreieinhalb Monate entfernt ist, erhalten Nachzügler (und diejenigen, die aus Compliance- und geschäftlichen Gründen On-Premises bleiben müssen) einen unterstützten Weg in die Zukunft”, erklärt John Annand, Leiter des Bereichs digitale Infrastruktur bei der Info-Tech Research Group. Microsoft hat im Februar das letzte kumulative Update (CU) für Exchange Server 2019 veröffentlicht. Kunden, die E-Mails weiterhin lokal speichern möchten, müssen deshalb auf das SE-Lizenzmodell umsteigen, um weiterhin Support und Updates zu erhalten. Wer hingegen bereit für den Umstieg in die Cloud ist, kann stattdessen Microsofts vollständig gehostete Plattformen Exchange Online oder Microsoft 365 wählen. „Exchange SE unterstreicht unser Engagement für den kontinuierlichen Support von Szenarien, in denen lokale Lösungen nach wie vor von entscheidender Bedeutung sind“, betont Microsoft in einem Blogbeitrag. Die gute Nachricht ist, dass SE Microsofts „Modern Lifecycle Policy“ unterliegt. Das bedeutet, dass es sich um ein „Evergreen“-Produkt handelt, das kontinuierlich gewartet und weiterentwickelt wird, wie der Softwareriese erklärt. Es gebe keine festen End-of-Life-Daten für diese Version – Kunden könnten ihre Konfigurationen also stets aktuell halten. Dem Unternehmen zufolge werden Exchange SE CUs (Cumulative Updates) weiterhin im gleichen Rhythmus von zwei Stück pro Kalenderjahr veröffentlicht. Sicherheits- oder Hotfix-Updates, also gezielte Software-Updates zur Behebung spezifischer, in der Regel kritischer Probleme, die zwischen den CUs auftreten, sollen nach Bedarf bereitgestellt werden. Analysten betonen, dass dies nicht unerwartet kommt: Microsoft hatte bereits seit einiger Zeit angekündigt, den Support für die Exchange-Editionen 2016 und 2019 einzustellen und auf ein Abonnementmodell umzustellen. Annand wies jedoch darauf hin, dass vor drei Jahren noch immer von rund 300.000 physischen Servern vor Ort mit 7,3 Milliarden Postfächern die Rede war. „Natürlich möchte Microsoft mehr Geld auf dem Konto sehen”, merkt er an und verweist auf die zehnprozentige Preiserhöhung für Serverlizenzen und eine Erhöhung der Clientzugriffslizenzen um 15 oder 20 Prozent, je nach Kaufart. „Preiserhöhungen werden von Kunden nie gerne gesehen“, so Annand. „Aber solange Microsoft es ihnen weiterhin erlaubt, ihre Daten lokal zu hosten und den Update-Zyklus selbst zu verwalten (anders als bei Exchange Online), werden sie sich widerwillig damit abfinden.” So aktualisieren Sie auf Exchange SE Das letzte Update für Exchange Server 2019 enthält alle vorherigen Sicherheits-Patches und führt serverseitige Komponenten für „Feature Flighting“ ein, einen optionalen Cloud-basierten Dienst, der sofortige Updates unterstützt, sobald neue Funktionen verfügbar sind. Dies soll dazu beitragen, die Stabilität und Sicherheit bis zum Ende des Lebenszyklus im Herbst dieses Jahres zu gewährleisten. Microsoft empfiehlt, so bald wie möglich auf Exchange SE zu aktualisieren und Exchange 2016 oder 2019 außer Betrieb zu nehmen. Nach der Umstellung auf SE können Unternehmen ab SE CU2 keine Exchange-2016- oder -2019-Server mehr lokal betreiben. Unternehmen haben zwei Upgrade-Optionen: ein Legacy-Upgrade, für das neue Server erforderlich sind, oder ein „In-Place”-Upgrade (nur für Exchange 2019 verfügbar), bei dem das neueste Upgrade-Paket heruntergeladen und installiert wird. Während dieses Vorgangs kann es laut Microsoft zu einigen Unterbrechungen kommen, da die Postfächer vorübergehend pausiert werden. Unternehmen könnten dies jedoch umgehen, indem sie Upgrades über Nacht, am Wochenende oder zu anderen Zeiten durchführten, wenn die Büros geschlossen sind. Microsoft weist darauf hin, dass sich die Umstellung auf SE von früheren Releases unterscheidet, da sie kein umfangreiches Code-Upgrade und keine wesentlichen Änderungen beinhalte. Es würden keine neuen Lizenzschlüssel benötigt, keine Funktionen hinzugefügt oder entfernt, keine Installationsvoraussetzungen geändert und es gebe auch keine Änderungen am Active-Directory-Schema. (mb) 

Microsoft Exchange Server SE allgemein verfügbar​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”> Microsoft Exchange Server SE, der Exchange 2016 und Exchange 2019 ablösen soll, steht jetzt bereit.Emagnetic / Shutterstock

Wenn Ihr Unternehmen noch Exchange 2016 oder Exchange 2019 lokal betreibt, sollten Sie nicht länger zögern: Microsoft hat nun die Exchange Server Subscription Edition (SE) offiziell verfügbar gemacht, um diese Versionen abzulösen.

SE ist genau das, wonach es klingt: Unternehmenskunden müssen künftig Abonnement-Lizenzen für alle Benutzer und Server erwerben. Die Änderung, die ab sofort gilt, geht mit Preiserhöhungen einher:

zehn Prozent für eigenständige On-Premises-Serverprodukte,

15 Prozent für die On-Prem Core CAL Suite und

 20 Prozent für die On-Prem Enterprise CAL Suite, die letzten beiden wirksam ab dem 1. August.

Beim Exchange Server SE, so erklärt Microsoft, müssen Kunden zusätzlich zum Kauf der erforderlichen Serverlizenzen und CALs auch ein aktives Abonnement aufrechterhalten. Das hat zur Folge, dass:

Cloud-Abonnement-Lizenzen für alle Benutzer und Geräte, die auf Exchange Server SE zugreifen (z. B. Microsoft 365 E3- oder E5-Lizenzen) oder

Exchange Server SE-Lizenzen und CALs mit Software Assurance (SA) erworben werden müssen.

Der Technologiekonzern wird den Support für Exchange Server 2016 und 2019 am 14. Oktober offiziell einstellen. Das heißt, ab diesem Zeitpunkt werden keine Updates, technischer Support, Bug Fixes oder Sicherheits-Patches mehr bereitgestellt.

Unternehmen könnten SE Exchange Server 2016 und 2019 nach dem Ende der Lebensdauer (EOL) zwar weiterhin verwenden, jedoch auf eigenes Risiko, so das Unternehmen.

Umstellung auf eine „moderne Lifecycle-Richtlinie”

„Da das EOL-Datum noch etwa dreieinhalb Monate entfernt ist, erhalten Nachzügler (und diejenigen, die aus Compliance- und geschäftlichen Gründen On-Premises bleiben müssen) einen unterstützten Weg in die Zukunft”, erklärt John Annand, Leiter des Bereichs digitale Infrastruktur bei der Info-Tech Research Group.

Microsoft hat im Februar das letzte kumulative Update (CU) für Exchange Server 2019 veröffentlicht. Kunden, die E-Mails weiterhin lokal speichern möchten, müssen deshalb auf das SE-Lizenzmodell umsteigen, um weiterhin Support und Updates zu erhalten. Wer hingegen bereit für den Umstieg in die Cloud ist, kann stattdessen Microsofts vollständig gehostete Plattformen Exchange Online oder Microsoft 365 wählen.

„Exchange SE unterstreicht unser Engagement für den kontinuierlichen Support von Szenarien, in denen lokale Lösungen nach wie vor von entscheidender Bedeutung sind“, betont Microsoft in einem Blogbeitrag.

Die gute Nachricht ist, dass SE Microsofts „Modern Lifecycle Policy“ unterliegt. Das bedeutet, dass es sich um ein „Evergreen“-Produkt handelt, das kontinuierlich gewartet und weiterentwickelt wird, wie der Softwareriese erklärt. Es gebe keine festen End-of-Life-Daten für diese Version – Kunden könnten ihre Konfigurationen also stets aktuell halten.

Dem Unternehmen zufolge werden Exchange SE CUs (Cumulative Updates) weiterhin im gleichen Rhythmus von zwei Stück pro Kalenderjahr veröffentlicht. Sicherheits- oder Hotfix-Updates, also gezielte Software-Updates zur Behebung spezifischer, in der Regel kritischer Probleme, die zwischen den CUs auftreten, sollen nach Bedarf bereitgestellt werden.

Analysten betonen, dass dies nicht unerwartet kommt: Microsoft hatte bereits seit einiger Zeit angekündigt, den Support für die Exchange-Editionen 2016 und 2019 einzustellen und auf ein Abonnementmodell umzustellen.

Annand wies jedoch darauf hin, dass vor drei Jahren noch immer von rund 300.000 physischen Servern vor Ort mit 7,3 Milliarden Postfächern die Rede war. „Natürlich möchte Microsoft mehr Geld auf dem Konto sehen”, merkt er an und verweist auf die zehnprozentige Preiserhöhung für Serverlizenzen und eine Erhöhung der Clientzugriffslizenzen um 15 oder 20 Prozent, je nach Kaufart.

„Preiserhöhungen werden von Kunden nie gerne gesehen“, so Annand. „Aber solange Microsoft es ihnen weiterhin erlaubt, ihre Daten lokal zu hosten und den Update-Zyklus selbst zu verwalten (anders als bei Exchange Online), werden sie sich widerwillig damit abfinden.”

So aktualisieren Sie auf Exchange SE

Das letzte Update für Exchange Server 2019 enthält alle vorherigen Sicherheits-Patches und führt serverseitige Komponenten für „Feature Flighting“ ein, einen optionalen Cloud-basierten Dienst, der sofortige Updates unterstützt, sobald neue Funktionen verfügbar sind. Dies soll dazu beitragen, die Stabilität und Sicherheit bis zum Ende des Lebenszyklus im Herbst dieses Jahres zu gewährleisten.

Microsoft empfiehlt, so bald wie möglich auf Exchange SE zu aktualisieren und Exchange 2016 oder 2019 außer Betrieb zu nehmen. Nach der Umstellung auf SE können Unternehmen ab SE CU2 keine Exchange-2016- oder -2019-Server mehr lokal betreiben.

Unternehmen haben zwei Upgrade-Optionen: ein Legacy-Upgrade, für das neue Server erforderlich sind, oder ein „In-Place”-Upgrade (nur für Exchange 2019 verfügbar), bei dem das neueste Upgrade-Paket heruntergeladen und installiert wird.

Während dieses Vorgangs kann es laut Microsoft zu einigen Unterbrechungen kommen, da die Postfächer vorübergehend pausiert werden. Unternehmen könnten dies jedoch umgehen, indem sie Upgrades über Nacht, am Wochenende oder zu anderen Zeiten durchführten, wenn die Büros geschlossen sind.

Microsoft weist darauf hin, dass sich die Umstellung auf SE von früheren Releases unterscheidet, da sie kein umfangreiches Code-Upgrade und keine wesentlichen Änderungen beinhalte. Es würden keine neuen Lizenzschlüssel benötigt, keine Funktionen hinzugefügt oder entfernt, keine Installationsvoraussetzungen geändert und es gebe auch keine Änderungen am Active-Directory-Schema. (mb)

Microsoft Exchange Server SE allgemein verfügbar​ Weiterlesen »

HPE finalisiert Juniper-Übernahme​

Allgemein

Juniper wird im Zuge der Übernahme zwar mit Aruba verschmolzen, soll aber als Brand erhalten bleiben. bluestork / Shutterstock.com Fast 18 Monate nach der ersten Ankündigung hat HPE die Übernahme von Juniper Networks im Wert von 14 Milliarden Dollar offiziell abgeschlossen. Letzte Hürde waren die USA, wo das Justizministerium im Januar dieses Jahres Klage einreichte, um die Transaktion zu blockieren. Dieses Hindernis wurde am 27. Juni überwunden, wodurch der Weg für den Abschluss der Transaktion frei wurde. Nun beginnen die Arbeiten zur Integration von Juniper in HPE. Als Teil der Transaktion wird eine neue Geschäftseinheit unter der Leitung des ehemaligen Juniper-CEO Rami Rahim gegründet. HPE Networking wird die operativen Einheiten von HPE Aruba und HPE Juniper umfassen. Juniper und Aruba bleiben als Marke erhalten Es ist geplant, beide Marken beizubehalten, da das Unternehmen weiterhin einen Wert in ihnen sieht. Noch ist jedoch nicht ganz klar, wie genau sich das neue kombinierte Portfolio gestalten wird. „Wir stehen noch ganz am Anfang“, erklärte Rahim während einer Pressekonferenz zum Abschluss der Transaktion. Er fügte hinzu: „Aber ich kann Ihnen sagen: Mein Ziel als Leiter dieses fusionierten Netzwerkgeschäfts ist, das beste Netzwerkunternehmen überhaupt aufzubauen – eines, das auf Innovation basiert. Erster Schritt, um dies zu erreichen, ist, dass wir uns voll auf unsere Kunden und Partner konzentrieren.“ Fest steht indes, wie HPE auf Bedenken des US-Justizministeriums (Department of Justice; DOJ) reagiert. Die kartellrechtliche Überprüfung durch das DOJ führte zu zwei konkreten Auflagen, die sich direkt auf die technische Roadmap und die Wettbewerbsposition des fusionierten Unternehmens auswirken werden. Erstens muss HPE die KI-Betriebsalgorithmen von Junipers Mist AI über ein Auktionsverfahren an Wettbewerber lizenzieren. Dies betrifft die zentralen Machine-Learning-Modelle, die die prädiktiven Analysen von Mist antreiben. Die Lizenzauflage ist jedoch eng gefasst, um HPEs Wettbewerbsvorteile weitgehend zu erhalten. „Wir haben mit dem DOJ vereinbart, eine Lizenz für bestimmte Aspekte von Juniper Mist, nämlich nur den Teil der KI-Operationen, im Rahmen einer Auktion anzubieten“, erklärte Antonio Neri, CEO von HPE, während der Pressekonferenz. Diese Unterscheidung ist technisch bedeutsam: Wettbewerber erhalten Zugang zu den Algorithmen von Mist, um Anomalien zu erkennen und Ausfälle vorherzusagen. Nicht abgegeben werden jedoch die Algorithmen zu dem zugrundeliegenden Netzwerkbetriebssystem, den Hardware-Abstraktionsschichten oder den kundenspezifischen Datenmodellen, die diese Algorithmen in Produktionsumgebungen effektiv machen. HPE behält zudem: die Kontrolle über die Mechanismen zur Datenerfassung, die Pipelines zur Verarbeitung der Telemetrie und die Integrationspunkte mit der physischen Netzwerkinfrastruktur. „Das geistige Eigentum bleibt selbstverständlich bei uns, aber wir müssen in der Lage sein, das weiterhin zu unterstützen“, stellte Neri klar. „Aber noch einmal: Es betrifft ausschließlich den AI-Operations-Teil des Juniper-Mist-Stacks.“ Rahim wiederum betonte, dass der größte Wert des Mist-AI-Stacks in den tatsächlichen Daten liege. Er wies darauf hin, dass Juniper über mehr als zehn Jahre Erfahrung aus realen Implementierungen verfüge, was für andere äußerst schwer zu replizieren sei. Die zweite Auflage des US-Justizministeriums (DOJ) schreibt den Verkauf von HPEs Aruba-Instant-On-Portfolio vor, das sich an kleine Unternehmen mit Cloud-verwalteten Access Points und Switches richtet. Auf die Frage nach dem Verkauf versuchte Neri, die Auswirkungen herunterzuspielen. „Aruba Instant On ist ein noch sehr neues Geschäft, das wir in den letzten drei Jahren aufgebaut haben, und es ist vollständig unabhängig vom restlichen traditionellen HP-Aruba-Portfolio oder von Aruba Central“, erklärte Neri. Das Angebot richte sich speziell an das KMU-Segment, und zwar ganz konkret an das ‚K‘ in KMU: „Für uns ist es ein sehr kleines Geschäft“, konstatierte der Manager. KI für Netzwerke, Netzwerke für KI Ein Kernelement des integrierten Portfolios wird Künstliche Intelligenz (KI) sein. Rahim erklärte, dass die Strategie aus zwei Komponenten besteht: KI für Netzwerke und Netzwerke für KI. KI für Netzwerke konzentriert sich darauf, KI für den Betrieb und die Verwaltung von Netzwerken einzusetzen. Dies umfasst die Nutzung der prädiktiven Analytik von Mist, um Leistungsprobleme zu erkennen, bevor sie sich auf Anwendungen auswirken, Umgebungen automatisch zu optimieren und gezielte Problemlösungen für Netzwerkstörungen bereitzustellen. Die Integration wird diese Funktionen über drahtlose Netzwerke hinaus erweitern – auf kabelgebundene Infrastrukturen, Sicherheitsrichtlinien und domänenübergreifende Korrelationen mit Rechen- und Speichersystemen. „Wir werden über eine größere Reichweite und Flexibilität verfügen, weil wir nun mit der Stärke von HPE und Juniper mehr Anwendungsfälle mit mehr Deployment-Optionen abdecken können. Und wir werden eine bessere integrierte Sicherheit haben“, stellte Rahim in Aussicht. Netzwerke für KI bezieht sich auf die Infrastrukturanforderungen für KI-Workloads selbst. Dazu gehören: die für die GPU-zu-GPU-Kommunikation erforderlichen Fabrics mit hoher Bandbreite und geringer Latenz sowie die integrierten Kühl- und Stromverteilungssysteme, die moderne KI-Cluster erfordern. „Netzwerke für KI ist ebenfalls spannend. Hier bauen wir groß angelegte Rechenzentren, die ‚KI-Fabriken‘, die in der heutigen Umgebung unglaublich wichtig sind“, erklärte Rahim. „Gemeinsam werden wir schneller über alle Ebenen des Technologie-Stacks hinweg innovieren können – von Silizium über Systeme bis hin zu Software. Und wir werden eine Komplettlösung anbieten können.“ Open-Source-Engagement wird fortgesetzt Sowohl Juniper als auch HPE blicken auf eine lange Open-Source-Historie zurück, und das soll auch so bleiben. „Open Source war schon immer ein wichtiger Bestandteil von Junipers – und ich bin sicher, auch von HPEs – Innovationsstrategie“, stellte Rahim auf Nachfrage unserer Kollegen der Network World klar – und ergänzte: „Im Netzwerkbereich beispielsweise hat Open Source in Bereichen wie Sonic an Dynamik und Zugkraft innerhalb der Branche gewonnen. Aus diesem Grund hat Juniper beschlossen, in diesem Bereich innovativ zu sein, und ich bin sicher, das wird sich auch mit Blick auf das neue HPE-Networking-Geschäft fortsetzen.“ Das erweiterte Portfolio schafft laut Rahim neue Möglichkeiten für Open-Source-Beiträge. Der Manager erwartet, dass sich Junipers Beiträge über den Netzwerkbereich hinaus auf Rechen- und Speicherlösungen ausweiten werden. Auch HPE ist im Bereich Open-Source-Netzwerke kein Neuling. Das Unternehmen ist Gründungsmitglied und ein wichtiger Mitwirkender im Ultra Ethernet Consortium (UEC), das kürzlich seine Spezifikation 1.0 veröffentlicht hat. Kombiniertes Portfolio soll mehr Anwendungsfälle abdecken Auch wenn HPE keinen konkreten Zeitplan für die Integration vorgibt, betonten sowohl Rahim als auch Neri, dass das Unternehmen mit Bedacht agiere. Bestehende Investitionen sollen erhalten bleiben, gleichzeitig aber Migrationspfade angeboten werden. „Kein Kunde wird zurückgelassen. Verträge werden über die gesamte Produktlebensdauer hinweg eingehalten“, versprach Neri. Die strategische Herausforderung für die Zukunft bestehe darin, KI-, Cloud-Native- und Netzwerktechnologien miteinander zu integrieren. Zwar gebe es einige Überschneidungen im bestehenden Portfolio, doch Rahim argumentierte, dass die Technologien oft unterschiedliche architektonische Ansätze zur Lösung von Netzwerkproblemen verfolgen. (mb) 

HPE finalisiert Juniper-Übernahme​ Juniper wird im Zuge der Übernahme zwar mit Aruba verschmolzen, soll aber als Brand erhalten bleiben. bluestork / Shutterstock.com

Fast 18 Monate nach der ersten Ankündigung hat HPE die Übernahme von Juniper Networks im Wert von 14 Milliarden Dollar offiziell abgeschlossen. Letzte Hürde waren die USA, wo das Justizministerium im Januar dieses Jahres Klage einreichte, um die Transaktion zu blockieren. Dieses Hindernis wurde am 27. Juni überwunden, wodurch der Weg für den Abschluss der Transaktion frei wurde.

Nun beginnen die Arbeiten zur Integration von Juniper in HPE. Als Teil der Transaktion wird eine neue Geschäftseinheit unter der Leitung des ehemaligen Juniper-CEO Rami Rahim gegründet. HPE Networking wird die operativen Einheiten von HPE Aruba und HPE Juniper umfassen.

Juniper und Aruba bleiben als Marke erhalten

Es ist geplant, beide Marken beizubehalten, da das Unternehmen weiterhin einen Wert in ihnen sieht. Noch ist jedoch nicht ganz klar, wie genau sich das neue kombinierte Portfolio gestalten wird. „Wir stehen noch ganz am Anfang“, erklärte Rahim während einer Pressekonferenz zum Abschluss der Transaktion. Er fügte hinzu: „Aber ich kann Ihnen sagen: Mein Ziel als Leiter dieses fusionierten Netzwerkgeschäfts ist, das beste Netzwerkunternehmen überhaupt aufzubauen – eines, das auf Innovation basiert. Erster Schritt, um dies zu erreichen, ist, dass wir uns voll auf unsere Kunden und Partner konzentrieren.“

Fest steht indes, wie HPE auf Bedenken des US-Justizministeriums (Department of Justice; DOJ) reagiert. Die kartellrechtliche Überprüfung durch das DOJ führte zu zwei konkreten Auflagen, die sich direkt auf die technische Roadmap und die Wettbewerbsposition des fusionierten Unternehmens auswirken werden.

Erstens muss HPE die KI-Betriebsalgorithmen von Junipers Mist AI über ein Auktionsverfahren an Wettbewerber lizenzieren. Dies betrifft die zentralen Machine-Learning-Modelle, die die prädiktiven Analysen von Mist antreiben. Die Lizenzauflage ist jedoch eng gefasst, um HPEs Wettbewerbsvorteile weitgehend zu erhalten.

„Wir haben mit dem DOJ vereinbart, eine Lizenz für bestimmte Aspekte von Juniper Mist, nämlich nur den Teil der KI-Operationen, im Rahmen einer Auktion anzubieten“, erklärte Antonio Neri, CEO von HPE, während der Pressekonferenz.

Diese Unterscheidung ist technisch bedeutsam: Wettbewerber erhalten Zugang zu den Algorithmen von Mist, um Anomalien zu erkennen und Ausfälle vorherzusagen. Nicht abgegeben werden jedoch die Algorithmen zu dem zugrundeliegenden Netzwerkbetriebssystem, den Hardware-Abstraktionsschichten oder den kundenspezifischen Datenmodellen, die diese Algorithmen in Produktionsumgebungen effektiv machen.

HPE behält zudem:

die Kontrolle über die Mechanismen zur Datenerfassung,

die Pipelines zur Verarbeitung der Telemetrie und

die Integrationspunkte mit der physischen Netzwerkinfrastruktur.

„Das geistige Eigentum bleibt selbstverständlich bei uns, aber wir müssen in der Lage sein, das weiterhin zu unterstützen“, stellte Neri klar. „Aber noch einmal: Es betrifft ausschließlich den AI-Operations-Teil des Juniper-Mist-Stacks.“

Rahim wiederum betonte, dass der größte Wert des Mist-AI-Stacks in den tatsächlichen Daten liege. Er wies darauf hin, dass Juniper über mehr als zehn Jahre Erfahrung aus realen Implementierungen verfüge, was für andere äußerst schwer zu replizieren sei.

Die zweite Auflage des US-Justizministeriums (DOJ) schreibt den Verkauf von HPEs Aruba-Instant-On-Portfolio vor, das sich an kleine Unternehmen mit Cloud-verwalteten Access Points und Switches richtet. Auf die Frage nach dem Verkauf versuchte Neri, die Auswirkungen herunterzuspielen. „Aruba Instant On ist ein noch sehr neues Geschäft, das wir in den letzten drei Jahren aufgebaut haben, und es ist vollständig unabhängig vom restlichen traditionellen HP-Aruba-Portfolio oder von Aruba Central“, erklärte Neri. Das Angebot richte sich speziell an das KMU-Segment, und zwar ganz konkret an das ‚K‘ in KMU: „Für uns ist es ein sehr kleines Geschäft“, konstatierte der Manager.

KI für Netzwerke, Netzwerke für KI

Ein Kernelement des integrierten Portfolios wird Künstliche Intelligenz (KI) sein. Rahim erklärte, dass die Strategie aus zwei Komponenten besteht: KI für Netzwerke und Netzwerke für KI.

KI für Netzwerke konzentriert sich darauf, KI für den Betrieb und die Verwaltung von Netzwerken einzusetzen. Dies umfasst die Nutzung der prädiktiven Analytik von Mist, um

Leistungsprobleme zu erkennen, bevor sie sich auf Anwendungen auswirken,

Umgebungen automatisch zu optimieren und

gezielte Problemlösungen für Netzwerkstörungen bereitzustellen.

Die Integration wird diese Funktionen über drahtlose Netzwerke hinaus erweitern – auf kabelgebundene Infrastrukturen, Sicherheitsrichtlinien und domänenübergreifende Korrelationen mit Rechen- und Speichersystemen.

„Wir werden über eine größere Reichweite und Flexibilität verfügen, weil wir nun mit der Stärke von HPE und Juniper mehr Anwendungsfälle mit mehr Deployment-Optionen abdecken können. Und wir werden eine bessere integrierte Sicherheit haben“, stellte Rahim in Aussicht.

Netzwerke für KI bezieht sich auf die Infrastrukturanforderungen für KI-Workloads selbst. Dazu gehören:

die für die GPU-zu-GPU-Kommunikation erforderlichen Fabrics mit hoher Bandbreite und geringer Latenz sowie

die integrierten Kühl- und Stromverteilungssysteme, die moderne KI-Cluster erfordern.

„Netzwerke für KI ist ebenfalls spannend. Hier bauen wir groß angelegte Rechenzentren, die ‚KI-Fabriken‘, die in der heutigen Umgebung unglaublich wichtig sind“, erklärte Rahim. „Gemeinsam werden wir schneller über alle Ebenen des Technologie-Stacks hinweg innovieren können – von Silizium über Systeme bis hin zu Software. Und wir werden eine Komplettlösung anbieten können.“

Open-Source-Engagement wird fortgesetzt

Sowohl Juniper als auch HPE blicken auf eine lange Open-Source-Historie zurück, und das soll auch so bleiben. „Open Source war schon immer ein wichtiger Bestandteil von Junipers – und ich bin sicher, auch von HPEs – Innovationsstrategie“, stellte Rahim auf Nachfrage unserer Kollegen der Network World klar – und ergänzte: „Im Netzwerkbereich beispielsweise hat Open Source in Bereichen wie Sonic an Dynamik und Zugkraft innerhalb der Branche gewonnen. Aus diesem Grund hat Juniper beschlossen, in diesem Bereich innovativ zu sein, und ich bin sicher, das wird sich auch mit Blick auf das neue HPE-Networking-Geschäft fortsetzen.“

Das erweiterte Portfolio schafft laut Rahim neue Möglichkeiten für Open-Source-Beiträge. Der Manager erwartet, dass sich Junipers Beiträge über den Netzwerkbereich hinaus auf Rechen- und Speicherlösungen ausweiten werden.

Auch HPE ist im Bereich Open-Source-Netzwerke kein Neuling. Das Unternehmen ist Gründungsmitglied und ein wichtiger Mitwirkender im Ultra Ethernet Consortium (UEC), das kürzlich seine Spezifikation 1.0 veröffentlicht hat.

Kombiniertes Portfolio soll mehr Anwendungsfälle abdecken

Auch wenn HPE keinen konkreten Zeitplan für die Integration vorgibt, betonten sowohl Rahim als auch Neri, dass das Unternehmen mit Bedacht agiere. Bestehende Investitionen sollen erhalten bleiben, gleichzeitig aber Migrationspfade angeboten werden. „Kein Kunde wird zurückgelassen. Verträge werden über die gesamte Produktlebensdauer hinweg eingehalten“, versprach Neri. Die strategische Herausforderung für die Zukunft bestehe darin, KI-, Cloud-Native- und Netzwerktechnologien miteinander zu integrieren. Zwar gebe es einige Überschneidungen im bestehenden Portfolio, doch Rahim argumentierte, dass die Technologien oft unterschiedliche architektonische Ansätze zur Lösung von Netzwerkproblemen verfolgen. (mb)

HPE finalisiert Juniper-Übernahme​ Weiterlesen »

Die besten KI-Apps, um Zeit zu sparen​

Allgemein

Diese KI-basierten Productivity-App-Perlen helfen wirklich gegen Zeitdruck, Überstunden und repetitive Tasks. Foto: N Universe | shutterstock.com Unter den Massen von KI-Tools und -Anwendungen, die aktuell als Mobile-, Desktop- oder Web-App zur Wahl stehen, gibt es nicht wenige, die sich in erster Linie dadurch auszeichnen, dass sie: Output von fragwürdiger Genauigkeit liefern, dubiose Texte erzeugen, oder Bilder generieren, die zum Klick auf den X-Button verleiten. KI-Tools dieser Art sind vor allem darauf ausgerichtet, vom anhaltenden Generative-AI (GenAI)-Hype zu profitieren – und trüben leider auch den Blick für die echten Anwendungsperlen im Bereich generative KI. Wie etwa die folgenden sieben GenAI-Apps, die Ihre Produktivität im Arbeitsalltag drastisch steigern und damit erhebliche Zeitgewinne realisieren können. Probieren Sie’s aus! 1. ChatPDF Sie kennen solche Situationen: Jemand schickt Ihnen einen schlanken 300-Seiter im .pdf-Format und bereits nach Seite Zwei stellt sich heraus, dass sich dieser in etwa so faszinierend liest wie eine Steuererklärung. In Zukunft dürfen Sie sich bei solchen und ähnlichen Gelegenheiten auf ChatPDF verlassen und dabei richtig Zeit einsparen. Dieses rein webbasierte Tool – nicht zu verwechseln mit gleichnamigen Mobile Apps – tut exakt das, was es verspricht: Sie befähigen, mit .pdf-Dateien zu chatten. Darüber hinaus können Sie über das Webportal auch Office-Dokumente im .doc- oder .docx-Format hochladen, um anschließend dank KI-Unterstützung möglichst schnell und einfach Informationen über den Inhalt zu erfragen. Dabei kann es sich konkret um einfache Zusammenfassungen oder spezifische, inhaltsbezogene Fragen handeln. Sie können bei Bedarf sogar mehrere Dokumente einspeisen und diese gemeinschaftlich abfragen. Die Verantwortlichen von ChatPDF versprechen dabei, sämtliche Daten sicher zu speichern, auf Anfrage zu löschen und keinesfalls an Dritte weiterzugeben. Dennoch sollten sensible unternehmensbezogene Dokumente eher nicht diesen Weg nehmen. ChatPDF verarbeitet davon abgesehen Dokumente in (fast) jeder Sprache – und unterstützt diese auch mit Blick auf die KI-Chat-Funktion. Zwei Dokumente dürfen Sie täglich kostenlos über den Service hochladen und abfragen – wobei die Dateien maximal 120 Seiten lang oder 10 MB groß sein dürfen. Die GenAI-Webanwendung dürfte also in ihrer kostenlosen Variante bereits für die meisten Gelegenheits-User ausreichend sein. Sollten Sie Bedarf haben, der darüber hinausgeht, steht Ihnen die Bezahlversion ChatPDF Plus ab rund 20 Euro pro Monat (oder 140 Euro pro Jahr) zur Verfügung. 2. Beautiful.ai Präsentationen (richtig) zu erstellen, kann zum Pain geraten. Es sei denn, Sie lassen Generative AI den wesentlichen Teil des Gestaltungsprozesses übernehmen. Das funktioniert mit der KI-basierten Präsentationssoftware Beautiful.ai. Das (möglicherweise) größte Defizit dieses ebenfalls webbasierten KI-Tools ist, dass es zwar auch deutschsprachige Prompts verarbeitet, zur Zeit aber nur englischsprachige Präsentationen erstellt. Das tut es dafür aber richtig gut, wie bereits die Mini-Demo auf der offiziellen Webseite zeigt. Die KI-App unterstützt Sie nicht nur beim Design der einzelnen Folien, sondern auch bei der Formatierung von Inhalten und dabei, Brand Guidelines einzuhalten – sowie bei allen anderen Aspekten, die wichtig sind, damit Ihre Präsentation einen möglichst professionellen Eindruck hinterlässt. Dieses Slide-Set hat Beautiful.ai in wenigen Sekunden zum Thema Arbeit der Zukunft erstellt. Foto: JR Raphael | IDG Die generativen KI-Funktionen des Web-Services umfassen auch eine Funktion, um Inhalte zu generieren. Sie können die KI beispielsweise damit beauftragen, eine ganz bestimmte Art von Präsentation zu einem bestimmten Thema zu erstellen. Dazu zieht die Anwendung öffentlich verfügbare Daten heran. Das Ergebnis bedarf zwar sehr wahrscheinlich einer gründlichen Überprüfung, Überarbeitung und Re-Formulierungskur. Dennoch kann es Ihnen eine nützliche erste Grundlage liefern, auf der sich aufbauen und damit potenziell eine Menge Zeit sparen lässt. Beautiful.ai lässt sich mit PowerPoint, Slack, Webex und Dropbox integrieren. Leider gibt’s den KI-Präsentations-Zauber nicht umsonst. Ein Abonnement für Beautiful.ai kostet für Einzelpersonen 12 Dollar pro Monat. Im Team mit der GenAI-App zu arbeiten, schlägt mit mindestens 40 Dollar pro Nutzer und Monat zu Buche. Einen individuellen Enterprise-Preisplan gibt’s auf Anfrage. 3. Toki (ehemals Dola) Allen technologiegetriebenen Productivity-Fortschritten zum Trotz bleibt ein Task lästig: mit einem Kalender zu interagieren. Dieser Aufgabe verschreibt sich der KI-Kalenderassistent Toki, der zuvor unter dem Namen Dola bekannt war. Dabei handelt es sich um eine Chatbot-Lösung, die sich in die Messaging-Plattformen WhatsApp, Telegram, Line sowie iMessage einbinden lässt und sich anschließend zum Beispiel mit den Kalender-Apps von Google und Apple verbindet. Da dieses KI-Tool das Netzwerkprotokoll CalDAV nutzt, um auf die Kalenderdaten zuzugreifen, müssen Sie im Fall von Outlook leider den Umweg über ein Drittanbieter-Plugin nehmen. Ist die Integration erledigt, steht Toki über integrierte Schaltflächen in den Messaging-Apps zur Verfügung, um Termine zu erstellen, zu verschieben – oder direkt Fragen zu freien Terminslots zu stellen. Darüber hinaus kann dieses Tool auch genutzt werden, um Termine mit Infos anzureichern – beispielsweise Vorschläge für beliebte Restaurants in einer bestimmten Gegend oder auch Ideen für den neuen Firmenslogan, der beim Meeting gefunden werden soll. So sieht die Integration von Dola mit WhatsApp aus. Foto: JR Raphael | IDG Das Beste an Toki: Der Service ist in so gut wie allen Sprachen verfügbar und – zumindest bis auf Weiteres – komplett kostenlos nutzbar. Wohl aber nicht für immer, denn laut den Verantwortlichen steht für die Zukunft eine Premium-Version der GenAI-App auf dem Plan. 4. Fathom Dass virtuelle Meetings richtig schlimm werden können, wissen wir wohl alle. Und auch wenn selbst Generative AI Sie (noch) nicht davor bewahren kann, an digitalen Foltersessions teilzunehmen: Es gibt eine KI-App, die das erträglicher macht – Fathom. Bei dieser Anwendung handelt es sich um einen KI-Assistenten für Videokonferenzen in Form klassischer Software für Windows– oder Mac-Systeme, die wahlweise mit Zoom, Microsoft Teams oder Google Meet integriert wird. Nach der Installation läuft Fathom unauffällig im Hintergrund und transkribiert (über eine Kalender-Integration) entweder automatisch oder auf Knopfdruck sämtliche Videoanrufe. Notizen machen gehört damit in beiden Fällen der Vergangenheit an. Die Zusammenfassungen oder Informationen stehen direkt zur Verfügung und lassen sich gezielt durchsuchen, weiterverarbeiten oder auch in anderen Produktivitäts- und Collaboration-Tools wie Slack nutzen. Sämtliche Daten werden dabei laut Fathom während der Übertragung und im Ruhezustand verschlüsselt. Außerdem versprechen die Verantwortlichen ausdrücklich, keine KI-Modelle auf Kundendaten zu trainieren. Sämtliche Details zu Security- und Compliance-Themen sind – vorbildlicherweise – über ein dediziertes Trust Center abrufbar. Fathom realisiert ein umfassendes und sehr fokussiertes Personal-AI-Assistant-Erlebnis. Foto: JR Raphael | IDG Die KI-Software unterstützt diverse verschiedene Sprachen, darunter Englisch, Französisch, Spanisch, Italienisch und Deutsch. Noch dazu ist Fathom komplett kostenlos nutzbar – ohne Einschränkungen hinsichtlich der Anzahl oder Länge der aufgezeichneten Videokonferenzen. Erst fortschrittlichere KI-Funktionen lässt sich das Team hinter der GenAI-Anwendung bezahlen. Die Fathom Team Edition bietet weitergehende, fortschrittliche KI-Funktionen – beispielsweise automatisierte Keyword Alerts, Highlight-Zusammenstellungen oder Team-Management-Funktionen. Die kostenpflichtige Variante ermöglicht darüber hinaus die Integration in Enterprise-Systeme wie HubSpot, Salesforce oder Zapier. Die Preise beginnen bei 19 Dollar pro Monat und User. Eine 14-tägige Testversion steht kostenlos zur Verfügung. 5. Whisper Web Falls Sie bereits Audiodateien besitzen, die beispielsweise im Rahmen von Meetings oder Telefongesprächen entstanden sind und jetzt in Text umgewandelt werden sollen, ist Whisper Web die richtige Adresse – zumindest, wenn es sich um englischsprachige Audioaufnahmen handelt. Diese quelloffene Webanwendung basiert auf der Entwicklungsarbeit von OpenAI und bietet Echzeit-Transkriptionen direkt im Browser. Das Large Language Model, das dazu zum Einsatz kommt, wird über die App heruntergeladen und lokal ausgeführt – die Daten, die Sie der KI übermitteln, verlassen also das Device nicht. Whisper Web kann Audioinhalte entweder direkt über Ihr Mikrofon erfassen oder aus entsprechenden Audiodateien extrahieren. Laut den Entwicklern ist die KI-App auf mehrsprachige Daten trainiert und unterstützt auch die Transkription anderer Sprachen (zu Englisch). Der Test mit einem deutschsprachigen Audio-File brachte allerdings nicht mehr als undefiniertes Kauderwelsch hervor. Dafür ist das Tool Open Source und komplett kostenlos nutzbar – Sie benötigen dazu auch kein dediziertes Konto. 6. Summarize.tech Wenn Youtube-Videos ab und an auf Ihrer To-Do-Liste stehen, Sie aber selten Zeit und noch seltener die nötige Geduld haben, sich komplette Keynotes, TED-Vorträge oder Präsentationen zu Gemüte zu führen, gibt es auch dafür die richtige KI-App. Nämlich die Webanwendung Summarize.tech. Auch bei diesem Tool gilt: Sie sollten des Englischen mächtig sein. Zwar versteht die Webanwendung relativ gut Deutsch – Output generiert sie allerdings nur auf Englisch. Insofern das kein Hindernis darstellt, dürfen Sie die GenAI-Anwendung mit nahezu jedem beliebigen Youtube-Video füttern. Nahezu deshalb, weil die Videos zwingend mit Untertiteln ausgestattet sein müssen, anderenfalls streikt die KI. Sind die Voraussetzungen erfüllt, liefert Summarize.tech in Sekunden eine größtenteils akkurate Abschrift des Videos. Dieser Dienst finanziert sich über Amazon-Affiliate-Links und ist insofern kostenlos nutzbar – allerdings nicht unbegrenzt. Potenzielle Kunden mit Power-User-Ambitionen können ab 10 Dollar pro Monat bis zu 200 Videos transkribieren. 7. AudioPen Wenn Sie nicht ohne Ihr Notizbuch (oder eine entsprechende App) auskommen, könnte das KI-Tool AudioPen sich zu Ihrer neuen Lieblings-App mausern. Die Software erfasst auf Knopfdruck Sprachnotizen jeglicher Art und Sprache und erstellt daraus im Handumdrehen eine schriftliche Zusammenfassung. Und zwar in “schön”: Füllwörter oder Wiederholungen werden automatisiert eliminiert. Jede Aufnahme wandert direkt in das digitale Notizbuch und lässt sich anschließend durchsuchen, teilen oder auch in eine andere Sprache übersetzen. Auch bei AudioPen handelt es sich um eine vollständig webbasierte Applikation, die sich übrigens optional auch in Form einer Progressive Web App installieren lässt. AudioPen verwandelt selbst die wiederholungsintensivsten Selbstgespräche in prägnante Notizen. Foto: JR Raphael | IDG Das KI-Tool für Sprachnotizen ist kostenlos nutzbar, solange Sie sich auf Aufnahmen mit bis zu drei Minuten Länge und maximal zehn Notizen beschränken können. Für Ansprüche, die darüber hinausgehen, steht eine “Prime”-Version der App zur Verfügung, die mindestens 99 Dollar pro Jahr kostet – dafür aber uneingeschränkt nutzbar ist und eine Reihe zusätzlicher Funktionen bietet. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten KI-Apps, um Zeit zu sparen​ Diese KI-basierten Productivity-App-Perlen helfen wirklich gegen Zeitdruck, Überstunden und repetitive Tasks.
Foto: N Universe | shutterstock.com

Unter den Massen von KI-Tools und -Anwendungen, die aktuell als Mobile-, Desktop- oder Web-App zur Wahl stehen, gibt es nicht wenige, die sich in erster Linie dadurch auszeichnen, dass sie:

Output von fragwürdiger Genauigkeit liefern,

dubiose Texte erzeugen, oder

Bilder generieren, die zum Klick auf den X-Button verleiten.

KI-Tools dieser Art sind vor allem darauf ausgerichtet, vom anhaltenden Generative-AI (GenAI)-Hype zu profitieren – und trüben leider auch den Blick für die echten Anwendungsperlen im Bereich generative KI. Wie etwa die folgenden sieben GenAI-Apps, die Ihre Produktivität im Arbeitsalltag drastisch steigern und damit erhebliche Zeitgewinne realisieren können. Probieren Sie’s aus!

1. ChatPDF

Sie kennen solche Situationen: Jemand schickt Ihnen einen schlanken 300-Seiter im .pdf-Format und bereits nach Seite Zwei stellt sich heraus, dass sich dieser in etwa so faszinierend liest wie eine Steuererklärung. In Zukunft dürfen Sie sich bei solchen und ähnlichen Gelegenheiten auf ChatPDF verlassen und dabei richtig Zeit einsparen.

Dieses rein webbasierte Tool – nicht zu verwechseln mit gleichnamigen Mobile Apps – tut exakt das, was es verspricht: Sie befähigen, mit .pdf-Dateien zu chatten. Darüber hinaus können Sie über das Webportal auch Office-Dokumente im .doc- oder .docx-Format hochladen, um anschließend dank KI-Unterstützung möglichst schnell und einfach Informationen über den Inhalt zu erfragen. Dabei kann es sich konkret um einfache Zusammenfassungen oder spezifische, inhaltsbezogene Fragen handeln. Sie können bei Bedarf sogar mehrere Dokumente einspeisen und diese gemeinschaftlich abfragen. Die Verantwortlichen von ChatPDF versprechen dabei, sämtliche Daten sicher zu speichern, auf Anfrage zu löschen und keinesfalls an Dritte weiterzugeben. Dennoch sollten sensible unternehmensbezogene Dokumente eher nicht diesen Weg nehmen.

ChatPDF verarbeitet davon abgesehen Dokumente in (fast) jeder Sprache – und unterstützt diese auch mit Blick auf die KI-Chat-Funktion. Zwei Dokumente dürfen Sie täglich kostenlos über den Service hochladen und abfragen – wobei die Dateien maximal 120 Seiten lang oder 10 MB groß sein dürfen. Die GenAI-Webanwendung dürfte also in ihrer kostenlosen Variante bereits für die meisten Gelegenheits-User ausreichend sein. Sollten Sie Bedarf haben, der darüber hinausgeht, steht Ihnen die Bezahlversion ChatPDF Plus ab rund 20 Euro pro Monat (oder 140 Euro pro Jahr) zur Verfügung.

2. Beautiful.ai

Präsentationen (richtig) zu erstellen, kann zum Pain geraten. Es sei denn, Sie lassen Generative AI den wesentlichen Teil des Gestaltungsprozesses übernehmen. Das funktioniert mit der KI-basierten Präsentationssoftware Beautiful.ai. Das (möglicherweise) größte Defizit dieses ebenfalls webbasierten KI-Tools ist, dass es zwar auch deutschsprachige Prompts verarbeitet, zur Zeit aber nur englischsprachige Präsentationen erstellt. Das tut es dafür aber richtig gut, wie bereits die Mini-Demo auf der offiziellen Webseite zeigt. Die KI-App unterstützt Sie nicht nur beim Design der einzelnen Folien, sondern auch bei der Formatierung von Inhalten und dabei, Brand Guidelines einzuhalten – sowie bei allen anderen Aspekten, die wichtig sind, damit Ihre Präsentation einen möglichst professionellen Eindruck hinterlässt.

Dieses Slide-Set hat Beautiful.ai in wenigen Sekunden zum Thema Arbeit der Zukunft erstellt.
Foto: JR Raphael | IDG

Die generativen KI-Funktionen des Web-Services umfassen auch eine Funktion, um Inhalte zu generieren. Sie können die KI beispielsweise damit beauftragen, eine ganz bestimmte Art von Präsentation zu einem bestimmten Thema zu erstellen. Dazu zieht die Anwendung öffentlich verfügbare Daten heran. Das Ergebnis bedarf zwar sehr wahrscheinlich einer gründlichen Überprüfung, Überarbeitung und Re-Formulierungskur. Dennoch kann es Ihnen eine nützliche erste Grundlage liefern, auf der sich aufbauen und damit potenziell eine Menge Zeit sparen lässt. Beautiful.ai lässt sich mit PowerPoint, Slack, Webex und Dropbox integrieren.

Leider gibt’s den KI-Präsentations-Zauber nicht umsonst. Ein Abonnement für Beautiful.ai kostet für Einzelpersonen 12 Dollar pro Monat. Im Team mit der GenAI-App zu arbeiten, schlägt mit mindestens 40 Dollar pro Nutzer und Monat zu Buche. Einen individuellen Enterprise-Preisplan gibt’s auf Anfrage.

3. Toki (ehemals Dola)

Allen technologiegetriebenen Productivity-Fortschritten zum Trotz bleibt ein Task lästig: mit einem Kalender zu interagieren. Dieser Aufgabe verschreibt sich der KI-Kalenderassistent Toki, der zuvor unter dem Namen Dola bekannt war. Dabei handelt es sich um eine Chatbot-Lösung, die sich in die Messaging-Plattformen WhatsApp, Telegram, Line sowie iMessage einbinden lässt und sich anschließend zum Beispiel mit den Kalender-Apps von Google und Apple verbindet. Da dieses KI-Tool das Netzwerkprotokoll CalDAV nutzt, um auf die Kalenderdaten zuzugreifen, müssen Sie im Fall von Outlook leider den Umweg über ein Drittanbieter-Plugin nehmen.

Ist die Integration erledigt, steht Toki über integrierte Schaltflächen in den Messaging-Apps zur Verfügung, um Termine zu erstellen, zu verschieben – oder direkt Fragen zu freien Terminslots zu stellen. Darüber hinaus kann dieses Tool auch genutzt werden, um Termine mit Infos anzureichern – beispielsweise Vorschläge für beliebte Restaurants in einer bestimmten Gegend oder auch Ideen für den neuen Firmenslogan, der beim Meeting gefunden werden soll.

So sieht die Integration von Dola mit WhatsApp aus.
Foto: JR Raphael | IDG

Das Beste an Toki: Der Service ist in so gut wie allen Sprachen verfügbar und – zumindest bis auf Weiteres – komplett kostenlos nutzbar. Wohl aber nicht für immer, denn laut den Verantwortlichen steht für die Zukunft eine Premium-Version der GenAI-App auf dem Plan.

4. Fathom

Dass virtuelle Meetings richtig schlimm werden können, wissen wir wohl alle. Und auch wenn selbst Generative AI Sie (noch) nicht davor bewahren kann, an digitalen Foltersessions teilzunehmen: Es gibt eine KI-App, die das erträglicher macht – Fathom.

Bei dieser Anwendung handelt es sich um einen KI-Assistenten für Videokonferenzen in Form klassischer Software für Windows– oder Mac-Systeme, die wahlweise mit Zoom, Microsoft Teams oder Google Meet integriert wird. Nach der Installation läuft Fathom unauffällig im Hintergrund und transkribiert (über eine Kalender-Integration) entweder automatisch oder auf Knopfdruck sämtliche Videoanrufe. Notizen machen gehört damit in beiden Fällen der Vergangenheit an. Die Zusammenfassungen oder Informationen stehen direkt zur Verfügung und lassen sich gezielt durchsuchen, weiterverarbeiten oder auch in anderen Produktivitäts- und Collaboration-Tools wie Slack nutzen.

Sämtliche Daten werden dabei laut Fathom während der Übertragung und im Ruhezustand verschlüsselt. Außerdem versprechen die Verantwortlichen ausdrücklich, keine KI-Modelle auf Kundendaten zu trainieren. Sämtliche Details zu Security- und Compliance-Themen sind – vorbildlicherweise – über ein dediziertes Trust Center abrufbar.

Fathom realisiert ein umfassendes und sehr fokussiertes Personal-AI-Assistant-Erlebnis.
Foto: JR Raphael | IDG

Die KI-Software unterstützt diverse verschiedene Sprachen, darunter Englisch, Französisch, Spanisch, Italienisch und Deutsch. Noch dazu ist Fathom komplett kostenlos nutzbar – ohne Einschränkungen hinsichtlich der Anzahl oder Länge der aufgezeichneten Videokonferenzen. Erst fortschrittlichere KI-Funktionen lässt sich das Team hinter der GenAI-Anwendung bezahlen.

Die Fathom Team Edition bietet weitergehende, fortschrittliche KI-Funktionen – beispielsweise automatisierte Keyword Alerts, Highlight-Zusammenstellungen oder Team-Management-Funktionen. Die kostenpflichtige Variante ermöglicht darüber hinaus die Integration in Enterprise-Systeme wie HubSpot, Salesforce oder Zapier. Die Preise beginnen bei 19 Dollar pro Monat und User. Eine 14-tägige Testversion steht kostenlos zur Verfügung.

5. Whisper Web

Falls Sie bereits Audiodateien besitzen, die beispielsweise im Rahmen von Meetings oder Telefongesprächen entstanden sind und jetzt in Text umgewandelt werden sollen, ist Whisper Web die richtige Adresse – zumindest, wenn es sich um englischsprachige Audioaufnahmen handelt. Diese quelloffene Webanwendung basiert auf der Entwicklungsarbeit von OpenAI und bietet Echzeit-Transkriptionen direkt im Browser. Das Large Language Model, das dazu zum Einsatz kommt, wird über die App heruntergeladen und lokal ausgeführt – die Daten, die Sie der KI übermitteln, verlassen also das Device nicht.

Whisper Web kann Audioinhalte entweder direkt über Ihr Mikrofon erfassen oder aus entsprechenden Audiodateien extrahieren. Laut den Entwicklern ist die KI-App auf mehrsprachige Daten trainiert und unterstützt auch die Transkription anderer Sprachen (zu Englisch). Der Test mit einem deutschsprachigen Audio-File brachte allerdings nicht mehr als undefiniertes Kauderwelsch hervor. Dafür ist das Tool Open Source und komplett kostenlos nutzbar – Sie benötigen dazu auch kein dediziertes Konto.

6. Summarize.tech

Wenn Youtube-Videos ab und an auf Ihrer To-Do-Liste stehen, Sie aber selten Zeit und noch seltener die nötige Geduld haben, sich komplette Keynotes, TED-Vorträge oder Präsentationen zu Gemüte zu führen, gibt es auch dafür die richtige KI-App. Nämlich die Webanwendung Summarize.tech. Auch bei diesem Tool gilt: Sie sollten des Englischen mächtig sein. Zwar versteht die Webanwendung relativ gut Deutsch – Output generiert sie allerdings nur auf Englisch.

Insofern das kein Hindernis darstellt, dürfen Sie die GenAI-Anwendung mit nahezu jedem beliebigen Youtube-Video füttern. Nahezu deshalb, weil die Videos zwingend mit Untertiteln ausgestattet sein müssen, anderenfalls streikt die KI. Sind die Voraussetzungen erfüllt, liefert Summarize.tech in Sekunden eine größtenteils akkurate Abschrift des Videos.

Dieser Dienst finanziert sich über Amazon-Affiliate-Links und ist insofern kostenlos nutzbar – allerdings nicht unbegrenzt. Potenzielle Kunden mit Power-User-Ambitionen können ab 10 Dollar pro Monat bis zu 200 Videos transkribieren.

7. AudioPen

Wenn Sie nicht ohne Ihr Notizbuch (oder eine entsprechende App) auskommen, könnte das KI-Tool AudioPen sich zu Ihrer neuen Lieblings-App mausern. Die Software erfasst auf Knopfdruck Sprachnotizen jeglicher Art und Sprache und erstellt daraus im Handumdrehen eine schriftliche Zusammenfassung. Und zwar in “schön”: Füllwörter oder Wiederholungen werden automatisiert eliminiert. Jede Aufnahme wandert direkt in das digitale Notizbuch und lässt sich anschließend durchsuchen, teilen oder auch in eine andere Sprache übersetzen. Auch bei AudioPen handelt es sich um eine vollständig webbasierte Applikation, die sich übrigens optional auch in Form einer Progressive Web App installieren lässt.

AudioPen verwandelt selbst die wiederholungsintensivsten Selbstgespräche in prägnante Notizen.
Foto: JR Raphael | IDG

Das KI-Tool für Sprachnotizen ist kostenlos nutzbar, solange Sie sich auf Aufnahmen mit bis zu drei Minuten Länge und maximal zehn Notizen beschränken können. Für Ansprüche, die darüber hinausgehen, steht eine “Prime”-Version der App zur Verfügung, die mindestens 99 Dollar pro Jahr kostet – dafür aber uneingeschränkt nutzbar ist und eine Reihe zusätzlicher Funktionen bietet.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten KI-Apps, um Zeit zu sparen​ Weiterlesen »

Gericht verpflichtet Broadcom zur Unterstützung bei VMware-Migration​

Allgemein

Das Gerichtsurteil in den Niederlanden gegen VMware/Broadcom könnte schwerwiegende Folgen haben.Yasonya / Shutterstock VMware und die Muttergesellschaft Broadcom müssen laut einem niederländischen Gerichtsurteil dem Ministerium für Infrastruktur und Wasserwirtschaft (Rijkswaterstaat; RWS) weiterhin Unterstützung leisten, während die Behörde in den nächsten zwei Jahren von VMware-Produkten migriert. Bei Zuwiderhandlung Millionenstrafe Rijkswaterstaat (RWS) sah sich mit einer Kostensteigerung von 85 Prozent konfrontiert, nachdem Broadcom auf ein neues Abo-Lizenzmodell umgestellt hatte. Die jährlichen Ausgaben wären von 2,1 Millionen Euro auf fast vier Millionen Euro gestiegen – ein Kostenanstieg, den die Behörde als untragbar erachtete. Die Behörde ist ein langjähriger Kunde von VMware und hat über viele Jahre hinweg Millionen in unbefristete Lizenzen für Produkte wie vSphere, NSX, vSAN, vCenter Server, Aria Automation/Operations und Site Recovery Manager investiert, um kritische niederländische Infrastrukturen wie Tunnel, Schleusen und Brücken zu verwalten. Da der dreijährige Supportvertrag im Juli 2024 auslaufen sollte, beantragte die Behörde im Frühjahr 2024 über ihren Reseller eine Verlängerung. Der Reseller gab jedoch an, unter Broadcoms neuem Abonnementmodell kein geeignetes Angebot unterbreiten zu können. Broadcom bot zunächst Verlängerungen bis September und November 2024 an, dann schließlich bis zum 23. Juli 2025 – verweigerte jedoch jegliche Unterstützung über dieses Datum hinaus sowie die Bereitstellung von Quellcode für eine unabhängige Wartung. Aus Sicht des zuständigen Richters am Bezirksgericht Den Haag war dies allerdings nicht zulässig. Er entschied, dass „Broadcom seine Sorgfaltspflicht verletzt hat“, indem es keine angemessene Ausstiegsunterstützung für Systeme zur Verwaltung wichtige nationale Infrastrukturen bereitstellt. Gemäß dem Gerichtsbeschluss müssen VMware und Broadcom bis zu zwei Jahre lang Ausstiegsunterstützung leisten, einschließlich Wartungs-Updates, Bug Fixes und technischem Support. Bei Nichteinhaltung drohen Strafzahlungen in Höhe von 250.000 Euro täglich – bis zu einem Maximum von 25 Millionen Euro. Zwangslizenzierung im Kreuzfeuer Das Urteil ist Ausdruck der zunehmenden rechtlichen Gegenwehr gegen die aggressive Lizenzierungsstrategie von Broadcom seit der 69 Milliarden Dollar schweren Übernahme von VMware Ende 2023. So hat der TK-Riese AT&T eine ähnliche Klage wegen Änderungen des Support-Vertrags eingereicht, während die EU-Kartellbehörden die Praktiken von Broadcom aufgrund von Beschwerden europäischer Unternehmensverbände untersuchen. „Das niederländische Urteil ist eine formelle Rüge dafür, dass die Monetarisierung von Unternehmenssoftware von der Betriebskontinuität abgekoppelt wurde“, erklärt Sanchit Vir Gogia, Chefanalyst und CEO von Greyhound Research. „Anbieter, die den Support für unbefristete Lizenzen ohne angemessene Übergangsmechanismen widerrufen, riskieren, einen vertraglichen Engpass zu schaffen.“ Nach der Übernahme von VMware hat Broadcom unbefristete Lizenzen abgeschafft und die Nutzer zu gebündelten Abonnementpaketen mit deutlich höheren Kosten gezwungen. Kunden berichten von Kostensteigerungen bei VMware-Lizenzen von bis zu 500 Prozent. Zudem verlangt Broadcom ab diesem Jahr von seinen Kunden, unabhängig vom tatsächlichen Bedarf mindestens 72 Kerne pro Bestellung zu lizenzieren, was den Preisdruck auf kleinere Deployments weiter erhöht. Rechtsexperten zufolge könnte das niederländische Urteil ähnliche Klagen in anderen Ländern bestärken – insbesondere in Europa, wo der gesetzliche Schutz von Unternehmen stärker ausgeprägt ist als in den Vereinigten Staaten. Der vom Gericht verwendete Rahmen der „Sorgfaltspflicht“ könnte auch auf andere Anbieter kritischer Infrastrukturen anwendbar sein, die VMware etwa für medizinische Systeme, Stromnetze oder Verkehrssysteme einsetzen. Der Zeitpunkt des niederländischen Gerichtsurteils ist besonders bedeutsam, da viele große VMware-Kunden im Laufe des Jahres 2025 vor Vertragsverlängerungen stehen – und dabei möglicherweise auf das niederländische Urteil als Präzedenzfall verweisen könnten, um während der Migrationen fortgesetzten Support einzufordern. „Ob in Form von gerichtlichen Verfügungen, Sammelklagen oder behördlichen Untersuchungen – der Widerstand der Käufer gegen Zwangslizenzierungstaktiken wird strukturiert, öffentlich und wiederholbar“, betont Gogia. Schnelle Migrationen Analysten von Forrester Research schätzen, dass nach der Übernahme durch Broadcom bis zu 20 Prozent der Unternehmenskunden von VMware schnell den Anbieter wechseln würden, da sie die Preiserhöhungen und Zwangspakete als „unzumutbar“ empfinden. Die Auswirkungen gehen jedoch über einzelne Streitfälle hinaus. Gogia argumentiert, dass das niederländische Urteil die Grenzen des akzeptablen Verhaltens von Anbietern neu definiere, da Regierungen und große Unternehmen zunehmend auf Kontinuität bei Lizenzen pochen. „Für Kunden in regulierten oder öffentlichen Dienstleistungsbereichen gehen die Auswirkungen weit über finanzielle Aspekte hinaus – es geht um Risiko, Compliance und die Verlässlichkeit von Diensten“, erklärt der Analyst. Für Broadcom würde selbst die im niederländischen Fall verhängte Maximalstrafe von 25 Millionen Euro (29 Millionen Dollar) nur eine geringe finanzielle Belastung darstellen – gemessen am angestrebten jährlichen VMware-Umsatz von 8,5 Milliarden Dollar. Dass Broadcom nun gerichtlich zur Migrationsunterstützung gezwungen wird, könnte harte Verhandlungstaktiken gegenüber anderen Kunden erschweren. Gogia sieht Anbieter entsprechend am Scheideweg: „Entweder sie rüsten ihre Modelle nach, um bestehende vertragliche Erwartungen zu erfüllen, oder sie riskieren, ihre zukünftigen Einnahmen auf einem Fundament aufzubauen, das nicht von Vertrauen geprägt ist.“ (mb) 

Gericht verpflichtet Broadcom zur Unterstützung bei VMware-Migration​ Das Gerichtsurteil in den Niederlanden gegen VMware/Broadcom könnte schwerwiegende Folgen haben.Yasonya / Shutterstock

VMware und die Muttergesellschaft Broadcom müssen laut einem niederländischen Gerichtsurteil dem Ministerium für Infrastruktur und Wasserwirtschaft (Rijkswaterstaat; RWS) weiterhin Unterstützung leisten, während die Behörde in den nächsten zwei Jahren von VMware-Produkten migriert.

Bei Zuwiderhandlung Millionenstrafe

Rijkswaterstaat (RWS) sah sich mit einer Kostensteigerung von 85 Prozent konfrontiert, nachdem Broadcom auf ein neues Abo-Lizenzmodell umgestellt hatte. Die jährlichen Ausgaben wären von 2,1 Millionen Euro auf fast vier Millionen Euro gestiegen – ein Kostenanstieg, den die Behörde als untragbar erachtete.

Die Behörde ist ein langjähriger Kunde von VMware und hat über viele Jahre hinweg Millionen in unbefristete Lizenzen für Produkte wie vSphere, NSX, vSAN, vCenter Server, Aria Automation/Operations und Site Recovery Manager investiert, um kritische niederländische Infrastrukturen wie Tunnel, Schleusen und Brücken zu verwalten. Da der dreijährige Supportvertrag im Juli 2024 auslaufen sollte, beantragte die Behörde im Frühjahr 2024 über ihren Reseller eine Verlängerung.

Der Reseller gab jedoch an, unter Broadcoms neuem Abonnementmodell kein geeignetes Angebot unterbreiten zu können. Broadcom bot zunächst Verlängerungen bis September und November 2024 an, dann schließlich bis zum 23. Juli 2025 – verweigerte jedoch jegliche Unterstützung über dieses Datum hinaus sowie die Bereitstellung von Quellcode für eine unabhängige Wartung.

Aus Sicht des zuständigen Richters am Bezirksgericht Den Haag war dies allerdings nicht zulässig. Er entschied, dass „Broadcom seine Sorgfaltspflicht verletzt hat“, indem es keine angemessene Ausstiegsunterstützung für Systeme zur Verwaltung wichtige nationale Infrastrukturen bereitstellt.

Gemäß dem Gerichtsbeschluss müssen VMware und Broadcom bis zu zwei Jahre lang Ausstiegsunterstützung leisten, einschließlich Wartungs-Updates, Bug Fixes und technischem Support. Bei Nichteinhaltung drohen Strafzahlungen in Höhe von 250.000 Euro täglich – bis zu einem Maximum von 25 Millionen Euro.

Zwangslizenzierung im Kreuzfeuer

Das Urteil ist Ausdruck der zunehmenden rechtlichen Gegenwehr gegen die aggressive Lizenzierungsstrategie von Broadcom seit der 69 Milliarden Dollar schweren Übernahme von VMware Ende 2023.

So hat der TK-Riese AT&T eine ähnliche Klage wegen Änderungen des Support-Vertrags eingereicht, während die EU-Kartellbehörden die Praktiken von Broadcom aufgrund von Beschwerden europäischer Unternehmensverbände untersuchen. „Das niederländische Urteil ist eine formelle Rüge dafür, dass die Monetarisierung von Unternehmenssoftware von der Betriebskontinuität abgekoppelt wurde“, erklärt Sanchit Vir Gogia, Chefanalyst und CEO von Greyhound Research. „Anbieter, die den Support für unbefristete Lizenzen ohne angemessene Übergangsmechanismen widerrufen, riskieren, einen vertraglichen Engpass zu schaffen.“

Nach der Übernahme von VMware hat Broadcom unbefristete Lizenzen abgeschafft und die Nutzer zu gebündelten Abonnementpaketen mit deutlich höheren Kosten gezwungen. Kunden berichten von Kostensteigerungen bei VMware-Lizenzen von bis zu 500 Prozent. Zudem verlangt Broadcom ab diesem Jahr von seinen Kunden, unabhängig vom tatsächlichen Bedarf mindestens 72 Kerne pro Bestellung zu lizenzieren, was den Preisdruck auf kleinere Deployments weiter erhöht.

Rechtsexperten zufolge könnte das niederländische Urteil ähnliche Klagen in anderen Ländern bestärken – insbesondere in Europa, wo der gesetzliche Schutz von Unternehmen stärker ausgeprägt ist als in den Vereinigten Staaten. Der vom Gericht verwendete Rahmen der „Sorgfaltspflicht“ könnte auch auf andere Anbieter kritischer Infrastrukturen anwendbar sein, die VMware etwa für medizinische Systeme, Stromnetze oder Verkehrssysteme einsetzen.

Der Zeitpunkt des niederländischen Gerichtsurteils ist besonders bedeutsam, da viele große VMware-Kunden im Laufe des Jahres 2025 vor Vertragsverlängerungen stehen – und dabei möglicherweise auf das niederländische Urteil als Präzedenzfall verweisen könnten, um während der Migrationen fortgesetzten Support einzufordern.

„Ob in Form von gerichtlichen Verfügungen, Sammelklagen oder behördlichen Untersuchungen – der Widerstand der Käufer gegen Zwangslizenzierungstaktiken wird strukturiert, öffentlich und wiederholbar“, betont Gogia.

Schnelle Migrationen

Analysten von Forrester Research schätzen, dass nach der Übernahme durch Broadcom bis zu 20 Prozent der Unternehmenskunden von VMware schnell den Anbieter wechseln würden, da sie die Preiserhöhungen und Zwangspakete als „unzumutbar“ empfinden.

Die Auswirkungen gehen jedoch über einzelne Streitfälle hinaus. Gogia argumentiert, dass das niederländische Urteil die Grenzen des akzeptablen Verhaltens von Anbietern neu definiere, da Regierungen und große Unternehmen zunehmend auf Kontinuität bei Lizenzen pochen.

„Für Kunden in regulierten oder öffentlichen Dienstleistungsbereichen gehen die Auswirkungen weit über finanzielle Aspekte hinaus – es geht um Risiko, Compliance und die Verlässlichkeit von Diensten“, erklärt der Analyst.

Für Broadcom würde selbst die im niederländischen Fall verhängte Maximalstrafe von 25 Millionen Euro (29 Millionen Dollar) nur eine geringe finanzielle Belastung darstellen – gemessen am angestrebten jährlichen VMware-Umsatz von 8,5 Milliarden Dollar. Dass Broadcom nun gerichtlich zur Migrationsunterstützung gezwungen wird, könnte harte Verhandlungstaktiken gegenüber anderen Kunden erschweren.

Gogia sieht Anbieter entsprechend am Scheideweg: „Entweder sie rüsten ihre Modelle nach, um bestehende vertragliche Erwartungen zu erfüllen, oder sie riskieren, ihre zukünftigen Einnahmen auf einem Fundament aufzubauen, das nicht von Vertrauen geprägt ist.“ (mb)

Gericht verpflichtet Broadcom zur Unterstützung bei VMware-Migration​ Weiterlesen »

Celonis vs. SAP – zwischen Vendor-Lock-in und fairem Wettbewerb​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Im Streit zwischen Celonis und SAP haben zuletzt beide Kontrahenten gepunktet – ein Ende der Auseinandersetzung ist jedoch nicht in Sicht.PHOTOCREO Michal Bednarek – shutterstock.com Der Streit zwischen dem größten deutschen Softwarekonzern SAP und dem am höchsten bewerteten deutschen IT-Startup Celonis, einem Spezialisten für Process-Mining-Software, geht weiter. Beide Softwarekontrahenten verbuchten eigenen Angaben zufolge zuletzt Erfolge auf ihrem Konto. Ein Ende der Auseinandersetzung ist indes nicht in Sicht. Konkret geht es in der Mitte März 2025 von Celonis in den USA eingereichten Klage darum, wie Software von Drittanbietern auf Daten aus SAP-Systemen zugreifen darf. Das Münchner Startup wirft SAP vor, deren ERP-System derart zu kontrollieren, dass Process-Mining-Konkurrenten aus dem SAP-Ökosystem ausgeschlossen würden. Der Softwarekonzern mache es für seine Kunden praktisch unmöglich, mit Nicht-SAP-Process-Mining-Lösungen zu arbeiten. Der Grund: Das Teilen von Daten aus dem SAP-System mit Drittanbieterlösungen werde mit übermäßig hohen Gebühren belastet. SAPs neue Regeln und Restriktionen zielten darauf ab, das Geschäft von Celonis zu zerstören und damit SAPs ERP-Kunden zu schaden. Hintergrund: Celonis verklagt SAP Anfang Juni 2025 erzielte Celonis einen Teilerfolg. Beide Parteien einigten sich in einer außergerichtlichen Vereinbarung darauf, dass SAP die Nutzung des Celonis RFC ABAP-Extractors nicht behindern oder einschränken werde, um Daten aus SAP-Systemen zu extrahieren. Außerdem fielen keine zusätzlichen Gebühren oder Lizenzzahlungen für die Nutzung des Celonis RFC Moduls durch Kunden an. Im Gegenzug erklärte Celonis, den Antrag auf einstweilige Verfügung zurückzuziehen und während der Laufzeit der Vereinbarung keine ODP RFC-Technologie zur Datenextraktion aus SAP-Systemen zu verwenden – es sei denn, SAP erlaube dies. Ende Juni 2025 punktete SAP: In den Vorverhandlungen hat der zuständige Richter am Bezirksgericht in San Francisco den Vorwurf von Celonis, SAP verstoße gegen Wettbewerbsrecht, zunächst abgewiesen. Den Antrag, die Klage komplett zurückzuweisen, wiesen die Richter indes ab. Außerdem ließ das Gericht zu, dass Celonis seine wettbewerbsrechtlichen Vorwürfe überarbeiten und erneut einreichen könne. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> Bei SAP will man sich zu den Vorwürfen seitens Celonis bislang nicht äußern. „Wir prüfen derzeit die eingereichte Klage“, verlautete im März aus Walldorf. „Zu laufenden rechtlichen Verfahren äußern wir uns grundsätzlich nicht.“ In Reihen des Celonis-Managements gibt man sich dagegen kämpferisch. „Wir setzen uns bei diesem Fall dafür ein, dass Kunden auf ihre eigenen Daten uneingeschränkt zugreifen können“, verlautete seitens des Process-Mining-Spezialisten. Es gehe darum, was das Beste für die Kunden, den Wettbewerb und die Innovation in der Unternehmenssoftwarebranche ist. „Wir sind der Meinung, dass Unternehmen die Freiheit haben sollten, die besten Technologielösungen für ihre Bedürfnisse ohne Einmischung, Fehlinformationen oder unfaire Einschränkungen auszuwählen.“ Meine Software, meine Regeln? Tatsächlich geht es in diesem Verfahren um weit mehr als nur einen Streit zweier Softwareanbieter über technische Feinheiten des Datenaustauschs zwischen den Systemen. Vielmehr stehen grundsätzliche Fragen zur Diskussion, zum Beispiel inwieweit Anbieter reglementieren dürfen, wie Anwender ihre Daten in deren Systemen nutzen können, oder ob die Anbieter ihre Systeme und Plattformen derart abschotten und die Interoperabilität einschränken dürfen, um ihren eigenen Tools Vorteile zu verschaffen. Mit Offenheit der Plattformen und Interoperabilität der Systeme – Aspekte, die sich die großen Softwareanbieter in den vergangenen Jahren gerne groß auf die Fahnen geschrieben haben – scheint es vielerorts nicht mehr weit her zu sein. Das zeigt nicht nur der Streit zwischen SAP und Celonis. Auch das seit Jahren andauernde zähe Ringen zwischen dem Verband Cloud Infrastructure Services Providers in Europe (CISPE) und Microsoft um faire Wettbewerbsbedingungen ist ein Beleg für zunehmenden Vendor-Lock-in. Salesforce hat erst Mitte Juni 2025 die Nutzungsbedingungen der Slack-API geändert, um Unternehmen daran zu hindern, mit Hilfe von LLMs im großen Stil Daten aus Slack auszulesen. Kartellbehörden alarmiert Die Taktiken und Strategien der Anbieter rufen auch die Kartellbehörden auf den Plan. Auf europäischer Ebene versucht die EU-Kommission mit Regelwerken wie dem Digital Markets Act (DMA), dem Digital Services Act (DAS) und dem Data Act Wettbewerb und Kunden zu schützen. Allerdings versucht die mächtige IT-Lobby schon seit vielen Jahren, regulatorische Vorschriften aufzuweichen. Lesetipp: Verstöße gegen Digital Markets Act – EU nimmt Alphabet/Google, Apple und Meta ins Visier In Deutschland könnte das Bundeskartellamt in den Streit zwischen Celonis und SAP eingreifen. Mitte Juni 2025 berichtete die „Wirtschaftswoche“ unter Berufung auf Insider, dass das Bundeskartellamt bei Kunden von Celonis wegen angeblichen Fehlverhaltens von SAP ermittle. Dabei gehe es dem Bericht zufolge um die Übernahme von Signavio durch SAP aus dem Jahr 2021. Das Bundeskartellamt hatte den Deal damals trotz gewisser Bedenken genehmigt. Signavio war ein direkter Wettbewerber von Celonis. Angesichts möglicher Kartellbedenken versicherten die SAP-Verantwortlichen im Zuge der Signavio-Übernahme, das eigene Ökosystem rund um die SAP-Plattform bleibe offen. Man werde die eigene Lösung nicht gegenüber Produkten von Drittanbietern bevorzugt behandeln, hieß es damals. Andreas Mundt, Präsident des Bundeskartellamts, warnt vor Abhängigkeiten kleinerer Wettbewerber.Bundeskartellamt / Bernd Lammel Die Kartellwächter scheinen zumindest sensibilisiert, was die Marktmacht der großen Anbieter betrifft. Am 24. Juni veranstaltete die Behörde eine Expertendiskussion. Anlässlich dieser Veranstaltung sprach Andreas Mundt, Präsident des Kartellamts, von verschiedenen Gefahren für den Wettbewerb durch die marktübergreifende Präsenz von Big Tech. „Es können zum Beispiel Abhängigkeiten kleinerer Wettbewerber, etwa beim Zugang zu Cloud-Diensten und Daten, sowie von Lock-ins in spezifische Ökosysteme entstehen“, warnte Mundt. Daher gelte es, Missbrauchspotenziale frühzeitig zu identifizieren und offene Märkte sicherzustellen. 

Celonis vs. SAP – zwischen Vendor-Lock-in und fairem Wettbewerb​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Im Streit zwischen Celonis und SAP haben zuletzt beide Kontrahenten gepunktet – ein Ende der Auseinandersetzung ist jedoch nicht in Sicht.PHOTOCREO Michal Bednarek – shutterstock.com

Der Streit zwischen dem größten deutschen Softwarekonzern SAP und dem am höchsten bewerteten deutschen IT-Startup Celonis, einem Spezialisten für Process-Mining-Software, geht weiter. Beide Softwarekontrahenten verbuchten eigenen Angaben zufolge zuletzt Erfolge auf ihrem Konto. Ein Ende der Auseinandersetzung ist indes nicht in Sicht.

Konkret geht es in der Mitte März 2025 von Celonis in den USA eingereichten Klage darum, wie Software von Drittanbietern auf Daten aus SAP-Systemen zugreifen darf. Das Münchner Startup wirft SAP vor, deren ERP-System derart zu kontrollieren, dass Process-Mining-Konkurrenten aus dem SAP-Ökosystem ausgeschlossen würden. Der Softwarekonzern mache es für seine Kunden praktisch unmöglich, mit Nicht-SAP-Process-Mining-Lösungen zu arbeiten. Der Grund: Das Teilen von Daten aus dem SAP-System mit Drittanbieterlösungen werde mit übermäßig hohen Gebühren belastet. SAPs neue Regeln und Restriktionen zielten darauf ab, das Geschäft von Celonis zu zerstören und damit SAPs ERP-Kunden zu schaden.

Hintergrund: Celonis verklagt SAP

Anfang Juni 2025 erzielte Celonis einen Teilerfolg. Beide Parteien einigten sich in einer außergerichtlichen Vereinbarung darauf, dass SAP die Nutzung des Celonis RFC ABAP-Extractors nicht behindern oder einschränken werde, um Daten aus SAP-Systemen zu extrahieren. Außerdem fielen keine zusätzlichen Gebühren oder Lizenzzahlungen für die Nutzung des Celonis RFC Moduls durch Kunden an. Im Gegenzug erklärte Celonis, den Antrag auf einstweilige Verfügung zurückzuziehen und während der Laufzeit der Vereinbarung keine ODP RFC-Technologie zur Datenextraktion aus SAP-Systemen zu verwenden – es sei denn, SAP erlaube dies.

Ende Juni 2025 punktete SAP: In den Vorverhandlungen hat der zuständige Richter am Bezirksgericht in San Francisco den Vorwurf von Celonis, SAP verstoße gegen Wettbewerbsrecht, zunächst abgewiesen. Den Antrag, die Klage komplett zurückzuweisen, wiesen die Richter indes ab. Außerdem ließ das Gericht zu, dass Celonis seine wettbewerbsrechtlichen Vorwürfe überarbeiten und erneut einreichen könne.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

Bei SAP will man sich zu den Vorwürfen seitens Celonis bislang nicht äußern. „Wir prüfen derzeit die eingereichte Klage“, verlautete im März aus Walldorf. „Zu laufenden rechtlichen Verfahren äußern wir uns grundsätzlich nicht.“

In Reihen des Celonis-Managements gibt man sich dagegen kämpferisch. „Wir setzen uns bei diesem Fall dafür ein, dass Kunden auf ihre eigenen Daten uneingeschränkt zugreifen können“, verlautete seitens des Process-Mining-Spezialisten. Es gehe darum, was das Beste für die Kunden, den Wettbewerb und die Innovation in der Unternehmenssoftwarebranche ist. „Wir sind der Meinung, dass Unternehmen die Freiheit haben sollten, die besten Technologielösungen für ihre Bedürfnisse ohne Einmischung, Fehlinformationen oder unfaire Einschränkungen auszuwählen.“

Meine Software, meine Regeln?

Tatsächlich geht es in diesem Verfahren um weit mehr als nur einen Streit zweier Softwareanbieter über technische Feinheiten des Datenaustauschs zwischen den Systemen. Vielmehr stehen grundsätzliche Fragen zur Diskussion, zum Beispiel inwieweit Anbieter reglementieren dürfen, wie Anwender ihre Daten in deren Systemen nutzen können, oder ob die Anbieter ihre Systeme und Plattformen derart abschotten und die Interoperabilität einschränken dürfen, um ihren eigenen Tools Vorteile zu verschaffen.

Mit Offenheit der Plattformen und Interoperabilität der Systeme – Aspekte, die sich die großen Softwareanbieter in den vergangenen Jahren gerne groß auf die Fahnen geschrieben haben – scheint es vielerorts nicht mehr weit her zu sein. Das zeigt nicht nur der Streit zwischen SAP und Celonis. Auch das seit Jahren andauernde zähe Ringen zwischen dem Verband Cloud Infrastructure Services Providers in Europe (CISPE) und Microsoft um faire Wettbewerbsbedingungen ist ein Beleg für zunehmenden Vendor-Lock-in. Salesforce hat erst Mitte Juni 2025 die Nutzungsbedingungen der Slack-API geändert, um Unternehmen daran zu hindern, mit Hilfe von LLMs im großen Stil Daten aus Slack auszulesen.

Kartellbehörden alarmiert

Die Taktiken und Strategien der Anbieter rufen auch die Kartellbehörden auf den Plan. Auf europäischer Ebene versucht die EU-Kommission mit Regelwerken wie dem Digital Markets Act (DMA), dem Digital Services Act (DAS) und dem Data Act Wettbewerb und Kunden zu schützen. Allerdings versucht die mächtige IT-Lobby schon seit vielen Jahren, regulatorische Vorschriften aufzuweichen.

Lesetipp: Verstöße gegen Digital Markets Act – EU nimmt Alphabet/Google, Apple und Meta ins Visier

In Deutschland könnte das Bundeskartellamt in den Streit zwischen Celonis und SAP eingreifen. Mitte Juni 2025 berichtete die „Wirtschaftswoche“ unter Berufung auf Insider, dass das Bundeskartellamt bei Kunden von Celonis wegen angeblichen Fehlverhaltens von SAP ermittle. Dabei gehe es dem Bericht zufolge um die Übernahme von Signavio durch SAP aus dem Jahr 2021. Das Bundeskartellamt hatte den Deal damals trotz gewisser Bedenken genehmigt.

Signavio war ein direkter Wettbewerber von Celonis. Angesichts möglicher Kartellbedenken versicherten die SAP-Verantwortlichen im Zuge der Signavio-Übernahme, das eigene Ökosystem rund um die SAP-Plattform bleibe offen. Man werde die eigene Lösung nicht gegenüber Produkten von Drittanbietern bevorzugt behandeln, hieß es damals.

Andreas Mundt, Präsident des Bundeskartellamts, warnt vor Abhängigkeiten kleinerer Wettbewerber.Bundeskartellamt / Bernd Lammel

Die Kartellwächter scheinen zumindest sensibilisiert, was die Marktmacht der großen Anbieter betrifft. Am 24. Juni veranstaltete die Behörde eine Expertendiskussion. Anlässlich dieser Veranstaltung sprach Andreas Mundt, Präsident des Kartellamts, von verschiedenen Gefahren für den Wettbewerb durch die marktübergreifende Präsenz von Big Tech. „Es können zum Beispiel Abhängigkeiten kleinerer Wettbewerber, etwa beim Zugang zu Cloud-Diensten und Daten, sowie von Lock-ins in spezifische Ökosysteme entstehen“, warnte Mundt. Daher gelte es, Missbrauchspotenziale frühzeitig zu identifizieren und offene Märkte sicherzustellen.

Celonis vs. SAP – zwischen Vendor-Lock-in und fairem Wettbewerb​ Weiterlesen »

Was Sie über S/4HANA wissen müssen​

Allgemein

S/4HANA ist die vierte Generation der Business Suite von SAP. Das müssen Sie zum Thema wissen. Foto: Panchenko Vladimir – shutterstock.com Mit S/4HANA hat SAP am 3. Februar 2015 das jüngste Release seiner ERP-Softwarelösung und damit den Nachfolger des bisherigen Kernprodukts SAP ECC (ERP Central Component) vorgestellt. Wie die Vorgänger soll auch S/4HANA sämtliche Business-Prozesse von Unternehmen End-to-end abdecken können. Auch wenn das neue Release nach wie vor klassisch als On-premises-Version zu haben war, legte SAP mit S/4HANA das Ruder endgültig auf Cloud-Kurs um. Das Kürzel S/4HANA klingt kryptisch, jedoch ordnet es sich in die Reihe seiner Vorgängerversionen nahtlos ein. In den 1970er Jahren entwickelten fünf ehemalige IBM-Mitarbeiter Programme, die Lohnabrechnung und Buchhaltung per Großrechner ermöglichten. Anstatt die Daten mechanisch auf Lochkarten zu speichern, setzen sie auf den Dialog “online” per Tastatur und Bildschirm. Daher bezeichneten sie ihr System als Realtime-System, wofür das “R” in den Produktnamen stand. Das erste Produkt “SAP R/1” war als Standardsoftware konzipiert und konnte bei weiteren Unternehmen angeboten werden. 1979 kam das Nachfolgeprodukt “SAP R/2” auf den Markt. Dies lief ebenfalls nur auf Großrechnern und umfasste die folgenden Funktionsbereiche: Finanzbuchhaltung Kostenrechnung Materialwirtschaft Produktionsplanung und -steuerung Instandhaltung Personalwirtschaft Vertrieb Als SAP 1991 R/3 als Lösung für den Mittelstand und Ergänzung zu R/2 auf den Markt brachte, konzipierten sie die Lösung für die IBM AS/400 Systeme. Diese waren jedoch vom System überfordert, so dass SAP auf UNIX-Workstations und Oracle Datenbanken ausweichen musste. Dadurch arbeiteten sie nach dem Client-Server-Prinzip. Dieses Prinzip war so erfolgreich, dass R/3 das Softwarepaket R/2 nahezu vollständig ablöste. 2008 entwickelte SAP in Zusammenarbeit mit dem Hasso-Plattner-Institut und der Stanford University die Architektur von SAP HANA mit dem Ziel große Datenmengen in Echtzeit analysieren zu können. Im Jahre 2010 stellte die SAP die HANA-Datenbank vor – HANA steht für High-performance ANalytic Application. Fünf Jahre später wurde S/4HANA eingeführt, welches vollständig auf dem vereinfachten Datenmodell von SAP HANA basierte. “S” steht dabei für “simple”, “4” für die vierte Produktgeneration und “HANA” für die selbst entwickelte relationale In-Memory-Datenbank, die Voraussetzung zur Nutzung von S/4HANA ist. SAP S/4HANA – Funktionsweise Während die Vorgängerversionen auch mit relationalen Datenbanken anderer Hersteller zusammenspielten, arbeitet S/4HANA ausschließlich auf der HANA-Datenbank. SAP HANA ist ein relationales Datenbank-System, das die Einträge nicht zeilenweise, sondern spaltenweise direkt im Arbeitsspeicher und dazugehörigen Pufferspeicher (Cache) speichert. Durch die Ablage der Daten im Arbeitsspeicher können Abfragen in sehr hoher Geschwindigkeit (“Echtzeit”) ausgeführt werden. Der komplexere und langsamere Weg, dass über Abfragen zunächst die Daten aus mehreren Tabellen der Datenbank extrahiert und konsolidieren werden ehe dann das Ergebnis angezeigt wird, wie bei der Vorgängerversion, entfällt bei dieser Technologie. Ein weiterer Vorteil des Datenmodells der HANA-Datenbank ist, dass die Daten nicht bei jeder Buchung zusammengeführt werden müssen. Dies ist bei den bisherigen festplattenorientierten, relationalen Datenbanken der Fall. Während bisher die Daten bei jeder Abfrage neu aggregiert werden mussten, kann im HANA-Datenmodell ein Dataset nach verschiedenen Kriterien ausgegeben werden. Dadurch gewinnt man einerseits an Flexibilität, andererseits an Durchsatzzeiten. Nicht nur der Name S/4HANA zeigt die enge Verzahnung des neuen ERP-Systems mit der Datenbank. Die gesamte Architektur von S/4HANA ist softwaretechnisch eng miteinander verzahnt und aufeinander abgestimmt. Nicht nur das Datenmodell wurde vereinfacht, sondern auch die Benutzeroberfläche (GUI), über die der Nutzer auf die Prozesse zugreift, neugestaltet. Anstelle der für die Transaktionsverarbeitung optimierte SAP GUI wurde das rollenbasierte SAP Fiori eingeführt. Damit wurde die Anzahl der Bildschirme und Bildschirmwechsel und damit auch die Anzahl der Felder, die für eine Rolle bzw. die Ausführung eines Prozesses notwendig sind, reduziert. Mit SAP Fiori wird den Endanwendern unabhängig vom genutzten Endgerät die gleiche Oberfläche angezeigt, wodurch das Arbeiten an verschiedenen Endgeräten vereinfacht werden soll. Durch die vollständige Veränderung der zugrunde liegenden Architektur, der In-Memory-Datenbank, einem intelligenten Datenmodell und einer vereinfachten Oberfläche hat SAP mit S/4HANA eine, wie das Unternehmen sie selbst bezeichnet, “Echtzeit-ERP-Suite für das digitale Geschäft” geschaffen. S/4HANA – Basis bildet die Business Technology Platform Die SAP Business Technology Platform ist ein integriertes Angebot, das vier Technologieportfolios umfasst: Datenbank- und Datenmanagement, Anwendungsentwicklung und -integration, Analysen und intelligente Technologien wie künstliche Intelligenz (KI), Internet der Dinge (IoT) oder Blockchain. Dabei greift SAP den Trend auf, den schon Salesforce und Microsoft Azure vorgelebt haben: der Application Server aus der Cloud, der nicht mehr fixiert ist auf “die eine Installation”, sondern auf Daten und Apps, um Daten anzuzeigen und zu verarbeiten. Die SAP Business Technology Platform bietet dafür In-Memory-Verarbeitung, agile Services zur Datenintegration und Anwendungserweiterung sowie eingebettete Analysen und intelligente Technologien. Die offene Architektur (Open-API) ermöglicht Partnern und Kunden zudem die flexible und kontinuierliche Erweiterung der IT-Landschaft. Den Anwendern sollen dadurch flexible Möglichkeiten unterbreitet werden, um ein Verständnis in die Daten und Prozesse in den Anwendungen zu bekommen und mit den angebotenen Services ihre Daten in Geschäftswert bzw. geschäftlichen Nutzen umzuwandeln. Dafür werden zum einen operative Daten wie zum Beispiel Kosten, Klicks und Umsatze; zum anderen erfahrungsbasierte Daten wie Kundenzufriedenheit aufgegriffen und in Verbindung gesetzt. Die Ergebnisse und Erkenntnisse aus den darauf aufbauenden Analysen sollen dann direkt in Maßnahmen überführt oder in die Prozesse zurückgespielt werden. So wird es Unternehmen ermöglicht Prozesse und erfahrungsbasierte Daten zu verbinden und Optimierungen und Innovation voranzutreiben. Mit S/4HANA ist SAP auch beim Betriebsmodell einen neuen Weg gegangen. So kann S/4HANA nicht nur On-premises betrieben, sondern auch als Cloud-Version gemietet werden. Kunden können beim Cloud-Betrieb unter verschiedenen Optionen wählen. SAP kooperiert mit allen großen US-amerikanischen Cloud-Anbietern wie AWS, Google und Microsoft, der chinesischen Alibaba und seit Mai 2025 auch mit StackIT, dem souveränen in Deutschland betriebenen Cloud-Angebot von Schwarz Digits, einer Tochter der Schwarz-Gruppe. S/4HANA Cloud Die S/4HANA Cloud Edition wird als Software-as-a-Service angeboten. Eigene Programmierungen sind in dieser Variante nicht möglich. Kunden sind also gezwungen, die von SAP bereitgestellten Prozesse zu nutzen und danach zu arbeiten. Auf der anderen Seite müssen sich Kunden keine Gedanken um das Thema Serverkapazität oder Wartung machen. Zudem kann die Implementierung von S/4HANA in der Cloud wesentlich schneller durchgeführt werden als bei der On-premises-Version, da die Cloud-Variante als vorkonfiguriertes System in einer Standardvariante bereitgestellt wird. Zudem verspricht die S/4HANA Cloud Edition schnelleren Zugriff auf Innovationen, da SAP hierfür einen vierteljährigen Innovationszyklus gegenüber einem einjährigen Innovationszyklus bei der On-premises-Version etabliert hat. Mittlerweile hat SAP ihre Release-Strategie für S/4HANA On-premises etwas entschleunigt. Im September 2022 gab der Softwarehersteller bekannt, dass das 2023er S/4HANA-Release ein Ziel-Release sein solle, ab dem man in einen Zwei-Jahrestakt für neue Versionen wechseln werde. Zudem werde es eine längere Mainstream Maintenance pro Release von sieben Jahren und einfacher zu adaptierenden Feature Packs geben, hieß es. Als Variante bietet SAP die HANA Enterprise Cloud (HEC) an. Dies entspricht im Wesentlichen einem Hosting-Prinzip, bei dem jeder Kunde seinen eigenen Server mit eigenem System bei der SAP hat, diese jedoch nicht selbst wartet. Die HEC entspricht damit dem Modell einer Private Cloud. Im Vergleich zur Public Cloud stellt die SAP hier die Infrastruktur-As-A-Service an, das heißt SAP stellt die komplette Systemlandschaft inklusive aller Anwendungen auf Basis einer SAP-Referenzarchitektur zur Verfügung. Da es sich bei der HEC um eine Private Cloud handelt, kann das System mittels Programmierungen an die Bedürfnisse eines Kunden angepasst werden. Allerdings sind den Eingriffsmöglichkeiten Grenzen gesetzt. SAP spricht von einer klaren Clean-Core-Strategie. Das soll übermäßiges Customizing von SAP-Installationen, das vielen Anwenderunternehmen früher bei Release-Wechseln teils massive Probleme verursacht hat, eindämmen. Erweiterungen sollen vielmehr auf Basis der BTP möglich sein und über Standard-Schnittstellen, die SAP in seinem API-Hub auf der BTP anbietet, angebunden werden. Lesetipp: SAP-CEO Christian Klein im Interview: SAP hätte mehr auf das Customizing achten sollen Mit dem Angebot RISE with SAP bietet SAP seinen Kunden seit einigen Jahren einen schnellen Wechsel in die Cloud an. Dazu wurden ein Angebot aus SAP S/4HANA Cloud und ergänzend SAP Services erstellt, um Unternehmen bei der digitalen Transformation zu unterstützen. Diese erfolgt in den drei Schritten: Neugestaltung der Prozesse, technische Migration und Aufbau des intelligenten Unternehmens. S/4HANA On-premises Mit SAP S/4HANA On-premises verwaltet der Kunde vor Ort das S/4HANA-System, die HANA-Datenbank, Anwendungen, Rechenzentrum, Betriebssysteme, Middleware und Netzwerk. Das Unternehmen ist außerdem selbst verantwortlich für die Wartung und Entwicklung. Dadurch wird jedoch eine maximale Flexibilität ermöglicht. Anpassung der Software an unternehmensspezifische Anforderungen, die Steuerung der Häufigkeit und Zeitplanung von Upgrades sowie das Einspielen von Support-Packages übernimmt der Kunde in dieser Variante selbst. S/4HANA Optionen und Betriebsmodelle Foto: Christian Olausson S/4HANA Hybrid Grundsätzlich ist auch eine Kombination von S/4HANA Cloud und S/4HANA On-premises möglich. Dann spricht man vom hybriden Ansatz. Dabei können Unternehmen ausgewählte Prozesse, zum Beispiel die Kernprozesse, mit SAP S/4HANA On-premises lokal auf eigenen Servern betreiben. Andere Prozesse, die keiner individuellen Anpassung bedürfen, können in die Cloud ausgelagert werden. Lesetipp: Tipps für die richtige SAP-Lizenzierung SAP S/4HANA – Funktionen und Lösungen Sprach man in der Vergangenheit beim SAP ERP immer von Modulen, die eingesetzt werden, spricht SAP selbst bei SAP S/4HANA von Prozessen, die das gesamte Geschäft abdecken und aufeinander abgestimmt sind. Die aktuelle Version SAP S/4HANA deckt dabei folgende Funktionsbereiche ab: S/4HANA Sales & Marketing S/4HANA Finance S/4HANA Manufacturing S/4HANA Supply Chain S/4HANA Service S/4HANA Asset Management S/4HANA R&D / Engineering S/4HANA Scouring & Procurement S/4HANA Human Ressources Mit dem neuen Aufbau von S/4HANA hat der Hersteller auch ein in Teilen neues Lizenzmodell veröffentlicht. Funktionen, die im sogenannten Digital Core, dem “SAP S/4HANA Enterprise Management”, enthalten sind, werden über User lizenziert. Hingegen sind die Funktionalitäten, die in den SAP S/4HANA Line-of-Business Solutions beziehungsweise den Suite LoB Solutions enthaltenen sind, separat zu lizenzieren. Die Suite LoB Solutions unterscheiden sich zu den S/4HANA LoB Solutions ansonsten darin, dass sie separat zu S/4HANA installiert werden. Die “doppelte” Lizenzierung von Lösungen, bei der für die LoB Solutions ein Nutzer eine SAP-Userlizenz und zusätzlich die Lösung lizenziert werden muss, entfällt im neuen Lizenzmodell. SAP hat für verschiedene Branchen bereits Best-Practice-Lösungen vorgedacht. Unter S/4HANA bietet der Hersteller auf intelligenten Technologien basierende Lösungen für Best-Practice-Geschäftsprozesse für folgende Branchen: Energie und natürliche Ressourcen Baustoffe Chemieindustrie Metall-, Holz- und Papierindustrie Bergbau Öl- und Gasindustrie Versorgungswirtschaft Dienstleistungsbranche Frachttransport und Logistik Bauwirtschaft, Anlagen- und Schiffbau Medien und Unterhaltung Tourismus und Freizeitbranche Dienstleistungen Sport und Entertainment Telekommunikation Konsumgüterindustrie Agrarindustrie Konsumgüter Mode Life Sciences Einzelhandel Großhandel Fertigungsindustrie Luft- und Raumfahrtindustrie Automobilindustrie Hightech- und Elektronikindustrie Maschinen-, Geräte- und Komponentenbau Finanzdienstleistungen Bankwesen Versicherungen Öffentlicher Dienst und Verwaltung Innere und äußere Sicherheit Städte der Zukunft Gesundheitswesen Hochschulen und Forschungseinrichtungen Öffentlicher Sektor S/4HANA – Migration Da SAP angekündigt hat, die Wartung und die Weiterentwicklung von Altprodukten wie der Business Suite im Jahr 2027 einzustellen (Extended-Wartung gegen Aufpreis bis Ende 2030 möglich), steht für viele SAP-Kunden in den nächsten Jahren die Migration zu SAP S/4HANA an. Im Zuge des Programms „Rise with SAP“ soll es zwar eine Galgenfrist bis Ende 2033 geben. Man werde den Übergang erleichtern und „die Geschäftskontinuität der Kunden“ unterstützen, hieß es Anfang 2025 seitens des Softwareherstellers. Die Option nenne sich „SAP ERP, private edition, transition option“.  Doch an der Migration führt letztendlich kein Weg vorbei – es sei denn die Kunden entscheiden sich, ihre alten SAP-Systeme mit Support-Angeboten von Drittanbietern wie zum Beispiel Rimini Street zu unterfüttern. Dabei stehen verschiedene technische und konzeptionelle Ansätze zur Migration zur Verfügung. Die Auswahl reicht von der kompletten Neuinstallation des Systems über die Konvertierung einzelner SAP-Systeme bis zur selektiven Migration. Welche Art der Migration am sinnvollsten ist, hängt von verschiedenen Kriterien ab: die Ausgangskonfiguration des Kunden die vorhandene IT-Systemlandschaft Betriebsmodell (Cloud oder On-premises) (IT-)strategische Zielsetzung vorhandenes Know-how organisatorische Strukturen. Der grundlegende Neuaufbau der S/4HANA-Architektur und -Struktur macht die Migration bestehender SAP-Installationen zu einem sehr komplexen Prozess. Von SAP werden die zu berücksichtigenden Veränderungen in einer über 1000-seitigen Simplifizierungsliste im Detail beschrieben. Greenfield-Ansatz Der Greenfield-Ansatz beschreibt eine vollständige Neuimplementierung der SAP-Suite. Gemäß dem Titel auf der “grünen Wiese”. Das Unternehmen gibt dabei die bereits vorhandenen Systeme auf und ersetzt sie durch SAP S/4HANA. Die Daten der existierenden SAP- oder Nicht-SAP-Systeme lassen sich mit entsprechenden Anpassungen und Konvertierungen schrittweise in das neue System überführen. Dem Unternehmen bietet der Greenfield-Ansatz den Vorteil, dass die über die Jahre individualisierten ERP-Systeme durch eine neue Standardversion von SAP S/4HANA abgelöst werden. Das Unternehmen startet mit seiner ERP-Suite mehr oder weniger neu und wird von Altlasten befreit. Brownfield-Ansatz Der Brownfield-Ansatz verfolgt das Konzept einer schrittweisen Konvertierung und Umstellung bestehender SAP-ERP-Systeme zu SAP S/4HANA. Die bestehenden Systeme erhalten eine Art Upgrade. Individualisierungen bleiben, falls gewünscht, erhalten. Zur technischen Unterstützung der Migration existieren Lösungen wie der Software-Update-Manager (SUM) und die Daten-Migrations-Option (DMO). Vorteile des Brownfield-Ansatzes sind die mögliche Beibehaltung individueller Prozesse und die Integration in die vorhandene Systemlandschaft bei gleichzeitiger Modernisierung, Standardisierung und Konsolidierung des Gesamtsystems. Bluefield-Ansatz Der Bluefield Ansatz entspricht einer Kombination aus Greenfield- und Brownfield-Ansatz. Gestartet wird mit dem Aufbau eines leeren Zielsystems – der Schale – ohne Daten. Anschließend werden Stamm- und Bewegungsdaten mit Tools verschiedener Anbieter gezielt selektiert und in das leere Zielsystem migriert. Historische Daten werden hingegen archiviert. Prozesse und Funktionen können aus dem Alt-System übernommen oder neu konzipiert werden. Landscape-Transformation Der Fokus bei der Umwandlung der SAP-Landschaft besteht nicht darin, das gesamte System zu konvertieren. Mit der Umwandlung der SAP-Landschaft sollen vielmehr ausgewählte Daten zu SAP S/4HANA migriert oder Geschäftsprozesse mit einem globalen System konsolidiert werden. Der Ansatz bedeutet damit auch, dass zunächst die Prozesse ausgewählt werden, die den größten und schnellsten ROI bei der Migration zu S/4HANA bieten, zum Beispiel im Bereich S/4HANA Finance. Ausblick: Mehr Business Suite und weniger S/4HANA Zehn Jahre nach dem Marktauftritt von S/4HANA wird es stiller rund um S/4HANA. Im Rahmen ihrer neuen Geschäftsstrategie “Business Unleashed” zauberten die SAP-Verantwortlichen Mitte Februar 2025 mit der Business Suite ein aus alten On-premises-Tagen wohl bekanntes und bewährtes Software-Label aus dem Hut. Von der neuen Business Suite über die Business Data Cloud bis hin zu den KI-Apps – alles soll vorkonfiguriert in der Cloud ineinandergreifen, hieß es. In diesem Dreiklang aus Prozessen, Daten und KI scheint S/4HANA nur noch ein Ton unter vielen zu sein. Unter der Business Suite versteht SAP ein modulares Set verschiedener miteinander integrierter Lösungen. Konkret nennt der Anbieter Cloud ERP, Business Applikationen, die Business Data Cloud und Business AI sowie als gemeinsame Basis die Business Technology Platform (BTP). Mit integriert ist außerdem SAP Build, um Kunden dabei zu helfen, ihre Anwendungen an individuelle Anforderungen anzupassen – ohne dabei allerdings in ein zu starkes Customizing abzudriften und immer einen „Clean Core“ zu behalten. Lesetipp: SAP baut neue Business Suite in der Cloud Auffallend an dieser Stelle: SAP spricht im Zusammenhang mit Business-Anwendungen nur noch von Cloud ERP und der Business Suite. Der Name S/4HANA, der die Strategie der SAP im zurückliegenden Jahrzehnt maßgeblich bestimmt hat, fällt gar nicht mehr. Inwieweit damit tatsächlich ein Strategiewechsel einhergeht oder ob es sich lediglich um ein Umlabeln handelt, ist noch nicht klar ersichtlich. Vielleicht möchte SAP an dieser Stelle auch einen Schlussstrich ziehen unter die ständigen Migrationsdiskussionen der vergangenen Jahre. Viele Unternehmen verbinden mit S/4HANA langwierige und kostenintensive Umstiegsprojekte und haben vielfach noch gar damit nicht angefangen, obwohl das Support-Ende für das Vorgänger-Release immer näher rückt. (bw/ba) SAP S/4HANA LaunchSAP S/4HANA im DetailBill McDermott, CEO der SAP, eröffnete die Präsentation von SAP S/4HANA.SAP S/4HANA im DetailSAP S/4HANA kann mit zahlreichen neuen Features glänzen. SAP S/4HANA im DetailDie Neuerungen der SAP Business Suite 4 SAP HANA in der Public Cloud Edition im Detail.SAP S/4HANA im DetailDie Managed Cloud Edition der SAP Business Suite 4 SAP HANA wurde um diese Funktionen erweitert.SAP S/4HANA im DetailDie Neuerungen der On Premise Edition von SAP Business Suite 4 SAP HANA. SAP S/4HANA im DetailS/4HANA punktet mit seinem simplen und reduzierten Datenaufbau.SAP S/4HANA im DetailDie Entwickler von SAP HANA konnten in jeder Version den Database Footprint deutlich reduzieren. SAP S/4HANA im DetailS/4HANA wurde gehörig entrümpelt. Durch die reduzierte Komplexität hat die aktuelle SAP-HANA-Version im Vergleich zur Vorgängerversion enorm an Performance zugelegt. SAP S/4HANA im DetailBernd Leukert, Vorstand für Produkte und Innovation, demonstrierte, wie SAP S/4HANA in der Praxis funktioniert.SAP S/4HANA im DetailSAP S/4HANA im Praxiseinsatz.SAP S/4HANA im DetailSAP S/4HANA meldet einen Pumpendefekt und startet entsprechende Prozesse, um diese Störung schnellstmöglich zu beheben.SAP S/4HANA im DetailAuch mit mobilen Geräten kann SAP S/4 HANA umgehen. SAP S/4HANA im DetailBei Bedarf kann der IT-Verantwortlich SAP S/4 HANA auch vom Armgelenk aus steuern. 

Was Sie über S/4HANA wissen müssen​ S/4HANA ist die vierte Generation der Business Suite von SAP. Das müssen Sie zum Thema wissen.
Foto: Panchenko Vladimir – shutterstock.com

Mit S/4HANA hat SAP am 3. Februar 2015 das jüngste Release seiner ERP-Softwarelösung und damit den Nachfolger des bisherigen Kernprodukts SAP ECC (ERP Central Component) vorgestellt. Wie die Vorgänger soll auch S/4HANA sämtliche Business-Prozesse von Unternehmen End-to-end abdecken können. Auch wenn das neue Release nach wie vor klassisch als On-premises-Version zu haben war, legte SAP mit S/4HANA das Ruder endgültig auf Cloud-Kurs um.

Das Kürzel S/4HANA klingt kryptisch, jedoch ordnet es sich in die Reihe seiner Vorgängerversionen nahtlos ein. In den 1970er Jahren entwickelten fünf ehemalige IBM-Mitarbeiter Programme, die Lohnabrechnung und Buchhaltung per Großrechner ermöglichten. Anstatt die Daten mechanisch auf Lochkarten zu speichern, setzen sie auf den Dialog “online” per Tastatur und Bildschirm. Daher bezeichneten sie ihr System als Realtime-System, wofür das “R” in den Produktnamen stand. Das erste Produkt “SAP R/1” war als Standardsoftware konzipiert und konnte bei weiteren Unternehmen angeboten werden. 1979 kam das Nachfolgeprodukt “SAP R/2” auf den Markt. Dies lief ebenfalls nur auf Großrechnern und umfasste die folgenden Funktionsbereiche:

Finanzbuchhaltung

Kostenrechnung

Materialwirtschaft

Produktionsplanung und -steuerung

Instandhaltung

Personalwirtschaft

Vertrieb

Als SAP 1991 R/3 als Lösung für den Mittelstand und Ergänzung zu R/2 auf den Markt brachte, konzipierten sie die Lösung für die IBM AS/400 Systeme. Diese waren jedoch vom System überfordert, so dass SAP auf UNIX-Workstations und Oracle Datenbanken ausweichen musste. Dadurch arbeiteten sie nach dem Client-Server-Prinzip. Dieses Prinzip war so erfolgreich, dass R/3 das Softwarepaket R/2 nahezu vollständig ablöste.

2008 entwickelte SAP in Zusammenarbeit mit dem Hasso-Plattner-Institut und der Stanford University die Architektur von SAP HANA mit dem Ziel große Datenmengen in Echtzeit analysieren zu können. Im Jahre 2010 stellte die SAP die HANA-Datenbank vor – HANA steht für High-performance ANalytic Application. Fünf Jahre später wurde S/4HANA eingeführt, welches vollständig auf dem vereinfachten Datenmodell von SAP HANA basierte. “S” steht dabei für “simple”, “4” für die vierte Produktgeneration und “HANA” für die selbst entwickelte relationale In-Memory-Datenbank, die Voraussetzung zur Nutzung von S/4HANA ist.

SAP S/4HANA – Funktionsweise

Während die Vorgängerversionen auch mit relationalen Datenbanken anderer Hersteller zusammenspielten, arbeitet S/4HANA ausschließlich auf der HANA-Datenbank. SAP HANA ist ein relationales Datenbank-System, das die Einträge nicht zeilenweise, sondern spaltenweise direkt im Arbeitsspeicher und dazugehörigen Pufferspeicher (Cache) speichert. Durch die Ablage der Daten im Arbeitsspeicher können Abfragen in sehr hoher Geschwindigkeit (“Echtzeit”) ausgeführt werden. Der komplexere und langsamere Weg, dass über Abfragen zunächst die Daten aus mehreren Tabellen der Datenbank extrahiert und konsolidieren werden ehe dann das Ergebnis angezeigt wird, wie bei der Vorgängerversion, entfällt bei dieser Technologie.

Ein weiterer Vorteil des Datenmodells der HANA-Datenbank ist, dass die Daten nicht bei jeder Buchung zusammengeführt werden müssen. Dies ist bei den bisherigen festplattenorientierten, relationalen Datenbanken der Fall. Während bisher die Daten bei jeder Abfrage neu aggregiert werden mussten, kann im HANA-Datenmodell ein Dataset nach verschiedenen Kriterien ausgegeben werden. Dadurch gewinnt man einerseits an Flexibilität, andererseits an Durchsatzzeiten.

Nicht nur der Name S/4HANA zeigt die enge Verzahnung des neuen ERP-Systems mit der Datenbank. Die gesamte Architektur von S/4HANA ist softwaretechnisch eng miteinander verzahnt und aufeinander abgestimmt. Nicht nur das Datenmodell wurde vereinfacht, sondern auch die Benutzeroberfläche (GUI), über die der Nutzer auf die Prozesse zugreift, neugestaltet. Anstelle der für die Transaktionsverarbeitung optimierte SAP GUI wurde das rollenbasierte SAP Fiori eingeführt. Damit wurde die Anzahl der Bildschirme und Bildschirmwechsel und damit auch die Anzahl der Felder, die für eine Rolle bzw. die Ausführung eines Prozesses notwendig sind, reduziert. Mit SAP Fiori wird den Endanwendern unabhängig vom genutzten Endgerät die gleiche Oberfläche angezeigt, wodurch das Arbeiten an verschiedenen Endgeräten vereinfacht werden soll.

Durch die vollständige Veränderung der zugrunde liegenden Architektur, der In-Memory-Datenbank, einem intelligenten Datenmodell und einer vereinfachten Oberfläche hat SAP mit S/4HANA eine, wie das Unternehmen sie selbst bezeichnet, “Echtzeit-ERP-Suite für das digitale Geschäft” geschaffen.

S/4HANA – Basis bildet die Business Technology Platform

Die SAP Business Technology Platform ist ein integriertes Angebot, das vier Technologieportfolios umfasst:

Datenbank- und Datenmanagement,

Anwendungsentwicklung und -integration,

Analysen und

intelligente Technologien wie künstliche Intelligenz (KI), Internet der Dinge (IoT) oder Blockchain.

Dabei greift SAP den Trend auf, den schon Salesforce und Microsoft Azure vorgelebt haben: der Application Server aus der Cloud, der nicht mehr fixiert ist auf “die eine Installation”, sondern auf Daten und Apps, um Daten anzuzeigen und zu verarbeiten. Die SAP Business Technology Platform bietet dafür In-Memory-Verarbeitung, agile Services zur Datenintegration und Anwendungserweiterung sowie eingebettete Analysen und intelligente Technologien. Die offene Architektur (Open-API) ermöglicht Partnern und Kunden zudem die flexible und kontinuierliche Erweiterung der IT-Landschaft.

Den Anwendern sollen dadurch flexible Möglichkeiten unterbreitet werden, um ein Verständnis in die Daten und Prozesse in den Anwendungen zu bekommen und mit den angebotenen Services ihre Daten in Geschäftswert bzw. geschäftlichen Nutzen umzuwandeln. Dafür werden zum einen operative Daten wie zum Beispiel Kosten, Klicks und Umsatze; zum anderen erfahrungsbasierte Daten wie Kundenzufriedenheit aufgegriffen und in Verbindung gesetzt. Die Ergebnisse und Erkenntnisse aus den darauf aufbauenden Analysen sollen dann direkt in Maßnahmen überführt oder in die Prozesse zurückgespielt werden. So wird es Unternehmen ermöglicht Prozesse und erfahrungsbasierte Daten zu verbinden und Optimierungen und Innovation voranzutreiben.

Mit S/4HANA ist SAP auch beim Betriebsmodell einen neuen Weg gegangen. So kann S/4HANA nicht nur On-premises betrieben, sondern auch als Cloud-Version gemietet werden. Kunden können beim Cloud-Betrieb unter verschiedenen Optionen wählen. SAP kooperiert mit allen großen US-amerikanischen Cloud-Anbietern wie AWS, Google und Microsoft, der chinesischen Alibaba und seit Mai 2025 auch mit StackIT, dem souveränen in Deutschland betriebenen Cloud-Angebot von Schwarz Digits, einer Tochter der Schwarz-Gruppe.

S/4HANA Cloud

Die S/4HANA Cloud Edition wird als Software-as-a-Service angeboten. Eigene Programmierungen sind in dieser Variante nicht möglich. Kunden sind also gezwungen, die von SAP bereitgestellten Prozesse zu nutzen und danach zu arbeiten. Auf der anderen Seite müssen sich Kunden keine Gedanken um das Thema Serverkapazität oder Wartung machen. Zudem kann die Implementierung von S/4HANA in der Cloud wesentlich schneller durchgeführt werden als bei der On-premises-Version, da die Cloud-Variante als vorkonfiguriertes System in einer Standardvariante bereitgestellt wird. Zudem verspricht die S/4HANA Cloud Edition schnelleren Zugriff auf Innovationen, da SAP hierfür einen vierteljährigen Innovationszyklus gegenüber einem einjährigen Innovationszyklus bei der On-premises-Version etabliert hat.

Mittlerweile hat SAP ihre Release-Strategie für S/4HANA On-premises etwas entschleunigt. Im September 2022 gab der Softwarehersteller bekannt, dass das 2023er S/4HANA-Release ein Ziel-Release sein solle, ab dem man in einen Zwei-Jahrestakt für neue Versionen wechseln werde. Zudem werde es eine längere Mainstream Maintenance pro Release von sieben Jahren und einfacher zu adaptierenden Feature Packs geben, hieß es.

Als Variante bietet SAP die HANA Enterprise Cloud (HEC) an. Dies entspricht im Wesentlichen einem Hosting-Prinzip, bei dem jeder Kunde seinen eigenen Server mit eigenem System bei der SAP hat, diese jedoch nicht selbst wartet. Die HEC entspricht damit dem Modell einer Private Cloud. Im Vergleich zur Public Cloud stellt die SAP hier die Infrastruktur-As-A-Service an, das heißt SAP stellt die komplette Systemlandschaft inklusive aller Anwendungen auf Basis einer SAP-Referenzarchitektur zur Verfügung. Da es sich bei der HEC um eine Private Cloud handelt, kann das System mittels Programmierungen an die Bedürfnisse eines Kunden angepasst werden.

Allerdings sind den Eingriffsmöglichkeiten Grenzen gesetzt. SAP spricht von einer klaren Clean-Core-Strategie. Das soll übermäßiges Customizing von SAP-Installationen, das vielen Anwenderunternehmen früher bei Release-Wechseln teils massive Probleme verursacht hat, eindämmen. Erweiterungen sollen vielmehr auf Basis der BTP möglich sein und über Standard-Schnittstellen, die SAP in seinem API-Hub auf der BTP anbietet, angebunden werden.

Lesetipp: SAP-CEO Christian Klein im Interview: SAP hätte mehr auf das Customizing achten sollen

Mit dem Angebot RISE with SAP bietet SAP seinen Kunden seit einigen Jahren einen schnellen Wechsel in die Cloud an. Dazu wurden ein Angebot aus SAP S/4HANA Cloud und ergänzend SAP Services erstellt, um Unternehmen bei der digitalen Transformation zu unterstützen. Diese erfolgt in den drei Schritten: Neugestaltung der Prozesse, technische Migration und Aufbau des intelligenten Unternehmens.

S/4HANA On-premises

Mit SAP S/4HANA On-premises verwaltet der Kunde vor Ort das S/4HANA-System, die HANA-Datenbank, Anwendungen, Rechenzentrum, Betriebssysteme, Middleware und Netzwerk. Das Unternehmen ist außerdem selbst verantwortlich für die Wartung und Entwicklung. Dadurch wird jedoch eine maximale Flexibilität ermöglicht. Anpassung der Software an unternehmensspezifische Anforderungen, die Steuerung der Häufigkeit und Zeitplanung von Upgrades sowie das Einspielen von Support-Packages übernimmt der Kunde in dieser Variante selbst.

S/4HANA Optionen und Betriebsmodelle
Foto: Christian Olausson

S/4HANA Hybrid

Grundsätzlich ist auch eine Kombination von S/4HANA Cloud und S/4HANA On-premises möglich. Dann spricht man vom hybriden Ansatz. Dabei können Unternehmen ausgewählte Prozesse, zum Beispiel die Kernprozesse, mit SAP S/4HANA On-premises lokal auf eigenen Servern betreiben. Andere Prozesse, die keiner individuellen Anpassung bedürfen, können in die Cloud ausgelagert werden.

Lesetipp: Tipps für die richtige SAP-Lizenzierung

SAP S/4HANA – Funktionen und Lösungen

Sprach man in der Vergangenheit beim SAP ERP immer von Modulen, die eingesetzt werden, spricht SAP selbst bei SAP S/4HANA von Prozessen, die das gesamte Geschäft abdecken und aufeinander abgestimmt sind. Die aktuelle Version SAP S/4HANA deckt dabei folgende Funktionsbereiche ab:

S/4HANA Sales & Marketing

S/4HANA Finance

S/4HANA Manufacturing

S/4HANA Supply Chain

S/4HANA Service

S/4HANA Asset Management

S/4HANA R&D / Engineering

S/4HANA Scouring & Procurement

S/4HANA Human Ressources

Mit dem neuen Aufbau von S/4HANA hat der Hersteller auch ein in Teilen neues Lizenzmodell veröffentlicht. Funktionen, die im sogenannten Digital Core, dem “SAP S/4HANA Enterprise Management”, enthalten sind, werden über User lizenziert. Hingegen sind die Funktionalitäten, die in den SAP S/4HANA Line-of-Business Solutions beziehungsweise den Suite LoB Solutions enthaltenen sind, separat zu lizenzieren. Die Suite LoB Solutions unterscheiden sich zu den S/4HANA LoB Solutions ansonsten darin, dass sie separat zu S/4HANA installiert werden. Die “doppelte” Lizenzierung von Lösungen, bei der für die LoB Solutions ein Nutzer eine SAP-Userlizenz und zusätzlich die Lösung lizenziert werden muss, entfällt im neuen Lizenzmodell.

SAP hat für verschiedene Branchen bereits Best-Practice-Lösungen vorgedacht. Unter S/4HANA bietet der Hersteller auf intelligenten Technologien basierende Lösungen für Best-Practice-Geschäftsprozesse für folgende Branchen:

Energie und natürliche Ressourcen

Baustoffe

Chemieindustrie

Metall-, Holz- und Papierindustrie

Bergbau

Öl- und Gasindustrie

Versorgungswirtschaft

Dienstleistungsbranche

Frachttransport und Logistik

Bauwirtschaft, Anlagen- und Schiffbau

Medien und Unterhaltung

Tourismus und Freizeitbranche

Dienstleistungen

Sport und Entertainment

Telekommunikation

Konsumgüterindustrie

Agrarindustrie

Konsumgüter

Mode

Life Sciences

Einzelhandel

Großhandel

Fertigungsindustrie

Luft- und Raumfahrtindustrie

Automobilindustrie

Hightech- und Elektronikindustrie

Maschinen-, Geräte- und Komponentenbau

Finanzdienstleistungen

Bankwesen

Versicherungen

Öffentlicher Dienst und Verwaltung

Innere und äußere Sicherheit

Städte der Zukunft

Gesundheitswesen

Hochschulen und Forschungseinrichtungen

Öffentlicher Sektor

S/4HANA – Migration

Da SAP angekündigt hat, die Wartung und die Weiterentwicklung von Altprodukten wie der Business Suite im Jahr 2027 einzustellen (Extended-Wartung gegen Aufpreis bis Ende 2030 möglich), steht für viele SAP-Kunden in den nächsten Jahren die Migration zu SAP S/4HANA an. Im Zuge des Programms „Rise with SAP“ soll es zwar eine Galgenfrist bis Ende 2033 geben. Man werde den Übergang erleichtern und „die Geschäftskontinuität der Kunden“ unterstützen, hieß es Anfang 2025 seitens des Softwareherstellers. Die Option nenne sich „SAP ERP, private edition, transition option“. 

Doch an der Migration führt letztendlich kein Weg vorbei – es sei denn die Kunden entscheiden sich, ihre alten SAP-Systeme mit Support-Angeboten von Drittanbietern wie zum Beispiel Rimini Street zu unterfüttern. Dabei stehen verschiedene technische und konzeptionelle Ansätze zur Migration zur Verfügung. Die Auswahl reicht von der kompletten Neuinstallation des Systems über die Konvertierung einzelner SAP-Systeme bis zur selektiven Migration. Welche Art der Migration am sinnvollsten ist, hängt von verschiedenen Kriterien ab:

die Ausgangskonfiguration des Kunden

die vorhandene IT-Systemlandschaft

Betriebsmodell (Cloud oder On-premises)

(IT-)strategische Zielsetzung

vorhandenes Know-how

organisatorische Strukturen.

Der grundlegende Neuaufbau der S/4HANA-Architektur und -Struktur macht die Migration bestehender SAP-Installationen zu einem sehr komplexen Prozess. Von SAP werden die zu berücksichtigenden Veränderungen in einer über 1000-seitigen Simplifizierungsliste im Detail beschrieben.

Greenfield-Ansatz

Der Greenfield-Ansatz beschreibt eine vollständige Neuimplementierung der SAP-Suite. Gemäß dem Titel auf der “grünen Wiese”. Das Unternehmen gibt dabei die bereits vorhandenen Systeme auf und ersetzt sie durch SAP S/4HANA. Die Daten der existierenden SAP- oder Nicht-SAP-Systeme lassen sich mit entsprechenden Anpassungen und Konvertierungen schrittweise in das neue System überführen. Dem Unternehmen bietet der Greenfield-Ansatz den Vorteil, dass die über die Jahre individualisierten ERP-Systeme durch eine neue Standardversion von SAP S/4HANA abgelöst werden. Das Unternehmen startet mit seiner ERP-Suite mehr oder weniger neu und wird von Altlasten befreit.

Brownfield-Ansatz

Der Brownfield-Ansatz verfolgt das Konzept einer schrittweisen Konvertierung und Umstellung bestehender SAP-ERP-Systeme zu SAP S/4HANA. Die bestehenden Systeme erhalten eine Art Upgrade. Individualisierungen bleiben, falls gewünscht, erhalten. Zur technischen Unterstützung der Migration existieren Lösungen wie der Software-Update-Manager (SUM) und die Daten-Migrations-Option (DMO). Vorteile des Brownfield-Ansatzes sind die mögliche Beibehaltung individueller Prozesse und die Integration in die vorhandene Systemlandschaft bei gleichzeitiger Modernisierung, Standardisierung und Konsolidierung des Gesamtsystems.

Bluefield-Ansatz

Der Bluefield Ansatz entspricht einer Kombination aus Greenfield- und Brownfield-Ansatz. Gestartet wird mit dem Aufbau eines leeren Zielsystems – der Schale – ohne Daten. Anschließend werden Stamm- und Bewegungsdaten mit Tools verschiedener Anbieter gezielt selektiert und in das leere Zielsystem migriert. Historische Daten werden hingegen archiviert. Prozesse und Funktionen können aus dem Alt-System übernommen oder neu konzipiert werden.

Landscape-Transformation

Der Fokus bei der Umwandlung der SAP-Landschaft besteht nicht darin, das gesamte System zu konvertieren. Mit der Umwandlung der SAP-Landschaft sollen vielmehr ausgewählte Daten zu SAP S/4HANA migriert oder Geschäftsprozesse mit einem globalen System konsolidiert werden. Der Ansatz bedeutet damit auch, dass zunächst die Prozesse ausgewählt werden, die den größten und schnellsten ROI bei der Migration zu S/4HANA bieten, zum Beispiel im Bereich S/4HANA Finance.

Ausblick: Mehr Business Suite und weniger S/4HANA

Zehn Jahre nach dem Marktauftritt von S/4HANA wird es stiller rund um S/4HANA. Im Rahmen ihrer neuen Geschäftsstrategie “Business Unleashed” zauberten die SAP-Verantwortlichen Mitte Februar 2025 mit der Business Suite ein aus alten On-premises-Tagen wohl bekanntes und bewährtes Software-Label aus dem Hut. Von der neuen Business Suite über die Business Data Cloud bis hin zu den KI-Apps – alles soll vorkonfiguriert in der Cloud ineinandergreifen, hieß es. In diesem Dreiklang aus Prozessen, Daten und KI scheint S/4HANA nur noch ein Ton unter vielen zu sein.

Unter der Business Suite versteht SAP ein modulares Set verschiedener miteinander integrierter Lösungen. Konkret nennt der Anbieter Cloud ERP, Business Applikationen, die Business Data Cloud und Business AI sowie als gemeinsame Basis die Business Technology Platform (BTP). Mit integriert ist außerdem SAP Build, um Kunden dabei zu helfen, ihre Anwendungen an individuelle Anforderungen anzupassen – ohne dabei allerdings in ein zu starkes Customizing abzudriften und immer einen „Clean Core“ zu behalten.

Lesetipp: SAP baut neue Business Suite in der Cloud

Auffallend an dieser Stelle: SAP spricht im Zusammenhang mit Business-Anwendungen nur noch von Cloud ERP und der Business Suite. Der Name S/4HANA, der die Strategie der SAP im zurückliegenden Jahrzehnt maßgeblich bestimmt hat, fällt gar nicht mehr. Inwieweit damit tatsächlich ein Strategiewechsel einhergeht oder ob es sich lediglich um ein Umlabeln handelt, ist noch nicht klar ersichtlich. Vielleicht möchte SAP an dieser Stelle auch einen Schlussstrich ziehen unter die ständigen Migrationsdiskussionen der vergangenen Jahre. Viele Unternehmen verbinden mit S/4HANA langwierige und kostenintensive Umstiegsprojekte und haben vielfach noch gar damit nicht angefangen, obwohl das Support-Ende für das Vorgänger-Release immer näher rückt. (bw/ba)

SAP S/4HANA LaunchSAP S/4HANA im DetailBill McDermott, CEO der SAP, eröffnete die Präsentation von SAP S/4HANA.SAP S/4HANA im DetailSAP S/4HANA kann mit zahlreichen neuen Features glänzen. SAP S/4HANA im DetailDie Neuerungen der SAP Business Suite 4 SAP HANA in der Public Cloud Edition im Detail.SAP S/4HANA im DetailDie Managed Cloud Edition der SAP Business Suite 4 SAP HANA wurde um diese Funktionen erweitert.SAP S/4HANA im DetailDie Neuerungen der On Premise Edition von SAP Business Suite 4 SAP HANA. SAP S/4HANA im DetailS/4HANA punktet mit seinem simplen und reduzierten Datenaufbau.SAP S/4HANA im DetailDie Entwickler von SAP HANA konnten in jeder Version den Database Footprint deutlich reduzieren. SAP S/4HANA im DetailS/4HANA wurde gehörig entrümpelt. Durch die reduzierte Komplexität hat die aktuelle SAP-HANA-Version im Vergleich zur Vorgängerversion enorm an Performance zugelegt. SAP S/4HANA im DetailBernd Leukert, Vorstand für Produkte und Innovation, demonstrierte, wie SAP S/4HANA in der Praxis funktioniert.SAP S/4HANA im DetailSAP S/4HANA im Praxiseinsatz.SAP S/4HANA im DetailSAP S/4HANA meldet einen Pumpendefekt und startet entsprechende Prozesse, um diese Störung schnellstmöglich zu beheben.SAP S/4HANA im DetailAuch mit mobilen Geräten kann SAP S/4 HANA umgehen. SAP S/4HANA im DetailBei Bedarf kann der IT-Verantwortlich SAP S/4 HANA auch vom Armgelenk aus steuern.

Was Sie über S/4HANA wissen müssen​ Weiterlesen »

Rust-basierte Type Checker für Python im Vergleich​

Allgemein

Tools auf Rust-Basis versprechen performanteres Type Checking in Python.RHJPhtotos | shutterstock.com Diverse neuere Drittanbieter-Tools für Python sind inzwischen in Rust geschrieben. Das liegt vor allem daran, dass moderne Programmierwerkzeuge eine Echtzeit-Feedbackschleife erfordern, die Python nicht in jedem Fall in der erforderlichen Geschwindigkeit bereitstellen kann. Diese Lücke kann Rust füllen – etwa in den Bereichen Projektmanagement (uv) oder Code-Formatierung (ruff). Hinzu kommen nun jedoch auch Type Checker auf Rust-Basis, die potenziell schneller und performanter sind als entsprechende Python-Pendants. Zu diesen Werkzeugen zählen auch: Ty, ein Projekt vom Python-Spezialisten Astral, sowie Pyrefly, das in den Laboren von Meta entstanden ist. Beide Type-Checking-Tools bedienen dabei im Wesentlichen denselben Anwendungsfall: Sie versprechen, Hochgeschwindigkeits-Type-Checking und Sprachservices für Python bereitzustellen. Wir haben uns die Funktionen und die Usability der beiden Type Checker auf Rust-Basis genauer angesehen und sagen Ihnen, welches Tool sich derzeit für Python-Entwickler am besten eignet. Pyrefly Pyrefly ist nicht der erste Python-Type-Checking-Vorstoss von Meta. Zuvor hatte der Social-Media-Gigant bereits das in OCaml geschriebene Tool Pyre veröffentlicht. Dieses wurde inzwischen eingestellt und durch Pyrefly ersetzt. Wenn Sie das Tool erstmals auf eine bestehende Python-Codebasis “loslassen”, sind Sie in der Regel mit einer Flut von Fehlermarkierungen konfrontiert. Die lassen sich über folgenden Befehl durch speziell interpretierte Kommentare unterdrücken: pyrefly check –suppress-errors Die Suppressions lassen sich anschließend selektiv entfernen und die Codebasis nach und nach bereinigen – indem Sie diesen Befehl ausführen: pyrefly check –remove-unused-ignores Auf diese Weise können Sie nicht typisierte Codebasen schrittweise migrieren. Wie alle modernen Python-Tools nutzt auch Pyrefly pyproject.toml, um seine Konfigurationsdateien auf Projektebene zu speichern. Sie können auch Verzeichniskonfigurationen mit eigenständigen pyrefly.toml-Projekten hinzufügen, die dieselbe Syntax verwenden – oder Verzeichnis-spezifische Überschreibungen für Optionen in einer einzigen Konfigurationsdatei bereitstellen. Die Liste der geprüften Fehlertypen von Pyrefly deckt sich weitgehend mit denen, die auch mypy und Pyright verarbeiten können. Von diesen Tools zu Pyrefly zu migrieren, ist denkbar einfach, weil es sich automatisiert bewerkstelligen lässt. Für ein Projekt, das immer noch in der Anfangsphase steckt, fühlt sich Pyrefly bereits ziemlich ausgereift an. So stehen etwa bereits eine detaillierte Dokumentation, eine Erweiterung für Visual Studio Code und sogar eine Online-Sandbox zu Experimentierzwecken zur Verfügung. Falls Sie das uv-Tool einsetzen, können Sie darüber hinaus mit Pyrefly herumspielen, ohne überhaupt irgendetwas zu installieren. Das funktioniert mit dem Befehl: uvx pyrefly Zu beachten ist, dass uv dadurch als virtuelle Umgebung für Python genutzt wird. Das führt möglicherweise dazu, dass irreführende Fehlermeldungen generiert werden, wenn Sie ein anderes venv für Ihr Projekt verwenden. Ty Das Astral-Projekt Ty befindet sich ebenfalls noch in einem relativ frühen Stadium – allerdings zeigt sich das deutlicher stärker als bei Pyrefly. So ist die Dokumentation weniger ausführlich und auch der Funktionsumfang schmaler als beim Tool von Meta. Installieren lässt sich Ty wahlweise über pip oder uvx. Dabei erkennt das Tool Quellverzeichnisse in einem mit pyproject.toml konfigurierten Projekt, was verhindert, dass es versehentlich Python-Dateien in der virtuellen Umgebung durchforstet. Allerdings fallen auch die Konfigurationsoptionen schmäler aus als bei Pyrefly: So werden Dateien von Überprüfungen mit .gitignore oder anderen externen Files exkludiert – statt über Konfigurationsregeln. Der Regelsatz von Ty um Dateien zu überprüfen, deckt jedoch einige Fälle ab, die bei anderen Tools unter den Tisch fallen. So überprüft Ty beispielsweise zwar nicht auf asynchrone Fehler, erkennt jedoch wenn Klassendefinitionen widersprüchliche Verwendungen von __slots__ enthalten. Davon abgesehen, bringt Ty aber auch zwei entscheidende Funktionen bereits mit: Es ist mit dem Language Server Protocol kompatibel und bietet eine VS-Code-Erweiterung, um das zu nutzen. Ein weiterer Pluspunkt ist der Detailgrad der Fehlerberichte. Während Pyrefly lediglich Zeilennummer und Fehlertyp liefert, gibt Ty kontextbezogene Fehlermeldungen im Stil von modernem Python aus. Pyrefly vs. Ty – Vergleichsfazit Pyrefly und Ty liegen in Sachen Performance in etwa auf Augenhöhe. Allerdings dürfte sich Pyrefly momentan als nützlicher erweisen. Das ist in erster Linie dem breiteren Funktionsumfang, der besseren Dokumentation und den Migrations-Tools zuzuschreiben. Für die Zukunft ist jedoch nicht ausgeschlossen, dass sich das Kräfteverhältnis in diesem Duell noch verändern wird. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Rust-basierte Type Checker für Python im Vergleich​ Tools auf Rust-Basis versprechen performanteres Type Checking in Python.RHJPhtotos | shutterstock.com

Diverse neuere Drittanbieter-Tools für Python sind inzwischen in Rust geschrieben. Das liegt vor allem daran, dass moderne Programmierwerkzeuge eine Echtzeit-Feedbackschleife erfordern, die Python nicht in jedem Fall in der erforderlichen Geschwindigkeit bereitstellen kann. Diese Lücke kann Rust füllen – etwa in den Bereichen Projektmanagement (uv) oder Code-Formatierung (ruff). Hinzu kommen nun jedoch auch Type Checker auf Rust-Basis, die potenziell schneller und performanter sind als entsprechende Python-Pendants. Zu diesen Werkzeugen zählen auch:

Ty, ein Projekt vom Python-Spezialisten Astral, sowie

Pyrefly, das in den Laboren von Meta entstanden ist.

Beide Type-Checking-Tools bedienen dabei im Wesentlichen denselben Anwendungsfall: Sie versprechen, Hochgeschwindigkeits-Type-Checking und Sprachservices für Python bereitzustellen. Wir haben uns die Funktionen und die Usability der beiden Type Checker auf Rust-Basis genauer angesehen und sagen Ihnen, welches Tool sich derzeit für Python-Entwickler am besten eignet.

Pyrefly

Pyrefly ist nicht der erste Python-Type-Checking-Vorstoss von Meta. Zuvor hatte der Social-Media-Gigant bereits das in OCaml geschriebene Tool Pyre veröffentlicht. Dieses wurde inzwischen eingestellt und durch Pyrefly ersetzt. Wenn Sie das Tool erstmals auf eine bestehende Python-Codebasis “loslassen”, sind Sie in der Regel mit einer Flut von Fehlermarkierungen konfrontiert. Die lassen sich über folgenden Befehl durch speziell interpretierte Kommentare unterdrücken:

pyrefly check –suppress-errors

Die Suppressions lassen sich anschließend selektiv entfernen und die Codebasis nach und nach bereinigen – indem Sie diesen Befehl ausführen:

pyrefly check –remove-unused-ignores

Auf diese Weise können Sie nicht typisierte Codebasen schrittweise migrieren.

Wie alle modernen Python-Tools nutzt auch Pyrefly pyproject.toml, um seine Konfigurationsdateien auf Projektebene zu speichern. Sie können auch Verzeichniskonfigurationen mit eigenständigen pyrefly.toml-Projekten hinzufügen, die dieselbe Syntax verwenden – oder Verzeichnis-spezifische Überschreibungen für Optionen in einer einzigen Konfigurationsdatei bereitstellen. Die Liste der geprüften Fehlertypen von Pyrefly deckt sich weitgehend mit denen, die auch mypy und Pyright verarbeiten können. Von diesen Tools zu Pyrefly zu migrieren, ist denkbar einfach, weil es sich automatisiert bewerkstelligen lässt.

Für ein Projekt, das immer noch in der Anfangsphase steckt, fühlt sich Pyrefly bereits ziemlich ausgereift an. So stehen etwa bereits eine detaillierte Dokumentation, eine Erweiterung für Visual Studio Code und sogar eine Online-Sandbox zu Experimentierzwecken zur Verfügung.

Falls Sie das uv-Tool einsetzen, können Sie darüber hinaus mit Pyrefly herumspielen, ohne überhaupt irgendetwas zu installieren. Das funktioniert mit dem Befehl:

uvx pyrefly

Zu beachten ist, dass uv dadurch als virtuelle Umgebung für Python genutzt wird. Das führt möglicherweise dazu, dass irreführende Fehlermeldungen generiert werden, wenn Sie ein anderes venv für Ihr Projekt verwenden.

Ty

Das Astral-Projekt Ty befindet sich ebenfalls noch in einem relativ frühen Stadium – allerdings zeigt sich das deutlicher stärker als bei Pyrefly. So ist die Dokumentation weniger ausführlich und auch der Funktionsumfang schmaler als beim Tool von Meta.

Installieren lässt sich Ty wahlweise über pip oder uvx. Dabei erkennt das Tool Quellverzeichnisse in einem mit pyproject.toml konfigurierten Projekt, was verhindert, dass es versehentlich Python-Dateien in der virtuellen Umgebung durchforstet. Allerdings fallen auch die Konfigurationsoptionen schmäler aus als bei Pyrefly: So werden Dateien von Überprüfungen mit .gitignore oder anderen externen Files exkludiert – statt über Konfigurationsregeln.

Der Regelsatz von Ty um Dateien zu überprüfen, deckt jedoch einige Fälle ab, die bei anderen Tools unter den Tisch fallen. So überprüft Ty beispielsweise zwar nicht auf asynchrone Fehler, erkennt jedoch wenn Klassendefinitionen widersprüchliche Verwendungen von __slots__ enthalten.

Davon abgesehen, bringt Ty aber auch zwei entscheidende Funktionen bereits mit: Es ist mit dem Language Server Protocol kompatibel und bietet eine VS-Code-Erweiterung, um das zu nutzen. Ein weiterer Pluspunkt ist der Detailgrad der Fehlerberichte. Während Pyrefly lediglich Zeilennummer und Fehlertyp liefert, gibt Ty kontextbezogene Fehlermeldungen im Stil von modernem Python aus.

Pyrefly vs. Ty – Vergleichsfazit

Pyrefly und Ty liegen in Sachen Performance in etwa auf Augenhöhe. Allerdings dürfte sich Pyrefly momentan als nützlicher erweisen. Das ist in erster Linie dem breiteren Funktionsumfang, der besseren Dokumentation und den Migrations-Tools zuzuschreiben.

Für die Zukunft ist jedoch nicht ausgeschlossen, dass sich das Kräfteverhältnis in diesem Duell noch verändern wird. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Rust-basierte Type Checker für Python im Vergleich​ Weiterlesen »

Verliert Deutschland seine KI-Talente?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?quality=50&strip=all 5838w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fast die Hälfte der Freelancer wollen Deutschland den Rücken kehren, darunter größtenteils KI-Experten.Song_about_summer – Shutterstock Das häufig angeführte Argument, in Deutschland fehlten KI-Experten, trifft nicht ganz zu. Wie der Freelancer-Kompass 2025 zeigt, setzen sich 77 Prozent der Freelancer, Freiberufler und Selbstständigen im deutschsprachigen Raum mit KI-Tools auseinander. Gut drei Viertel davon geben an, teilweise oder hauptsächlich für Kunden in Deutschland zu arbeiten. Noch muss man sagen: Laut Umfrage ziehen 48 Prozent der insgesamt 1.752 befragten Freelancer einen Umzug ins Ausland in Betracht, darunter größtenteils (93 Prozent) KI-Experten. Neun Prozent der befragten Freiberufler haben den Schritt bereits vollzogen, weitere acht Prozent planen ihn konkret. Es gibt aber auch positive Entwicklungen: Lag 2024 der Anteil derer, für die eine Auswanderung nicht infrage kommt, bei nur 22 Prozent, erhöhte sich dieser Wert nun deutlich auf 35 Prozent. Politik schreckt ab, Ausland lockt Die Gründe der bereits Ausgewanderten sprechen Bände: Für 42 Prozent der befragten Freelancer, die Deutschland bereits den Rücken gekehrt haben, sind die besseren Lebensbedingungen das Hauptargument. Dahinter folgen: steuerliche Vorteile (38 Prozent), politische oder gesellschaftliche Gründe (37 Prozent), der Wunsch nach weniger Bürokratie (34 Prozent), der geringeren Gefahr der Scheinselbstständigkeit (25 Prozent), und bessere berufliche Chancen im Ausland (20 Prozent).  Umdenken erforderlich Wenn fast jeder zweite Freelancer darüber nachdenkt, Deutschland zu verlassen, ist das kein individuelles Problem mehr, sondern ein strukturelles Versagen”, kommentiert Thomas Maas, CEO von freelancermap, die Ergebnisse. Freelancer wollten arbeiten, gestalten, mit KI vorangehen, stießen jedoch auf politische Hürden, wo eigentlich Rückenwind nötig wäre. Dabei sei Freelancing laut dem Manager nicht weniger als ein Zukunftsmodell und Innovationsbringer. 

Verliert Deutschland seine KI-Talente?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?quality=50&strip=all 5838w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fast die Hälfte der Freelancer wollen Deutschland den Rücken kehren, darunter größtenteils KI-Experten.Song_about_summer – Shutterstock

Das häufig angeführte Argument, in Deutschland fehlten KI-Experten, trifft nicht ganz zu. Wie der Freelancer-Kompass 2025 zeigt, setzen sich 77 Prozent der Freelancer, Freiberufler und Selbstständigen im deutschsprachigen Raum mit KI-Tools auseinander. Gut drei Viertel davon geben an, teilweise oder hauptsächlich für Kunden in Deutschland zu arbeiten.

Noch muss man sagen: Laut Umfrage ziehen 48 Prozent der insgesamt 1.752 befragten Freelancer einen Umzug ins Ausland in Betracht, darunter größtenteils (93 Prozent) KI-Experten. Neun Prozent der befragten Freiberufler haben den Schritt bereits vollzogen, weitere acht Prozent planen ihn konkret.

Es gibt aber auch positive Entwicklungen: Lag 2024 der Anteil derer, für die eine Auswanderung nicht infrage kommt, bei nur 22 Prozent, erhöhte sich dieser Wert nun deutlich auf 35 Prozent.

Politik schreckt ab, Ausland lockt

Die Gründe der bereits Ausgewanderten sprechen Bände: Für 42 Prozent der befragten Freelancer, die Deutschland bereits den Rücken gekehrt haben, sind die besseren Lebensbedingungen das Hauptargument. Dahinter folgen:

steuerliche Vorteile (38 Prozent),

politische oder gesellschaftliche Gründe (37 Prozent),

der Wunsch nach weniger Bürokratie (34 Prozent),

der geringeren Gefahr der Scheinselbstständigkeit (25 Prozent), und

bessere berufliche Chancen im Ausland (20 Prozent). 

Umdenken erforderlich

Wenn fast jeder zweite Freelancer darüber nachdenkt, Deutschland zu verlassen, ist das kein individuelles Problem mehr, sondern ein strukturelles Versagen”, kommentiert Thomas Maas, CEO von freelancermap, die Ergebnisse. Freelancer wollten arbeiten, gestalten, mit KI vorangehen, stießen jedoch auf politische Hürden, wo eigentlich Rückenwind nötig wäre. Dabei sei Freelancing laut dem Manager nicht weniger als ein Zukunftsmodell und Innovationsbringer.

Verliert Deutschland seine KI-Talente?​ Weiterlesen »

6 Trends – wie KI die Softwareentwicklung verändert​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>KI dürfte die Art und Weise des Coding neuer Software massiv verändern.BEST-BACKGROUNDS – shutterstock.com Die Marktforscher von Gartner haben strategische Trends in der Softwareentwicklung für 2025 und die darauffolgenden Jahre identifiziert. Unternehmen könnten mithilfe KI-gestützter Automatisierung Innovationen zu beschleunigen und effiziente, zukunftsorientierte Engineering-Praktiken etablieren, prognostizieren die Analysten. „KI-fähige Tools und Technologien revolutionieren die Art und Weise, wie Software entwickelt und bereitgestellt wird“, erklärt dazu Joachim Herschmann, VP Analyst bei Gartner. Es gelte, das Potenzial KI-gesteuerter Automatisierung voll auszuschöpfen, Talentstrategien gezielt weiterzuentwickeln und nachhaltige, KI-native Engineering-Praktiken einzuführen, empfiehlt Herschmann. Diese sechs zentralen Trends im Software Engineering sollten Anwenderunternehmen dabei in den kommenden Jahren im Blick behalten. AI-native Software-Engineering AI-native Software-Engineering wird Gartner zufolge den Software Development Life Cycle (SDLC) grundlegend verändern. KI-Tools würden in jeder Phase des Softwareentwicklungsprozesses eine zentrale Rolle spielen, vom Design bis zur Bereitstellung. Dabei werde KI einen erheblichen Teil der Aufgaben im SDLC autonom oder halbautonom erledigen können. Lesetipp: So wird man einen Job als Chefentwickler los Gartner geht davon aus, dass bis 2028 rund 90 Prozent aller Softwareentwickler in Unternehmen KI-Code-Assistenten verwenden werden. Zum Vergleich: Anfang 2024 waren es weniger als 14 Prozent. Auchdie Rolle der Entwickler wird sich verändern und von der Implementierung zur Orchestrierung verlagern. Dabei werde der Fokus mehr auf Problemlösungen und dem Systemdesign liegen. Entwickler müssten zudem sicherstellen, dass KI-Tools hochwertige Ergebnisse liefern. Es gelte, innerhalb der Teams die Balance zwischen Automatisierung und menschlicher Aufsicht zu finden. LLM-basierte Anwendungen und Agenten Large Language Models (LLMs) verändern die Softwareentwicklung, indem sie Anwendungen in die Lage versetzen, intelligent und autonom zu interagieren – ähnlich wie menschliche Interaktionen. Gartner prognostiziert, dass bis 2027 mindestens 55 Prozent der Softwareentwicklungsteams LLM-basierte Funktionen entwickeln werden. „Um LLM-basierte Anwendungen und Agenten erfolgreich zu entwickeln, müssen Softwareentwickler ihre Strategien überdenken“, sagt Herschmann. Unternehmen müssten dafür in Weiterbildung investieren, die Experimente mit GenAI ausbauen und gleichzeitig Leitplanken für den KI-Einsatz einrichten, um die damit verbundenen Risiken im Griff zu behalten. GenAI-Plattform-Engineering Das GenAI-Plattform-Engineering baut Gartner zufolge auf bereits etablierten Plattform-Engineering-Ansätzen auf. Entwickler sollen damit besser unterstützt werden, GenAI-Funktionen einfacher und vor allem auch sicher in ihren Anwendungen zu integrieren. Die Analysten prognostizieren, dass bis 2027 etwa sieben von zehn Unternehmen mit Plattformteams GenAI-Funktionen in ihre internen Entwicklerplattformen integrieren werden. Lesetipp: Der GenAI-Entwicklungsprozess in 7 Schritten Auf diesen Plattformen müssten KI-Funktionen über Self-Service-Entwicklerportale leicht auffindbar sein und nach den Bedürfnissen der Entwickler priorisiert werden. Darüber hinaus brauche es robuste Governance- und Sicherheitspraktiken. Nur so könnten Führungskräfte sicherstellen, dass ihre Teams innovative Anwendungen entwickeln, die den Unternehmensstandards entsprechen, so Gartner. Maximierung der Talentdichte Die Talentdichte hat sich zu einem wichtigen Unterscheidungsmerkmal für Unternehmen entwickelt. Teams mit einer hohen Konzentration an hochqualifizierten Fachkräften könnten effizienter und anpassungsfähiger arbeiten und so einen höheren Kundennutzen erzielen, wenn sie durch die richtige Kultur und Technologiestrategie unterstützt werden. „Um wettbewerbsfähig zu bleiben, müssen Unternehmen über traditionelle Einstellungspraktiken hinausgehen und sich auf den Aufbau von Teams mit hoher Talentdichte konzentrieren“, rät Gartner-Analyst Herschmann. Voraussetzung dafür sei eine Kultur des kontinuierlichen Lernens und der Zusammenarbeit. Das helfe, qualifizierte Fachkräfte anzuziehen und auch im Unternehmen zu halten. Offene GenAI-Modelle und Ökosysteme Offene GenAI-Modelle bieten Betrieben größere Flexibilität, niedrigere Kosten und weniger Vendor-Lock-in, konstatiert Gartner. Im Gegensatz zu proprietären Modellen ließen sich KI-Lösungen mit offenen GenAI-Modellen besser anpassen und genauer auf die individuellen Anforderungen hin abstimmen – , ei es On-Premises im eigenen Rechenzentrum oder in der Cloud. KI-Funktionen würden so für ein breiteres Spektrum von Teams und Anwendungsfällen zugänglicher und auch kostengünstiger. Gartner prognostiziert, dass bis 2028 rund 30 Prozent der weltweiten Unternehmensausgaben für GenAI-Technologien auf offene GenAI-Modelle entfallen werden. Green Software Engineering Green Software Engineering soll Entwicklung von Software nachhaltiger machen. Dabei würden Umweltauswirkungen von Software nicht mehr als nachgelagerter Aspekt betrachtet, sondern von Anfang an grüne Praktiken in jeder Phase des Entwicklungsprozesses von der Planung bis zur Produktion integriert. Lesetipp: Nachhaltige Softwareentwicklung – Wie Green Coding Ihre Kosten drückt „Da Unternehmen im Rahmen digitaler Initiativen immer mehr Software entwickeln und kaufen, kann die Zunahme des CO2-Fußabdrucks durch rechenintensive Workloads im Widerspruch zu ihren Nachhaltigkeitszielen stehen“, warnt Gartner-Analyst Herschmann. Gerade die Entwicklung intelligenter Anwendungen mit GenAI sei extrem energieintensiv, was nachhaltige Praktiken in der Softwareentwicklung unabdingbar mache. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/4VmhAcSEOLgbG2KUofeTj6?utm_source=oembed”> 

6 Trends – wie KI die Softwareentwicklung verändert​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>KI dürfte die Art und Weise des Coding neuer Software massiv verändern.BEST-BACKGROUNDS – shutterstock.com

Die Marktforscher von Gartner haben strategische Trends in der Softwareentwicklung für 2025 und die darauffolgenden Jahre identifiziert. Unternehmen könnten mithilfe KI-gestützter Automatisierung Innovationen zu beschleunigen und effiziente, zukunftsorientierte Engineering-Praktiken etablieren, prognostizieren die Analysten. „KI-fähige Tools und Technologien revolutionieren die Art und Weise, wie Software entwickelt und bereitgestellt wird“, erklärt dazu Joachim Herschmann, VP Analyst bei Gartner.

Es gelte, das Potenzial KI-gesteuerter Automatisierung voll auszuschöpfen, Talentstrategien gezielt weiterzuentwickeln und nachhaltige, KI-native Engineering-Praktiken einzuführen, empfiehlt Herschmann. Diese sechs zentralen Trends im Software Engineering sollten Anwenderunternehmen dabei in den kommenden Jahren im Blick behalten.

AI-native Software-Engineering

AI-native Software-Engineering wird Gartner zufolge den Software Development Life Cycle (SDLC) grundlegend verändern. KI-Tools würden in jeder Phase des Softwareentwicklungsprozesses eine zentrale Rolle spielen, vom Design bis zur Bereitstellung. Dabei werde KI einen erheblichen Teil der Aufgaben im SDLC autonom oder halbautonom erledigen können.

Lesetipp: So wird man einen Job als Chefentwickler los

Gartner geht davon aus, dass bis 2028 rund 90 Prozent aller Softwareentwickler in Unternehmen KI-Code-Assistenten verwenden werden. Zum Vergleich: Anfang 2024 waren es weniger als 14 Prozent. Auchdie Rolle der Entwickler wird sich verändern und von der Implementierung zur Orchestrierung verlagern. Dabei werde der Fokus mehr auf Problemlösungen und dem Systemdesign liegen. Entwickler müssten zudem sicherstellen, dass KI-Tools hochwertige Ergebnisse liefern. Es gelte, innerhalb der Teams die Balance zwischen Automatisierung und menschlicher Aufsicht zu finden.

LLM-basierte Anwendungen und Agenten

Large Language Models (LLMs) verändern die Softwareentwicklung, indem sie Anwendungen in die Lage versetzen, intelligent und autonom zu interagieren – ähnlich wie menschliche Interaktionen. Gartner prognostiziert, dass bis 2027 mindestens 55 Prozent der Softwareentwicklungsteams LLM-basierte Funktionen entwickeln werden.

„Um LLM-basierte Anwendungen und Agenten erfolgreich zu entwickeln, müssen Softwareentwickler ihre Strategien überdenken“, sagt Herschmann. Unternehmen müssten dafür in Weiterbildung investieren, die Experimente mit GenAI ausbauen und gleichzeitig Leitplanken für den KI-Einsatz einrichten, um die damit verbundenen Risiken im Griff zu behalten.

GenAI-Plattform-Engineering

Das GenAI-Plattform-Engineering baut Gartner zufolge auf bereits etablierten Plattform-Engineering-Ansätzen auf. Entwickler sollen damit besser unterstützt werden, GenAI-Funktionen einfacher und vor allem auch sicher in ihren Anwendungen zu integrieren. Die Analysten prognostizieren, dass bis 2027 etwa sieben von zehn Unternehmen mit Plattformteams GenAI-Funktionen in ihre internen Entwicklerplattformen integrieren werden.

Lesetipp: Der GenAI-Entwicklungsprozess in 7 Schritten

Auf diesen Plattformen müssten KI-Funktionen über Self-Service-Entwicklerportale leicht auffindbar sein und nach den Bedürfnissen der Entwickler priorisiert werden. Darüber hinaus brauche es robuste Governance- und Sicherheitspraktiken. Nur so könnten Führungskräfte sicherstellen, dass ihre Teams innovative Anwendungen entwickeln, die den Unternehmensstandards entsprechen, so Gartner.

Maximierung der Talentdichte

Die Talentdichte hat sich zu einem wichtigen Unterscheidungsmerkmal für Unternehmen entwickelt. Teams mit einer hohen Konzentration an hochqualifizierten Fachkräften könnten effizienter und anpassungsfähiger arbeiten und so einen höheren Kundennutzen erzielen, wenn sie durch die richtige Kultur und Technologiestrategie unterstützt werden.

„Um wettbewerbsfähig zu bleiben, müssen Unternehmen über traditionelle Einstellungspraktiken hinausgehen und sich auf den Aufbau von Teams mit hoher Talentdichte konzentrieren“, rät Gartner-Analyst Herschmann. Voraussetzung dafür sei eine Kultur des kontinuierlichen Lernens und der Zusammenarbeit. Das helfe, qualifizierte Fachkräfte anzuziehen und auch im Unternehmen zu halten.

Offene GenAI-Modelle und Ökosysteme

Offene GenAI-Modelle bieten Betrieben größere Flexibilität, niedrigere Kosten und weniger Vendor-Lock-in, konstatiert Gartner. Im Gegensatz zu proprietären Modellen ließen sich KI-Lösungen mit offenen GenAI-Modellen besser anpassen und genauer auf die individuellen Anforderungen hin abstimmen – , ei es On-Premises im eigenen Rechenzentrum oder in der Cloud.

KI-Funktionen würden so für ein breiteres Spektrum von Teams und Anwendungsfällen zugänglicher und auch kostengünstiger. Gartner prognostiziert, dass bis 2028 rund 30 Prozent der weltweiten Unternehmensausgaben für GenAI-Technologien auf offene GenAI-Modelle entfallen werden.

Green Software Engineering

Green Software Engineering soll Entwicklung von Software nachhaltiger machen. Dabei würden Umweltauswirkungen von Software nicht mehr als nachgelagerter Aspekt betrachtet, sondern von Anfang an grüne Praktiken in jeder Phase des Entwicklungsprozesses von der Planung bis zur Produktion integriert.

Lesetipp: Nachhaltige Softwareentwicklung – Wie Green Coding Ihre Kosten drückt

„Da Unternehmen im Rahmen digitaler Initiativen immer mehr Software entwickeln und kaufen, kann die Zunahme des CO2-Fußabdrucks durch rechenintensive Workloads im Widerspruch zu ihren Nachhaltigkeitszielen stehen“, warnt Gartner-Analyst Herschmann. Gerade die Entwicklung intelligenter Anwendungen mit GenAI sei extrem energieintensiv, was nachhaltige Praktiken in der Softwareentwicklung unabdingbar mache.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/4VmhAcSEOLgbG2KUofeTj6?utm_source=oembed”>

6 Trends – wie KI die Softwareentwicklung verändert​ Weiterlesen »

Cloudflare will KI-Crawler zur Kasse bitten​

Allgemein

Mit einem interessanten Bezahlmodell will Cloudflare Unternehmen helfen, ihren wertvollen Content zu monetarisieren – oder vor KI-Bots zu schützen. Alysson M / Shutterstock.com Cloudflare hatte bereits im Juli 2024 damit begonnen, seinen Kunden die Möglichkeit zu geben, KI-Crawler zu blockieren. Seitdem haben sich laut eigenen Angaben über eine Million Kunden für diese Option entschieden. Nun schaltet der Cloud-Infrastrukturbetreiber einen Gang hoch. Cloudflare wird ab dem 1. Juli KI-Crawler standardmäßig daran hindern, auf die Websites neuer Kunden zuzugreifen, sofern keine Erlaubnis vorliegt. Parallel testet das Unternehmen eine Möglichkeit, KI-Anbieter für die von ihnen gesammelten Daten zahlen zu lassen. Darüber hinaus können Website-Besitzer nun entscheiden, wer auf ihren Seiten crawlt und zu welchem Zweck. KI-Unternehmen können über Cloudflare offenlegen, ob die gesammelten Daten für Training, Inferenz oder Suche verwendet werden, um den Website-Besitzern bei der Entscheidung zu helfen, ob sie den Crawl erlauben. „Seit Jahrzehnten funktioniert das Internet nach einem einfachen Prinzip“, erklärt Cloudflare in seiner Ankündigung: „Suchmaschinen indexieren Inhalte und leiten Nutzer zurück zu den Originalseiten, was für Websites jeder Größe Traffic und Werbeeinnahmen generiert. Dieser Kreislauf belohnt Urheber, die hochwertige Inhalte erstellen, mit Geld und einer Anhängerschaft, während er Nutzern hilft, neue und interessante Informationen zu entdecken.“ Dieses Modell sei nun gescheitert, konstatiert das Unternehmen. KI-Crawler sammelten Inhalte wie Texte, Artikel und Bilder, um Antworten zu generieren, ohne Besucher zur Originalquelle weiterzuleiten – wodurch den Erstellern der Inhalte Einnahmen entgingen und ihnen die Befriedigung genommen werde, zu wissen, dass jemand ihre Inhalte liest. „Wenn der Anreiz, originelle, hochwertige Inhalte zu erstellen, verschwindet, verliert die Gesellschaft und die Zukunft des Internets ist gefährdet“, so Cloudflare. Bezahlen pro Crawl Cloudflare testet derzeit einen neuen Bezahlmechanismus namens „Pay per Crawl“. Dieser ermöglicht es Website-Betreibern zu entscheiden, ob sie KI-Crawlern den Zugriff auf ihre Inhalte gestatten – und ob dieser Zugriff kostenlos oder kostenpflichtig sein soll. Die Technologie, die sich derzeit in einer privaten Beta-Phase befindet, integriert sich in bestehende Web-Infrastrukturen, um ein Framework zu schaffen, mit dem Website-Betreiber eine Zahlung verlangen können und dem Crawler den Preis über den HTTP-Antwortcode „402 Zahlung erforderlich“ mitteilen können. Der Website-Betreiber kann aktuell entweder einen einheitlichen Preis für die gesamte Seite festlegen oder bestimmten Crawlern kostenlosen Zugriff erlauben. Cloudflare geht jedoch davon aus, dass sich diese Funktion weiterentwickeln wird – möglicherweise mit dynamischer Preisgestaltung oder unterschiedlichen Gebühren für verschiedene Inhaltstypen. „Das wahre Potenzial von Pay-per-Crawl könnte sich in einer agentenbasierten Welt entfalten“, schreibt das Unternehmen in einem Blogbeitrag zur neuen Funktion. „Was wäre, wenn eine agentische Paywall vollständig programmatisch am Netzwerkrand funktionieren könnte? Stellen sie sich vor, Íhr bevorzugtes Deep-Research-Programm hilft Ihnen, die neueste Krebsforschung oder ein juristisches Gutachten zusammenzufassen – oder einfach nur das beste Restaurant in Soho zu finden – und Sie geben diesem Agenten ein Budget, um die besten und relevantesten Inhalte zu erwerben“, sinniert Cloudflare. Der Webhoster fungiert bei dem Modell als Händler für die Käufe, stellt den Crawlern die Rechnungen aus und verteilt die Gelder an die Website-Betreiber. Falls ein Crawler noch keine Abrechnungsbeziehung mit Cloudflare hat, wird er blockiert, erhält aber eine Fehlermeldung, die darauf hinweist, dass er mit einer solchen Beziehung möglicherweise Zugriff auf die Inhalte erhalten könnte. Cloudflare hat sowohl Crawler, die bereit sind, für Inhalte zu zahlen, als auch Inhaltsanbieter, die bezahlt werden möchten, eingeladen, sich für die Beta-Version anzumelden. Bestehende Unternehmenskunden können sich auch an ihren Kundenbetreuer wenden. Eine Win-Win-Situation Fritz Jean-Louis, Principal Cybersecurity Advisor bei der Info-Tech Research Group, sieht diesen Ansatz als positiven Schritt, der Bedenken hinsichtlich der unbefugten Nutzung von Inhalten durch KI-Crawler adressiere: „Indem Website-Betreiber die Kontrolle darüber erhalten, wie ihre Inhalte von KI-Crawlern abgerufen und genutzt werden, können Content-Ersteller ihr geistiges Eigentum schützen und ihre Inhalte möglicherweise monetarisieren“, so der Chefberater. Die Verpflichtung für KI-Unternehmen, den Zweck ihrer Crawler offenzulegen, schaffe ein Maß an Transparenz und Verantwortlichkeit, das der Branche bislang gefehlt habe. Es trage dazu bei, Vertrauen zwischen Content-Erstellern und KI-Unternehmen aufzubauen. Der Analyst sieht jedoch noch ungelöste Probleme, die angegangen werden müssten – etwa, wie mit sogenannten „Legacy“-Informationen, die bereits von Crawlern erfasst wurden, umzugehen ist. Grundsätzlich befürwortet Jean-Louis aber branchengetriebene Lösungen gegenüber strafenden Regulierungen: „Dieser Schritt von Cloudflare könnte auf einen Wandel in der Branche hindeuten – zu einem fairen und nachhaltigen digitalen Ökosystem , das die Bedürfnisse von Content-Erstellern und KI-Innovatoren in Einklang bringt. (mb) 

Cloudflare will KI-Crawler zur Kasse bitten​ Mit einem interessanten Bezahlmodell will Cloudflare Unternehmen helfen, ihren wertvollen Content zu monetarisieren – oder vor KI-Bots zu schützen. Alysson M / Shutterstock.com

Cloudflare hatte bereits im Juli 2024 damit begonnen, seinen Kunden die Möglichkeit zu geben, KI-Crawler zu blockieren. Seitdem haben sich laut eigenen Angaben über eine Million Kunden für diese Option entschieden.

Nun schaltet der Cloud-Infrastrukturbetreiber einen Gang hoch. Cloudflare wird ab dem 1. Juli KI-Crawler standardmäßig daran hindern, auf die Websites neuer Kunden zuzugreifen, sofern keine Erlaubnis vorliegt. Parallel testet das Unternehmen eine Möglichkeit, KI-Anbieter für die von ihnen gesammelten Daten zahlen zu lassen.

Darüber hinaus können Website-Besitzer nun entscheiden, wer auf ihren Seiten crawlt und zu welchem Zweck. KI-Unternehmen können über Cloudflare offenlegen, ob die gesammelten Daten für Training, Inferenz oder Suche verwendet werden, um den Website-Besitzern bei der Entscheidung zu helfen, ob sie den Crawl erlauben.

„Seit Jahrzehnten funktioniert das Internet nach einem einfachen Prinzip“, erklärt Cloudflare in seiner Ankündigung: „Suchmaschinen indexieren Inhalte und leiten Nutzer zurück zu den Originalseiten, was für Websites jeder Größe Traffic und Werbeeinnahmen generiert. Dieser Kreislauf belohnt Urheber, die hochwertige Inhalte erstellen, mit Geld und einer Anhängerschaft, während er Nutzern hilft, neue und interessante Informationen zu entdecken.“

Dieses Modell sei nun gescheitert, konstatiert das Unternehmen. KI-Crawler sammelten Inhalte wie Texte, Artikel und Bilder, um Antworten zu generieren, ohne Besucher zur Originalquelle weiterzuleiten – wodurch den Erstellern der Inhalte Einnahmen entgingen und ihnen die Befriedigung genommen werde, zu wissen, dass jemand ihre Inhalte liest. „Wenn der Anreiz, originelle, hochwertige Inhalte zu erstellen, verschwindet, verliert die Gesellschaft und die Zukunft des Internets ist gefährdet“, so Cloudflare.

Bezahlen pro Crawl

Cloudflare testet derzeit einen neuen Bezahlmechanismus namens „Pay per Crawl“. Dieser ermöglicht es Website-Betreibern zu entscheiden, ob sie KI-Crawlern den Zugriff auf ihre Inhalte gestatten – und ob dieser Zugriff kostenlos oder kostenpflichtig sein soll. Die Technologie, die sich derzeit in einer privaten Beta-Phase befindet, integriert sich in bestehende Web-Infrastrukturen, um ein Framework zu schaffen, mit dem Website-Betreiber eine Zahlung verlangen können und dem Crawler den Preis über den HTTP-Antwortcode „402 Zahlung erforderlich“ mitteilen können.

Der Website-Betreiber kann aktuell entweder einen einheitlichen Preis für die gesamte Seite festlegen oder bestimmten Crawlern kostenlosen Zugriff erlauben. Cloudflare geht jedoch davon aus, dass sich diese Funktion weiterentwickeln wird – möglicherweise mit dynamischer Preisgestaltung oder unterschiedlichen Gebühren für verschiedene Inhaltstypen. „Das wahre Potenzial von Pay-per-Crawl könnte sich in einer agentenbasierten Welt entfalten“, schreibt das Unternehmen in einem Blogbeitrag zur neuen Funktion.

„Was wäre, wenn eine agentische Paywall vollständig programmatisch am Netzwerkrand funktionieren könnte? Stellen sie sich vor, Íhr bevorzugtes Deep-Research-Programm hilft Ihnen, die neueste Krebsforschung oder ein juristisches Gutachten zusammenzufassen – oder einfach nur das beste Restaurant in Soho zu finden – und Sie geben diesem Agenten ein Budget, um die besten und relevantesten Inhalte zu erwerben“, sinniert Cloudflare.

Der Webhoster fungiert bei dem Modell als Händler für die Käufe, stellt den Crawlern die Rechnungen aus und verteilt die Gelder an die Website-Betreiber. Falls ein Crawler noch keine Abrechnungsbeziehung mit Cloudflare hat, wird er blockiert, erhält aber eine Fehlermeldung, die darauf hinweist, dass er mit einer solchen Beziehung möglicherweise Zugriff auf die Inhalte erhalten könnte.

Cloudflare hat sowohl Crawler, die bereit sind, für Inhalte zu zahlen, als auch Inhaltsanbieter, die bezahlt werden möchten, eingeladen, sich für die Beta-Version anzumelden. Bestehende Unternehmenskunden können sich auch an ihren Kundenbetreuer wenden.

Eine Win-Win-Situation

Fritz Jean-Louis, Principal Cybersecurity Advisor bei der Info-Tech Research Group, sieht diesen Ansatz als positiven Schritt, der Bedenken hinsichtlich der unbefugten Nutzung von Inhalten durch KI-Crawler adressiere: „Indem Website-Betreiber die Kontrolle darüber erhalten, wie ihre Inhalte von KI-Crawlern abgerufen und genutzt werden, können Content-Ersteller ihr geistiges Eigentum schützen und ihre Inhalte möglicherweise monetarisieren“, so der Chefberater.

Die Verpflichtung für KI-Unternehmen, den Zweck ihrer Crawler offenzulegen, schaffe ein Maß an Transparenz und Verantwortlichkeit, das der Branche bislang gefehlt habe. Es trage dazu bei, Vertrauen zwischen Content-Erstellern und KI-Unternehmen aufzubauen.

Der Analyst sieht jedoch noch ungelöste Probleme, die angegangen werden müssten – etwa, wie mit sogenannten „Legacy“-Informationen, die bereits von Crawlern erfasst wurden, umzugehen ist. Grundsätzlich befürwortet Jean-Louis aber branchengetriebene Lösungen gegenüber strafenden Regulierungen: „Dieser Schritt von Cloudflare könnte auf einen Wandel in der Branche hindeuten – zu einem fairen und nachhaltigen digitalen Ökosystem , das die Bedürfnisse von Content-Erstellern und KI-Innovatoren in Einklang bringt. (mb)

Cloudflare will KI-Crawler zur Kasse bitten​ Weiterlesen »

Digitale Souveränität – weniger Abschottung, mehr Wahlfreiheit​

Allgemein

loading=”lazy” width=”400px”>Sich abzuschotten, hilft der digitalen Souveränität nicht weiter. Im Gegenteil – man koppelt sich damit auch von innovativer Technik ab.SugaBom86 – shutterstock.com Stellen Sie sich vor, Ihr Streaming-Dienst erhöht kontinuierlich die Preise und plant für das kommende Jahr eine weitere Steigerung um bis zu 40 Prozent. Spätestens dann würden die meisten Nutzer wohl über einen Wechsel nachdenken. So ergeht es derzeit vielen deutschen Unternehmen und insbesondere der öffentlichen Verwaltung mit ihren Softwarelizenzen und Cloud-Diensten – allen voran bei Microsofts M365. Seit dem 1. April 2025 stiegen die Preise für Microsoft-365-Dienste um bis zu 40 Prozent. Doch der Wechsel ist hier oft keine triviale Option. Der Grund: Microsoft setzt auf proprietäre Schnittstellen und Feature-Kopplungen, die konkurrierende Produkte systematisch ausschließen. Die Folge: Marktdominanz, gebündelte Lizenzverträge und kaum Verhandlungsspielraum. Lesetipp: Digitale Souveränität: Wird Deutschland zum Vorbild in Europa? Dabei sollte die volkswirtschaftliche Dimension der Abhängigkeit nicht unterschätzt werden. Der Bund zahlte allein 2024 rund 204,5 Millionen Euro für Microsoft-Lizenzen – 6,8 Millionen Euro mehr als 2023 und fast das Dreifache von 2017. Eine aktuelle Studie des zentrum Nachhaltige Transformation (zNT) an der Quadriga-Hochschule quantifizierte dabei die Mehrkosten für den öffentlichen Sektor. Demnach zahlen öffentliche und kommunale Unternehmen jedes Jahr bis zu 120 Millionen Euro mehr, weil unfaire Lizenzbedingungen und Lock-in-Effekte den Wechsel in andere Clouds verteuern. Bundesländer zwischen Open Source und Microsoft-Cloud Schleswig-Holstein zieht daher nun konsequent die Reißleine und wechselt vollständig zu Open-Source-Lösungen. Bis September 2025 sollen Office, Exchange und SharePoint durch LibreOffice, Thunderbird und Nextcloud ersetzt und sogar ein Linux-Pilotprojekt gestartet werden. Auch Baden-Württemberg zieht Konsequenzen, wählt aber den hybriden Weg: Office-Desktops bleiben, doch eine eigene Landes-Cloud soll kritische Daten vor Ort belassen. Lesetipp: Ist Trump der Booster für Europas digitale Souveränität? Ganz anders verfahren dagegen sechs weitere Bundesländer – darunter Bayern, Niedersachsen und NRW –, die laut einer Umfrage der Heise-Publikation c’t vom Oktober 2024 Teams oder sogar das komplette Microsoft-365-Paket einführen wollen. Digitale Souveränität – nicht Abschottung sondern Wahlfreiheit Diese Spannbreite verdeutlicht dabei die Problematik: Der direkte Weg in die Microsoft-Cloud verstärkt die einseitige Abhängigkeit, während ein dogmatischer „Open-Source-Only“-Ansatz neue Engpässe schafft, da er die Innovationskraft der Hyperscaler aus Nordamerika ausblendet. Digitale Souveränität bedeutet nicht Abschottung oder Übergang zu einem einzigen Open-Source-Standard, sondern Wahlfreiheit. Unternehmen und Ländern soll es möglich sein, jederzeit zwischen den besten und innovativsten Anbietern und Betriebsmodellen zu wechseln – ganz nach ihren individuellen Bedürfnissen. Ein offener Cloud Markt als Lösung Das Bundesamt für Sicherheit in der Informationstechnik (BSI) denkt genau in diese Richtung. auf. Die Behörde schlägt vor, möglichst viele Kooperationsabkommen – vom nationalen Provider bis zu internationalen Hyperscalern – abzuschließen, um einen Marktplatz vertrauenswürdiger Cloud-Bausteine zu schaffen. Dieser soll Sicherheitsanforderungen gewährleisten und gleichzeitig das Risiko eines Vendor-Lock-ins reduzieren. Wenn diese Strategie gelingen soll, müssen zuvor jedoch bestehende missbräuchliche Marktstrukturen aufgebrochen werden. Bereits im September 2024 stellte das Bundeskartellamt Microsoft unter die erweiterte Missbrauchsaufsicht nach § 19a GWB. Parallel dazu attestierte die britische Wettbewerbsbehörde CMA im Januar 2025 dem Cloud-Markt „nachteilige Auswirkungen auf den Wettbewerb“: Egress-Gebühren, Lizenzkoppelungen und Rabattstrukturen erschwerten den Wechsel sowie den Multi-Cloud-Betrieb und ermöglichten es Unternehmen wie AWS und Microsoft, überdurchschnittliche Gewinne zu erzielen.  Europäische Souveränität braucht Wettbewerb und Interoperabilität Diese Befunde verdeutlichen die Notwendigkeit, dass es jetzt eine gemeinsame politische Antwort auf Bundes- und EU-Ebene braucht. Das Ziel muss sein, eine echte Interoperabilität zwischen allen Cloud- und Software-Diensten zu schaffen. Nur so kann die Grundlage für europäische digitale Souveränität geschaffen werden, die nicht in Abschottung endet, sondern die Kooperation mit den innovativsten Lösungen weltweit offenhält. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> Konkret bedeutet das, alle Hürden für einen Anbieterwechsel abzubauen – unabhängig davon, ob der Anbieter innerhalb oder außerhalb Europas sitzt. So sollen US-Hyperscaler, europäische Open-Source-Akteure und außereuropäische Wettbewerber in denselben Preis-, Service- und Innovationswettbewerb treten. Microsoft zu regulieren ist notwendig Microsofts Marktmacht zu regulieren ist dabei zwingend nötig, aber so, dass Europa sich nicht ausgerechnet von wertvollen US-Technologien abkoppelt. Sonst droht ein transatlantisches Innovationsrennen, in dem die EU ohne Zugang zu Spitzenlösungen schwer bestehen könnte. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5dNJGnOX4iEG97iAYrzLbr?utm_source=oembed”> Dass Regulierung ohne Isolation möglich ist, zeigen die ersten Schritte der britischen Competition and Markets Authority (CMA) und des Bundeskartellamts. Die CMA hat Ende Januar 2025 in ihren vorläufigen Ergebnissen hohe Wechselbarrieren und Diskriminierung durch Software-Lizenzbündel festgestellt, das Bundeskartellamt hat Microsoft im September 2024 unter die verschärfte Missbrauchsaufsicht des § 19a GWB gestellt. Beide Behörden verfolgen das Ziel der freien Anbieterwahl, ohne den Markt gleich abzuriegeln – ein Modell, das Europa den Weg weist. Lesetipp: Wie souverän ist Microsofts Sovereign Cloud wirklich? Jetzt ist entscheidend, dass dieser Weg auch konsequent gegangen wird – national und vor allem auf EU-Ebene. Neben Kartellverfahren sind mutige europäische Regelungen erforderlich, die auch die grenzüberschreitende Reichweite des US Cloud Act adressieren. Erst dann gewinnen Länderverwaltungen die strukturelle Flexibilität, die gesamte Vielfalt und Innovationskraft digitaler Dienstleister zu nutzen. (ba) 

Digitale Souveränität – weniger Abschottung, mehr Wahlfreiheit​ loading=”lazy” width=”400px”>Sich abzuschotten, hilft der digitalen Souveränität nicht weiter. Im Gegenteil – man koppelt sich damit auch von innovativer Technik ab.SugaBom86 – shutterstock.com

Stellen Sie sich vor, Ihr Streaming-Dienst erhöht kontinuierlich die Preise und plant für das kommende Jahr eine weitere Steigerung um bis zu 40 Prozent. Spätestens dann würden die meisten Nutzer wohl über einen Wechsel nachdenken. So ergeht es derzeit vielen deutschen Unternehmen und insbesondere der öffentlichen Verwaltung mit ihren Softwarelizenzen und Cloud-Diensten – allen voran bei Microsofts M365.

Seit dem 1. April 2025 stiegen die Preise für Microsoft-365-Dienste um bis zu 40 Prozent. Doch der Wechsel ist hier oft keine triviale Option. Der Grund: Microsoft setzt auf proprietäre Schnittstellen und Feature-Kopplungen, die konkurrierende Produkte systematisch ausschließen. Die Folge: Marktdominanz, gebündelte Lizenzverträge und kaum Verhandlungsspielraum.

Lesetipp: Digitale Souveränität: Wird Deutschland zum Vorbild in Europa?

Dabei sollte die volkswirtschaftliche Dimension der Abhängigkeit nicht unterschätzt werden. Der Bund zahlte allein 2024 rund 204,5 Millionen Euro für Microsoft-Lizenzen – 6,8 Millionen Euro mehr als 2023 und fast das Dreifache von 2017. Eine aktuelle Studie des zentrum Nachhaltige Transformation (zNT) an der Quadriga-Hochschule quantifizierte dabei die Mehrkosten für den öffentlichen Sektor. Demnach zahlen öffentliche und kommunale Unternehmen jedes Jahr bis zu 120 Millionen Euro mehr, weil unfaire Lizenzbedingungen und Lock-in-Effekte den Wechsel in andere Clouds verteuern.

Bundesländer zwischen Open Source und Microsoft-Cloud

Schleswig-Holstein zieht daher nun konsequent die Reißleine und wechselt vollständig zu Open-Source-Lösungen. Bis September 2025 sollen Office, Exchange und SharePoint durch LibreOffice, Thunderbird und Nextcloud ersetzt und sogar ein Linux-Pilotprojekt gestartet werden. Auch Baden-Württemberg zieht Konsequenzen, wählt aber den hybriden Weg: Office-Desktops bleiben, doch eine eigene Landes-Cloud soll kritische Daten vor Ort belassen.

Lesetipp: Ist Trump der Booster für Europas digitale Souveränität?

Ganz anders verfahren dagegen sechs weitere Bundesländer – darunter Bayern, Niedersachsen und NRW –, die laut einer Umfrage der Heise-Publikation c’t vom Oktober 2024 Teams oder sogar das komplette Microsoft-365-Paket einführen wollen.

Digitale Souveränität – nicht Abschottung sondern Wahlfreiheit

Diese Spannbreite verdeutlicht dabei die Problematik: Der direkte Weg in die Microsoft-Cloud verstärkt die einseitige Abhängigkeit, während ein dogmatischer „Open-Source-Only“-Ansatz neue Engpässe schafft, da er die Innovationskraft der Hyperscaler aus Nordamerika ausblendet.

Digitale Souveränität bedeutet nicht Abschottung oder Übergang zu einem einzigen Open-Source-Standard, sondern Wahlfreiheit. Unternehmen und Ländern soll es möglich sein, jederzeit zwischen den besten und innovativsten Anbietern und Betriebsmodellen zu wechseln – ganz nach ihren individuellen Bedürfnissen.

Ein offener Cloud Markt als Lösung

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) denkt genau in diese Richtung. auf. Die Behörde schlägt vor, möglichst viele Kooperationsabkommen – vom nationalen Provider bis zu internationalen Hyperscalern – abzuschließen, um einen Marktplatz vertrauenswürdiger Cloud-Bausteine zu schaffen. Dieser soll Sicherheitsanforderungen gewährleisten und gleichzeitig das Risiko eines Vendor-Lock-ins reduzieren.

Wenn diese Strategie gelingen soll, müssen zuvor jedoch bestehende missbräuchliche Marktstrukturen aufgebrochen werden. Bereits im September 2024 stellte das Bundeskartellamt Microsoft unter die erweiterte Missbrauchsaufsicht nach § 19a GWB. Parallel dazu attestierte die britische Wettbewerbsbehörde CMA im Januar 2025 dem Cloud-Markt „nachteilige Auswirkungen auf den Wettbewerb“: Egress-Gebühren, Lizenzkoppelungen und Rabattstrukturen erschwerten den Wechsel sowie den Multi-Cloud-Betrieb und ermöglichten es Unternehmen wie AWS und Microsoft, überdurchschnittliche Gewinne zu erzielen. 

Europäische Souveränität braucht Wettbewerb und Interoperabilität

Diese Befunde verdeutlichen die Notwendigkeit, dass es jetzt eine gemeinsame politische Antwort auf Bundes- und EU-Ebene braucht. Das Ziel muss sein, eine echte Interoperabilität zwischen allen Cloud- und Software-Diensten zu schaffen. Nur so kann die Grundlage für europäische digitale Souveränität geschaffen werden, die nicht in Abschottung endet, sondern die Kooperation mit den innovativsten Lösungen weltweit offenhält.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

Konkret bedeutet das, alle Hürden für einen Anbieterwechsel abzubauen – unabhängig davon, ob der Anbieter innerhalb oder außerhalb Europas sitzt. So sollen US-Hyperscaler, europäische Open-Source-Akteure und außereuropäische Wettbewerber in denselben Preis-, Service- und Innovationswettbewerb treten.

Microsoft zu regulieren ist notwendig

Microsofts Marktmacht zu regulieren ist dabei zwingend nötig, aber so, dass Europa sich nicht ausgerechnet von wertvollen US-Technologien abkoppelt. Sonst droht ein transatlantisches Innovationsrennen, in dem die EU ohne Zugang zu Spitzenlösungen schwer bestehen könnte.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5dNJGnOX4iEG97iAYrzLbr?utm_source=oembed”>

Dass Regulierung ohne Isolation möglich ist, zeigen die ersten Schritte der britischen Competition and Markets Authority (CMA) und des Bundeskartellamts. Die CMA hat Ende Januar 2025 in ihren vorläufigen Ergebnissen hohe Wechselbarrieren und Diskriminierung durch Software-Lizenzbündel festgestellt, das Bundeskartellamt hat Microsoft im September 2024 unter die verschärfte Missbrauchsaufsicht des § 19a GWB gestellt. Beide Behörden verfolgen das Ziel der freien Anbieterwahl, ohne den Markt gleich abzuriegeln – ein Modell, das Europa den Weg weist.

Lesetipp: Wie souverän ist Microsofts Sovereign Cloud wirklich?

Jetzt ist entscheidend, dass dieser Weg auch konsequent gegangen wird – national und vor allem auf EU-Ebene. Neben Kartellverfahren sind mutige europäische Regelungen erforderlich, die auch die grenzüberschreitende Reichweite des US Cloud Act adressieren. Erst dann gewinnen Länderverwaltungen die strukturelle Flexibilität, die gesamte Vielfalt und Innovationskraft digitaler Dienstleister zu nutzen. (ba)

Digitale Souveränität – weniger Abschottung, mehr Wahlfreiheit​ Weiterlesen »

Nach oben scrollen
×