Computerhaus Quickborn

Allgemein

Deshalb sollten Sie WLAN am Handy unterwegs unbedingt deaktivieren​

Allgemein

Camilo Concha/Shutterstock Über die WLAN-Funktion am Handy denkt man im Alltag eher selten nach – außer vielleicht, wenn man gerade im Flugzeug sitzt und die Verbindung während des Abhebens abschaltet. Ansonsten bleibt sie meistens aktiviert: zu Hause selbstverständlich, aber auch unterwegs, schließlich scheint es auf den ersten Blick keinen Nachteil zu geben. Doch genau da liegt das Problem, denn es gibt gute Gründe, unterwegs auf das aktivierte WLAN zu verzichten. Welche das sind, erfahren Sie im Folgenden. Warum Sie Ihr WLAN unterwegs besser ausschalten sollten 1. Ihr Akku wird es Ihnen danken Ein aktiviertes WLAN-Modul sucht kontinuierlich nach verfügbaren Netzwerken – auch dann, wenn Sie gar keines nutzen. Dieser ständige Suchprozess verbraucht Strom und kann die Akkulaufzeit Ihres Smartphones erheblich verkürzen. 2. Risiken in öffentlichen WLANs vermeiden Öffentliche WLAN-Netzwerke, wie sie in Cafés, Bahnhöfen oder Flughäfen angeboten werden, können eine Gefahr für Ihre Daten darstellen. Angreifer nutzen oft sogenannte Fake-Hotspots, die sich als vertrauenswürdige Netzwerke ausgeben, um Ihre Passwörter, Bankdaten oder andere sensible Informationen abzugreifen. Besonders kritisch wird es, wenn Ihr Smartphone automatisch Verbindungen zu offenen WLANs herstellt. Tipp: Ein sicherer Schutz bei öffentlichen Netzwerken ist ein VPN (Virtual Private Network). Mit einem VPN – etwa als App auf Ihrem Handy – wird Ihre Internetverbindung verschlüsselt, sodass selbst in unsicheren Netzwerken niemand Ihre Daten mitlesen kann. Nord VPN 3. Ihre Privatsphäre schützen Wussten Sie, dass Angreifer gespeicherte Netzwerke auf Ihrem Handy auslesen können? Über kartierte WLANs, die von Diensten wie Google und Microsoft für Location-Mapping genutzt werden, lässt sich potenziell Ihre Wohnadresse ermitteln. Diese Sicherheitslücke können Sie einfach schließen, indem Sie unterwegs das WLAN deaktivieren und so den Zugriff auf gespeicherte Daten verhindern. Heißt das aber nun, dass man jedes Mal das WLAN manuell ausschalten muss, sobald man das Haus verlässt, und zu Hause wieder einschalten muss? Das klingt mühsam – und was, wenn man es vergisst? Die gute Nachricht: Es gibt clevere Wege, um sich diese Aufgabe zu erleichtern, ohne unnötig Datenvolumen zu verschwenden oder ständig daran denken zu müssen. Manuelle Steuerung: Natürlich können Sie das WLAN einfach über die Einstellungen oder das Kontrollzentrum Ihres Smartphones ein- und ausschalten. Auf iPhones geht das etwa mit einem Wisch von der oberen rechten Ecke nach unten, bei Android-Geräten funktioniert es ähnlich über die Schnellzugriffsleiste. Praktisch: Bei Apple wird das WLAN automatisch am nächsten Tag wieder aktiviert, falls Sie es vergessen sollten. Automatisierungen für mehr Komfort: Noch einfacher wird es logischerweise mit Automatisierungen, die das WLAN basierend auf Ihrem Standort oder bestimmten Bedingungen steuern. Konkret bedeutet das: iPhone: Mit der Kurzbefehle-App von Apple können Sie eine Automation erstellen, die das WLAN automatisch ausschaltet, wenn Sie einen bestimmten Ort verlassen – und es wieder einschaltet, sobald Sie zurückkehren. Zum Beispiel: Verlassen Sie Ihr Zuhause, deaktiviert Ihr iPhone das WLAN. Kommen Sie zurück, wird es automatisch wieder aktiviert. Diese Einstellung lässt sich so konfigurieren, dass die Automation ohne zusätzliche Bestätigung ausgeführt wird, was den Prozess völlig reibungslos macht. Android: Viele Android-Smartphones verfügen in den WLAN-Einstellungen über die Option „WLAN automatisch (de-)aktivieren“. Damit verbindet sich Ihr Gerät automatisch mit bekannten Netzwerken, sobald diese in Reichweite sind, und schaltet die WLAN-Funktion aus, wenn Sie sich an weniger besuchten Orten aufhalten. Falls diese Funktion auf Ihrem Gerät nicht verfügbar ist, könnten Sie auf NFC-Tags zurückgreifen, die Sie an strategischen Orten platzieren (zum Beispiel ein Sticker in der Nähe der Eingangstür). Ein kurzes Antippen reicht dann, um das hinterlegte WLAN aus- oder einzuschalten. Lesen Sie hier, wie Sie eigene NFC-Tags programmieren. PC-Welt Übrigens gelten einige dieser Risiken auch für die Nutzung von Bluetooth. Mehr dazu lesen Sie hier Bluetooth am Handy immer ausschalten: Deshalb raten Experten dazu. (PC-Welt) 

Deshalb sollten Sie WLAN am Handy unterwegs unbedingt deaktivieren​ Camilo Concha/Shutterstock

Über die WLAN-Funktion am Handy denkt man im Alltag eher selten nach – außer vielleicht, wenn man gerade im Flugzeug sitzt und die Verbindung während des Abhebens abschaltet. Ansonsten bleibt sie meistens aktiviert: zu Hause selbstverständlich, aber auch unterwegs, schließlich scheint es auf den ersten Blick keinen Nachteil zu geben.

Doch genau da liegt das Problem, denn es gibt gute Gründe, unterwegs auf das aktivierte WLAN zu verzichten. Welche das sind, erfahren Sie im Folgenden.

Warum Sie Ihr WLAN unterwegs besser ausschalten sollten

1. Ihr Akku wird es Ihnen danken

Ein aktiviertes WLAN-Modul sucht kontinuierlich nach verfügbaren Netzwerken – auch dann, wenn Sie gar keines nutzen. Dieser ständige Suchprozess verbraucht Strom und kann die Akkulaufzeit Ihres Smartphones erheblich verkürzen.

2. Risiken in öffentlichen WLANs vermeiden

Öffentliche WLAN-Netzwerke, wie sie in Cafés, Bahnhöfen oder Flughäfen angeboten werden, können eine Gefahr für Ihre Daten darstellen. Angreifer nutzen oft sogenannte Fake-Hotspots, die sich als vertrauenswürdige Netzwerke ausgeben, um Ihre Passwörter, Bankdaten oder andere sensible Informationen abzugreifen. Besonders kritisch wird es, wenn Ihr Smartphone automatisch Verbindungen zu offenen WLANs herstellt.

Tipp: Ein sicherer Schutz bei öffentlichen Netzwerken ist ein VPN (Virtual Private Network). Mit einem VPN – etwa als App auf Ihrem Handy – wird Ihre Internetverbindung verschlüsselt, sodass selbst in unsicheren Netzwerken niemand Ihre Daten mitlesen kann.

Nord VPN

3. Ihre Privatsphäre schützen

Wussten Sie, dass Angreifer gespeicherte Netzwerke auf Ihrem Handy auslesen können? Über kartierte WLANs, die von Diensten wie Google und Microsoft für Location-Mapping genutzt werden, lässt sich potenziell Ihre Wohnadresse ermitteln.

Diese Sicherheitslücke können Sie einfach schließen, indem Sie unterwegs das WLAN deaktivieren und so den Zugriff auf gespeicherte Daten verhindern.

Heißt das aber nun, dass man jedes Mal das WLAN manuell ausschalten muss, sobald man das Haus verlässt, und zu Hause wieder einschalten muss? Das klingt mühsam – und was, wenn man es vergisst? Die gute Nachricht: Es gibt clevere Wege, um sich diese Aufgabe zu erleichtern, ohne unnötig Datenvolumen zu verschwenden oder ständig daran denken zu müssen.

Manuelle Steuerung: Natürlich können Sie das WLAN einfach über die Einstellungen oder das Kontrollzentrum Ihres Smartphones ein- und ausschalten. Auf iPhones geht das etwa mit einem Wisch von der oberen rechten Ecke nach unten, bei Android-Geräten funktioniert es ähnlich über die Schnellzugriffsleiste.

Praktisch: Bei Apple wird das WLAN automatisch am nächsten Tag wieder aktiviert, falls Sie es vergessen sollten.

Automatisierungen für mehr Komfort: Noch einfacher wird es logischerweise mit Automatisierungen, die das WLAN basierend auf Ihrem Standort oder bestimmten Bedingungen steuern. Konkret bedeutet das:

iPhone: Mit der Kurzbefehle-App von Apple können Sie eine Automation erstellen, die das WLAN automatisch ausschaltet, wenn Sie einen bestimmten Ort verlassen – und es wieder einschaltet, sobald Sie zurückkehren. Zum Beispiel: Verlassen Sie Ihr Zuhause, deaktiviert Ihr iPhone das WLAN. Kommen Sie zurück, wird es automatisch wieder aktiviert. Diese Einstellung lässt sich so konfigurieren, dass die Automation ohne zusätzliche Bestätigung ausgeführt wird, was den Prozess völlig reibungslos macht.

Android: Viele Android-Smartphones verfügen in den WLAN-Einstellungen über die Option „WLAN automatisch (de-)aktivieren“. Damit verbindet sich Ihr Gerät automatisch mit bekannten Netzwerken, sobald diese in Reichweite sind, und schaltet die WLAN-Funktion aus, wenn Sie sich an weniger besuchten Orten aufhalten. Falls diese Funktion auf Ihrem Gerät nicht verfügbar ist, könnten Sie auf NFC-Tags zurückgreifen, die Sie an strategischen Orten platzieren (zum Beispiel ein Sticker in der Nähe der Eingangstür). Ein kurzes Antippen reicht dann, um das hinterlegte WLAN aus- oder einzuschalten. Lesen Sie hier, wie Sie eigene NFC-Tags programmieren.

PC-Welt

Übrigens gelten einige dieser Risiken auch für die Nutzung von Bluetooth. Mehr dazu lesen Sie hier Bluetooth am Handy immer ausschalten: Deshalb raten Experten dazu.

(PC-Welt)

Deshalb sollten Sie WLAN am Handy unterwegs unbedingt deaktivieren​ Weiterlesen »

Lenovo Idea Tab Pro im Test: Großes Display und günstiger Preis – aber nicht ohne Kompromisse​

Allgemein

Lloyd Coombes Auf einen Blick Pro Erschwinglich Großes Display Inklusive Stylus Kontra Nicht das leistungsstärkste Bildschirm könnte heller sein Fazit Das Lenovo Idea Tab Pro ist groß und hochwertig verarbeitet, lässt aber in puncto Leistung zu viel vermissen, um eine uneingeschränkte Empfehlung zu sein. Dennoch machen der mitgelieferte Stylus, das große Display und die guten Lautsprecher das Tablet ideal für Notizen oder Medienkonsum – nur einen Laptop-Ersatz sollten Sie nicht erwarten. Vor einigen Jahren schien es noch so, als würden Tablets immer größer werden. Zwar gibt es noch Ausnahmen, doch viele der besten Modelle setzen heute auf kompaktere Formate zwischen 10 und 11 Zoll. Das Lenovo Idea Tab Pro schlägt einen anderen Weg ein: Es will ein großformatiges Tablet bieten – ohne den Premium-Preis eines Apple-Flaggschiffs. Und das gelingt größtenteils. Mit 13-Zoll-Display, vier Lautsprechern für Musik und Filme sowie einem beiliegenden Stylus richtet es sich vor allem an kreative Nutzer. Allerdings gibt es auch klare Einschränkungen: Der MediaTek Dimensity 8300 bietet zwar mehr Leistung als sein Vorgänger, ist aber für produktives Arbeiten oder echtes Multitasking mit mehreren Apps nur bedingt geeignet. Und trotz der Größe bleibt das Display ein IPS-Panel. Helligkeit und Kontraste liegen also unter dem, was Sie vielleicht erwarten würden. Und dennoch: Mit einem Preis von unter 400 Euro (inklusive Lenovo Tab Pen Plus) und Zugang zu KI-Funktionen wie Google Gemini ist das Idea Tab Pro für viele Nutzer eine interessante Alternative zum Einsteiger‑iPad. Nur der Name “Pro” verspricht am Ende etwas mehr, als das Tablet wirklich leisten kann. Design & Verarbeitung Groß, aber relativ leicht Inklusive Stylus Kein Kopfhöreranschluss Tablets tun sich heute schwer, wirklich aufzufallen. Das Lenovo Idea Tab Pro bildet da keine Ausnahme. Abgesehen vom an der Seite befestigten Stylus bleibt das Gerät optisch eher zurückhaltend. Das muss aber kein Nachteil sein: Ein schmaler Rahmen umgibt das Display, in dem auch die Frontkamera Platz findet. Der Rest der Vorderseite gehört dem großzügigen Bildschirm. Am unteren Rand sitzt ein USB-C-Anschluss zum Laden. Für den Sound sorgen vier Lautsprecher – zwei oben, zwei unten – und liefern echten Stereo-Klang. Mehr dazu weiter unten. Lloyd Coombes Oben am Gehäuse sitzt die Stand-by-Taste, rechts finden Sie die Lautstärke-Wippe. Der Stylus wird links magnetisch befestigt, wo er sich auch auflädt. Auf einen Wasserschutz müssen Sie leider verzichten, das Gerät sollte also nicht in die Nähe von Flüssigkeiten kommen. Abgesehen davon wirkt das Tablet solide verarbeitet und liegt trotz der Größe angenehm leicht in der Hand. Einen Kopfhöreranschluss sucht man vergeblich. In dieser Preisklasse ist das nicht ungewöhnlich, könnte aber Nutzer stören, die noch kabelgebundene Kopfhörer verwenden. Bildschirm & Lautsprecher IPS-Panel 2.944 × 1.840 Pixel Auflösung Vierfach-Lautsprecher Wie bereits erwähnt, ist das 13-Zoll-Display riesig. Die relativ schmalen Ränder rundherum sorgen für eine gute Bildwirkung, sodass Sie sich auf langen Flügen gut in einen Film vertiefen können. Erwarten Sie allerdings keine tiefen Schwarztöne oder besonders kräftigen Kontraste. Das IPS-Panel bietet nur eine begrenzte Helligkeit, was Bilder insgesamt etwas blass wirken lässt. Bei direkter Sonneneinstrahlung stößt das Display schnell an seine Grenzen und bleibt hinter OLED-Alternativen deutlich zurück – für den Einsatz im Freien ist es daher weniger geeignet und empfiehlt sich eher für den Gebrauch in Innenräumen. Lloyd Coombes Schade ist, dass das Display trotz der Auflösung von 2.944 × 1.840 Pixeln, die für scharfe und detailreiche Bilder sorgt und auch Texte sehr gut lesbar macht, seine Stärken nur eingeschränkt ausspielen kann. Dafür bietet das Tablet eine hohe Bildwiederholrate von 144 Hertz, die das Scrollen und Navigieren sehr flüssig und reaktionsschnell wirken lässt – allerdings nur, solange Sie keine anspruchsvollen Aufgaben erledigen, die der integrierte Chipsatz nicht gut bewältigen kann. Das IPS-Panel erreicht keine hohe Helligkeit, wodurch Bilder insgesamt etwas blass wirken. Apropos Filme: Die vier Lautsprecher leisten hervorragende Arbeit, egal ob Sie spannende Action oder dialoglastige Szenen schauen. Auch zum Musikhören eignen sie sich bestens – und sie werden richtig laut! Rechenleistung MediaTek Dimensity 8300 Chipsatz 8 GB RAM 128 / 256 GB Speicher An dieser Stelle zeigt sich, wo bei der Ausstattung gespart wurde – obwohl das Tablet bei KI-Aufgaben (auf die wir gleich noch eingehen) einen kleinen Vorteil bietet. Kurz gesagt: Der MediaTek Dimensity 8300 Prozessor ist, na ja, okay. Er ist doppelt so schnell wie das Amazon Fire HD 8 Kids Pro, das ich kürzlich getestet habe, kommt aber nicht an Flaggschiffe heran und bleibt deutlich hinter dem Lenovo Yoga Tab Plus zurück. Lloyd Coombes Da fällt es schwer, das Tablet wirklich als “Pro” zu bezeichnen, wenn andere “Pro”-Modelle sogar einen Laptop übertreffen können. Allerdings liegt der Preis unter 400  Euro, was manche Schwächen leichter verzeihlich macht. Acht Gigabyte Arbeitsspeicher sorgen dafür, dass mehrere Apps gleichzeitig laufen können – ideal bei so einem großen Display. Das Tablet gibt es mit 128 oder 256 Gigabyte Speicher, der sich jeweils per Micro-SD-Karte erweitern lässt. Der interne Speicher ist zudem schnell, was zügige Datenübertragungen ermöglicht. Der MediaTek Dimensity 8300 Prozessor ist, na ja, okay. Wie gewohnt testen wir auch einige anspruchsvolle Spiele – darunter “League of Legends: Wild Rift” und “Genshin Impact”. “Wild Rift” profitiert von der weniger fordernden Vogelperspektive und läuft auf dem Idea Tab Pro problemlos. Lediglich das vergleichsweise dunkle Display trübt das Spielerlebnis ein wenig. “Genshin Impact” zeigt in actionreichen Szenen oder bei vielen Effekten gelegentlich Ruckler, läuft insgesamt aber recht flüssig auf mittleren Grafikeinstellungen. Und wie steht es um Künstliche Intelligenz? Lenovo wirbt berechtigterweise mit der Unterstützung für Gemini – und liefert ab. Dank einer dedizierten Neural Processing Unit (NPU) neben der Haupt-CPU werden KI-Anfragen über Gemini oder andere Anwendungen zuverlässig verarbeitet. Zwar wird die KI-Leistung mit zukünftiger Software nicht ewig mithalten können, doch für alltägliche Anwendungen wie Surfen, Streaming und erste KI-Erfahrungen ist das Idea Tab Pro durchaus gut gerüstet. Lenovo Idea Tab Pro Benchmarks Kameras 8-MP-Frontkamera 13-MP-Rückkamera 4K/30fps Video Es fällt schwer, die Front- oder Rückkamera des Idea Tab Pro wirklich zu empfehlen. Sie sind nicht schlecht, aber die Hauptkamera Ihres Smartphones wird wahrscheinlich deutlich bessere Ergebnisse liefern. Die Frontkamera neigt zu Überbelichtung, während die Hauptkamera auf gute Lichtverhältnisse angewiesen ist, die nicht immer garantiert sind. Bilder wirken oft überbelichtet, was zwar Helligkeit bringt, aber viele Details verschwinden lässt. Für Schnappschüsse reicht das, für feinere Aufnahmen ist Ihr Handy die bessere Wahl. Akkulaufzeit & Aufladen Großer Akku mit 10.200 mAh Langsam zu laden 45 Watt kabelgebundenes Laden Der Vorteil eines großen Tablets ist meist auch ein größerer Akku – so auch beim Lenovo Idea Tab Pro. Es verfügt über eine Akkukapazität von 10.200 Milliamperestunden, was für lange Laufzeiten sorgt. In unseren Tests kam ich bei einer Mischung aus Surfen, Spielen und Lesen digitaler Magazine auf etwa 11 Stunden Laufzeit mit einer Akkuladung. Natürlich hält der Akku bei ausgeschaltetem WLAN noch länger, was ein sehr respektabler Wert ist. Im PCMark-Work-3.0-Akkutest erreichte das Tablet 10 Stunden und 4 Minuten – eine solide Leistung, aber kein Spitzenwert. Einziger Nachteil: Das Laden dauert recht lange. Das Tablet unterstützt 45-Watt-Laden über USB-C, benötigt aber trotzdem gut über zwei Stunden für eine vollständige Ladung. Lloyd Coombes Benutzeroberfläche & Apps Android 14 bis Android 17 Lenovo ZUI-Benutzeroberfläche PC-Modus bei Anschluss an eine Tastatur und Maus Eine der schwierigeren Fragen beim Kauf eines Android-Tablets ist, wie lange Updates bereitgestellt werden. Glücklicherweise hat Lenovo vier Jahre Update-Support für dieses Tablet zugesagt – ein ziemlich guter Wert für ein Gerät, das nicht zur Flaggschiff-Klasse gehört. Sie sind also bis Android 17 auf der sicheren Seite. Die Benutzeroberfläche basiert auf Android 14 mit Lenovo ZUI. Diese funktioniert zuverlässig, hauptsächlich in Kombination mit dem mitgelieferten Stylus. Sie ermöglicht verzögerungsfreies Zeichnen und Notizen sowie viele andere Anwendungen und verwandelt das Tablet fast in einen Laptop, sobald Sie eine Tastatur anschließen. Lloyd Coombes Preis & Verfügbarkeit Im Vergleich zur unverbindlichen Preisempfehlung in Höhe von 379 Euro, ist das Lenovo Idea Tab Pro bei Online-Händler Amazon derzeit schon ab 364,49 Euro erhältlich. Dafür bekommen Sie die größere Version mit 256 Gigabyte internen Speicher. Damit liegt der Preis des Idea Tab Pro unter dem des Einsteiger-iPad (ab 399 Euro). Im Vergleich zur Apple-Konkurrenz bietet es aber einen viel größeren Bildschirm, eine enorme Akkulaufzeit, den Stylus sowie Gemini, das derzeit Apple Intelligence weit voraus ist. Sind Sie auf der Suche nach weiteren Alternativen? Werfen Sie einen Blick auf unseren Test der besten Tablets mit Android, iPadOS und Windows. Fazit Das Lenovo Idea Tab Pro richtet sich weniger als “Pro”-Tablet, sondern vielmehr als hochwertiges Einsteigermodell an anspruchsvollere Nutzer. Es überzeugt mit einem ansprechenden Design und einer insgesamt soliden Leistung. Zwar hätten wir uns mehr Power und ein OLED-Display gewünscht, doch angesichts des Preises bekommen Sie hier dennoch viel fürs Geld. Technische Daten Prozessor: MediaTek Dimensity 8300 Sicherheit: Passcode, Fingerabdruck, Gesichtserkennung Interner Speicher: 128 GB / 256 GB Erweiterbarer Speicher: Bis zu 1 TB via Micro-SD-Karte Arbeitsspeicher (RAM): 8 GB Akku: 10.200 Milliamperestunden Display: 13 Zoll IPS, 144 Hertz Auflösung: 2.944 × 1.840 Pixel Hauptkamera: 13 Megapixel Frontkamera: 8 Megapixel Abmessungen: 212 mm × 162 mm × 17 mm Gewicht: 620 g Anschlüsse: USB-C Bluetooth (PC-Welt) 

Lenovo Idea Tab Pro im Test: Großes Display und günstiger Preis – aber nicht ohne Kompromisse​ Lloyd Coombes

Auf einen Blick

Pro

Erschwinglich

Großes Display

Inklusive Stylus

Kontra

Nicht das leistungsstärkste

Bildschirm könnte heller sein

Fazit

Das Lenovo Idea Tab Pro ist groß und hochwertig verarbeitet, lässt aber in puncto Leistung zu viel vermissen, um eine uneingeschränkte Empfehlung zu sein. Dennoch machen der mitgelieferte Stylus, das große Display und die guten Lautsprecher das Tablet ideal für Notizen oder Medienkonsum – nur einen Laptop-Ersatz sollten Sie nicht erwarten.

Vor einigen Jahren schien es noch so, als würden Tablets immer größer werden. Zwar gibt es noch Ausnahmen, doch viele der besten Modelle setzen heute auf kompaktere Formate zwischen 10 und 11 Zoll.

Das Lenovo Idea Tab Pro schlägt einen anderen Weg ein: Es will ein großformatiges Tablet bieten – ohne den Premium-Preis eines Apple-Flaggschiffs. Und das gelingt größtenteils. Mit 13-Zoll-Display, vier Lautsprechern für Musik und Filme sowie einem beiliegenden Stylus richtet es sich vor allem an kreative Nutzer.

Allerdings gibt es auch klare Einschränkungen: Der MediaTek Dimensity 8300 bietet zwar mehr Leistung als sein Vorgänger, ist aber für produktives Arbeiten oder echtes Multitasking mit mehreren Apps nur bedingt geeignet. Und trotz der Größe bleibt das Display ein IPS-Panel. Helligkeit und Kontraste liegen also unter dem, was Sie vielleicht erwarten würden.

Und dennoch: Mit einem Preis von unter 400 Euro (inklusive Lenovo Tab Pen Plus) und Zugang zu KI-Funktionen wie Google Gemini ist das Idea Tab Pro für viele Nutzer eine interessante Alternative zum Einsteiger‑iPad. Nur der Name “Pro” verspricht am Ende etwas mehr, als das Tablet wirklich leisten kann.

Design & Verarbeitung

Groß, aber relativ leicht

Inklusive Stylus

Kein Kopfhöreranschluss

Tablets tun sich heute schwer, wirklich aufzufallen. Das Lenovo Idea Tab Pro bildet da keine Ausnahme. Abgesehen vom an der Seite befestigten Stylus bleibt das Gerät optisch eher zurückhaltend. Das muss aber kein Nachteil sein: Ein schmaler Rahmen umgibt das Display, in dem auch die Frontkamera Platz findet. Der Rest der Vorderseite gehört dem großzügigen Bildschirm.

Am unteren Rand sitzt ein USB-C-Anschluss zum Laden. Für den Sound sorgen vier Lautsprecher – zwei oben, zwei unten – und liefern echten Stereo-Klang. Mehr dazu weiter unten.

Lloyd Coombes

Oben am Gehäuse sitzt die Stand-by-Taste, rechts finden Sie die Lautstärke-Wippe. Der Stylus wird links magnetisch befestigt, wo er sich auch auflädt. Auf einen Wasserschutz müssen Sie leider verzichten, das Gerät sollte also nicht in die Nähe von Flüssigkeiten kommen. Abgesehen davon wirkt das Tablet solide verarbeitet und liegt trotz der Größe angenehm leicht in der Hand.

Einen Kopfhöreranschluss sucht man vergeblich. In dieser Preisklasse ist das nicht ungewöhnlich, könnte aber Nutzer stören, die noch kabelgebundene Kopfhörer verwenden.

Bildschirm & Lautsprecher

IPS-Panel

2.944 × 1.840 Pixel Auflösung

Vierfach-Lautsprecher

Wie bereits erwähnt, ist das 13-Zoll-Display riesig. Die relativ schmalen Ränder rundherum sorgen für eine gute Bildwirkung, sodass Sie sich auf langen Flügen gut in einen Film vertiefen können.

Erwarten Sie allerdings keine tiefen Schwarztöne oder besonders kräftigen Kontraste. Das IPS-Panel bietet nur eine begrenzte Helligkeit, was Bilder insgesamt etwas blass wirken lässt. Bei direkter Sonneneinstrahlung stößt das Display schnell an seine Grenzen und bleibt hinter OLED-Alternativen deutlich zurück – für den Einsatz im Freien ist es daher weniger geeignet und empfiehlt sich eher für den Gebrauch in Innenräumen.

Lloyd Coombes

Schade ist, dass das Display trotz der Auflösung von 2.944 × 1.840 Pixeln, die für scharfe und detailreiche Bilder sorgt und auch Texte sehr gut lesbar macht, seine Stärken nur eingeschränkt ausspielen kann. Dafür bietet das Tablet eine hohe Bildwiederholrate von 144 Hertz, die das Scrollen und Navigieren sehr flüssig und reaktionsschnell wirken lässt – allerdings nur, solange Sie keine anspruchsvollen Aufgaben erledigen, die der integrierte Chipsatz nicht gut bewältigen kann.

Das IPS-Panel erreicht keine hohe Helligkeit, wodurch Bilder insgesamt etwas blass wirken.

Apropos Filme: Die vier Lautsprecher leisten hervorragende Arbeit, egal ob Sie spannende Action oder dialoglastige Szenen schauen. Auch zum Musikhören eignen sie sich bestens – und sie werden richtig laut!

Rechenleistung

MediaTek Dimensity 8300 Chipsatz

8 GB RAM

128 / 256 GB Speicher

An dieser Stelle zeigt sich, wo bei der Ausstattung gespart wurde – obwohl das Tablet bei KI-Aufgaben (auf die wir gleich noch eingehen) einen kleinen Vorteil bietet.

Kurz gesagt: Der MediaTek Dimensity 8300 Prozessor ist, na ja, okay. Er ist doppelt so schnell wie das Amazon Fire HD 8 Kids Pro, das ich kürzlich getestet habe, kommt aber nicht an Flaggschiffe heran und bleibt deutlich hinter dem Lenovo Yoga Tab Plus zurück.

Lloyd Coombes

Da fällt es schwer, das Tablet wirklich als “Pro” zu bezeichnen, wenn andere “Pro”-Modelle sogar einen Laptop übertreffen können. Allerdings liegt der Preis unter 400  Euro, was manche Schwächen leichter verzeihlich macht.

Acht Gigabyte Arbeitsspeicher sorgen dafür, dass mehrere Apps gleichzeitig laufen können – ideal bei so einem großen Display. Das Tablet gibt es mit 128 oder 256 Gigabyte Speicher, der sich jeweils per Micro-SD-Karte erweitern lässt. Der interne Speicher ist zudem schnell, was zügige Datenübertragungen ermöglicht.

Der MediaTek Dimensity 8300 Prozessor ist, na ja, okay.

Wie gewohnt testen wir auch einige anspruchsvolle Spiele – darunter “League of Legends: Wild Rift” und “Genshin Impact”. “Wild Rift” profitiert von der weniger fordernden Vogelperspektive und läuft auf dem Idea Tab Pro problemlos. Lediglich das vergleichsweise dunkle Display trübt das Spielerlebnis ein wenig. “Genshin Impact” zeigt in actionreichen Szenen oder bei vielen Effekten gelegentlich Ruckler, läuft insgesamt aber recht flüssig auf mittleren Grafikeinstellungen.

Und wie steht es um Künstliche Intelligenz? Lenovo wirbt berechtigterweise mit der Unterstützung für Gemini – und liefert ab. Dank einer dedizierten Neural Processing Unit (NPU) neben der Haupt-CPU werden KI-Anfragen über Gemini oder andere Anwendungen zuverlässig verarbeitet. Zwar wird die KI-Leistung mit zukünftiger Software nicht ewig mithalten können, doch für alltägliche Anwendungen wie Surfen, Streaming und erste KI-Erfahrungen ist das Idea Tab Pro durchaus gut gerüstet.

Lenovo Idea Tab Pro Benchmarks

Kameras

8-MP-Frontkamera

13-MP-Rückkamera

4K/30fps Video

Es fällt schwer, die Front- oder Rückkamera des Idea Tab Pro wirklich zu empfehlen. Sie sind nicht schlecht, aber die Hauptkamera Ihres Smartphones wird wahrscheinlich deutlich bessere Ergebnisse liefern.

Die Frontkamera neigt zu Überbelichtung, während die Hauptkamera auf gute Lichtverhältnisse angewiesen ist, die nicht immer garantiert sind. Bilder wirken oft überbelichtet, was zwar Helligkeit bringt, aber viele Details verschwinden lässt. Für Schnappschüsse reicht das, für feinere Aufnahmen ist Ihr Handy die bessere Wahl.

Akkulaufzeit & Aufladen

Großer Akku mit 10.200 mAh

Langsam zu laden

45 Watt kabelgebundenes Laden

Der Vorteil eines großen Tablets ist meist auch ein größerer Akku – so auch beim Lenovo Idea Tab Pro. Es verfügt über eine Akkukapazität von 10.200 Milliamperestunden, was für lange Laufzeiten sorgt.

In unseren Tests kam ich bei einer Mischung aus Surfen, Spielen und Lesen digitaler Magazine auf etwa 11 Stunden Laufzeit mit einer Akkuladung. Natürlich hält der Akku bei ausgeschaltetem WLAN noch länger, was ein sehr respektabler Wert ist. Im PCMark-Work-3.0-Akkutest erreichte das Tablet 10 Stunden und 4 Minuten – eine solide Leistung, aber kein Spitzenwert.

Einziger Nachteil: Das Laden dauert recht lange. Das Tablet unterstützt 45-Watt-Laden über USB-C, benötigt aber trotzdem gut über zwei Stunden für eine vollständige Ladung.

Lloyd Coombes

Benutzeroberfläche & Apps

Android 14 bis Android 17

Lenovo ZUI-Benutzeroberfläche

PC-Modus bei Anschluss an eine Tastatur und Maus

Eine der schwierigeren Fragen beim Kauf eines Android-Tablets ist, wie lange Updates bereitgestellt werden. Glücklicherweise hat Lenovo vier Jahre Update-Support für dieses Tablet zugesagt – ein ziemlich guter Wert für ein Gerät, das nicht zur Flaggschiff-Klasse gehört. Sie sind also bis Android 17 auf der sicheren Seite.

Die Benutzeroberfläche basiert auf Android 14 mit Lenovo ZUI. Diese funktioniert zuverlässig, hauptsächlich in Kombination mit dem mitgelieferten Stylus. Sie ermöglicht verzögerungsfreies Zeichnen und Notizen sowie viele andere Anwendungen und verwandelt das Tablet fast in einen Laptop, sobald Sie eine Tastatur anschließen.

Lloyd Coombes

Preis & Verfügbarkeit

Im Vergleich zur unverbindlichen Preisempfehlung in Höhe von 379 Euro, ist das Lenovo Idea Tab Pro bei Online-Händler Amazon derzeit schon ab 364,49 Euro erhältlich. Dafür bekommen Sie die größere Version mit 256 Gigabyte internen Speicher.

Damit liegt der Preis des Idea Tab Pro unter dem des Einsteiger-iPad (ab 399 Euro). Im Vergleich zur Apple-Konkurrenz bietet es aber einen viel größeren Bildschirm, eine enorme Akkulaufzeit, den Stylus sowie Gemini, das derzeit Apple Intelligence weit voraus ist. Sind Sie auf der Suche nach weiteren Alternativen? Werfen Sie einen Blick auf unseren Test der besten Tablets mit Android, iPadOS und Windows.

Fazit

Das Lenovo Idea Tab Pro richtet sich weniger als “Pro”-Tablet, sondern vielmehr als hochwertiges Einsteigermodell an anspruchsvollere Nutzer. Es überzeugt mit einem ansprechenden Design und einer insgesamt soliden Leistung. Zwar hätten wir uns mehr Power und ein OLED-Display gewünscht, doch angesichts des Preises bekommen Sie hier dennoch viel fürs Geld.

Technische Daten

Prozessor: MediaTek Dimensity 8300

Sicherheit: Passcode, Fingerabdruck, Gesichtserkennung

Interner Speicher: 128 GB / 256 GB

Erweiterbarer Speicher: Bis zu 1 TB via Micro-SD-Karte

Arbeitsspeicher (RAM): 8 GB

Akku: 10.200 Milliamperestunden

Display: 13 Zoll IPS, 144 Hertz

Auflösung: 2.944 × 1.840 Pixel

Hauptkamera: 13 Megapixel

Frontkamera: 8 Megapixel

Abmessungen: 212 mm × 162 mm × 17 mm

Gewicht: 620 g

Anschlüsse: USB-C

Bluetooth

(PC-Welt)

Lenovo Idea Tab Pro im Test: Großes Display und günstiger Preis – aber nicht ohne Kompromisse​ Weiterlesen »

Physische Werbung mit einer AR-Brille ausblenden​

Allgemein

Was es bis jetzt nur digital gibt, könnte schon bald in Form einer Brille Werbung in echt ausblenden. TarikVision – shutterstock.com Werbung kann ärgerlich sein, sei es digital in der Form von Ads vor Videos, als Ansteckzettel am Auto oder als riesige Plakate im öffentlichen Raum. Szenen wie im Film Minority Report, wo der von Tom Cruise gespielte Protagonist regelmäßig von Werbefiguren direkt angesprochen wird, scheinen immerhin noch Zukunftsmusik zu sein. Sollte eine solche Form der invasiven Werbung doch eines Tages Realität werden, bleibt abzuwarten, wie man sich ihr entgegenstellen kann. Belgischer Ad-Blocker in der realen Welt Definitiv jetzt schon keine Werbung mehr sehen wollte Stijn Spanhove, ein belgischer Softwareentwickler, der einen Ad-Blocker für die reale Welt entwickelt hat. Bei dem Prototypen handelt es sich um eine Augmented-Reality-App, die wie ein Pop-up-Blocker wirkt und physische Werbung aus dem Sichtfeld herausfiltert. Zensurkästchen statt Werbung Allzu subtil geht die für Snaps AR Spectacles konzipierte Appdabei allerdings nicht vor. Die Anwendung nutzt Googles Gemini AI, um Werbung in der realen Welt zu erkennen und legt dann einfach ein großes rotes Zensurkästchen darüber. Die App wurde mithilfe der Depth Cache-Entwicklungs-Tools von Snap erstellt. Das bedeutet, dass sie derzeit exklusiv für AR-Brille von Snap funktioniert. In einem Demovideo ist zu sehen, wie die App alles von Plakaten und Werbetafeln bis hin zu Logos auf Lebensmittelverpackungen identifiziert und blockiert. Interessant dabei ist, dass die roten Kästchen mit den entsprechenden Markennamen gekennzeichnet werden. Dadurch weiß der Träger zumindest, wessen Werbebotschaft er verpasst. 🚫🕶️ I’ve been building an XR app for a real-world ad blocker using Snap @Spectacles. It uses Gemini to detect and block ads in the environment.It’s still early and experimental, but it’s exciting to imagine a future where you control the physical content you see. pic.twitter.com/ySkFfF6rxS— Stijn Spanhove (@stspanho) June 19, 2025 Proof-of-Concept mit Potenzial Dass das Ganze noch nicht wirklich ausgereift ist, gibt der Erfinder selbst zu. Er betont, dass sein Gerät mehr als Proof of Concept, denn als ausgefeiltes Produkt zu verstehen sei. Zugleich sieht er für seine Anti-Werbung-Brille großes Potential, da Nutzende zum Beispiel die roten Quadrate bereits jetzt durch alles Mögliche ersetzen ließen, angefangen von persönlichen Fotos bis hin zu To-Do-Listen. 

Physische Werbung mit einer AR-Brille ausblenden​ Was es bis jetzt nur digital gibt, könnte schon bald in Form einer Brille Werbung in echt ausblenden.
TarikVision – shutterstock.com

Werbung kann ärgerlich sein, sei es digital in der Form von Ads vor Videos, als Ansteckzettel am Auto oder als riesige Plakate im öffentlichen Raum.

Szenen wie im Film Minority Report, wo der von Tom Cruise gespielte Protagonist regelmäßig von Werbefiguren direkt angesprochen wird, scheinen immerhin noch Zukunftsmusik zu sein. Sollte eine solche Form der invasiven Werbung doch eines Tages Realität werden, bleibt abzuwarten, wie man sich ihr entgegenstellen kann.

Belgischer Ad-Blocker in der realen Welt

Definitiv jetzt schon keine Werbung mehr sehen wollte Stijn Spanhove, ein belgischer Softwareentwickler, der einen Ad-Blocker für die reale Welt entwickelt hat. Bei dem Prototypen handelt es sich um eine Augmented-Reality-App, die wie ein Pop-up-Blocker wirkt und physische Werbung aus dem Sichtfeld herausfiltert.

Zensurkästchen statt Werbung

Allzu subtil geht die für Snaps AR Spectacles konzipierte Appdabei allerdings nicht vor. Die Anwendung nutzt Googles Gemini AI, um Werbung in der realen Welt zu erkennen und legt dann einfach ein großes rotes Zensurkästchen darüber.

Die App wurde mithilfe der Depth Cache-Entwicklungs-Tools von Snap erstellt. Das bedeutet, dass sie derzeit exklusiv für AR-Brille von Snap funktioniert.

In einem Demovideo ist zu sehen, wie die App alles von Plakaten und Werbetafeln bis hin zu Logos auf Lebensmittelverpackungen identifiziert und blockiert. Interessant dabei ist, dass die roten Kästchen mit den entsprechenden Markennamen gekennzeichnet werden. Dadurch weiß der Träger zumindest, wessen Werbebotschaft er verpasst.

🚫🕶️ I’ve been building an XR app for a real-world ad blocker using Snap @Spectacles. It uses Gemini to detect and block ads in the environment.It’s still early and experimental, but it’s exciting to imagine a future where you control the physical content you see. pic.twitter.com/ySkFfF6rxS— Stijn Spanhove (@stspanho) June 19, 2025

Proof-of-Concept mit Potenzial

Dass das Ganze noch nicht wirklich ausgereift ist, gibt der Erfinder selbst zu. Er betont, dass sein Gerät mehr als Proof of Concept, denn als ausgefeiltes Produkt zu verstehen sei. Zugleich sieht er für seine Anti-Werbung-Brille großes Potential, da Nutzende zum Beispiel die roten Quadrate bereits jetzt durch alles Mögliche ersetzen ließen, angefangen von persönlichen Fotos bis hin zu To-Do-Listen.

Physische Werbung mit einer AR-Brille ausblenden​ Weiterlesen »

KI-Chatbot als Phishing-Assistent​

Allgemein

Kriminelle suchen gezielt nach nicht registrierten Websites, um diese zu übernehmen und zu infizieren FGC – shutterstock.com Chatbots leisten sich immer wieder Aussetzer, sei es, dass sie Nutzende beleidigen oder Ergebnisse halluzinieren. Mit falschen Adressen von Websites kommt nun ein weiterer Punkt auf die Liste der Fehltritte: Wie die Cybersecurity-Firma Netcraft herausfand, liefert die Künstliche Intelligenz (KI) oft falsche Informationen, wenn sie nach Web-Adressen gefragt wird. Entdeckt hatte das Team von Netcraft diesen Lapsus, als es GPT-4.1-Modelle um die Links zu Anmeldeseiten bekannter Marken aus verschiedenen Bereichen bat. Zwar gab die KI in zwei Dritteln der Fälle die korrekte Website an, 29 Prozent der Links führten jedoch ins Leere, fünf Prozent zu falschen, aber immerhin legitimen Seiten. Phisher nutzen Chatbot-Schwächen gezielt aus Laut Netcraft-Experte Rob Duncan könnten Phisher solche Fehler ausnutzen, indem sie ChatGPT &Co. gezielt nach einer bekannten URL fragen. Ist das erste Ergebnis dann eine nicht registrierte Website bestehe die Chance, dass die Kriminellen diese kaufen und eine Phishing-Website einrichten. Das dieses Szenario bereits jetzt möglich ist, zeigt die von ChatGPT empfohlene Seite des großen Finanzdienstleister Wells Fargo: Der Link führe eine lange bekannte Phishing-Seite, so die Experten. Phishing passt sich an KI-Nutzung an Zusätzlich passen Phishing-Angreifer ihre Strategie zunehmend an die Nutzung von KI-Systemen an, wie The Register berichtet, anstatt sich auf klassische Suchmaschinenoptimierung zu konzentrieren. So gestalteten sie ihre gefälschten Websites nun gezielt so, dass sie in den Ergebnissen von KI-Chatbots wie ChatGPT erscheinen. Technisch sei dies möglich, da die KI nach Wörtern und Assoziationen sucht und nicht Dinge wie URLs oder den Ruf einer Website bewertet, so der Experte. Duncan erklärt auch, dass immer mehr Internetnutzende KI-Modelle statt herkömmlicher Suchmaschinen verwenden. Dabei seien sie sich aber oft der möglichen Fehler von KI gar nicht bewusst. Alles damit die KI einen wahrnimmt Die Forscher von Netcraft entdeckten auch eine ausgeklügelte Methode zur Manipulation von KI-gestützten Programmierassistenten. Die Kriminellen erstellten dazu eine gefälschte API namens SolanaApis, die die legitime Solana-Blockchain-Schnittstelle imitieren sollte. Anschließend erhöhten die Betrüger dann gezielt die Sichtbarkeit ihres schadhaften Codes in KI-generierten Antworten, indem sie zahlreiche gefälschte GitHub-Repositories, Q&A-Dokumente, Anleitungen sowie manipulierte Social-Media- und Entwicklerkonten erstellen. So sollte der Eindruck gegenüber Large Language Models (LLMs) entstehen, der Code sei legitim. Laut Rob Duncan von Netcraft ähnelt dieses Vorgehen einem Supply-Chain-Angriff: eine langfristige Täuschungsstrategie, die darauf abzielt, Vertrauen zu gewinnen und Nutzer zur Nutzung kompromittierter Inhalte zu verleiten. Vibe-Coding“ als Schwachstelle Der Unterschied zu „traditionellen“ Angriffen liege darin, dass hier gezielt Entwickler angesprochen werden. Das Ganze funktioniere wie „einige der Supply-Chain-Angriffe, die wir schon gesehen haben“, so Duncan. Es sei allerdings ein ziemlich langwieriges Spiel, eine Person davon zu überzeugen, eine Pull-Anfrage zu akzeptieren. Die präsentierten Fälle seien zudem „ein bisschen anders, weil man versucht, jemanden, der ein wenig Vibe-Coding betreibt, dazu zu bringen, die falsche API zu verwenden. Es ist ein ähnlich langes Spiel, aber man erhält ein ähnliches Ergebnis“, erklärte Duncan gegenüber The Register. Und es funktioniert: Die Experten von Netcraft fanden mindestens fünf Opfer, die diesen Schadcode in ihre eigenen öffentlichen Projekte kopiert haben – einige davon weisen Anzeichen dafür auf, dass sie mit Code-Assistenten, darunter Cursor, erstellt wurden. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KI-Chatbot als Phishing-Assistent​ Kriminelle suchen gezielt nach nicht registrierten Websites, um diese zu übernehmen und zu infizieren
FGC – shutterstock.com

Chatbots leisten sich immer wieder Aussetzer, sei es, dass sie Nutzende beleidigen oder Ergebnisse halluzinieren. Mit falschen Adressen von Websites kommt nun ein weiterer Punkt auf die Liste der Fehltritte: Wie die Cybersecurity-Firma Netcraft herausfand, liefert die Künstliche Intelligenz (KI) oft falsche Informationen, wenn sie nach Web-Adressen gefragt wird.

Entdeckt hatte das Team von Netcraft diesen Lapsus, als es GPT-4.1-Modelle um die Links zu Anmeldeseiten bekannter Marken aus verschiedenen Bereichen bat.

Zwar gab die KI in zwei Dritteln der Fälle die korrekte Website an, 29 Prozent der Links führten jedoch ins Leere, fünf Prozent zu falschen, aber immerhin legitimen Seiten.

Phisher nutzen Chatbot-Schwächen gezielt aus

Laut Netcraft-Experte Rob Duncan könnten Phisher solche Fehler ausnutzen, indem sie ChatGPT &Co. gezielt nach einer bekannten URL fragen. Ist das erste Ergebnis dann eine nicht registrierte Website bestehe die Chance, dass die Kriminellen diese kaufen und eine Phishing-Website einrichten.

Das dieses Szenario bereits jetzt möglich ist, zeigt die von ChatGPT empfohlene Seite des großen Finanzdienstleister Wells Fargo: Der Link führe eine lange bekannte Phishing-Seite, so die Experten.

Phishing passt sich an KI-Nutzung an

Zusätzlich passen Phishing-Angreifer ihre Strategie zunehmend an die Nutzung von KI-Systemen an, wie The Register berichtet, anstatt sich auf klassische Suchmaschinenoptimierung zu konzentrieren. So gestalteten sie ihre gefälschten Websites nun gezielt so, dass sie in den Ergebnissen von KI-Chatbots wie ChatGPT erscheinen.

Technisch sei dies möglich, da die KI nach Wörtern und Assoziationen sucht und nicht Dinge wie URLs oder den Ruf einer Website bewertet, so der Experte.

Duncan erklärt auch, dass immer mehr Internetnutzende KI-Modelle statt herkömmlicher Suchmaschinen verwenden. Dabei seien sie sich aber oft der möglichen Fehler von KI gar nicht bewusst.

Alles damit die KI einen wahrnimmt

Die Forscher von Netcraft entdeckten auch eine ausgeklügelte Methode zur Manipulation von KI-gestützten Programmierassistenten. Die Kriminellen erstellten dazu eine gefälschte API namens SolanaApis, die die legitime Solana-Blockchain-Schnittstelle imitieren sollte.

Anschließend erhöhten die Betrüger dann gezielt die Sichtbarkeit ihres schadhaften Codes in KI-generierten Antworten, indem sie

zahlreiche gefälschte GitHub-Repositories,

Q&A-Dokumente,

Anleitungen sowie

manipulierte Social-Media- und Entwicklerkonten

erstellen. So sollte der Eindruck gegenüber Large Language Models (LLMs) entstehen, der Code sei legitim.

Laut Rob Duncan von Netcraft ähnelt dieses Vorgehen einem Supply-Chain-Angriff: eine langfristige Täuschungsstrategie, die darauf abzielt, Vertrauen zu gewinnen und Nutzer zur Nutzung kompromittierter Inhalte zu verleiten.

Vibe-Coding“ als Schwachstelle

Der Unterschied zu „traditionellen“ Angriffen liege darin, dass hier gezielt Entwickler angesprochen werden. Das Ganze funktioniere wie „einige der Supply-Chain-Angriffe, die wir schon gesehen haben“, so Duncan. Es sei allerdings ein ziemlich langwieriges Spiel, eine Person davon zu überzeugen, eine Pull-Anfrage zu akzeptieren.

Die präsentierten Fälle seien zudem „ein bisschen anders, weil man versucht, jemanden, der ein wenig Vibe-Coding betreibt, dazu zu bringen, die falsche API zu verwenden. Es ist ein ähnlich langes Spiel, aber man erhält ein ähnliches Ergebnis“, erklärte Duncan gegenüber The Register.

Und es funktioniert: Die Experten von Netcraft fanden mindestens fünf Opfer, die diesen Schadcode in ihre eigenen öffentlichen Projekte kopiert haben – einige davon weisen Anzeichen dafür auf, dass sie mit Code-Assistenten, darunter Cursor, erstellt wurden.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KI-Chatbot als Phishing-Assistent​ Weiterlesen »

Die KI-Shopping-Assistenten kommen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?quality=50&strip=all 6016w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Online Produkte finden, in den Warenkorb legen und bezahlen – auch diese Aufgaben kann die KI übernehmen. William Potter – Shutterstock.com OpenAI hat eine neue Möglichkeit vorgestellt, wie Einzelhändler mit ein paar Klicks KI-Shopping-Assistenten in Shopify integrieren können. Wie aus einem Beitrag auf X hervorgeht, müssen Entwickler dazu lediglich den Storefront MCP Server (Managed Compute Platform) direkt mit der OpenAI Responses API verbinden. Building your storefront AI agent just got easier.Connect the Storefront MCP server directly to the @OpenAI Responses API to search products, add items to cart, and create checkout links.No auth required. pic.twitter.com/oZsKdhX8QY— Shopify Developers (@ShopifyDevs) July 2, 2025 Das Ergebnis sind Agenten, die basierend auf Hinweisen des Nutzers Produkte suchen, Artikel in den Warenkorb legen und Checkout-Links generieren – ohne sich authentifizieren zu müssen. Weitere Einkaufserlebnisse mit KI Die Maßnahme spiegelt OpenAIs Strategie wider, sich stärker im Bereich Einkaufsmöglichkeiten zu positionieren. So bietet der Rivale Perplexity bereits einen Einkaufsassistenten innerhalb seines KI-Chatbots an. Pro-Nutzer können dort sogar direkt im Chatbot mit nur einem Klick über „Buy with Pro“ einkaufen. Shopify ist dabei einer der Händler, dessen Produkte über diesen Weg auffindbar sind. Zudem hat Perplexity ein kostenloses Händlerprogramm eingeführt, das es Einzelhändlern ermöglicht, ihre Produktspezifikationen bereitzustellen, damit Kunden ihre Produkte leichter finden können. Auch Wettbewerber Google adressiert das Thema Einkaufsassistenten. Wie auf der Entwicklermesse I/O vorgestellt wurde, kombiniert künftig ein neues „Einkaufserlebnis“ im AI Mode die Fähigkeiten von Google Gemini mit Googles Shopping Graph – einer Sammlung von mehr als 50 Milliarden Produktangeboten mit Details wie Bewertungen, Preisen, Farboptionen und Verfügbarkeit. Basierend auf der Eingabe zeigt der KI-Assistent dann eine Auswahl an Bildern und Produktlisten und engt diese nach weiteren Kriterien ein. class=”wp-video”> https://storage.googleapis.com/gweb-uniblog-publish-prod/original_videos/Copy_of_AI_Mode_Travel_Bag_1.mp4 Damit nicht genug, hilft Agentic Checkout anschließend dabei, das Produkt zu einem Budget-freundlichen Preis zu erwerben, indem der Nutzer die richtige Größe, Farbe (oder andere Optionen seiner Wahl) sowie den gewünschten Betrag festlegt. Wurde das passende Angebot gefunden, drückt er auf „Jetzt kaufen“ und die KI legt den Artikel in den Warenkorb auf der Website des Händlers und schließt den Kaufvorgang per Google Pay ab. Einziger Wermutstropfen: Die Shopping-Funktionen sowie Agentic Checkout werden zunächst in den USA zusammen mit dem AI Mode verfügbar sein. Wann sie nach Deutschland kommen, ist nicht bekannt. 

Die KI-Shopping-Assistenten kommen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?quality=50&strip=all 6016w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_1711140016_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Online Produkte finden, in den Warenkorb legen und bezahlen – auch diese Aufgaben kann die KI übernehmen. William Potter – Shutterstock.com

OpenAI hat eine neue Möglichkeit vorgestellt, wie Einzelhändler mit ein paar Klicks KI-Shopping-Assistenten in Shopify integrieren können. Wie aus einem Beitrag auf X hervorgeht, müssen Entwickler dazu lediglich den Storefront MCP Server (Managed Compute Platform) direkt mit der OpenAI Responses API verbinden.

Building your storefront AI agent just got easier.Connect the Storefront MCP server directly to the @OpenAI Responses API to search products, add items to cart, and create checkout links.No auth required. pic.twitter.com/oZsKdhX8QY— Shopify Developers (@ShopifyDevs) July 2, 2025

Das Ergebnis sind Agenten, die basierend auf Hinweisen des Nutzers Produkte suchen, Artikel in den Warenkorb legen und Checkout-Links generieren – ohne sich authentifizieren zu müssen.

Weitere Einkaufserlebnisse mit KI

Die Maßnahme spiegelt OpenAIs Strategie wider, sich stärker im Bereich Einkaufsmöglichkeiten zu positionieren. So bietet der Rivale Perplexity bereits einen Einkaufsassistenten innerhalb seines KI-Chatbots an. Pro-Nutzer können dort sogar direkt im Chatbot mit nur einem Klick über „Buy with Pro“ einkaufen. Shopify ist dabei einer der Händler, dessen Produkte über diesen Weg auffindbar sind. Zudem hat Perplexity ein kostenloses Händlerprogramm eingeführt, das es Einzelhändlern ermöglicht, ihre Produktspezifikationen bereitzustellen, damit Kunden ihre Produkte leichter finden können.

Auch Wettbewerber Google adressiert das Thema Einkaufsassistenten. Wie auf der Entwicklermesse I/O vorgestellt wurde, kombiniert künftig ein neues „Einkaufserlebnis“ im AI Mode die Fähigkeiten von Google Gemini mit Googles Shopping Graph – einer Sammlung von mehr als 50 Milliarden Produktangeboten mit Details wie Bewertungen, Preisen, Farboptionen und Verfügbarkeit. Basierend auf der Eingabe zeigt der KI-Assistent dann eine Auswahl an Bildern und Produktlisten und engt diese nach weiteren Kriterien ein.

class=”wp-video”>
https://storage.googleapis.com/gweb-uniblog-publish-prod/original_videos/Copy_of_AI_Mode_Travel_Bag_1.mp4

Damit nicht genug, hilft Agentic Checkout anschließend dabei, das Produkt zu einem Budget-freundlichen Preis zu erwerben, indem der Nutzer die richtige Größe, Farbe (oder andere Optionen seiner Wahl) sowie den gewünschten Betrag festlegt. Wurde das passende Angebot gefunden, drückt er auf „Jetzt kaufen“ und die KI legt den Artikel in den Warenkorb auf der Website des Händlers und schließt den Kaufvorgang per Google Pay ab.

Einziger Wermutstropfen: Die Shopping-Funktionen sowie Agentic Checkout werden zunächst in den USA zusammen mit dem AI Mode verfügbar sein. Wann sie nach Deutschland kommen, ist nicht bekannt.

Die KI-Shopping-Assistenten kommen​ Weiterlesen »

Metas große KI-Abwerbetour​

Allgemein

Meta lockt nicht nur mit modernen Büros, sondern auch erklecklichen Gehältern – und Boni.RAMAN SHAUNIA | shutterstock.com Um im KI-Wettlauf nicht ins Hintertreffen zu geraten, hat Meta-CEO Mark Zuckerberg mit den “Superintelligence Labs” (MSL) kürzlich eine eigene Abteilung ins Leben gerufen. Sie soll die KI-Produkte und angewandte Forschung des Unternehmens bündeln. Designierter Leiter ist Medienberichten zufolge der frühere CEO von Scale AI, Alexandr Wang – inzwischen Chief AI Officer bei Meta. Er soll zudem vom ehemaligen GitHub-Chef Nat Friedman unterstützt werden. Zuträglich dürfte der neuen Abteilung auch ein Personalbudget in Höhe von bis zu 300 Millionen Dollar sein. Und das nutzt Meta, um namhafte KI-Spezialisten von seiner KI-Konkurrenz abzuwerben. Diese KI-Experten wechseln zu Meta Bisher hat die Facebook-Mutter auf diese Weise elf KI-Fachkräfte für seine Superintelligence Labs verpflichtet, wie Bloomberg berichtete. Diese waren zuvor bei Anthropic, Google, Sesame und OpenAI beschäftigt. Die Meta-Neuzugänge im Überblick: Trapit Bansal (zuvor bei OpenAI beteiligt an der Entwicklung der Modelle der o-Serie), Shuchao Bi (zuvor bei OpenAI beteiligt an der Entwicklung von GPT-4o voice mode und o4-mini), Huiwen Chang (zuvor bei OpenAI mitverantwortlich für die Bilderzeugung von GPT-4o), Ji Lin (zuvor bei OpenAI beteiligt an der Entwicklung diverser Modelle), Joel Pobar (zuvor bei Anthropic, kehrt zu Meta zurück), Jack Rae (zuvor bei Google als technischer Leiter beteiligt an der Entwicklung von Gemini), Hongyu Ren (zuvor bei OpenAI beteiligt an der Entwicklundg diverser Modelle), Johan Schalkwyk (zuvor bei Sesame als ML-Lead, davor langjähriger Google Fellow), Pei Sun (zuvor bei Google Deepmind beteiligt an der Entwicklung von Gemini), Jiahui Yu (zuvor bei OpenAI als Mitschöpfer von 03, 04-mini, GPT-4.1 und GPT-4o), Shengjia Zhao (zuvor bei OpenAI beteiligt an der Entwicklung diverser Modelle). Altman reagiert auf Metas monetäre Verlockungen Wie unter anderem Wired berichtet, lockt Meta dabei in erster Linie mit extrem großzügigen Gehaltspaketen – von bis zu 300 Millionen Dollar für einen Vierjahresvertrag ist die Rede. Mindestens zehn OpenAI-Mitarbeiter sollen solche Angebote erhalten haben. Meta-CTO Andrew Bosworth stellte jedoch in Dokumenten (die die Redaktion von The Verge einsehen konnte) klar, dass nur wenige Spitzenkräfte solche Angebote erhalten hätten. Zudem handle es sich nicht um Antrittsprämien, sondern um Gesamtpakete inklusive Aktienanteilen. Die Führungsriege von OpenAI hat auf Metas Abwerbewelle mit Kritik reagiert. So verglich Forschungsleiter Mark Chen diese mit einem “Einbruch” und kündigte als Reaktion an, die Vergütungsstruktur von OpenAI überarbeiten und neue Supercomputer anschaffen zu wollen. Auch CEO Sam Altman kritisierte öffentlich das “kulturell problematische” Vorgehen der Zuckerberg-Company und verteidigte OpenAI als erste Adresse für Artificial General Intelligence. Dabei betonte er den missionsgetriebenen Ansatz seines Unternehmens. Mit der Aussage “Missionare werden über Söldner triumphieren” fasste Altman laut Wired seine Kritik am Zuckerberg-Konzern in einem Memo an die OpenAI-Belegschaft zusammen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Metas große KI-Abwerbetour​ Meta lockt nicht nur mit modernen Büros, sondern auch erklecklichen Gehältern – und Boni.RAMAN SHAUNIA | shutterstock.com

Um im KI-Wettlauf nicht ins Hintertreffen zu geraten, hat Meta-CEO Mark Zuckerberg mit den “Superintelligence Labs” (MSL) kürzlich eine eigene Abteilung ins Leben gerufen. Sie soll die KI-Produkte und angewandte Forschung des Unternehmens bündeln. Designierter Leiter ist Medienberichten zufolge der frühere CEO von Scale AI, Alexandr Wang – inzwischen Chief AI Officer bei Meta. Er soll zudem vom ehemaligen GitHub-Chef Nat Friedman unterstützt werden.

Zuträglich dürfte der neuen Abteilung auch ein Personalbudget in Höhe von bis zu 300 Millionen Dollar sein. Und das nutzt Meta, um namhafte KI-Spezialisten von seiner KI-Konkurrenz abzuwerben.

Diese KI-Experten wechseln zu Meta

Bisher hat die Facebook-Mutter auf diese Weise elf KI-Fachkräfte für seine Superintelligence Labs verpflichtet, wie Bloomberg berichtete. Diese waren zuvor bei Anthropic, Google, Sesame und OpenAI beschäftigt.

Die Meta-Neuzugänge im Überblick:

Trapit Bansal (zuvor bei OpenAI beteiligt an der Entwicklung der Modelle der o-Serie),

Shuchao Bi (zuvor bei OpenAI beteiligt an der Entwicklung von GPT-4o voice mode und o4-mini),

Huiwen Chang (zuvor bei OpenAI mitverantwortlich für die Bilderzeugung von GPT-4o),

Ji Lin (zuvor bei OpenAI beteiligt an der Entwicklung diverser Modelle),

Joel Pobar (zuvor bei Anthropic, kehrt zu Meta zurück),

Jack Rae (zuvor bei Google als technischer Leiter beteiligt an der Entwicklung von Gemini),

Hongyu Ren (zuvor bei OpenAI beteiligt an der Entwicklundg diverser Modelle),

Johan Schalkwyk (zuvor bei Sesame als ML-Lead, davor langjähriger Google Fellow),

Pei Sun (zuvor bei Google Deepmind beteiligt an der Entwicklung von Gemini),

Jiahui Yu (zuvor bei OpenAI als Mitschöpfer von 03, 04-mini, GPT-4.1 und GPT-4o),

Shengjia Zhao (zuvor bei OpenAI beteiligt an der Entwicklung diverser Modelle).

Altman reagiert auf Metas monetäre Verlockungen

Wie unter anderem Wired berichtet, lockt Meta dabei in erster Linie mit extrem großzügigen Gehaltspaketen – von bis zu 300 Millionen Dollar für einen Vierjahresvertrag ist die Rede. Mindestens zehn OpenAI-Mitarbeiter sollen solche Angebote erhalten haben. Meta-CTO Andrew Bosworth stellte jedoch in Dokumenten (die die Redaktion von The Verge einsehen konnte) klar, dass nur wenige Spitzenkräfte solche Angebote erhalten hätten. Zudem handle es sich nicht um Antrittsprämien, sondern um Gesamtpakete inklusive Aktienanteilen.

Die Führungsriege von OpenAI hat auf Metas Abwerbewelle mit Kritik reagiert. So verglich Forschungsleiter Mark Chen diese mit einem “Einbruch” und kündigte als Reaktion an, die Vergütungsstruktur von OpenAI überarbeiten und neue Supercomputer anschaffen zu wollen. Auch CEO Sam Altman kritisierte öffentlich das “kulturell problematische” Vorgehen der Zuckerberg-Company und verteidigte OpenAI als erste Adresse für Artificial General Intelligence. Dabei betonte er den missionsgetriebenen Ansatz seines Unternehmens.

Mit der Aussage “Missionare werden über Söldner triumphieren” fasste Altman laut Wired seine Kritik am Zuckerberg-Konzern in einem Memo an die OpenAI-Belegschaft zusammen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Metas große KI-Abwerbetour​ Weiterlesen »

KI-Kosten sparen mit Neoclouds?​

Allgemein

Neoclouds können eine Alternative zu den KI-Infrastrukturangeboten der Hyperscaler darstellen.Zamurovic Brothers | shutterstock.com Neoclouds sind weder Produkt noch Technologie – und haben auch nichts mit der Matrix-Filmreihe zu tun. In diesem Artikel lesen Sie: was sich hinter dem Begriff verbirgt, welche Neocloud-Anbieter Sie auf dem Zettel haben sollten, wie Experten die Kosten im Vergleich zu Hyperscaler- und On-Premises-Angeboten einschätzen, und welche Aspekte Sie vor einem Investment bedenken sollten. Neocloud – was ist das? Neoclouds sind Anbieter, die auf GPU-as-a-Service (GPUaaS) spezialisiert sind. Die Unternehmen in diesem Bereich wollen von der steigenden Nachfrage nach künstlicher Intelligenz, Machine Learning und Datenanalysen (sowie weiteren HPC-Workloads) profitieren. Dabei heben sie sich von AWS, Google Cloud und Microsoft (die ebenfalls GPU-Dienstleistungen anbieten) in erster Linie dadurch ab, dass es sich um hochspezialisierte, reine GPU-Serviceanbieter handelt. Neocloud-Anbieter können im Vergleich zu den Hyperscalern in vielen Fällen wettbewerbsfähigere Preise bieten – in Kombination mit schnell verfügbaren State-of-the-Art-GPUs sowie speziell auf KI- und ML-Workloads optimierter Infrastruktur. Das ist insbesondere Multicloud-Strategien zuträglich – in solchen Umgebungen können die Neoclouds als spezialisierte Hubs für das KI-Training zum Einsatz kommen. Die wichtigsten Neocloud-Anbieter Vier Anbieter haben sich derzeit als Marktführer im Neocloud-Markt etabliert: CoreWeave gilt als unangefochtener Neocloud-Marktführer und hat bereits einen erfolgreichen Börsengang hinter sich gebracht. Das Unternehmen war ursprünglich im Bereich Cryptomining tätig, orientierte sich aber ab 2019 auf Cloud-, respektive KI-Infrastruktur um. In der Folge konnte das US-Startup diverse Investoren von sich überzeugen, darunter auch Nvidia. Neben GPUaaS bietet das Unternehmen auch Objektspeicher für KI-Workloads und CPU-Cluster an. Medienberichten zufolge ist CoreWeave zudem der erste Cloud-Provider, der Nvidias Blackwell-Ultra-GPUs einsetzt. Lambda Labs bezeichnet sich selbst als die “Superintelligence Cloud” und bietet nicht nur GPU-Dienstleistungen aus der Cloud, sondern auch in Form von lokalen, privaten Clustern an – inklusive Infiniband-Netzwerk und Storage. Besonderen Fokus legt dieser Neocloud-Anbieter (zu dessen Investoren ebenfalls Nvidia zählt) dabei auf die Benutzerfreundlichkeit. Crusoe legt seinen Fokus darauf, nachhaltige Rechenzentren zu bauen, die von erneuerbaren Energien angetrieben werden. Davon abgesehen gehören auch eine moderne GPU-Infrastruktur, intelligente Orchestrierung und API-gesteuerte Managed Services zum Portfolio.  Nebius ist ein europäischer Neocloud-Anbieter, der unter anderem ein großes Rechenzentrum in Finnland sein Eigen nennt. Das Unternehmen bietet eine Full-Stack-KI-Infrastruktur als Dienstleistung an. Neoclouds im Kostenvergleich Falls Sie sich vor allem fragen, wie viel man mit einem Neocloud-Anbieter im Vergleich zu einem Hyperscaler sparen kann: Das Uptime Institute hat in einer aktuellen Untersuchung die durchschnittlichen, stündlichen Kosten für eine Nvidia-DGX-H100-Instanz verglichen. Diese kostet demnach: bei einem Hyperscaler im Schnitt 98 Dollar, während eine gleichwertige von einem Neocloud-Anbieter durchschnittlich 34 Dollar kostet. Daraus ergibt sich eine Ersparnis von satten 66 Prozent. Owen Rogers, Senior Research Director beim Uptime Institute, erklärt, wie es zu dieser Diskrepanz kommt: “Neocloud-Anbieter können niedrigere Preise anbieten, weil sie im Gegensatz zu den Hyperscalern neben modernen keine Legacy-Infrastrukturen betreiben müssen. Hyperscaler bieten in der Regel Dutzende von Produkten an, die sich jeweils individuell erweitern lassen. Im Gegensatz dazu bieten Neoclouds nur eine Handvoll Produktlinien mit wenigen Varianten.” Durch diese Fokussierung sei es den Neocloud-Anbietern unter anderem möglich, mit weniger qualifiziertem Personal arbeiten, eine homogene IT-Landschaft in großem Maßstab optimieren und den Verwaltungsaufwand reduzieren, meint Rogers. Zwar könnten die Hyperscaler dem Research-Experten zufolge ihre eigenen GPUaaS-Angebote ebenfalls rabattieren, um den Neocloud-Anbietern den Wind aus den Segeln zu nehmen – das hätten sie allerdings gar nicht nötig: “Unternehmen, die eine Neocloud in Betracht ziehen, müssen Faktoren abwägen, die man bei den etablierten Anbietern in der Regel voraussetzen kann: Hyperscale-Rechenzentren sind sicher, in Sachen Compliance auf der Höhe der Zeit und mit diversen Management- und Monitoring-Tools ausgestattet.” Dazu komme laut Rogers, dass mit AWS, Google Cloud oder Azure in vielen Fällen keine neuen Verträge ausgehandelt werden müssten: “Hyperscaler haben einen festen Kundenstamm. Und für viele Kunden ist es schlicht einfacher, mehr für ihre bestehenden Hyperscaler-GPU-Instanzen zu bezahlen, als eine günstigere Alternative zu finden.” Darüber hinaus hat das Uptime Institute auch die Preisunterschiede zwischen dedizierter GPU-Infrastruktur On-Premises, von Hyperscalern und Neoclouds berechnet. Das Ergebnis: Ein Unternehmen, das über einen längeren Zeitraum bei einem dedizierten Infrastruktur-Cluster eine Auslastung von 22 Prozent erreicht und aufrechterhält, kann im Vergleich zum Hyperscaler-Angebot Kosten einsparen. Damit sich ein On-Premises-Modell aber auch im Vergleich mit einem Neocloud-Angebot rechnet, müsste die Auslastung laut Uptime bereits bei 66 Prozent liegen: “Diese 66-Prozent-Schwelle könnten nur die effizientesten KI-Implementierungen erreichen. In diesem Szenario würden viele Unternehmen Geld sparen, wenn sie auf eine Neocloud setzen, statt eigene Infrastruktur bereitzustellen”, ordnen die Infrastrukturexperten ein. Liegt die durchschnittliche Auslastung bei mindestens 22 Prozent, ist dedizierte Infrastruktur laut dem Uptime Institute bei einem etablierten Cloud-Anbieter günstiger als die Public Cloud. Im Fall einer Neocloud müsste der Wert auf 66 Prozent klettern.Uptime Institute Neoclouds bieten neben ihrer Kosteneffizienz eine Vielzahl weiterer Vorteile. So sind die Rechenzentren der Anbieter im Regelfall auf dem neuesten Stand der Technik und bieten unter anderem: Infiniband- oder RoCEv2-Netzwerke, Flüssigkeitskühlung, aktuelle Nvidia-GPUs, Skalierbarkeit sowie flexible On-Demand-Optionen. Insbesondere für Unternehmen, die gerade am Anfang ihrer KI-Reise stehen, bieten Neocloud-Anbieter eine Möglichkeit, mit der Technologie zu experimentieren – ohne große Investitionen in lokale Infrastruktur tätigen zu müssen. Vor dem Neocloud-Investment Wie so oft gilt aber auch bei Neoclouds: Wo Licht ist, ist auch Schatten. Zumindest potenziell. Deshalb sollten Sie folgende Aspekte berücksichtigen, bevor Sie auf einen Neocloud-Anbieter setzen. In der aktuellen AI-Goldgräberstimmung übersteigt die Nachfrage nach GPUs das Angebot. Sie sollten deshalb sicherstellen, dass der Neocloud-Anbieter Ihrer Wahl Zugang zu den neuesten GPU-Modellen garantieren kann. Die Neoclouds konkurrieren derzeit über den Preis, was die Preisspirale immer weiter nach unten treibt. Inzwischen sind die durchschnittlichen Preise von rund acht Dollar pro Stunde und GPU auf unter zwei Dollar gefallen. Nebius bietet etwa Nvidias L40S GPU für 1,55 Dollar pro Stunde an. Es ist davon auszugehen, dass die Neocloud-Anbieter künftig zusätzliche Services anbieten werden, um neue Einnahmequellen zu erschließen. Wie in der IT üblich, konkurrieren Unternehmen und kooperieren parallel miteinander. So erklärt sich auch, dass Nvidia, in mehrere Neoclouds investiert hat – oder dass Microsoft und Google als Hyperscaler Kunden von CoreWeave sind. Es ist wahrscheinlich, dass sich auch der Neocloud-Markt künftig konsolidieren wird. Das sollten Sie entsprechend einkalkulieren. Wenn Unternehmen ihre KI-Strategie ausarbeiten, ist reine GPU-Rechenleistung, wie sie Neoclouds bieten, eine Möglichkeit, um weiterzukommen. Allerdings müssen Sie als Anwender in diesem Fall weiterhin die hochkomplexen und technischen Aufgaben selbst übernehmen, die nötig sind, um KI-Anwendungen aufzubauen und zu betreiben. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KI-Kosten sparen mit Neoclouds?​ Neoclouds können eine Alternative zu den KI-Infrastrukturangeboten der Hyperscaler darstellen.Zamurovic Brothers | shutterstock.com

Neoclouds sind weder Produkt noch Technologie – und haben auch nichts mit der Matrix-Filmreihe zu tun.

In diesem Artikel lesen Sie:

was sich hinter dem Begriff verbirgt,

welche Neocloud-Anbieter Sie auf dem Zettel haben sollten,

wie Experten die Kosten im Vergleich zu Hyperscaler- und On-Premises-Angeboten einschätzen, und

welche Aspekte Sie vor einem Investment bedenken sollten.

Neocloud – was ist das?

Neoclouds sind Anbieter, die auf GPU-as-a-Service (GPUaaS) spezialisiert sind. Die Unternehmen in diesem Bereich wollen von der steigenden Nachfrage nach künstlicher Intelligenz, Machine Learning und Datenanalysen (sowie weiteren HPC-Workloads) profitieren. Dabei heben sie sich von AWS, Google Cloud und Microsoft (die ebenfalls GPU-Dienstleistungen anbieten) in erster Linie dadurch ab, dass es sich um hochspezialisierte, reine GPU-Serviceanbieter handelt.

Neocloud-Anbieter können im Vergleich zu den Hyperscalern in vielen Fällen wettbewerbsfähigere Preise bieten – in Kombination mit schnell verfügbaren State-of-the-Art-GPUs sowie speziell auf KI- und ML-Workloads optimierter Infrastruktur. Das ist insbesondere Multicloud-Strategien zuträglich – in solchen Umgebungen können die Neoclouds als spezialisierte Hubs für das KI-Training zum Einsatz kommen.

Die wichtigsten Neocloud-Anbieter

Vier Anbieter haben sich derzeit als Marktführer im Neocloud-Markt etabliert:

CoreWeave gilt als unangefochtener Neocloud-Marktführer und hat bereits einen erfolgreichen Börsengang hinter sich gebracht. Das Unternehmen war ursprünglich im Bereich Cryptomining tätig, orientierte sich aber ab 2019 auf Cloud-, respektive KI-Infrastruktur um. In der Folge konnte das US-Startup diverse Investoren von sich überzeugen, darunter auch Nvidia. Neben GPUaaS bietet das Unternehmen auch Objektspeicher für KI-Workloads und CPU-Cluster an. Medienberichten zufolge ist CoreWeave zudem der erste Cloud-Provider, der Nvidias Blackwell-Ultra-GPUs einsetzt.

Lambda Labs bezeichnet sich selbst als die “Superintelligence Cloud” und bietet nicht nur GPU-Dienstleistungen aus der Cloud, sondern auch in Form von lokalen, privaten Clustern an – inklusive Infiniband-Netzwerk und Storage. Besonderen Fokus legt dieser Neocloud-Anbieter (zu dessen Investoren ebenfalls Nvidia zählt) dabei auf die Benutzerfreundlichkeit.

Crusoe legt seinen Fokus darauf, nachhaltige Rechenzentren zu bauen, die von erneuerbaren Energien angetrieben werden. Davon abgesehen gehören auch eine moderne GPU-Infrastruktur, intelligente Orchestrierung und API-gesteuerte Managed Services zum Portfolio. 

Nebius ist ein europäischer Neocloud-Anbieter, der unter anderem ein großes Rechenzentrum in Finnland sein Eigen nennt. Das Unternehmen bietet eine Full-Stack-KI-Infrastruktur als Dienstleistung an.

Neoclouds im Kostenvergleich

Falls Sie sich vor allem fragen, wie viel man mit einem Neocloud-Anbieter im Vergleich zu einem Hyperscaler sparen kann: Das Uptime Institute hat in einer aktuellen Untersuchung die durchschnittlichen, stündlichen Kosten für eine Nvidia-DGX-H100-Instanz verglichen. Diese kostet demnach:

bei einem Hyperscaler im Schnitt 98 Dollar, während

eine gleichwertige von einem Neocloud-Anbieter durchschnittlich 34 Dollar kostet.

Daraus ergibt sich eine Ersparnis von satten 66 Prozent.

Owen Rogers, Senior Research Director beim Uptime Institute, erklärt, wie es zu dieser Diskrepanz kommt: “Neocloud-Anbieter können niedrigere Preise anbieten, weil sie im Gegensatz zu den Hyperscalern neben modernen keine Legacy-Infrastrukturen betreiben müssen. Hyperscaler bieten in der Regel Dutzende von Produkten an, die sich jeweils individuell erweitern lassen. Im Gegensatz dazu bieten Neoclouds nur eine Handvoll Produktlinien mit wenigen Varianten.”

Durch diese Fokussierung sei es den Neocloud-Anbietern unter anderem möglich, mit weniger qualifiziertem Personal arbeiten, eine homogene IT-Landschaft in großem Maßstab optimieren und den Verwaltungsaufwand reduzieren, meint Rogers. Zwar könnten die Hyperscaler dem Research-Experten zufolge ihre eigenen GPUaaS-Angebote ebenfalls rabattieren, um den Neocloud-Anbietern den Wind aus den Segeln zu nehmen – das hätten sie allerdings gar nicht nötig: “Unternehmen, die eine Neocloud in Betracht ziehen, müssen Faktoren abwägen, die man bei den etablierten Anbietern in der Regel voraussetzen kann: Hyperscale-Rechenzentren sind sicher, in Sachen Compliance auf der Höhe der Zeit und mit diversen Management- und Monitoring-Tools ausgestattet.”

Dazu komme laut Rogers, dass mit AWS, Google Cloud oder Azure in vielen Fällen keine neuen Verträge ausgehandelt werden müssten: “Hyperscaler haben einen festen Kundenstamm. Und für viele Kunden ist es schlicht einfacher, mehr für ihre bestehenden Hyperscaler-GPU-Instanzen zu bezahlen, als eine günstigere Alternative zu finden.”

Darüber hinaus hat das Uptime Institute auch die Preisunterschiede zwischen dedizierter GPU-Infrastruktur On-Premises, von Hyperscalern und Neoclouds berechnet. Das Ergebnis: Ein Unternehmen, das über einen längeren Zeitraum bei einem dedizierten Infrastruktur-Cluster eine Auslastung von 22 Prozent erreicht und aufrechterhält, kann im Vergleich zum Hyperscaler-Angebot Kosten einsparen. Damit sich ein On-Premises-Modell aber auch im Vergleich mit einem Neocloud-Angebot rechnet, müsste die Auslastung laut Uptime bereits bei 66 Prozent liegen: “Diese 66-Prozent-Schwelle könnten nur die effizientesten KI-Implementierungen erreichen. In diesem Szenario würden viele Unternehmen Geld sparen, wenn sie auf eine Neocloud setzen, statt eigene Infrastruktur bereitzustellen”, ordnen die Infrastrukturexperten ein.

Liegt die durchschnittliche Auslastung bei mindestens 22 Prozent, ist dedizierte Infrastruktur laut dem Uptime Institute bei einem etablierten Cloud-Anbieter günstiger als die Public Cloud. Im Fall einer Neocloud müsste der Wert auf 66 Prozent klettern.Uptime Institute

Neoclouds bieten neben ihrer Kosteneffizienz eine Vielzahl weiterer Vorteile. So sind die Rechenzentren der Anbieter im Regelfall auf dem neuesten Stand der Technik und bieten unter anderem:

Infiniband- oder RoCEv2-Netzwerke,

Flüssigkeitskühlung,

aktuelle Nvidia-GPUs,

Skalierbarkeit sowie

flexible On-Demand-Optionen.

Insbesondere für Unternehmen, die gerade am Anfang ihrer KI-Reise stehen, bieten Neocloud-Anbieter eine Möglichkeit, mit der Technologie zu experimentieren – ohne große Investitionen in lokale Infrastruktur tätigen zu müssen.

Vor dem Neocloud-Investment

Wie so oft gilt aber auch bei Neoclouds: Wo Licht ist, ist auch Schatten. Zumindest potenziell. Deshalb sollten Sie folgende Aspekte berücksichtigen, bevor Sie auf einen Neocloud-Anbieter setzen.

In der aktuellen AI-Goldgräberstimmung übersteigt die Nachfrage nach GPUs das Angebot. Sie sollten deshalb sicherstellen, dass der Neocloud-Anbieter Ihrer Wahl Zugang zu den neuesten GPU-Modellen garantieren kann.

Die Neoclouds konkurrieren derzeit über den Preis, was die Preisspirale immer weiter nach unten treibt. Inzwischen sind die durchschnittlichen Preise von rund acht Dollar pro Stunde und GPU auf unter zwei Dollar gefallen. Nebius bietet etwa Nvidias L40S GPU für 1,55 Dollar pro Stunde an. Es ist davon auszugehen, dass die Neocloud-Anbieter künftig zusätzliche Services anbieten werden, um neue Einnahmequellen zu erschließen.

Wie in der IT üblich, konkurrieren Unternehmen und kooperieren parallel miteinander. So erklärt sich auch, dass Nvidia, in mehrere Neoclouds investiert hat – oder dass Microsoft und Google als Hyperscaler Kunden von CoreWeave sind. Es ist wahrscheinlich, dass sich auch der Neocloud-Markt künftig konsolidieren wird. Das sollten Sie entsprechend einkalkulieren.

Wenn Unternehmen ihre KI-Strategie ausarbeiten, ist reine GPU-Rechenleistung, wie sie Neoclouds bieten, eine Möglichkeit, um weiterzukommen. Allerdings müssen Sie als Anwender in diesem Fall weiterhin die hochkomplexen und technischen Aufgaben selbst übernehmen, die nötig sind, um KI-Anwendungen aufzubauen und zu betreiben.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KI-Kosten sparen mit Neoclouds?​ Weiterlesen »

Spaghetti-Code verhindern: So entwickeln Sie besser​

Allgemein

Wenn Spaghetti-Strukturen der Programmierarbeit entspringen, kann Einiges schiefgehen. Lesen Sie, wie Sie das verhindern. Foto: Lightfield Studios – shutterstock.comDer Begriff Spaghetti-Code bezeichnet schlecht organisierten, verworrenen oder kompliziert verschachtelten Quellcode, der schwierig zu verstehen, zu aktualisieren, zu erweitern und zu warten ist. Zur Anwendung kommt der Terminus im Regelfall bei Code, der:nicht richtig organisiert ist,einen komplexen oder verworrenen Kontrollfluss aufweist undgegen die allgemeinen Grundsätze guten Softwaredesigns verstößt.Spaghetti-Code kann sich auch in den Quellcode Ihrer Anwendung einschleichen, egal wie raffiniert dieser auch sein mag. Entstehen kann Spaghetti-Code, indem:empfohlene Methoden und Prinzipien für sauberen Code keine Beachtung finden;Programmcode ohne Struktur, Plan oder Organisation geschrieben wird;Code-Teile “entliehen” oder von unerfahrenen Entwicklern geschrieben werden.Die Folgen können mitunter schwerwiegend ausfallen: Entwickler haben es schwerer, Fehler zu beheben oder neue Funktionen hinzuzufügen. Eine unübersichtliche und unorganisierte Codebasis führt zu Verwirrung.Ineffiziente Algorithmen und mangelnde Optimierung können zu einer verminderten Anwendungsleistung führen. Dann wachsen die Antwortzeiten, der Speicherverbrauch steigt und die Benutzerfreundlichkeit wird beeinträchtigt.Spaghetti-Code kann auch Schwachstellen verdecken, die möglicherweise von Hackern ausgenutzt werden können. Spaghetti-Code verhindern: Best Practices für DeveloperDie Kosten für Spaghetti-Code sind also hoch. Die gute Nachricht ist, dass er auch vermeidbar ist. Nachfolgend stellen wir Ihnen zehn Best Practices vor, die Sie dabei unterstützen, Ihre Applikationen sauber, gut organisiert und wartbar zu halten.1. OOP-Prinzipien befolgenSie sollten Data und Behavior in Ihren Klassen und Objekten kapseln und sich die Vorteile objektorientierter Programmierung (OOP) zunutze machen – etwa Vererbung, Komposition und Polymorphie. Das gewährleistet modularen, verwaltbaren und organisierten Code.2. SOLID-Prinzipien befolgenSoftware, die auf der Grundlage etablierter Programmierprinzipien wie SOLID entsteht, minimiert die Risiken, die mit schlecht strukturiertem Code verknüpft sind. Nach dem Single-Responsibility-Prinzip (eines der fünf SOLID-Prinzipien) sollte jede Klasse oder Methode nur eine Responsibility aufweisen. Die Logger-Klasse sollte beispielsweise ausschließlich dafür zuständig sein, Daten zu protokollieren und keine anderen Funktionen enthalten.3. Fokus mit DRY bewahrenKomplexe Funktionen zu verstehen und zu pflegen ist einfacher, wenn diese in kleinere, fokussierte Komponenten aufgeteilt sind. Indem Sie allgemeine Funktionen in wiederverwendbare Methoden, Klassen und Bibliotheken abstrahieren und dabei das DRY-Prinzip anwenden, reduzieren Sie Code-Duplizierung. Zudem wird so sichergestellt, dass Code-Änderungen an einer stelle automatisch synchronisiert werden.4. Nomenklatur sinnhaft gestaltenHalten Sie eine saubere und konsistente Codebasis aufrecht, indem Sie sich an Kodierungsstandards und Stil-Richtlinien halten. Stellen Sie sicher, dass Ihre Variablen, Klassen, Methoden und andere Elemente aussagekräftige Namen aufweisen. Das macht Ihren Code leichter verständlich, macht viele Kommentare überflüssig und erleichtert die Code-Pflege.5. Zyklomatische Komplexität reduzierenDie McCabe-Metrik (auch zyklomatische Komplexität) ist ein quantitatives Maß, um die Anzahl der linear unabhängigen Pfade im Quellcode und damit die Softwarekomplexität zu erfassen. Übermäßig viele if-else-Anweisungen und weitreichende Verschachtelungen erhöhen die zyklomatische Komplexität. Mit Hilfe von Code Refactoring können Sie Verschachtelungsebenen reduzieren und die Branch-Logik vereinfachen.6. Mit Kommentaren sparenIhr Code sollte Kommentare enthalten, die den Zweck und die Absicht von Klassen, Schnittstellen, Methoden und Eigenschaften erklären. Gut dokumentierter Code ist schließlich wesentlich einfacher zu managen. zu pflegen und zu debuggen. Vergessen Sie dabei aber nicht, dass gut dokumentiert auch klar dokumentiert bedeutet: Aussagekräftige Namen (siehe oben) und weniger komplexer Code sind hier möglicherweise hilfreicher als zu viele Kommentare.7. Regelmäßig refaktorierenRefactoring auf regelmäßiger Basis beseitigt Redundanzen, verringert Komplexität und verbessert die Codequalität. Darüber hinaus trägt es durch Design- und Strukturoptimierungen und auch dazu bei, dass die Codebasis im Zeitverlauf deutlich einfacher zu pflegen ist.8. Einfach haltenUm die einfachste Lösung zu entwickeln, die den Anforderungen der Benutzer entspricht, und um unnötige Komplexität zu vermeiden, können Sie für Ihr Projekt auf das KISS-Prinzip zurückgreifen.Enthält Ihre Applikationen unnötige Funktionen, erschwert das nicht nur Unit-Tests und Wartung, sondern beeinträchtigt auch die Benutzerfreundlichkeit. An dieser Stelle hilft Ihnen das YAGNI-Prinzip.Kurzum: Konzentrieren Sie sich auf das Wesentliche und sehen Sie davon ab, Ihren Code um der Perfektion willen “vergolden” zu wollen.9. Unit-Tests ausschöpfenUm Fehler in Ihren Anwendungen zu reduzieren, sollten Sie die Vorteile von Unit-Tests in Ihrem Softwareentwicklungs-Workflow voll ausschöpfen. So können Sie sicherstellen, dass eine Code-Einheit wie gewünscht funktioniert. Wenn Sie Ihren Code geändert oder umstrukturiert haben, sollten Sie die Unit-Tests zudem wiederholen, um sicherzustellen, dass noch alles so funktioniert wie es soll.10. Code-Reviews nutzenCode-Reviews können wertvolle Einblicke und Feedback liefern. Auch das eröffnet Ihnen und Ihrem Team nicht nur die Möglichkeit, Verbesserungsvorschläge zu sammeln, sondern auch Spaghetti-Code zu identifizieren. Peer-Reviews von Code können zudem dabei helfen, die Fallstricke zu verstehen, die bei der Programmierarbeit lauern. (fm) The amount of spaghetti code in this program is actually what makes it a horror game https://t.co/vJA5fXDmEe— Toph (@Tophrrr) June 16, 2023 Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

Spaghetti-Code verhindern: So entwickeln Sie besser​ Wenn Spaghetti-Strukturen der Programmierarbeit entspringen, kann Einiges schiefgehen. Lesen Sie, wie Sie das verhindern.
Foto: Lightfield Studios – shutterstock.comDer Begriff Spaghetti-Code bezeichnet schlecht organisierten, verworrenen oder kompliziert verschachtelten Quellcode, der schwierig zu verstehen, zu aktualisieren, zu erweitern und zu warten ist. Zur Anwendung kommt der Terminus im Regelfall bei Code, der:nicht richtig organisiert ist,einen komplexen oder verworrenen Kontrollfluss aufweist undgegen die allgemeinen Grundsätze guten Softwaredesigns verstößt.Spaghetti-Code kann sich auch in den Quellcode Ihrer Anwendung einschleichen, egal wie raffiniert dieser auch sein mag. Entstehen kann Spaghetti-Code, indem:empfohlene Methoden und Prinzipien für sauberen Code keine Beachtung finden;Programmcode ohne Struktur, Plan oder Organisation geschrieben wird;Code-Teile “entliehen” oder von unerfahrenen Entwicklern geschrieben werden.Die Folgen können mitunter schwerwiegend ausfallen: Entwickler haben es schwerer, Fehler zu beheben oder neue Funktionen hinzuzufügen. Eine unübersichtliche und unorganisierte Codebasis führt zu Verwirrung.Ineffiziente Algorithmen und mangelnde Optimierung können zu einer verminderten Anwendungsleistung führen. Dann wachsen die Antwortzeiten, der Speicherverbrauch steigt und die Benutzerfreundlichkeit wird beeinträchtigt.Spaghetti-Code kann auch Schwachstellen verdecken, die möglicherweise von Hackern ausgenutzt werden können.

Spaghetti-Code verhindern: Best Practices für DeveloperDie Kosten für Spaghetti-Code sind also hoch. Die gute Nachricht ist, dass er auch vermeidbar ist. Nachfolgend stellen wir Ihnen zehn Best Practices vor, die Sie dabei unterstützen, Ihre Applikationen sauber, gut organisiert und wartbar zu halten.1. OOP-Prinzipien befolgenSie sollten Data und Behavior in Ihren Klassen und Objekten kapseln und sich die Vorteile objektorientierter Programmierung (OOP) zunutze machen – etwa Vererbung, Komposition und Polymorphie. Das gewährleistet modularen, verwaltbaren und organisierten Code.2. SOLID-Prinzipien befolgenSoftware, die auf der Grundlage etablierter Programmierprinzipien wie SOLID entsteht, minimiert die Risiken, die mit schlecht strukturiertem Code verknüpft sind. Nach dem Single-Responsibility-Prinzip (eines der fünf SOLID-Prinzipien) sollte jede Klasse oder Methode nur eine Responsibility aufweisen. Die Logger-Klasse sollte beispielsweise ausschließlich dafür zuständig sein, Daten zu protokollieren und keine anderen Funktionen enthalten.3. Fokus mit DRY bewahrenKomplexe Funktionen zu verstehen und zu pflegen ist einfacher, wenn diese in kleinere, fokussierte Komponenten aufgeteilt sind. Indem Sie allgemeine Funktionen in wiederverwendbare Methoden, Klassen und Bibliotheken abstrahieren und dabei das DRY-Prinzip anwenden, reduzieren Sie Code-Duplizierung. Zudem wird so sichergestellt, dass Code-Änderungen an einer stelle automatisch synchronisiert werden.4. Nomenklatur sinnhaft gestaltenHalten Sie eine saubere und konsistente Codebasis aufrecht, indem Sie sich an Kodierungsstandards und Stil-Richtlinien halten. Stellen Sie sicher, dass Ihre Variablen, Klassen, Methoden und andere Elemente aussagekräftige Namen aufweisen. Das macht Ihren Code leichter verständlich, macht viele Kommentare überflüssig und erleichtert die Code-Pflege.5. Zyklomatische Komplexität reduzierenDie McCabe-Metrik (auch zyklomatische Komplexität) ist ein quantitatives Maß, um die Anzahl der linear unabhängigen Pfade im Quellcode und damit die Softwarekomplexität zu erfassen. Übermäßig viele if-else-Anweisungen und weitreichende Verschachtelungen erhöhen die zyklomatische Komplexität. Mit Hilfe von Code Refactoring können Sie Verschachtelungsebenen reduzieren und die Branch-Logik vereinfachen.6. Mit Kommentaren sparenIhr Code sollte Kommentare enthalten, die den Zweck und die Absicht von Klassen, Schnittstellen, Methoden und Eigenschaften erklären. Gut dokumentierter Code ist schließlich wesentlich einfacher zu managen. zu pflegen und zu debuggen. Vergessen Sie dabei aber nicht, dass gut dokumentiert auch klar dokumentiert bedeutet: Aussagekräftige Namen (siehe oben) und weniger komplexer Code sind hier möglicherweise hilfreicher als zu viele Kommentare.7. Regelmäßig refaktorierenRefactoring auf regelmäßiger Basis beseitigt Redundanzen, verringert Komplexität und verbessert die Codequalität. Darüber hinaus trägt es durch Design- und Strukturoptimierungen und auch dazu bei, dass die Codebasis im Zeitverlauf deutlich einfacher zu pflegen ist.8. Einfach haltenUm die einfachste Lösung zu entwickeln, die den Anforderungen der Benutzer entspricht, und um unnötige Komplexität zu vermeiden, können Sie für Ihr Projekt auf das KISS-Prinzip zurückgreifen.Enthält Ihre Applikationen unnötige Funktionen, erschwert das nicht nur Unit-Tests und Wartung, sondern beeinträchtigt auch die Benutzerfreundlichkeit. An dieser Stelle hilft Ihnen das YAGNI-Prinzip.Kurzum: Konzentrieren Sie sich auf das Wesentliche und sehen Sie davon ab, Ihren Code um der Perfektion willen “vergolden” zu wollen.9. Unit-Tests ausschöpfenUm Fehler in Ihren Anwendungen zu reduzieren, sollten Sie die Vorteile von Unit-Tests in Ihrem Softwareentwicklungs-Workflow voll ausschöpfen. So können Sie sicherstellen, dass eine Code-Einheit wie gewünscht funktioniert. Wenn Sie Ihren Code geändert oder umstrukturiert haben, sollten Sie die Unit-Tests zudem wiederholen, um sicherzustellen, dass noch alles so funktioniert wie es soll.10. Code-Reviews nutzenCode-Reviews können wertvolle Einblicke und Feedback liefern. Auch das eröffnet Ihnen und Ihrem Team nicht nur die Möglichkeit, Verbesserungsvorschläge zu sammeln, sondern auch Spaghetti-Code zu identifizieren. Peer-Reviews von Code können zudem dabei helfen, die Fallstricke zu verstehen, die bei der Programmierarbeit lauern. (fm)

The amount of spaghetti code in this program is actually what makes it a horror game https://t.co/vJA5fXDmEe— Toph (@Tophrrr) June 16, 2023

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

Spaghetti-Code verhindern: So entwickeln Sie besser​ Weiterlesen »

Zig Language: Die moderne C-Alternative?​

Allgemein

Bis zur Ablösung von C hat Zig noch einen weiten Weg vor sich – aber auch eine gute Perspektive. Foto: Leonid Andronov – shutterstock.com Softwareentwickler kommen nie zur Ruhe: Sobald ein zuvor unerreichbar scheinendes Ziel abgehakt ist, beginnt bereits die Arbeit an einem neuen. Die systemorientierte Entwicklung ist dafür ein gutes Beispiel: In diesem Bereich gibt es bereits eine Reihe starker Programmmiersprachen – etwa C, C++, Rust oder Go. Mit der neuen Language Zig kommt nun eine hinzu, die die Vorzüge der eben genannten Sprachen vereinen will – bei vergleichbarer Performance und einer besseren Developer Experience. Zig wurde im Jahr 2015 von Andrew Kelley als Projekt gestartet und scheint inzwischen eine kritische Masse zu erreichen. Das Ziel ist dabei hochgesteckt: Zig soll die langjährige Herrschaft von C beenden und es sowohl als die maßgebliche Low-Level-Sprache als auch als Standard, an dem andere Sprachen gemessen werden, ablösen. Zig – ein Ersatz für C? Zig wird als “Low-Level-Systemsprache” beschrieben, aber was ist das eigentlich genau? Wir haben Loris Cro, VP of Community bei der Zig Software Foundation gefragt, wie er die Programmiersprache definieren würde: “Zig ist eine Allzweck-Programmiersprache, denn obwohl sie gut für die Systemprogrammierung geeignet ist, eignet sie sich auch für Entwicklungsarbeit auf Embedded Devices, für WebAssembly, Games und die meisten anderen Tasks, die normalerweise High-Level-Sprachen vorbehalten bleiben.” Zig ist am einfachsten zu verstehen, wenn man es in Relation zu C setzt – als eine universelle, portable Sprache mit Pointern und ohne Garbage Collection. Heute basiert quasi die gesamte Entwicklungsinfrastruktur auf C – die Sprache bildet unter anderem die Grundlage für andere Programmiersprachen wie Java, JavaScript und Python. Stellen Sie sich vor, welchen Impact es hätte, eine Programmiersprache zu entwickeln, die wie C ist – nur sicherer, weniger fehleranfällig und leichter zu pflegen. Wenn Zig auf breiter Basis als C-Ersatz angenommen würde, könnte das enorme systemische Vorteile mit sich bringen. Laut Cro konkurriere Zig zwar mit C – dennoch sei es nicht sehr wahrscheinlich, C einfach so zu verdrängen. Stattdessen sei zu erwarten, dass beide Programmiersprachen über einen sehr langen Zeitraum nebeneinander existierten. Zig – Syntax & Design Zig ist eine “Close to the Metal”-Programmiersprache, die es Developern ermöglicht, direkt mit dem Systemspeicher zu arbeiten – eine Voraussetzung dafür, Code zu schreiben, der so gut wie möglich auf seinen jeweiligen Task optimiert ist. Sowohl die C-Familie als auch Rust und andere Low-Level-Systemsprachen setzen auf eine direkte Speicherzuweisung. Zig bietet ähnliche Fähigkeiten, zielt aber darauf ab, diese in mehrfacher Hinsicht zu optimieren. Zig will eine simplere, systemorientierte Sprache sein und es einfacher machen, sicheren und korrekten Code zu schreiben. Außerdem soll die Programmiersprache die Developer Experience verbessern, indem sie die “scharfen Kanten”, die bei der Programmierarbeit mit C-ähnlicher Software auftreten, reduziert. Die Funktionen von Zig mögen auf den ersten flüchtigen Blick nicht weltbewegend erscheinen – zusammengenommen ergeben sie jedoch eine Plattform, die für Developer einfacher zu beherrschen und verwenden ist. Derzeit wird Zig genutzt, um die JavaScript-Runtime Bun.js als Alternative zu Node.js zu implementieren. Jarred Sumner, der Schöpfer von Bun, weiß um die Vorteile der Programmiersprache: “Zig ähnelt C, weist aber bessere Memory-Safety-Funktionen auf und bringt zudem moderne Features wie defer (ähnlich wie bei Go) und Arbitrary Code mit, der zur Kompilierzeit über comptime ausgeführt wird. Weil es in Zig zudem sehr wenige Keywords gibt, ist es viel einfacher zu erlernen als beispielsweise C++ oder Rust.” Zig unterscheidet sich von den meisten anderen Sprachen durch einen vergleichsweise geringen Feature-Footprint, der das Ergebnis eines expliziten Designziels ist: Es soll möglichst nur eine offensichtliche Möglichkeit geben, Dinge zu tun. Das haben sich die Verantwortlichen so sehr zu Herzen genommen, dass Zig keinen for-Loop enthielt. Dieser wurde als unnötige Erweiterung des adäquaten while-Loop angesehen. Rust-Experte Kevin Lynagh beschreibt in einem Blogbeitrag, warum er eine Keyboard-Firmware in Zig neu geschrieben hat: “Die Sprache ist so klein und konsistent, dass ich bereits nach ein paar Stunden des Studiums in der Lage war, einfach meine Arbeit zu erledigen.” Eine Einschätzung, die C-Entwickler Nathan Craddock in seinem Blogbeitrag nur bestätigen kann. Programmierer wissen die fokussierte Qualität von Zigs Syntax also offensichtlich zu schätzen. Friendly reminder to all new people interested in trying out Zig: learning a new language is even better when you have access to someone that can help you when you get stuck!Join one of the Zig communities and enjoy a comfy on-boarding experiencehttps://t.co/1gFIcf5ktD— Zig (@ziglang) March 7, 2021 Zig – Memory Management Eine Besonderheit von Zig ist, dass sie die Speicherzuweisung nicht direkt händelt. Es gibt kein malloc-Keyword wie in C/C++. Stattdessen wird der Zugriff auf den Heap explizit über die Standardbibliothek abgewickelt. Wenn Sie eine solche Funktion benötigen, übergeben Sie ein Allocator-Objekt. Das hat den Effekt, dass eindeutig angegeben wird, wann die Bibliotheken auf den Speicher zugreifen, während gleichzeitig abstrahiert wird, wie er adressiert werden soll. Welche Art von Allokator angemessen ist, bestimmt Ihr Client-Code. Weil Speicherzugriff ein Bibliotheksmerkmal wird, werden versteckte Zuweisungen vermieden. Das ist für Echtzeit-Umgebungen und solche mit limitierten Ressourcen ein Segen. Die Memory wird aus der Sprachsyntax herausgelöst und das Handling wird expliziter. Wenn der Client-Code spezifizieren darf, welche Art von Allokator er an eine API weitergibt, wählt er diese entsprechend der Umgebung, die er targetiert. Das sorgt dafür, dass Library Code offensichtlicher zu verstehen und wiederverwendbar wird. Eine Anwendung kann exakt bestimmen, wann eine von ihr verwendete Bibliothek auf den Speicher zugreift und ihr den für die Laufzeit am besten geeigneten Allokator-Typ (embedded, Server, WASM) übergeben. Die Zig-Standardbibliothek wird beispielsweise mit einem Basis-Allokator (Page Allocator) ausgeliefert. Dieser fordert folgendermaßen Memory vom Betriebssystem an: const allocator = std.heap.page_allocator; Zig enthält darüber hinaus auch Sicherheitsfunktionen, um Buffer Overflows zu verhindern und wird mit einem Debug-Allokator ausgeliefert, der Memory Leaks aufspüren soll. Weitere Informationen über verfügbare Allokatoren finden Sie in der offiziellen Zig-Dokumentation. Zig – Konditionale Kompilierung Zig verwendet Conditional Compilation, was einen Preprocessor wie in C überflüssig macht. Entsprechend gibt es in Zig auch keine Makros wie in C/C++. Vom Design-Standpunkt aus betrachtet das Entwicklungsteam von Zig die Notwendigkeit eines Preprocessor als Anzeichen für eine Sprachlimitierung, die lediglich grob geflickt wurde. Anstelle von Makros bestimmt der Compiler von Zig, welche Code-Teile zum Zeitpunkt der Kompilierung evaluiert werden können. Ein if-Statement wird zum Beispiel (wenn möglich) seinen toten Branch zur Kompilierungszeit eliminieren. Anstatt über #define eine Konstante zur Kompilierungszeit zu erstellen, ermittelt Zig, ob der const-Wert auf diese Weise behandelt werden kann – und tut es einfach. Das macht den Code nicht nur einfacher zu lesen, zu schreiben und zu durchdenken, sondern eröffnet auch Optimierungsmöglichkeiten. Wie Softwareentwickler Erik Engheim in einem Blogeintrag treffend anmerkt, macht Zig Compile-time Computing zu einem zentralen Feature und enthebt es dem Status eines nachgelagerten Gedankens: “Das ermöglicht Entwicklern, generischen Code zu schreiben und sich der Meta-Programmierarbeit zu widmen – ganz ohne Expliziten Support für Generics oder Templates.” Ein charakteristisches Zig-Feature ist das comptime-Keyword. Es ermöglicht, Code zur Kompilierzeit auszuführen. So können Entwickler (unter anderem) Types gegen Generics durchsetzen. Zig – Interoperabilität mit C/C++ Zig bietet ein hohes Maß an Interoperabilität mit C und C++. Aus gutem Grund, wie in der Dokumentation nachzulesen ist: “Derzeit ist es es Fakt, dass C die vielseitigste und portabelste Programmiersprache ist. Jede Sprache, die nicht mit C-Code interagieren kann, riskiert es, bedeutungslos zu werden.” Zig kann C und C++ kompilieren. Außerdem wird es mit libc-Bibliotheken für diverse Plattformen ausgeliefert, die ohne Verknüpfung mit externen Bibliotheken erstellt werden können. Eine ausführliche Diskussion über die Beziehung zwischen Zig und libc finden Sie in diesem Reddit-Thread. Zig-Schöpfer Andrew Kelley legt in einem eigenen Blogbeitrag nahe, dass Zig C nicht nur mit seiner eigenen Syntax ersetzen, sondern C so weit wie möglich “absorbieren” will. “Zig ist besser als andere C/C++-Compiler, weil er unter anderem von Haus aus Cross-Compilation unterstützt”, ergänzt Cro. “Zig kann auch trivial mit C interagieren – man kann C-Header-Dateien direkt importieren – und es ist insgesamt besser als C bei der Verwendung von C-Bibliotheken, eines stärkeren Typsystems und Sprachfunktionen wie Defer sei Dank.” Das Type-System von Zig Zig ist stark typisiert und nutzt struct für objektähnliche Semantik, aber keine Klassen und Objekte. Die Sprache unterstützt Generics, wie C++ oder Java und nutzt das anytype-Keyword, um generische Parameter zu ermöglichen (arg: anytype). Zig bietet zudem Support für Unions. Nice summary of the Zig language: pic.twitter.com/vwC3nkmttG— Michal Ziulek🇺🇦 (@MichalZiulek) March 13, 2022 Zig – Error Handling Zig weist ein einzigartiges Error-Handling-System auf. Als Teil einer “avoid hidden control flow”-Designphilosophie greift die Programmiersprache nicht auf throw zurück, um Ausnahmen zu erzeugen. Stattdessen können Statements und Funktionen bei Bedarf einen Error Type zurückgeben. Der Code kann das Error Object verwenden, um entsprechend zu reagieren – oder den Fehler mit dem Keyword try übergehen. Ein Error Union Type weist folgende Syntax auf: ! . Wie das in Aktion aussieht, zeigt folgendes “Hello, world”-Beispiel: const std = @import(“std”); pub fn main() !void { const stdout = std.io.getStdOut().writer(); try stdout.print(“Hello, {s}!n”, .{“world”}); } Der Großteil dieses Listings ist selbsterklärend. Interessant ist dabei vor allem die !void-Syntax. Sie besagt, dass die Funktion entweder void oder einen Fehler zurückgeben kann. Das bedeutet: Läuft die Funktion main() ohne Fehler, gibt sie nichts zurück. Wenn nicht, gibt sie ein Error Object zurück, das den Fehlerzustand beschreibt. Zig – Toolchain & Testing Zig beinhaltet auch ein Build-Tool. Als Beispiel könnten wir das eben gesehene “Hello, world”-Beispiel erstellen und mit folgenden Befehlen ausführen: $ zig build-exe hello.zig $ ./hello Hello, world! Das Build-Tool von Zig arbeitet plattformübergreifend und ersetzt Werkzeuge wie make und cmake. Ein Package Manager ist derzeit in Arbeit – Support für Testing ist direkt in die Sprache und den Runner integriert. LLVM als Basis Zig wurde ursprünglich auf dem LLVM-Toolset aufgebaut – inzwischen ist dieses aber eine optionale Komponente. Das trägt weiter dazu bei, die Portabilität von Zig zu erhöhen, und sorgt dafür, dass sie sich besser für eigenständige Builds eignet. Zig – Status Quo Zu Zig gehört auch eine aktive Discord-Community und ein ausgedehntes GitHub-Ökosystem. Zig nähert sich laut Cro der Produktionsreife: “Zig ist noch nicht in der Version 1.0, deswegen stecken Dinge wie Webdev noch in den Kinderschuhen. Dennoch ist Datenverarbeitung der einzige Zweck, für den ich Zig nicht empfehlen würde. Dafür ist eine dynamische Sprache wie Python oder Julia meiner Meinung nach praktischer.” Den Fortschritt bis zur Version 1.0 können Sie über GitHub nachvollziehen. Folgende Beiträge und Artikel halten mehr Informationen über Zig bereit – und darüber, wie es die Welt der systemorientierten Programmierung aufrüttelt: Is Zig the long-awaited C Replacement? Why Zig when there is already C++, D and Rust? Revisiting the design approach to the Zig Programming Language A Review of the Zig Programming Language (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Zig Language: Die moderne C-Alternative?​ Bis zur Ablösung von C hat Zig noch einen weiten Weg vor sich – aber auch eine gute Perspektive.
Foto: Leonid Andronov – shutterstock.com

Softwareentwickler kommen nie zur Ruhe: Sobald ein zuvor unerreichbar scheinendes Ziel abgehakt ist, beginnt bereits die Arbeit an einem neuen. Die systemorientierte Entwicklung ist dafür ein gutes Beispiel: In diesem Bereich gibt es bereits eine Reihe starker Programmmiersprachen – etwa C, C++, Rust oder Go. Mit der neuen Language Zig kommt nun eine hinzu, die die Vorzüge der eben genannten Sprachen vereinen will – bei vergleichbarer Performance und einer besseren Developer Experience.

Zig wurde im Jahr 2015 von Andrew Kelley als Projekt gestartet und scheint inzwischen eine kritische Masse zu erreichen. Das Ziel ist dabei hochgesteckt: Zig soll die langjährige Herrschaft von C beenden und es sowohl als die maßgebliche Low-Level-Sprache als auch als Standard, an dem andere Sprachen gemessen werden, ablösen.

Zig – ein Ersatz für C?

Zig wird als “Low-Level-Systemsprache” beschrieben, aber was ist das eigentlich genau? Wir haben Loris Cro, VP of Community bei der Zig Software Foundation gefragt, wie er die Programmiersprache definieren würde: “Zig ist eine Allzweck-Programmiersprache, denn obwohl sie gut für die Systemprogrammierung geeignet ist, eignet sie sich auch für Entwicklungsarbeit auf Embedded Devices, für WebAssembly, Games und die meisten anderen Tasks, die normalerweise High-Level-Sprachen vorbehalten bleiben.”

Zig ist am einfachsten zu verstehen, wenn man es in Relation zu C setzt – als eine universelle, portable Sprache mit Pointern und ohne Garbage Collection. Heute basiert quasi die gesamte Entwicklungsinfrastruktur auf C – die Sprache bildet unter anderem die Grundlage für andere Programmiersprachen wie Java, JavaScript und Python.

Stellen Sie sich vor, welchen Impact es hätte, eine Programmiersprache zu entwickeln, die wie C ist – nur sicherer, weniger fehleranfällig und leichter zu pflegen. Wenn Zig auf breiter Basis als C-Ersatz angenommen würde, könnte das enorme systemische Vorteile mit sich bringen. Laut Cro konkurriere Zig zwar mit C – dennoch sei es nicht sehr wahrscheinlich, C einfach so zu verdrängen. Stattdessen sei zu erwarten, dass beide Programmiersprachen über einen sehr langen Zeitraum nebeneinander existierten.

Zig – Syntax & Design

Zig ist eine “Close to the Metal”-Programmiersprache, die es Developern ermöglicht, direkt mit dem Systemspeicher zu arbeiten – eine Voraussetzung dafür, Code zu schreiben, der so gut wie möglich auf seinen jeweiligen Task optimiert ist. Sowohl die C-Familie als auch Rust und andere Low-Level-Systemsprachen setzen auf eine direkte Speicherzuweisung. Zig bietet ähnliche Fähigkeiten, zielt aber darauf ab, diese in mehrfacher Hinsicht zu optimieren.

Zig will eine simplere, systemorientierte Sprache sein und es einfacher machen, sicheren und korrekten Code zu schreiben. Außerdem soll die Programmiersprache die Developer Experience verbessern, indem sie die “scharfen Kanten”, die bei der Programmierarbeit mit C-ähnlicher Software auftreten, reduziert. Die Funktionen von Zig mögen auf den ersten flüchtigen Blick nicht weltbewegend erscheinen – zusammengenommen ergeben sie jedoch eine Plattform, die für Developer einfacher zu beherrschen und verwenden ist.

Derzeit wird Zig genutzt, um die JavaScript-Runtime Bun.js als Alternative zu Node.js zu implementieren. Jarred Sumner, der Schöpfer von Bun, weiß um die Vorteile der Programmiersprache: “Zig ähnelt C, weist aber bessere Memory-Safety-Funktionen auf und bringt zudem moderne Features wie defer (ähnlich wie bei Go) und Arbitrary Code mit, der zur Kompilierzeit über comptime ausgeführt wird. Weil es in Zig zudem sehr wenige Keywords gibt, ist es viel einfacher zu erlernen als beispielsweise C++ oder Rust.”

Zig unterscheidet sich von den meisten anderen Sprachen durch einen vergleichsweise geringen Feature-Footprint, der das Ergebnis eines expliziten Designziels ist: Es soll möglichst nur eine offensichtliche Möglichkeit geben, Dinge zu tun. Das haben sich die Verantwortlichen so sehr zu Herzen genommen, dass Zig keinen for-Loop enthielt. Dieser wurde als unnötige Erweiterung des adäquaten while-Loop angesehen.

Rust-Experte Kevin Lynagh beschreibt in einem Blogbeitrag, warum er eine Keyboard-Firmware in Zig neu geschrieben hat: “Die Sprache ist so klein und konsistent, dass ich bereits nach ein paar Stunden des Studiums in der Lage war, einfach meine Arbeit zu erledigen.” Eine Einschätzung, die C-Entwickler Nathan Craddock in seinem Blogbeitrag nur bestätigen kann. Programmierer wissen die fokussierte Qualität von Zigs Syntax also offensichtlich zu schätzen.

Friendly reminder to all new people interested in trying out Zig: learning a new language is even better when you have access to someone that can help you when you get stuck!Join one of the Zig communities and enjoy a comfy on-boarding experiencehttps://t.co/1gFIcf5ktD— Zig (@ziglang) March 7, 2021

Zig – Memory Management

Eine Besonderheit von Zig ist, dass sie die Speicherzuweisung nicht direkt händelt. Es gibt kein malloc-Keyword wie in C/C++. Stattdessen wird der Zugriff auf den Heap explizit über die Standardbibliothek abgewickelt. Wenn Sie eine solche Funktion benötigen, übergeben Sie ein Allocator-Objekt. Das hat den Effekt, dass eindeutig angegeben wird, wann die Bibliotheken auf den Speicher zugreifen, während gleichzeitig abstrahiert wird, wie er adressiert werden soll. Welche Art von Allokator angemessen ist, bestimmt Ihr Client-Code.

Weil Speicherzugriff ein Bibliotheksmerkmal wird, werden versteckte Zuweisungen vermieden. Das ist für Echtzeit-Umgebungen und solche mit limitierten Ressourcen ein Segen. Die Memory wird aus der Sprachsyntax herausgelöst und das Handling wird expliziter.

Wenn der Client-Code spezifizieren darf, welche Art von Allokator er an eine API weitergibt, wählt er diese entsprechend der Umgebung, die er targetiert. Das sorgt dafür, dass Library Code offensichtlicher zu verstehen und wiederverwendbar wird. Eine Anwendung kann exakt bestimmen, wann eine von ihr verwendete Bibliothek auf den Speicher zugreift und ihr den für die Laufzeit am besten geeigneten Allokator-Typ (embedded, Server, WASM) übergeben.

Die Zig-Standardbibliothek wird beispielsweise mit einem Basis-Allokator (Page Allocator) ausgeliefert. Dieser fordert folgendermaßen Memory vom Betriebssystem an: const allocator = std.heap.page_allocator; Zig enthält darüber hinaus auch Sicherheitsfunktionen, um Buffer Overflows zu verhindern und wird mit einem Debug-Allokator ausgeliefert, der Memory Leaks aufspüren soll. Weitere Informationen über verfügbare Allokatoren finden Sie in der offiziellen Zig-Dokumentation.

Zig – Konditionale Kompilierung

Zig verwendet Conditional Compilation, was einen Preprocessor wie in C überflüssig macht. Entsprechend gibt es in Zig auch keine Makros wie in C/C++. Vom Design-Standpunkt aus betrachtet das Entwicklungsteam von Zig die Notwendigkeit eines Preprocessor als Anzeichen für eine Sprachlimitierung, die lediglich grob geflickt wurde.

Anstelle von Makros bestimmt der Compiler von Zig, welche Code-Teile zum Zeitpunkt der Kompilierung evaluiert werden können. Ein if-Statement wird zum Beispiel (wenn möglich) seinen toten Branch zur Kompilierungszeit eliminieren. Anstatt über #define eine Konstante zur Kompilierungszeit zu erstellen, ermittelt Zig, ob der const-Wert auf diese Weise behandelt werden kann – und tut es einfach. Das macht den Code nicht nur einfacher zu lesen, zu schreiben und zu durchdenken, sondern eröffnet auch Optimierungsmöglichkeiten.

Wie Softwareentwickler Erik Engheim in einem Blogeintrag treffend anmerkt, macht Zig Compile-time Computing zu einem zentralen Feature und enthebt es dem Status eines nachgelagerten Gedankens: “Das ermöglicht Entwicklern, generischen Code zu schreiben und sich der Meta-Programmierarbeit zu widmen – ganz ohne Expliziten Support für Generics oder Templates.”

Ein charakteristisches Zig-Feature ist das comptime-Keyword. Es ermöglicht, Code zur Kompilierzeit auszuführen. So können Entwickler (unter anderem) Types gegen Generics durchsetzen.

Zig – Interoperabilität mit C/C++

Zig bietet ein hohes Maß an Interoperabilität mit C und C++. Aus gutem Grund, wie in der Dokumentation nachzulesen ist: “Derzeit ist es es Fakt, dass C die vielseitigste und portabelste Programmiersprache ist. Jede Sprache, die nicht mit C-Code interagieren kann, riskiert es, bedeutungslos zu werden.”

Zig kann C und C++ kompilieren. Außerdem wird es mit libc-Bibliotheken für diverse Plattformen ausgeliefert, die ohne Verknüpfung mit externen Bibliotheken erstellt werden können. Eine ausführliche Diskussion über die Beziehung zwischen Zig und libc finden Sie in diesem Reddit-Thread. Zig-Schöpfer Andrew Kelley legt in einem eigenen Blogbeitrag nahe, dass Zig C nicht nur mit seiner eigenen Syntax ersetzen, sondern C so weit wie möglich “absorbieren” will.

“Zig ist besser als andere C/C++-Compiler, weil er unter anderem von Haus aus Cross-Compilation unterstützt”, ergänzt Cro. “Zig kann auch trivial mit C interagieren – man kann C-Header-Dateien direkt importieren – und es ist insgesamt besser als C bei der Verwendung von C-Bibliotheken, eines stärkeren Typsystems und Sprachfunktionen wie Defer sei Dank.”

Das Type-System von Zig

Zig ist stark typisiert und nutzt struct für objektähnliche Semantik, aber keine Klassen und Objekte. Die Sprache unterstützt Generics, wie C++ oder Java und nutzt das anytype-Keyword, um generische Parameter zu ermöglichen (arg: anytype). Zig bietet zudem Support für Unions.

Nice summary of the Zig language: pic.twitter.com/vwC3nkmttG— Michal Ziulek🇺🇦 (@MichalZiulek) March 13, 2022

Zig – Error Handling

Zig weist ein einzigartiges Error-Handling-System auf. Als Teil einer “avoid hidden control flow”-Designphilosophie greift die Programmiersprache nicht auf throw zurück, um Ausnahmen zu erzeugen. Stattdessen können Statements und Funktionen bei Bedarf einen Error Type zurückgeben. Der Code kann das Error Object verwenden, um entsprechend zu reagieren – oder den Fehler mit dem Keyword try übergehen.

Ein Error Union Type weist folgende Syntax auf: ! . Wie das in Aktion aussieht, zeigt folgendes “Hello, world”-Beispiel:

const std = @import(“std”);

pub fn main() !void {

const stdout = std.io.getStdOut().writer();

try stdout.print(“Hello, {s}!n”, .{“world”});

}

Der Großteil dieses Listings ist selbsterklärend. Interessant ist dabei vor allem die !void-Syntax. Sie besagt, dass die Funktion entweder void oder einen Fehler zurückgeben kann. Das bedeutet: Läuft die Funktion main() ohne Fehler, gibt sie nichts zurück. Wenn nicht, gibt sie ein Error Object zurück, das den Fehlerzustand beschreibt.

Zig – Toolchain & Testing

Zig beinhaltet auch ein Build-Tool. Als Beispiel könnten wir das eben gesehene “Hello, world”-Beispiel erstellen und mit folgenden Befehlen ausführen:

$ zig build-exe hello.zig

$ ./hello

Hello, world!

Das Build-Tool von Zig arbeitet plattformübergreifend und ersetzt Werkzeuge wie make und cmake. Ein Package Manager ist derzeit in Arbeit – Support für Testing ist direkt in die Sprache und den Runner integriert.

LLVM als Basis

Zig wurde ursprünglich auf dem LLVM-Toolset aufgebaut – inzwischen ist dieses aber eine optionale Komponente. Das trägt weiter dazu bei, die Portabilität von Zig zu erhöhen, und sorgt dafür, dass sie sich besser für eigenständige Builds eignet.

Zig – Status Quo

Zu Zig gehört auch eine aktive Discord-Community und ein ausgedehntes GitHub-Ökosystem. Zig nähert sich laut Cro der Produktionsreife: “Zig ist noch nicht in der Version 1.0, deswegen stecken Dinge wie Webdev noch in den Kinderschuhen. Dennoch ist Datenverarbeitung der einzige Zweck, für den ich Zig nicht empfehlen würde. Dafür ist eine dynamische Sprache wie Python oder Julia meiner Meinung nach praktischer.”

Den Fortschritt bis zur Version 1.0 können Sie über GitHub nachvollziehen. Folgende Beiträge und Artikel halten mehr Informationen über Zig bereit – und darüber, wie es die Welt der systemorientierten Programmierung aufrüttelt:

Is Zig the long-awaited C Replacement?

Why Zig when there is already C++, D and Rust?

Revisiting the design approach to the Zig Programming Language

A Review of the Zig Programming Language

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Zig Language: Die moderne C-Alternative?​ Weiterlesen »

Microsoft Exchange Server SE allgemein verfügbar​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”> Microsoft Exchange Server SE, der Exchange 2016 und Exchange 2019 ablösen soll, steht jetzt bereit.Emagnetic / Shutterstock Wenn Ihr Unternehmen noch Exchange 2016 oder Exchange 2019 lokal betreibt, sollten Sie nicht länger zögern: Microsoft hat nun die Exchange Server Subscription Edition (SE) offiziell verfügbar gemacht, um diese Versionen abzulösen. SE ist genau das, wonach es klingt: Unternehmenskunden müssen künftig Abonnement-Lizenzen für alle Benutzer und Server erwerben. Die Änderung, die ab sofort gilt, geht mit Preiserhöhungen einher: zehn Prozent für eigenständige On-Premises-Serverprodukte, 15 Prozent für die On-Prem Core CAL Suite und  20 Prozent für die On-Prem Enterprise CAL Suite, die letzten beiden wirksam ab dem 1. August. Beim Exchange Server SE, so erklärt Microsoft, müssen Kunden zusätzlich zum Kauf der erforderlichen Serverlizenzen und CALs auch ein aktives Abonnement aufrechterhalten. Das hat zur Folge, dass: Cloud-Abonnement-Lizenzen für alle Benutzer und Geräte, die auf Exchange Server SE zugreifen (z. B. Microsoft 365 E3- oder E5-Lizenzen) oder Exchange Server SE-Lizenzen und CALs mit Software Assurance (SA) erworben werden müssen. Der Technologiekonzern wird den Support für Exchange Server 2016 und 2019 am 14. Oktober offiziell einstellen. Das heißt, ab diesem Zeitpunkt werden keine Updates, technischer Support, Bug Fixes oder Sicherheits-Patches mehr bereitgestellt. Unternehmen könnten SE Exchange Server 2016 und 2019 nach dem Ende der Lebensdauer (EOL) zwar weiterhin verwenden, jedoch auf eigenes Risiko, so das Unternehmen. Umstellung auf eine „moderne Lifecycle-Richtlinie” „Da das EOL-Datum noch etwa dreieinhalb Monate entfernt ist, erhalten Nachzügler (und diejenigen, die aus Compliance- und geschäftlichen Gründen On-Premises bleiben müssen) einen unterstützten Weg in die Zukunft”, erklärt John Annand, Leiter des Bereichs digitale Infrastruktur bei der Info-Tech Research Group. Microsoft hat im Februar das letzte kumulative Update (CU) für Exchange Server 2019 veröffentlicht. Kunden, die E-Mails weiterhin lokal speichern möchten, müssen deshalb auf das SE-Lizenzmodell umsteigen, um weiterhin Support und Updates zu erhalten. Wer hingegen bereit für den Umstieg in die Cloud ist, kann stattdessen Microsofts vollständig gehostete Plattformen Exchange Online oder Microsoft 365 wählen. „Exchange SE unterstreicht unser Engagement für den kontinuierlichen Support von Szenarien, in denen lokale Lösungen nach wie vor von entscheidender Bedeutung sind“, betont Microsoft in einem Blogbeitrag. Die gute Nachricht ist, dass SE Microsofts „Modern Lifecycle Policy“ unterliegt. Das bedeutet, dass es sich um ein „Evergreen“-Produkt handelt, das kontinuierlich gewartet und weiterentwickelt wird, wie der Softwareriese erklärt. Es gebe keine festen End-of-Life-Daten für diese Version – Kunden könnten ihre Konfigurationen also stets aktuell halten. Dem Unternehmen zufolge werden Exchange SE CUs (Cumulative Updates) weiterhin im gleichen Rhythmus von zwei Stück pro Kalenderjahr veröffentlicht. Sicherheits- oder Hotfix-Updates, also gezielte Software-Updates zur Behebung spezifischer, in der Regel kritischer Probleme, die zwischen den CUs auftreten, sollen nach Bedarf bereitgestellt werden. Analysten betonen, dass dies nicht unerwartet kommt: Microsoft hatte bereits seit einiger Zeit angekündigt, den Support für die Exchange-Editionen 2016 und 2019 einzustellen und auf ein Abonnementmodell umzustellen. Annand wies jedoch darauf hin, dass vor drei Jahren noch immer von rund 300.000 physischen Servern vor Ort mit 7,3 Milliarden Postfächern die Rede war. „Natürlich möchte Microsoft mehr Geld auf dem Konto sehen”, merkt er an und verweist auf die zehnprozentige Preiserhöhung für Serverlizenzen und eine Erhöhung der Clientzugriffslizenzen um 15 oder 20 Prozent, je nach Kaufart. „Preiserhöhungen werden von Kunden nie gerne gesehen“, so Annand. „Aber solange Microsoft es ihnen weiterhin erlaubt, ihre Daten lokal zu hosten und den Update-Zyklus selbst zu verwalten (anders als bei Exchange Online), werden sie sich widerwillig damit abfinden.” So aktualisieren Sie auf Exchange SE Das letzte Update für Exchange Server 2019 enthält alle vorherigen Sicherheits-Patches und führt serverseitige Komponenten für „Feature Flighting“ ein, einen optionalen Cloud-basierten Dienst, der sofortige Updates unterstützt, sobald neue Funktionen verfügbar sind. Dies soll dazu beitragen, die Stabilität und Sicherheit bis zum Ende des Lebenszyklus im Herbst dieses Jahres zu gewährleisten. Microsoft empfiehlt, so bald wie möglich auf Exchange SE zu aktualisieren und Exchange 2016 oder 2019 außer Betrieb zu nehmen. Nach der Umstellung auf SE können Unternehmen ab SE CU2 keine Exchange-2016- oder -2019-Server mehr lokal betreiben. Unternehmen haben zwei Upgrade-Optionen: ein Legacy-Upgrade, für das neue Server erforderlich sind, oder ein „In-Place”-Upgrade (nur für Exchange 2019 verfügbar), bei dem das neueste Upgrade-Paket heruntergeladen und installiert wird. Während dieses Vorgangs kann es laut Microsoft zu einigen Unterbrechungen kommen, da die Postfächer vorübergehend pausiert werden. Unternehmen könnten dies jedoch umgehen, indem sie Upgrades über Nacht, am Wochenende oder zu anderen Zeiten durchführten, wenn die Büros geschlossen sind. Microsoft weist darauf hin, dass sich die Umstellung auf SE von früheren Releases unterscheidet, da sie kein umfangreiches Code-Upgrade und keine wesentlichen Änderungen beinhalte. Es würden keine neuen Lizenzschlüssel benötigt, keine Funktionen hinzugefügt oder entfernt, keine Installationsvoraussetzungen geändert und es gebe auch keine Änderungen am Active-Directory-Schema. (mb) 

Microsoft Exchange Server SE allgemein verfügbar​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_1555135388.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”> Microsoft Exchange Server SE, der Exchange 2016 und Exchange 2019 ablösen soll, steht jetzt bereit.Emagnetic / Shutterstock

Wenn Ihr Unternehmen noch Exchange 2016 oder Exchange 2019 lokal betreibt, sollten Sie nicht länger zögern: Microsoft hat nun die Exchange Server Subscription Edition (SE) offiziell verfügbar gemacht, um diese Versionen abzulösen.

SE ist genau das, wonach es klingt: Unternehmenskunden müssen künftig Abonnement-Lizenzen für alle Benutzer und Server erwerben. Die Änderung, die ab sofort gilt, geht mit Preiserhöhungen einher:

zehn Prozent für eigenständige On-Premises-Serverprodukte,

15 Prozent für die On-Prem Core CAL Suite und

 20 Prozent für die On-Prem Enterprise CAL Suite, die letzten beiden wirksam ab dem 1. August.

Beim Exchange Server SE, so erklärt Microsoft, müssen Kunden zusätzlich zum Kauf der erforderlichen Serverlizenzen und CALs auch ein aktives Abonnement aufrechterhalten. Das hat zur Folge, dass:

Cloud-Abonnement-Lizenzen für alle Benutzer und Geräte, die auf Exchange Server SE zugreifen (z. B. Microsoft 365 E3- oder E5-Lizenzen) oder

Exchange Server SE-Lizenzen und CALs mit Software Assurance (SA) erworben werden müssen.

Der Technologiekonzern wird den Support für Exchange Server 2016 und 2019 am 14. Oktober offiziell einstellen. Das heißt, ab diesem Zeitpunkt werden keine Updates, technischer Support, Bug Fixes oder Sicherheits-Patches mehr bereitgestellt.

Unternehmen könnten SE Exchange Server 2016 und 2019 nach dem Ende der Lebensdauer (EOL) zwar weiterhin verwenden, jedoch auf eigenes Risiko, so das Unternehmen.

Umstellung auf eine „moderne Lifecycle-Richtlinie”

„Da das EOL-Datum noch etwa dreieinhalb Monate entfernt ist, erhalten Nachzügler (und diejenigen, die aus Compliance- und geschäftlichen Gründen On-Premises bleiben müssen) einen unterstützten Weg in die Zukunft”, erklärt John Annand, Leiter des Bereichs digitale Infrastruktur bei der Info-Tech Research Group.

Microsoft hat im Februar das letzte kumulative Update (CU) für Exchange Server 2019 veröffentlicht. Kunden, die E-Mails weiterhin lokal speichern möchten, müssen deshalb auf das SE-Lizenzmodell umsteigen, um weiterhin Support und Updates zu erhalten. Wer hingegen bereit für den Umstieg in die Cloud ist, kann stattdessen Microsofts vollständig gehostete Plattformen Exchange Online oder Microsoft 365 wählen.

„Exchange SE unterstreicht unser Engagement für den kontinuierlichen Support von Szenarien, in denen lokale Lösungen nach wie vor von entscheidender Bedeutung sind“, betont Microsoft in einem Blogbeitrag.

Die gute Nachricht ist, dass SE Microsofts „Modern Lifecycle Policy“ unterliegt. Das bedeutet, dass es sich um ein „Evergreen“-Produkt handelt, das kontinuierlich gewartet und weiterentwickelt wird, wie der Softwareriese erklärt. Es gebe keine festen End-of-Life-Daten für diese Version – Kunden könnten ihre Konfigurationen also stets aktuell halten.

Dem Unternehmen zufolge werden Exchange SE CUs (Cumulative Updates) weiterhin im gleichen Rhythmus von zwei Stück pro Kalenderjahr veröffentlicht. Sicherheits- oder Hotfix-Updates, also gezielte Software-Updates zur Behebung spezifischer, in der Regel kritischer Probleme, die zwischen den CUs auftreten, sollen nach Bedarf bereitgestellt werden.

Analysten betonen, dass dies nicht unerwartet kommt: Microsoft hatte bereits seit einiger Zeit angekündigt, den Support für die Exchange-Editionen 2016 und 2019 einzustellen und auf ein Abonnementmodell umzustellen.

Annand wies jedoch darauf hin, dass vor drei Jahren noch immer von rund 300.000 physischen Servern vor Ort mit 7,3 Milliarden Postfächern die Rede war. „Natürlich möchte Microsoft mehr Geld auf dem Konto sehen”, merkt er an und verweist auf die zehnprozentige Preiserhöhung für Serverlizenzen und eine Erhöhung der Clientzugriffslizenzen um 15 oder 20 Prozent, je nach Kaufart.

„Preiserhöhungen werden von Kunden nie gerne gesehen“, so Annand. „Aber solange Microsoft es ihnen weiterhin erlaubt, ihre Daten lokal zu hosten und den Update-Zyklus selbst zu verwalten (anders als bei Exchange Online), werden sie sich widerwillig damit abfinden.”

So aktualisieren Sie auf Exchange SE

Das letzte Update für Exchange Server 2019 enthält alle vorherigen Sicherheits-Patches und führt serverseitige Komponenten für „Feature Flighting“ ein, einen optionalen Cloud-basierten Dienst, der sofortige Updates unterstützt, sobald neue Funktionen verfügbar sind. Dies soll dazu beitragen, die Stabilität und Sicherheit bis zum Ende des Lebenszyklus im Herbst dieses Jahres zu gewährleisten.

Microsoft empfiehlt, so bald wie möglich auf Exchange SE zu aktualisieren und Exchange 2016 oder 2019 außer Betrieb zu nehmen. Nach der Umstellung auf SE können Unternehmen ab SE CU2 keine Exchange-2016- oder -2019-Server mehr lokal betreiben.

Unternehmen haben zwei Upgrade-Optionen: ein Legacy-Upgrade, für das neue Server erforderlich sind, oder ein „In-Place”-Upgrade (nur für Exchange 2019 verfügbar), bei dem das neueste Upgrade-Paket heruntergeladen und installiert wird.

Während dieses Vorgangs kann es laut Microsoft zu einigen Unterbrechungen kommen, da die Postfächer vorübergehend pausiert werden. Unternehmen könnten dies jedoch umgehen, indem sie Upgrades über Nacht, am Wochenende oder zu anderen Zeiten durchführten, wenn die Büros geschlossen sind.

Microsoft weist darauf hin, dass sich die Umstellung auf SE von früheren Releases unterscheidet, da sie kein umfangreiches Code-Upgrade und keine wesentlichen Änderungen beinhalte. Es würden keine neuen Lizenzschlüssel benötigt, keine Funktionen hinzugefügt oder entfernt, keine Installationsvoraussetzungen geändert und es gebe auch keine Änderungen am Active-Directory-Schema. (mb)

Microsoft Exchange Server SE allgemein verfügbar​ Weiterlesen »

HPE finalisiert Juniper-Übernahme​

Allgemein

Juniper wird im Zuge der Übernahme zwar mit Aruba verschmolzen, soll aber als Brand erhalten bleiben. bluestork / Shutterstock.com Fast 18 Monate nach der ersten Ankündigung hat HPE die Übernahme von Juniper Networks im Wert von 14 Milliarden Dollar offiziell abgeschlossen. Letzte Hürde waren die USA, wo das Justizministerium im Januar dieses Jahres Klage einreichte, um die Transaktion zu blockieren. Dieses Hindernis wurde am 27. Juni überwunden, wodurch der Weg für den Abschluss der Transaktion frei wurde. Nun beginnen die Arbeiten zur Integration von Juniper in HPE. Als Teil der Transaktion wird eine neue Geschäftseinheit unter der Leitung des ehemaligen Juniper-CEO Rami Rahim gegründet. HPE Networking wird die operativen Einheiten von HPE Aruba und HPE Juniper umfassen. Juniper und Aruba bleiben als Marke erhalten Es ist geplant, beide Marken beizubehalten, da das Unternehmen weiterhin einen Wert in ihnen sieht. Noch ist jedoch nicht ganz klar, wie genau sich das neue kombinierte Portfolio gestalten wird. „Wir stehen noch ganz am Anfang“, erklärte Rahim während einer Pressekonferenz zum Abschluss der Transaktion. Er fügte hinzu: „Aber ich kann Ihnen sagen: Mein Ziel als Leiter dieses fusionierten Netzwerkgeschäfts ist, das beste Netzwerkunternehmen überhaupt aufzubauen – eines, das auf Innovation basiert. Erster Schritt, um dies zu erreichen, ist, dass wir uns voll auf unsere Kunden und Partner konzentrieren.“ Fest steht indes, wie HPE auf Bedenken des US-Justizministeriums (Department of Justice; DOJ) reagiert. Die kartellrechtliche Überprüfung durch das DOJ führte zu zwei konkreten Auflagen, die sich direkt auf die technische Roadmap und die Wettbewerbsposition des fusionierten Unternehmens auswirken werden. Erstens muss HPE die KI-Betriebsalgorithmen von Junipers Mist AI über ein Auktionsverfahren an Wettbewerber lizenzieren. Dies betrifft die zentralen Machine-Learning-Modelle, die die prädiktiven Analysen von Mist antreiben. Die Lizenzauflage ist jedoch eng gefasst, um HPEs Wettbewerbsvorteile weitgehend zu erhalten. „Wir haben mit dem DOJ vereinbart, eine Lizenz für bestimmte Aspekte von Juniper Mist, nämlich nur den Teil der KI-Operationen, im Rahmen einer Auktion anzubieten“, erklärte Antonio Neri, CEO von HPE, während der Pressekonferenz. Diese Unterscheidung ist technisch bedeutsam: Wettbewerber erhalten Zugang zu den Algorithmen von Mist, um Anomalien zu erkennen und Ausfälle vorherzusagen. Nicht abgegeben werden jedoch die Algorithmen zu dem zugrundeliegenden Netzwerkbetriebssystem, den Hardware-Abstraktionsschichten oder den kundenspezifischen Datenmodellen, die diese Algorithmen in Produktionsumgebungen effektiv machen. HPE behält zudem: die Kontrolle über die Mechanismen zur Datenerfassung, die Pipelines zur Verarbeitung der Telemetrie und die Integrationspunkte mit der physischen Netzwerkinfrastruktur. „Das geistige Eigentum bleibt selbstverständlich bei uns, aber wir müssen in der Lage sein, das weiterhin zu unterstützen“, stellte Neri klar. „Aber noch einmal: Es betrifft ausschließlich den AI-Operations-Teil des Juniper-Mist-Stacks.“ Rahim wiederum betonte, dass der größte Wert des Mist-AI-Stacks in den tatsächlichen Daten liege. Er wies darauf hin, dass Juniper über mehr als zehn Jahre Erfahrung aus realen Implementierungen verfüge, was für andere äußerst schwer zu replizieren sei. Die zweite Auflage des US-Justizministeriums (DOJ) schreibt den Verkauf von HPEs Aruba-Instant-On-Portfolio vor, das sich an kleine Unternehmen mit Cloud-verwalteten Access Points und Switches richtet. Auf die Frage nach dem Verkauf versuchte Neri, die Auswirkungen herunterzuspielen. „Aruba Instant On ist ein noch sehr neues Geschäft, das wir in den letzten drei Jahren aufgebaut haben, und es ist vollständig unabhängig vom restlichen traditionellen HP-Aruba-Portfolio oder von Aruba Central“, erklärte Neri. Das Angebot richte sich speziell an das KMU-Segment, und zwar ganz konkret an das ‚K‘ in KMU: „Für uns ist es ein sehr kleines Geschäft“, konstatierte der Manager. KI für Netzwerke, Netzwerke für KI Ein Kernelement des integrierten Portfolios wird Künstliche Intelligenz (KI) sein. Rahim erklärte, dass die Strategie aus zwei Komponenten besteht: KI für Netzwerke und Netzwerke für KI. KI für Netzwerke konzentriert sich darauf, KI für den Betrieb und die Verwaltung von Netzwerken einzusetzen. Dies umfasst die Nutzung der prädiktiven Analytik von Mist, um Leistungsprobleme zu erkennen, bevor sie sich auf Anwendungen auswirken, Umgebungen automatisch zu optimieren und gezielte Problemlösungen für Netzwerkstörungen bereitzustellen. Die Integration wird diese Funktionen über drahtlose Netzwerke hinaus erweitern – auf kabelgebundene Infrastrukturen, Sicherheitsrichtlinien und domänenübergreifende Korrelationen mit Rechen- und Speichersystemen. „Wir werden über eine größere Reichweite und Flexibilität verfügen, weil wir nun mit der Stärke von HPE und Juniper mehr Anwendungsfälle mit mehr Deployment-Optionen abdecken können. Und wir werden eine bessere integrierte Sicherheit haben“, stellte Rahim in Aussicht. Netzwerke für KI bezieht sich auf die Infrastrukturanforderungen für KI-Workloads selbst. Dazu gehören: die für die GPU-zu-GPU-Kommunikation erforderlichen Fabrics mit hoher Bandbreite und geringer Latenz sowie die integrierten Kühl- und Stromverteilungssysteme, die moderne KI-Cluster erfordern. „Netzwerke für KI ist ebenfalls spannend. Hier bauen wir groß angelegte Rechenzentren, die ‚KI-Fabriken‘, die in der heutigen Umgebung unglaublich wichtig sind“, erklärte Rahim. „Gemeinsam werden wir schneller über alle Ebenen des Technologie-Stacks hinweg innovieren können – von Silizium über Systeme bis hin zu Software. Und wir werden eine Komplettlösung anbieten können.“ Open-Source-Engagement wird fortgesetzt Sowohl Juniper als auch HPE blicken auf eine lange Open-Source-Historie zurück, und das soll auch so bleiben. „Open Source war schon immer ein wichtiger Bestandteil von Junipers – und ich bin sicher, auch von HPEs – Innovationsstrategie“, stellte Rahim auf Nachfrage unserer Kollegen der Network World klar – und ergänzte: „Im Netzwerkbereich beispielsweise hat Open Source in Bereichen wie Sonic an Dynamik und Zugkraft innerhalb der Branche gewonnen. Aus diesem Grund hat Juniper beschlossen, in diesem Bereich innovativ zu sein, und ich bin sicher, das wird sich auch mit Blick auf das neue HPE-Networking-Geschäft fortsetzen.“ Das erweiterte Portfolio schafft laut Rahim neue Möglichkeiten für Open-Source-Beiträge. Der Manager erwartet, dass sich Junipers Beiträge über den Netzwerkbereich hinaus auf Rechen- und Speicherlösungen ausweiten werden. Auch HPE ist im Bereich Open-Source-Netzwerke kein Neuling. Das Unternehmen ist Gründungsmitglied und ein wichtiger Mitwirkender im Ultra Ethernet Consortium (UEC), das kürzlich seine Spezifikation 1.0 veröffentlicht hat. Kombiniertes Portfolio soll mehr Anwendungsfälle abdecken Auch wenn HPE keinen konkreten Zeitplan für die Integration vorgibt, betonten sowohl Rahim als auch Neri, dass das Unternehmen mit Bedacht agiere. Bestehende Investitionen sollen erhalten bleiben, gleichzeitig aber Migrationspfade angeboten werden. „Kein Kunde wird zurückgelassen. Verträge werden über die gesamte Produktlebensdauer hinweg eingehalten“, versprach Neri. Die strategische Herausforderung für die Zukunft bestehe darin, KI-, Cloud-Native- und Netzwerktechnologien miteinander zu integrieren. Zwar gebe es einige Überschneidungen im bestehenden Portfolio, doch Rahim argumentierte, dass die Technologien oft unterschiedliche architektonische Ansätze zur Lösung von Netzwerkproblemen verfolgen. (mb) 

HPE finalisiert Juniper-Übernahme​ Juniper wird im Zuge der Übernahme zwar mit Aruba verschmolzen, soll aber als Brand erhalten bleiben. bluestork / Shutterstock.com

Fast 18 Monate nach der ersten Ankündigung hat HPE die Übernahme von Juniper Networks im Wert von 14 Milliarden Dollar offiziell abgeschlossen. Letzte Hürde waren die USA, wo das Justizministerium im Januar dieses Jahres Klage einreichte, um die Transaktion zu blockieren. Dieses Hindernis wurde am 27. Juni überwunden, wodurch der Weg für den Abschluss der Transaktion frei wurde.

Nun beginnen die Arbeiten zur Integration von Juniper in HPE. Als Teil der Transaktion wird eine neue Geschäftseinheit unter der Leitung des ehemaligen Juniper-CEO Rami Rahim gegründet. HPE Networking wird die operativen Einheiten von HPE Aruba und HPE Juniper umfassen.

Juniper und Aruba bleiben als Marke erhalten

Es ist geplant, beide Marken beizubehalten, da das Unternehmen weiterhin einen Wert in ihnen sieht. Noch ist jedoch nicht ganz klar, wie genau sich das neue kombinierte Portfolio gestalten wird. „Wir stehen noch ganz am Anfang“, erklärte Rahim während einer Pressekonferenz zum Abschluss der Transaktion. Er fügte hinzu: „Aber ich kann Ihnen sagen: Mein Ziel als Leiter dieses fusionierten Netzwerkgeschäfts ist, das beste Netzwerkunternehmen überhaupt aufzubauen – eines, das auf Innovation basiert. Erster Schritt, um dies zu erreichen, ist, dass wir uns voll auf unsere Kunden und Partner konzentrieren.“

Fest steht indes, wie HPE auf Bedenken des US-Justizministeriums (Department of Justice; DOJ) reagiert. Die kartellrechtliche Überprüfung durch das DOJ führte zu zwei konkreten Auflagen, die sich direkt auf die technische Roadmap und die Wettbewerbsposition des fusionierten Unternehmens auswirken werden.

Erstens muss HPE die KI-Betriebsalgorithmen von Junipers Mist AI über ein Auktionsverfahren an Wettbewerber lizenzieren. Dies betrifft die zentralen Machine-Learning-Modelle, die die prädiktiven Analysen von Mist antreiben. Die Lizenzauflage ist jedoch eng gefasst, um HPEs Wettbewerbsvorteile weitgehend zu erhalten.

„Wir haben mit dem DOJ vereinbart, eine Lizenz für bestimmte Aspekte von Juniper Mist, nämlich nur den Teil der KI-Operationen, im Rahmen einer Auktion anzubieten“, erklärte Antonio Neri, CEO von HPE, während der Pressekonferenz.

Diese Unterscheidung ist technisch bedeutsam: Wettbewerber erhalten Zugang zu den Algorithmen von Mist, um Anomalien zu erkennen und Ausfälle vorherzusagen. Nicht abgegeben werden jedoch die Algorithmen zu dem zugrundeliegenden Netzwerkbetriebssystem, den Hardware-Abstraktionsschichten oder den kundenspezifischen Datenmodellen, die diese Algorithmen in Produktionsumgebungen effektiv machen.

HPE behält zudem:

die Kontrolle über die Mechanismen zur Datenerfassung,

die Pipelines zur Verarbeitung der Telemetrie und

die Integrationspunkte mit der physischen Netzwerkinfrastruktur.

„Das geistige Eigentum bleibt selbstverständlich bei uns, aber wir müssen in der Lage sein, das weiterhin zu unterstützen“, stellte Neri klar. „Aber noch einmal: Es betrifft ausschließlich den AI-Operations-Teil des Juniper-Mist-Stacks.“

Rahim wiederum betonte, dass der größte Wert des Mist-AI-Stacks in den tatsächlichen Daten liege. Er wies darauf hin, dass Juniper über mehr als zehn Jahre Erfahrung aus realen Implementierungen verfüge, was für andere äußerst schwer zu replizieren sei.

Die zweite Auflage des US-Justizministeriums (DOJ) schreibt den Verkauf von HPEs Aruba-Instant-On-Portfolio vor, das sich an kleine Unternehmen mit Cloud-verwalteten Access Points und Switches richtet. Auf die Frage nach dem Verkauf versuchte Neri, die Auswirkungen herunterzuspielen. „Aruba Instant On ist ein noch sehr neues Geschäft, das wir in den letzten drei Jahren aufgebaut haben, und es ist vollständig unabhängig vom restlichen traditionellen HP-Aruba-Portfolio oder von Aruba Central“, erklärte Neri. Das Angebot richte sich speziell an das KMU-Segment, und zwar ganz konkret an das ‚K‘ in KMU: „Für uns ist es ein sehr kleines Geschäft“, konstatierte der Manager.

KI für Netzwerke, Netzwerke für KI

Ein Kernelement des integrierten Portfolios wird Künstliche Intelligenz (KI) sein. Rahim erklärte, dass die Strategie aus zwei Komponenten besteht: KI für Netzwerke und Netzwerke für KI.

KI für Netzwerke konzentriert sich darauf, KI für den Betrieb und die Verwaltung von Netzwerken einzusetzen. Dies umfasst die Nutzung der prädiktiven Analytik von Mist, um

Leistungsprobleme zu erkennen, bevor sie sich auf Anwendungen auswirken,

Umgebungen automatisch zu optimieren und

gezielte Problemlösungen für Netzwerkstörungen bereitzustellen.

Die Integration wird diese Funktionen über drahtlose Netzwerke hinaus erweitern – auf kabelgebundene Infrastrukturen, Sicherheitsrichtlinien und domänenübergreifende Korrelationen mit Rechen- und Speichersystemen.

„Wir werden über eine größere Reichweite und Flexibilität verfügen, weil wir nun mit der Stärke von HPE und Juniper mehr Anwendungsfälle mit mehr Deployment-Optionen abdecken können. Und wir werden eine bessere integrierte Sicherheit haben“, stellte Rahim in Aussicht.

Netzwerke für KI bezieht sich auf die Infrastrukturanforderungen für KI-Workloads selbst. Dazu gehören:

die für die GPU-zu-GPU-Kommunikation erforderlichen Fabrics mit hoher Bandbreite und geringer Latenz sowie

die integrierten Kühl- und Stromverteilungssysteme, die moderne KI-Cluster erfordern.

„Netzwerke für KI ist ebenfalls spannend. Hier bauen wir groß angelegte Rechenzentren, die ‚KI-Fabriken‘, die in der heutigen Umgebung unglaublich wichtig sind“, erklärte Rahim. „Gemeinsam werden wir schneller über alle Ebenen des Technologie-Stacks hinweg innovieren können – von Silizium über Systeme bis hin zu Software. Und wir werden eine Komplettlösung anbieten können.“

Open-Source-Engagement wird fortgesetzt

Sowohl Juniper als auch HPE blicken auf eine lange Open-Source-Historie zurück, und das soll auch so bleiben. „Open Source war schon immer ein wichtiger Bestandteil von Junipers – und ich bin sicher, auch von HPEs – Innovationsstrategie“, stellte Rahim auf Nachfrage unserer Kollegen der Network World klar – und ergänzte: „Im Netzwerkbereich beispielsweise hat Open Source in Bereichen wie Sonic an Dynamik und Zugkraft innerhalb der Branche gewonnen. Aus diesem Grund hat Juniper beschlossen, in diesem Bereich innovativ zu sein, und ich bin sicher, das wird sich auch mit Blick auf das neue HPE-Networking-Geschäft fortsetzen.“

Das erweiterte Portfolio schafft laut Rahim neue Möglichkeiten für Open-Source-Beiträge. Der Manager erwartet, dass sich Junipers Beiträge über den Netzwerkbereich hinaus auf Rechen- und Speicherlösungen ausweiten werden.

Auch HPE ist im Bereich Open-Source-Netzwerke kein Neuling. Das Unternehmen ist Gründungsmitglied und ein wichtiger Mitwirkender im Ultra Ethernet Consortium (UEC), das kürzlich seine Spezifikation 1.0 veröffentlicht hat.

Kombiniertes Portfolio soll mehr Anwendungsfälle abdecken

Auch wenn HPE keinen konkreten Zeitplan für die Integration vorgibt, betonten sowohl Rahim als auch Neri, dass das Unternehmen mit Bedacht agiere. Bestehende Investitionen sollen erhalten bleiben, gleichzeitig aber Migrationspfade angeboten werden. „Kein Kunde wird zurückgelassen. Verträge werden über die gesamte Produktlebensdauer hinweg eingehalten“, versprach Neri. Die strategische Herausforderung für die Zukunft bestehe darin, KI-, Cloud-Native- und Netzwerktechnologien miteinander zu integrieren. Zwar gebe es einige Überschneidungen im bestehenden Portfolio, doch Rahim argumentierte, dass die Technologien oft unterschiedliche architektonische Ansätze zur Lösung von Netzwerkproblemen verfolgen. (mb)

HPE finalisiert Juniper-Übernahme​ Weiterlesen »

Die besten KI-Apps, um Zeit zu sparen​

Allgemein

Diese KI-basierten Productivity-App-Perlen helfen wirklich gegen Zeitdruck, Überstunden und repetitive Tasks. Foto: N Universe | shutterstock.com Unter den Massen von KI-Tools und -Anwendungen, die aktuell als Mobile-, Desktop- oder Web-App zur Wahl stehen, gibt es nicht wenige, die sich in erster Linie dadurch auszeichnen, dass sie: Output von fragwürdiger Genauigkeit liefern, dubiose Texte erzeugen, oder Bilder generieren, die zum Klick auf den X-Button verleiten. KI-Tools dieser Art sind vor allem darauf ausgerichtet, vom anhaltenden Generative-AI (GenAI)-Hype zu profitieren – und trüben leider auch den Blick für die echten Anwendungsperlen im Bereich generative KI. Wie etwa die folgenden sieben GenAI-Apps, die Ihre Produktivität im Arbeitsalltag drastisch steigern und damit erhebliche Zeitgewinne realisieren können. Probieren Sie’s aus! 1. ChatPDF Sie kennen solche Situationen: Jemand schickt Ihnen einen schlanken 300-Seiter im .pdf-Format und bereits nach Seite Zwei stellt sich heraus, dass sich dieser in etwa so faszinierend liest wie eine Steuererklärung. In Zukunft dürfen Sie sich bei solchen und ähnlichen Gelegenheiten auf ChatPDF verlassen und dabei richtig Zeit einsparen. Dieses rein webbasierte Tool – nicht zu verwechseln mit gleichnamigen Mobile Apps – tut exakt das, was es verspricht: Sie befähigen, mit .pdf-Dateien zu chatten. Darüber hinaus können Sie über das Webportal auch Office-Dokumente im .doc- oder .docx-Format hochladen, um anschließend dank KI-Unterstützung möglichst schnell und einfach Informationen über den Inhalt zu erfragen. Dabei kann es sich konkret um einfache Zusammenfassungen oder spezifische, inhaltsbezogene Fragen handeln. Sie können bei Bedarf sogar mehrere Dokumente einspeisen und diese gemeinschaftlich abfragen. Die Verantwortlichen von ChatPDF versprechen dabei, sämtliche Daten sicher zu speichern, auf Anfrage zu löschen und keinesfalls an Dritte weiterzugeben. Dennoch sollten sensible unternehmensbezogene Dokumente eher nicht diesen Weg nehmen. ChatPDF verarbeitet davon abgesehen Dokumente in (fast) jeder Sprache – und unterstützt diese auch mit Blick auf die KI-Chat-Funktion. Zwei Dokumente dürfen Sie täglich kostenlos über den Service hochladen und abfragen – wobei die Dateien maximal 120 Seiten lang oder 10 MB groß sein dürfen. Die GenAI-Webanwendung dürfte also in ihrer kostenlosen Variante bereits für die meisten Gelegenheits-User ausreichend sein. Sollten Sie Bedarf haben, der darüber hinausgeht, steht Ihnen die Bezahlversion ChatPDF Plus ab rund 20 Euro pro Monat (oder 140 Euro pro Jahr) zur Verfügung. 2. Beautiful.ai Präsentationen (richtig) zu erstellen, kann zum Pain geraten. Es sei denn, Sie lassen Generative AI den wesentlichen Teil des Gestaltungsprozesses übernehmen. Das funktioniert mit der KI-basierten Präsentationssoftware Beautiful.ai. Das (möglicherweise) größte Defizit dieses ebenfalls webbasierten KI-Tools ist, dass es zwar auch deutschsprachige Prompts verarbeitet, zur Zeit aber nur englischsprachige Präsentationen erstellt. Das tut es dafür aber richtig gut, wie bereits die Mini-Demo auf der offiziellen Webseite zeigt. Die KI-App unterstützt Sie nicht nur beim Design der einzelnen Folien, sondern auch bei der Formatierung von Inhalten und dabei, Brand Guidelines einzuhalten – sowie bei allen anderen Aspekten, die wichtig sind, damit Ihre Präsentation einen möglichst professionellen Eindruck hinterlässt. Dieses Slide-Set hat Beautiful.ai in wenigen Sekunden zum Thema Arbeit der Zukunft erstellt. Foto: JR Raphael | IDG Die generativen KI-Funktionen des Web-Services umfassen auch eine Funktion, um Inhalte zu generieren. Sie können die KI beispielsweise damit beauftragen, eine ganz bestimmte Art von Präsentation zu einem bestimmten Thema zu erstellen. Dazu zieht die Anwendung öffentlich verfügbare Daten heran. Das Ergebnis bedarf zwar sehr wahrscheinlich einer gründlichen Überprüfung, Überarbeitung und Re-Formulierungskur. Dennoch kann es Ihnen eine nützliche erste Grundlage liefern, auf der sich aufbauen und damit potenziell eine Menge Zeit sparen lässt. Beautiful.ai lässt sich mit PowerPoint, Slack, Webex und Dropbox integrieren. Leider gibt’s den KI-Präsentations-Zauber nicht umsonst. Ein Abonnement für Beautiful.ai kostet für Einzelpersonen 12 Dollar pro Monat. Im Team mit der GenAI-App zu arbeiten, schlägt mit mindestens 40 Dollar pro Nutzer und Monat zu Buche. Einen individuellen Enterprise-Preisplan gibt’s auf Anfrage. 3. Toki (ehemals Dola) Allen technologiegetriebenen Productivity-Fortschritten zum Trotz bleibt ein Task lästig: mit einem Kalender zu interagieren. Dieser Aufgabe verschreibt sich der KI-Kalenderassistent Toki, der zuvor unter dem Namen Dola bekannt war. Dabei handelt es sich um eine Chatbot-Lösung, die sich in die Messaging-Plattformen WhatsApp, Telegram, Line sowie iMessage einbinden lässt und sich anschließend zum Beispiel mit den Kalender-Apps von Google und Apple verbindet. Da dieses KI-Tool das Netzwerkprotokoll CalDAV nutzt, um auf die Kalenderdaten zuzugreifen, müssen Sie im Fall von Outlook leider den Umweg über ein Drittanbieter-Plugin nehmen. Ist die Integration erledigt, steht Toki über integrierte Schaltflächen in den Messaging-Apps zur Verfügung, um Termine zu erstellen, zu verschieben – oder direkt Fragen zu freien Terminslots zu stellen. Darüber hinaus kann dieses Tool auch genutzt werden, um Termine mit Infos anzureichern – beispielsweise Vorschläge für beliebte Restaurants in einer bestimmten Gegend oder auch Ideen für den neuen Firmenslogan, der beim Meeting gefunden werden soll. So sieht die Integration von Dola mit WhatsApp aus. Foto: JR Raphael | IDG Das Beste an Toki: Der Service ist in so gut wie allen Sprachen verfügbar und – zumindest bis auf Weiteres – komplett kostenlos nutzbar. Wohl aber nicht für immer, denn laut den Verantwortlichen steht für die Zukunft eine Premium-Version der GenAI-App auf dem Plan. 4. Fathom Dass virtuelle Meetings richtig schlimm werden können, wissen wir wohl alle. Und auch wenn selbst Generative AI Sie (noch) nicht davor bewahren kann, an digitalen Foltersessions teilzunehmen: Es gibt eine KI-App, die das erträglicher macht – Fathom. Bei dieser Anwendung handelt es sich um einen KI-Assistenten für Videokonferenzen in Form klassischer Software für Windows– oder Mac-Systeme, die wahlweise mit Zoom, Microsoft Teams oder Google Meet integriert wird. Nach der Installation läuft Fathom unauffällig im Hintergrund und transkribiert (über eine Kalender-Integration) entweder automatisch oder auf Knopfdruck sämtliche Videoanrufe. Notizen machen gehört damit in beiden Fällen der Vergangenheit an. Die Zusammenfassungen oder Informationen stehen direkt zur Verfügung und lassen sich gezielt durchsuchen, weiterverarbeiten oder auch in anderen Produktivitäts- und Collaboration-Tools wie Slack nutzen. Sämtliche Daten werden dabei laut Fathom während der Übertragung und im Ruhezustand verschlüsselt. Außerdem versprechen die Verantwortlichen ausdrücklich, keine KI-Modelle auf Kundendaten zu trainieren. Sämtliche Details zu Security- und Compliance-Themen sind – vorbildlicherweise – über ein dediziertes Trust Center abrufbar. Fathom realisiert ein umfassendes und sehr fokussiertes Personal-AI-Assistant-Erlebnis. Foto: JR Raphael | IDG Die KI-Software unterstützt diverse verschiedene Sprachen, darunter Englisch, Französisch, Spanisch, Italienisch und Deutsch. Noch dazu ist Fathom komplett kostenlos nutzbar – ohne Einschränkungen hinsichtlich der Anzahl oder Länge der aufgezeichneten Videokonferenzen. Erst fortschrittlichere KI-Funktionen lässt sich das Team hinter der GenAI-Anwendung bezahlen. Die Fathom Team Edition bietet weitergehende, fortschrittliche KI-Funktionen – beispielsweise automatisierte Keyword Alerts, Highlight-Zusammenstellungen oder Team-Management-Funktionen. Die kostenpflichtige Variante ermöglicht darüber hinaus die Integration in Enterprise-Systeme wie HubSpot, Salesforce oder Zapier. Die Preise beginnen bei 19 Dollar pro Monat und User. Eine 14-tägige Testversion steht kostenlos zur Verfügung. 5. Whisper Web Falls Sie bereits Audiodateien besitzen, die beispielsweise im Rahmen von Meetings oder Telefongesprächen entstanden sind und jetzt in Text umgewandelt werden sollen, ist Whisper Web die richtige Adresse – zumindest, wenn es sich um englischsprachige Audioaufnahmen handelt. Diese quelloffene Webanwendung basiert auf der Entwicklungsarbeit von OpenAI und bietet Echzeit-Transkriptionen direkt im Browser. Das Large Language Model, das dazu zum Einsatz kommt, wird über die App heruntergeladen und lokal ausgeführt – die Daten, die Sie der KI übermitteln, verlassen also das Device nicht. Whisper Web kann Audioinhalte entweder direkt über Ihr Mikrofon erfassen oder aus entsprechenden Audiodateien extrahieren. Laut den Entwicklern ist die KI-App auf mehrsprachige Daten trainiert und unterstützt auch die Transkription anderer Sprachen (zu Englisch). Der Test mit einem deutschsprachigen Audio-File brachte allerdings nicht mehr als undefiniertes Kauderwelsch hervor. Dafür ist das Tool Open Source und komplett kostenlos nutzbar – Sie benötigen dazu auch kein dediziertes Konto. 6. Summarize.tech Wenn Youtube-Videos ab und an auf Ihrer To-Do-Liste stehen, Sie aber selten Zeit und noch seltener die nötige Geduld haben, sich komplette Keynotes, TED-Vorträge oder Präsentationen zu Gemüte zu führen, gibt es auch dafür die richtige KI-App. Nämlich die Webanwendung Summarize.tech. Auch bei diesem Tool gilt: Sie sollten des Englischen mächtig sein. Zwar versteht die Webanwendung relativ gut Deutsch – Output generiert sie allerdings nur auf Englisch. Insofern das kein Hindernis darstellt, dürfen Sie die GenAI-Anwendung mit nahezu jedem beliebigen Youtube-Video füttern. Nahezu deshalb, weil die Videos zwingend mit Untertiteln ausgestattet sein müssen, anderenfalls streikt die KI. Sind die Voraussetzungen erfüllt, liefert Summarize.tech in Sekunden eine größtenteils akkurate Abschrift des Videos. Dieser Dienst finanziert sich über Amazon-Affiliate-Links und ist insofern kostenlos nutzbar – allerdings nicht unbegrenzt. Potenzielle Kunden mit Power-User-Ambitionen können ab 10 Dollar pro Monat bis zu 200 Videos transkribieren. 7. AudioPen Wenn Sie nicht ohne Ihr Notizbuch (oder eine entsprechende App) auskommen, könnte das KI-Tool AudioPen sich zu Ihrer neuen Lieblings-App mausern. Die Software erfasst auf Knopfdruck Sprachnotizen jeglicher Art und Sprache und erstellt daraus im Handumdrehen eine schriftliche Zusammenfassung. Und zwar in “schön”: Füllwörter oder Wiederholungen werden automatisiert eliminiert. Jede Aufnahme wandert direkt in das digitale Notizbuch und lässt sich anschließend durchsuchen, teilen oder auch in eine andere Sprache übersetzen. Auch bei AudioPen handelt es sich um eine vollständig webbasierte Applikation, die sich übrigens optional auch in Form einer Progressive Web App installieren lässt. AudioPen verwandelt selbst die wiederholungsintensivsten Selbstgespräche in prägnante Notizen. Foto: JR Raphael | IDG Das KI-Tool für Sprachnotizen ist kostenlos nutzbar, solange Sie sich auf Aufnahmen mit bis zu drei Minuten Länge und maximal zehn Notizen beschränken können. Für Ansprüche, die darüber hinausgehen, steht eine “Prime”-Version der App zur Verfügung, die mindestens 99 Dollar pro Jahr kostet – dafür aber uneingeschränkt nutzbar ist und eine Reihe zusätzlicher Funktionen bietet. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten KI-Apps, um Zeit zu sparen​ Diese KI-basierten Productivity-App-Perlen helfen wirklich gegen Zeitdruck, Überstunden und repetitive Tasks.
Foto: N Universe | shutterstock.com

Unter den Massen von KI-Tools und -Anwendungen, die aktuell als Mobile-, Desktop- oder Web-App zur Wahl stehen, gibt es nicht wenige, die sich in erster Linie dadurch auszeichnen, dass sie:

Output von fragwürdiger Genauigkeit liefern,

dubiose Texte erzeugen, oder

Bilder generieren, die zum Klick auf den X-Button verleiten.

KI-Tools dieser Art sind vor allem darauf ausgerichtet, vom anhaltenden Generative-AI (GenAI)-Hype zu profitieren – und trüben leider auch den Blick für die echten Anwendungsperlen im Bereich generative KI. Wie etwa die folgenden sieben GenAI-Apps, die Ihre Produktivität im Arbeitsalltag drastisch steigern und damit erhebliche Zeitgewinne realisieren können. Probieren Sie’s aus!

1. ChatPDF

Sie kennen solche Situationen: Jemand schickt Ihnen einen schlanken 300-Seiter im .pdf-Format und bereits nach Seite Zwei stellt sich heraus, dass sich dieser in etwa so faszinierend liest wie eine Steuererklärung. In Zukunft dürfen Sie sich bei solchen und ähnlichen Gelegenheiten auf ChatPDF verlassen und dabei richtig Zeit einsparen.

Dieses rein webbasierte Tool – nicht zu verwechseln mit gleichnamigen Mobile Apps – tut exakt das, was es verspricht: Sie befähigen, mit .pdf-Dateien zu chatten. Darüber hinaus können Sie über das Webportal auch Office-Dokumente im .doc- oder .docx-Format hochladen, um anschließend dank KI-Unterstützung möglichst schnell und einfach Informationen über den Inhalt zu erfragen. Dabei kann es sich konkret um einfache Zusammenfassungen oder spezifische, inhaltsbezogene Fragen handeln. Sie können bei Bedarf sogar mehrere Dokumente einspeisen und diese gemeinschaftlich abfragen. Die Verantwortlichen von ChatPDF versprechen dabei, sämtliche Daten sicher zu speichern, auf Anfrage zu löschen und keinesfalls an Dritte weiterzugeben. Dennoch sollten sensible unternehmensbezogene Dokumente eher nicht diesen Weg nehmen.

ChatPDF verarbeitet davon abgesehen Dokumente in (fast) jeder Sprache – und unterstützt diese auch mit Blick auf die KI-Chat-Funktion. Zwei Dokumente dürfen Sie täglich kostenlos über den Service hochladen und abfragen – wobei die Dateien maximal 120 Seiten lang oder 10 MB groß sein dürfen. Die GenAI-Webanwendung dürfte also in ihrer kostenlosen Variante bereits für die meisten Gelegenheits-User ausreichend sein. Sollten Sie Bedarf haben, der darüber hinausgeht, steht Ihnen die Bezahlversion ChatPDF Plus ab rund 20 Euro pro Monat (oder 140 Euro pro Jahr) zur Verfügung.

2. Beautiful.ai

Präsentationen (richtig) zu erstellen, kann zum Pain geraten. Es sei denn, Sie lassen Generative AI den wesentlichen Teil des Gestaltungsprozesses übernehmen. Das funktioniert mit der KI-basierten Präsentationssoftware Beautiful.ai. Das (möglicherweise) größte Defizit dieses ebenfalls webbasierten KI-Tools ist, dass es zwar auch deutschsprachige Prompts verarbeitet, zur Zeit aber nur englischsprachige Präsentationen erstellt. Das tut es dafür aber richtig gut, wie bereits die Mini-Demo auf der offiziellen Webseite zeigt. Die KI-App unterstützt Sie nicht nur beim Design der einzelnen Folien, sondern auch bei der Formatierung von Inhalten und dabei, Brand Guidelines einzuhalten – sowie bei allen anderen Aspekten, die wichtig sind, damit Ihre Präsentation einen möglichst professionellen Eindruck hinterlässt.

Dieses Slide-Set hat Beautiful.ai in wenigen Sekunden zum Thema Arbeit der Zukunft erstellt.
Foto: JR Raphael | IDG

Die generativen KI-Funktionen des Web-Services umfassen auch eine Funktion, um Inhalte zu generieren. Sie können die KI beispielsweise damit beauftragen, eine ganz bestimmte Art von Präsentation zu einem bestimmten Thema zu erstellen. Dazu zieht die Anwendung öffentlich verfügbare Daten heran. Das Ergebnis bedarf zwar sehr wahrscheinlich einer gründlichen Überprüfung, Überarbeitung und Re-Formulierungskur. Dennoch kann es Ihnen eine nützliche erste Grundlage liefern, auf der sich aufbauen und damit potenziell eine Menge Zeit sparen lässt. Beautiful.ai lässt sich mit PowerPoint, Slack, Webex und Dropbox integrieren.

Leider gibt’s den KI-Präsentations-Zauber nicht umsonst. Ein Abonnement für Beautiful.ai kostet für Einzelpersonen 12 Dollar pro Monat. Im Team mit der GenAI-App zu arbeiten, schlägt mit mindestens 40 Dollar pro Nutzer und Monat zu Buche. Einen individuellen Enterprise-Preisplan gibt’s auf Anfrage.

3. Toki (ehemals Dola)

Allen technologiegetriebenen Productivity-Fortschritten zum Trotz bleibt ein Task lästig: mit einem Kalender zu interagieren. Dieser Aufgabe verschreibt sich der KI-Kalenderassistent Toki, der zuvor unter dem Namen Dola bekannt war. Dabei handelt es sich um eine Chatbot-Lösung, die sich in die Messaging-Plattformen WhatsApp, Telegram, Line sowie iMessage einbinden lässt und sich anschließend zum Beispiel mit den Kalender-Apps von Google und Apple verbindet. Da dieses KI-Tool das Netzwerkprotokoll CalDAV nutzt, um auf die Kalenderdaten zuzugreifen, müssen Sie im Fall von Outlook leider den Umweg über ein Drittanbieter-Plugin nehmen.

Ist die Integration erledigt, steht Toki über integrierte Schaltflächen in den Messaging-Apps zur Verfügung, um Termine zu erstellen, zu verschieben – oder direkt Fragen zu freien Terminslots zu stellen. Darüber hinaus kann dieses Tool auch genutzt werden, um Termine mit Infos anzureichern – beispielsweise Vorschläge für beliebte Restaurants in einer bestimmten Gegend oder auch Ideen für den neuen Firmenslogan, der beim Meeting gefunden werden soll.

So sieht die Integration von Dola mit WhatsApp aus.
Foto: JR Raphael | IDG

Das Beste an Toki: Der Service ist in so gut wie allen Sprachen verfügbar und – zumindest bis auf Weiteres – komplett kostenlos nutzbar. Wohl aber nicht für immer, denn laut den Verantwortlichen steht für die Zukunft eine Premium-Version der GenAI-App auf dem Plan.

4. Fathom

Dass virtuelle Meetings richtig schlimm werden können, wissen wir wohl alle. Und auch wenn selbst Generative AI Sie (noch) nicht davor bewahren kann, an digitalen Foltersessions teilzunehmen: Es gibt eine KI-App, die das erträglicher macht – Fathom.

Bei dieser Anwendung handelt es sich um einen KI-Assistenten für Videokonferenzen in Form klassischer Software für Windows– oder Mac-Systeme, die wahlweise mit Zoom, Microsoft Teams oder Google Meet integriert wird. Nach der Installation läuft Fathom unauffällig im Hintergrund und transkribiert (über eine Kalender-Integration) entweder automatisch oder auf Knopfdruck sämtliche Videoanrufe. Notizen machen gehört damit in beiden Fällen der Vergangenheit an. Die Zusammenfassungen oder Informationen stehen direkt zur Verfügung und lassen sich gezielt durchsuchen, weiterverarbeiten oder auch in anderen Produktivitäts- und Collaboration-Tools wie Slack nutzen.

Sämtliche Daten werden dabei laut Fathom während der Übertragung und im Ruhezustand verschlüsselt. Außerdem versprechen die Verantwortlichen ausdrücklich, keine KI-Modelle auf Kundendaten zu trainieren. Sämtliche Details zu Security- und Compliance-Themen sind – vorbildlicherweise – über ein dediziertes Trust Center abrufbar.

Fathom realisiert ein umfassendes und sehr fokussiertes Personal-AI-Assistant-Erlebnis.
Foto: JR Raphael | IDG

Die KI-Software unterstützt diverse verschiedene Sprachen, darunter Englisch, Französisch, Spanisch, Italienisch und Deutsch. Noch dazu ist Fathom komplett kostenlos nutzbar – ohne Einschränkungen hinsichtlich der Anzahl oder Länge der aufgezeichneten Videokonferenzen. Erst fortschrittlichere KI-Funktionen lässt sich das Team hinter der GenAI-Anwendung bezahlen.

Die Fathom Team Edition bietet weitergehende, fortschrittliche KI-Funktionen – beispielsweise automatisierte Keyword Alerts, Highlight-Zusammenstellungen oder Team-Management-Funktionen. Die kostenpflichtige Variante ermöglicht darüber hinaus die Integration in Enterprise-Systeme wie HubSpot, Salesforce oder Zapier. Die Preise beginnen bei 19 Dollar pro Monat und User. Eine 14-tägige Testversion steht kostenlos zur Verfügung.

5. Whisper Web

Falls Sie bereits Audiodateien besitzen, die beispielsweise im Rahmen von Meetings oder Telefongesprächen entstanden sind und jetzt in Text umgewandelt werden sollen, ist Whisper Web die richtige Adresse – zumindest, wenn es sich um englischsprachige Audioaufnahmen handelt. Diese quelloffene Webanwendung basiert auf der Entwicklungsarbeit von OpenAI und bietet Echzeit-Transkriptionen direkt im Browser. Das Large Language Model, das dazu zum Einsatz kommt, wird über die App heruntergeladen und lokal ausgeführt – die Daten, die Sie der KI übermitteln, verlassen also das Device nicht.

Whisper Web kann Audioinhalte entweder direkt über Ihr Mikrofon erfassen oder aus entsprechenden Audiodateien extrahieren. Laut den Entwicklern ist die KI-App auf mehrsprachige Daten trainiert und unterstützt auch die Transkription anderer Sprachen (zu Englisch). Der Test mit einem deutschsprachigen Audio-File brachte allerdings nicht mehr als undefiniertes Kauderwelsch hervor. Dafür ist das Tool Open Source und komplett kostenlos nutzbar – Sie benötigen dazu auch kein dediziertes Konto.

6. Summarize.tech

Wenn Youtube-Videos ab und an auf Ihrer To-Do-Liste stehen, Sie aber selten Zeit und noch seltener die nötige Geduld haben, sich komplette Keynotes, TED-Vorträge oder Präsentationen zu Gemüte zu führen, gibt es auch dafür die richtige KI-App. Nämlich die Webanwendung Summarize.tech. Auch bei diesem Tool gilt: Sie sollten des Englischen mächtig sein. Zwar versteht die Webanwendung relativ gut Deutsch – Output generiert sie allerdings nur auf Englisch.

Insofern das kein Hindernis darstellt, dürfen Sie die GenAI-Anwendung mit nahezu jedem beliebigen Youtube-Video füttern. Nahezu deshalb, weil die Videos zwingend mit Untertiteln ausgestattet sein müssen, anderenfalls streikt die KI. Sind die Voraussetzungen erfüllt, liefert Summarize.tech in Sekunden eine größtenteils akkurate Abschrift des Videos.

Dieser Dienst finanziert sich über Amazon-Affiliate-Links und ist insofern kostenlos nutzbar – allerdings nicht unbegrenzt. Potenzielle Kunden mit Power-User-Ambitionen können ab 10 Dollar pro Monat bis zu 200 Videos transkribieren.

7. AudioPen

Wenn Sie nicht ohne Ihr Notizbuch (oder eine entsprechende App) auskommen, könnte das KI-Tool AudioPen sich zu Ihrer neuen Lieblings-App mausern. Die Software erfasst auf Knopfdruck Sprachnotizen jeglicher Art und Sprache und erstellt daraus im Handumdrehen eine schriftliche Zusammenfassung. Und zwar in “schön”: Füllwörter oder Wiederholungen werden automatisiert eliminiert. Jede Aufnahme wandert direkt in das digitale Notizbuch und lässt sich anschließend durchsuchen, teilen oder auch in eine andere Sprache übersetzen. Auch bei AudioPen handelt es sich um eine vollständig webbasierte Applikation, die sich übrigens optional auch in Form einer Progressive Web App installieren lässt.

AudioPen verwandelt selbst die wiederholungsintensivsten Selbstgespräche in prägnante Notizen.
Foto: JR Raphael | IDG

Das KI-Tool für Sprachnotizen ist kostenlos nutzbar, solange Sie sich auf Aufnahmen mit bis zu drei Minuten Länge und maximal zehn Notizen beschränken können. Für Ansprüche, die darüber hinausgehen, steht eine “Prime”-Version der App zur Verfügung, die mindestens 99 Dollar pro Jahr kostet – dafür aber uneingeschränkt nutzbar ist und eine Reihe zusätzlicher Funktionen bietet.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten KI-Apps, um Zeit zu sparen​ Weiterlesen »

Gericht verpflichtet Broadcom zur Unterstützung bei VMware-Migration​

Allgemein

Das Gerichtsurteil in den Niederlanden gegen VMware/Broadcom könnte schwerwiegende Folgen haben.Yasonya / Shutterstock VMware und die Muttergesellschaft Broadcom müssen laut einem niederländischen Gerichtsurteil dem Ministerium für Infrastruktur und Wasserwirtschaft (Rijkswaterstaat; RWS) weiterhin Unterstützung leisten, während die Behörde in den nächsten zwei Jahren von VMware-Produkten migriert. Bei Zuwiderhandlung Millionenstrafe Rijkswaterstaat (RWS) sah sich mit einer Kostensteigerung von 85 Prozent konfrontiert, nachdem Broadcom auf ein neues Abo-Lizenzmodell umgestellt hatte. Die jährlichen Ausgaben wären von 2,1 Millionen Euro auf fast vier Millionen Euro gestiegen – ein Kostenanstieg, den die Behörde als untragbar erachtete. Die Behörde ist ein langjähriger Kunde von VMware und hat über viele Jahre hinweg Millionen in unbefristete Lizenzen für Produkte wie vSphere, NSX, vSAN, vCenter Server, Aria Automation/Operations und Site Recovery Manager investiert, um kritische niederländische Infrastrukturen wie Tunnel, Schleusen und Brücken zu verwalten. Da der dreijährige Supportvertrag im Juli 2024 auslaufen sollte, beantragte die Behörde im Frühjahr 2024 über ihren Reseller eine Verlängerung. Der Reseller gab jedoch an, unter Broadcoms neuem Abonnementmodell kein geeignetes Angebot unterbreiten zu können. Broadcom bot zunächst Verlängerungen bis September und November 2024 an, dann schließlich bis zum 23. Juli 2025 – verweigerte jedoch jegliche Unterstützung über dieses Datum hinaus sowie die Bereitstellung von Quellcode für eine unabhängige Wartung. Aus Sicht des zuständigen Richters am Bezirksgericht Den Haag war dies allerdings nicht zulässig. Er entschied, dass „Broadcom seine Sorgfaltspflicht verletzt hat“, indem es keine angemessene Ausstiegsunterstützung für Systeme zur Verwaltung wichtige nationale Infrastrukturen bereitstellt. Gemäß dem Gerichtsbeschluss müssen VMware und Broadcom bis zu zwei Jahre lang Ausstiegsunterstützung leisten, einschließlich Wartungs-Updates, Bug Fixes und technischem Support. Bei Nichteinhaltung drohen Strafzahlungen in Höhe von 250.000 Euro täglich – bis zu einem Maximum von 25 Millionen Euro. Zwangslizenzierung im Kreuzfeuer Das Urteil ist Ausdruck der zunehmenden rechtlichen Gegenwehr gegen die aggressive Lizenzierungsstrategie von Broadcom seit der 69 Milliarden Dollar schweren Übernahme von VMware Ende 2023. So hat der TK-Riese AT&T eine ähnliche Klage wegen Änderungen des Support-Vertrags eingereicht, während die EU-Kartellbehörden die Praktiken von Broadcom aufgrund von Beschwerden europäischer Unternehmensverbände untersuchen. „Das niederländische Urteil ist eine formelle Rüge dafür, dass die Monetarisierung von Unternehmenssoftware von der Betriebskontinuität abgekoppelt wurde“, erklärt Sanchit Vir Gogia, Chefanalyst und CEO von Greyhound Research. „Anbieter, die den Support für unbefristete Lizenzen ohne angemessene Übergangsmechanismen widerrufen, riskieren, einen vertraglichen Engpass zu schaffen.“ Nach der Übernahme von VMware hat Broadcom unbefristete Lizenzen abgeschafft und die Nutzer zu gebündelten Abonnementpaketen mit deutlich höheren Kosten gezwungen. Kunden berichten von Kostensteigerungen bei VMware-Lizenzen von bis zu 500 Prozent. Zudem verlangt Broadcom ab diesem Jahr von seinen Kunden, unabhängig vom tatsächlichen Bedarf mindestens 72 Kerne pro Bestellung zu lizenzieren, was den Preisdruck auf kleinere Deployments weiter erhöht. Rechtsexperten zufolge könnte das niederländische Urteil ähnliche Klagen in anderen Ländern bestärken – insbesondere in Europa, wo der gesetzliche Schutz von Unternehmen stärker ausgeprägt ist als in den Vereinigten Staaten. Der vom Gericht verwendete Rahmen der „Sorgfaltspflicht“ könnte auch auf andere Anbieter kritischer Infrastrukturen anwendbar sein, die VMware etwa für medizinische Systeme, Stromnetze oder Verkehrssysteme einsetzen. Der Zeitpunkt des niederländischen Gerichtsurteils ist besonders bedeutsam, da viele große VMware-Kunden im Laufe des Jahres 2025 vor Vertragsverlängerungen stehen – und dabei möglicherweise auf das niederländische Urteil als Präzedenzfall verweisen könnten, um während der Migrationen fortgesetzten Support einzufordern. „Ob in Form von gerichtlichen Verfügungen, Sammelklagen oder behördlichen Untersuchungen – der Widerstand der Käufer gegen Zwangslizenzierungstaktiken wird strukturiert, öffentlich und wiederholbar“, betont Gogia. Schnelle Migrationen Analysten von Forrester Research schätzen, dass nach der Übernahme durch Broadcom bis zu 20 Prozent der Unternehmenskunden von VMware schnell den Anbieter wechseln würden, da sie die Preiserhöhungen und Zwangspakete als „unzumutbar“ empfinden. Die Auswirkungen gehen jedoch über einzelne Streitfälle hinaus. Gogia argumentiert, dass das niederländische Urteil die Grenzen des akzeptablen Verhaltens von Anbietern neu definiere, da Regierungen und große Unternehmen zunehmend auf Kontinuität bei Lizenzen pochen. „Für Kunden in regulierten oder öffentlichen Dienstleistungsbereichen gehen die Auswirkungen weit über finanzielle Aspekte hinaus – es geht um Risiko, Compliance und die Verlässlichkeit von Diensten“, erklärt der Analyst. Für Broadcom würde selbst die im niederländischen Fall verhängte Maximalstrafe von 25 Millionen Euro (29 Millionen Dollar) nur eine geringe finanzielle Belastung darstellen – gemessen am angestrebten jährlichen VMware-Umsatz von 8,5 Milliarden Dollar. Dass Broadcom nun gerichtlich zur Migrationsunterstützung gezwungen wird, könnte harte Verhandlungstaktiken gegenüber anderen Kunden erschweren. Gogia sieht Anbieter entsprechend am Scheideweg: „Entweder sie rüsten ihre Modelle nach, um bestehende vertragliche Erwartungen zu erfüllen, oder sie riskieren, ihre zukünftigen Einnahmen auf einem Fundament aufzubauen, das nicht von Vertrauen geprägt ist.“ (mb) 

Gericht verpflichtet Broadcom zur Unterstützung bei VMware-Migration​ Das Gerichtsurteil in den Niederlanden gegen VMware/Broadcom könnte schwerwiegende Folgen haben.Yasonya / Shutterstock

VMware und die Muttergesellschaft Broadcom müssen laut einem niederländischen Gerichtsurteil dem Ministerium für Infrastruktur und Wasserwirtschaft (Rijkswaterstaat; RWS) weiterhin Unterstützung leisten, während die Behörde in den nächsten zwei Jahren von VMware-Produkten migriert.

Bei Zuwiderhandlung Millionenstrafe

Rijkswaterstaat (RWS) sah sich mit einer Kostensteigerung von 85 Prozent konfrontiert, nachdem Broadcom auf ein neues Abo-Lizenzmodell umgestellt hatte. Die jährlichen Ausgaben wären von 2,1 Millionen Euro auf fast vier Millionen Euro gestiegen – ein Kostenanstieg, den die Behörde als untragbar erachtete.

Die Behörde ist ein langjähriger Kunde von VMware und hat über viele Jahre hinweg Millionen in unbefristete Lizenzen für Produkte wie vSphere, NSX, vSAN, vCenter Server, Aria Automation/Operations und Site Recovery Manager investiert, um kritische niederländische Infrastrukturen wie Tunnel, Schleusen und Brücken zu verwalten. Da der dreijährige Supportvertrag im Juli 2024 auslaufen sollte, beantragte die Behörde im Frühjahr 2024 über ihren Reseller eine Verlängerung.

Der Reseller gab jedoch an, unter Broadcoms neuem Abonnementmodell kein geeignetes Angebot unterbreiten zu können. Broadcom bot zunächst Verlängerungen bis September und November 2024 an, dann schließlich bis zum 23. Juli 2025 – verweigerte jedoch jegliche Unterstützung über dieses Datum hinaus sowie die Bereitstellung von Quellcode für eine unabhängige Wartung.

Aus Sicht des zuständigen Richters am Bezirksgericht Den Haag war dies allerdings nicht zulässig. Er entschied, dass „Broadcom seine Sorgfaltspflicht verletzt hat“, indem es keine angemessene Ausstiegsunterstützung für Systeme zur Verwaltung wichtige nationale Infrastrukturen bereitstellt.

Gemäß dem Gerichtsbeschluss müssen VMware und Broadcom bis zu zwei Jahre lang Ausstiegsunterstützung leisten, einschließlich Wartungs-Updates, Bug Fixes und technischem Support. Bei Nichteinhaltung drohen Strafzahlungen in Höhe von 250.000 Euro täglich – bis zu einem Maximum von 25 Millionen Euro.

Zwangslizenzierung im Kreuzfeuer

Das Urteil ist Ausdruck der zunehmenden rechtlichen Gegenwehr gegen die aggressive Lizenzierungsstrategie von Broadcom seit der 69 Milliarden Dollar schweren Übernahme von VMware Ende 2023.

So hat der TK-Riese AT&T eine ähnliche Klage wegen Änderungen des Support-Vertrags eingereicht, während die EU-Kartellbehörden die Praktiken von Broadcom aufgrund von Beschwerden europäischer Unternehmensverbände untersuchen. „Das niederländische Urteil ist eine formelle Rüge dafür, dass die Monetarisierung von Unternehmenssoftware von der Betriebskontinuität abgekoppelt wurde“, erklärt Sanchit Vir Gogia, Chefanalyst und CEO von Greyhound Research. „Anbieter, die den Support für unbefristete Lizenzen ohne angemessene Übergangsmechanismen widerrufen, riskieren, einen vertraglichen Engpass zu schaffen.“

Nach der Übernahme von VMware hat Broadcom unbefristete Lizenzen abgeschafft und die Nutzer zu gebündelten Abonnementpaketen mit deutlich höheren Kosten gezwungen. Kunden berichten von Kostensteigerungen bei VMware-Lizenzen von bis zu 500 Prozent. Zudem verlangt Broadcom ab diesem Jahr von seinen Kunden, unabhängig vom tatsächlichen Bedarf mindestens 72 Kerne pro Bestellung zu lizenzieren, was den Preisdruck auf kleinere Deployments weiter erhöht.

Rechtsexperten zufolge könnte das niederländische Urteil ähnliche Klagen in anderen Ländern bestärken – insbesondere in Europa, wo der gesetzliche Schutz von Unternehmen stärker ausgeprägt ist als in den Vereinigten Staaten. Der vom Gericht verwendete Rahmen der „Sorgfaltspflicht“ könnte auch auf andere Anbieter kritischer Infrastrukturen anwendbar sein, die VMware etwa für medizinische Systeme, Stromnetze oder Verkehrssysteme einsetzen.

Der Zeitpunkt des niederländischen Gerichtsurteils ist besonders bedeutsam, da viele große VMware-Kunden im Laufe des Jahres 2025 vor Vertragsverlängerungen stehen – und dabei möglicherweise auf das niederländische Urteil als Präzedenzfall verweisen könnten, um während der Migrationen fortgesetzten Support einzufordern.

„Ob in Form von gerichtlichen Verfügungen, Sammelklagen oder behördlichen Untersuchungen – der Widerstand der Käufer gegen Zwangslizenzierungstaktiken wird strukturiert, öffentlich und wiederholbar“, betont Gogia.

Schnelle Migrationen

Analysten von Forrester Research schätzen, dass nach der Übernahme durch Broadcom bis zu 20 Prozent der Unternehmenskunden von VMware schnell den Anbieter wechseln würden, da sie die Preiserhöhungen und Zwangspakete als „unzumutbar“ empfinden.

Die Auswirkungen gehen jedoch über einzelne Streitfälle hinaus. Gogia argumentiert, dass das niederländische Urteil die Grenzen des akzeptablen Verhaltens von Anbietern neu definiere, da Regierungen und große Unternehmen zunehmend auf Kontinuität bei Lizenzen pochen.

„Für Kunden in regulierten oder öffentlichen Dienstleistungsbereichen gehen die Auswirkungen weit über finanzielle Aspekte hinaus – es geht um Risiko, Compliance und die Verlässlichkeit von Diensten“, erklärt der Analyst.

Für Broadcom würde selbst die im niederländischen Fall verhängte Maximalstrafe von 25 Millionen Euro (29 Millionen Dollar) nur eine geringe finanzielle Belastung darstellen – gemessen am angestrebten jährlichen VMware-Umsatz von 8,5 Milliarden Dollar. Dass Broadcom nun gerichtlich zur Migrationsunterstützung gezwungen wird, könnte harte Verhandlungstaktiken gegenüber anderen Kunden erschweren.

Gogia sieht Anbieter entsprechend am Scheideweg: „Entweder sie rüsten ihre Modelle nach, um bestehende vertragliche Erwartungen zu erfüllen, oder sie riskieren, ihre zukünftigen Einnahmen auf einem Fundament aufzubauen, das nicht von Vertrauen geprägt ist.“ (mb)

Gericht verpflichtet Broadcom zur Unterstützung bei VMware-Migration​ Weiterlesen »

Celonis vs. SAP – zwischen Vendor-Lock-in und fairem Wettbewerb​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Im Streit zwischen Celonis und SAP haben zuletzt beide Kontrahenten gepunktet – ein Ende der Auseinandersetzung ist jedoch nicht in Sicht.PHOTOCREO Michal Bednarek – shutterstock.com Der Streit zwischen dem größten deutschen Softwarekonzern SAP und dem am höchsten bewerteten deutschen IT-Startup Celonis, einem Spezialisten für Process-Mining-Software, geht weiter. Beide Softwarekontrahenten verbuchten eigenen Angaben zufolge zuletzt Erfolge auf ihrem Konto. Ein Ende der Auseinandersetzung ist indes nicht in Sicht. Konkret geht es in der Mitte März 2025 von Celonis in den USA eingereichten Klage darum, wie Software von Drittanbietern auf Daten aus SAP-Systemen zugreifen darf. Das Münchner Startup wirft SAP vor, deren ERP-System derart zu kontrollieren, dass Process-Mining-Konkurrenten aus dem SAP-Ökosystem ausgeschlossen würden. Der Softwarekonzern mache es für seine Kunden praktisch unmöglich, mit Nicht-SAP-Process-Mining-Lösungen zu arbeiten. Der Grund: Das Teilen von Daten aus dem SAP-System mit Drittanbieterlösungen werde mit übermäßig hohen Gebühren belastet. SAPs neue Regeln und Restriktionen zielten darauf ab, das Geschäft von Celonis zu zerstören und damit SAPs ERP-Kunden zu schaden. Hintergrund: Celonis verklagt SAP Anfang Juni 2025 erzielte Celonis einen Teilerfolg. Beide Parteien einigten sich in einer außergerichtlichen Vereinbarung darauf, dass SAP die Nutzung des Celonis RFC ABAP-Extractors nicht behindern oder einschränken werde, um Daten aus SAP-Systemen zu extrahieren. Außerdem fielen keine zusätzlichen Gebühren oder Lizenzzahlungen für die Nutzung des Celonis RFC Moduls durch Kunden an. Im Gegenzug erklärte Celonis, den Antrag auf einstweilige Verfügung zurückzuziehen und während der Laufzeit der Vereinbarung keine ODP RFC-Technologie zur Datenextraktion aus SAP-Systemen zu verwenden – es sei denn, SAP erlaube dies. Ende Juni 2025 punktete SAP: In den Vorverhandlungen hat der zuständige Richter am Bezirksgericht in San Francisco den Vorwurf von Celonis, SAP verstoße gegen Wettbewerbsrecht, zunächst abgewiesen. Den Antrag, die Klage komplett zurückzuweisen, wiesen die Richter indes ab. Außerdem ließ das Gericht zu, dass Celonis seine wettbewerbsrechtlichen Vorwürfe überarbeiten und erneut einreichen könne. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> Bei SAP will man sich zu den Vorwürfen seitens Celonis bislang nicht äußern. „Wir prüfen derzeit die eingereichte Klage“, verlautete im März aus Walldorf. „Zu laufenden rechtlichen Verfahren äußern wir uns grundsätzlich nicht.“ In Reihen des Celonis-Managements gibt man sich dagegen kämpferisch. „Wir setzen uns bei diesem Fall dafür ein, dass Kunden auf ihre eigenen Daten uneingeschränkt zugreifen können“, verlautete seitens des Process-Mining-Spezialisten. Es gehe darum, was das Beste für die Kunden, den Wettbewerb und die Innovation in der Unternehmenssoftwarebranche ist. „Wir sind der Meinung, dass Unternehmen die Freiheit haben sollten, die besten Technologielösungen für ihre Bedürfnisse ohne Einmischung, Fehlinformationen oder unfaire Einschränkungen auszuwählen.“ Meine Software, meine Regeln? Tatsächlich geht es in diesem Verfahren um weit mehr als nur einen Streit zweier Softwareanbieter über technische Feinheiten des Datenaustauschs zwischen den Systemen. Vielmehr stehen grundsätzliche Fragen zur Diskussion, zum Beispiel inwieweit Anbieter reglementieren dürfen, wie Anwender ihre Daten in deren Systemen nutzen können, oder ob die Anbieter ihre Systeme und Plattformen derart abschotten und die Interoperabilität einschränken dürfen, um ihren eigenen Tools Vorteile zu verschaffen. Mit Offenheit der Plattformen und Interoperabilität der Systeme – Aspekte, die sich die großen Softwareanbieter in den vergangenen Jahren gerne groß auf die Fahnen geschrieben haben – scheint es vielerorts nicht mehr weit her zu sein. Das zeigt nicht nur der Streit zwischen SAP und Celonis. Auch das seit Jahren andauernde zähe Ringen zwischen dem Verband Cloud Infrastructure Services Providers in Europe (CISPE) und Microsoft um faire Wettbewerbsbedingungen ist ein Beleg für zunehmenden Vendor-Lock-in. Salesforce hat erst Mitte Juni 2025 die Nutzungsbedingungen der Slack-API geändert, um Unternehmen daran zu hindern, mit Hilfe von LLMs im großen Stil Daten aus Slack auszulesen. Kartellbehörden alarmiert Die Taktiken und Strategien der Anbieter rufen auch die Kartellbehörden auf den Plan. Auf europäischer Ebene versucht die EU-Kommission mit Regelwerken wie dem Digital Markets Act (DMA), dem Digital Services Act (DAS) und dem Data Act Wettbewerb und Kunden zu schützen. Allerdings versucht die mächtige IT-Lobby schon seit vielen Jahren, regulatorische Vorschriften aufzuweichen. Lesetipp: Verstöße gegen Digital Markets Act – EU nimmt Alphabet/Google, Apple und Meta ins Visier In Deutschland könnte das Bundeskartellamt in den Streit zwischen Celonis und SAP eingreifen. Mitte Juni 2025 berichtete die „Wirtschaftswoche“ unter Berufung auf Insider, dass das Bundeskartellamt bei Kunden von Celonis wegen angeblichen Fehlverhaltens von SAP ermittle. Dabei gehe es dem Bericht zufolge um die Übernahme von Signavio durch SAP aus dem Jahr 2021. Das Bundeskartellamt hatte den Deal damals trotz gewisser Bedenken genehmigt. Signavio war ein direkter Wettbewerber von Celonis. Angesichts möglicher Kartellbedenken versicherten die SAP-Verantwortlichen im Zuge der Signavio-Übernahme, das eigene Ökosystem rund um die SAP-Plattform bleibe offen. Man werde die eigene Lösung nicht gegenüber Produkten von Drittanbietern bevorzugt behandeln, hieß es damals. Andreas Mundt, Präsident des Bundeskartellamts, warnt vor Abhängigkeiten kleinerer Wettbewerber.Bundeskartellamt / Bernd Lammel Die Kartellwächter scheinen zumindest sensibilisiert, was die Marktmacht der großen Anbieter betrifft. Am 24. Juni veranstaltete die Behörde eine Expertendiskussion. Anlässlich dieser Veranstaltung sprach Andreas Mundt, Präsident des Kartellamts, von verschiedenen Gefahren für den Wettbewerb durch die marktübergreifende Präsenz von Big Tech. „Es können zum Beispiel Abhängigkeiten kleinerer Wettbewerber, etwa beim Zugang zu Cloud-Diensten und Daten, sowie von Lock-ins in spezifische Ökosysteme entstehen“, warnte Mundt. Daher gelte es, Missbrauchspotenziale frühzeitig zu identifizieren und offene Märkte sicherzustellen. 

Celonis vs. SAP – zwischen Vendor-Lock-in und fairem Wettbewerb​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Im Streit zwischen Celonis und SAP haben zuletzt beide Kontrahenten gepunktet – ein Ende der Auseinandersetzung ist jedoch nicht in Sicht.PHOTOCREO Michal Bednarek – shutterstock.com

Der Streit zwischen dem größten deutschen Softwarekonzern SAP und dem am höchsten bewerteten deutschen IT-Startup Celonis, einem Spezialisten für Process-Mining-Software, geht weiter. Beide Softwarekontrahenten verbuchten eigenen Angaben zufolge zuletzt Erfolge auf ihrem Konto. Ein Ende der Auseinandersetzung ist indes nicht in Sicht.

Konkret geht es in der Mitte März 2025 von Celonis in den USA eingereichten Klage darum, wie Software von Drittanbietern auf Daten aus SAP-Systemen zugreifen darf. Das Münchner Startup wirft SAP vor, deren ERP-System derart zu kontrollieren, dass Process-Mining-Konkurrenten aus dem SAP-Ökosystem ausgeschlossen würden. Der Softwarekonzern mache es für seine Kunden praktisch unmöglich, mit Nicht-SAP-Process-Mining-Lösungen zu arbeiten. Der Grund: Das Teilen von Daten aus dem SAP-System mit Drittanbieterlösungen werde mit übermäßig hohen Gebühren belastet. SAPs neue Regeln und Restriktionen zielten darauf ab, das Geschäft von Celonis zu zerstören und damit SAPs ERP-Kunden zu schaden.

Hintergrund: Celonis verklagt SAP

Anfang Juni 2025 erzielte Celonis einen Teilerfolg. Beide Parteien einigten sich in einer außergerichtlichen Vereinbarung darauf, dass SAP die Nutzung des Celonis RFC ABAP-Extractors nicht behindern oder einschränken werde, um Daten aus SAP-Systemen zu extrahieren. Außerdem fielen keine zusätzlichen Gebühren oder Lizenzzahlungen für die Nutzung des Celonis RFC Moduls durch Kunden an. Im Gegenzug erklärte Celonis, den Antrag auf einstweilige Verfügung zurückzuziehen und während der Laufzeit der Vereinbarung keine ODP RFC-Technologie zur Datenextraktion aus SAP-Systemen zu verwenden – es sei denn, SAP erlaube dies.

Ende Juni 2025 punktete SAP: In den Vorverhandlungen hat der zuständige Richter am Bezirksgericht in San Francisco den Vorwurf von Celonis, SAP verstoße gegen Wettbewerbsrecht, zunächst abgewiesen. Den Antrag, die Klage komplett zurückzuweisen, wiesen die Richter indes ab. Außerdem ließ das Gericht zu, dass Celonis seine wettbewerbsrechtlichen Vorwürfe überarbeiten und erneut einreichen könne.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

Bei SAP will man sich zu den Vorwürfen seitens Celonis bislang nicht äußern. „Wir prüfen derzeit die eingereichte Klage“, verlautete im März aus Walldorf. „Zu laufenden rechtlichen Verfahren äußern wir uns grundsätzlich nicht.“

In Reihen des Celonis-Managements gibt man sich dagegen kämpferisch. „Wir setzen uns bei diesem Fall dafür ein, dass Kunden auf ihre eigenen Daten uneingeschränkt zugreifen können“, verlautete seitens des Process-Mining-Spezialisten. Es gehe darum, was das Beste für die Kunden, den Wettbewerb und die Innovation in der Unternehmenssoftwarebranche ist. „Wir sind der Meinung, dass Unternehmen die Freiheit haben sollten, die besten Technologielösungen für ihre Bedürfnisse ohne Einmischung, Fehlinformationen oder unfaire Einschränkungen auszuwählen.“

Meine Software, meine Regeln?

Tatsächlich geht es in diesem Verfahren um weit mehr als nur einen Streit zweier Softwareanbieter über technische Feinheiten des Datenaustauschs zwischen den Systemen. Vielmehr stehen grundsätzliche Fragen zur Diskussion, zum Beispiel inwieweit Anbieter reglementieren dürfen, wie Anwender ihre Daten in deren Systemen nutzen können, oder ob die Anbieter ihre Systeme und Plattformen derart abschotten und die Interoperabilität einschränken dürfen, um ihren eigenen Tools Vorteile zu verschaffen.

Mit Offenheit der Plattformen und Interoperabilität der Systeme – Aspekte, die sich die großen Softwareanbieter in den vergangenen Jahren gerne groß auf die Fahnen geschrieben haben – scheint es vielerorts nicht mehr weit her zu sein. Das zeigt nicht nur der Streit zwischen SAP und Celonis. Auch das seit Jahren andauernde zähe Ringen zwischen dem Verband Cloud Infrastructure Services Providers in Europe (CISPE) und Microsoft um faire Wettbewerbsbedingungen ist ein Beleg für zunehmenden Vendor-Lock-in. Salesforce hat erst Mitte Juni 2025 die Nutzungsbedingungen der Slack-API geändert, um Unternehmen daran zu hindern, mit Hilfe von LLMs im großen Stil Daten aus Slack auszulesen.

Kartellbehörden alarmiert

Die Taktiken und Strategien der Anbieter rufen auch die Kartellbehörden auf den Plan. Auf europäischer Ebene versucht die EU-Kommission mit Regelwerken wie dem Digital Markets Act (DMA), dem Digital Services Act (DAS) und dem Data Act Wettbewerb und Kunden zu schützen. Allerdings versucht die mächtige IT-Lobby schon seit vielen Jahren, regulatorische Vorschriften aufzuweichen.

Lesetipp: Verstöße gegen Digital Markets Act – EU nimmt Alphabet/Google, Apple und Meta ins Visier

In Deutschland könnte das Bundeskartellamt in den Streit zwischen Celonis und SAP eingreifen. Mitte Juni 2025 berichtete die „Wirtschaftswoche“ unter Berufung auf Insider, dass das Bundeskartellamt bei Kunden von Celonis wegen angeblichen Fehlverhaltens von SAP ermittle. Dabei gehe es dem Bericht zufolge um die Übernahme von Signavio durch SAP aus dem Jahr 2021. Das Bundeskartellamt hatte den Deal damals trotz gewisser Bedenken genehmigt.

Signavio war ein direkter Wettbewerber von Celonis. Angesichts möglicher Kartellbedenken versicherten die SAP-Verantwortlichen im Zuge der Signavio-Übernahme, das eigene Ökosystem rund um die SAP-Plattform bleibe offen. Man werde die eigene Lösung nicht gegenüber Produkten von Drittanbietern bevorzugt behandeln, hieß es damals.

Andreas Mundt, Präsident des Bundeskartellamts, warnt vor Abhängigkeiten kleinerer Wettbewerber.Bundeskartellamt / Bernd Lammel

Die Kartellwächter scheinen zumindest sensibilisiert, was die Marktmacht der großen Anbieter betrifft. Am 24. Juni veranstaltete die Behörde eine Expertendiskussion. Anlässlich dieser Veranstaltung sprach Andreas Mundt, Präsident des Kartellamts, von verschiedenen Gefahren für den Wettbewerb durch die marktübergreifende Präsenz von Big Tech. „Es können zum Beispiel Abhängigkeiten kleinerer Wettbewerber, etwa beim Zugang zu Cloud-Diensten und Daten, sowie von Lock-ins in spezifische Ökosysteme entstehen“, warnte Mundt. Daher gelte es, Missbrauchspotenziale frühzeitig zu identifizieren und offene Märkte sicherzustellen.

Celonis vs. SAP – zwischen Vendor-Lock-in und fairem Wettbewerb​ Weiterlesen »

Was Sie über S/4HANA wissen müssen​

Allgemein

S/4HANA ist die vierte Generation der Business Suite von SAP. Das müssen Sie zum Thema wissen. Foto: Panchenko Vladimir – shutterstock.com Mit S/4HANA hat SAP am 3. Februar 2015 das jüngste Release seiner ERP-Softwarelösung und damit den Nachfolger des bisherigen Kernprodukts SAP ECC (ERP Central Component) vorgestellt. Wie die Vorgänger soll auch S/4HANA sämtliche Business-Prozesse von Unternehmen End-to-end abdecken können. Auch wenn das neue Release nach wie vor klassisch als On-premises-Version zu haben war, legte SAP mit S/4HANA das Ruder endgültig auf Cloud-Kurs um. Das Kürzel S/4HANA klingt kryptisch, jedoch ordnet es sich in die Reihe seiner Vorgängerversionen nahtlos ein. In den 1970er Jahren entwickelten fünf ehemalige IBM-Mitarbeiter Programme, die Lohnabrechnung und Buchhaltung per Großrechner ermöglichten. Anstatt die Daten mechanisch auf Lochkarten zu speichern, setzen sie auf den Dialog “online” per Tastatur und Bildschirm. Daher bezeichneten sie ihr System als Realtime-System, wofür das “R” in den Produktnamen stand. Das erste Produkt “SAP R/1” war als Standardsoftware konzipiert und konnte bei weiteren Unternehmen angeboten werden. 1979 kam das Nachfolgeprodukt “SAP R/2” auf den Markt. Dies lief ebenfalls nur auf Großrechnern und umfasste die folgenden Funktionsbereiche: Finanzbuchhaltung Kostenrechnung Materialwirtschaft Produktionsplanung und -steuerung Instandhaltung Personalwirtschaft Vertrieb Als SAP 1991 R/3 als Lösung für den Mittelstand und Ergänzung zu R/2 auf den Markt brachte, konzipierten sie die Lösung für die IBM AS/400 Systeme. Diese waren jedoch vom System überfordert, so dass SAP auf UNIX-Workstations und Oracle Datenbanken ausweichen musste. Dadurch arbeiteten sie nach dem Client-Server-Prinzip. Dieses Prinzip war so erfolgreich, dass R/3 das Softwarepaket R/2 nahezu vollständig ablöste. 2008 entwickelte SAP in Zusammenarbeit mit dem Hasso-Plattner-Institut und der Stanford University die Architektur von SAP HANA mit dem Ziel große Datenmengen in Echtzeit analysieren zu können. Im Jahre 2010 stellte die SAP die HANA-Datenbank vor – HANA steht für High-performance ANalytic Application. Fünf Jahre später wurde S/4HANA eingeführt, welches vollständig auf dem vereinfachten Datenmodell von SAP HANA basierte. “S” steht dabei für “simple”, “4” für die vierte Produktgeneration und “HANA” für die selbst entwickelte relationale In-Memory-Datenbank, die Voraussetzung zur Nutzung von S/4HANA ist. SAP S/4HANA – Funktionsweise Während die Vorgängerversionen auch mit relationalen Datenbanken anderer Hersteller zusammenspielten, arbeitet S/4HANA ausschließlich auf der HANA-Datenbank. SAP HANA ist ein relationales Datenbank-System, das die Einträge nicht zeilenweise, sondern spaltenweise direkt im Arbeitsspeicher und dazugehörigen Pufferspeicher (Cache) speichert. Durch die Ablage der Daten im Arbeitsspeicher können Abfragen in sehr hoher Geschwindigkeit (“Echtzeit”) ausgeführt werden. Der komplexere und langsamere Weg, dass über Abfragen zunächst die Daten aus mehreren Tabellen der Datenbank extrahiert und konsolidieren werden ehe dann das Ergebnis angezeigt wird, wie bei der Vorgängerversion, entfällt bei dieser Technologie. Ein weiterer Vorteil des Datenmodells der HANA-Datenbank ist, dass die Daten nicht bei jeder Buchung zusammengeführt werden müssen. Dies ist bei den bisherigen festplattenorientierten, relationalen Datenbanken der Fall. Während bisher die Daten bei jeder Abfrage neu aggregiert werden mussten, kann im HANA-Datenmodell ein Dataset nach verschiedenen Kriterien ausgegeben werden. Dadurch gewinnt man einerseits an Flexibilität, andererseits an Durchsatzzeiten. Nicht nur der Name S/4HANA zeigt die enge Verzahnung des neuen ERP-Systems mit der Datenbank. Die gesamte Architektur von S/4HANA ist softwaretechnisch eng miteinander verzahnt und aufeinander abgestimmt. Nicht nur das Datenmodell wurde vereinfacht, sondern auch die Benutzeroberfläche (GUI), über die der Nutzer auf die Prozesse zugreift, neugestaltet. Anstelle der für die Transaktionsverarbeitung optimierte SAP GUI wurde das rollenbasierte SAP Fiori eingeführt. Damit wurde die Anzahl der Bildschirme und Bildschirmwechsel und damit auch die Anzahl der Felder, die für eine Rolle bzw. die Ausführung eines Prozesses notwendig sind, reduziert. Mit SAP Fiori wird den Endanwendern unabhängig vom genutzten Endgerät die gleiche Oberfläche angezeigt, wodurch das Arbeiten an verschiedenen Endgeräten vereinfacht werden soll. Durch die vollständige Veränderung der zugrunde liegenden Architektur, der In-Memory-Datenbank, einem intelligenten Datenmodell und einer vereinfachten Oberfläche hat SAP mit S/4HANA eine, wie das Unternehmen sie selbst bezeichnet, “Echtzeit-ERP-Suite für das digitale Geschäft” geschaffen. S/4HANA – Basis bildet die Business Technology Platform Die SAP Business Technology Platform ist ein integriertes Angebot, das vier Technologieportfolios umfasst: Datenbank- und Datenmanagement, Anwendungsentwicklung und -integration, Analysen und intelligente Technologien wie künstliche Intelligenz (KI), Internet der Dinge (IoT) oder Blockchain. Dabei greift SAP den Trend auf, den schon Salesforce und Microsoft Azure vorgelebt haben: der Application Server aus der Cloud, der nicht mehr fixiert ist auf “die eine Installation”, sondern auf Daten und Apps, um Daten anzuzeigen und zu verarbeiten. Die SAP Business Technology Platform bietet dafür In-Memory-Verarbeitung, agile Services zur Datenintegration und Anwendungserweiterung sowie eingebettete Analysen und intelligente Technologien. Die offene Architektur (Open-API) ermöglicht Partnern und Kunden zudem die flexible und kontinuierliche Erweiterung der IT-Landschaft. Den Anwendern sollen dadurch flexible Möglichkeiten unterbreitet werden, um ein Verständnis in die Daten und Prozesse in den Anwendungen zu bekommen und mit den angebotenen Services ihre Daten in Geschäftswert bzw. geschäftlichen Nutzen umzuwandeln. Dafür werden zum einen operative Daten wie zum Beispiel Kosten, Klicks und Umsatze; zum anderen erfahrungsbasierte Daten wie Kundenzufriedenheit aufgegriffen und in Verbindung gesetzt. Die Ergebnisse und Erkenntnisse aus den darauf aufbauenden Analysen sollen dann direkt in Maßnahmen überführt oder in die Prozesse zurückgespielt werden. So wird es Unternehmen ermöglicht Prozesse und erfahrungsbasierte Daten zu verbinden und Optimierungen und Innovation voranzutreiben. Mit S/4HANA ist SAP auch beim Betriebsmodell einen neuen Weg gegangen. So kann S/4HANA nicht nur On-premises betrieben, sondern auch als Cloud-Version gemietet werden. Kunden können beim Cloud-Betrieb unter verschiedenen Optionen wählen. SAP kooperiert mit allen großen US-amerikanischen Cloud-Anbietern wie AWS, Google und Microsoft, der chinesischen Alibaba und seit Mai 2025 auch mit StackIT, dem souveränen in Deutschland betriebenen Cloud-Angebot von Schwarz Digits, einer Tochter der Schwarz-Gruppe. S/4HANA Cloud Die S/4HANA Cloud Edition wird als Software-as-a-Service angeboten. Eigene Programmierungen sind in dieser Variante nicht möglich. Kunden sind also gezwungen, die von SAP bereitgestellten Prozesse zu nutzen und danach zu arbeiten. Auf der anderen Seite müssen sich Kunden keine Gedanken um das Thema Serverkapazität oder Wartung machen. Zudem kann die Implementierung von S/4HANA in der Cloud wesentlich schneller durchgeführt werden als bei der On-premises-Version, da die Cloud-Variante als vorkonfiguriertes System in einer Standardvariante bereitgestellt wird. Zudem verspricht die S/4HANA Cloud Edition schnelleren Zugriff auf Innovationen, da SAP hierfür einen vierteljährigen Innovationszyklus gegenüber einem einjährigen Innovationszyklus bei der On-premises-Version etabliert hat. Mittlerweile hat SAP ihre Release-Strategie für S/4HANA On-premises etwas entschleunigt. Im September 2022 gab der Softwarehersteller bekannt, dass das 2023er S/4HANA-Release ein Ziel-Release sein solle, ab dem man in einen Zwei-Jahrestakt für neue Versionen wechseln werde. Zudem werde es eine längere Mainstream Maintenance pro Release von sieben Jahren und einfacher zu adaptierenden Feature Packs geben, hieß es. Als Variante bietet SAP die HANA Enterprise Cloud (HEC) an. Dies entspricht im Wesentlichen einem Hosting-Prinzip, bei dem jeder Kunde seinen eigenen Server mit eigenem System bei der SAP hat, diese jedoch nicht selbst wartet. Die HEC entspricht damit dem Modell einer Private Cloud. Im Vergleich zur Public Cloud stellt die SAP hier die Infrastruktur-As-A-Service an, das heißt SAP stellt die komplette Systemlandschaft inklusive aller Anwendungen auf Basis einer SAP-Referenzarchitektur zur Verfügung. Da es sich bei der HEC um eine Private Cloud handelt, kann das System mittels Programmierungen an die Bedürfnisse eines Kunden angepasst werden. Allerdings sind den Eingriffsmöglichkeiten Grenzen gesetzt. SAP spricht von einer klaren Clean-Core-Strategie. Das soll übermäßiges Customizing von SAP-Installationen, das vielen Anwenderunternehmen früher bei Release-Wechseln teils massive Probleme verursacht hat, eindämmen. Erweiterungen sollen vielmehr auf Basis der BTP möglich sein und über Standard-Schnittstellen, die SAP in seinem API-Hub auf der BTP anbietet, angebunden werden. Lesetipp: SAP-CEO Christian Klein im Interview: SAP hätte mehr auf das Customizing achten sollen Mit dem Angebot RISE with SAP bietet SAP seinen Kunden seit einigen Jahren einen schnellen Wechsel in die Cloud an. Dazu wurden ein Angebot aus SAP S/4HANA Cloud und ergänzend SAP Services erstellt, um Unternehmen bei der digitalen Transformation zu unterstützen. Diese erfolgt in den drei Schritten: Neugestaltung der Prozesse, technische Migration und Aufbau des intelligenten Unternehmens. S/4HANA On-premises Mit SAP S/4HANA On-premises verwaltet der Kunde vor Ort das S/4HANA-System, die HANA-Datenbank, Anwendungen, Rechenzentrum, Betriebssysteme, Middleware und Netzwerk. Das Unternehmen ist außerdem selbst verantwortlich für die Wartung und Entwicklung. Dadurch wird jedoch eine maximale Flexibilität ermöglicht. Anpassung der Software an unternehmensspezifische Anforderungen, die Steuerung der Häufigkeit und Zeitplanung von Upgrades sowie das Einspielen von Support-Packages übernimmt der Kunde in dieser Variante selbst. S/4HANA Optionen und Betriebsmodelle Foto: Christian Olausson S/4HANA Hybrid Grundsätzlich ist auch eine Kombination von S/4HANA Cloud und S/4HANA On-premises möglich. Dann spricht man vom hybriden Ansatz. Dabei können Unternehmen ausgewählte Prozesse, zum Beispiel die Kernprozesse, mit SAP S/4HANA On-premises lokal auf eigenen Servern betreiben. Andere Prozesse, die keiner individuellen Anpassung bedürfen, können in die Cloud ausgelagert werden. Lesetipp: Tipps für die richtige SAP-Lizenzierung SAP S/4HANA – Funktionen und Lösungen Sprach man in der Vergangenheit beim SAP ERP immer von Modulen, die eingesetzt werden, spricht SAP selbst bei SAP S/4HANA von Prozessen, die das gesamte Geschäft abdecken und aufeinander abgestimmt sind. Die aktuelle Version SAP S/4HANA deckt dabei folgende Funktionsbereiche ab: S/4HANA Sales & Marketing S/4HANA Finance S/4HANA Manufacturing S/4HANA Supply Chain S/4HANA Service S/4HANA Asset Management S/4HANA R&D / Engineering S/4HANA Scouring & Procurement S/4HANA Human Ressources Mit dem neuen Aufbau von S/4HANA hat der Hersteller auch ein in Teilen neues Lizenzmodell veröffentlicht. Funktionen, die im sogenannten Digital Core, dem “SAP S/4HANA Enterprise Management”, enthalten sind, werden über User lizenziert. Hingegen sind die Funktionalitäten, die in den SAP S/4HANA Line-of-Business Solutions beziehungsweise den Suite LoB Solutions enthaltenen sind, separat zu lizenzieren. Die Suite LoB Solutions unterscheiden sich zu den S/4HANA LoB Solutions ansonsten darin, dass sie separat zu S/4HANA installiert werden. Die “doppelte” Lizenzierung von Lösungen, bei der für die LoB Solutions ein Nutzer eine SAP-Userlizenz und zusätzlich die Lösung lizenziert werden muss, entfällt im neuen Lizenzmodell. SAP hat für verschiedene Branchen bereits Best-Practice-Lösungen vorgedacht. Unter S/4HANA bietet der Hersteller auf intelligenten Technologien basierende Lösungen für Best-Practice-Geschäftsprozesse für folgende Branchen: Energie und natürliche Ressourcen Baustoffe Chemieindustrie Metall-, Holz- und Papierindustrie Bergbau Öl- und Gasindustrie Versorgungswirtschaft Dienstleistungsbranche Frachttransport und Logistik Bauwirtschaft, Anlagen- und Schiffbau Medien und Unterhaltung Tourismus und Freizeitbranche Dienstleistungen Sport und Entertainment Telekommunikation Konsumgüterindustrie Agrarindustrie Konsumgüter Mode Life Sciences Einzelhandel Großhandel Fertigungsindustrie Luft- und Raumfahrtindustrie Automobilindustrie Hightech- und Elektronikindustrie Maschinen-, Geräte- und Komponentenbau Finanzdienstleistungen Bankwesen Versicherungen Öffentlicher Dienst und Verwaltung Innere und äußere Sicherheit Städte der Zukunft Gesundheitswesen Hochschulen und Forschungseinrichtungen Öffentlicher Sektor S/4HANA – Migration Da SAP angekündigt hat, die Wartung und die Weiterentwicklung von Altprodukten wie der Business Suite im Jahr 2027 einzustellen (Extended-Wartung gegen Aufpreis bis Ende 2030 möglich), steht für viele SAP-Kunden in den nächsten Jahren die Migration zu SAP S/4HANA an. Im Zuge des Programms „Rise with SAP“ soll es zwar eine Galgenfrist bis Ende 2033 geben. Man werde den Übergang erleichtern und „die Geschäftskontinuität der Kunden“ unterstützen, hieß es Anfang 2025 seitens des Softwareherstellers. Die Option nenne sich „SAP ERP, private edition, transition option“.  Doch an der Migration führt letztendlich kein Weg vorbei – es sei denn die Kunden entscheiden sich, ihre alten SAP-Systeme mit Support-Angeboten von Drittanbietern wie zum Beispiel Rimini Street zu unterfüttern. Dabei stehen verschiedene technische und konzeptionelle Ansätze zur Migration zur Verfügung. Die Auswahl reicht von der kompletten Neuinstallation des Systems über die Konvertierung einzelner SAP-Systeme bis zur selektiven Migration. Welche Art der Migration am sinnvollsten ist, hängt von verschiedenen Kriterien ab: die Ausgangskonfiguration des Kunden die vorhandene IT-Systemlandschaft Betriebsmodell (Cloud oder On-premises) (IT-)strategische Zielsetzung vorhandenes Know-how organisatorische Strukturen. Der grundlegende Neuaufbau der S/4HANA-Architektur und -Struktur macht die Migration bestehender SAP-Installationen zu einem sehr komplexen Prozess. Von SAP werden die zu berücksichtigenden Veränderungen in einer über 1000-seitigen Simplifizierungsliste im Detail beschrieben. Greenfield-Ansatz Der Greenfield-Ansatz beschreibt eine vollständige Neuimplementierung der SAP-Suite. Gemäß dem Titel auf der “grünen Wiese”. Das Unternehmen gibt dabei die bereits vorhandenen Systeme auf und ersetzt sie durch SAP S/4HANA. Die Daten der existierenden SAP- oder Nicht-SAP-Systeme lassen sich mit entsprechenden Anpassungen und Konvertierungen schrittweise in das neue System überführen. Dem Unternehmen bietet der Greenfield-Ansatz den Vorteil, dass die über die Jahre individualisierten ERP-Systeme durch eine neue Standardversion von SAP S/4HANA abgelöst werden. Das Unternehmen startet mit seiner ERP-Suite mehr oder weniger neu und wird von Altlasten befreit. Brownfield-Ansatz Der Brownfield-Ansatz verfolgt das Konzept einer schrittweisen Konvertierung und Umstellung bestehender SAP-ERP-Systeme zu SAP S/4HANA. Die bestehenden Systeme erhalten eine Art Upgrade. Individualisierungen bleiben, falls gewünscht, erhalten. Zur technischen Unterstützung der Migration existieren Lösungen wie der Software-Update-Manager (SUM) und die Daten-Migrations-Option (DMO). Vorteile des Brownfield-Ansatzes sind die mögliche Beibehaltung individueller Prozesse und die Integration in die vorhandene Systemlandschaft bei gleichzeitiger Modernisierung, Standardisierung und Konsolidierung des Gesamtsystems. Bluefield-Ansatz Der Bluefield Ansatz entspricht einer Kombination aus Greenfield- und Brownfield-Ansatz. Gestartet wird mit dem Aufbau eines leeren Zielsystems – der Schale – ohne Daten. Anschließend werden Stamm- und Bewegungsdaten mit Tools verschiedener Anbieter gezielt selektiert und in das leere Zielsystem migriert. Historische Daten werden hingegen archiviert. Prozesse und Funktionen können aus dem Alt-System übernommen oder neu konzipiert werden. Landscape-Transformation Der Fokus bei der Umwandlung der SAP-Landschaft besteht nicht darin, das gesamte System zu konvertieren. Mit der Umwandlung der SAP-Landschaft sollen vielmehr ausgewählte Daten zu SAP S/4HANA migriert oder Geschäftsprozesse mit einem globalen System konsolidiert werden. Der Ansatz bedeutet damit auch, dass zunächst die Prozesse ausgewählt werden, die den größten und schnellsten ROI bei der Migration zu S/4HANA bieten, zum Beispiel im Bereich S/4HANA Finance. Ausblick: Mehr Business Suite und weniger S/4HANA Zehn Jahre nach dem Marktauftritt von S/4HANA wird es stiller rund um S/4HANA. Im Rahmen ihrer neuen Geschäftsstrategie “Business Unleashed” zauberten die SAP-Verantwortlichen Mitte Februar 2025 mit der Business Suite ein aus alten On-premises-Tagen wohl bekanntes und bewährtes Software-Label aus dem Hut. Von der neuen Business Suite über die Business Data Cloud bis hin zu den KI-Apps – alles soll vorkonfiguriert in der Cloud ineinandergreifen, hieß es. In diesem Dreiklang aus Prozessen, Daten und KI scheint S/4HANA nur noch ein Ton unter vielen zu sein. Unter der Business Suite versteht SAP ein modulares Set verschiedener miteinander integrierter Lösungen. Konkret nennt der Anbieter Cloud ERP, Business Applikationen, die Business Data Cloud und Business AI sowie als gemeinsame Basis die Business Technology Platform (BTP). Mit integriert ist außerdem SAP Build, um Kunden dabei zu helfen, ihre Anwendungen an individuelle Anforderungen anzupassen – ohne dabei allerdings in ein zu starkes Customizing abzudriften und immer einen „Clean Core“ zu behalten. Lesetipp: SAP baut neue Business Suite in der Cloud Auffallend an dieser Stelle: SAP spricht im Zusammenhang mit Business-Anwendungen nur noch von Cloud ERP und der Business Suite. Der Name S/4HANA, der die Strategie der SAP im zurückliegenden Jahrzehnt maßgeblich bestimmt hat, fällt gar nicht mehr. Inwieweit damit tatsächlich ein Strategiewechsel einhergeht oder ob es sich lediglich um ein Umlabeln handelt, ist noch nicht klar ersichtlich. Vielleicht möchte SAP an dieser Stelle auch einen Schlussstrich ziehen unter die ständigen Migrationsdiskussionen der vergangenen Jahre. Viele Unternehmen verbinden mit S/4HANA langwierige und kostenintensive Umstiegsprojekte und haben vielfach noch gar damit nicht angefangen, obwohl das Support-Ende für das Vorgänger-Release immer näher rückt. (bw/ba) SAP S/4HANA LaunchSAP S/4HANA im DetailBill McDermott, CEO der SAP, eröffnete die Präsentation von SAP S/4HANA.SAP S/4HANA im DetailSAP S/4HANA kann mit zahlreichen neuen Features glänzen. SAP S/4HANA im DetailDie Neuerungen der SAP Business Suite 4 SAP HANA in der Public Cloud Edition im Detail.SAP S/4HANA im DetailDie Managed Cloud Edition der SAP Business Suite 4 SAP HANA wurde um diese Funktionen erweitert.SAP S/4HANA im DetailDie Neuerungen der On Premise Edition von SAP Business Suite 4 SAP HANA. SAP S/4HANA im DetailS/4HANA punktet mit seinem simplen und reduzierten Datenaufbau.SAP S/4HANA im DetailDie Entwickler von SAP HANA konnten in jeder Version den Database Footprint deutlich reduzieren. SAP S/4HANA im DetailS/4HANA wurde gehörig entrümpelt. Durch die reduzierte Komplexität hat die aktuelle SAP-HANA-Version im Vergleich zur Vorgängerversion enorm an Performance zugelegt. SAP S/4HANA im DetailBernd Leukert, Vorstand für Produkte und Innovation, demonstrierte, wie SAP S/4HANA in der Praxis funktioniert.SAP S/4HANA im DetailSAP S/4HANA im Praxiseinsatz.SAP S/4HANA im DetailSAP S/4HANA meldet einen Pumpendefekt und startet entsprechende Prozesse, um diese Störung schnellstmöglich zu beheben.SAP S/4HANA im DetailAuch mit mobilen Geräten kann SAP S/4 HANA umgehen. SAP S/4HANA im DetailBei Bedarf kann der IT-Verantwortlich SAP S/4 HANA auch vom Armgelenk aus steuern. 

Was Sie über S/4HANA wissen müssen​ S/4HANA ist die vierte Generation der Business Suite von SAP. Das müssen Sie zum Thema wissen.
Foto: Panchenko Vladimir – shutterstock.com

Mit S/4HANA hat SAP am 3. Februar 2015 das jüngste Release seiner ERP-Softwarelösung und damit den Nachfolger des bisherigen Kernprodukts SAP ECC (ERP Central Component) vorgestellt. Wie die Vorgänger soll auch S/4HANA sämtliche Business-Prozesse von Unternehmen End-to-end abdecken können. Auch wenn das neue Release nach wie vor klassisch als On-premises-Version zu haben war, legte SAP mit S/4HANA das Ruder endgültig auf Cloud-Kurs um.

Das Kürzel S/4HANA klingt kryptisch, jedoch ordnet es sich in die Reihe seiner Vorgängerversionen nahtlos ein. In den 1970er Jahren entwickelten fünf ehemalige IBM-Mitarbeiter Programme, die Lohnabrechnung und Buchhaltung per Großrechner ermöglichten. Anstatt die Daten mechanisch auf Lochkarten zu speichern, setzen sie auf den Dialog “online” per Tastatur und Bildschirm. Daher bezeichneten sie ihr System als Realtime-System, wofür das “R” in den Produktnamen stand. Das erste Produkt “SAP R/1” war als Standardsoftware konzipiert und konnte bei weiteren Unternehmen angeboten werden. 1979 kam das Nachfolgeprodukt “SAP R/2” auf den Markt. Dies lief ebenfalls nur auf Großrechnern und umfasste die folgenden Funktionsbereiche:

Finanzbuchhaltung

Kostenrechnung

Materialwirtschaft

Produktionsplanung und -steuerung

Instandhaltung

Personalwirtschaft

Vertrieb

Als SAP 1991 R/3 als Lösung für den Mittelstand und Ergänzung zu R/2 auf den Markt brachte, konzipierten sie die Lösung für die IBM AS/400 Systeme. Diese waren jedoch vom System überfordert, so dass SAP auf UNIX-Workstations und Oracle Datenbanken ausweichen musste. Dadurch arbeiteten sie nach dem Client-Server-Prinzip. Dieses Prinzip war so erfolgreich, dass R/3 das Softwarepaket R/2 nahezu vollständig ablöste.

2008 entwickelte SAP in Zusammenarbeit mit dem Hasso-Plattner-Institut und der Stanford University die Architektur von SAP HANA mit dem Ziel große Datenmengen in Echtzeit analysieren zu können. Im Jahre 2010 stellte die SAP die HANA-Datenbank vor – HANA steht für High-performance ANalytic Application. Fünf Jahre später wurde S/4HANA eingeführt, welches vollständig auf dem vereinfachten Datenmodell von SAP HANA basierte. “S” steht dabei für “simple”, “4” für die vierte Produktgeneration und “HANA” für die selbst entwickelte relationale In-Memory-Datenbank, die Voraussetzung zur Nutzung von S/4HANA ist.

SAP S/4HANA – Funktionsweise

Während die Vorgängerversionen auch mit relationalen Datenbanken anderer Hersteller zusammenspielten, arbeitet S/4HANA ausschließlich auf der HANA-Datenbank. SAP HANA ist ein relationales Datenbank-System, das die Einträge nicht zeilenweise, sondern spaltenweise direkt im Arbeitsspeicher und dazugehörigen Pufferspeicher (Cache) speichert. Durch die Ablage der Daten im Arbeitsspeicher können Abfragen in sehr hoher Geschwindigkeit (“Echtzeit”) ausgeführt werden. Der komplexere und langsamere Weg, dass über Abfragen zunächst die Daten aus mehreren Tabellen der Datenbank extrahiert und konsolidieren werden ehe dann das Ergebnis angezeigt wird, wie bei der Vorgängerversion, entfällt bei dieser Technologie.

Ein weiterer Vorteil des Datenmodells der HANA-Datenbank ist, dass die Daten nicht bei jeder Buchung zusammengeführt werden müssen. Dies ist bei den bisherigen festplattenorientierten, relationalen Datenbanken der Fall. Während bisher die Daten bei jeder Abfrage neu aggregiert werden mussten, kann im HANA-Datenmodell ein Dataset nach verschiedenen Kriterien ausgegeben werden. Dadurch gewinnt man einerseits an Flexibilität, andererseits an Durchsatzzeiten.

Nicht nur der Name S/4HANA zeigt die enge Verzahnung des neuen ERP-Systems mit der Datenbank. Die gesamte Architektur von S/4HANA ist softwaretechnisch eng miteinander verzahnt und aufeinander abgestimmt. Nicht nur das Datenmodell wurde vereinfacht, sondern auch die Benutzeroberfläche (GUI), über die der Nutzer auf die Prozesse zugreift, neugestaltet. Anstelle der für die Transaktionsverarbeitung optimierte SAP GUI wurde das rollenbasierte SAP Fiori eingeführt. Damit wurde die Anzahl der Bildschirme und Bildschirmwechsel und damit auch die Anzahl der Felder, die für eine Rolle bzw. die Ausführung eines Prozesses notwendig sind, reduziert. Mit SAP Fiori wird den Endanwendern unabhängig vom genutzten Endgerät die gleiche Oberfläche angezeigt, wodurch das Arbeiten an verschiedenen Endgeräten vereinfacht werden soll.

Durch die vollständige Veränderung der zugrunde liegenden Architektur, der In-Memory-Datenbank, einem intelligenten Datenmodell und einer vereinfachten Oberfläche hat SAP mit S/4HANA eine, wie das Unternehmen sie selbst bezeichnet, “Echtzeit-ERP-Suite für das digitale Geschäft” geschaffen.

S/4HANA – Basis bildet die Business Technology Platform

Die SAP Business Technology Platform ist ein integriertes Angebot, das vier Technologieportfolios umfasst:

Datenbank- und Datenmanagement,

Anwendungsentwicklung und -integration,

Analysen und

intelligente Technologien wie künstliche Intelligenz (KI), Internet der Dinge (IoT) oder Blockchain.

Dabei greift SAP den Trend auf, den schon Salesforce und Microsoft Azure vorgelebt haben: der Application Server aus der Cloud, der nicht mehr fixiert ist auf “die eine Installation”, sondern auf Daten und Apps, um Daten anzuzeigen und zu verarbeiten. Die SAP Business Technology Platform bietet dafür In-Memory-Verarbeitung, agile Services zur Datenintegration und Anwendungserweiterung sowie eingebettete Analysen und intelligente Technologien. Die offene Architektur (Open-API) ermöglicht Partnern und Kunden zudem die flexible und kontinuierliche Erweiterung der IT-Landschaft.

Den Anwendern sollen dadurch flexible Möglichkeiten unterbreitet werden, um ein Verständnis in die Daten und Prozesse in den Anwendungen zu bekommen und mit den angebotenen Services ihre Daten in Geschäftswert bzw. geschäftlichen Nutzen umzuwandeln. Dafür werden zum einen operative Daten wie zum Beispiel Kosten, Klicks und Umsatze; zum anderen erfahrungsbasierte Daten wie Kundenzufriedenheit aufgegriffen und in Verbindung gesetzt. Die Ergebnisse und Erkenntnisse aus den darauf aufbauenden Analysen sollen dann direkt in Maßnahmen überführt oder in die Prozesse zurückgespielt werden. So wird es Unternehmen ermöglicht Prozesse und erfahrungsbasierte Daten zu verbinden und Optimierungen und Innovation voranzutreiben.

Mit S/4HANA ist SAP auch beim Betriebsmodell einen neuen Weg gegangen. So kann S/4HANA nicht nur On-premises betrieben, sondern auch als Cloud-Version gemietet werden. Kunden können beim Cloud-Betrieb unter verschiedenen Optionen wählen. SAP kooperiert mit allen großen US-amerikanischen Cloud-Anbietern wie AWS, Google und Microsoft, der chinesischen Alibaba und seit Mai 2025 auch mit StackIT, dem souveränen in Deutschland betriebenen Cloud-Angebot von Schwarz Digits, einer Tochter der Schwarz-Gruppe.

S/4HANA Cloud

Die S/4HANA Cloud Edition wird als Software-as-a-Service angeboten. Eigene Programmierungen sind in dieser Variante nicht möglich. Kunden sind also gezwungen, die von SAP bereitgestellten Prozesse zu nutzen und danach zu arbeiten. Auf der anderen Seite müssen sich Kunden keine Gedanken um das Thema Serverkapazität oder Wartung machen. Zudem kann die Implementierung von S/4HANA in der Cloud wesentlich schneller durchgeführt werden als bei der On-premises-Version, da die Cloud-Variante als vorkonfiguriertes System in einer Standardvariante bereitgestellt wird. Zudem verspricht die S/4HANA Cloud Edition schnelleren Zugriff auf Innovationen, da SAP hierfür einen vierteljährigen Innovationszyklus gegenüber einem einjährigen Innovationszyklus bei der On-premises-Version etabliert hat.

Mittlerweile hat SAP ihre Release-Strategie für S/4HANA On-premises etwas entschleunigt. Im September 2022 gab der Softwarehersteller bekannt, dass das 2023er S/4HANA-Release ein Ziel-Release sein solle, ab dem man in einen Zwei-Jahrestakt für neue Versionen wechseln werde. Zudem werde es eine längere Mainstream Maintenance pro Release von sieben Jahren und einfacher zu adaptierenden Feature Packs geben, hieß es.

Als Variante bietet SAP die HANA Enterprise Cloud (HEC) an. Dies entspricht im Wesentlichen einem Hosting-Prinzip, bei dem jeder Kunde seinen eigenen Server mit eigenem System bei der SAP hat, diese jedoch nicht selbst wartet. Die HEC entspricht damit dem Modell einer Private Cloud. Im Vergleich zur Public Cloud stellt die SAP hier die Infrastruktur-As-A-Service an, das heißt SAP stellt die komplette Systemlandschaft inklusive aller Anwendungen auf Basis einer SAP-Referenzarchitektur zur Verfügung. Da es sich bei der HEC um eine Private Cloud handelt, kann das System mittels Programmierungen an die Bedürfnisse eines Kunden angepasst werden.

Allerdings sind den Eingriffsmöglichkeiten Grenzen gesetzt. SAP spricht von einer klaren Clean-Core-Strategie. Das soll übermäßiges Customizing von SAP-Installationen, das vielen Anwenderunternehmen früher bei Release-Wechseln teils massive Probleme verursacht hat, eindämmen. Erweiterungen sollen vielmehr auf Basis der BTP möglich sein und über Standard-Schnittstellen, die SAP in seinem API-Hub auf der BTP anbietet, angebunden werden.

Lesetipp: SAP-CEO Christian Klein im Interview: SAP hätte mehr auf das Customizing achten sollen

Mit dem Angebot RISE with SAP bietet SAP seinen Kunden seit einigen Jahren einen schnellen Wechsel in die Cloud an. Dazu wurden ein Angebot aus SAP S/4HANA Cloud und ergänzend SAP Services erstellt, um Unternehmen bei der digitalen Transformation zu unterstützen. Diese erfolgt in den drei Schritten: Neugestaltung der Prozesse, technische Migration und Aufbau des intelligenten Unternehmens.

S/4HANA On-premises

Mit SAP S/4HANA On-premises verwaltet der Kunde vor Ort das S/4HANA-System, die HANA-Datenbank, Anwendungen, Rechenzentrum, Betriebssysteme, Middleware und Netzwerk. Das Unternehmen ist außerdem selbst verantwortlich für die Wartung und Entwicklung. Dadurch wird jedoch eine maximale Flexibilität ermöglicht. Anpassung der Software an unternehmensspezifische Anforderungen, die Steuerung der Häufigkeit und Zeitplanung von Upgrades sowie das Einspielen von Support-Packages übernimmt der Kunde in dieser Variante selbst.

S/4HANA Optionen und Betriebsmodelle
Foto: Christian Olausson

S/4HANA Hybrid

Grundsätzlich ist auch eine Kombination von S/4HANA Cloud und S/4HANA On-premises möglich. Dann spricht man vom hybriden Ansatz. Dabei können Unternehmen ausgewählte Prozesse, zum Beispiel die Kernprozesse, mit SAP S/4HANA On-premises lokal auf eigenen Servern betreiben. Andere Prozesse, die keiner individuellen Anpassung bedürfen, können in die Cloud ausgelagert werden.

Lesetipp: Tipps für die richtige SAP-Lizenzierung

SAP S/4HANA – Funktionen und Lösungen

Sprach man in der Vergangenheit beim SAP ERP immer von Modulen, die eingesetzt werden, spricht SAP selbst bei SAP S/4HANA von Prozessen, die das gesamte Geschäft abdecken und aufeinander abgestimmt sind. Die aktuelle Version SAP S/4HANA deckt dabei folgende Funktionsbereiche ab:

S/4HANA Sales & Marketing

S/4HANA Finance

S/4HANA Manufacturing

S/4HANA Supply Chain

S/4HANA Service

S/4HANA Asset Management

S/4HANA R&D / Engineering

S/4HANA Scouring & Procurement

S/4HANA Human Ressources

Mit dem neuen Aufbau von S/4HANA hat der Hersteller auch ein in Teilen neues Lizenzmodell veröffentlicht. Funktionen, die im sogenannten Digital Core, dem “SAP S/4HANA Enterprise Management”, enthalten sind, werden über User lizenziert. Hingegen sind die Funktionalitäten, die in den SAP S/4HANA Line-of-Business Solutions beziehungsweise den Suite LoB Solutions enthaltenen sind, separat zu lizenzieren. Die Suite LoB Solutions unterscheiden sich zu den S/4HANA LoB Solutions ansonsten darin, dass sie separat zu S/4HANA installiert werden. Die “doppelte” Lizenzierung von Lösungen, bei der für die LoB Solutions ein Nutzer eine SAP-Userlizenz und zusätzlich die Lösung lizenziert werden muss, entfällt im neuen Lizenzmodell.

SAP hat für verschiedene Branchen bereits Best-Practice-Lösungen vorgedacht. Unter S/4HANA bietet der Hersteller auf intelligenten Technologien basierende Lösungen für Best-Practice-Geschäftsprozesse für folgende Branchen:

Energie und natürliche Ressourcen

Baustoffe

Chemieindustrie

Metall-, Holz- und Papierindustrie

Bergbau

Öl- und Gasindustrie

Versorgungswirtschaft

Dienstleistungsbranche

Frachttransport und Logistik

Bauwirtschaft, Anlagen- und Schiffbau

Medien und Unterhaltung

Tourismus und Freizeitbranche

Dienstleistungen

Sport und Entertainment

Telekommunikation

Konsumgüterindustrie

Agrarindustrie

Konsumgüter

Mode

Life Sciences

Einzelhandel

Großhandel

Fertigungsindustrie

Luft- und Raumfahrtindustrie

Automobilindustrie

Hightech- und Elektronikindustrie

Maschinen-, Geräte- und Komponentenbau

Finanzdienstleistungen

Bankwesen

Versicherungen

Öffentlicher Dienst und Verwaltung

Innere und äußere Sicherheit

Städte der Zukunft

Gesundheitswesen

Hochschulen und Forschungseinrichtungen

Öffentlicher Sektor

S/4HANA – Migration

Da SAP angekündigt hat, die Wartung und die Weiterentwicklung von Altprodukten wie der Business Suite im Jahr 2027 einzustellen (Extended-Wartung gegen Aufpreis bis Ende 2030 möglich), steht für viele SAP-Kunden in den nächsten Jahren die Migration zu SAP S/4HANA an. Im Zuge des Programms „Rise with SAP“ soll es zwar eine Galgenfrist bis Ende 2033 geben. Man werde den Übergang erleichtern und „die Geschäftskontinuität der Kunden“ unterstützen, hieß es Anfang 2025 seitens des Softwareherstellers. Die Option nenne sich „SAP ERP, private edition, transition option“. 

Doch an der Migration führt letztendlich kein Weg vorbei – es sei denn die Kunden entscheiden sich, ihre alten SAP-Systeme mit Support-Angeboten von Drittanbietern wie zum Beispiel Rimini Street zu unterfüttern. Dabei stehen verschiedene technische und konzeptionelle Ansätze zur Migration zur Verfügung. Die Auswahl reicht von der kompletten Neuinstallation des Systems über die Konvertierung einzelner SAP-Systeme bis zur selektiven Migration. Welche Art der Migration am sinnvollsten ist, hängt von verschiedenen Kriterien ab:

die Ausgangskonfiguration des Kunden

die vorhandene IT-Systemlandschaft

Betriebsmodell (Cloud oder On-premises)

(IT-)strategische Zielsetzung

vorhandenes Know-how

organisatorische Strukturen.

Der grundlegende Neuaufbau der S/4HANA-Architektur und -Struktur macht die Migration bestehender SAP-Installationen zu einem sehr komplexen Prozess. Von SAP werden die zu berücksichtigenden Veränderungen in einer über 1000-seitigen Simplifizierungsliste im Detail beschrieben.

Greenfield-Ansatz

Der Greenfield-Ansatz beschreibt eine vollständige Neuimplementierung der SAP-Suite. Gemäß dem Titel auf der “grünen Wiese”. Das Unternehmen gibt dabei die bereits vorhandenen Systeme auf und ersetzt sie durch SAP S/4HANA. Die Daten der existierenden SAP- oder Nicht-SAP-Systeme lassen sich mit entsprechenden Anpassungen und Konvertierungen schrittweise in das neue System überführen. Dem Unternehmen bietet der Greenfield-Ansatz den Vorteil, dass die über die Jahre individualisierten ERP-Systeme durch eine neue Standardversion von SAP S/4HANA abgelöst werden. Das Unternehmen startet mit seiner ERP-Suite mehr oder weniger neu und wird von Altlasten befreit.

Brownfield-Ansatz

Der Brownfield-Ansatz verfolgt das Konzept einer schrittweisen Konvertierung und Umstellung bestehender SAP-ERP-Systeme zu SAP S/4HANA. Die bestehenden Systeme erhalten eine Art Upgrade. Individualisierungen bleiben, falls gewünscht, erhalten. Zur technischen Unterstützung der Migration existieren Lösungen wie der Software-Update-Manager (SUM) und die Daten-Migrations-Option (DMO). Vorteile des Brownfield-Ansatzes sind die mögliche Beibehaltung individueller Prozesse und die Integration in die vorhandene Systemlandschaft bei gleichzeitiger Modernisierung, Standardisierung und Konsolidierung des Gesamtsystems.

Bluefield-Ansatz

Der Bluefield Ansatz entspricht einer Kombination aus Greenfield- und Brownfield-Ansatz. Gestartet wird mit dem Aufbau eines leeren Zielsystems – der Schale – ohne Daten. Anschließend werden Stamm- und Bewegungsdaten mit Tools verschiedener Anbieter gezielt selektiert und in das leere Zielsystem migriert. Historische Daten werden hingegen archiviert. Prozesse und Funktionen können aus dem Alt-System übernommen oder neu konzipiert werden.

Landscape-Transformation

Der Fokus bei der Umwandlung der SAP-Landschaft besteht nicht darin, das gesamte System zu konvertieren. Mit der Umwandlung der SAP-Landschaft sollen vielmehr ausgewählte Daten zu SAP S/4HANA migriert oder Geschäftsprozesse mit einem globalen System konsolidiert werden. Der Ansatz bedeutet damit auch, dass zunächst die Prozesse ausgewählt werden, die den größten und schnellsten ROI bei der Migration zu S/4HANA bieten, zum Beispiel im Bereich S/4HANA Finance.

Ausblick: Mehr Business Suite und weniger S/4HANA

Zehn Jahre nach dem Marktauftritt von S/4HANA wird es stiller rund um S/4HANA. Im Rahmen ihrer neuen Geschäftsstrategie “Business Unleashed” zauberten die SAP-Verantwortlichen Mitte Februar 2025 mit der Business Suite ein aus alten On-premises-Tagen wohl bekanntes und bewährtes Software-Label aus dem Hut. Von der neuen Business Suite über die Business Data Cloud bis hin zu den KI-Apps – alles soll vorkonfiguriert in der Cloud ineinandergreifen, hieß es. In diesem Dreiklang aus Prozessen, Daten und KI scheint S/4HANA nur noch ein Ton unter vielen zu sein.

Unter der Business Suite versteht SAP ein modulares Set verschiedener miteinander integrierter Lösungen. Konkret nennt der Anbieter Cloud ERP, Business Applikationen, die Business Data Cloud und Business AI sowie als gemeinsame Basis die Business Technology Platform (BTP). Mit integriert ist außerdem SAP Build, um Kunden dabei zu helfen, ihre Anwendungen an individuelle Anforderungen anzupassen – ohne dabei allerdings in ein zu starkes Customizing abzudriften und immer einen „Clean Core“ zu behalten.

Lesetipp: SAP baut neue Business Suite in der Cloud

Auffallend an dieser Stelle: SAP spricht im Zusammenhang mit Business-Anwendungen nur noch von Cloud ERP und der Business Suite. Der Name S/4HANA, der die Strategie der SAP im zurückliegenden Jahrzehnt maßgeblich bestimmt hat, fällt gar nicht mehr. Inwieweit damit tatsächlich ein Strategiewechsel einhergeht oder ob es sich lediglich um ein Umlabeln handelt, ist noch nicht klar ersichtlich. Vielleicht möchte SAP an dieser Stelle auch einen Schlussstrich ziehen unter die ständigen Migrationsdiskussionen der vergangenen Jahre. Viele Unternehmen verbinden mit S/4HANA langwierige und kostenintensive Umstiegsprojekte und haben vielfach noch gar damit nicht angefangen, obwohl das Support-Ende für das Vorgänger-Release immer näher rückt. (bw/ba)

SAP S/4HANA LaunchSAP S/4HANA im DetailBill McDermott, CEO der SAP, eröffnete die Präsentation von SAP S/4HANA.SAP S/4HANA im DetailSAP S/4HANA kann mit zahlreichen neuen Features glänzen. SAP S/4HANA im DetailDie Neuerungen der SAP Business Suite 4 SAP HANA in der Public Cloud Edition im Detail.SAP S/4HANA im DetailDie Managed Cloud Edition der SAP Business Suite 4 SAP HANA wurde um diese Funktionen erweitert.SAP S/4HANA im DetailDie Neuerungen der On Premise Edition von SAP Business Suite 4 SAP HANA. SAP S/4HANA im DetailS/4HANA punktet mit seinem simplen und reduzierten Datenaufbau.SAP S/4HANA im DetailDie Entwickler von SAP HANA konnten in jeder Version den Database Footprint deutlich reduzieren. SAP S/4HANA im DetailS/4HANA wurde gehörig entrümpelt. Durch die reduzierte Komplexität hat die aktuelle SAP-HANA-Version im Vergleich zur Vorgängerversion enorm an Performance zugelegt. SAP S/4HANA im DetailBernd Leukert, Vorstand für Produkte und Innovation, demonstrierte, wie SAP S/4HANA in der Praxis funktioniert.SAP S/4HANA im DetailSAP S/4HANA im Praxiseinsatz.SAP S/4HANA im DetailSAP S/4HANA meldet einen Pumpendefekt und startet entsprechende Prozesse, um diese Störung schnellstmöglich zu beheben.SAP S/4HANA im DetailAuch mit mobilen Geräten kann SAP S/4 HANA umgehen. SAP S/4HANA im DetailBei Bedarf kann der IT-Verantwortlich SAP S/4 HANA auch vom Armgelenk aus steuern.

Was Sie über S/4HANA wissen müssen​ Weiterlesen »

Rust-basierte Type Checker für Python im Vergleich​

Allgemein

Tools auf Rust-Basis versprechen performanteres Type Checking in Python.RHJPhtotos | shutterstock.com Diverse neuere Drittanbieter-Tools für Python sind inzwischen in Rust geschrieben. Das liegt vor allem daran, dass moderne Programmierwerkzeuge eine Echtzeit-Feedbackschleife erfordern, die Python nicht in jedem Fall in der erforderlichen Geschwindigkeit bereitstellen kann. Diese Lücke kann Rust füllen – etwa in den Bereichen Projektmanagement (uv) oder Code-Formatierung (ruff). Hinzu kommen nun jedoch auch Type Checker auf Rust-Basis, die potenziell schneller und performanter sind als entsprechende Python-Pendants. Zu diesen Werkzeugen zählen auch: Ty, ein Projekt vom Python-Spezialisten Astral, sowie Pyrefly, das in den Laboren von Meta entstanden ist. Beide Type-Checking-Tools bedienen dabei im Wesentlichen denselben Anwendungsfall: Sie versprechen, Hochgeschwindigkeits-Type-Checking und Sprachservices für Python bereitzustellen. Wir haben uns die Funktionen und die Usability der beiden Type Checker auf Rust-Basis genauer angesehen und sagen Ihnen, welches Tool sich derzeit für Python-Entwickler am besten eignet. Pyrefly Pyrefly ist nicht der erste Python-Type-Checking-Vorstoss von Meta. Zuvor hatte der Social-Media-Gigant bereits das in OCaml geschriebene Tool Pyre veröffentlicht. Dieses wurde inzwischen eingestellt und durch Pyrefly ersetzt. Wenn Sie das Tool erstmals auf eine bestehende Python-Codebasis “loslassen”, sind Sie in der Regel mit einer Flut von Fehlermarkierungen konfrontiert. Die lassen sich über folgenden Befehl durch speziell interpretierte Kommentare unterdrücken: pyrefly check –suppress-errors Die Suppressions lassen sich anschließend selektiv entfernen und die Codebasis nach und nach bereinigen – indem Sie diesen Befehl ausführen: pyrefly check –remove-unused-ignores Auf diese Weise können Sie nicht typisierte Codebasen schrittweise migrieren. Wie alle modernen Python-Tools nutzt auch Pyrefly pyproject.toml, um seine Konfigurationsdateien auf Projektebene zu speichern. Sie können auch Verzeichniskonfigurationen mit eigenständigen pyrefly.toml-Projekten hinzufügen, die dieselbe Syntax verwenden – oder Verzeichnis-spezifische Überschreibungen für Optionen in einer einzigen Konfigurationsdatei bereitstellen. Die Liste der geprüften Fehlertypen von Pyrefly deckt sich weitgehend mit denen, die auch mypy und Pyright verarbeiten können. Von diesen Tools zu Pyrefly zu migrieren, ist denkbar einfach, weil es sich automatisiert bewerkstelligen lässt. Für ein Projekt, das immer noch in der Anfangsphase steckt, fühlt sich Pyrefly bereits ziemlich ausgereift an. So stehen etwa bereits eine detaillierte Dokumentation, eine Erweiterung für Visual Studio Code und sogar eine Online-Sandbox zu Experimentierzwecken zur Verfügung. Falls Sie das uv-Tool einsetzen, können Sie darüber hinaus mit Pyrefly herumspielen, ohne überhaupt irgendetwas zu installieren. Das funktioniert mit dem Befehl: uvx pyrefly Zu beachten ist, dass uv dadurch als virtuelle Umgebung für Python genutzt wird. Das führt möglicherweise dazu, dass irreführende Fehlermeldungen generiert werden, wenn Sie ein anderes venv für Ihr Projekt verwenden. Ty Das Astral-Projekt Ty befindet sich ebenfalls noch in einem relativ frühen Stadium – allerdings zeigt sich das deutlicher stärker als bei Pyrefly. So ist die Dokumentation weniger ausführlich und auch der Funktionsumfang schmaler als beim Tool von Meta. Installieren lässt sich Ty wahlweise über pip oder uvx. Dabei erkennt das Tool Quellverzeichnisse in einem mit pyproject.toml konfigurierten Projekt, was verhindert, dass es versehentlich Python-Dateien in der virtuellen Umgebung durchforstet. Allerdings fallen auch die Konfigurationsoptionen schmäler aus als bei Pyrefly: So werden Dateien von Überprüfungen mit .gitignore oder anderen externen Files exkludiert – statt über Konfigurationsregeln. Der Regelsatz von Ty um Dateien zu überprüfen, deckt jedoch einige Fälle ab, die bei anderen Tools unter den Tisch fallen. So überprüft Ty beispielsweise zwar nicht auf asynchrone Fehler, erkennt jedoch wenn Klassendefinitionen widersprüchliche Verwendungen von __slots__ enthalten. Davon abgesehen, bringt Ty aber auch zwei entscheidende Funktionen bereits mit: Es ist mit dem Language Server Protocol kompatibel und bietet eine VS-Code-Erweiterung, um das zu nutzen. Ein weiterer Pluspunkt ist der Detailgrad der Fehlerberichte. Während Pyrefly lediglich Zeilennummer und Fehlertyp liefert, gibt Ty kontextbezogene Fehlermeldungen im Stil von modernem Python aus. Pyrefly vs. Ty – Vergleichsfazit Pyrefly und Ty liegen in Sachen Performance in etwa auf Augenhöhe. Allerdings dürfte sich Pyrefly momentan als nützlicher erweisen. Das ist in erster Linie dem breiteren Funktionsumfang, der besseren Dokumentation und den Migrations-Tools zuzuschreiben. Für die Zukunft ist jedoch nicht ausgeschlossen, dass sich das Kräfteverhältnis in diesem Duell noch verändern wird. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Rust-basierte Type Checker für Python im Vergleich​ Tools auf Rust-Basis versprechen performanteres Type Checking in Python.RHJPhtotos | shutterstock.com

Diverse neuere Drittanbieter-Tools für Python sind inzwischen in Rust geschrieben. Das liegt vor allem daran, dass moderne Programmierwerkzeuge eine Echtzeit-Feedbackschleife erfordern, die Python nicht in jedem Fall in der erforderlichen Geschwindigkeit bereitstellen kann. Diese Lücke kann Rust füllen – etwa in den Bereichen Projektmanagement (uv) oder Code-Formatierung (ruff). Hinzu kommen nun jedoch auch Type Checker auf Rust-Basis, die potenziell schneller und performanter sind als entsprechende Python-Pendants. Zu diesen Werkzeugen zählen auch:

Ty, ein Projekt vom Python-Spezialisten Astral, sowie

Pyrefly, das in den Laboren von Meta entstanden ist.

Beide Type-Checking-Tools bedienen dabei im Wesentlichen denselben Anwendungsfall: Sie versprechen, Hochgeschwindigkeits-Type-Checking und Sprachservices für Python bereitzustellen. Wir haben uns die Funktionen und die Usability der beiden Type Checker auf Rust-Basis genauer angesehen und sagen Ihnen, welches Tool sich derzeit für Python-Entwickler am besten eignet.

Pyrefly

Pyrefly ist nicht der erste Python-Type-Checking-Vorstoss von Meta. Zuvor hatte der Social-Media-Gigant bereits das in OCaml geschriebene Tool Pyre veröffentlicht. Dieses wurde inzwischen eingestellt und durch Pyrefly ersetzt. Wenn Sie das Tool erstmals auf eine bestehende Python-Codebasis “loslassen”, sind Sie in der Regel mit einer Flut von Fehlermarkierungen konfrontiert. Die lassen sich über folgenden Befehl durch speziell interpretierte Kommentare unterdrücken:

pyrefly check –suppress-errors

Die Suppressions lassen sich anschließend selektiv entfernen und die Codebasis nach und nach bereinigen – indem Sie diesen Befehl ausführen:

pyrefly check –remove-unused-ignores

Auf diese Weise können Sie nicht typisierte Codebasen schrittweise migrieren.

Wie alle modernen Python-Tools nutzt auch Pyrefly pyproject.toml, um seine Konfigurationsdateien auf Projektebene zu speichern. Sie können auch Verzeichniskonfigurationen mit eigenständigen pyrefly.toml-Projekten hinzufügen, die dieselbe Syntax verwenden – oder Verzeichnis-spezifische Überschreibungen für Optionen in einer einzigen Konfigurationsdatei bereitstellen. Die Liste der geprüften Fehlertypen von Pyrefly deckt sich weitgehend mit denen, die auch mypy und Pyright verarbeiten können. Von diesen Tools zu Pyrefly zu migrieren, ist denkbar einfach, weil es sich automatisiert bewerkstelligen lässt.

Für ein Projekt, das immer noch in der Anfangsphase steckt, fühlt sich Pyrefly bereits ziemlich ausgereift an. So stehen etwa bereits eine detaillierte Dokumentation, eine Erweiterung für Visual Studio Code und sogar eine Online-Sandbox zu Experimentierzwecken zur Verfügung.

Falls Sie das uv-Tool einsetzen, können Sie darüber hinaus mit Pyrefly herumspielen, ohne überhaupt irgendetwas zu installieren. Das funktioniert mit dem Befehl:

uvx pyrefly

Zu beachten ist, dass uv dadurch als virtuelle Umgebung für Python genutzt wird. Das führt möglicherweise dazu, dass irreführende Fehlermeldungen generiert werden, wenn Sie ein anderes venv für Ihr Projekt verwenden.

Ty

Das Astral-Projekt Ty befindet sich ebenfalls noch in einem relativ frühen Stadium – allerdings zeigt sich das deutlicher stärker als bei Pyrefly. So ist die Dokumentation weniger ausführlich und auch der Funktionsumfang schmaler als beim Tool von Meta.

Installieren lässt sich Ty wahlweise über pip oder uvx. Dabei erkennt das Tool Quellverzeichnisse in einem mit pyproject.toml konfigurierten Projekt, was verhindert, dass es versehentlich Python-Dateien in der virtuellen Umgebung durchforstet. Allerdings fallen auch die Konfigurationsoptionen schmäler aus als bei Pyrefly: So werden Dateien von Überprüfungen mit .gitignore oder anderen externen Files exkludiert – statt über Konfigurationsregeln.

Der Regelsatz von Ty um Dateien zu überprüfen, deckt jedoch einige Fälle ab, die bei anderen Tools unter den Tisch fallen. So überprüft Ty beispielsweise zwar nicht auf asynchrone Fehler, erkennt jedoch wenn Klassendefinitionen widersprüchliche Verwendungen von __slots__ enthalten.

Davon abgesehen, bringt Ty aber auch zwei entscheidende Funktionen bereits mit: Es ist mit dem Language Server Protocol kompatibel und bietet eine VS-Code-Erweiterung, um das zu nutzen. Ein weiterer Pluspunkt ist der Detailgrad der Fehlerberichte. Während Pyrefly lediglich Zeilennummer und Fehlertyp liefert, gibt Ty kontextbezogene Fehlermeldungen im Stil von modernem Python aus.

Pyrefly vs. Ty – Vergleichsfazit

Pyrefly und Ty liegen in Sachen Performance in etwa auf Augenhöhe. Allerdings dürfte sich Pyrefly momentan als nützlicher erweisen. Das ist in erster Linie dem breiteren Funktionsumfang, der besseren Dokumentation und den Migrations-Tools zuzuschreiben.

Für die Zukunft ist jedoch nicht ausgeschlossen, dass sich das Kräfteverhältnis in diesem Duell noch verändern wird. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Rust-basierte Type Checker für Python im Vergleich​ Weiterlesen »

Verliert Deutschland seine KI-Talente?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?quality=50&strip=all 5838w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fast die Hälfte der Freelancer wollen Deutschland den Rücken kehren, darunter größtenteils KI-Experten.Song_about_summer – Shutterstock Das häufig angeführte Argument, in Deutschland fehlten KI-Experten, trifft nicht ganz zu. Wie der Freelancer-Kompass 2025 zeigt, setzen sich 77 Prozent der Freelancer, Freiberufler und Selbstständigen im deutschsprachigen Raum mit KI-Tools auseinander. Gut drei Viertel davon geben an, teilweise oder hauptsächlich für Kunden in Deutschland zu arbeiten. Noch muss man sagen: Laut Umfrage ziehen 48 Prozent der insgesamt 1.752 befragten Freelancer einen Umzug ins Ausland in Betracht, darunter größtenteils (93 Prozent) KI-Experten. Neun Prozent der befragten Freiberufler haben den Schritt bereits vollzogen, weitere acht Prozent planen ihn konkret. Es gibt aber auch positive Entwicklungen: Lag 2024 der Anteil derer, für die eine Auswanderung nicht infrage kommt, bei nur 22 Prozent, erhöhte sich dieser Wert nun deutlich auf 35 Prozent. Politik schreckt ab, Ausland lockt Die Gründe der bereits Ausgewanderten sprechen Bände: Für 42 Prozent der befragten Freelancer, die Deutschland bereits den Rücken gekehrt haben, sind die besseren Lebensbedingungen das Hauptargument. Dahinter folgen: steuerliche Vorteile (38 Prozent), politische oder gesellschaftliche Gründe (37 Prozent), der Wunsch nach weniger Bürokratie (34 Prozent), der geringeren Gefahr der Scheinselbstständigkeit (25 Prozent), und bessere berufliche Chancen im Ausland (20 Prozent).  Umdenken erforderlich Wenn fast jeder zweite Freelancer darüber nachdenkt, Deutschland zu verlassen, ist das kein individuelles Problem mehr, sondern ein strukturelles Versagen”, kommentiert Thomas Maas, CEO von freelancermap, die Ergebnisse. Freelancer wollten arbeiten, gestalten, mit KI vorangehen, stießen jedoch auf politische Hürden, wo eigentlich Rückenwind nötig wäre. Dabei sei Freelancing laut dem Manager nicht weniger als ein Zukunftsmodell und Innovationsbringer. 

Verliert Deutschland seine KI-Talente?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?quality=50&strip=all 5838w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2467550689_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fast die Hälfte der Freelancer wollen Deutschland den Rücken kehren, darunter größtenteils KI-Experten.Song_about_summer – Shutterstock

Das häufig angeführte Argument, in Deutschland fehlten KI-Experten, trifft nicht ganz zu. Wie der Freelancer-Kompass 2025 zeigt, setzen sich 77 Prozent der Freelancer, Freiberufler und Selbstständigen im deutschsprachigen Raum mit KI-Tools auseinander. Gut drei Viertel davon geben an, teilweise oder hauptsächlich für Kunden in Deutschland zu arbeiten.

Noch muss man sagen: Laut Umfrage ziehen 48 Prozent der insgesamt 1.752 befragten Freelancer einen Umzug ins Ausland in Betracht, darunter größtenteils (93 Prozent) KI-Experten. Neun Prozent der befragten Freiberufler haben den Schritt bereits vollzogen, weitere acht Prozent planen ihn konkret.

Es gibt aber auch positive Entwicklungen: Lag 2024 der Anteil derer, für die eine Auswanderung nicht infrage kommt, bei nur 22 Prozent, erhöhte sich dieser Wert nun deutlich auf 35 Prozent.

Politik schreckt ab, Ausland lockt

Die Gründe der bereits Ausgewanderten sprechen Bände: Für 42 Prozent der befragten Freelancer, die Deutschland bereits den Rücken gekehrt haben, sind die besseren Lebensbedingungen das Hauptargument. Dahinter folgen:

steuerliche Vorteile (38 Prozent),

politische oder gesellschaftliche Gründe (37 Prozent),

der Wunsch nach weniger Bürokratie (34 Prozent),

der geringeren Gefahr der Scheinselbstständigkeit (25 Prozent), und

bessere berufliche Chancen im Ausland (20 Prozent). 

Umdenken erforderlich

Wenn fast jeder zweite Freelancer darüber nachdenkt, Deutschland zu verlassen, ist das kein individuelles Problem mehr, sondern ein strukturelles Versagen”, kommentiert Thomas Maas, CEO von freelancermap, die Ergebnisse. Freelancer wollten arbeiten, gestalten, mit KI vorangehen, stießen jedoch auf politische Hürden, wo eigentlich Rückenwind nötig wäre. Dabei sei Freelancing laut dem Manager nicht weniger als ein Zukunftsmodell und Innovationsbringer.

Verliert Deutschland seine KI-Talente?​ Weiterlesen »

6 Trends – wie KI die Softwareentwicklung verändert​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>KI dürfte die Art und Weise des Coding neuer Software massiv verändern.BEST-BACKGROUNDS – shutterstock.com Die Marktforscher von Gartner haben strategische Trends in der Softwareentwicklung für 2025 und die darauffolgenden Jahre identifiziert. Unternehmen könnten mithilfe KI-gestützter Automatisierung Innovationen zu beschleunigen und effiziente, zukunftsorientierte Engineering-Praktiken etablieren, prognostizieren die Analysten. „KI-fähige Tools und Technologien revolutionieren die Art und Weise, wie Software entwickelt und bereitgestellt wird“, erklärt dazu Joachim Herschmann, VP Analyst bei Gartner. Es gelte, das Potenzial KI-gesteuerter Automatisierung voll auszuschöpfen, Talentstrategien gezielt weiterzuentwickeln und nachhaltige, KI-native Engineering-Praktiken einzuführen, empfiehlt Herschmann. Diese sechs zentralen Trends im Software Engineering sollten Anwenderunternehmen dabei in den kommenden Jahren im Blick behalten. AI-native Software-Engineering AI-native Software-Engineering wird Gartner zufolge den Software Development Life Cycle (SDLC) grundlegend verändern. KI-Tools würden in jeder Phase des Softwareentwicklungsprozesses eine zentrale Rolle spielen, vom Design bis zur Bereitstellung. Dabei werde KI einen erheblichen Teil der Aufgaben im SDLC autonom oder halbautonom erledigen können. Lesetipp: So wird man einen Job als Chefentwickler los Gartner geht davon aus, dass bis 2028 rund 90 Prozent aller Softwareentwickler in Unternehmen KI-Code-Assistenten verwenden werden. Zum Vergleich: Anfang 2024 waren es weniger als 14 Prozent. Auchdie Rolle der Entwickler wird sich verändern und von der Implementierung zur Orchestrierung verlagern. Dabei werde der Fokus mehr auf Problemlösungen und dem Systemdesign liegen. Entwickler müssten zudem sicherstellen, dass KI-Tools hochwertige Ergebnisse liefern. Es gelte, innerhalb der Teams die Balance zwischen Automatisierung und menschlicher Aufsicht zu finden. LLM-basierte Anwendungen und Agenten Large Language Models (LLMs) verändern die Softwareentwicklung, indem sie Anwendungen in die Lage versetzen, intelligent und autonom zu interagieren – ähnlich wie menschliche Interaktionen. Gartner prognostiziert, dass bis 2027 mindestens 55 Prozent der Softwareentwicklungsteams LLM-basierte Funktionen entwickeln werden. „Um LLM-basierte Anwendungen und Agenten erfolgreich zu entwickeln, müssen Softwareentwickler ihre Strategien überdenken“, sagt Herschmann. Unternehmen müssten dafür in Weiterbildung investieren, die Experimente mit GenAI ausbauen und gleichzeitig Leitplanken für den KI-Einsatz einrichten, um die damit verbundenen Risiken im Griff zu behalten. GenAI-Plattform-Engineering Das GenAI-Plattform-Engineering baut Gartner zufolge auf bereits etablierten Plattform-Engineering-Ansätzen auf. Entwickler sollen damit besser unterstützt werden, GenAI-Funktionen einfacher und vor allem auch sicher in ihren Anwendungen zu integrieren. Die Analysten prognostizieren, dass bis 2027 etwa sieben von zehn Unternehmen mit Plattformteams GenAI-Funktionen in ihre internen Entwicklerplattformen integrieren werden. Lesetipp: Der GenAI-Entwicklungsprozess in 7 Schritten Auf diesen Plattformen müssten KI-Funktionen über Self-Service-Entwicklerportale leicht auffindbar sein und nach den Bedürfnissen der Entwickler priorisiert werden. Darüber hinaus brauche es robuste Governance- und Sicherheitspraktiken. Nur so könnten Führungskräfte sicherstellen, dass ihre Teams innovative Anwendungen entwickeln, die den Unternehmensstandards entsprechen, so Gartner. Maximierung der Talentdichte Die Talentdichte hat sich zu einem wichtigen Unterscheidungsmerkmal für Unternehmen entwickelt. Teams mit einer hohen Konzentration an hochqualifizierten Fachkräften könnten effizienter und anpassungsfähiger arbeiten und so einen höheren Kundennutzen erzielen, wenn sie durch die richtige Kultur und Technologiestrategie unterstützt werden. „Um wettbewerbsfähig zu bleiben, müssen Unternehmen über traditionelle Einstellungspraktiken hinausgehen und sich auf den Aufbau von Teams mit hoher Talentdichte konzentrieren“, rät Gartner-Analyst Herschmann. Voraussetzung dafür sei eine Kultur des kontinuierlichen Lernens und der Zusammenarbeit. Das helfe, qualifizierte Fachkräfte anzuziehen und auch im Unternehmen zu halten. Offene GenAI-Modelle und Ökosysteme Offene GenAI-Modelle bieten Betrieben größere Flexibilität, niedrigere Kosten und weniger Vendor-Lock-in, konstatiert Gartner. Im Gegensatz zu proprietären Modellen ließen sich KI-Lösungen mit offenen GenAI-Modellen besser anpassen und genauer auf die individuellen Anforderungen hin abstimmen – , ei es On-Premises im eigenen Rechenzentrum oder in der Cloud. KI-Funktionen würden so für ein breiteres Spektrum von Teams und Anwendungsfällen zugänglicher und auch kostengünstiger. Gartner prognostiziert, dass bis 2028 rund 30 Prozent der weltweiten Unternehmensausgaben für GenAI-Technologien auf offene GenAI-Modelle entfallen werden. Green Software Engineering Green Software Engineering soll Entwicklung von Software nachhaltiger machen. Dabei würden Umweltauswirkungen von Software nicht mehr als nachgelagerter Aspekt betrachtet, sondern von Anfang an grüne Praktiken in jeder Phase des Entwicklungsprozesses von der Planung bis zur Produktion integriert. Lesetipp: Nachhaltige Softwareentwicklung – Wie Green Coding Ihre Kosten drückt „Da Unternehmen im Rahmen digitaler Initiativen immer mehr Software entwickeln und kaufen, kann die Zunahme des CO2-Fußabdrucks durch rechenintensive Workloads im Widerspruch zu ihren Nachhaltigkeitszielen stehen“, warnt Gartner-Analyst Herschmann. Gerade die Entwicklung intelligenter Anwendungen mit GenAI sei extrem energieintensiv, was nachhaltige Praktiken in der Softwareentwicklung unabdingbar mache. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/4VmhAcSEOLgbG2KUofeTj6?utm_source=oembed”> 

6 Trends – wie KI die Softwareentwicklung verändert​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>KI dürfte die Art und Weise des Coding neuer Software massiv verändern.BEST-BACKGROUNDS – shutterstock.com

Die Marktforscher von Gartner haben strategische Trends in der Softwareentwicklung für 2025 und die darauffolgenden Jahre identifiziert. Unternehmen könnten mithilfe KI-gestützter Automatisierung Innovationen zu beschleunigen und effiziente, zukunftsorientierte Engineering-Praktiken etablieren, prognostizieren die Analysten. „KI-fähige Tools und Technologien revolutionieren die Art und Weise, wie Software entwickelt und bereitgestellt wird“, erklärt dazu Joachim Herschmann, VP Analyst bei Gartner.

Es gelte, das Potenzial KI-gesteuerter Automatisierung voll auszuschöpfen, Talentstrategien gezielt weiterzuentwickeln und nachhaltige, KI-native Engineering-Praktiken einzuführen, empfiehlt Herschmann. Diese sechs zentralen Trends im Software Engineering sollten Anwenderunternehmen dabei in den kommenden Jahren im Blick behalten.

AI-native Software-Engineering

AI-native Software-Engineering wird Gartner zufolge den Software Development Life Cycle (SDLC) grundlegend verändern. KI-Tools würden in jeder Phase des Softwareentwicklungsprozesses eine zentrale Rolle spielen, vom Design bis zur Bereitstellung. Dabei werde KI einen erheblichen Teil der Aufgaben im SDLC autonom oder halbautonom erledigen können.

Lesetipp: So wird man einen Job als Chefentwickler los

Gartner geht davon aus, dass bis 2028 rund 90 Prozent aller Softwareentwickler in Unternehmen KI-Code-Assistenten verwenden werden. Zum Vergleich: Anfang 2024 waren es weniger als 14 Prozent. Auchdie Rolle der Entwickler wird sich verändern und von der Implementierung zur Orchestrierung verlagern. Dabei werde der Fokus mehr auf Problemlösungen und dem Systemdesign liegen. Entwickler müssten zudem sicherstellen, dass KI-Tools hochwertige Ergebnisse liefern. Es gelte, innerhalb der Teams die Balance zwischen Automatisierung und menschlicher Aufsicht zu finden.

LLM-basierte Anwendungen und Agenten

Large Language Models (LLMs) verändern die Softwareentwicklung, indem sie Anwendungen in die Lage versetzen, intelligent und autonom zu interagieren – ähnlich wie menschliche Interaktionen. Gartner prognostiziert, dass bis 2027 mindestens 55 Prozent der Softwareentwicklungsteams LLM-basierte Funktionen entwickeln werden.

„Um LLM-basierte Anwendungen und Agenten erfolgreich zu entwickeln, müssen Softwareentwickler ihre Strategien überdenken“, sagt Herschmann. Unternehmen müssten dafür in Weiterbildung investieren, die Experimente mit GenAI ausbauen und gleichzeitig Leitplanken für den KI-Einsatz einrichten, um die damit verbundenen Risiken im Griff zu behalten.

GenAI-Plattform-Engineering

Das GenAI-Plattform-Engineering baut Gartner zufolge auf bereits etablierten Plattform-Engineering-Ansätzen auf. Entwickler sollen damit besser unterstützt werden, GenAI-Funktionen einfacher und vor allem auch sicher in ihren Anwendungen zu integrieren. Die Analysten prognostizieren, dass bis 2027 etwa sieben von zehn Unternehmen mit Plattformteams GenAI-Funktionen in ihre internen Entwicklerplattformen integrieren werden.

Lesetipp: Der GenAI-Entwicklungsprozess in 7 Schritten

Auf diesen Plattformen müssten KI-Funktionen über Self-Service-Entwicklerportale leicht auffindbar sein und nach den Bedürfnissen der Entwickler priorisiert werden. Darüber hinaus brauche es robuste Governance- und Sicherheitspraktiken. Nur so könnten Führungskräfte sicherstellen, dass ihre Teams innovative Anwendungen entwickeln, die den Unternehmensstandards entsprechen, so Gartner.

Maximierung der Talentdichte

Die Talentdichte hat sich zu einem wichtigen Unterscheidungsmerkmal für Unternehmen entwickelt. Teams mit einer hohen Konzentration an hochqualifizierten Fachkräften könnten effizienter und anpassungsfähiger arbeiten und so einen höheren Kundennutzen erzielen, wenn sie durch die richtige Kultur und Technologiestrategie unterstützt werden.

„Um wettbewerbsfähig zu bleiben, müssen Unternehmen über traditionelle Einstellungspraktiken hinausgehen und sich auf den Aufbau von Teams mit hoher Talentdichte konzentrieren“, rät Gartner-Analyst Herschmann. Voraussetzung dafür sei eine Kultur des kontinuierlichen Lernens und der Zusammenarbeit. Das helfe, qualifizierte Fachkräfte anzuziehen und auch im Unternehmen zu halten.

Offene GenAI-Modelle und Ökosysteme

Offene GenAI-Modelle bieten Betrieben größere Flexibilität, niedrigere Kosten und weniger Vendor-Lock-in, konstatiert Gartner. Im Gegensatz zu proprietären Modellen ließen sich KI-Lösungen mit offenen GenAI-Modellen besser anpassen und genauer auf die individuellen Anforderungen hin abstimmen – , ei es On-Premises im eigenen Rechenzentrum oder in der Cloud.

KI-Funktionen würden so für ein breiteres Spektrum von Teams und Anwendungsfällen zugänglicher und auch kostengünstiger. Gartner prognostiziert, dass bis 2028 rund 30 Prozent der weltweiten Unternehmensausgaben für GenAI-Technologien auf offene GenAI-Modelle entfallen werden.

Green Software Engineering

Green Software Engineering soll Entwicklung von Software nachhaltiger machen. Dabei würden Umweltauswirkungen von Software nicht mehr als nachgelagerter Aspekt betrachtet, sondern von Anfang an grüne Praktiken in jeder Phase des Entwicklungsprozesses von der Planung bis zur Produktion integriert.

Lesetipp: Nachhaltige Softwareentwicklung – Wie Green Coding Ihre Kosten drückt

„Da Unternehmen im Rahmen digitaler Initiativen immer mehr Software entwickeln und kaufen, kann die Zunahme des CO2-Fußabdrucks durch rechenintensive Workloads im Widerspruch zu ihren Nachhaltigkeitszielen stehen“, warnt Gartner-Analyst Herschmann. Gerade die Entwicklung intelligenter Anwendungen mit GenAI sei extrem energieintensiv, was nachhaltige Praktiken in der Softwareentwicklung unabdingbar mache.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/4VmhAcSEOLgbG2KUofeTj6?utm_source=oembed”>

6 Trends – wie KI die Softwareentwicklung verändert​ Weiterlesen »

Cloudflare will KI-Crawler zur Kasse bitten​

Allgemein

Mit einem interessanten Bezahlmodell will Cloudflare Unternehmen helfen, ihren wertvollen Content zu monetarisieren – oder vor KI-Bots zu schützen. Alysson M / Shutterstock.com Cloudflare hatte bereits im Juli 2024 damit begonnen, seinen Kunden die Möglichkeit zu geben, KI-Crawler zu blockieren. Seitdem haben sich laut eigenen Angaben über eine Million Kunden für diese Option entschieden. Nun schaltet der Cloud-Infrastrukturbetreiber einen Gang hoch. Cloudflare wird ab dem 1. Juli KI-Crawler standardmäßig daran hindern, auf die Websites neuer Kunden zuzugreifen, sofern keine Erlaubnis vorliegt. Parallel testet das Unternehmen eine Möglichkeit, KI-Anbieter für die von ihnen gesammelten Daten zahlen zu lassen. Darüber hinaus können Website-Besitzer nun entscheiden, wer auf ihren Seiten crawlt und zu welchem Zweck. KI-Unternehmen können über Cloudflare offenlegen, ob die gesammelten Daten für Training, Inferenz oder Suche verwendet werden, um den Website-Besitzern bei der Entscheidung zu helfen, ob sie den Crawl erlauben. „Seit Jahrzehnten funktioniert das Internet nach einem einfachen Prinzip“, erklärt Cloudflare in seiner Ankündigung: „Suchmaschinen indexieren Inhalte und leiten Nutzer zurück zu den Originalseiten, was für Websites jeder Größe Traffic und Werbeeinnahmen generiert. Dieser Kreislauf belohnt Urheber, die hochwertige Inhalte erstellen, mit Geld und einer Anhängerschaft, während er Nutzern hilft, neue und interessante Informationen zu entdecken.“ Dieses Modell sei nun gescheitert, konstatiert das Unternehmen. KI-Crawler sammelten Inhalte wie Texte, Artikel und Bilder, um Antworten zu generieren, ohne Besucher zur Originalquelle weiterzuleiten – wodurch den Erstellern der Inhalte Einnahmen entgingen und ihnen die Befriedigung genommen werde, zu wissen, dass jemand ihre Inhalte liest. „Wenn der Anreiz, originelle, hochwertige Inhalte zu erstellen, verschwindet, verliert die Gesellschaft und die Zukunft des Internets ist gefährdet“, so Cloudflare. Bezahlen pro Crawl Cloudflare testet derzeit einen neuen Bezahlmechanismus namens „Pay per Crawl“. Dieser ermöglicht es Website-Betreibern zu entscheiden, ob sie KI-Crawlern den Zugriff auf ihre Inhalte gestatten – und ob dieser Zugriff kostenlos oder kostenpflichtig sein soll. Die Technologie, die sich derzeit in einer privaten Beta-Phase befindet, integriert sich in bestehende Web-Infrastrukturen, um ein Framework zu schaffen, mit dem Website-Betreiber eine Zahlung verlangen können und dem Crawler den Preis über den HTTP-Antwortcode „402 Zahlung erforderlich“ mitteilen können. Der Website-Betreiber kann aktuell entweder einen einheitlichen Preis für die gesamte Seite festlegen oder bestimmten Crawlern kostenlosen Zugriff erlauben. Cloudflare geht jedoch davon aus, dass sich diese Funktion weiterentwickeln wird – möglicherweise mit dynamischer Preisgestaltung oder unterschiedlichen Gebühren für verschiedene Inhaltstypen. „Das wahre Potenzial von Pay-per-Crawl könnte sich in einer agentenbasierten Welt entfalten“, schreibt das Unternehmen in einem Blogbeitrag zur neuen Funktion. „Was wäre, wenn eine agentische Paywall vollständig programmatisch am Netzwerkrand funktionieren könnte? Stellen sie sich vor, Íhr bevorzugtes Deep-Research-Programm hilft Ihnen, die neueste Krebsforschung oder ein juristisches Gutachten zusammenzufassen – oder einfach nur das beste Restaurant in Soho zu finden – und Sie geben diesem Agenten ein Budget, um die besten und relevantesten Inhalte zu erwerben“, sinniert Cloudflare. Der Webhoster fungiert bei dem Modell als Händler für die Käufe, stellt den Crawlern die Rechnungen aus und verteilt die Gelder an die Website-Betreiber. Falls ein Crawler noch keine Abrechnungsbeziehung mit Cloudflare hat, wird er blockiert, erhält aber eine Fehlermeldung, die darauf hinweist, dass er mit einer solchen Beziehung möglicherweise Zugriff auf die Inhalte erhalten könnte. Cloudflare hat sowohl Crawler, die bereit sind, für Inhalte zu zahlen, als auch Inhaltsanbieter, die bezahlt werden möchten, eingeladen, sich für die Beta-Version anzumelden. Bestehende Unternehmenskunden können sich auch an ihren Kundenbetreuer wenden. Eine Win-Win-Situation Fritz Jean-Louis, Principal Cybersecurity Advisor bei der Info-Tech Research Group, sieht diesen Ansatz als positiven Schritt, der Bedenken hinsichtlich der unbefugten Nutzung von Inhalten durch KI-Crawler adressiere: „Indem Website-Betreiber die Kontrolle darüber erhalten, wie ihre Inhalte von KI-Crawlern abgerufen und genutzt werden, können Content-Ersteller ihr geistiges Eigentum schützen und ihre Inhalte möglicherweise monetarisieren“, so der Chefberater. Die Verpflichtung für KI-Unternehmen, den Zweck ihrer Crawler offenzulegen, schaffe ein Maß an Transparenz und Verantwortlichkeit, das der Branche bislang gefehlt habe. Es trage dazu bei, Vertrauen zwischen Content-Erstellern und KI-Unternehmen aufzubauen. Der Analyst sieht jedoch noch ungelöste Probleme, die angegangen werden müssten – etwa, wie mit sogenannten „Legacy“-Informationen, die bereits von Crawlern erfasst wurden, umzugehen ist. Grundsätzlich befürwortet Jean-Louis aber branchengetriebene Lösungen gegenüber strafenden Regulierungen: „Dieser Schritt von Cloudflare könnte auf einen Wandel in der Branche hindeuten – zu einem fairen und nachhaltigen digitalen Ökosystem , das die Bedürfnisse von Content-Erstellern und KI-Innovatoren in Einklang bringt. (mb) 

Cloudflare will KI-Crawler zur Kasse bitten​ Mit einem interessanten Bezahlmodell will Cloudflare Unternehmen helfen, ihren wertvollen Content zu monetarisieren – oder vor KI-Bots zu schützen. Alysson M / Shutterstock.com

Cloudflare hatte bereits im Juli 2024 damit begonnen, seinen Kunden die Möglichkeit zu geben, KI-Crawler zu blockieren. Seitdem haben sich laut eigenen Angaben über eine Million Kunden für diese Option entschieden.

Nun schaltet der Cloud-Infrastrukturbetreiber einen Gang hoch. Cloudflare wird ab dem 1. Juli KI-Crawler standardmäßig daran hindern, auf die Websites neuer Kunden zuzugreifen, sofern keine Erlaubnis vorliegt. Parallel testet das Unternehmen eine Möglichkeit, KI-Anbieter für die von ihnen gesammelten Daten zahlen zu lassen.

Darüber hinaus können Website-Besitzer nun entscheiden, wer auf ihren Seiten crawlt und zu welchem Zweck. KI-Unternehmen können über Cloudflare offenlegen, ob die gesammelten Daten für Training, Inferenz oder Suche verwendet werden, um den Website-Besitzern bei der Entscheidung zu helfen, ob sie den Crawl erlauben.

„Seit Jahrzehnten funktioniert das Internet nach einem einfachen Prinzip“, erklärt Cloudflare in seiner Ankündigung: „Suchmaschinen indexieren Inhalte und leiten Nutzer zurück zu den Originalseiten, was für Websites jeder Größe Traffic und Werbeeinnahmen generiert. Dieser Kreislauf belohnt Urheber, die hochwertige Inhalte erstellen, mit Geld und einer Anhängerschaft, während er Nutzern hilft, neue und interessante Informationen zu entdecken.“

Dieses Modell sei nun gescheitert, konstatiert das Unternehmen. KI-Crawler sammelten Inhalte wie Texte, Artikel und Bilder, um Antworten zu generieren, ohne Besucher zur Originalquelle weiterzuleiten – wodurch den Erstellern der Inhalte Einnahmen entgingen und ihnen die Befriedigung genommen werde, zu wissen, dass jemand ihre Inhalte liest. „Wenn der Anreiz, originelle, hochwertige Inhalte zu erstellen, verschwindet, verliert die Gesellschaft und die Zukunft des Internets ist gefährdet“, so Cloudflare.

Bezahlen pro Crawl

Cloudflare testet derzeit einen neuen Bezahlmechanismus namens „Pay per Crawl“. Dieser ermöglicht es Website-Betreibern zu entscheiden, ob sie KI-Crawlern den Zugriff auf ihre Inhalte gestatten – und ob dieser Zugriff kostenlos oder kostenpflichtig sein soll. Die Technologie, die sich derzeit in einer privaten Beta-Phase befindet, integriert sich in bestehende Web-Infrastrukturen, um ein Framework zu schaffen, mit dem Website-Betreiber eine Zahlung verlangen können und dem Crawler den Preis über den HTTP-Antwortcode „402 Zahlung erforderlich“ mitteilen können.

Der Website-Betreiber kann aktuell entweder einen einheitlichen Preis für die gesamte Seite festlegen oder bestimmten Crawlern kostenlosen Zugriff erlauben. Cloudflare geht jedoch davon aus, dass sich diese Funktion weiterentwickeln wird – möglicherweise mit dynamischer Preisgestaltung oder unterschiedlichen Gebühren für verschiedene Inhaltstypen. „Das wahre Potenzial von Pay-per-Crawl könnte sich in einer agentenbasierten Welt entfalten“, schreibt das Unternehmen in einem Blogbeitrag zur neuen Funktion.

„Was wäre, wenn eine agentische Paywall vollständig programmatisch am Netzwerkrand funktionieren könnte? Stellen sie sich vor, Íhr bevorzugtes Deep-Research-Programm hilft Ihnen, die neueste Krebsforschung oder ein juristisches Gutachten zusammenzufassen – oder einfach nur das beste Restaurant in Soho zu finden – und Sie geben diesem Agenten ein Budget, um die besten und relevantesten Inhalte zu erwerben“, sinniert Cloudflare.

Der Webhoster fungiert bei dem Modell als Händler für die Käufe, stellt den Crawlern die Rechnungen aus und verteilt die Gelder an die Website-Betreiber. Falls ein Crawler noch keine Abrechnungsbeziehung mit Cloudflare hat, wird er blockiert, erhält aber eine Fehlermeldung, die darauf hinweist, dass er mit einer solchen Beziehung möglicherweise Zugriff auf die Inhalte erhalten könnte.

Cloudflare hat sowohl Crawler, die bereit sind, für Inhalte zu zahlen, als auch Inhaltsanbieter, die bezahlt werden möchten, eingeladen, sich für die Beta-Version anzumelden. Bestehende Unternehmenskunden können sich auch an ihren Kundenbetreuer wenden.

Eine Win-Win-Situation

Fritz Jean-Louis, Principal Cybersecurity Advisor bei der Info-Tech Research Group, sieht diesen Ansatz als positiven Schritt, der Bedenken hinsichtlich der unbefugten Nutzung von Inhalten durch KI-Crawler adressiere: „Indem Website-Betreiber die Kontrolle darüber erhalten, wie ihre Inhalte von KI-Crawlern abgerufen und genutzt werden, können Content-Ersteller ihr geistiges Eigentum schützen und ihre Inhalte möglicherweise monetarisieren“, so der Chefberater.

Die Verpflichtung für KI-Unternehmen, den Zweck ihrer Crawler offenzulegen, schaffe ein Maß an Transparenz und Verantwortlichkeit, das der Branche bislang gefehlt habe. Es trage dazu bei, Vertrauen zwischen Content-Erstellern und KI-Unternehmen aufzubauen.

Der Analyst sieht jedoch noch ungelöste Probleme, die angegangen werden müssten – etwa, wie mit sogenannten „Legacy“-Informationen, die bereits von Crawlern erfasst wurden, umzugehen ist. Grundsätzlich befürwortet Jean-Louis aber branchengetriebene Lösungen gegenüber strafenden Regulierungen: „Dieser Schritt von Cloudflare könnte auf einen Wandel in der Branche hindeuten – zu einem fairen und nachhaltigen digitalen Ökosystem , das die Bedürfnisse von Content-Erstellern und KI-Innovatoren in Einklang bringt. (mb)

Cloudflare will KI-Crawler zur Kasse bitten​ Weiterlesen »

10 Windows-Sicherheitstipps​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?quality=50&strip=all 5845w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Diese Tipps härten Ihr Windows-System. PixieMe | shutterstock.com Unabhängig davon, ob Sie noch Windows 10 nutzen oder bereits mit Windows 11 arbeiten, können Sie das Sicherheitsniveau Ihres Rechners mit Bordmitteln optimieren. Wie, das zeigen die folgenden zehn ganz konkreten Tipps, die sich unmittelbar positiv auf die Sicherheit Ihres Systems und Ihrer Daten auswirken. 1. PUPs blockieren Windows kann “potenziell unerwünschte Programme” (Potentially Unwanted Programs; PUPs) automatisiert blockieren. Dieser Begriff umschreibt Anwendungen, bei denen es sich aus technischer Perspektive zwar nicht um Malware handelt – die aber unter Umständen unerwünschte Aktionen ausführen, beispielsweise Daten ausspähen oder Werbung einblenden. Um sicherzustellen, dass solche Anwendungen geblockt werden, müssen Sie die entsprechende Option aktivieren. Dazu rufen Sie die App “Windows Sicherheit” über das Startmenü auf. Anschließend navigieren Sie über “App- und Browsersteuerung” zu “Zuverlässigkeitsbasierter Schutz” und aktivieren den Schieberegler unter “Potenziell unerwünschte Apps werden blockiert“.   2. Verschlüsselung einsetzen Bei modernen Windows-PCs wird die Geräteverschlüsselung automatisch aktiviert, sobald Sie sich mit einem Microsoft-Konto verbinden. Um zu überprüfen, ob Ihr Device tatsächlich verschlüsselt wird, suchen Sie im Startmenü nach BitLocker und klicken anschließend auf “BitLocker verwalten“. Falls Sie im sich nun öffnenden Fenster feststellen, dass BitLocker nicht aktiviert ist, gibt es dafür zwei mögliche Erklärungen: Sie sind mit einem lokalen Konto angemeldet, oder Sie nutzen ein älteres Gerät, das die Option nicht unterstützt. Im ersten Fall hilft der Umstieg auf ein Microsoft-Konto, im zweiten lediglich ein Upgrade auf Windows Professional.   3. Synchronisierungseinstellungen prüfen Sowohl unter Windows 10 als auch unter Windows 11 liegt Microsoft viel daran, dass OneDrive Ordner wie Desktop, Dokumente und Bilder automatisch synchronisiert. Das führt dazu, dass deren Inhalt online mit Ihrem Microsoft-Konto verknüpft und zwischen Ihren PCs synchronisiert wird. Das kann praktisch sein – oder nicht erwünscht, je nachdem, mit welcher Art von Daten Sie arbeiten. Falls diese Compliance-Vorgaben unterliegen, kann die Synchronisierungseinstellung die Datensicherheit unterwandern.   Um die Einstellungen zu überprüfen und genau zu definieren, was OneDrive synchronisiert, öffnen Sie die Einstellungen – zum Beispiel über einen Rechtsklick auf das OneDrive-Symbol rechts unten in ihrer Taskleiste. Anschließend klicken Sie unter “Wichtige PC-Ordner auf OneDrive sichern” die Schaltfläche “Sicherung verwalten“. Im folgenden Fenster “Ordner auf diesem PC sichern” können Sie die entsprechenden Einstellungen vornehmen. 4. Sicher(er) einloggen Passwörter sollten wegen ihrer inhärenten Unzulänglichkeiten schon länger aus der Mode gekommen sein. Falls Ihr PC zeitgemäßere, biometrische Authentifizierungsmethoden in Form von Windows Hello unterstützt, sollten Sie diese stattdessen nutzen. Um den Login per Fingerabdruck oder Gesichtserkennung zu aktivieren, suchen Sie über das Windows-Startmenü nach “Anmeldeoptionen” und richten die für Sie in Frage kommende Option ein. Anschließend freuen Sie sich über komfortablere, schnellere Logins – und mehr Sicherheit. 5. Überwachten Ordnerzugriff aktivieren Um zu verhindern, dass Ransomware Ihre Dateien “in Geiselhaft” nimmt, bietet Windows die Option des überwachten Ordnerzugriffs, die Datenmanipulationen verhindert. Das bietet zusätzlichen Schutz, allerdings ist die Option standardmäßig nicht aktiviert und zieht im Regelfall auch ein wenig Konfigurationsaufwand nach sich. Suchen Sie über die Windows-Startleiste nach “Überwachter Ordnerzugriff“, um die Funktion aufzurufen und zu konfigurieren. 6. Office-Updates sicherstellen Falls Sie Microsoft-Office-Anwendungen (beziehungsweise Microsoft 365) nutzen, sollten Sie unbedingt sicherstellen, dass die verwendeten Versionen mit Sicherheits-Updates versorgt werden. Um zu überprüfen, ob das der Fall ist, öffnen Sie eine entsprechende Anwendung – beispielsweise Word. Hier wählen Sie “Datei“, gefolgt von “Konto“. Auf der rechten Seite des App-Fensters sehen Sie nun “Produktinformationen” und etwas unterhalb den Punkt “Microsoft 365- und Office-Aktualisierungen“. Sollten Sie hier lesen “Updates werden automatisch heruntergeladen und installiert.“, sind Sie auf der sicheren Seite. Anderenfalls aktivieren Sie die Funktion. 7. App-Stati checken Auch andere Windows-Apps werden nicht unbedingt immer automatisch mit Sicherheitsupdates versorgt. Deshalb sollten Sie zunächst dafür sorgen, dass Apps, die über den Microsoft Store bezogen werden, automatisch aktualisiert werden. Selbst wenn Sie diesen nicht direkt nutzen, können diverse Apps darüber aktualisiert werden. Um die Funktion zu aktivieren, öffnen Sie den Store, klicken auf Ihr Profilbild und rufen die Einstellungen auf. Anschließend stellen Sie sicher, dass die Option “App Updates” aktiviert ist. Anschließend können Sie außerdem prüfen, ob sich anfällige, veraltete Anwendungen auf Ihrem System befinden. Dazu stehen diverse Optionen zur Verfügung – zum Beispiel: das Windows-Befehlszeilen-Tool WinGet, oder das kostenlose Drittanbieter-Tool Home Updater. 8. Kernisolierung aktivieren Windows verfügt über eine Reihe von Low-Level-Funktionen zur Systemhärtung, die es erschweren sollen den Windows Kernel auszunutzen. Um diese zu aktivieren, rufen Sie die Anwendung “Windows Sicherheit” auf und navigieren anschließend zum Punkt “Gerätesicherheit“. Sobald Sie eine der hier aufgeführten Sicherheitsfunktionen aktivieren, überprüft Windows, ob diese auf Ihrem System ordnungsgemäß funktioniert. Ist das nicht der Fall – beispielsweise wegen veralteten, inkompatiblen Hardwaretreibern –, erkennt Windows das in der Regel automatisch und deaktiviert die Funktion entsprechend. 9. Sandboxing nutzen Angenommen, Sie möchten (entgegen aller Empfehlungen) auf Ihrem System ein dubioses Programm installieren, sollten Sie dazu in jedem Fall die Windows Sandbox verwenden. Allerdings ist diese Funktion den Professional-, Enterprise-, und Education-Editionen von Windows 10 und 11 vorbehalten. Haben Sie die richtige Windows-Version, finden Sie “Windows-Sandbox” über Ihr Startmenü: Suchen Sie nach “Windows-Features aktivieren und deaktivieren” und setzen Sie im folgenden Fenster einen Haken beim entsprechenden Eintrag. Falls Sie nicht über eine unterstützte Windows-Version verfügen, können Sie Sandboxing alternativ auch über Drittanbieter-Virtualisierungssoftware wie etwa VirtualBox realisieren. 10. Exploit-Schutz prüfen Windows verfügt inzwischen über einen integrierten Exploit-Schutz, der Ihre Programme zusätzlich vor Angriffen schützt. Um die Einstellungen für dieses Feature zu überprüfen, rufen Sie ebenfalls “Windows-Sicherheit” auf. Anschließend navigieren Sie zu “App- und Browsersteuerung” und rufen die “Einstellungen für Exploit-Schutz” auf. Fast alle Optionen sollten hier standardmäßig aktiviert sein. Zu beachten ist dabei, dass die Option “Zufällige Anordnung für Images erzwingen (obligatorische ASLR)” zu Problemen mit einigen älteren Anwendungen führen kann, wenn sie aktiviert wird. Es empfiehlt sich deshalb, das nicht zu tun. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

10 Windows-Sicherheitstipps​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?quality=50&strip=all 5845w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/PixieMe-shutterstock_2292366885_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Diese Tipps härten Ihr Windows-System. PixieMe | shutterstock.com

Unabhängig davon, ob Sie noch Windows 10 nutzen oder bereits mit Windows 11 arbeiten, können Sie das Sicherheitsniveau Ihres Rechners mit Bordmitteln optimieren. Wie, das zeigen die folgenden zehn ganz konkreten Tipps, die sich unmittelbar positiv auf die Sicherheit Ihres Systems und Ihrer Daten auswirken.

1. PUPs blockieren

Windows kann “potenziell unerwünschte Programme” (Potentially Unwanted Programs; PUPs) automatisiert blockieren. Dieser Begriff umschreibt Anwendungen, bei denen es sich aus technischer Perspektive zwar nicht um Malware handelt – die aber unter Umständen unerwünschte Aktionen ausführen, beispielsweise Daten ausspähen oder Werbung einblenden.

Um sicherzustellen, dass solche Anwendungen geblockt werden, müssen Sie die entsprechende Option aktivieren. Dazu rufen Sie die App “Windows Sicherheit” über das Startmenü auf. Anschließend navigieren Sie über “App- und Browsersteuerung” zu “Zuverlässigkeitsbasierter Schutz” und aktivieren den Schieberegler unter “Potenziell unerwünschte Apps werden blockiert“.  

2. Verschlüsselung einsetzen

Bei modernen Windows-PCs wird die Geräteverschlüsselung automatisch aktiviert, sobald Sie sich mit einem Microsoft-Konto verbinden. Um zu überprüfen, ob Ihr Device tatsächlich verschlüsselt wird, suchen Sie im Startmenü nach BitLocker und klicken anschließend auf “BitLocker verwalten“.

Falls Sie im sich nun öffnenden Fenster feststellen, dass BitLocker nicht aktiviert ist, gibt es dafür zwei mögliche Erklärungen:

Sie sind mit einem lokalen Konto angemeldet, oder

Sie nutzen ein älteres Gerät, das die Option nicht unterstützt.

Im ersten Fall hilft der Umstieg auf ein Microsoft-Konto, im zweiten lediglich ein Upgrade auf Windows Professional.  

3. Synchronisierungseinstellungen prüfen

Sowohl unter Windows 10 als auch unter Windows 11 liegt Microsoft viel daran, dass OneDrive Ordner wie Desktop, Dokumente und Bilder automatisch synchronisiert. Das führt dazu, dass deren Inhalt online mit Ihrem Microsoft-Konto verknüpft und zwischen Ihren PCs synchronisiert wird. Das kann praktisch sein – oder nicht erwünscht, je nachdem, mit welcher Art von Daten Sie arbeiten. Falls diese Compliance-Vorgaben unterliegen, kann die Synchronisierungseinstellung die Datensicherheit unterwandern.  

Um die Einstellungen zu überprüfen und genau zu definieren, was OneDrive synchronisiert, öffnen Sie die Einstellungen – zum Beispiel über einen Rechtsklick auf das OneDrive-Symbol rechts unten in ihrer Taskleiste. Anschließend klicken Sie unter “Wichtige PC-Ordner auf OneDrive sichern” die Schaltfläche “Sicherung verwalten“. Im folgenden Fenster “Ordner auf diesem PC sichern” können Sie die entsprechenden Einstellungen vornehmen.

4. Sicher(er) einloggen

Passwörter sollten wegen ihrer inhärenten Unzulänglichkeiten schon länger aus der Mode gekommen sein. Falls Ihr PC zeitgemäßere, biometrische Authentifizierungsmethoden in Form von Windows Hello unterstützt, sollten Sie diese stattdessen nutzen.

Um den Login per Fingerabdruck oder Gesichtserkennung zu aktivieren, suchen Sie über das Windows-Startmenü nach “Anmeldeoptionen” und richten die für Sie in Frage kommende Option ein. Anschließend freuen Sie sich über komfortablere, schnellere Logins – und mehr Sicherheit.

5. Überwachten Ordnerzugriff aktivieren

Um zu verhindern, dass Ransomware Ihre Dateien “in Geiselhaft” nimmt, bietet Windows die Option des überwachten Ordnerzugriffs, die Datenmanipulationen verhindert. Das bietet zusätzlichen Schutz, allerdings ist die Option standardmäßig nicht aktiviert und zieht im Regelfall auch ein wenig Konfigurationsaufwand nach sich.

Suchen Sie über die Windows-Startleiste nach “Überwachter Ordnerzugriff“, um die Funktion aufzurufen und zu konfigurieren.

6. Office-Updates sicherstellen

Falls Sie Microsoft-Office-Anwendungen (beziehungsweise Microsoft 365) nutzen, sollten Sie unbedingt sicherstellen, dass die verwendeten Versionen mit Sicherheits-Updates versorgt werden. Um zu überprüfen, ob das der Fall ist, öffnen Sie eine entsprechende Anwendung – beispielsweise Word. Hier wählen Sie “Datei“, gefolgt von “Konto“.

Auf der rechten Seite des App-Fensters sehen Sie nun “Produktinformationen” und etwas unterhalb den Punkt “Microsoft 365- und Office-Aktualisierungen“. Sollten Sie hier lesen “Updates werden automatisch heruntergeladen und installiert.“, sind Sie auf der sicheren Seite. Anderenfalls aktivieren Sie die Funktion.

7. App-Stati checken

Auch andere Windows-Apps werden nicht unbedingt immer automatisch mit Sicherheitsupdates versorgt. Deshalb sollten Sie zunächst dafür sorgen, dass Apps, die über den Microsoft Store bezogen werden, automatisch aktualisiert werden. Selbst wenn Sie diesen nicht direkt nutzen, können diverse Apps darüber aktualisiert werden. Um die Funktion zu aktivieren, öffnen Sie den Store, klicken auf Ihr Profilbild und rufen die Einstellungen auf. Anschließend stellen Sie sicher, dass die Option “App Updates” aktiviert ist.

Anschließend können Sie außerdem prüfen, ob sich anfällige, veraltete Anwendungen auf Ihrem System befinden. Dazu stehen diverse Optionen zur Verfügung – zum Beispiel:

das Windows-Befehlszeilen-Tool WinGet, oder

das kostenlose Drittanbieter-Tool Home Updater.

8. Kernisolierung aktivieren

Windows verfügt über eine Reihe von Low-Level-Funktionen zur Systemhärtung, die es erschweren sollen den Windows Kernel auszunutzen. Um diese zu aktivieren, rufen Sie die Anwendung “Windows Sicherheit” auf und navigieren anschließend zum Punkt “Gerätesicherheit“.

Sobald Sie eine der hier aufgeführten Sicherheitsfunktionen aktivieren, überprüft Windows, ob diese auf Ihrem System ordnungsgemäß funktioniert. Ist das nicht der Fall – beispielsweise wegen veralteten, inkompatiblen Hardwaretreibern –, erkennt Windows das in der Regel automatisch und deaktiviert die Funktion entsprechend.

9. Sandboxing nutzen

Angenommen, Sie möchten (entgegen aller Empfehlungen) auf Ihrem System ein dubioses Programm installieren, sollten Sie dazu in jedem Fall die Windows Sandbox verwenden. Allerdings ist diese Funktion den Professional-, Enterprise-, und Education-Editionen von Windows 10 und 11 vorbehalten.

Haben Sie die richtige Windows-Version, finden Sie “Windows-Sandbox” über Ihr Startmenü: Suchen Sie nach “Windows-Features aktivieren und deaktivieren” und setzen Sie im folgenden Fenster einen Haken beim entsprechenden Eintrag. Falls Sie nicht über eine unterstützte Windows-Version verfügen, können Sie Sandboxing alternativ auch über Drittanbieter-Virtualisierungssoftware wie etwa VirtualBox realisieren.

10. Exploit-Schutz prüfen

Windows verfügt inzwischen über einen integrierten Exploit-Schutz, der Ihre Programme zusätzlich vor Angriffen schützt. Um die Einstellungen für dieses Feature zu überprüfen, rufen Sie ebenfalls “Windows-Sicherheit” auf. Anschließend navigieren Sie zu “App- und Browsersteuerung” und rufen die “Einstellungen für Exploit-Schutz” auf.

Fast alle Optionen sollten hier standardmäßig aktiviert sein. Zu beachten ist dabei, dass die Option “Zufällige Anordnung für Images erzwingen (obligatorische ASLR)” zu Problemen mit einigen älteren Anwendungen führen kann, wenn sie aktiviert wird. Es empfiehlt sich deshalb, das nicht zu tun. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

10 Windows-Sicherheitstipps​ Weiterlesen »

Nach oben scrollen
×