Computerhaus Quickborn

Allgemein

Nothing Phone (3a) vs Redmi Note 14 Pro 5G: Welches Smartphone ist besser?​

Allgemein

Foundry Wenn Sie nach einem erschwinglichen Mittelklasse-Handy mit Premium-Funktionen suchen, sind das Nothing Phone (3a) und das Xiaomi Redmi Note 14 Pro 5G zwei starke Modelle. Beide haben viel zu bieten, aber einige Unterschiede könnten Ihre Entscheidung beeinflussen. Design und Verarbeitung Nothing ist bekannt für sein auffälliges, einzigartiges Design. Das Phone (3a) ist ein Hingucker mit seiner transparenten Rückseite, der Glyph-Beleuchtung und seiner Cyberpunk-Ästhetik. Obwohl es größtenteils aus Kunststoff besteht, fühlt es sich dennoch hochwertig an, und die IP64-Zertifizierung gewährleistet einen gewissen Schutz vor Staub und Spritzwasser. Luke Baker Das Redmi Note 14 Pro 5G sieht eher traditionell, aber dennoch elegant aus. Es setzt auf ein schlankes, geschwungenes Gehäuse mit einer glänzenden, opalisierenden Oberfläche, die sich unter Lichteinwirkung verändert. Das Squircle-Kameramodul ist mittig platziert, was für einen symmetrischen Look sorgt, auch wenn es beim Fotografieren etwas ungünstig sein kann. Das Note 14 Pro hat die IP68-Zertifizierung und ist damit wesentlich besser gegen Staub und Wasser geschützt als das Nothing. Außerdem ist es mit 190 Gramm leichter als das Phone (3a) mit 201 Gramm, sodass es über einen längeren Zeitraum etwas angenehmer zu halten ist. Simon Chandler/Foundry Wenn Sie Wert auf Langlebigkeit legen, hat das Note 14 Pro mit seiner besseren Wasserbeständigkeit und dem Schutz durch Gorilla Glass Victus 2 die Nase vorn. Wenn Sie lieber ein Smartphone möchten, das ganz anders aussieht und sich anders anfühlt als alles andere auf dem Markt, ist das Phone (3a) der klare Sieger. Kameras Die Kamerasysteme der beiden Smartphones haben unterschiedliche Ansätze. Das Redmi Note 14 Pro 5G beeindruckt mit seinem 200-Megapixel-Hauptsensor, komplett mit OIS und KI-gestützter Bildverarbeitung. Dies führt zu einer außergewöhnlichen Detailgenauigkeit, insbesondere bei guten Lichtverhältnissen. Der Nachtmodus leistet solide Arbeit, indem er Aufnahmen bei schlechten Lichtverhältnissen aufhellt, ohne sie künstlich aussehen zu lassen. Die 8-Megapixel-Ultraweitwinkel- und die 2-Megapixel-Makrokamera sind jedoch nichts Besonderes, wobei letztere geradezu überflüssig ist. Luke Baker Das Phone (3a) verfolgt mit seinem Dreifach-Kamera-Set-up einen ausgewogeneren Ansatz. Der 50-Megapixel-Hauptsensor wird von einem 50-Megapixel-Teleobjektiv mit zweifacher Brennweite unterstützt und bietet damit mehr Flexibilität als die Xiaomi-Kamera. Das Ultraweitwinkelobjektiv hat jedoch nur acht Megapixel und keinen Autofokus. Die Glyph-Beleuchtung dient auch als weiches Aufhellungslicht, was für kreative Fotografien sehr nützlich ist, aber die Bildverarbeitung ist manchmal etwas zu kontrastreich. Simon Chandler/Foundry Was Megapixel und Detailgenauigkeit angeht, liegt das Note 14 Pro vorn und ist mit den Ergebnissen der Hauptkamera das bessere Smartphone. Das Phone (3a) punktet mit seinem Teleobjektiv im Hinblick auf Vielseitigkeit. Wenn Zoomen für Sie wichtiger ist als die reine Auflösung, ist das Modell von Nothing die bessere Wahl. Leistung und Software Das Phone (3a) wird von einem Snapdragon 7s Gen 3 angetrieben, während das Redmi Note 14 Pro 5G mit dem Dimensity 7300 Ultra arbeitet. Beides sind solide Mittelklasse-Chips, aber der Snapdragon hat bei Effizienz und dauerhafter Leistung die Nase vorn. Luke Baker Das Nothing OS 3.1 ist ein entscheidendes Verkaufsargument, denn es bietet ein superflüssiges Android-15-Erlebnis mit einer einzigartigen Ästhetik. Und Nothing gewährt sechs Jahre Software-Support, was in dieser Preisklasse ein großes Versprechen ist. Das Hyper-OS von Xiaomi (das auf Android 14 basiert) ist optisch weniger auffällig und enthält einige vorinstallierte Apps. Xiaomi verspricht drei Jahre lang Android-Updates und vier Jahre lang Sicherheitsupdates, was zwar anständig ist, aber nicht ganz an Nothing heranreicht. Simon Chandler/Foundry Wenn Sie ein visuell beeindruckendes Android-Erlebnis mit längerem Support wünschen, ist das Phone (3a) der Gewinner. Wenn Sie eine etwas weniger aufregende Android-Oberfläche nicht stört und Sie Xiaomis Ökosystem mögen, ist das Note 14 Pro das Richtige für Sie. Andere Unterschiede Das Note 14 Pro hat eine schärfere 1,5K-Auflösung (2712 × 1220 Pixel) im Vergleich zum 1080p-Panel des Phone (3a). Beide erreichen jedoch eine maximale Helligkeit von 3.000 Nits und eine Bildwiederholfrequenz von 120 Hertz, was sie ähnlich hell und flüssig macht. Der Akku ist mit 5.110 mAh etwas größer als der des Phone (3a) mit 5.000 mAh. Ein 45-Watt-Ladegerät ist im Lieferumfang enthalten, während Sie bei Nothing eines separat kaufen müssen. Mit dem Phone (3a) erreichen Sie in nur einer halben Stunde einen Ladezustand von 70 Prozent, während das Note 14 Pro in der gleichen Zeit etwas weniger als 64 Prozent erreicht – aber das ist ein minimaler Unterschied. Luke Baker Beide Smartphones haben Stereolautsprecher, wobei die des Note 14 Pro mit Dolby Atmos ein noch besseres Klangerlebnis bieten. Preise und Verfügbarkeit Der Preis für das Nothing Phone (3a) liegt bei 329 Euro für das Modell mit 8 GB / 128 GB und bei 379 Euro für die Variante mit 12 GB / 256 GB. Sie können das Smartphone bei Nothing direkt kaufen. Das Xiaomi Redmi Note 14 Pro 5G kostet derzeit 339,90 Euro für das Modell mit 8 GB / 256 GB und 349,90 Euro für die Variante mit 12 GB / 512 GB. Sie können das Smartphone bei Xiaomi direkt kaufen. Fazit Wenn für Sie neben einer aufgeräumten Oberfläche und langer Softwareunterstützung auch ein ausgefallenes Design eine Rolle spielt, dann könnte das Nothing Phone (3a) für Sie die richtige Wahl sein. Wenn Sie sich dagegen auf die Fotografie konzentrieren wollen und sich nicht an Xiaomis Software-Macken stören, ist das Redmi Note 14 Pro 5G eine gute Alternative. (PC-Welt) 

Nothing Phone (3a) vs Redmi Note 14 Pro 5G: Welches Smartphone ist besser?​ Foundry

Wenn Sie nach einem erschwinglichen Mittelklasse-Handy mit Premium-Funktionen suchen, sind das Nothing Phone (3a) und das Xiaomi Redmi Note 14 Pro 5G zwei starke Modelle.

Beide haben viel zu bieten, aber einige Unterschiede könnten Ihre Entscheidung beeinflussen.

Design und Verarbeitung

Nothing ist bekannt für sein auffälliges, einzigartiges Design. Das Phone (3a) ist ein Hingucker mit seiner transparenten Rückseite, der Glyph-Beleuchtung und seiner Cyberpunk-Ästhetik.

Obwohl es größtenteils aus Kunststoff besteht, fühlt es sich dennoch hochwertig an, und die IP64-Zertifizierung gewährleistet einen gewissen Schutz vor Staub und Spritzwasser.

Luke Baker

Das Redmi Note 14 Pro 5G sieht eher traditionell, aber dennoch elegant aus. Es setzt auf ein schlankes, geschwungenes Gehäuse mit einer glänzenden, opalisierenden Oberfläche, die sich unter Lichteinwirkung verändert.

Das Squircle-Kameramodul ist mittig platziert, was für einen symmetrischen Look sorgt, auch wenn es beim Fotografieren etwas ungünstig sein kann.

Das Note 14 Pro hat die IP68-Zertifizierung und ist damit wesentlich besser gegen Staub und Wasser geschützt als das Nothing. Außerdem ist es mit 190 Gramm leichter als das Phone (3a) mit 201 Gramm, sodass es über einen längeren Zeitraum etwas angenehmer zu halten ist.

Simon Chandler/Foundry

Wenn Sie Wert auf Langlebigkeit legen, hat das Note 14 Pro mit seiner besseren Wasserbeständigkeit und dem Schutz durch Gorilla Glass Victus 2 die Nase vorn. Wenn Sie lieber ein Smartphone möchten, das ganz anders aussieht und sich anders anfühlt als alles andere auf dem Markt, ist das Phone (3a) der klare Sieger.

Kameras

Die Kamerasysteme der beiden Smartphones haben unterschiedliche Ansätze. Das Redmi Note 14 Pro 5G beeindruckt mit seinem 200-Megapixel-Hauptsensor, komplett mit OIS und KI-gestützter Bildverarbeitung.

Dies führt zu einer außergewöhnlichen Detailgenauigkeit, insbesondere bei guten Lichtverhältnissen. Der Nachtmodus leistet solide Arbeit, indem er Aufnahmen bei schlechten Lichtverhältnissen aufhellt, ohne sie künstlich aussehen zu lassen. Die 8-Megapixel-Ultraweitwinkel- und die 2-Megapixel-Makrokamera sind jedoch nichts Besonderes, wobei letztere geradezu überflüssig ist.

Luke Baker

Das Phone (3a) verfolgt mit seinem Dreifach-Kamera-Set-up einen ausgewogeneren Ansatz. Der 50-Megapixel-Hauptsensor wird von einem 50-Megapixel-Teleobjektiv mit zweifacher Brennweite unterstützt und bietet damit mehr Flexibilität als die Xiaomi-Kamera. Das Ultraweitwinkelobjektiv hat jedoch nur acht Megapixel und keinen Autofokus.

Die Glyph-Beleuchtung dient auch als weiches Aufhellungslicht, was für kreative Fotografien sehr nützlich ist, aber die Bildverarbeitung ist manchmal etwas zu kontrastreich.

Simon Chandler/Foundry

Was Megapixel und Detailgenauigkeit angeht, liegt das Note 14 Pro vorn und ist mit den Ergebnissen der Hauptkamera das bessere Smartphone.

Das Phone (3a) punktet mit seinem Teleobjektiv im Hinblick auf Vielseitigkeit. Wenn Zoomen für Sie wichtiger ist als die reine Auflösung, ist das Modell von Nothing die bessere Wahl.

Leistung und Software

Das Phone (3a) wird von einem Snapdragon 7s Gen 3 angetrieben, während das Redmi Note 14 Pro 5G mit dem Dimensity 7300 Ultra arbeitet.

Beides sind solide Mittelklasse-Chips, aber der Snapdragon hat bei Effizienz und dauerhafter Leistung die Nase vorn.

Luke Baker

Das Nothing OS 3.1 ist ein entscheidendes Verkaufsargument, denn es bietet ein superflüssiges Android-15-Erlebnis mit einer einzigartigen Ästhetik. Und Nothing gewährt sechs Jahre Software-Support, was in dieser Preisklasse ein großes Versprechen ist.

Das Hyper-OS von Xiaomi (das auf Android 14 basiert) ist optisch weniger auffällig und enthält einige vorinstallierte Apps. Xiaomi verspricht drei Jahre lang Android-Updates und vier Jahre lang Sicherheitsupdates, was zwar anständig ist, aber nicht ganz an Nothing heranreicht.

Simon Chandler/Foundry

Wenn Sie ein visuell beeindruckendes Android-Erlebnis mit längerem Support wünschen, ist das Phone (3a) der Gewinner. Wenn Sie eine etwas weniger aufregende Android-Oberfläche nicht stört und Sie Xiaomis Ökosystem mögen, ist das Note 14 Pro das Richtige für Sie.

Andere Unterschiede

Das Note 14 Pro hat eine schärfere 1,5K-Auflösung (2712 × 1220 Pixel) im Vergleich zum 1080p-Panel des Phone (3a). Beide erreichen jedoch eine maximale Helligkeit von 3.000 Nits und eine Bildwiederholfrequenz von 120 Hertz, was sie ähnlich hell und flüssig macht.

Der Akku ist mit 5.110 mAh etwas größer als der des Phone (3a) mit 5.000 mAh. Ein 45-Watt-Ladegerät ist im Lieferumfang enthalten, während Sie bei Nothing eines separat kaufen müssen.

Mit dem Phone (3a) erreichen Sie in nur einer halben Stunde einen Ladezustand von 70 Prozent, während das Note 14 Pro in der gleichen Zeit etwas weniger als 64 Prozent erreicht – aber das ist ein minimaler Unterschied.

Luke Baker

Beide Smartphones haben Stereolautsprecher, wobei die des Note 14 Pro mit Dolby Atmos ein noch besseres Klangerlebnis bieten.

Preise und Verfügbarkeit

Der Preis für das Nothing Phone (3a) liegt bei 329 Euro für das Modell mit 8 GB / 128 GB und bei 379 Euro für die Variante mit 12 GB / 256 GB. Sie können das Smartphone bei Nothing direkt kaufen.

Das Xiaomi Redmi Note 14 Pro 5G kostet derzeit 339,90 Euro für das Modell mit 8 GB / 256 GB und 349,90 Euro für die Variante mit 12 GB / 512 GB. Sie können das Smartphone bei Xiaomi direkt kaufen.

Fazit

Wenn für Sie neben einer aufgeräumten Oberfläche und langer Softwareunterstützung auch ein ausgefallenes Design eine Rolle spielt, dann könnte das Nothing Phone (3a) für Sie die richtige Wahl sein.

Wenn Sie sich dagegen auf die Fotografie konzentrieren wollen und sich nicht an Xiaomis Software-Macken stören, ist das Redmi Note 14 Pro 5G eine gute Alternative.

(PC-Welt)

Nothing Phone (3a) vs Redmi Note 14 Pro 5G: Welches Smartphone ist besser?​ Weiterlesen »

20 Apps für Microsoft Teams​

Allgemein

Viele Apps lassen sich direkt innerhalb der Microsoft-Teams-Oberfläche nutzen. Foto: Howard Wen / IDG Für Microsoft Teams sind Hunderte von Apps verfügbar, die Ihnen und Ihren Kollegen den Arbeitsalltag erleichtern – ohne dazu die Teams-Oberfläche verlassen zu müssen. Teams-Apps stehen (sowohl von Microsoft selbst als auch von Drittanbietern) für nahezu jeden Business-Zweck zur Verfügung – einige sind sogar auf bestimmte Branchen zugeschnitten. In diesem Artikel stellen wir Ihnen 20 beliebte Apps für Microsoft Teams vor, die die Zusammenarbeit an Dokumenten, Notizen, Projekten und anderen Inhalten optimieren können. Teams-Apps finden, hinzufügen und entfernen Um das zu bewerkstelligen, ist nicht viel Vorarbeit nötig: Öffnen Sie einen Teams-Kanal oder -Chat und klicken Sie auf das +-Symbol (“Registerkarte hinzufügen”). Es öffnet sich ein Fenster, in dem Sie eine App Ihrer Wahl hinzufügen oder auch nach einer bestimmten Anwendung suchen können. Nachdem Sie den Nutzungsbedingungen zugestimmt haben, fügen Sie die App mit “Speichern” als Registerkarte dem Kanal oder Chat hinzu. Eine andere Möglichkeit, Microsoft-Teams-Apps zu finden und hinzuzufügen, führt über den Navigationsbereich links – beziehungsweise den Punkt “Apps“. Wenn Sie diesen Weg wählen, dürfen Sie am Ende wählen, welchem Kanal oder Chat die Anwendung hinzugefügt werden soll. Wenn Sie Apps aus Microsoft Teams entfernen möchten, klicken Sie auf das +-Symbol in einem Channel oder Chat und wählen Sie anschließend im Menü den Punkt “Apps verwalten“. Im folgenden Menü gelangen Sie über die drei Punkte rechts neben der App zur Option “Entfernen“. Alle Registerkarten für die betreffende App werden anschließend aus dem Chat oder Kanal entfernt. 20 Apps für Microsoft Teams Wir haben 20 empfehlenswerte Apps für Microsoft Teams für Sie zusammengestellt. Der Übersichtlichkeit halber haben wir die Anwendungen in fünf Kategorien gegliedert: Document Collaboration Apps, Content Management Apps, Notizen-Apps, Whiteboard Apps sowie Projektmanagement-Apps. Document Collaboration Apps Geht es um Dokumente, Tabellenkalkulationen und Präsentationen, empfehlen sich Word, Excel und PowerPoint. Die Microsoft-Apps sind bereits standardmäßig in Teams integriert und können ebenfalls Chats oder Kanälen hinzugefügt werden – als Instanz der jeweiligen Anwendung mit Registerkarte, in der ein Dokument angezeigt wird. Installieren Sie zum Beispiel die PowerPoint-App, können Sie eine Präsentation innerhalb eines Kanals oder Chats per Registerkarte integrieren. Die Chat- oder Kanal-Mitglieder können die Datei anschließend gemeinsam bearbeiten. Das funktioniert sowohl mit Dateien, die über Ihr Microsoft-365-Konto auf OneDrive gespeichert sind als auch mit lokal gespeicherten Files. Powerpoint-Kollaboration in Microsoft Teams. Foto: Howard Wen / IDG Im Fall von PDFs ermöglichen Adobe Acrobat und Foxit PDF Editor entsprechende Dateien innerhalb einer Teams-Registerkarte zu erstellen und gemeinsam zu bearbeiten. Letztgenannte App steht für einen Zeitraum von sieben Tagen kostenlos zur Verfügung – anschließend müssen Sie ein kostenpflichtiges Abo abschließen (ab 180 Dollar pro Benutzer und Jahr). Adobe Acrobat ist hingegen kostenlos nutzbar, dann allerdings ohne Premium-Funktionen wie Seiten neu anzuordnen oder Kennwortschutz. Content-Management-Apps Wenn Sie und Ihre Kollegen im Kreativbereich tätig sind und auf die Tool-Welt von Adobe (Illustrator, Photoshop, etc.) setzen, empfiehlt es sich, auch die App Adobe Creative Cloud in Teams einzubinden. Geht es generell darum, Inhalte mit Teams zu managen, spielen Microsoft OneDrive und SharePoint eine zentrale Rolle – dort werden Ihre Dateien gespeichert, wenn Sie sie in einen Kanal oder Chat hochladen. Geht es um Cloud-Speicherlösungen von Drittanbietern, ist für Microsoft Teams vor allem Box relevant. Der Anbieter ist schon lange im Geschäft und fokussiert dabei seit je her vor allem Unternehmen. Box ist (mit 10 GB Speicherplatz) auch kostenlos nutzbar – wer mehr Platz und weitere Funktionen braucht, muss einen kostenpflichtigen Plan buchen. Die Preise beginnen ab 13,50 Euro pro Benutzer und Monat (bei jährlicher Zahlweise). Notiz-Apps Notizen und Notizbücher lassen sich in Microsoft Teams gemeinsam erstellen und bearbeiten – inklusive aller damit verbundenen Vorzüge wie Checklisten, einbettbaren Diagrammen und Medien oder Data Snippets. Anwendungen dieser Art bieten eine gute Möglichkeit, alle möglichen Informationen für Teamprojekte zu sammeln und zu speichern. Microsofts vorinstallierte Lösung ist OneNote für Teams. Sie ermöglicht Ihnen, lokal oder in OneDrive abgespeicherte Notizbücher entweder komplett oder auch abschnittsweise über Registerkarten in Chats und Kanäle einzubinden. Als alternative Notiz-App steht Ihnen für Microsoft Teams auch Evernote zur Verfügung. Die App ist eine der populärsten Lösungen in diesem Bereich und als Webapplikation kostenlos nutzbar. Als Microsoft-Teams-App dürfen Sie Evernote für einen Monat kostenlos testen. Im Anschluss müssen Sie ein kostenpflichtiges Abo abschließen (ab circa 8 Euro pro Monat). Whiteboard-Apps Wenn Sie gemeinsam mit Ihren Kollegen in Microsoft Teams Ideen entwickeln und ausarbeiten möchten, bietet sich eine digitale Whiteboard-Lösung an. Auch an dieser Stelle bietet Microsoft mit Whiteboard eine bereits integrierte Applikation. Eine praktische Funktion: Sie können damit erstellte Whiteboards bei Bedarf auch in Teams-Meetings oder -Calls einbinden. Das ermöglicht, dass die Meeting-Teilnehmer in Echtzeit kollaborieren können. Microsoft Whiteboard bietet grundlegende Funktionen für gemeinsame Ideenentwicklung. Foto: Howard Wen / IDG Wenn Ihnen Microsofts integriertes Whiteboard-Tool zu simpel ist, gibt es diverse Alternativen mit weiterführenden Funktionen, die als Microsoft-Teams-App zur Verfügung stehen. Die drei Anwendungen mit den besten Bewertungen sind dabei: Figma, Miro und Mural. Projektmanagement Ähnlich wie im Bereich Whiteboards gibt es auch in der Kategorie Projektmanagement-Apps eine große Auswahl für Microsoft Teams. Dabei empfiehlt es sich, sich an die bekannten und populären Anwendungen zu halten – etwa: Asana, Monday.com, Trello oder Wrike. Alle vier Apps ermöglichen es Ihnen, Projekte aufzusetzen und zu managen, Tasks zuzuweisen und zu tracken, Projektinformationen freizugeben sowie übersichtliche Visualisierungen in Teams einzubinden, um Ihre Workflows zu optimieren. Jedes dieser Tools ist (mit funktionalen Einschränkungen) kostenlos nutzbar. Sollten Sie noch keine bevorzugte Projektmanagement-App haben, könnte sich auch ein Blick auf Microsofts integriertes Angebot mit dem etwas sperrigen Namen Tasks by Planner and To Do lohnen. Dabei handelt es sich um ein relativ simples Tool, das mit Task-Listen arbeitet und den Fortschritt von Projekten mit Hilfe von Diagrammen visualisiert. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

20 Apps für Microsoft Teams​ Viele Apps lassen sich direkt innerhalb der Microsoft-Teams-Oberfläche nutzen.
Foto: Howard Wen / IDG

Für Microsoft Teams sind Hunderte von Apps verfügbar, die Ihnen und Ihren Kollegen den Arbeitsalltag erleichtern – ohne dazu die Teams-Oberfläche verlassen zu müssen. Teams-Apps stehen (sowohl von Microsoft selbst als auch von Drittanbietern) für nahezu jeden Business-Zweck zur Verfügung – einige sind sogar auf bestimmte Branchen zugeschnitten.

In diesem Artikel stellen wir Ihnen 20 beliebte Apps für Microsoft Teams vor, die die Zusammenarbeit an Dokumenten, Notizen, Projekten und anderen Inhalten optimieren können.

Teams-Apps finden, hinzufügen und entfernen

Um das zu bewerkstelligen, ist nicht viel Vorarbeit nötig:

Öffnen Sie einen Teams-Kanal oder -Chat und klicken Sie auf das +-Symbol (“Registerkarte hinzufügen”).

Es öffnet sich ein Fenster, in dem Sie eine App Ihrer Wahl hinzufügen oder auch nach einer bestimmten Anwendung suchen können.

Nachdem Sie den Nutzungsbedingungen zugestimmt haben, fügen Sie die App mit “Speichern” als Registerkarte dem Kanal oder Chat hinzu.

Eine andere Möglichkeit, Microsoft-Teams-Apps zu finden und hinzuzufügen, führt über den Navigationsbereich links – beziehungsweise den Punkt “Apps“. Wenn Sie diesen Weg wählen, dürfen Sie am Ende wählen, welchem Kanal oder Chat die Anwendung hinzugefügt werden soll.

Wenn Sie Apps aus Microsoft Teams entfernen möchten, klicken Sie auf das +-Symbol in einem Channel oder Chat und wählen Sie anschließend im Menü den Punkt “Apps verwalten“. Im folgenden Menü gelangen Sie über die drei Punkte rechts neben der App zur Option “Entfernen“. Alle Registerkarten für die betreffende App werden anschließend aus dem Chat oder Kanal entfernt.

20 Apps für Microsoft Teams

Wir haben 20 empfehlenswerte Apps für Microsoft Teams für Sie zusammengestellt. Der Übersichtlichkeit halber haben wir die Anwendungen in fünf Kategorien gegliedert:

Document Collaboration Apps,

Content Management Apps,

Notizen-Apps,

Whiteboard Apps sowie

Projektmanagement-Apps.

Document Collaboration Apps

Geht es um Dokumente, Tabellenkalkulationen und Präsentationen, empfehlen sich Word, Excel und PowerPoint. Die Microsoft-Apps sind bereits standardmäßig in Teams integriert und können ebenfalls Chats oder Kanälen hinzugefügt werden – als Instanz der jeweiligen Anwendung mit Registerkarte, in der ein Dokument angezeigt wird.

Installieren Sie zum Beispiel die PowerPoint-App, können Sie eine Präsentation innerhalb eines Kanals oder Chats per Registerkarte integrieren. Die Chat- oder Kanal-Mitglieder können die Datei anschließend gemeinsam bearbeiten. Das funktioniert sowohl mit Dateien, die über Ihr Microsoft-365-Konto auf OneDrive gespeichert sind als auch mit lokal gespeicherten Files.

Powerpoint-Kollaboration in Microsoft Teams.
Foto: Howard Wen / IDG

Im Fall von PDFs ermöglichen Adobe Acrobat und Foxit PDF Editor entsprechende Dateien innerhalb einer Teams-Registerkarte zu erstellen und gemeinsam zu bearbeiten. Letztgenannte App steht für einen Zeitraum von sieben Tagen kostenlos zur Verfügung – anschließend müssen Sie ein kostenpflichtiges Abo abschließen (ab 180 Dollar pro Benutzer und Jahr). Adobe Acrobat ist hingegen kostenlos nutzbar, dann allerdings ohne Premium-Funktionen wie Seiten neu anzuordnen oder Kennwortschutz.

Content-Management-Apps

Wenn Sie und Ihre Kollegen im Kreativbereich tätig sind und auf die Tool-Welt von Adobe (Illustrator, Photoshop, etc.) setzen, empfiehlt es sich, auch die App Adobe Creative Cloud in Teams einzubinden.

Geht es generell darum, Inhalte mit Teams zu managen, spielen Microsoft OneDrive und SharePoint eine zentrale Rolle – dort werden Ihre Dateien gespeichert, wenn Sie sie in einen Kanal oder Chat hochladen.

Geht es um Cloud-Speicherlösungen von Drittanbietern, ist für Microsoft Teams vor allem Box relevant. Der Anbieter ist schon lange im Geschäft und fokussiert dabei seit je her vor allem Unternehmen. Box ist (mit 10 GB Speicherplatz) auch kostenlos nutzbar – wer mehr Platz und weitere Funktionen braucht, muss einen kostenpflichtigen Plan buchen. Die Preise beginnen ab 13,50 Euro pro Benutzer und Monat (bei jährlicher Zahlweise).

Notiz-Apps

Notizen und Notizbücher lassen sich in Microsoft Teams gemeinsam erstellen und bearbeiten – inklusive aller damit verbundenen Vorzüge wie Checklisten, einbettbaren Diagrammen und Medien oder Data Snippets. Anwendungen dieser Art bieten eine gute Möglichkeit, alle möglichen Informationen für Teamprojekte zu sammeln und zu speichern.

Microsofts vorinstallierte Lösung ist OneNote für Teams. Sie ermöglicht Ihnen, lokal oder in OneDrive abgespeicherte Notizbücher entweder komplett oder auch abschnittsweise über Registerkarten in Chats und Kanäle einzubinden.

Als alternative Notiz-App steht Ihnen für Microsoft Teams auch Evernote zur Verfügung. Die App ist eine der populärsten Lösungen in diesem Bereich und als Webapplikation kostenlos nutzbar. Als Microsoft-Teams-App dürfen Sie Evernote für einen Monat kostenlos testen. Im Anschluss müssen Sie ein kostenpflichtiges Abo abschließen (ab circa 8 Euro pro Monat).

Whiteboard-Apps

Wenn Sie gemeinsam mit Ihren Kollegen in Microsoft Teams Ideen entwickeln und ausarbeiten möchten, bietet sich eine digitale Whiteboard-Lösung an. Auch an dieser Stelle bietet Microsoft mit Whiteboard eine bereits integrierte Applikation. Eine praktische Funktion: Sie können damit erstellte Whiteboards bei Bedarf auch in Teams-Meetings oder -Calls einbinden. Das ermöglicht, dass die Meeting-Teilnehmer in Echtzeit kollaborieren können.

Microsoft Whiteboard bietet grundlegende Funktionen für gemeinsame Ideenentwicklung.
Foto: Howard Wen / IDG

Wenn Ihnen Microsofts integriertes Whiteboard-Tool zu simpel ist, gibt es diverse Alternativen mit weiterführenden Funktionen, die als Microsoft-Teams-App zur Verfügung stehen. Die drei Anwendungen mit den besten Bewertungen sind dabei:

Figma,

Miro und

Mural.

Projektmanagement

Ähnlich wie im Bereich Whiteboards gibt es auch in der Kategorie Projektmanagement-Apps eine große Auswahl für Microsoft Teams. Dabei empfiehlt es sich, sich an die bekannten und populären Anwendungen zu halten – etwa:

Asana,

Monday.com,

Trello oder

Wrike.

Alle vier Apps ermöglichen es Ihnen, Projekte aufzusetzen und zu managen, Tasks zuzuweisen und zu tracken, Projektinformationen freizugeben sowie übersichtliche Visualisierungen in Teams einzubinden, um Ihre Workflows zu optimieren. Jedes dieser Tools ist (mit funktionalen Einschränkungen) kostenlos nutzbar.

Sollten Sie noch keine bevorzugte Projektmanagement-App haben, könnte sich auch ein Blick auf Microsofts integriertes Angebot mit dem etwas sperrigen Namen Tasks by Planner and To Do lohnen. Dabei handelt es sich um ein relativ simples Tool, das mit Task-Listen arbeitet und den Fortschritt von Projekten mit Hilfe von Diagrammen visualisiert.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

20 Apps für Microsoft Teams​ Weiterlesen »

Beruflich blamiert: Soforthilfe für peinliche Knigge-Blackouts​

Allgemein

Jeder von uns kennt peinliche Situationen und bemüht sich, sie zu vermeiden. Was uns nicht immer gelingt, denn Fettnäpfchen lauern überall. Sie treten vor allem immer dann auf, wenn wir sie um alles in der Welt vermeiden wollen. Peinlich ist uns beispielsweise, wenn wir in einem körperlichen Zustand sind, den wir nicht abwenden können (Magen- und Darmgeräusche, Mundgeruch etc.), oder wir andere auf einen solchen Zustand hinweisen wollen. Oder wenn wir uns über jemanden lustig gemacht haben und dieser Jemand steht hinter uns und hat alles mit angehört. Oder wenn wir beim Lügen erwischt worden sind. Wie man diese Peinlichkeiten in den Griff bekommt, zeigt der Ratgeber “Peinliche Situationen meistern” von Matthias Nöllke. Das im handlichen “Taschenguide”-Format bei Haufe erschienene Buch (passt in die Hosentasche und lässt sich bequem in U-Bahn und Flugzeug lesen) erläutert, wie peinliche Situationen entstehen und geht auf die kleinen und größeren Peinlichkeiten des Lebens ein. Es bietet Sofort-Hilfe und Verhaltenstipps in Situationen, wo jemand einen bloßstellen will. Zudem zeigt das Buch, wie man anderen aus peinlichen Situationen heraushelfen kann. Nicht zuletzt kann jeder anhand eines Tests herausfinden, welcher Peinlichkeitstyp er ist. Die Top 13 der beruflichen Fettnäpfchen Die wichtigsten Peinlichkeiten aus dem Berufsleben und Nöllkes Gegenrezepte haben wir hier für Sie zusammengefasst: Weitere Knigge-Tipps für Fortgeschrittene: Mehr Erfolg durch gute Manieren: So werden Sie zum Benimm-Profi Dresscodes: Was ist Business Casual? Alles eine Frage des Klimas: In zehn Schritten zum erfolgreichen Meeting Soforthilfe bei Knigge-BlackoutsNamen vergessen?Wer kennt das nicht: Sie haben den Namen Ihres Gesprächspartners vergessen. Kein Problem, geben Sie es offen zu im Sinne von “Mein Namensgedächtnis lässt mich leider gerade im Stich. Wie war gleich Ihr Name?” Bleiben Sie kurz und knapp und wenden Sie sich dann den Sachthemen zu. Under- oder Overdressed?Sie erscheinen in der falschen Kleidung bei einer Veranstaltung. Begehen Sie jetzt nicht den Fehler, allen davon zu erzählen, dass Sie sich bei der Kleiderwahl vertan haben. Bleiben Sie gelassen und nehmen Sie eher beiläufig Stellung dazu. Im Sinne von “Ich habe mich sehr beeilt, heute herzukommen” oder “Mein Koffer wurde am Flughafen vertauscht”. Allerdings: Sind Sie gänzlich falsch gekleidet, ist es oft besser, einfach zu gehen. Verbal ins Fettnäpfchen getreten?Wenn Sie gerne viel reden, wird es immer wieder passieren, dass Sie etwas sagen, was Ihrem Gegenüber peinlich ist. Wichtig ist in diesem Fall, dass Sie sich bewusst sind, dass es dem anderen peinlich ist. Vermeiden Sie große verbale Entschuldigungen oder Bemerkungen wie “Das muss Ihnen doch nicht peinlich sein.” Denn dem anderen ist nicht nur das Gesagte peinlich, sondern auch die Tatsache, dass es ihm peinlich ist. Daher: Lieber das Thema wechseln, um dem anderen wieder mehr Sicherheit zu geben.Von Etikette keine Ahnung?Wie war das doch gleich: Wen begrüßt man zuerst, die ältere Dame oder den Chef? Mit welchem Besteck isst man welche Speise? Was tun, wenn man sich in der Situation nicht auskennt oder bereits einen Knigge-Fauxpas begangen hat? In diesem Fall folgen Sie Ihrer Intuitionoder fragen Sie knapp, direkt und höflich, wie es geht oder welches Besteck jetzt angesagt ist, statt aus den Augenwinkeln zum Nachbarn zu schielen, um dort abzukupfern. Sympathisch wirkt etwa, wenn Sie sagen: “Entschuldigen Sie, ich habe keine Ahnung, wen ich wem zuerst vorstellen muss. Da frage ich sonst immer meine Frau. Aber die ist heute leider nicht da.”Der Klassiker: Das umgestoßene WeinglasEin Weinglas umzustoßen, ist wohl jedem schon einmal passiert. Peinlich. Noch peinlicher ist es, wenn es bei einem Geschäftsessen passiert und es sich über die Gattin des Chefs ergießt. Was tun? Auch hier gilt: Bleiben Sie ganz ruhig. Vermeiden Sie hektische Hilfsmaßnahmen. Entschuldigen Sie sich bei der Leidtragenden und bitten Sie dann die Bedienung um Hilfe. Bieten Sie Hilfe an, werden Sie aber nicht ungefragt tätig. Selbstverständlich bieten Sie an, die Reinigungskosten zu übernehmen. Wenn der Magen knurrtDie größte Angst haben viele vor Magen- oder Darmgeräuschen im Berufsleben. Gerade bei wichtigen Meetings kann es da zu peinlichen Situationen kommen, wenn die Geräusche nicht nur einmal, sondern gehäuft auftreten. Bei Magengeräuschen hilft oft ein Glas Wasser.Bei Blähungen sollten Sie sich kurz entschuldigen, ohne Gründe zu nennen, und sich auf der Toilette Erleichterung verschaffen, bevor Sie zum Meeting zurückkehren. Das gleiche gilt übrigens bei Schluckauf: Unterbrechen Sie das Meeting oder Gespräch für einige Minuten – oder vertagen Sie es auf den kommenden Tag, wenn der Schluckauf nicht aufhört. Wenn der Kollege schlecht riechtWie sagt man es dem Kollegen, dass er stark nach Schweiß riecht oder Mundgeruch hat? Regel Nummer eins ist, dem Gegenüber die Möglichkeit zu geben, sein Gesicht zu wahren. Daher sollte man zunächst indirekt auf das Problem hinweisen, indem Sie etwa dem betroffenen Kollegen erzählen, Sie hätten selbst einmal ein Schweiß- oder Mundgeruchsproblem gehabt und es aber mit einem besonders starken Deo beziehungsweise einer Zungenbürste in den Griff bekommen. Ignoriert der Betroffene den Hinweis, werden Sie um ein vertrauliches Gespräch nicht umhin kommen. Machen Sie aber keine Staatsaffäre daraus, sondern gehen Sie es diskret an. Sie haben keine AhnungNichts ist peinlicher, als zuzugeben, dass man keine Ahnung hat, oder wenn unsere berufliche Kompetenz in Frage gestellt wird. Wer die Wissenslücke entdeckt, ob Chef oder Kollege, ist dabei egal. Gehen Sie in diesem Fall nicht gleich in die Defensive, sondern geben Sie unumwunden zu: “Das habe ich vergessen” oder “In diesem Bereich kenne ich mich nicht aus.” Das wirkt souveräner, als nach und nach zugeben zu müssen, dass man doch keine Ahnung hat. Ein Kunde beschwert sichStellen Sie sich vor, Sie sind in einem Kundengespräch und ein anderer Kunde platzt herein und beschwert sich. Was nun? Weisen Sie zunächst die Anschuldigungen zurück, zeigen Sie sich aber dann höflich und kooperativ im Sinne von “Ich kümmere mich sofort um das Problem.” Sorgen Sie zudem dafür, dass der Beschwerdeführer den Raum verlässt und sie ihr anderes Gespräch zu Ende führen können.. Sie haben einen Fehler gemachtIn diesem Fall kann es hilfreich sein, wenn Sie sich peinlich berührt zeigen. Haben Sie etwa einem Kunden eine falsche Information gegeben, sollten Sie das zugeben und sagen, dass es Ihnen peinlich ist. Das wirkt entwaffnend, vor allem wenn Sie sich bemüht zeigen, den Fehler wieder gut zu machen.Sie haben einen Riesenfehler gemachtIhr Chef brüllt Sie an: “Haben Sie das verbockt?” und tobt und wütet und ist sachlichen Argumenten nicht zugänglich. Peinlich. Hier gibt es nur die Möglichkeit, den Chef toben zu lassen. Widersprechen Sie nicht und geben Sie nur knappe Antworten. Ihr Chef will sich offenbar erst einmal Luft verschaffen. Im zweiten Schritt geben Sie den Fehler zu und entschuldigen Sie sich. Als drittes bieten Sie eine Lösung an. Über Anwesende lästernWas tun, wenn Sie über einen Kollegen lästern, der dummerweise plötzlich hinter Ihnen steht? In diesem Fall sollten Sie einfach den Mund halten, denn alle Erklärungen, Rechtfertigungen und ähnliches verschlimmern die Situation nur. Wenn eine Lüge auffliegt…… ist das im Berufsleben besonders peinlich. Wer kennt das nicht: Der Chef fragt, ob man eine Aufgabe schon erledigt hat – hat man nicht, sagt aber ja, nur um den Chef schnell loszuwerden. Und dann kommt unweigerlich die Frage des Vorgesetzten: “Kann ich mal sehen.” Dumm gelaufen. Nun gilt es, keine weiteren Notlügen zu erfinden, sonst ist eine heillose Verstrickung vorprogrammiert. Besser ist es, abzulenken, Verwirrung zu stiften oder sich über irgendeinen Vorwurf aufzuregen im Sinne von “Ach, mir fällt da gerade ein …” oder “Wollen Sie mir etwa unterstellen, ich hätte …”. Und dann sollten Sie solche Bequemlichkeitslügen NIE wieder anwenden.Weitere Sofort-Hilfe bei Knigge-Blackouts …… wie etwa zum Thema Erröten, wie man sich wieder fängt, Peinlichkeit als Waffe oder Ablenkungsmanöver und humorvolles Reagieren erhalten Sie im Taschenguide “Peinliche Situationen meistern” von Matthias Nöllke. 2008, Rudolf Haufe Verlag. 6,90 Euro. ISBN 978-3-448-08814-4. 

Beruflich blamiert: Soforthilfe für peinliche Knigge-Blackouts​ Jeder von uns kennt peinliche Situationen und bemüht sich, sie zu vermeiden. Was uns nicht immer gelingt, denn Fettnäpfchen lauern überall. Sie treten vor allem immer dann auf, wenn wir sie um alles in der Welt vermeiden wollen. Peinlich ist uns beispielsweise, wenn wir in einem körperlichen Zustand sind, den wir nicht abwenden können (Magen- und Darmgeräusche, Mundgeruch etc.), oder wir andere auf einen solchen Zustand hinweisen wollen. Oder wenn wir uns über jemanden lustig gemacht haben und dieser Jemand steht hinter uns und hat alles mit angehört. Oder wenn wir beim Lügen erwischt worden sind.

Wie man diese Peinlichkeiten in den Griff bekommt, zeigt der Ratgeber “Peinliche Situationen meistern” von Matthias Nöllke. Das im handlichen “Taschenguide”-Format bei Haufe erschienene Buch (passt in die Hosentasche und lässt sich bequem in U-Bahn und Flugzeug lesen) erläutert, wie peinliche Situationen entstehen und geht auf die kleinen und größeren Peinlichkeiten des Lebens ein. Es bietet Sofort-Hilfe und Verhaltenstipps in Situationen, wo jemand einen bloßstellen will. Zudem zeigt das Buch, wie man anderen aus peinlichen Situationen heraushelfen kann. Nicht zuletzt kann jeder anhand eines Tests herausfinden, welcher Peinlichkeitstyp er ist.

Die Top 13 der beruflichen Fettnäpfchen

Die wichtigsten Peinlichkeiten aus dem Berufsleben und Nöllkes Gegenrezepte haben wir hier für Sie zusammengefasst:

Weitere Knigge-Tipps für Fortgeschrittene:

Mehr Erfolg durch gute Manieren: So werden Sie zum Benimm-Profi

Dresscodes: Was ist Business Casual?

Alles eine Frage des Klimas: In zehn Schritten zum erfolgreichen Meeting

Soforthilfe bei Knigge-BlackoutsNamen vergessen?Wer kennt das nicht: Sie haben den Namen Ihres Gesprächspartners vergessen. Kein Problem, geben Sie es offen zu im Sinne von “Mein Namensgedächtnis lässt mich leider gerade im Stich. Wie war gleich Ihr Name?” Bleiben Sie kurz und knapp und wenden Sie sich dann den Sachthemen zu. Under- oder Overdressed?Sie erscheinen in der falschen Kleidung bei einer Veranstaltung. Begehen Sie jetzt nicht den Fehler, allen davon zu erzählen, dass Sie sich bei der Kleiderwahl vertan haben. Bleiben Sie gelassen und nehmen Sie eher beiläufig Stellung dazu. Im Sinne von “Ich habe mich sehr beeilt, heute herzukommen” oder “Mein Koffer wurde am Flughafen vertauscht”. Allerdings: Sind Sie gänzlich falsch gekleidet, ist es oft besser, einfach zu gehen. Verbal ins Fettnäpfchen getreten?Wenn Sie gerne viel reden, wird es immer wieder passieren, dass Sie etwas sagen, was Ihrem Gegenüber peinlich ist. Wichtig ist in diesem Fall, dass Sie sich bewusst sind, dass es dem anderen peinlich ist. Vermeiden Sie große verbale Entschuldigungen oder Bemerkungen wie “Das muss Ihnen doch nicht peinlich sein.” Denn dem anderen ist nicht nur das Gesagte peinlich, sondern auch die Tatsache, dass es ihm peinlich ist. Daher: Lieber das Thema wechseln, um dem anderen wieder mehr Sicherheit zu geben.Von Etikette keine Ahnung?Wie war das doch gleich: Wen begrüßt man zuerst, die ältere Dame oder den Chef? Mit welchem Besteck isst man welche Speise? Was tun, wenn man sich in der Situation nicht auskennt oder bereits einen Knigge-Fauxpas begangen hat? In diesem Fall folgen Sie Ihrer Intuitionoder fragen Sie knapp, direkt und höflich, wie es geht oder welches Besteck jetzt angesagt ist, statt aus den Augenwinkeln zum Nachbarn zu schielen, um dort abzukupfern. Sympathisch wirkt etwa, wenn Sie sagen: “Entschuldigen Sie, ich habe keine Ahnung, wen ich wem zuerst vorstellen muss. Da frage ich sonst immer meine Frau. Aber die ist heute leider nicht da.”Der Klassiker: Das umgestoßene WeinglasEin Weinglas umzustoßen, ist wohl jedem schon einmal passiert. Peinlich. Noch peinlicher ist es, wenn es bei einem Geschäftsessen passiert und es sich über die Gattin des Chefs ergießt. Was tun? Auch hier gilt: Bleiben Sie ganz ruhig. Vermeiden Sie hektische Hilfsmaßnahmen. Entschuldigen Sie sich bei der Leidtragenden und bitten Sie dann die Bedienung um Hilfe. Bieten Sie Hilfe an, werden Sie aber nicht ungefragt tätig. Selbstverständlich bieten Sie an, die Reinigungskosten zu übernehmen. Wenn der Magen knurrtDie größte Angst haben viele vor Magen- oder Darmgeräuschen im Berufsleben. Gerade bei wichtigen Meetings kann es da zu peinlichen Situationen kommen, wenn die Geräusche nicht nur einmal, sondern gehäuft auftreten. Bei Magengeräuschen hilft oft ein Glas Wasser.Bei Blähungen sollten Sie sich kurz entschuldigen, ohne Gründe zu nennen, und sich auf der Toilette Erleichterung verschaffen, bevor Sie zum Meeting zurückkehren. Das gleiche gilt übrigens bei Schluckauf: Unterbrechen Sie das Meeting oder Gespräch für einige Minuten – oder vertagen Sie es auf den kommenden Tag, wenn der Schluckauf nicht aufhört. Wenn der Kollege schlecht riechtWie sagt man es dem Kollegen, dass er stark nach Schweiß riecht oder Mundgeruch hat? Regel Nummer eins ist, dem Gegenüber die Möglichkeit zu geben, sein Gesicht zu wahren. Daher sollte man zunächst indirekt auf das Problem hinweisen, indem Sie etwa dem betroffenen Kollegen erzählen, Sie hätten selbst einmal ein Schweiß- oder Mundgeruchsproblem gehabt und es aber mit einem besonders starken Deo beziehungsweise einer Zungenbürste in den Griff bekommen. Ignoriert der Betroffene den Hinweis, werden Sie um ein vertrauliches Gespräch nicht umhin kommen. Machen Sie aber keine Staatsaffäre daraus, sondern gehen Sie es diskret an. Sie haben keine AhnungNichts ist peinlicher, als zuzugeben, dass man keine Ahnung hat, oder wenn unsere berufliche Kompetenz in Frage gestellt wird. Wer die Wissenslücke entdeckt, ob Chef oder Kollege, ist dabei egal. Gehen Sie in diesem Fall nicht gleich in die Defensive, sondern geben Sie unumwunden zu: “Das habe ich vergessen” oder “In diesem Bereich kenne ich mich nicht aus.” Das wirkt souveräner, als nach und nach zugeben zu müssen, dass man doch keine Ahnung hat. Ein Kunde beschwert sichStellen Sie sich vor, Sie sind in einem Kundengespräch und ein anderer Kunde platzt herein und beschwert sich. Was nun? Weisen Sie zunächst die Anschuldigungen zurück, zeigen Sie sich aber dann höflich und kooperativ im Sinne von “Ich kümmere mich sofort um das Problem.” Sorgen Sie zudem dafür, dass der Beschwerdeführer den Raum verlässt und sie ihr anderes Gespräch zu Ende führen können.. Sie haben einen Fehler gemachtIn diesem Fall kann es hilfreich sein, wenn Sie sich peinlich berührt zeigen. Haben Sie etwa einem Kunden eine falsche Information gegeben, sollten Sie das zugeben und sagen, dass es Ihnen peinlich ist. Das wirkt entwaffnend, vor allem wenn Sie sich bemüht zeigen, den Fehler wieder gut zu machen.Sie haben einen Riesenfehler gemachtIhr Chef brüllt Sie an: “Haben Sie das verbockt?” und tobt und wütet und ist sachlichen Argumenten nicht zugänglich. Peinlich. Hier gibt es nur die Möglichkeit, den Chef toben zu lassen. Widersprechen Sie nicht und geben Sie nur knappe Antworten. Ihr Chef will sich offenbar erst einmal Luft verschaffen. Im zweiten Schritt geben Sie den Fehler zu und entschuldigen Sie sich. Als drittes bieten Sie eine Lösung an. Über Anwesende lästernWas tun, wenn Sie über einen Kollegen lästern, der dummerweise plötzlich hinter Ihnen steht? In diesem Fall sollten Sie einfach den Mund halten, denn alle Erklärungen, Rechtfertigungen und ähnliches verschlimmern die Situation nur. Wenn eine Lüge auffliegt…… ist das im Berufsleben besonders peinlich. Wer kennt das nicht: Der Chef fragt, ob man eine Aufgabe schon erledigt hat – hat man nicht, sagt aber ja, nur um den Chef schnell loszuwerden. Und dann kommt unweigerlich die Frage des Vorgesetzten: “Kann ich mal sehen.” Dumm gelaufen. Nun gilt es, keine weiteren Notlügen zu erfinden, sonst ist eine heillose Verstrickung vorprogrammiert. Besser ist es, abzulenken, Verwirrung zu stiften oder sich über irgendeinen Vorwurf aufzuregen im Sinne von “Ach, mir fällt da gerade ein …” oder “Wollen Sie mir etwa unterstellen, ich hätte …”. Und dann sollten Sie solche Bequemlichkeitslügen NIE wieder anwenden.Weitere Sofort-Hilfe bei Knigge-Blackouts …… wie etwa zum Thema Erröten, wie man sich wieder fängt, Peinlichkeit als Waffe oder Ablenkungsmanöver und humorvolles Reagieren erhalten Sie im Taschenguide “Peinliche Situationen meistern” von Matthias Nöllke. 2008, Rudolf Haufe Verlag. 6,90 Euro. ISBN 978-3-448-08814-4.

Beruflich blamiert: Soforthilfe für peinliche Knigge-Blackouts​ Weiterlesen »

Frontalangriff auf Chrome und Safari​

Allgemein

Prognosen zufolge sind in Zukunft vor allem KI-Agenten im Web unterwegs. Der Browser-Anbieter Opera leistet dabei – wieder einmal – Pionierarbeit. Opera Opera ist im Vergleich zu Google, Apple, Meta, Amazon und Microsoft winzig. Dennoch, oder vielleicht gerade deshalb, ist das kleine, europäische Team von Opera seit über 30 Jahren so erfolgreich. Bei Opera ist man sehr stolz auf den enormen Erfolg seines Browsers, obwohl er auf keinem PC und keinem Smartphone vorinstalliert ist. Daher bemüht sich Opera seit jeher um jeden Nutzer, der den europäischen Alternativ-Browser bewusst und gewollt installiert. Mit dem angekündigten Opera Neon, einem KI-gestützten Browser Operator, wirft das Unternehmen nun ein brennendes Streichholz in die Ölquelle der US-Konzerne und ihren milliardenschweren Geschäftsmodellen.   Was ist ein Browser Operator? Genau diese Frage stellten sich auch die geladenen Gäste auf den Opera Browsing Days in Lissabon, als Henrik Lexow, Senior AI Product Director, und sein Entwickler-Team erstmals demonstrierten, wie der integrierte KI-Assistent den Nutzern im Internet-Alltag assistieren soll. Dieser beinhaltet viele Aufgaben, die mit lästigem, manuellem Aufwand verbunden sind – wie gemacht für einen Assistenten. Wie anspruchsvoll diese Aufgaben sein dürfen, hängt – wie bei allen KI-Anwendungen – von der gesammelten Erfahrung und der Präzision der gestellten Aufgabe ab. Je besser diese vom Anwender formuliert wird, desto besser ist das Ergebnis der KI. Wie ein neuer Mitarbeiter lernt die KI dabei mit jeder Aufgabe dazu und bringt bei der nächsten Aufgabe dieses Wissen mit ein. Ein Beispiel: Beim Beta-Test des Browser Operators in Lissabon war die Aufgabe, einem Journalisten einen Blumenstrauß aufs Hotelzimmer zu bestellen. Der Prompt umfasste lediglich den Namen, das Hotel, die Präferenz für weiße Blumen und die Lieferung vor elf Uhr. Auf Basis dieser Informationen durchsuchte der Browser Operator wie von Geisterhand das Internet. Browser-Tabs öffneten und schlossen sich, dabei wurden unterschiedliche Blumenlieferanten in der Region recherchiert, das Blumenangebot und Preise verglichen. Nach wenigen Sekunden war die Aufgabe inklusive des Bezahlvorgangs mit der im Browser hinterlegten Kreditkarte erledigt. Bemerkenswert war die Geschwindigkeit, in der jede Zeile und jeder Quellcode der Webseiten durchsucht wurde. Mittlerweile ist der Browser Operator als Opera Neon frei verfügbar.    Innovativer Überlebender Dass Opera mit Neuerungen auftrumpft, ist für die Skandinavier nichts Neues. Um Opera und die Innovation der jüngsten Browser-Variante Neon besser zu verstehen, lohnt ein Blick in die Vergangenheit. Netscape Navigator und Microsofts Explorer lieferten sich einst einen erbitterten Schlagabtausch, der als erster „Browser-War“ bekannt wurde. Auch damals war Opera zu klein, um in diesen Kampf der Marktführer verwickelt zu werden. Netscape Navigator verschwand und Microsoft bekam es als Monopolist mit den Kartellwächtern der EU zu tun. Die erzwangen schließlich das Recht auf freie Brwoser-Wahl , wovon dann vor allem Googles Chrome profitierte. Mit seinem Bundle aus kostenlosem Gmail-Account und beliebter Suchmaschine konnte Google sich als Marktführer behaupten und dank seines Android-Betriebssystems auch die Vorherrschaft bei Smartphones übernehmen. Damit nicht genug, bot Google dem mittlerweile wieder erfolgreichen Apple-Konzern milliardenschwere Zusatzeinnahmen, solange auch Safari die Google-Suche präferierte. Allein 2023 zahlte Google 26 Milliarden Dollar an Apple und Firefox für die Integration seiner Suchmaschine. Für das Geschäftsmodell von Google sind solche Zahlungen an Apple, Microsoft und alle anderen noch verbleibenden Player jeden Cent wert. Denn wer die Suchanfrage bekommt, bestimmt darüber, welche Antworten die Nutzer bekommen. In Anbetracht eines rasant wachsenden E-Commerce ist diese Vorherrschaft bei den Suchergebnissen eine sprudelnde Geldquelle. Und es gibt keinen Wettbewerb mehr, denn Yahoo, Lycos und AltaVista sind längst in der Bedeutungslosigkeit versunken. Selbst ein einflussreicher IT-Gigant wie Microsoft kann mit seiner Suchmaschine Bing keinen (großen) Blumentopf gewinnen.  Was macht Opera für Google so gefährlich? Die wachsende Attraktivität des europäischen Browsers lässt sich grob mit drei Kernstärken erklären. US-Präsident Trump gilt als unberechenbar und nutzte bereits in der Vergangenheit Big Tech für politischen Zwecke und als Druckmittel. Darum wollen und müssen sich nun alle EU-Staaten und alle nachgelagerten Behörden bis hin zur kleinsten Kommune von der digitalen Übermacht USA emanzipieren. Die Folge: In Rekordtempo werden alternative Betriebssysteme und Office-Software gesucht und installiert. Indirekt profitiert auch Opera von dieser Entwicklung und immer mehr Behörden und Unternehmen vertrauen der europäischen Software mehr als Google und den US-Konzernen. Die zweite Stärke ist der Fokus auf den Nutzer. Seit Jahren bietet Opera spezifische Browser für unterschiedliche Zielgruppen: Opera One für alle, Opera GX für Gamer, Opera Mini für Feature Phones und Opera Air für die mentale Gesundheit. Mit Neon kommt nun ein persönlicher Assistent hinzu. Hinzu kommt der starke Fokus auf den Datenschutz: Immer, wenn künstliche Intelligenz ins Spiel kommt, geht dies bislang zu Lasten der Privatsphäre und des Datenschutzes. Doch Opera verspricht beim Browser Operator, KI und Datenschutz unter einen Hut zu bekommen. Sicherlich könnten auch Anbieter wie OpenAI (ChatGPT), Google (Gemini) und Microsoft (CoPilot) ihren Nutzern mehr Datenschutz und Privatsphäre bieten. Aber sie verfolgen andere Ziele. Wenn eine KI-Lösung anstelle eines Nutzers im Internet agiert, werden beispielsweise bestimmte Werbeformen nicht mehr funktionieren. Denn eine KI kann ohne Rücksicht auf Algorithmen und gesponserte Suchtreffer arbeiten. Im Gegensatz zu menschlichen Nutzern lässt sich eine KI von Google und Co. nicht einfach beeinflussen oder zu einem Spontankauf hinreißen. Große Teile des E-Commerce-Geschäftsmodells wären damit obsolet – KI ist Gift für die Google-Suche. Zwar ist der Opera Browser zu klein, um die E-Commerce-Welt allein auf den Kopf zu stellen. Doch Opera hat schon in der Vergangenheit viele Innovationen kreiert, die heute in jedem Browser selbstverständlich sind, beispielsweise Browser-Tabs, VPN, Ad Blocker oder der Darkmode. Es dürfte also nur eine Frage der Zeit sein, bis auch Chrome und Safari auf den KI-basierten Browser Operator reagieren. Die Gretchenfrage ist nur, wie sie das machen wollen, ohne ihr Geschäftsmodell zu gefährden. (mb) 

Frontalangriff auf Chrome und Safari​ Prognosen zufolge sind in Zukunft vor allem KI-Agenten im Web unterwegs. Der Browser-Anbieter Opera leistet dabei – wieder einmal – Pionierarbeit. Opera

Opera ist im Vergleich zu Google, Apple, Meta, Amazon und Microsoft winzig. Dennoch, oder vielleicht gerade deshalb, ist das kleine, europäische Team von Opera seit über 30 Jahren so erfolgreich. Bei Opera ist man sehr stolz auf den enormen Erfolg seines Browsers, obwohl er auf keinem PC und keinem Smartphone vorinstalliert ist. Daher bemüht sich Opera seit jeher um jeden Nutzer, der den europäischen Alternativ-Browser bewusst und gewollt installiert. Mit dem angekündigten Opera Neon, einem KI-gestützten Browser Operator, wirft das Unternehmen nun ein brennendes Streichholz in die Ölquelle der US-Konzerne und ihren milliardenschweren Geschäftsmodellen.  

Was ist ein Browser Operator?

Genau diese Frage stellten sich auch die geladenen Gäste auf den Opera Browsing Days in Lissabon, als Henrik Lexow, Senior AI Product Director, und sein Entwickler-Team erstmals demonstrierten, wie der integrierte KI-Assistent den Nutzern im Internet-Alltag assistieren soll. Dieser beinhaltet viele Aufgaben, die mit lästigem, manuellem Aufwand verbunden sind – wie gemacht für einen Assistenten. Wie anspruchsvoll diese Aufgaben sein dürfen, hängt – wie bei allen KI-Anwendungen – von der gesammelten Erfahrung und der Präzision der gestellten Aufgabe ab. Je besser diese vom Anwender formuliert wird, desto besser ist das Ergebnis der KI. Wie ein neuer Mitarbeiter lernt die KI dabei mit jeder Aufgabe dazu und bringt bei der nächsten Aufgabe dieses Wissen mit ein.

Ein Beispiel: Beim Beta-Test des Browser Operators in Lissabon war die Aufgabe, einem Journalisten einen Blumenstrauß aufs Hotelzimmer zu bestellen. Der Prompt umfasste lediglich den Namen, das Hotel, die Präferenz für weiße Blumen und die Lieferung vor elf Uhr. Auf Basis dieser Informationen durchsuchte der Browser Operator wie von Geisterhand das Internet. Browser-Tabs öffneten und schlossen sich, dabei wurden unterschiedliche Blumenlieferanten in der Region recherchiert, das Blumenangebot und Preise verglichen.

Nach wenigen Sekunden war die Aufgabe inklusive des Bezahlvorgangs mit der im Browser hinterlegten Kreditkarte erledigt. Bemerkenswert war die Geschwindigkeit, in der jede Zeile und jeder Quellcode der Webseiten durchsucht wurde. Mittlerweile ist der Browser Operator als Opera Neon frei verfügbar.   

Innovativer Überlebender

Dass Opera mit Neuerungen auftrumpft, ist für die Skandinavier nichts Neues. Um Opera und die Innovation der jüngsten Browser-Variante Neon besser zu verstehen, lohnt ein Blick in die Vergangenheit. Netscape Navigator und Microsofts Explorer lieferten sich einst einen erbitterten Schlagabtausch, der als erster „Browser-War“ bekannt wurde.

Auch damals war Opera zu klein, um in diesen Kampf der Marktführer verwickelt zu werden. Netscape Navigator verschwand und Microsoft bekam es als Monopolist mit den Kartellwächtern der EU zu tun. Die erzwangen schließlich das Recht auf freie Brwoser-Wahl , wovon dann vor allem Googles Chrome profitierte.

Mit seinem Bundle aus kostenlosem Gmail-Account und beliebter Suchmaschine konnte Google sich als Marktführer behaupten und dank seines Android-Betriebssystems auch die Vorherrschaft bei Smartphones übernehmen. Damit nicht genug, bot Google dem mittlerweile wieder erfolgreichen Apple-Konzern milliardenschwere Zusatzeinnahmen, solange auch Safari die Google-Suche präferierte. Allein 2023 zahlte Google 26 Milliarden Dollar an Apple und Firefox für die Integration seiner Suchmaschine.

Für das Geschäftsmodell von Google sind solche Zahlungen an Apple, Microsoft und alle anderen noch verbleibenden Player jeden Cent wert. Denn wer die Suchanfrage bekommt, bestimmt darüber, welche Antworten die Nutzer bekommen. In Anbetracht eines rasant wachsenden E-Commerce ist diese Vorherrschaft bei den Suchergebnissen eine sprudelnde Geldquelle.

Und es gibt keinen Wettbewerb mehr, denn Yahoo, Lycos und AltaVista sind längst in der Bedeutungslosigkeit versunken. Selbst ein einflussreicher IT-Gigant wie Microsoft kann mit seiner Suchmaschine Bing keinen (großen) Blumentopf gewinnen. 

Was macht Opera für Google so gefährlich?

Die wachsende Attraktivität des europäischen Browsers lässt sich grob mit drei Kernstärken erklären.

US-Präsident Trump gilt als unberechenbar und nutzte bereits in der Vergangenheit Big Tech für politischen Zwecke und als Druckmittel. Darum wollen und müssen sich nun alle EU-Staaten und alle nachgelagerten Behörden bis hin zur kleinsten Kommune von der digitalen Übermacht USA emanzipieren. Die Folge: In Rekordtempo werden alternative Betriebssysteme und Office-Software gesucht und installiert. Indirekt profitiert auch Opera von dieser Entwicklung und immer mehr Behörden und Unternehmen vertrauen der europäischen Software mehr als Google und den US-Konzernen.

Die zweite Stärke ist der Fokus auf den Nutzer. Seit Jahren bietet Opera spezifische Browser für unterschiedliche Zielgruppen: Opera One für alle, Opera GX für Gamer, Opera Mini für Feature Phones und Opera Air für die mentale Gesundheit. Mit Neon kommt nun ein persönlicher Assistent hinzu.

Hinzu kommt der starke Fokus auf den Datenschutz: Immer, wenn künstliche Intelligenz ins Spiel kommt, geht dies bislang zu Lasten der Privatsphäre und des Datenschutzes. Doch Opera verspricht beim Browser Operator, KI und Datenschutz unter einen Hut zu bekommen.

Sicherlich könnten auch Anbieter wie OpenAI (ChatGPT), Google (Gemini) und Microsoft (CoPilot) ihren Nutzern mehr Datenschutz und Privatsphäre bieten. Aber sie verfolgen andere Ziele.

Wenn eine KI-Lösung anstelle eines Nutzers im Internet agiert, werden beispielsweise bestimmte Werbeformen nicht mehr funktionieren. Denn eine KI kann ohne Rücksicht auf Algorithmen und gesponserte Suchtreffer arbeiten. Im Gegensatz zu menschlichen Nutzern lässt sich eine KI von Google und Co. nicht einfach beeinflussen oder zu einem Spontankauf hinreißen. Große Teile des E-Commerce-Geschäftsmodells wären damit obsolet – KI ist Gift für die Google-Suche.

Zwar ist der Opera Browser zu klein, um die E-Commerce-Welt allein auf den Kopf zu stellen. Doch Opera hat schon in der Vergangenheit viele Innovationen kreiert, die heute in jedem Browser selbstverständlich sind, beispielsweise Browser-Tabs, VPN, Ad Blocker oder der Darkmode. Es dürfte also nur eine Frage der Zeit sein, bis auch Chrome und Safari auf den KI-basierten Browser Operator reagieren. Die Gretchenfrage ist nur, wie sie das machen wollen, ohne ihr Geschäftsmodell zu gefährden. (mb)

Frontalangriff auf Chrome und Safari​ Weiterlesen »

Gegen den Tech-Stack-Frust hilft auch kein Obstkorb​

Allgemein

Immer mehr Entwickler sind von Tech-Stacks sowie Legacy-Systemen genervt und schauen sich nach anderen Arbeitgebern um.Andrey_Popov – shutterstock.com Developer sind zunehmend unzufrieden, weil die von ihnen betreute Software aus ihrer Sicht nicht mehr den Anforderungen entspricht. Zu diesem Ergebnis kommt eine Umfrage von Storyblok unter 200 Senior Developern mittelgroßer bis großer Unternehmen. Verschiedene frustrierende Probleme Auf die Frage nach den größten Frustrationsfaktoren im Arbeitsalltag nannten die befragten Developer die Wartung und Fehlerbehebung veralteter Systeme (27,5 Prozent), den Umgang mit nicht-technischen Stakeholdern, die technische Einschränkungen nicht verstehen (21,5 Prozent), sowie fehlende klare Anforderungen und ständig wechselnde Prioritäten (14 Prozent). Peinlicher Tech-Stack Die Umfrage zeigt eine auch deutliche Unzufriedenheit unter Developern mit veralteten Tech-Stacks: 86 Prozent empfinden ihre Technologien als peinlich, wobei knapp ein Viertel den Einsatz von Legacy-Systemen besonders unangenehm finden. 22,5 Prozent schämen sich für Technical Debt und aufwendige Workarounds. Nur 14 Prozent der Befragten geben an, sich nicht für ihren Tech-Stack zu schämen. Probleme und fehlende Identität Die größten Probleme aktueller Tech-Stacks sind dabei laut den Developern fehlende zentrale Funktionen (51 Prozent), hoher Wartungsaufwand (47 Prozent) und mangelnde Kompatibilität mit modernen Technologien wie KI (31 Prozent). Zudem beeinflusst der Tech-Stack stark die berufliche Identität: 74 Prozent sehen darin einen bedeutenden Faktor, für 19,5 Prozent ist er sogar identitätsstiftend. Nur 2,5 Prozent messen ihm keine Bedeutung bei. Branchenführer trotz veralteter Systeme? Die Developer fordern deshalb von Unternehmen klare Pläne, Ressourcen und Führung zur technischen Modernisierung. 37,5 Prozent sehen einen Modernisierungsplan mit zugewiesenen Ressourcen als entscheidend. Genauso viele wünschen sich ein Führungsteam, das technische Qualität ernst nimmt. Interessanterweise sieht fast die Hälfte der Befragten ihr Unternehmen trotz veralteter Systeme als Branchenführer an. Laut den Studienmacher ist dies ein Hinweis darauf, wie niedrig der technische Standard in vielen Firmen sei. Gehalt oder Modernisierung Die unzureichende Tech-Infrastruktur wirkt sich stark auf die Motivation der Entwickler aus, so ein weiteres Ergebnis der Umfrage: Fast die Hälfte von ihnen (47,5 Prozent) dachten im letzten Jahr über eine Kündigung nach, im Mai 2025 spielten 31 Prozent regelmäßig mit dem Gedanken. Fast drei Viertel der Befragten kennen Entwickler, die bereits gekündigt haben. Um mit veralteten Systemen weiterzuarbeiten, fordern deshalb 92 Prozent mindestens ein Zehntel mehr Gehalt, 15 Prozent sogar über mehr als ein Viertel. Technische Erneuerung soll Motivation und Bindung steigern „Unternehmen müssen entweder kurzfristig höhere Gehälter zahlen oder langfristig in die Modernisierung ihrer Systeme investieren“, kommentiert Alexander Feiglstorfer, CTO und Co-Founder von Storyblok, die Ergebnisse. Eine technische Erneuerung senke nicht nur die Fluktuation, sondern schaffe auch die Basis für Innovationen wie KI und Composable Tech. 

Gegen den Tech-Stack-Frust hilft auch kein Obstkorb​ Immer mehr Entwickler sind von Tech-Stacks sowie Legacy-Systemen genervt und schauen sich nach anderen Arbeitgebern um.Andrey_Popov – shutterstock.com

Developer sind zunehmend unzufrieden, weil die von ihnen betreute Software aus ihrer Sicht nicht mehr den Anforderungen entspricht. Zu diesem Ergebnis kommt eine Umfrage von Storyblok unter 200 Senior Developern mittelgroßer bis großer Unternehmen.

Verschiedene frustrierende Probleme

Auf die Frage nach den größten Frustrationsfaktoren im Arbeitsalltag nannten die befragten Developer

die Wartung und Fehlerbehebung veralteter Systeme (27,5 Prozent),

den Umgang mit nicht-technischen Stakeholdern, die technische Einschränkungen nicht verstehen (21,5 Prozent), sowie

fehlende klare Anforderungen und ständig wechselnde Prioritäten (14 Prozent).

Peinlicher Tech-Stack

Die Umfrage zeigt eine auch deutliche Unzufriedenheit unter Developern mit veralteten Tech-Stacks: 86 Prozent empfinden ihre Technologien als peinlich, wobei knapp ein Viertel den Einsatz von Legacy-Systemen besonders unangenehm finden.

22,5 Prozent schämen sich für Technical Debt und aufwendige Workarounds. Nur 14 Prozent der Befragten geben an, sich nicht für ihren Tech-Stack zu schämen.

Probleme und fehlende Identität

Die größten Probleme aktueller Tech-Stacks sind dabei laut den Developern

fehlende zentrale Funktionen (51 Prozent),

hoher Wartungsaufwand (47 Prozent) und

mangelnde Kompatibilität mit modernen Technologien wie KI (31 Prozent).

Zudem beeinflusst der Tech-Stack stark die berufliche Identität: 74 Prozent sehen darin einen bedeutenden Faktor, für 19,5 Prozent ist er sogar identitätsstiftend. Nur 2,5 Prozent messen ihm keine Bedeutung bei.

Branchenführer trotz veralteter Systeme?

Die Developer fordern deshalb von Unternehmen klare Pläne, Ressourcen und Führung zur technischen Modernisierung. 37,5 Prozent sehen einen Modernisierungsplan mit zugewiesenen Ressourcen als entscheidend. Genauso viele wünschen sich ein Führungsteam, das technische Qualität ernst nimmt.

Interessanterweise sieht fast die Hälfte der Befragten ihr Unternehmen trotz veralteter Systeme als Branchenführer an. Laut den Studienmacher ist dies ein Hinweis darauf, wie niedrig der technische Standard in vielen Firmen sei.

Gehalt oder Modernisierung

Die unzureichende Tech-Infrastruktur wirkt sich stark auf die Motivation der Entwickler aus, so ein weiteres Ergebnis der Umfrage: Fast die Hälfte von ihnen (47,5 Prozent) dachten im letzten Jahr über eine Kündigung nach, im Mai 2025 spielten 31 Prozent regelmäßig mit dem Gedanken.

Fast drei Viertel der Befragten kennen Entwickler, die bereits gekündigt haben. Um mit veralteten Systemen weiterzuarbeiten, fordern deshalb 92 Prozent mindestens ein Zehntel mehr Gehalt, 15 Prozent sogar über mehr als ein Viertel.

Technische Erneuerung soll Motivation und Bindung steigern

„Unternehmen müssen entweder kurzfristig höhere Gehälter zahlen oder langfristig in die Modernisierung ihrer Systeme investieren“, kommentiert Alexander Feiglstorfer, CTO und Co-Founder von Storyblok, die Ergebnisse.

Eine technische Erneuerung senke nicht nur die Fluktuation, sondern schaffe auch die Basis für Innovationen wie KI und Composable Tech.

Gegen den Tech-Stack-Frust hilft auch kein Obstkorb​ Weiterlesen »

Salesforce blockiert LLM-(Fremd)Zugriff auf Slack-Daten​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?quality=50&strip=all 5144w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fremde LLMs müssen leider draußen bleiben, hat Salesforce/Slack beschlossen.KOTOIMAGES – Shutterstock Salesforce hat die Nutzungsbedingungen der Slack-API geändert, um Unternehmen daran zu hindern, mit Hilfe von LLMs im großen Stil Daten aus Slack auszulesen. Damit will Salesforce die unternehmensweite Datensuche und -sicherheit verbessern, hieß es. Auch wenn dies nach einer weitgehend technischen Änderung klingt, könnte sie dennoch tiefgreifende Auswirkungen auf eine Reihe von internen und externen KI-Anwendungen haben, die Unternehmen zur Bewältigung der Datenflut einsetzen. Richtlinie mit Konsequenzen Die neue Richtlinie ist Teil der ebenfalls neuen Rubrik „Datenverwendung” in den aktualisierten Nutzungsbedingungen, die am 29. Mai veröffentlicht wurden. Sie verbietet den Massenexport von Slack-Daten über die API und legt ausdrücklich fest, dass Daten, auf die über Slack-APIs zugegriffen wird, nicht mehr verwendet werden dürfen, um KI-Modelle zu trainieren. Stattdessen sollen Unternehmen auf die neue Real-Time Search API zurückgreifen, die nur innerhalb von Slack genutzt werden kann. Außerdem wird die Verbreitung von Anwendungen, die auf der API basieren, eingeschränkt: Entwickler müssen entweder einen Partnervertrag mit Slack oder Salesforce eingehen oder ihre Anwendungen ausschließlich über den Slack Marketplace vertreiben. Das hat in mehrfacher Hinsicht unangenehme Folgen:   Drittanbieter von Datenanalyse-Apps verlieren den Zugang zu einer wichtigen Datenquelle – laut The Information haben die Entwickler der Glean-App ihre Kunden bereits per E-Mail über die negativen Auswirkungen dieser Änderung informiert. Salesforce/Slack riskiert, Kunden zu verärgern, die ihre eigenen LLMs verwenden. Slack ist ein äußerst beliebtes Messaging-System in vielen Unternehmen, und der Verlust der Möglichkeit, diese Daten in größere interne LLMs zur Suche und Analyse einzuspeisen, ist ein Nachteil. In einem Blogbeitrag, in dem die Änderung näher erläutert wird, rechtfertigte Slack den Schritt als Teil einer umfassenderen Überarbeitung des Zusammenspiels von KI und Sicherheit. „Mit der Real-Time-Search-API können zugelassene Partner und Entwickler genau die Daten, die sie benötigen, in Echtzeit aus Slack abrufen, indem sie Nachrichten und Dateien direkt durchsuchen. Dies ermöglicht sichere, KI-gestützte Anwendungsfälle wie föderierte Suche und tiefgehende Recherchen“, erklärt das Unternehmen. Eine alternative Interpretation wäre, dass Salesforce seine eigenen (oder genehmigte) KI-Tools, die über den Slack Marketplace verfügbar sind, fördern will. Pessimisten glauben, dass dieses Modell weitere, umfassendere Einschränkungen nach sich ziehen könnte, um Kunden stärker an proprietäre Lösungen zu binden. SaaS-Überlastung SaaS-Plattformen – Salesforce, Teams, Gmail, Google Drive, Office 365, Dropbox, ServiceNow, GitHub und viele andere – sind äußerst beliebt. Doch je mehr diese Plattformen in Unternehmen zum Einsatz kommen, desto mehr „Datensilos“ müssen die Mitarbeiter durchforsten, um nützliche Informationen zu finden. Das von ehemaligen Google-Mitarbeitern gegründete Unternehmen Glean unterstützt selbst rund 100 dieser Plattformen, was die Größenordnung dieser Herausforderung verdeutlicht. Enterprise-Search-LLMs lösen dieses Problem, indem sie Daten aus mehreren Plattformen über öffentliche APIs aufnehmen und es den Kunden ermöglichen, Informationen über eine einzige SaaS-Oberfläche abzufragen. Gleichzeitig sind KI-Funktionen für große Plattformen wie Slack zunehmend geschäftskritisch geworden – was erklären könnte, warum Salesforce es als notwendig erachtet, den API-Zugriff entsprechend anzupassen, um diese Fähigkeit zu schützen. In einer Stellungnahme verweist Salesforce auf den zuvor veröffentlichten Blogbeitrag von Slack und erklärt, dass die Datensicherheit im Mittelpunkt der Änderung stehe: „Ein Grundpfeiler von Slacks neuer Strategie zur Datenkonnektivität ist der Echtzeitzugriff auf Suchanfragen über unsere Real-time Search API. Dadurch können Nutzer direkt mit Daten an ihrem Ursprungsort interagieren, ohne dass Daten oder Berechtigungen zwischen Systemen dupliziert oder verschoben werden müssen“, bekundete ein Unternehmenssprecher. Künftig werde dieser Zugriff mit einer begrenzten Abfragerate möglich sein. Diese API mache auch große Datenexporte aus Slack überflüssig, was die Kundendaten sicher halte und gleichzeitig weiterhin wichtige Anwendungsfälle wie berechtigungsbasierte Suchen unterstützt, so Salesforce. „Ein erheblicher Rückschlag“ Allerdings schließt das auch die Möglichkeit aus, Slack-Daten in ein externes LLM zu übernehmen – eine Einschränkung, die von Brancheninsidern skeptisch gesehen wird. „Auf den ersten Blick wirkt das, als würde Salesforce eine Leiter hochziehen. Für Unternehmen, die interne Copiloten entwickeln oder isolierte Daten aus verschiedenen Apps zusammenführen wollen, bedeutet dieser Schritt einen erheblichen Rückschlag“, kommentiert Wyatt Mayham, CEO von Northwest AI Consulting. „Andererseits verstehe ich das Haftungsargument“, so Mayham weiter. Drittanbietermodelle auf private Nachrichten trainieren zu lassen, bringe (datenschutz-)rechtliche Risiken mit sich, die Salesforce nicht tragen wolle. „Aber wenn das der erste Schritt in eine Strategie ist, bei der Slack-Daten zu einem lizenzier- und monetarisierbaren Asset werden sollen, ist das eine ganz andere Geschichte.” „Wenn sich das ausbreitet, steuern wir auf eine fragmentierte Landschaft von KI-Anwendungen zu. Je mehr Plattformen Nutzerdaten unter dem Vorwand des ‚Schutzes‘ abschotten, desto schwieriger wird es, Kontext über verschiedene Tools hinweg herzustellen – also genau das, was die meisten Teams eigentlich von KI erwarten“, erklärt der CEO. Bob Hutchins, KI-Experte und Referent bei Human Voice Media, sieht das ähnlich: „Dieser Schritt von Slack/Salesforce ist Teil eines größeren Musters: Wir beobachten, dass Plattformen ihren Zugriff auf Nutzerdaten unter dem Banner von Sicherheit oder Produktintegrität verschärfen – oft aber auf eine Weise, die in erster Linie ihren eigenen KI-Zielen dient. Nennen wir es beim Namen – Plattformabschottung“. (mb) 

Salesforce blockiert LLM-(Fremd)Zugriff auf Slack-Daten​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?quality=50&strip=all 5144w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2300649257_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fremde LLMs müssen leider draußen bleiben, hat Salesforce/Slack beschlossen.KOTOIMAGES – Shutterstock

Salesforce hat die Nutzungsbedingungen der Slack-API geändert, um Unternehmen daran zu hindern, mit Hilfe von LLMs im großen Stil Daten aus Slack auszulesen. Damit will Salesforce die unternehmensweite Datensuche und -sicherheit verbessern, hieß es.

Auch wenn dies nach einer weitgehend technischen Änderung klingt, könnte sie dennoch tiefgreifende Auswirkungen auf eine Reihe von internen und externen KI-Anwendungen haben, die Unternehmen zur Bewältigung der Datenflut einsetzen.

Richtlinie mit Konsequenzen

Die neue Richtlinie ist Teil der ebenfalls neuen Rubrik „Datenverwendung” in den aktualisierten Nutzungsbedingungen, die am 29. Mai veröffentlicht wurden. Sie verbietet den Massenexport von Slack-Daten über die API und legt ausdrücklich fest, dass Daten, auf die über Slack-APIs zugegriffen wird, nicht mehr verwendet werden dürfen, um KI-Modelle zu trainieren. Stattdessen sollen Unternehmen auf die neue Real-Time Search API zurückgreifen, die nur innerhalb von Slack genutzt werden kann.

Außerdem wird die Verbreitung von Anwendungen, die auf der API basieren, eingeschränkt: Entwickler müssen entweder einen Partnervertrag mit Slack oder Salesforce eingehen oder ihre Anwendungen ausschließlich über den Slack Marketplace vertreiben.

Das hat in mehrfacher Hinsicht unangenehme Folgen:  

Drittanbieter von Datenanalyse-Apps verlieren den Zugang zu einer wichtigen Datenquelle – laut The Information haben die Entwickler der Glean-App ihre Kunden bereits per E-Mail über die negativen Auswirkungen dieser Änderung informiert.

Salesforce/Slack riskiert, Kunden zu verärgern, die ihre eigenen LLMs verwenden. Slack ist ein äußerst beliebtes Messaging-System in vielen Unternehmen, und der Verlust der Möglichkeit, diese Daten in größere interne LLMs zur Suche und Analyse einzuspeisen, ist ein Nachteil.

In einem Blogbeitrag, in dem die Änderung näher erläutert wird, rechtfertigte Slack den Schritt als Teil einer umfassenderen Überarbeitung des Zusammenspiels von KI und Sicherheit. „Mit der Real-Time-Search-API können zugelassene Partner und Entwickler genau die Daten, die sie benötigen, in Echtzeit aus Slack abrufen, indem sie Nachrichten und Dateien direkt durchsuchen. Dies ermöglicht sichere, KI-gestützte Anwendungsfälle wie föderierte Suche und tiefgehende Recherchen“, erklärt das Unternehmen.

Eine alternative Interpretation wäre, dass Salesforce seine eigenen (oder genehmigte) KI-Tools, die über den Slack Marketplace verfügbar sind, fördern will. Pessimisten glauben, dass dieses Modell weitere, umfassendere Einschränkungen nach sich ziehen könnte, um Kunden stärker an proprietäre Lösungen zu binden.

SaaS-Überlastung

SaaS-Plattformen – Salesforce, Teams, Gmail, Google Drive, Office 365, Dropbox, ServiceNow, GitHub und viele andere – sind äußerst beliebt. Doch je mehr diese Plattformen in Unternehmen zum Einsatz kommen, desto mehr „Datensilos“ müssen die Mitarbeiter durchforsten, um nützliche Informationen zu finden.

Das von ehemaligen Google-Mitarbeitern gegründete Unternehmen Glean unterstützt selbst rund 100 dieser Plattformen, was die Größenordnung dieser Herausforderung verdeutlicht. Enterprise-Search-LLMs lösen dieses Problem, indem sie Daten aus mehreren Plattformen über öffentliche APIs aufnehmen und es den Kunden ermöglichen, Informationen über eine einzige SaaS-Oberfläche abzufragen.

Gleichzeitig sind KI-Funktionen für große Plattformen wie Slack zunehmend geschäftskritisch geworden – was erklären könnte, warum Salesforce es als notwendig erachtet, den API-Zugriff entsprechend anzupassen, um diese Fähigkeit zu schützen.

In einer Stellungnahme verweist Salesforce auf den zuvor veröffentlichten Blogbeitrag von Slack und erklärt, dass die Datensicherheit im Mittelpunkt der Änderung stehe:

„Ein Grundpfeiler von Slacks neuer Strategie zur Datenkonnektivität ist der Echtzeitzugriff auf Suchanfragen über unsere Real-time Search API. Dadurch können Nutzer direkt mit Daten an ihrem Ursprungsort interagieren, ohne dass Daten oder Berechtigungen zwischen Systemen dupliziert oder verschoben werden müssen“, bekundete ein Unternehmenssprecher. Künftig werde dieser Zugriff mit einer begrenzten Abfragerate möglich sein.

Diese API mache auch große Datenexporte aus Slack überflüssig, was die Kundendaten sicher halte und gleichzeitig weiterhin wichtige Anwendungsfälle wie berechtigungsbasierte Suchen unterstützt, so Salesforce.

„Ein erheblicher Rückschlag“

Allerdings schließt das auch die Möglichkeit aus, Slack-Daten in ein externes LLM zu übernehmen – eine Einschränkung, die von Brancheninsidern skeptisch gesehen wird.

„Auf den ersten Blick wirkt das, als würde Salesforce eine Leiter hochziehen. Für Unternehmen, die interne Copiloten entwickeln oder isolierte Daten aus verschiedenen Apps zusammenführen wollen, bedeutet dieser Schritt einen erheblichen Rückschlag“, kommentiert Wyatt Mayham, CEO von Northwest AI Consulting.

„Andererseits verstehe ich das Haftungsargument“, so Mayham weiter. Drittanbietermodelle auf private Nachrichten trainieren zu lassen, bringe (datenschutz-)rechtliche Risiken mit sich, die Salesforce nicht tragen wolle. „Aber wenn das der erste Schritt in eine Strategie ist, bei der Slack-Daten zu einem lizenzier- und monetarisierbaren Asset werden sollen, ist das eine ganz andere Geschichte.”

„Wenn sich das ausbreitet, steuern wir auf eine fragmentierte Landschaft von KI-Anwendungen zu. Je mehr Plattformen Nutzerdaten unter dem Vorwand des ‚Schutzes‘ abschotten, desto schwieriger wird es, Kontext über verschiedene Tools hinweg herzustellen – also genau das, was die meisten Teams eigentlich von KI erwarten“, erklärt der CEO.

Bob Hutchins, KI-Experte und Referent bei Human Voice Media, sieht das ähnlich: „Dieser Schritt von Slack/Salesforce ist Teil eines größeren Musters: Wir beobachten, dass Plattformen ihren Zugriff auf Nutzerdaten unter dem Banner von Sicherheit oder Produktintegrität verschärfen – oft aber auf eine Weise, die in erster Linie ihren eigenen KI-Zielen dient. Nennen wir es beim Namen – Plattformabschottung“. (mb)

Salesforce blockiert LLM-(Fremd)Zugriff auf Slack-Daten​ Weiterlesen »

Hollywood verklagt KI-Anbieter​

Allgemein

Disney und Universal führen etliche Beispiele für Plagiate durch Midjourney in ihrer Klageschrift an. Disney Universal Die großen Hollywood-Studios Disney und Universal haben am 11. Juni 2025 gemeinsam eine Klage gegen den KI-Anbieter Midjourney eingereicht. Ihr Vorwurf: Der Anbieter eines Bildgenerierungs-Tools habe widerrechtlich urheberrechtlich geschütztes Material dazu verwendet, sein KI-Modell zu trainieren. Beispielsweise seien in den generierten Bildern Figuren wie Star-Wars-Bösewicht Darth Vader, die Superhelden Spiderman und Iron Man sowie die Animationsfigur Shrek wiederzuerkennen gewesen.  In der 110-seitigen Klageschrift, die Vertreter der Filmstudios am Bundesgericht im kalifornischen Los Angeles eingereicht haben, sind dutzende Bild-Beispiele angeführt, wie das Midjourney-Tool bekannte Filmfiguren nachbildet. Die Anwälte der Hollywood-Studios bezeichneten die KI-basierte Bildgenerierung als virtuellen Verkaufsautomaten, der endlos unerlaubte Kopien der urheberechtlich geschützten Werke von Disney und Universal erzeuge. Der Anbieter bediene sich unverhohlen an den Charakteren der beiden Filmstudios, ohne auch nur eine Penny in den damit verbundenen kreativen Erstellungsprozess investiert zu haben.  “Fass ohne Boden für Plagiate” „Midjourney ist der Inbegriff des urheberrechtlichen Trittbrettfahrers und ein Fass ohne Boden für Plagiate“, werfen die Kläger dem KI-Anbieter vor. „Piraterie bleibt Piraterie. Das Verhalten von Midjourney veruntreut das geistige Eigentum von Disney und Universal und droht, die grundlegenden Anreize des US-Urheberrechts, die die amerikanische Führungsrolle in Film, Fernsehen und anderen kreativen Künsten begründen, zu untergraben.“ Lesen Sie weitere Hintergründe rund um die Urheberrechtsstreitigkeiten: ChatGPT illegal trainiert? US-Autoren verklagen OpenAI Shutterstock übernimmt Haftung für KI-generierte Bilder GitHub-COO im Interview: “Wir brauchen keine KI, um kreativ zu sein” Mit der Klage der großen Hollywood-Studios eskaliert der Streit zwischen Künstlern und Content-Schaffenden auf eine neue Stufe. In der Vergangenheit hatten bereits Schauspieler und Synchronsprecherinnen und -sprecher in den USA massiv gegen den KI-Einsatz protestiert. Vertreter von Schauspielergewerkschaften äußerten Befürchtungen, dass Jobs auf breiter Front wegfallen könnten.  New York Times strengt Prozess gegen OpenAI an Der Streit beschränkt sich nicht nur auf Bild und Video. Viele Verlage sehen das Treiben der KI-Anbieter kritisch. In den Vereinigten Staaten hatte die New York Times 2023 OpenAI verklagt. Die Zeitungsmacher werfen dem ChatGPT-Erfinder vor, ihre Modelle widerrechtlich mit urheberrechtlich geschützten Inhalten trainiert zu haben. Mittlerweile haben die Richter in den USA die Klage zugelassen. Der Prozess dürfte noch im laufenden Jahr beginnen. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”> Die KI-Anbieter berufen sich auf das Prinzip des Fair Use, wonach alle im Internet verfügbaren Informationen und Inhalte für das Training ihrer Modelle herangezogen werden dürften. Schließlich diene dies der Allgemeinheit, argumentieren Vertreter von OpenAI und Co. Dass dabei auch urheberrechtlich geschütztes Material verwendet werde, wird nicht rundweg abgestritten.  KI-Anbieter suchen Kooperationen Der Streit und die damit verbundenen Prozesse dürften sich noch über viele Jahre hinziehen. Während die Rechtsprechung im Zusammenhang mit dem Fair-Use-Prinzip verlangt, dass im Zuge der Nutzung von urheberrechtlich geschütztem Material etwas im kreativen Sinne Neues geschaffen werden müsse, monieren die Urheber, dass KI-Anbieter mit ihren Modellen und Tools lediglich Inhalte reproduzierten. Das scheint den Vertreter auf der KI-Seite zumindest in Teilen bewusst zu sein. Schließlich gibt es mittlerweile Annährungsversuche, um den Streit zu beschwichtigen. Beispielsweise hat OpenAI Verträge mit diversen Medienhäusern, in Deutschland beispielsweise Axel Springer, geschlossen, um deren Inhalte für das Training der eigenen KI-Modelle nutzen zu dürfen.   

Hollywood verklagt KI-Anbieter​ Disney und Universal führen etliche Beispiele für Plagiate durch Midjourney in ihrer Klageschrift an. Disney Universal

Die großen Hollywood-Studios Disney und Universal haben am 11. Juni 2025 gemeinsam eine Klage gegen den KI-Anbieter Midjourney eingereicht. Ihr Vorwurf: Der Anbieter eines Bildgenerierungs-Tools habe widerrechtlich urheberrechtlich geschütztes Material dazu verwendet, sein KI-Modell zu trainieren. Beispielsweise seien in den generierten Bildern Figuren wie Star-Wars-Bösewicht Darth Vader, die Superhelden Spiderman und Iron Man sowie die Animationsfigur Shrek wiederzuerkennen gewesen. 

In der 110-seitigen Klageschrift, die Vertreter der Filmstudios am Bundesgericht im kalifornischen Los Angeles eingereicht haben, sind dutzende Bild-Beispiele angeführt, wie das Midjourney-Tool bekannte Filmfiguren nachbildet. Die Anwälte der Hollywood-Studios bezeichneten die KI-basierte Bildgenerierung als virtuellen Verkaufsautomaten, der endlos unerlaubte Kopien der urheberechtlich geschützten Werke von Disney und Universal erzeuge. Der Anbieter bediene sich unverhohlen an den Charakteren der beiden Filmstudios, ohne auch nur eine Penny in den damit verbundenen kreativen Erstellungsprozess investiert zu haben. 

“Fass ohne Boden für Plagiate”

„Midjourney ist der Inbegriff des urheberrechtlichen Trittbrettfahrers und ein Fass ohne Boden für Plagiate“, werfen die Kläger dem KI-Anbieter vor. „Piraterie bleibt Piraterie. Das Verhalten von Midjourney veruntreut das geistige Eigentum von Disney und Universal und droht, die grundlegenden Anreize des US-Urheberrechts, die die amerikanische Führungsrolle in Film, Fernsehen und anderen kreativen Künsten begründen, zu untergraben.“

Lesen Sie weitere Hintergründe rund um die Urheberrechtsstreitigkeiten:

ChatGPT illegal trainiert? US-Autoren verklagen OpenAI

Shutterstock übernimmt Haftung für KI-generierte Bilder

GitHub-COO im Interview: “Wir brauchen keine KI, um kreativ zu sein”

Mit der Klage der großen Hollywood-Studios eskaliert der Streit zwischen Künstlern und Content-Schaffenden auf eine neue Stufe. In der Vergangenheit hatten bereits Schauspieler und Synchronsprecherinnen und -sprecher in den USA massiv gegen den KI-Einsatz protestiert. Vertreter von Schauspielergewerkschaften äußerten Befürchtungen, dass Jobs auf breiter Front wegfallen könnten. 

New York Times strengt Prozess gegen OpenAI an

Der Streit beschränkt sich nicht nur auf Bild und Video. Viele Verlage sehen das Treiben der KI-Anbieter kritisch. In den Vereinigten Staaten hatte die New York Times 2023 OpenAI verklagt. Die Zeitungsmacher werfen dem ChatGPT-Erfinder vor, ihre Modelle widerrechtlich mit urheberrechtlich geschützten Inhalten trainiert zu haben. Mittlerweile haben die Richter in den USA die Klage zugelassen. Der Prozess dürfte noch im laufenden Jahr beginnen.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”>

Die KI-Anbieter berufen sich auf das Prinzip des Fair Use, wonach alle im Internet verfügbaren Informationen und Inhalte für das Training ihrer Modelle herangezogen werden dürften. Schließlich diene dies der Allgemeinheit, argumentieren Vertreter von OpenAI und Co. Dass dabei auch urheberrechtlich geschütztes Material verwendet werde, wird nicht rundweg abgestritten. 

KI-Anbieter suchen Kooperationen

Der Streit und die damit verbundenen Prozesse dürften sich noch über viele Jahre hinziehen. Während die Rechtsprechung im Zusammenhang mit dem Fair-Use-Prinzip verlangt, dass im Zuge der Nutzung von urheberrechtlich geschütztem Material etwas im kreativen Sinne Neues geschaffen werden müsse, monieren die Urheber, dass KI-Anbieter mit ihren Modellen und Tools lediglich Inhalte reproduzierten.

Das scheint den Vertreter auf der KI-Seite zumindest in Teilen bewusst zu sein. Schließlich gibt es mittlerweile Annährungsversuche, um den Streit zu beschwichtigen. Beispielsweise hat OpenAI Verträge mit diversen Medienhäusern, in Deutschland beispielsweise Axel Springer, geschlossen, um deren Inhalte für das Training der eigenen KI-Modelle nutzen zu dürfen.  

Hollywood verklagt KI-Anbieter​ Weiterlesen »

Erste Hilfe bei Imageschäden für Arbeitgeber: Wie Sie Kritik in Mitarbeiterportalen begegnen​

Allgemein

Bewertungsportale für Arbeitgeber spielen im Employer Branding eine immer wichtigere Rolle. Für Unternehmen kann die neue Transparenz im Netz Segen und Fluch zugleich sein. Firmen sollten einen Notfallplan haben, um im Netz angemessen auf Kritik reagieren zu können. Im Netz fallen die Bewertungen der Arbeitgeber nicht immer positiv aus. Unternehmen müssen sich dessen bewusst sein und konstruktiv mit der Kritik umgehen, um ihr Image aufzupolieren. Foto: aquarius83men – shutterstock.comVergleichs- und Bewertungsportale schießen wie Pilze aus dem Boden. Ob für Hotels, Restaurants, Handy-, Strom- und Versicherungstarife – oder eben für Unternehmen als Arbeitgeber. Bewerbungsverfahren, Arbeitsatmosphäre, Gehalt, Karrierechancen: In Erfahrungsberichten legen ehemalige oder noch aktive Mitarbeiter die Karten auf den Tisch und geben einen ersten Eindruck, ob sich eine Bewerbung lohnen könnte.Zumindest können Bewertungen im Netz die öffentliche Wahrnehmung stark prägen. Bewertungsportale für Arbeitgeber spielen im Bereich Employer Branding eine immer wichtigere Rolle. Kununu.com, 2007 gegründet und 2013 vom beruflichen Netzwerk Xing übernommen, gilt derzeit als Marktführer im deutschsprachigen Raum.Employer Branding hat seinen Preis Für Unternehmen ist die neue Transparenz im Netz dabei Segen und Fluch zugleich. Die Möglichkeiten, die eigene Unternehmensmarke öffentlich attraktiv zu präsentieren, das Image aufzupolieren und das Recruiting zu pushen, sind vielfältig. Es fließt viel Geld ins Employer Branding. Doch je transparenter man sich darstellt, desto angreifbarer wird man.Und natürlich fallen die Bewertungen nicht immer positiv aus. Dessen müssen sich Arbeitgeber bewusst sein und mit den Konsequenzen leben. Oder zumindest professionell auf die kritischen Stimmen reagieren. Wird ein Unternehmen einmal öffentlich inspiziert und werden interne Missstände aufgedeckt, die potenzielle Bewerber möglicherweise abschrecken, kann es schwerfallen, mit der Kritik – sie mag berechtigt sein oder nicht – konstruktiv umzugehen. Deshalb soll ein Notfallplan, sozusagen ein Erste-Hilfe-Kasten für Image-Krisenfälle, Hinweise geben, wie Arbeitgeber reagieren können. Bei andauernden und größeren Schäden sollte trotzdem unbedingt ein erfahrenes Team herangezogen werden, um die Situation professionell zu bewältigen.Sieben Tipps, wie Sie auf Kritik in Mitarbeiterportalen reagieren Employer Branding: Wie Sie die Unternehmensmarke schützenEmployer Branding: Wie Sie die Unternehmensmarke schützen Foto: PhuShutter – shutterstock.comArbeitgeber müssen reagieren, wenn sich aktive und ehemalige Beschäftigte negativ in Mitarbeiterportalen wie Kununu äußern. Hier finden Sie sieben Tipps, zusammengestellt von der Agentur Maisberger.Tipp 1 Foto: Ollyy – shutterstock.comStellung nehmen! Wegducken und ignorieren ist keine Lösung! Nutzen Sie die Möglichkeit, wie etwa auf Kununu, zu einzelnen Bewertungen Stellung zu beziehen.Tipp 2 Foto: Brian A Jackson – shutterstock.comReagieren Sie zügig – aber nehmen Sie sich trotzdem die nötige Zeit. Prüfen Sie intern gründlich die Ursachen für die Bewertung und formulieren Sie Ihre Stellungnahme mit Bedacht.Tipp 3 Foto: keport – shutterstock.comIndividuelle Reaktion auf individuelle Kritik: Beziehen Sie sich in Ihrer Antwort explizit auf das Anliegen des Verfassers. Mit vorgefertigten Antworten gießen Sie nur Öl ins Feuer!Tipp 4 Foto: keport – shutterstock.comBewertungen wertschätzen: Jede Kritik – sofern konstruktiv – birgt für Sie die Chance, sich zu verbessern. Äußern Sie daher stets auch Ihren Dank für die Bewertung.Tipp 5 Foto: keport – shutterstock.comSchuld haben nicht die anderen – die Kritik richtet sich an Sie! Fokussieren Sie sich auf die Lösung des Problems und nicht auf die Suche nach dem vermeintlichen Verursacher.Tipp 6 Foto: Yeexin Richelle – shutterstock.comDiskussionen im Netz können ausufern. Wenn ein Aufklärungsversuch aussichtslos ist, ziehen Sie einen Schlussstrich und lassen Sie sich nicht provozieren.Tipp 7 Foto: designer491 – shutterstock.comAnalysieren und monitoren! Je mehr Sie die Stimmen im Netz im Blick haben, desto besser können Sie sich ein Bild von der öffentlichen Meinung zu Ihrem Unternehmen machen. 

Erste Hilfe bei Imageschäden für Arbeitgeber: Wie Sie Kritik in Mitarbeiterportalen begegnen​ Bewertungsportale für Arbeitgeber spielen im Employer Branding eine immer wichtigere Rolle.

Für Unternehmen kann die neue Transparenz im Netz Segen und Fluch zugleich sein.

Firmen sollten einen Notfallplan haben, um im Netz angemessen auf Kritik reagieren zu können.

Im Netz fallen die Bewertungen der Arbeitgeber nicht immer positiv aus. Unternehmen müssen sich dessen bewusst sein und konstruktiv mit der Kritik umgehen, um ihr Image aufzupolieren.
Foto: aquarius83men – shutterstock.comVergleichs- und Bewertungsportale schießen wie Pilze aus dem Boden. Ob für Hotels, Restaurants, Handy-, Strom- und Versicherungstarife – oder eben für Unternehmen als Arbeitgeber. Bewerbungsverfahren, Arbeitsatmosphäre, Gehalt, Karrierechancen: In Erfahrungsberichten legen ehemalige oder noch aktive Mitarbeiter die Karten auf den Tisch und geben einen ersten Eindruck, ob sich eine Bewerbung lohnen könnte.Zumindest können Bewertungen im Netz die öffentliche Wahrnehmung stark prägen. Bewertungsportale für Arbeitgeber spielen im Bereich Employer Branding eine immer wichtigere Rolle. Kununu.com, 2007 gegründet und 2013 vom beruflichen Netzwerk Xing übernommen, gilt derzeit als Marktführer im deutschsprachigen Raum.Employer Branding hat seinen Preis Für Unternehmen ist die neue Transparenz im Netz dabei Segen und Fluch zugleich. Die Möglichkeiten, die eigene Unternehmensmarke öffentlich attraktiv zu präsentieren, das Image aufzupolieren und das Recruiting zu pushen, sind vielfältig. Es fließt viel Geld ins Employer Branding. Doch je transparenter man sich darstellt, desto angreifbarer wird man.Und natürlich fallen die Bewertungen nicht immer positiv aus. Dessen müssen sich Arbeitgeber bewusst sein und mit den Konsequenzen leben. Oder zumindest professionell auf die kritischen Stimmen reagieren. Wird ein Unternehmen einmal öffentlich inspiziert und werden interne Missstände aufgedeckt, die potenzielle Bewerber möglicherweise abschrecken, kann es schwerfallen, mit der Kritik – sie mag berechtigt sein oder nicht – konstruktiv umzugehen. Deshalb soll ein Notfallplan, sozusagen ein Erste-Hilfe-Kasten für Image-Krisenfälle, Hinweise geben, wie Arbeitgeber reagieren können. Bei andauernden und größeren Schäden sollte trotzdem unbedingt ein erfahrenes Team herangezogen werden, um die Situation professionell zu bewältigen.Sieben Tipps, wie Sie auf Kritik in Mitarbeiterportalen reagieren Employer Branding: Wie Sie die Unternehmensmarke schützenEmployer Branding: Wie Sie die Unternehmensmarke schützen
Foto: PhuShutter – shutterstock.comArbeitgeber müssen reagieren, wenn sich aktive und ehemalige Beschäftigte negativ in Mitarbeiterportalen wie Kununu äußern. Hier finden Sie sieben Tipps, zusammengestellt von der Agentur Maisberger.Tipp 1
Foto: Ollyy – shutterstock.comStellung nehmen! Wegducken und ignorieren ist keine Lösung! Nutzen Sie die Möglichkeit, wie etwa auf Kununu, zu einzelnen Bewertungen Stellung zu beziehen.Tipp 2
Foto: Brian A Jackson – shutterstock.comReagieren Sie zügig – aber nehmen Sie sich trotzdem die nötige Zeit. Prüfen Sie intern gründlich die Ursachen für die Bewertung und formulieren Sie Ihre Stellungnahme mit Bedacht.Tipp 3
Foto: keport – shutterstock.comIndividuelle Reaktion auf individuelle Kritik: Beziehen Sie sich in Ihrer Antwort explizit auf das Anliegen des Verfassers. Mit vorgefertigten Antworten gießen Sie nur Öl ins Feuer!Tipp 4
Foto: keport – shutterstock.comBewertungen wertschätzen: Jede Kritik – sofern konstruktiv – birgt für Sie die Chance, sich zu verbessern. Äußern Sie daher stets auch Ihren Dank für die Bewertung.Tipp 5
Foto: keport – shutterstock.comSchuld haben nicht die anderen – die Kritik richtet sich an Sie! Fokussieren Sie sich auf die Lösung des Problems und nicht auf die Suche nach dem vermeintlichen Verursacher.Tipp 6
Foto: Yeexin Richelle – shutterstock.comDiskussionen im Netz können ausufern. Wenn ein Aufklärungsversuch aussichtslos ist, ziehen Sie einen Schlussstrich und lassen Sie sich nicht provozieren.Tipp 7
Foto: designer491 – shutterstock.comAnalysieren und monitoren! Je mehr Sie die Stimmen im Netz im Blick haben, desto besser können Sie sich ein Bild von der öffentlichen Meinung zu Ihrem Unternehmen machen.

Erste Hilfe bei Imageschäden für Arbeitgeber: Wie Sie Kritik in Mitarbeiterportalen begegnen​ Weiterlesen »

KI in Deutschland: Fortschritt mit angezogener Handbremse?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?quality=50&strip=all 7000w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Statt mit KI durchzustarten, gibt es häufig noch Hemmungen, die Technologie in aller Konsequenz zu verwenden.Sunshine Seeds – Shutterstock Deutsche Unternehmen und IT-Hypes – eine Paarung, die nur selten wohlgemeinte Diskussionen hervorruft. Von verschlafenen Trends, Bedenkenträgern und der ohnehin viel zu großen “German Angst” ist da oft die Rede.  Dass das Thema Künstliche Intelligenz auch so ein IT-Hype ist, muss wohl die Untertreibung des Jahrhunderts sein. Seit nunmehr fast drei Jahren gibt es um KI, respektive GenAI diskursiv kein Herumkommen mehr, was nun die Frage in den Raum wirft: Wo stehen eigentlich die Unternehmen in Deutschland? Wo geht die Reise hin – und dürfen die wenig schmeichelhaften Situationsbeschreibungen diesmal der Debatte fernbleiben? Diese Fragen diskutierten die Experten beim COMPUTERWOCHE-Roundtable zum Thema “KI-as-a-Service”. Informationen zu den Partner-Paketen der Studie “KI as a Service 2025” On-Prem vs. Cloud: Mehr als eine Frage der Datensouveränität Zunächst ist eines auffällig: Die Debatte Cloud vs. On-Premises, die vielleicht an anderer Stelle nicht mehr so laut wie noch vor einigen Jahren geführt wird, findet in der Diskussion um die Datenhoheit beim Einsatz von KI einen interessanten Nebenschauplatz.  Denn der Trend zur Multi-Cloud-, beziehungsweise Hybrid-Strategie scheint sich auch beim Thema KI durchzusetzen. Während allein die hohen Anforderungen an die Hardware das Einsetzen der Cloud aus Gründen der Performanz beinahe verpflichtend machen, erfordern je nach Branche diverse kritische Use Cases auch souveräne Lösungen, wie Enrico Gabriele, Head of Data & AI Consulting von STACKIT, erklärt: “So können Unternehmen ihre kritischen Daten in einer souveränen Umgebung, beispielsweise On-Premises oder in einer souveränen Cloud, hosten und ihre Modelle dort trainieren, aber die daraus gewonnenen Erkenntnisse mit diversen Cloud-Lösungen kombinieren.” Enrico Gabriele, STACKIT: “Mit dem Aufbau der AI-Literacy in den Fachabteilungen lässt sich sehr viel erreichen, denn diese verstehen oft ihre eigenen Prozesse, aber nicht, wie KI diese Prozesse weiter optimieren kann. Dazu ist jedoch auch wichtig, dass das Management das Thema für sich annimmt und greifbar macht, welche Möglichkeiten sich durch den Einsatz künstlicher Intelligenz ergeben.” STACKIT GmbH & Co. KG Doch auch unabhängig von Datenschutzbedenken gibt es gute Gründe, nicht nur auf öffentlich zugängliche Modelle zu setzen. “Jeder muss sich fragen: Wofür will ich die KI eigentlich einsetzen”, gibt Rudy Kuhn, Lead Evangelist von Celonis, zu bedenken. “Wenn die KI spezifische Prozesse in meinem Unternehmen verbessern soll, muss ich sie auch mit meinen Daten anlernen – sonst kann sie mir zu meinen Prozessen gar nichts sagen.” Erfolgsrezept: schnelle Erfolge, langfristige Visionen Sich zu lange in “Was wäre wenn”-Szenarien aufzuhalten, hät Tolga Erdogan, Director Architects Germany von Salesforce, für kontraproduktiv. Dazu entwickle sich das Technologieumfeld heute viel zu rapide, erklärt Erdogan: ,„Selbst die Researcher wissen nicht, was als Nächstes passiert. Eine Lösung, die auch in hundert Jahren noch funktioniert, kann es nicht geben.” Angesichts des wachsenden Wettbewerbs seien Unternehmen besser beraten, einfach anzufangen und so Erfahrungen mit KI zu sammeln. Erdogan appelliert auch an die anderen Experten und hebt hervor, dass Berater und Dienstleister durchaus mehr Mut ausstrahlen sollten, da die Unternehmen oft angesichts der Entwicklungsgeschwindigkeit überfordert seien. “Wir stehen vor fundamentalen Herausforderungen und könnten noch viel mehr erreichen.”  Dass KI jedoch gekommen ist, um zu bleiben, daran besteht kein Zweifel. Und auch die Berührungsängste scheinen nach und nach zu verschwinden – was wichtig ist, denn wegignorieren lässt sich die Technologie nicht mehr.  “Wenn sich Unternehmen dem Thema nicht stellen, heißt das noch lange nicht, dass KI nicht verwendet wird – sondern nur, dass das Ganze ungeordnet passiert”, erklärt Daniel Lüttgau, Head of AI Development von statworx. Wenn Mitarbeiter mit den Tools ihre Arbeit erleichtern können, würden sie sie einsetzen, ob mit oder ohne Governance, ergänzt Lüttgau. “Damit entziehe ich mich nicht dem Thema selbst, sondern nur der Möglichkeit, es kontrolliert anzugehen.” Daniel Lüttgau, Statworx: „Wenn sich Unternehmen dem Thema KI nicht stellen, heißt das noch lange nicht, dass die Technologie nicht verwendet wird – sondern nur, dass das Ganze ungeordnet passiert. Ein strategischer Governance-Ansatz ist ebenso essenziell wie die Verfügbarkeit sauberer Daten – beides sind große Herausforderungen, wenn man KI erfolgreich einsetzen will. Use-Case-getriebene Ansätze sind gut geeignet, um Lust auf die Technologie zu machen. Aber diese müssten unbedingt von einem strategischen Überbau begleitet werden.“ Statworx GmbH Studie “Automatisierung”: Sie können sich noch beteiligen!Zum Thema KI as a Service führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). Die selbstständig entscheidende KI ist (noch) Zukunftsmusik Horst Mundt, Databricks: “Viele Unternehmen befinden sich noch in der Experimentierphase, auch wenn es durchaus schon einzelne Fälle mit wirklich soliden Business Cases gibt. Während KI in den meisten Fällen als Entscheidungshilfe eingesetzt wird, sieht man in Einzelfällen mehr und mehr, dass KI selbst Entscheidungen trifft – dazu muss jedoch die Datenbasis stimmen. Daher sollten Unternehmen vor allem darauf achten, Datensilos aufzulösen.” Databricks GmbH Die gute Nachricht für die IT-Abteilung ist jedoch: Wer das Thema KI-Governance vorantreiben will, rennt bei der Finanzabteilung in der Regel offene Türen ein. “Mit dem KI-Hype werden meistens Effizienzsteigerungen verbunden. Das führt dazu, dass vor allem CFO-seitig oft ein besonders hohes Interesse an der Technologie besteht”, wirft Horst Mundt, Director Field Engineering von Databricks, in die Runde.  Die Bereitschaft, KI einzusetzen, ist also in vielen Unternehmen bereits vorhanden. Und doch gibt es oft nach wie vor noch Hemmungen, die Technologie in aller Konsequenz zu verwenden. Denn in der Phase, dass KI bereits völlig eigenständig Entscheidungen treffen darf, sind wir (noch nicht). Rudy Kuhn, Celonis: “KI geht nicht ohne Process Intelligence. Wenn Unternehmen das volle Potenzial künstlicher Intelligenz ausschöpfen wollen, müssen sie ihre eigenen Prozesse kennen und die KI genau damit anlernen. Dann wird künstliche Intelligenz mehr als nur ein Effizienztool – nämlich eine Art vollwertiger Mitarbeiter, der echte, datenbasierte Entscheidungen trifft.” Celonis SE “In der Regel wertet KI ganze Datensätze aus und liefert dann Entscheidungsvorschläge, oft sogar mit ausladender Begründung”, erklärt Rudy Kuhn. Die endgültige Entscheidung läge aber in den allermeisten Fällen noch bei menschlichen Mitarbeitern. Ob das einen konkreten Nutzen hat oder sich nicht eher was “für’s gute Gefühl” so verhält, ist fraglich. “Wenn in 99 Prozent der Fälle sowieso der Empfehlung gefolgt wird, kann man die Entscheidung auch komplett an die KI auslagern.” Kuhn hebt hervor, dass Unternehmen den größten Nutzen aus KI ziehen, wenn sie diese in Endkonsequenz wie einen vollwertigen Mitarbeiter einsetzen. Doch wieso erscheint es so vielen so wichtig, dass die endgültige Entscheidung bei einem Menschen liegt? Michael Bochmann, Chief Product & Technology Officer von DocuWare, sieht dies vor allem in der empfundenen Verantwortlichkeit begründet: “Kaum jemand würde in ein vollständig KI-gesteuertes Flugzeug steigen. Nicht, weil ein menschlicher Pilot weniger fehleranfällig wäre, sondern weil wir an diesen die Verantwortung abgeben können.” KI sei immer nur so gut wie die Daten, die ihr zur Verfügung stehen – dies sei jedoch bei den Mitarbeitenden ganz genauso. Tolga Erdogan, Salesforce: “Unternehmen sollten nicht auf eine perfekte und 100% zukunftssichere Lösung warten. Die kann es nicht geben. Statt sich also zu fragen, was nicht geht, ist es besser zu schauen, was geht – und dann einfach anzufangen. Ich empfehle, mit einfachen, schnellen Quick Wins zu starten – damit baut man Erfahrungen auf und schafft Akzeptanz.” Salesforce.com Germany GmbH Tolga Erdogan hebt hervor, dass viele Unternehmen dazu neigen, zu viel auf einmal zu wollen und sich dadurch selbst zu lähmen – und schlägt vor, neue Technologie zunächst zu behandeln wie einen neuen Mitarbeiter. “Neuen Kollegen übertrage ich auch nicht direkt riesige Verantwortungsbereiche, sondern setze sie erstmal in kleinem, kontrollierten Rahmen ein”, erklärt Erdogan. So sollten Unternehmen auch mit KI verfahren. “Ich empfehle, mit einfachen, schnellen Quick Wins zu starten – damit baut man Erfahrungen auf und schafft Akzeptanz.” Das kann jedoch nur gelingen, wenn die KI nicht an jeder Ecke auf veraltete, analoge Prozesse trifft. “Die digitale Transformation muss von beiden Seiten angegangen werden”, sagt Enrico Gabriele. “Das bedeutet einerseits, zu prüfen, wo sich KI im kleinen Rahmen gewinnbringend einsetzen lässt. Aber auch, die Digitalisierung als Gesamtorganisation voranzutreiben, um ganze Prozesse zu digitalisieren.” KI funktioniert nur mit der richtigen Datenbasis Und noch etwas ist unbedingte Voraussetzung für den erfolgreichen Einsatz von KI in Unternehmen: “KI lebt von Daten – und die müssen KI-ready sein”, betont Michael Bochmann. Hier sieht er bei vielen Unternehmen noch durchaus Nachholbedarf. “Wenn vertrauliche Daten nicht sauber klassifiziert sind, kann ein Mensch diese vielleicht noch als solche erkennen – eine KI kann das nicht.” Entsprechende Aufbereitung der Daten sei daher das A und O. Michael Bochmann, DocuWare: “Viele vergessen bei der Debatte um KI, dass es auch immer die menschliche Komponente benötigt – die Mitarbeitenden, die die KI bedienen. Es reicht nicht, einfach nur einen Service einzukaufen, sondern ich brauche intern ein Grundgerüst an Expertise, um das Potenzial voll auszuschöpfen. Das sollten Unternehmen bei der Kosten-Nutzen-Rechnung unbedingt bedenken.” DocuWare GmbH Auch Daniel Lüttgau sieht die Notwendigkeit für einen systemischen Ansatz: “Leuchtturmprojekte mit schnellem Erfolg sind sehr wichtig, um Akzeptanz zu schaffen. Aber die Herausforderung, saubere Daten für die KI zu haben, ist eine sehr große und fundamentale.” Use-Case-getriebene Ansätze seien gut geeignet, um Lust auf die Technologie zu machen. Aber diese müssten unbedingt von einem strategischen Überbau begleitet werden, da sonst schnell ein sehr teurer Wildwuchs an Einzellösungen entstehen könnte und Unternehmen an die Grenzen des Potenzials stoßen. Letztlich zeigt die Debatte vor allem eins: an Gesprächsbedarf mangelt es nicht – was jedoch als gutes Zeichen gewertet werden darf. Dass sich deutsche Unternehmen der Technologie zunehmend öffnen und nach Wegen suchen, sie gewinnbringend einzusetzen, mag angesichts der Verheißungen folgerichtig erscheinen, auch wenn viele Fragen offen bleiben. Berührungsängste bleiben, doch von echter Innovationsskepsis der Marke “German Angst” scheinen wir nicht mehr reden zu können – und das ist doch schon etwas. (mb) 

KI in Deutschland: Fortschritt mit angezogener Handbremse?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?quality=50&strip=all 7000w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1019169571_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Statt mit KI durchzustarten, gibt es häufig noch Hemmungen, die Technologie in aller Konsequenz zu verwenden.Sunshine Seeds – Shutterstock

Deutsche Unternehmen und IT-Hypes – eine Paarung, die nur selten wohlgemeinte Diskussionen hervorruft. Von verschlafenen Trends, Bedenkenträgern und der ohnehin viel zu großen “German Angst” ist da oft die Rede. 

Dass das Thema Künstliche Intelligenz auch so ein IT-Hype ist, muss wohl die Untertreibung des Jahrhunderts sein. Seit nunmehr fast drei Jahren gibt es um KI, respektive GenAI diskursiv kein Herumkommen mehr, was nun die Frage in den Raum wirft: Wo stehen eigentlich die Unternehmen in Deutschland? Wo geht die Reise hin – und dürfen die wenig schmeichelhaften Situationsbeschreibungen diesmal der Debatte fernbleiben? Diese Fragen diskutierten die Experten beim COMPUTERWOCHE-Roundtable zum Thema “KI-as-a-Service”.

Informationen zu den Partner-Paketen der Studie “KI as a Service 2025”

On-Prem vs. Cloud: Mehr als eine Frage der Datensouveränität

Zunächst ist eines auffällig: Die Debatte Cloud vs. On-Premises, die vielleicht an anderer Stelle nicht mehr so laut wie noch vor einigen Jahren geführt wird, findet in der Diskussion um die Datenhoheit beim Einsatz von KI einen interessanten Nebenschauplatz. 

Denn der Trend zur Multi-Cloud-, beziehungsweise Hybrid-Strategie scheint sich auch beim Thema KI durchzusetzen. Während allein die hohen Anforderungen an die Hardware das Einsetzen der Cloud aus Gründen der Performanz beinahe verpflichtend machen, erfordern je nach Branche diverse kritische Use Cases auch souveräne Lösungen, wie Enrico Gabriele, Head of Data & AI Consulting von STACKIT, erklärt: “So können Unternehmen ihre kritischen Daten in einer souveränen Umgebung, beispielsweise On-Premises oder in einer souveränen Cloud, hosten und ihre Modelle dort trainieren, aber die daraus gewonnenen Erkenntnisse mit diversen Cloud-Lösungen kombinieren.”

Enrico Gabriele, STACKIT:
“Mit dem Aufbau der AI-Literacy in den Fachabteilungen lässt sich sehr viel erreichen, denn diese verstehen oft ihre eigenen Prozesse, aber nicht, wie KI diese Prozesse weiter optimieren kann. Dazu ist jedoch auch wichtig, dass das Management das Thema für sich annimmt und greifbar macht, welche Möglichkeiten sich durch den Einsatz künstlicher Intelligenz ergeben.”
STACKIT GmbH & Co. KG

Doch auch unabhängig von Datenschutzbedenken gibt es gute Gründe, nicht nur auf öffentlich zugängliche Modelle zu setzen. “Jeder muss sich fragen: Wofür will ich die KI eigentlich einsetzen”, gibt Rudy Kuhn, Lead Evangelist von Celonis, zu bedenken. “Wenn die KI spezifische Prozesse in meinem Unternehmen verbessern soll, muss ich sie auch mit meinen Daten anlernen – sonst kann sie mir zu meinen Prozessen gar nichts sagen.”

Erfolgsrezept: schnelle Erfolge, langfristige Visionen

Sich zu lange in “Was wäre wenn”-Szenarien aufzuhalten, hät Tolga Erdogan, Director Architects Germany von Salesforce, für kontraproduktiv. Dazu entwickle sich das Technologieumfeld heute viel zu rapide, erklärt Erdogan: ,„Selbst die Researcher wissen nicht, was als Nächstes passiert. Eine Lösung, die auch in hundert Jahren noch funktioniert, kann es nicht geben.” Angesichts des wachsenden Wettbewerbs seien Unternehmen besser beraten, einfach anzufangen und so Erfahrungen mit KI zu sammeln. Erdogan appelliert auch an die anderen Experten und hebt hervor, dass Berater und Dienstleister durchaus mehr Mut ausstrahlen sollten, da die Unternehmen oft angesichts der Entwicklungsgeschwindigkeit überfordert seien. “Wir stehen vor fundamentalen Herausforderungen und könnten noch viel mehr erreichen.” 

Dass KI jedoch gekommen ist, um zu bleiben, daran besteht kein Zweifel. Und auch die Berührungsängste scheinen nach und nach zu verschwinden – was wichtig ist, denn wegignorieren lässt sich die Technologie nicht mehr. 

“Wenn sich Unternehmen dem Thema nicht stellen, heißt das noch lange nicht, dass KI nicht verwendet wird – sondern nur, dass das Ganze ungeordnet passiert”, erklärt Daniel Lüttgau, Head of AI Development von statworx. Wenn Mitarbeiter mit den Tools ihre Arbeit erleichtern können, würden sie sie einsetzen, ob mit oder ohne Governance, ergänzt Lüttgau. “Damit entziehe ich mich nicht dem Thema selbst, sondern nur der Möglichkeit, es kontrolliert anzugehen.”

Daniel Lüttgau, Statworx:
„Wenn sich Unternehmen dem Thema KI nicht stellen, heißt das noch lange nicht, dass die Technologie nicht verwendet wird – sondern nur, dass das Ganze ungeordnet passiert. Ein strategischer Governance-Ansatz ist ebenso essenziell wie die Verfügbarkeit sauberer Daten – beides sind große Herausforderungen, wenn man KI erfolgreich einsetzen will. Use-Case-getriebene Ansätze sind gut geeignet, um Lust auf die Technologie zu machen. Aber diese müssten unbedingt von einem strategischen Überbau begleitet werden.“
Statworx GmbH

Studie “Automatisierung”: Sie können sich noch beteiligen!Zum Thema KI as a Service führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

Die selbstständig entscheidende KI ist (noch) Zukunftsmusik

Horst Mundt, Databricks:
“Viele Unternehmen befinden sich noch in der Experimentierphase, auch wenn es durchaus schon einzelne Fälle mit wirklich soliden Business Cases gibt. Während KI in den meisten Fällen als Entscheidungshilfe eingesetzt wird, sieht man in Einzelfällen mehr und mehr, dass KI selbst Entscheidungen trifft – dazu muss jedoch die Datenbasis stimmen. Daher sollten Unternehmen vor allem darauf achten, Datensilos aufzulösen.”
Databricks GmbH

Die gute Nachricht für die IT-Abteilung ist jedoch: Wer das Thema KI-Governance vorantreiben will, rennt bei der Finanzabteilung in der Regel offene Türen ein. “Mit dem KI-Hype werden meistens Effizienzsteigerungen verbunden. Das führt dazu, dass vor allem CFO-seitig oft ein besonders hohes Interesse an der Technologie besteht”, wirft Horst Mundt, Director Field Engineering von Databricks, in die Runde. 

Die Bereitschaft, KI einzusetzen, ist also in vielen Unternehmen bereits vorhanden. Und doch gibt es oft nach wie vor noch Hemmungen, die Technologie in aller Konsequenz zu verwenden. Denn in der Phase, dass KI bereits völlig eigenständig Entscheidungen treffen darf, sind wir (noch nicht).

Rudy Kuhn, Celonis:
“KI geht nicht ohne Process Intelligence. Wenn Unternehmen das volle Potenzial künstlicher Intelligenz ausschöpfen wollen, müssen sie ihre eigenen Prozesse kennen und die KI genau damit anlernen. Dann wird künstliche Intelligenz mehr als nur ein Effizienztool – nämlich eine Art vollwertiger Mitarbeiter, der echte, datenbasierte Entscheidungen trifft.”
Celonis SE

“In der Regel wertet KI ganze Datensätze aus und liefert dann Entscheidungsvorschläge, oft sogar mit ausladender Begründung”, erklärt Rudy Kuhn. Die endgültige Entscheidung läge aber in den allermeisten Fällen noch bei menschlichen Mitarbeitern. Ob das einen konkreten Nutzen hat oder sich nicht eher was “für’s gute Gefühl” so verhält, ist fraglich. “Wenn in 99 Prozent der Fälle sowieso der Empfehlung gefolgt wird, kann man die Entscheidung auch komplett an die KI auslagern.” Kuhn hebt hervor, dass Unternehmen den größten Nutzen aus KI ziehen, wenn sie diese in Endkonsequenz wie einen vollwertigen Mitarbeiter einsetzen.

Doch wieso erscheint es so vielen so wichtig, dass die endgültige Entscheidung bei einem Menschen liegt? Michael Bochmann, Chief Product & Technology Officer von DocuWare, sieht dies vor allem in der empfundenen Verantwortlichkeit begründet: “Kaum jemand würde in ein vollständig KI-gesteuertes Flugzeug steigen. Nicht, weil ein menschlicher Pilot weniger fehleranfällig wäre, sondern weil wir an diesen die Verantwortung abgeben können.” KI sei immer nur so gut wie die Daten, die ihr zur Verfügung stehen – dies sei jedoch bei den Mitarbeitenden ganz genauso.

Tolga Erdogan, Salesforce:
“Unternehmen sollten nicht auf eine perfekte und 100% zukunftssichere Lösung warten. Die kann es nicht geben. Statt sich also zu fragen, was nicht geht, ist es besser zu schauen, was geht – und dann einfach anzufangen. Ich empfehle, mit einfachen, schnellen Quick Wins zu starten – damit baut man Erfahrungen auf und schafft Akzeptanz.”
Salesforce.com Germany GmbH

Tolga Erdogan hebt hervor, dass viele Unternehmen dazu neigen, zu viel auf einmal zu wollen und sich dadurch selbst zu lähmen – und schlägt vor, neue Technologie zunächst zu behandeln wie einen neuen Mitarbeiter. “Neuen Kollegen übertrage ich auch nicht direkt riesige Verantwortungsbereiche, sondern setze sie erstmal in kleinem, kontrollierten Rahmen ein”, erklärt Erdogan. So sollten Unternehmen auch mit KI verfahren. “Ich empfehle, mit einfachen, schnellen Quick Wins zu starten – damit baut man Erfahrungen auf und schafft Akzeptanz.”

Das kann jedoch nur gelingen, wenn die KI nicht an jeder Ecke auf veraltete, analoge Prozesse trifft. “Die digitale Transformation muss von beiden Seiten angegangen werden”, sagt Enrico Gabriele. “Das bedeutet einerseits, zu prüfen, wo sich KI im kleinen Rahmen gewinnbringend einsetzen lässt. Aber auch, die Digitalisierung als Gesamtorganisation voranzutreiben, um ganze Prozesse zu digitalisieren.”

KI funktioniert nur mit der richtigen Datenbasis

Und noch etwas ist unbedingte Voraussetzung für den erfolgreichen Einsatz von KI in Unternehmen: “KI lebt von Daten – und die müssen KI-ready sein”, betont Michael Bochmann. Hier sieht er bei vielen Unternehmen noch durchaus Nachholbedarf. “Wenn vertrauliche Daten nicht sauber klassifiziert sind, kann ein Mensch diese vielleicht noch als solche erkennen – eine KI kann das nicht.” Entsprechende Aufbereitung der Daten sei daher das A und O.

Michael Bochmann, DocuWare:
“Viele vergessen bei der Debatte um KI, dass es auch immer die menschliche Komponente benötigt – die Mitarbeitenden, die die KI bedienen. Es reicht nicht, einfach nur einen Service einzukaufen, sondern ich brauche intern ein Grundgerüst an Expertise, um das Potenzial voll auszuschöpfen. Das sollten Unternehmen bei der Kosten-Nutzen-Rechnung unbedingt bedenken.”
DocuWare GmbH

Auch Daniel Lüttgau sieht die Notwendigkeit für einen systemischen Ansatz: “Leuchtturmprojekte mit schnellem Erfolg sind sehr wichtig, um Akzeptanz zu schaffen. Aber die Herausforderung, saubere Daten für die KI zu haben, ist eine sehr große und fundamentale.” Use-Case-getriebene Ansätze seien gut geeignet, um Lust auf die Technologie zu machen. Aber diese müssten unbedingt von einem strategischen Überbau begleitet werden, da sonst schnell ein sehr teurer Wildwuchs an Einzellösungen entstehen könnte und Unternehmen an die Grenzen des Potenzials stoßen.

Letztlich zeigt die Debatte vor allem eins: an Gesprächsbedarf mangelt es nicht – was jedoch als gutes Zeichen gewertet werden darf. Dass sich deutsche Unternehmen der Technologie zunehmend öffnen und nach Wegen suchen, sie gewinnbringend einzusetzen, mag angesichts der Verheißungen folgerichtig erscheinen, auch wenn viele Fragen offen bleiben. Berührungsängste bleiben, doch von echter Innovationsskepsis der Marke “German Angst” scheinen wir nicht mehr reden zu können – und das ist doch schon etwas. (mb)

KI in Deutschland: Fortschritt mit angezogener Handbremse?​ Weiterlesen »

Wie Sie den Compliance-Durchblick behalten​

Allgemein

loading=”lazy” width=”400px”>Sich in den Regelwerken der EU zurechtzufinden, ist oft gar nicht so einfach.alphaspirit – shutterstock.com Die EU hat in den vergangenen Jahren zahlreiche Gesetze verabschiedet, die Unternehmen dazu verpflichten, bestimmte Compliance-Regeln im Digitalbereich einzuhalten. Dazu gehören unter anderem die Datenschutzgrundverordnung (DSGVO), die KI-Verordnung (AI Act), die NIS-2-Richtlinie, der EU Data Act, die DORA-Verordnung und der Cyber Resilience Act (CRA). NIS2, DORA, Data Act & Co.: Die wichtigsten Security-Gesetze im Überblick All diese Gesetze zielen darauf ab, den Schutz von Daten, die Sicherheit von IT-Systemen und die Transparenz im Umgang mit digitalen Technologien sicherstellen. Doch einige dieser Vorschriften haben ähnliche oder sogar identische Anforderungen. Redundante Compliance-Pflichten Der Branchenverband Bitkom hat vor Kurzem ein Diskussionspapier vorgestellt, mit dem Titel „Digitalgesetzgebung der EU: Konfliktzonen und Wege zur Kohärenz“, das diese Redundanzen untersucht und zugleich erste praktische Lösungsansätze anbietet. In dem Papier werden mehrere Bereiche identifiziert, in denen sich Compliance-Pflichten verschiedener EU-Gesetze überschneiden: 1. Dokumentationspflichten Sowohl die DSGVO als auch die KI-Verordnung verlangen umfassende Dokumentationen. Das Verzeichnis der Verarbeitungstätigkeiten nach der DSGVO und die Risikobewertung sowie das Post-Market-Monitoring nach der KI-Verordnung verfolgen ähnliche Ziele. Unternehmen können hier durch eine zentrale Dokumentation, die den Anforderungen beider Gesetze gerecht wird, effizienter arbeiten. 2. Risikomanagement Auch die Datenschutzfolgenabschätzung nach Art. 35 DSGVO und die Risikobewertung nach Art. 2 Abs. 7 KI-Verordnung haben viele Überschneidungen. Zudem erkennen einige der EU-Digitalgesetze an, dass die Erfüllung der IT-Sicherheitsanforderungen nach anderen EU-Gesetzen zumindest teilweise die Vermutung auslöst, dass auch die Anforderungen der neuen Gesetze erfüllt sind. Unternehmen können hier ein einheitliches Risikomanagementsystem entwickeln, das die Anforderungen aller relevanten Gesetze abdeckt. 3. Meldepflichten für IT-Sicherheitsstörfälle Unterschiedliche Gesetze wie die DSGVO, die KI-Verordnung, die NIS-2-Richtlinie, der Cyber Resilience Act und die ePrivacy-Richtlinie verlangen Meldungen an unterschiedliche Behörden und haben unterschiedliche Meldefristen. Unternehmen sollten hier, soweit möglich, einheitliche Meldeprozesse etablieren und klare Verantwortlichkeiten definieren, um die Effizienz zu steigern und doppelte Arbeit oder gar widersprüchliche Meldeprozesse zu vermeiden. 4. IT-Sicherheitsstandards Anforderungen an den IT-Sicherheitsstandard sind in Art. 32 DSGVO, Art. 15 KI-Verordnung sowie der NIS-2-Richtlinie und der DORA-Verordnung teilweise überlappend oder gar identisch. Unternehmen sollten daher einen Mindest-Sicherheitsstandard wählen und in die Praxis umsetzen, der alle diese Anforderungen gleichzeitig erfüllt, um die Implementierung zu vereinfachen. Das beinhaltet auch die einheitliche und regelmäßige Weiterentwicklung nach dem jeweils aktuellen Stand der Technik. 5. Benennung eines EU-Vertreters Unternehmen ohne Sitz oder Niederlassung in der EU müssen einen Vertreter benennen, der als Ansprechpartner für Aufsichtsbehörden und Betroffene fungiert. Dies wird sowohl von der DSGVO, der KI-Verordnung, dem Cyber Resilience Act als auch der NIS-2-Richtlinie verlangt. Hier können Unternehmen einen Vertreter für mehrere Bereiche betrauen und ihn entsprechend in allen Registern benennen. Beispiele aus der Praxis Ein praktisches Beispiel für die effiziente Nutzung redundanter Compliance-Pflichten ist die Datenschutzfolgenabschätzung, die viele Unternehmen aktuell für den Einsatz von Microsoft Copilot durchführen. Die DSGVO-Dokumentationshilfen des Herstellers Microsoft unterstützen dabei, und sind zugleich hilfreich, um die Dokumentationspflichten als KI-Betreiber nach der KI-Verordnung zu erfüllen. Ein weiteres Beispiel sind die Empfehlungen des Bundesamts für Sicherheit in der Informationstechnik (BSI) zum aktuellen Stand der Technik für IT-Sicherheit. Diese Empfehlungen lassen sich für alle relevanten Digitalgesetze anwenden und bieten eine solide Grundlage für die Umsetzung der IT-Sicherheitsanforderungen. Die Umsetzungsempfehlungen der EU-Kommission zum Risikomanagement nach der NIS-2-Richtlinie bieten praxistaugliche Hilfestellungen, um die Anforderungen an das Risikomanagement in der IT-Sicherheit zu erfüllen. Darüber hinaus sind die Leitlinien des Europäischen Datenschutzausschusses zu den Meldepflichten nach der DSGVO ebenfalls hilfreich, um alle anderen Meldeprozesse zu strukturieren und effizient zu gestalten. Vorschriften vereinheitlichen und harmonisieren Der Bitkom weist darauf hin, dass die Überschneidungen und Doppelregelungen sowie uneinheitliche Begriffsdefinitionen zu Rechtsunsicherheit und erhöhtem Verwaltungsaufwand führen können. Um diese Herausforderungen zu bewältigen, empfiehlt der Verband unter anderem: • Einheitliche Definitionen: Die EU sollte klare und einheitliche Begriffsdefinitionen verwenden, um Verwirrungen zu vermeiden. • Gemeinsame Praxishandreichungen und Leitfäden: Die EU-Kommission könnte Leitfäden und Handreichungen bereitstellen, die die Umsetzung der verschiedenen Gesetze erleichtern und die Kohärenz fördern. •  Auflösung der Konkurrenz der gesetzlichen Regelungen: Durch Harmonisierung der Vorschriften könnten Unternehmen die Anforderungen effizienter erfüllen und Rechtsunsicherheiten minimieren. Fazit: Compliance einfacher und effizienter machen Für Unternehmer, Geschäftsführer, Vorstände und IT-Leiter kann es hilfreich sein, die Übereinstimmungen in den relevanten Digitalgesetzen zu identifizieren und dementsprechend vorhandene Compliance-Prozesse, Verantwortlichkeiten und Dokumentationen zusammenzuführen. Effizienzen hier besser zu nutzen, kann den Implementierungsaufwand erheblich reduzieren und die Einhaltung der gesetzlichen Anforderungen erleichtern. Durch eine enge Zusammenarbeit von Compliance-Teams aus den Bereichen Recht und IT sowie bei Bedarf externen Experten lässt sich die Umsetzung der EU-Digitalgesetze effizient und rechtssicher gestalten. Unternehmen können so nicht nur die Herausforderungen der neuen EU-Digitalgesetze meistern, sondern auch Wettbewerbsvorteile erzielen. (ba) 

Wie Sie den Compliance-Durchblick behalten​ loading=”lazy” width=”400px”>Sich in den Regelwerken der EU zurechtzufinden, ist oft gar nicht so einfach.alphaspirit – shutterstock.com

Die EU hat in den vergangenen Jahren zahlreiche Gesetze verabschiedet, die Unternehmen dazu verpflichten, bestimmte Compliance-Regeln im Digitalbereich einzuhalten. Dazu gehören unter anderem die Datenschutzgrundverordnung (DSGVO), die KI-Verordnung (AI Act), die NIS-2-Richtlinie, der EU Data Act, die DORA-Verordnung und der Cyber Resilience Act (CRA).

NIS2, DORA, Data Act & Co.: Die wichtigsten Security-Gesetze im Überblick

All diese Gesetze zielen darauf ab, den Schutz von Daten, die Sicherheit von IT-Systemen und die Transparenz im Umgang mit digitalen Technologien sicherstellen. Doch einige dieser Vorschriften haben ähnliche oder sogar identische Anforderungen.

Redundante Compliance-Pflichten

Der Branchenverband Bitkom hat vor Kurzem ein Diskussionspapier vorgestellt, mit dem Titel „Digitalgesetzgebung der EU: Konfliktzonen und Wege zur Kohärenz“, das diese Redundanzen untersucht und zugleich erste praktische Lösungsansätze anbietet. In dem Papier werden mehrere Bereiche identifiziert, in denen sich Compliance-Pflichten verschiedener EU-Gesetze überschneiden:

1. Dokumentationspflichten

Sowohl die DSGVO als auch die KI-Verordnung verlangen umfassende Dokumentationen. Das Verzeichnis der Verarbeitungstätigkeiten nach der DSGVO und die Risikobewertung sowie das Post-Market-Monitoring nach der KI-Verordnung verfolgen ähnliche Ziele. Unternehmen können hier durch eine zentrale Dokumentation, die den Anforderungen beider Gesetze gerecht wird, effizienter arbeiten.

2. Risikomanagement

Auch die Datenschutzfolgenabschätzung nach Art. 35 DSGVO und die Risikobewertung nach Art. 2 Abs. 7 KI-Verordnung haben viele Überschneidungen. Zudem erkennen einige der EU-Digitalgesetze an, dass die Erfüllung der IT-Sicherheitsanforderungen nach anderen EU-Gesetzen zumindest teilweise die Vermutung auslöst, dass auch die Anforderungen der neuen Gesetze erfüllt sind. Unternehmen können hier ein einheitliches Risikomanagementsystem entwickeln, das die Anforderungen aller relevanten Gesetze abdeckt.

3. Meldepflichten für IT-Sicherheitsstörfälle

Unterschiedliche Gesetze wie die DSGVO, die KI-Verordnung, die NIS-2-Richtlinie, der Cyber Resilience Act und die ePrivacy-Richtlinie verlangen Meldungen an unterschiedliche Behörden und haben unterschiedliche Meldefristen. Unternehmen sollten hier, soweit möglich, einheitliche Meldeprozesse etablieren und klare Verantwortlichkeiten definieren, um die Effizienz zu steigern und doppelte Arbeit oder gar widersprüchliche Meldeprozesse zu vermeiden.

4. IT-Sicherheitsstandards

Anforderungen an den IT-Sicherheitsstandard sind in Art. 32 DSGVO, Art. 15 KI-Verordnung sowie der NIS-2-Richtlinie und der DORA-Verordnung teilweise überlappend oder gar identisch. Unternehmen sollten daher einen Mindest-Sicherheitsstandard wählen und in die Praxis umsetzen, der alle diese Anforderungen gleichzeitig erfüllt, um die Implementierung zu vereinfachen. Das beinhaltet auch die einheitliche und regelmäßige Weiterentwicklung nach dem jeweils aktuellen Stand der Technik.

5. Benennung eines EU-Vertreters

Unternehmen ohne Sitz oder Niederlassung in der EU müssen einen Vertreter benennen, der als Ansprechpartner für Aufsichtsbehörden und Betroffene fungiert. Dies wird sowohl von der DSGVO, der KI-Verordnung, dem Cyber Resilience Act als auch der NIS-2-Richtlinie verlangt. Hier können Unternehmen einen Vertreter für mehrere Bereiche betrauen und ihn entsprechend in allen Registern benennen.

Beispiele aus der Praxis

Ein praktisches Beispiel für die effiziente Nutzung redundanter Compliance-Pflichten ist die Datenschutzfolgenabschätzung, die viele Unternehmen aktuell für den Einsatz von Microsoft Copilot durchführen. Die DSGVO-Dokumentationshilfen des Herstellers Microsoft unterstützen dabei, und sind zugleich hilfreich, um die Dokumentationspflichten als KI-Betreiber nach der KI-Verordnung zu erfüllen.

Ein weiteres Beispiel sind die Empfehlungen des Bundesamts für Sicherheit in der Informationstechnik (BSI) zum aktuellen Stand der Technik für IT-Sicherheit. Diese Empfehlungen lassen sich für alle relevanten Digitalgesetze anwenden und bieten eine solide Grundlage für die Umsetzung der IT-Sicherheitsanforderungen.

Die Umsetzungsempfehlungen der EU-Kommission zum Risikomanagement nach der NIS-2-Richtlinie bieten praxistaugliche Hilfestellungen, um die Anforderungen an das Risikomanagement in der IT-Sicherheit zu erfüllen. Darüber hinaus sind die Leitlinien des Europäischen Datenschutzausschusses zu den Meldepflichten nach der DSGVO ebenfalls hilfreich, um alle anderen Meldeprozesse zu strukturieren und effizient zu gestalten.

Vorschriften vereinheitlichen und harmonisieren

Der Bitkom weist darauf hin, dass die Überschneidungen und Doppelregelungen sowie uneinheitliche Begriffsdefinitionen zu Rechtsunsicherheit und erhöhtem Verwaltungsaufwand führen können. Um diese Herausforderungen zu bewältigen, empfiehlt der Verband unter anderem:

• Einheitliche Definitionen: Die EU sollte klare und einheitliche Begriffsdefinitionen verwenden, um Verwirrungen zu vermeiden.

• Gemeinsame Praxishandreichungen und Leitfäden: Die EU-Kommission könnte Leitfäden und Handreichungen bereitstellen, die die Umsetzung der verschiedenen Gesetze erleichtern und die Kohärenz fördern.

•  Auflösung der Konkurrenz der gesetzlichen Regelungen: Durch Harmonisierung der Vorschriften könnten Unternehmen die Anforderungen effizienter erfüllen und Rechtsunsicherheiten minimieren.

Fazit: Compliance einfacher und effizienter machen

Für Unternehmer, Geschäftsführer, Vorstände und IT-Leiter kann es hilfreich sein, die Übereinstimmungen in den relevanten Digitalgesetzen zu identifizieren und dementsprechend vorhandene Compliance-Prozesse, Verantwortlichkeiten und Dokumentationen zusammenzuführen. Effizienzen hier besser zu nutzen, kann den Implementierungsaufwand erheblich reduzieren und die Einhaltung der gesetzlichen Anforderungen erleichtern. Durch eine enge Zusammenarbeit von Compliance-Teams aus den Bereichen Recht und IT sowie bei Bedarf externen Experten lässt sich die Umsetzung der EU-Digitalgesetze effizient und rechtssicher gestalten. Unternehmen können so nicht nur die Herausforderungen der neuen EU-Digitalgesetze meistern, sondern auch Wettbewerbsvorteile erzielen. (ba)

Wie Sie den Compliance-Durchblick behalten​ Weiterlesen »

7 obligatorische JavaScript-Funktionen​

Allgemein

Diese Grundzutaten sollten Entwickler in petto haben, damit JavaScript seine Magie entfalten kann. Foto: Maksym Fesenko | shutterstock.com Suchmaschinen-Statistiken zeigen, dass Entwickler sieben JavaScript-Features gehäuft nachschlagen. Diese reichen für sich allein zwar nicht aus, um komplette Programme zu schreiben – aber ohne sie geht es auch nicht. Im Folgenden lesen Sie, welche sieben grundlegenden Sprachfunktionen ins Toolkit eines jeden JavaScript-Entwicklers gehören – egal ob Anfänger oder Silverback. 1. array Value Collections sind ein zentraler Aspekt aller Programmiersprachen. Im Fall von JavaScript kommen Arrays zum Einsatz, um solche Sammlungen zu speichern. Dabei sind JavaScript-Arrays dank des dynamischen Typisierungssystems der Sprache hochflexibel. Sie können ein leeres Array deklarieren – oder eines, das bereits Werte enthält: // make a new empty array: const myArray = []; //add a value: myArray.push(“Happy New Year”); console.log(myArray[0]); // outputs “Happy New Year” // make an array with values: const myOtherArray = [0, “test”, true]; Wie in den meisten anderen Sprachen sind Arrays in JavaScript “base 0”. Soll heißen, das erste Element weist einen Index von 0 statt 1 auf. Darüber hinaus sehen Sie in obigem Beispiel auch, dass myOtherArray diverse Types enthalten kann – Zahlen, Strings oder Boolesche Werte. 2. for Der for-Loop ist ebenfalls elementarer Bestandteil aller Programmiersprachen. Allerdings bringt dieses Element in JavaScript einige Besonderheiten mit. Die grundlegende Syntax des for-Loops sieht folgendermaßen aus: for (let i = 0; i console.log(“i is going up: “+ i); } Übersetzt in natürliche Sprache bedeutet dieser Code: “Gib mir eine Variable namens i und erledige, was in den geschweiften Klammern angegeben ist – insofern der Wert kleiner ist als 10. Füge dabei bei jedem Vorgang i eine 1 hinzu”. Hierbei handelt es sich um eine gängige Loop-Variable, wobei “i” für “Iterator” steht. Bei dieser Form spricht man von einem deklarativen Loop. Dieser ist äußerst flexibel, weil jeder Teil diverse Variationen aufweisen kann: // This will loop forever, unless something else changes i, because i is not modified by the loop for (let i = 0; i console.log(“i is going up: “+ i); } // you can declare multiple variables, tests and modifiers at once for (let i = 0, j = 10; i * j console.log(i * j); // outputs 0, 15, 40, 75 and breaks } Insbesondere bei komplexen und verschachtelten Loop-Konstruktionen kann es hilfreich sein, aussagekräftige(re) Iteratoren wie userIterator oder productCounter einzusetzen. Darüber hinaus existiert in JavaScript auch ein for-in-Loop, der nützlich ist, wenn es um Schleifen in Zusammenhang mit JSON-Objekten geht: let myObject = { foo: “bar”, test: 1000 } for (let x in myObject) { for (let x in myObject) { console.log(x + “=” + myObject[x]) } } // outputs: foo=bar test=1000 Zudem lässt sich for-in auch für Arrays verwenden: let arr = [5, 10, 15, 20]; for (let x in arr2) { console.log(x + “=” + arr2[x]); } // outputs: 0=5, 1=10, 2=15, 3=20 Bei Objekten dient der Iterator (x) als Property-Name, in einem Array wird er zum Index. Letzterer kann dazu genutzt werden, um auf die Properties und Elemente von Objekten oder Arrays zuzugreifen. 3. forEach Modernes JavaScript verschreibt sich der funktionalen Programmierung und die forEach-Funktion ist dafür ein hervorragendes Beispiel: Es handelt sich um eine simple, funktionale Methode, um über Sammlungen zu iterieren. Sie hält die gesamte Logik fest und macht fremde Iteratorvariablen (wie bei for) überflüssig. arr.forEach((x) => { console.log (x) }) // outputs: 5, 10, 15, 20 In diesem Beispiel haben wir eine Funktion an forEach übergeben und eine anonyme Inline-Funktion mit der Pfeil-Syntax definiert. Dabei werden Sie feststellen, dass die in forEach exponierte Variable (in diesem Fall x), tatsächlich den Wert des Elements erhält, nicht den des Index. Es gibt noch einen weiteren einfachen Weg zu einem Iterator, der dasselbe Verhalten aufweist: arr.forEach((x, i) => { console.log (i + “=” + x) }) // outputs 0=5, 1=10, 2=15, 3=20 Auch die simplifizierte Pfeil-Syntax in Kombination mit forEach ist gängig: arr2.forEach(x => console.log(x)) Diese Syntax gibt automatisch einen Return Value aus, allerdings ist das für forEach nicht erforderlich. Viele Entwickler ziehen forEach der traditionellen for-Schleife vor. Im Allgemeinen empfiehlt es sich, die Loop-Syntax zu verwenden, die Ihren Code klar, präzise und verständlich gestaltet. 4. map Während forEach einfach einen Loop über jedes Element “zieht”, lässt sich das mithilfe der map-Funktion auf Arrays ausweiten – und Aktionen auf jedes einzelne Element anwenden. Angenommen, Sie wollen in unserem Beispiel-Array jedes Element mit 10 multiplizieren, würde das wie folgt aussehen: let modifiedArr = arr.map((x) => { return x * 10 } ) // modifiedArray now holds: [50, 100, 150, 200] Sie haben auch die Möglichkeit, hierbei die Kurzform zu verwenden: let modifiedArr = arr.map(x => x * 100 ) // modifiedArray now holds: [500, 1000, 1500, 2000] Allerdings können Sie mit der längeren Form eine beliebige Logik innerhalb des Callbacks ausführen: let modifiedArr = arr.map((x) => { let foo = 1000; // Do more stuff return x * foo; }) Je aufwändiger die Callbacks ausfallen, desto mehr nimmt die Simplizität von map ab. Im Klartext: Bevorzugen Sie wann immer möglich simple Callbacks. 5. reduce Wann immer Sie eine JavaScript-Operation mit einem Array durchführen müssen, die dieses auf einen singulären Value “reduziert”, empfiehlt sich dafür reduce als funktionaler Bestandteil von JavaScript: const numbers = [1, 2, 3, 4]; const sum = numbers.reduce((accumulator, number) => accumulator + number); console.log(sum); // Output: 10 Beim ersten Argument handelt es sich um den Akkumulator. Diese Variable bleibt über alle Iterationen hinweg bestehen und wird schließlich zum Output des reduce-Calls. Das zweite Argument (number) ist der Wert des Elements für die Iteration. Sie können reduce außerdem nutzen, um eine Starting-Value anzugeben. Dazu setzen Sie ein zweites Argument nach der Callback-Funktion: // With initial value of 10 const sum2 = numbers.reduce((accumulator, number) => accumulator + number, 10); console.log(sum2); // Output: 20 (10 + 1 + 2 + 3 + 4) Das kann auch hilfreich sein, wenn es sich um eine “leere” Collection handelt. In diesem Fall dient das zweite Argument als Standard-Value. 6. substring Mit der Methode String.substring können Sie einen Teil des Strings abrufen: // Let’s get the substring of this Emerson quote: let myString = “Enthusiasm is the mother of effort, and without it nothing great was ever achieved.” console.log(myString.substring(0,34)); // outputs: ‘Enthusiasm is the mother of effort’ 7. switch Das switch-Feature kommt ins Spiel, wenn es darum geht, den Branching Control Flow zu händeln – ermöglicht Entwicklern also, Verzweigungen kompakter und verständlicher zu gestalten als etwa mit if/else. Das ist insbesondere dann hilfreich, wenn es viele Optionen gibt. Im Laufe der Jahre hat sich das switch-Statement in JavaScript zunehmend zu einem mächtigen Werkzeug weiterentwickelt. Die grundlegende Syntax sieht folgendermaßen aus: switch (word) { case “Enthusiasm”: console.log(“This word is about passion and excitement.”); break; case “mother”: console.log(“This word is about the source or origin.”); break; case “effort”: console.log(“This word is about hard work and dedication.”); break; default: console.log(“I don’t have specific analysis for this word.”); } Das Keyword switch akzeptiert eine Variable – in diesem Fall word. Jedes case-Statement entspricht dabei einem möglichen Wert der switch-Variable. Zu beachten ist dabei, dass ein case-Block mit dem break-Statement beendet wird. Das ist auch der wesentliche Unterschied zu Konstrukten, die geschweifte Klammern verwenden, um den Anwendungsbereich zu definieren. Wird ein break-Statement weggelassen, wird der Code dem nächsten case-Statement zugeordnet. Im Folgenden verwenden wir das switch-Statement mit unserem Emerson-Zitat: let myString = “Enthusiasm is the mother of effort, and without it nothing great was ever achieved.” function analyzeWord(word) { switch (word) { case “Enthusiasm”: console.log(“This word is about passion and excitement.”); break; case “mother”: console.log(“This word is about the source or origin.”); break; case “effort”: console.log(“This word is about hard work and dedication.”); break; default: console.log(“I don’t have specific analysis for this word.”); } } myString.split(” “).forEach((word) => analyzeWord(word)); Dieses Beispiel kombiniert mehrere Elemente: Wir teilen den string mit Hilfe von split(” “) in substrings auf, durchlaufen dann jedes Wort mit forEach und übergeben dieses an unser switch-Statement (das in einer Funktion verpackt ist). Wenn Sie diesen Code ausführen, wird für jedes bekannte Wort eine Beschreibung und der Standardwert für alle anderen ausgegeben. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

7 obligatorische JavaScript-Funktionen​ Diese Grundzutaten sollten Entwickler in petto haben, damit JavaScript seine Magie entfalten kann.
Foto: Maksym Fesenko | shutterstock.com

Suchmaschinen-Statistiken zeigen, dass Entwickler sieben JavaScript-Features gehäuft nachschlagen. Diese reichen für sich allein zwar nicht aus, um komplette Programme zu schreiben – aber ohne sie geht es auch nicht. Im Folgenden lesen Sie, welche sieben grundlegenden Sprachfunktionen ins Toolkit eines jeden JavaScript-Entwicklers gehören – egal ob Anfänger oder Silverback.

1. array

Value Collections sind ein zentraler Aspekt aller Programmiersprachen. Im Fall von JavaScript kommen Arrays zum Einsatz, um solche Sammlungen zu speichern. Dabei sind JavaScript-Arrays dank des dynamischen Typisierungssystems der Sprache hochflexibel. Sie können ein leeres Array deklarieren – oder eines, das bereits Werte enthält:

// make a new empty array:

const myArray = [];

//add a value:

myArray.push(“Happy New Year”);

console.log(myArray[0]); // outputs “Happy New Year”

// make an array with values:

const myOtherArray = [0, “test”, true];

Wie in den meisten anderen Sprachen sind Arrays in JavaScript “base 0”. Soll heißen, das erste Element weist einen Index von 0 statt 1 auf. Darüber hinaus sehen Sie in obigem Beispiel auch, dass myOtherArray diverse Types enthalten kann – Zahlen, Strings oder Boolesche Werte.

2. for

Der for-Loop ist ebenfalls elementarer Bestandteil aller Programmiersprachen. Allerdings bringt dieses Element in JavaScript einige Besonderheiten mit. Die grundlegende Syntax des for-Loops sieht folgendermaßen aus:

for (let i = 0; i

console.log(“i is going up: “+ i);

}

Übersetzt in natürliche Sprache bedeutet dieser Code: “Gib mir eine Variable namens i und erledige, was in den geschweiften Klammern angegeben ist – insofern der Wert kleiner ist als 10. Füge dabei bei jedem Vorgang i eine 1 hinzu”. Hierbei handelt es sich um eine gängige Loop-Variable, wobei “i” für “Iterator” steht.

Bei dieser Form spricht man von einem deklarativen Loop. Dieser ist äußerst flexibel, weil jeder Teil diverse Variationen aufweisen kann:

// This will loop forever, unless something else changes i, because i is not modified by the loop

for (let i = 0; i

console.log(“i is going up: “+ i);

}

// you can declare multiple variables, tests and modifiers at once

for (let i = 0, j = 10; i * j

console.log(i * j); // outputs 0, 15, 40, 75 and breaks

}

Insbesondere bei komplexen und verschachtelten Loop-Konstruktionen kann es hilfreich sein, aussagekräftige(re) Iteratoren wie userIterator oder productCounter einzusetzen.

Darüber hinaus existiert in JavaScript auch ein for-in-Loop, der nützlich ist, wenn es um Schleifen in Zusammenhang mit JSON-Objekten geht:

let myObject = { foo: “bar”, test: 1000 }

for (let x in myObject) {

for (let x in myObject) { console.log(x + “=” + myObject[x]) }

}

// outputs: foo=bar test=1000

Zudem lässt sich for-in auch für Arrays verwenden:

let arr = [5, 10, 15, 20];

for (let x in arr2) {

console.log(x + “=” + arr2[x]);

}

// outputs: 0=5, 1=10, 2=15, 3=20

Bei Objekten dient der Iterator (x) als Property-Name, in einem Array wird er zum Index. Letzterer kann dazu genutzt werden, um auf die Properties und Elemente von Objekten oder Arrays zuzugreifen.

3. forEach

Modernes JavaScript verschreibt sich der funktionalen Programmierung und die forEach-Funktion ist dafür ein hervorragendes Beispiel: Es handelt sich um eine simple, funktionale Methode, um über Sammlungen zu iterieren. Sie hält die gesamte Logik fest und macht fremde Iteratorvariablen (wie bei for) überflüssig.

arr.forEach((x) => { console.log (x) })

// outputs: 5, 10, 15, 20

In diesem Beispiel haben wir eine Funktion an forEach übergeben und eine anonyme Inline-Funktion mit der Pfeil-Syntax definiert. Dabei werden Sie feststellen, dass die in forEach exponierte Variable (in diesem Fall x), tatsächlich den Wert des Elements erhält, nicht den des Index.

Es gibt noch einen weiteren einfachen Weg zu einem Iterator, der dasselbe Verhalten aufweist:

arr.forEach((x, i) => { console.log (i + “=” + x) })

// outputs 0=5, 1=10, 2=15, 3=20

Auch die simplifizierte Pfeil-Syntax in Kombination mit forEach ist gängig:

arr2.forEach(x => console.log(x))

Diese Syntax gibt automatisch einen Return Value aus, allerdings ist das für forEach nicht erforderlich.

Viele Entwickler ziehen forEach der traditionellen for-Schleife vor. Im Allgemeinen empfiehlt es sich, die Loop-Syntax zu verwenden, die Ihren Code klar, präzise und verständlich gestaltet.

4. map

Während forEach einfach einen Loop über jedes Element “zieht”, lässt sich das mithilfe der map-Funktion auf Arrays ausweiten – und Aktionen auf jedes einzelne Element anwenden. Angenommen, Sie wollen in unserem Beispiel-Array jedes Element mit 10 multiplizieren, würde das wie folgt aussehen:

let modifiedArr = arr.map((x) => { return x * 10 } )

// modifiedArray now holds: [50, 100, 150, 200]

Sie haben auch die Möglichkeit, hierbei die Kurzform zu verwenden:

let modifiedArr = arr.map(x => x * 100 )

// modifiedArray now holds: [500, 1000, 1500, 2000]

Allerdings können Sie mit der längeren Form eine beliebige Logik innerhalb des Callbacks ausführen:

let modifiedArr = arr.map((x) => {

let foo = 1000;

// Do more stuff

return x * foo;

})

Je aufwändiger die Callbacks ausfallen, desto mehr nimmt die Simplizität von map ab. Im Klartext: Bevorzugen Sie wann immer möglich simple Callbacks.

5. reduce

Wann immer Sie eine JavaScript-Operation mit einem Array durchführen müssen, die dieses auf einen singulären Value “reduziert”, empfiehlt sich dafür reduce als funktionaler Bestandteil von JavaScript:

const numbers = [1, 2, 3, 4];

const sum = numbers.reduce((accumulator, number) => accumulator + number);

console.log(sum); // Output: 10

Beim ersten Argument handelt es sich um den Akkumulator. Diese Variable bleibt über alle Iterationen hinweg bestehen und wird schließlich zum Output des reduce-Calls. Das zweite Argument (number) ist der Wert des Elements für die Iteration.

Sie können reduce außerdem nutzen, um eine Starting-Value anzugeben. Dazu setzen Sie ein zweites Argument nach der Callback-Funktion:

// With initial value of 10

const sum2 = numbers.reduce((accumulator, number) => accumulator + number, 10);

console.log(sum2); // Output: 20 (10 + 1 + 2 + 3 + 4)

Das kann auch hilfreich sein, wenn es sich um eine “leere” Collection handelt. In diesem Fall dient das zweite Argument als Standard-Value.

6. substring

Mit der Methode String.substring können Sie einen Teil des Strings abrufen:

// Let’s get the substring of this Emerson quote:

let myString = “Enthusiasm is the mother of effort, and without it nothing great was ever achieved.”

console.log(myString.substring(0,34));

// outputs: ‘Enthusiasm is the mother of effort’

7. switch

Das switch-Feature kommt ins Spiel, wenn es darum geht, den Branching Control Flow zu händeln – ermöglicht Entwicklern also, Verzweigungen kompakter und verständlicher zu gestalten als etwa mit if/else. Das ist insbesondere dann hilfreich, wenn es viele Optionen gibt. Im Laufe der Jahre hat sich das switch-Statement in JavaScript zunehmend zu einem mächtigen Werkzeug weiterentwickelt. Die grundlegende Syntax sieht folgendermaßen aus:

switch (word) {

case “Enthusiasm”:

console.log(“This word is about passion and excitement.”);

break;

case “mother”:

console.log(“This word is about the source or origin.”);

break;

case “effort”:

console.log(“This word is about hard work and dedication.”);

break;

default:

console.log(“I don’t have specific analysis for this word.”);

}

Das Keyword switch akzeptiert eine Variable – in diesem Fall word. Jedes case-Statement entspricht dabei einem möglichen Wert der switch-Variable. Zu beachten ist dabei, dass ein case-Block mit dem break-Statement beendet wird. Das ist auch der wesentliche Unterschied zu Konstrukten, die geschweifte Klammern verwenden, um den Anwendungsbereich zu definieren. Wird ein break-Statement weggelassen, wird der Code dem nächsten case-Statement zugeordnet.

Im Folgenden verwenden wir das switch-Statement mit unserem Emerson-Zitat:

let myString = “Enthusiasm is the mother of effort, and without it nothing great was ever achieved.”

function analyzeWord(word) {

switch (word) {

case “Enthusiasm”:

console.log(“This word is about passion and excitement.”);

break;

case “mother”:

console.log(“This word is about the source or origin.”);

break;

case “effort”:

console.log(“This word is about hard work and dedication.”);

break;

default:

console.log(“I don’t have specific analysis for this word.”);

}

}

myString.split(” “).forEach((word) => analyzeWord(word));

Dieses Beispiel kombiniert mehrere Elemente: Wir teilen den string mit Hilfe von split(” “) in substrings auf, durchlaufen dann jedes Wort mit forEach und übergeben dieses an unser switch-Statement (das in einer Funktion verpackt ist). Wenn Sie diesen Code ausführen, wird für jedes bekannte Wort eine Beschreibung und der Standardwert für alle anderen ausgegeben. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

7 obligatorische JavaScript-Funktionen​ Weiterlesen »

Cisco Live 2025: Security im Fokus​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?quality=50&strip=all 6144w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1536%2C1025&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=2048%2C1366&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1045%2C697&quality=50&strip=all 1045w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Cisco Live! in San Diego stand dieses Jahr stark im Fokus von (KI-)Security.Cisco Cisco hat auf seiner Hausmesse eine Reihe von fortschrittlichen Firewall- und KI-Software-Erweiterungen vorgestellt. Die Intention dabei ist, Netzwerk- und Sicherheitstechnologien in Unternehmensinfrastrukturen stärker zusammenzuführen und zu vereinfachen. Konkret stellte der Anbieter ein neues Portfolio an Hybrid-Mesh-Firewalls vor und kündigte an, seine Zusammenarbeit mit Nvidia ím Security-Bereich auszubauen und die Integration seiner eigenen Technologie mit der Splunk-Plattform zu vertiefen. Das übergreifende Ziel ist dabei, sämtliche Aspekte von KI – darunter Workloads, Inferencing und Modelle – abzusichern und so die Basisinfrastruktur für den KI-Ausbau zuverlässig zu schützen. „Ohne Vertrauen und integrierte Sicherheit in der zugrunde liegenden Netzwerkinfrastruktur wird es keine vertrauenswürdige KI geben – denn jeder neue KI-Agent ist sowohl Ressource als auch potenzielle Sicherheitsbedrohung“, erklärt Jeetu Patel, President und Chief Product Officer von Cisco. „Agentic AI zwingt uns dazu, grundlegende Annahmen zu überdenken – etwa wie wir Identitäten validieren oder wie schnell wir auf Bedrohungen reagieren müssen. Die einzige skalierbare Lösung dafür ist, Sicherheit direkt ins Netzwerk zu integrieren – und genau das entwickeln wir mit Hochdruck.“ Secure Firewalls Zum Einstieg stellte Cisco zwei neue Firewall-Serien vor – die High-End-Firewall 6100 und die 200er-Serie für Zweigstellennetzwerke. Beide sind laut Cisco darauf ausgelegt, die Herausforderungen der Skalierbarkeit zu bewältigen, die KI-fähige Rechenzentren für Kunden darstellen. Die Secure Firewall 6100 bietet mit einer Leistung von 400 Gbps auf Layer 7 in einem kompakten 2-HE-Gehäuse eine herausragende Performance, heißt es in einem Blogbeitrag von Cisco. Laut Rick Miles, Vice President of Product Management, Cloud and Network Security, lassen sich in Cluster mit bis zu 16 Geräten über 4 Tbps erreichen. Schon mit acht Geräten ergibt sich demnach eine kosteneffiziente Lösung mit geringem Platz-, Energie- und Kühlbedarf. Dieser modulare Ansatz stelle sicher, dass Unternehmen schrittweise skalieren können, ohne ihre Infrastruktur überholen zu müssen, so Miles. Die Secure Firewall 200-Serie ist wiederum für Filialnetzwerke gedacht und bietet eine KI-gestützte Bedrohungsprüfung mit mehr als 1,5 Gbps direkt vor Ort – und das zu einem Drittel des üblichen Preis-Leistungs-Verhältnisses am Markt. Sie unterstützt fortschrittliche Sicherheitsfunktionen wie verschlüsselte Sichtbarkeit und Snort ML (Snort 3). Hinzu kommen integriertes SD-WAN, vorkonfigurierte Templates, einfache Einrichtung, SASE-Optionen und eine Cloud-basierte Sicherheitsverwaltung. Mesh-Richtlinien-Engine und Segmentierung Ciscos neue Hybrid Mesh Firewall nutzt ein verteiltes Sicherheitskonzept mit Zero-Trust-Architektur, das direkt in die Netzwerkinfrastruktur integriert ist. Es bietet Schutz vor Bedrohungen sowie Segmentierung für Rechenzentren, IoT-Umgebungen und KI-Anwendungen. Darüber hinaus stellt Cisco eine neue Mesh Policy Engine vor, mit der Unternehmen eine zentrale, Intent-basierte Richtlinie definieren können, die auf Firewalls von Cisco und Drittanbietern durchgesetzt werden kann. Die Engine ist Teil von Cisco Security Cloud Control, der KI-nativen, Cloud-basierten Security-Plattform des Unternehmens und ein wichtiger Bestandteil des übergreifenden Security-Cloud-Portfolios. Dies vereinfache den täglichen Betrieb und ermögliche es Unternehmen, Sicherheitsmaßnahmen flexibel zu verschieben, ohne bestehende Policies neu schreiben zu müssen, so Miles: “Die Mesh Policy Engine definiert die Art und Weise, wie der Netzwerkzugang gewährt und verwaltet wird, grundlegend neu, indem sie den Fokus weg von Firewall-spezifischen Richtlinien und stattdessen auf die tatsächliche Zugriffsanfrage der Anwendung verlagert wird.“ „Administratoren erstellen Richtlinien, die direkt dem entsprechen, was tatsächlich angefordert wird – die Mesh Policy Engine übernehme dann die aufwendige Arbeit, schreibt Miles. Sie wandele diese Anfragen in klassische Firewall-Regeln um, berechne die resultierende Gesamtrichtlinie und aktualisiere die betroffenen Firewalls. Dem Cisco-Manager zufolge können Teams über das Security-Cloud-Control-Dashboard nicht nur nachvollziehen, was und wo eine Regel greift, sondern auch warum – so werde sichergestellt, dass keine Firewall-Regel existiert, die nicht auf eine konkrete Anfrage zurückzuführen ist. Diese Intent-basierte Logik sorge für Transparenz und Konsistenz im Richtlinienmanagement – sowohl bei Cisco- als auch bei Drittanbieter-Firewalls. Miles ergänzt, dass Cisco die Durchsetzungspunkte für die Hybrid Mesh Firewall nun auch auf die Cisco Application Centric Infrastructure (ACI) ausweitet. ACI ist das Flaggschiff unter den softwaredefinierten Netzwerken von Cisco, um Rechenzentren und Cloud-Netzwerke zu verwalten – und laut Cisco künftig ein entscheidender Baustein zur Unterstützung von KI-Workloads. Das Ergebnis sei eine intelligentere Segmentierung, so Miles: “Secure Workload, eine Schlüsselkomponente der Cisco Hybrid Mesh Firewall, ist die branchenführende Mikrosegmentierungsfunktion von Cisco. Sie nutzt KI/ML, um die Netzwerktopologie, Workload-Metadaten, Netflows und die Prozessdaten der Anwendungen zu verarbeiten und generiert daraus intelligente Microsegmentation-Policies, die die Angriffsfläche reduzieren, ohne den Anwendungszugriff einzuschränken. Die Richtlinien werden dann entweder agentenlos – etwa über das Cisco-ACI-Fabric sowie andere Systeme wie Secure Firewall, Cloud-Anbieter oder Application Delivery Controller – oder durch den Secure-Workload-Agent durchgesetzt, der sowohl auf modernen als auch auf älteren Betriebssystemen eingesetzt werden kann.“ Firewall-Engpässe beseitigen Die Kombination aus der Mesh-Firewall und Ciscos Sicherheitsplattform Hypershield behebt laut Neil Anderson, Vice President für Cloud-, Infrastruktur- und KI-Lösungen bei World Wide Technology (WWT), mehrere Sicherheitsmängel in Unternehmen. Hypershield umfasst KI-basierte Software, virtuelle Maschinen und andere Technologien, die künftig direkt in zentrale Netzwerkkomponenten wie Switches, Router oder Server integriert werden sollen. Ziel ist es, Unternehmen eine autonome Netzwerksegmentierung bei Bedrohungen zu ermöglichen und schnellen Exploit-Schutz zu bieten – ganz ohne aufwändige Patches oder Firewall-Redesigns. „Seit rund 25 Jahren verfolgen wir ein Architekturmodell, bei dem der gesamte Datenverkehr durch eine leistungsstarke zentrale Firewall geleitet und dann wieder freigegeben wird“, erklärt Anderson. „Davon sind wir inzwischen weit entfernt. Wenn man die Geschwindigkeit bedenkt, mit der KI arbeitet, kann man sich so eine Bottleneck-Architektur nicht mehr leisten. Die Durchsetzung muss verteilt erfolgen.“ Die Idee, ein Firewall-Mesh genau dort zu haben, wo man es braucht – also verteilte Durchsetzungspunkte –, und diese dann einfach über Cisco Cloud Control oder Secure Cloud Control zu verwalten, sei ein echter Durchbruch, so Anderson weiter. „Das löst viele Skalierungsprobleme unserer Kunden.“ Splunk-Integration Auch im Bereich Firewalls stärkt Cisco die Integration mit seiner Splunk-Sicherheitsplattform. So können Cisco-Secure-Firewall-Kunden künftig Firewall-Protokolldaten in Splunk einspeisen und damit tiefgehendere Bedrohungsanalysen vornehmen. Darüber hinaus unterstützt die Cisco Security Cloud App für Splunk jetzt Cisco Secure Firewall Threat Defense und verbessert damit die Korrelation und die Analyse von Bedrohungen sowie Reaktionsabläufen. In Kombination mit der Telemetrie von Cisco AI Defense, Cisco XDR, Cisco Multicloud Defense, Cisco Talos und anderen Quellen beschleunigt Splunk laut Cisco die Erkennung von Anwendungsfällen in hybriden Umgebungen. Darüber hinaus können erweiterte Informationen zur Sicherheitsorchestrierung, Automatisierung und Reaktion (SOAR) jetzt auch spezifische Aktionen für Cisco Secure Firewall enthalten – etwa um Hosts zu isolieren, ausgehende Verbindungen zu blockieren oder Richtlinien anzuwenden. Ziel sei es, manuelle Eingriffe zu minimieren und die Reaktionszeit deutlich zu verkürzen, so der Konzern. Ausweitung der Cisco-Nvidia-Partnerschaft Cisco kündigte auf seiner Hausmesse auch eine Erweiterung seiner KI-Partnerschaft mit Nvidia an. Demnach können die Sicherheitsplattformen Cisco AI Defense und Hypershield jetzt auf Nvidia AI zugreifen, die vortrainierte Modelle und Entwicklungs-Tools für einsatzbereite KI bereitstellt. Ziel ist es, damit umfassende Transparenz, Validierung und Laufzeitschutz über den gesamten KI-Workflow hinweg zu bieten. AI Defense bietet Schutz für Unternehmenskunden, die KI-Anwendungen über Modelle und Cloud-Dienste hinweg entwickeln. Die Integration erweitert das kürzlich vorgestellte Paket Cisco Secure AI Factory with Nvidia, das Cisco-Technologien für Sicherheit und Netzwerk, Nvidia-DPUs sowie Speicherlösungen von Pure Storage, Hitachi Vantara, NetApp und VAST Data vereint. „Cisco AI Defense und Hypershield integrieren sich mit Nvidia AI, um leistungsstarke, skalierbare und vertrauenswürdige KI-Antworten für agentenbasierte und generative KI-Workloads bereitzustellen. Das validierte Design der Nvidia Enterprise AI Factory umfasst nun auch AI Defense und Hypershield, um jede Phase des KI-Lebenszyklus zu schützen – ein Schlüsselfaktor, um Unternehmen eine sichere KI-Skalierung zu ermöglichen“, schreibt Anne Hecht, Senior Director of Product Marketing für Enterprise-Softwareprodukte bei Nvidia, in einem Blogbeitrag. Zudem können offene KI-Modelle, die mit Nvidia NeMo nachtrainiert und mit Nvidia Blueprints abgesichert wurden, jetzt mit AI Defense validiert und geschützt werden. „Ciscos Modelle für Sicherheit, Datenschutz und Schutz laufen als Nvidia NIM Microservices, um die Inferenzleistung für produktive KI-Anwendungen zu optimieren. Cisco AI Defense bietet dabei Laufzeitüberwachung und Sichtbarkeit für KI-Anwendungen und -Agenten, die auf der Nvidia-AI-Plattform betrieben werden“, so Hecht. Außerdem werde Cisco Hypershield bald mit den Nvidia BlueField DPUs und dem Nvidia DOCA Argus Framework zusammenarbeiten und damit jedem Knoten der KI-Infrastruktur eine durchdringende, verteilte Sicherheit und Echtzeit-Bedrohungserkennung bieten, ergänzte die Nvidia-Managerin. Aus Sicht von WWT-Mann Anderson zeigen diese Schritte die enge Zusammenarbeit zwischen Cisco und Nvidia beim Aufbau eines umfassenden Sicherheitsstacks. Zudem werde klar, dass Cisco AI Defense und Hypershield aus Sicht von Nvidia zentral für Unternehmens-KI-Architekturen sind. „Nichts kann ein KI-Projekt schneller zum Scheitern bringen als Bedenken bei Sicherheit und Governance. Wenn man hier Technologien wie AI Defense und Hypershield einsetzen kann, hilft das Unternehmen, Risiken zu minimieren und sich auf die Umsetzung ihrer Geschäftsziele zu konzentrieren“, so Anderson. Agentenbasierte KI absichern Im Bereich der agentenbasierten KI erweitert Cisco seine Universal-Zero-Trust-Network-Architektur, um auch Identitäten von KI-Agenten abzusichern und ihre Aktivitäten vollständig nachverfolgen zu können. “Das Aufkommen von agentenbasierter KI revolutioniert die Arbeitswelt und bringt gleichzeitig erhebliche Herausforderungen für die Sicherheit mit sich“, erklärt Chief Product Manager Patel. „Diese KI-Agenten greifen autonom auf Unternehmensressourcen zu, treffen Entscheidungen und handeln im Namen von Nutzern. Das erfordert robuste Sicherheitsvorkehrungen.” Die Vision von Cisco umfasse modernste Funktionen wie automatische Agentenerkennung, delegierte Autorisierung, sicheren Zero-Trust-Agentenzugriff und native Unterstützung für das Model Context Protocol (MCP), so Patel. Laut Raj Chopra, Senior Vice President und Chief Product Officer für Cisco Security, dehnt Cisco die Prinzipien von Zero Trust auf agentenbasierte KI aus und setzt eine Reihe seiner Produkte in Kombination ein:   „Duo Identity & Access Management (IAM) stellt die Autorisierung bereit und Secure Access nimmt die semantische Prüfung vor, so dass der Endbenutzer nicht ständig Zugriff gewähren muss. Außerdem prüft AI Defense, ob die Aktionen des Agenten mit seinem Zweck übereinstimmen, und Cisco Identity Intelligence überwacht die Aktionen und sorgt für Transparenz“, schreibt der Cisco-Manager in einem Blogpost. Dort heißt es weiter: „Wir entwickeln die Fähigkeit für Unternehmen, ein dynamisches, kontextabhängiges Berechtigungsmanagement umzusetzen, das Agentenanfragen sowohl anhand expliziter Richtlinien als auch mittels semantischer Analyse des vom Agenten angegebenen Zwecks bewertet.“ „Das System ermöglicht es Mitarbeitenden, über einen zustimmungsbasierten Workflow granulare Berechtigungen zu delegieren – etwa einem Agenten das Lesen von E-Mails zur Zusammenfassung zu gestatten, ihn jedoch am Löschen dieser E-Mails zu hindern“, führt Patel aus. Dieser Workflow verfolge und verwalte gezielt die Lebenszyklen eng definierter Zugriffsrechte. Durch die Kombination von OAuth 2.1-Konformität (Autorisierung) mit semantischer Prüfung ließen sich verbotene Aktivitäten automatisch erkennen und blockieren, sodass die Nutzererfahrung reibungslos bleibt. Außerdem sei für kritische Aktionen stets eine explizite Autorisierung durch den Nutzer erforderlich, um Fehlverhalten zu verhindern. Im Zusammenhang mit Ciscos Agententechnologie erklärte Patel außerdem, dass das Unternehmen ein Live-Patching-System in Echtzeit anbietet. Dieses wendet Sicherheitskontrollen auf Kernel-Ebene an, um sich gegen neu entdeckte Schwachstellen (CVEs) zu schützen – ohne einen Neustart von Switches oder Routern zu erfordern. Die Live-Protect-Funktion kann entweder über Ciscos KI-Assistenten oder durch Hypershield-Workflows ausgelöst und verwaltet werden. (mb) 

Cisco Live 2025: Security im Fokus​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?quality=50&strip=all 6144w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1536%2C1025&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=2048%2C1366&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=1045%2C697&quality=50&strip=all 1045w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/06/54580535896_0b0a8d1792_6k.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Cisco Live! in San Diego stand dieses Jahr stark im Fokus von (KI-)Security.Cisco

Cisco hat auf seiner Hausmesse eine Reihe von fortschrittlichen Firewall- und KI-Software-Erweiterungen vorgestellt. Die Intention dabei ist, Netzwerk- und Sicherheitstechnologien in Unternehmensinfrastrukturen stärker zusammenzuführen und zu vereinfachen.

Konkret stellte der Anbieter ein neues Portfolio an Hybrid-Mesh-Firewalls vor und kündigte an, seine Zusammenarbeit mit Nvidia ím Security-Bereich auszubauen und die Integration seiner eigenen Technologie mit der Splunk-Plattform zu vertiefen. Das übergreifende Ziel ist dabei, sämtliche Aspekte von KI – darunter Workloads, Inferencing und Modelle – abzusichern und so die Basisinfrastruktur für den KI-Ausbau zuverlässig zu schützen.

„Ohne Vertrauen und integrierte Sicherheit in der zugrunde liegenden Netzwerkinfrastruktur wird es keine vertrauenswürdige KI geben – denn jeder neue KI-Agent ist sowohl Ressource als auch potenzielle Sicherheitsbedrohung“, erklärt Jeetu Patel, President und Chief Product Officer von Cisco. „Agentic AI zwingt uns dazu, grundlegende Annahmen zu überdenken – etwa wie wir Identitäten validieren oder wie schnell wir auf Bedrohungen reagieren müssen. Die einzige skalierbare Lösung dafür ist, Sicherheit direkt ins Netzwerk zu integrieren – und genau das entwickeln wir mit Hochdruck.“

Secure Firewalls

Zum Einstieg stellte Cisco zwei neue Firewall-Serien vor – die High-End-Firewall 6100 und die 200er-Serie für Zweigstellennetzwerke. Beide sind laut Cisco darauf ausgelegt, die Herausforderungen der Skalierbarkeit zu bewältigen, die KI-fähige Rechenzentren für Kunden darstellen.

Die Secure Firewall 6100 bietet mit einer Leistung von 400 Gbps auf Layer 7 in einem kompakten 2-HE-Gehäuse eine herausragende Performance, heißt es in einem Blogbeitrag von Cisco. Laut Rick Miles, Vice President of Product Management, Cloud and Network Security, lassen sich in Cluster mit bis zu 16 Geräten über 4 Tbps erreichen. Schon mit acht Geräten ergibt sich demnach eine kosteneffiziente Lösung mit geringem Platz-, Energie- und Kühlbedarf. Dieser modulare Ansatz stelle sicher, dass Unternehmen schrittweise skalieren können, ohne ihre Infrastruktur überholen zu müssen, so Miles.

Die Secure Firewall 200-Serie ist wiederum für Filialnetzwerke gedacht und bietet eine KI-gestützte Bedrohungsprüfung mit mehr als 1,5 Gbps direkt vor Ort – und das zu einem Drittel des üblichen Preis-Leistungs-Verhältnisses am Markt. Sie unterstützt fortschrittliche Sicherheitsfunktionen wie verschlüsselte Sichtbarkeit und Snort ML (Snort 3). Hinzu kommen integriertes SD-WAN, vorkonfigurierte Templates, einfache Einrichtung, SASE-Optionen und eine Cloud-basierte Sicherheitsverwaltung.

Mesh-Richtlinien-Engine und Segmentierung

Ciscos neue Hybrid Mesh Firewall nutzt ein verteiltes Sicherheitskonzept mit Zero-Trust-Architektur, das direkt in die Netzwerkinfrastruktur integriert ist. Es bietet Schutz vor Bedrohungen sowie Segmentierung für Rechenzentren, IoT-Umgebungen und KI-Anwendungen.

Darüber hinaus stellt Cisco eine neue Mesh Policy Engine vor, mit der Unternehmen eine zentrale, Intent-basierte Richtlinie definieren können, die auf Firewalls von Cisco und Drittanbietern durchgesetzt werden kann. Die Engine ist Teil von Cisco Security Cloud Control, der KI-nativen, Cloud-basierten Security-Plattform des Unternehmens und ein wichtiger Bestandteil des übergreifenden Security-Cloud-Portfolios. Dies vereinfache den täglichen Betrieb und ermögliche es Unternehmen, Sicherheitsmaßnahmen flexibel zu verschieben, ohne bestehende Policies neu schreiben zu müssen, so Miles:

“Die Mesh Policy Engine definiert die Art und Weise, wie der Netzwerkzugang gewährt und verwaltet wird, grundlegend neu, indem sie den Fokus weg von Firewall-spezifischen Richtlinien und stattdessen auf die tatsächliche Zugriffsanfrage der Anwendung verlagert wird.“

„Administratoren erstellen Richtlinien, die direkt dem entsprechen, was tatsächlich angefordert wird – die Mesh Policy Engine übernehme dann die aufwendige Arbeit, schreibt Miles. Sie wandele diese Anfragen in klassische Firewall-Regeln um, berechne die resultierende Gesamtrichtlinie und aktualisiere die betroffenen Firewalls.

Dem Cisco-Manager zufolge können Teams über das Security-Cloud-Control-Dashboard nicht nur nachvollziehen, was und wo eine Regel greift, sondern auch warum – so werde sichergestellt, dass keine Firewall-Regel existiert, die nicht auf eine konkrete Anfrage zurückzuführen ist. Diese Intent-basierte Logik sorge für Transparenz und Konsistenz im Richtlinienmanagement – sowohl bei Cisco- als auch bei Drittanbieter-Firewalls.

Miles ergänzt, dass Cisco die Durchsetzungspunkte für die Hybrid Mesh Firewall nun auch auf die Cisco Application Centric Infrastructure (ACI) ausweitet. ACI ist das Flaggschiff unter den softwaredefinierten Netzwerken von Cisco, um Rechenzentren und Cloud-Netzwerke zu verwalten – und laut Cisco künftig ein entscheidender Baustein zur Unterstützung von KI-Workloads.

Das Ergebnis sei eine intelligentere Segmentierung, so Miles: “Secure Workload, eine Schlüsselkomponente der Cisco Hybrid Mesh Firewall, ist die branchenführende Mikrosegmentierungsfunktion von Cisco. Sie nutzt KI/ML, um die Netzwerktopologie, Workload-Metadaten, Netflows und die Prozessdaten der Anwendungen zu verarbeiten und generiert daraus intelligente Microsegmentation-Policies, die die Angriffsfläche reduzieren, ohne den Anwendungszugriff einzuschränken. Die Richtlinien werden dann entweder agentenlos – etwa über das Cisco-ACI-Fabric sowie andere Systeme wie Secure Firewall, Cloud-Anbieter oder Application Delivery Controller – oder durch den Secure-Workload-Agent durchgesetzt, der sowohl auf modernen als auch auf älteren Betriebssystemen eingesetzt werden kann.“

Firewall-Engpässe beseitigen

Die Kombination aus der Mesh-Firewall und Ciscos Sicherheitsplattform Hypershield behebt laut Neil Anderson, Vice President für Cloud-, Infrastruktur- und KI-Lösungen bei World Wide Technology (WWT), mehrere Sicherheitsmängel in Unternehmen.

Hypershield umfasst KI-basierte Software, virtuelle Maschinen und andere Technologien, die künftig direkt in zentrale Netzwerkkomponenten wie Switches, Router oder Server integriert werden sollen. Ziel ist es, Unternehmen eine autonome Netzwerksegmentierung bei Bedrohungen zu ermöglichen und schnellen Exploit-Schutz zu bieten – ganz ohne aufwändige Patches oder Firewall-Redesigns.

„Seit rund 25 Jahren verfolgen wir ein Architekturmodell, bei dem der gesamte Datenverkehr durch eine leistungsstarke zentrale Firewall geleitet und dann wieder freigegeben wird“, erklärt Anderson. „Davon sind wir inzwischen weit entfernt. Wenn man die Geschwindigkeit bedenkt, mit der KI arbeitet, kann man sich so eine Bottleneck-Architektur nicht mehr leisten. Die Durchsetzung muss verteilt erfolgen.“

Die Idee, ein Firewall-Mesh genau dort zu haben, wo man es braucht – also verteilte Durchsetzungspunkte –, und diese dann einfach über Cisco Cloud Control oder Secure Cloud Control zu verwalten, sei ein echter Durchbruch, so Anderson weiter. „Das löst viele Skalierungsprobleme unserer Kunden.“

Splunk-Integration

Auch im Bereich Firewalls stärkt Cisco die Integration mit seiner Splunk-Sicherheitsplattform. So können Cisco-Secure-Firewall-Kunden künftig Firewall-Protokolldaten in Splunk einspeisen und damit tiefgehendere Bedrohungsanalysen vornehmen.

Darüber hinaus unterstützt die Cisco Security Cloud App für Splunk jetzt Cisco Secure Firewall Threat Defense und verbessert damit die Korrelation und die Analyse von Bedrohungen sowie Reaktionsabläufen. In Kombination mit der Telemetrie von Cisco AI Defense, Cisco XDR, Cisco Multicloud Defense, Cisco Talos und anderen Quellen beschleunigt Splunk laut Cisco die Erkennung von Anwendungsfällen in hybriden Umgebungen.

Darüber hinaus können erweiterte Informationen zur Sicherheitsorchestrierung, Automatisierung und Reaktion (SOAR) jetzt auch spezifische Aktionen für Cisco Secure Firewall enthalten – etwa um Hosts zu isolieren, ausgehende Verbindungen zu blockieren oder Richtlinien anzuwenden. Ziel sei es, manuelle Eingriffe zu minimieren und die Reaktionszeit deutlich zu verkürzen, so der Konzern.

Ausweitung der Cisco-Nvidia-Partnerschaft

Cisco kündigte auf seiner Hausmesse auch eine Erweiterung seiner KI-Partnerschaft mit Nvidia an. Demnach können die Sicherheitsplattformen Cisco AI Defense und Hypershield jetzt auf Nvidia AI zugreifen, die vortrainierte Modelle und Entwicklungs-Tools für einsatzbereite KI bereitstellt. Ziel ist es, damit umfassende Transparenz, Validierung und Laufzeitschutz über den gesamten KI-Workflow hinweg zu bieten. AI Defense bietet Schutz für Unternehmenskunden, die KI-Anwendungen über Modelle und Cloud-Dienste hinweg entwickeln.

Die Integration erweitert das kürzlich vorgestellte Paket Cisco Secure AI Factory with Nvidia, das Cisco-Technologien für Sicherheit und Netzwerk, Nvidia-DPUs sowie Speicherlösungen von Pure Storage, Hitachi Vantara, NetApp und VAST Data vereint.

„Cisco AI Defense und Hypershield integrieren sich mit Nvidia AI, um leistungsstarke, skalierbare und vertrauenswürdige KI-Antworten für agentenbasierte und generative KI-Workloads bereitzustellen. Das validierte Design der Nvidia Enterprise AI Factory umfasst nun auch AI Defense und Hypershield, um jede Phase des KI-Lebenszyklus zu schützen – ein Schlüsselfaktor, um Unternehmen eine sichere KI-Skalierung zu ermöglichen“, schreibt Anne Hecht, Senior Director of Product Marketing für Enterprise-Softwareprodukte bei Nvidia, in einem Blogbeitrag.

Zudem können offene KI-Modelle, die mit Nvidia NeMo nachtrainiert und mit Nvidia Blueprints abgesichert wurden, jetzt mit AI Defense validiert und geschützt werden. „Ciscos Modelle für Sicherheit, Datenschutz und Schutz laufen als Nvidia NIM Microservices, um die Inferenzleistung für produktive KI-Anwendungen zu optimieren. Cisco AI Defense bietet dabei Laufzeitüberwachung und Sichtbarkeit für KI-Anwendungen und -Agenten, die auf der Nvidia-AI-Plattform betrieben werden“, so Hecht.

Außerdem werde Cisco Hypershield bald mit den Nvidia BlueField DPUs und dem Nvidia DOCA Argus Framework zusammenarbeiten und damit jedem Knoten der KI-Infrastruktur eine durchdringende, verteilte Sicherheit und Echtzeit-Bedrohungserkennung bieten, ergänzte die Nvidia-Managerin.

Aus Sicht von WWT-Mann Anderson zeigen diese Schritte die enge Zusammenarbeit zwischen Cisco und Nvidia beim Aufbau eines umfassenden Sicherheitsstacks. Zudem werde klar, dass Cisco AI Defense und Hypershield aus Sicht von Nvidia zentral für Unternehmens-KI-Architekturen sind.

„Nichts kann ein KI-Projekt schneller zum Scheitern bringen als Bedenken bei Sicherheit und Governance. Wenn man hier Technologien wie AI Defense und Hypershield einsetzen kann, hilft das Unternehmen, Risiken zu minimieren und sich auf die Umsetzung ihrer Geschäftsziele zu konzentrieren“, so Anderson.

Agentenbasierte KI absichern

Im Bereich der agentenbasierten KI erweitert Cisco seine Universal-Zero-Trust-Network-Architektur, um auch Identitäten von KI-Agenten abzusichern und ihre Aktivitäten vollständig nachverfolgen zu können.

“Das Aufkommen von agentenbasierter KI revolutioniert die Arbeitswelt und bringt gleichzeitig erhebliche Herausforderungen für die Sicherheit mit sich“, erklärt Chief Product Manager Patel. „Diese KI-Agenten greifen autonom auf Unternehmensressourcen zu, treffen Entscheidungen und handeln im Namen von Nutzern. Das erfordert robuste Sicherheitsvorkehrungen.”

Die Vision von Cisco umfasse modernste Funktionen wie automatische Agentenerkennung, delegierte Autorisierung, sicheren Zero-Trust-Agentenzugriff und native Unterstützung für das Model Context Protocol (MCP), so Patel.

Laut Raj Chopra, Senior Vice President und Chief Product Officer für Cisco Security, dehnt Cisco die Prinzipien von Zero Trust auf agentenbasierte KI aus und setzt eine Reihe seiner Produkte in Kombination ein:  

„Duo Identity & Access Management (IAM) stellt die Autorisierung bereit und Secure Access nimmt die semantische Prüfung vor, so dass der Endbenutzer nicht ständig Zugriff gewähren muss. Außerdem prüft AI Defense, ob die Aktionen des Agenten mit seinem Zweck übereinstimmen, und Cisco Identity Intelligence überwacht die Aktionen und sorgt für Transparenz“, schreibt der Cisco-Manager in einem Blogpost. Dort heißt es weiter:

„Wir entwickeln die Fähigkeit für Unternehmen, ein dynamisches, kontextabhängiges Berechtigungsmanagement umzusetzen, das Agentenanfragen sowohl anhand expliziter Richtlinien als auch mittels semantischer Analyse des vom Agenten angegebenen Zwecks bewertet.“

„Das System ermöglicht es Mitarbeitenden, über einen zustimmungsbasierten Workflow granulare Berechtigungen zu delegieren – etwa einem Agenten das Lesen von E-Mails zur Zusammenfassung zu gestatten, ihn jedoch am Löschen dieser E-Mails zu hindern“, führt Patel aus.

Dieser Workflow verfolge und verwalte gezielt die Lebenszyklen eng definierter Zugriffsrechte. Durch die Kombination von OAuth 2.1-Konformität (Autorisierung) mit semantischer Prüfung ließen sich verbotene Aktivitäten automatisch erkennen und blockieren, sodass die Nutzererfahrung reibungslos bleibt. Außerdem sei für kritische Aktionen stets eine explizite Autorisierung durch den Nutzer erforderlich, um Fehlverhalten zu verhindern.

Im Zusammenhang mit Ciscos Agententechnologie erklärte Patel außerdem, dass das Unternehmen ein Live-Patching-System in Echtzeit anbietet. Dieses wendet Sicherheitskontrollen auf Kernel-Ebene an, um sich gegen neu entdeckte Schwachstellen (CVEs) zu schützen – ohne einen Neustart von Switches oder Routern zu erfordern. Die Live-Protect-Funktion kann entweder über Ciscos KI-Assistenten oder durch Hypershield-Workflows ausgelöst und verwaltet werden. (mb)

Cisco Live 2025: Security im Fokus​ Weiterlesen »

IBM baut Quantencomputer der nächsten Generation​

Allgemein

Im Wettlauf mit Google und AWS setzt IBM auf eine besonders effiziente Fehlerkorrektur.IBM IBM treibt die Entwicklung des weltweit ersten hochskalierenden, fehlertoleranten Quantencomputers voran. IBM Quantum Starling heißt das Projekt und soll bis 2029 verfügbar sein. Geplant ist, dass dieses System voraussichtlich 20.000-mal mehr Quantenoperationen ausführen können wird als heutige Quantencomputer. Laut IBM soll der Speicher von mehr als einer Oktillion, das ist eine 1 mit 48 Nullen (10^48), der leistungsstärksten Supercomputer der Welt erforderlich sein, um die Rechenleistung von Starling nachzubilden. Roadmap zu Quantum Starling IBM verfolgt eine klare Quantum-Roadmap, die den Weg zu IBM Quantum Starling skizziert: IBM Quantum Loon (2025): Testet Architekturkomponenten zur Fehlerkorrektur, insbesondere den innovativen qLDPC-Code (Quantum Low-Density Parity-Check), sowie „C-Koppler“, die Qubits über größere Distanzen auf einem Chip verbinden. IBM Quantum Kookaburra (2026): Erster modularer Prozessor, der Quantenspeicher mit logischen Operationen kombiniert – entscheidend für die Skalierung fehlertoleranter Systeme über einzelne Chips hinaus. IBM Quantum Cockatoo (2027): Verbindet zwei Kookaburra-Module über „L-Koppler“ und ermöglicht so die Vernetzung von Quantenchips als Nodes in einem größeren System. Dies vermeidet laut IBM den Bau übermäßig großer Chips. Diese Entwicklungen zielen darauf ab, IBM Quantum Starling zu erschaffen, das dann mit 200 logischen Qubits etwa 100 Millionen Quantenoperationen ausführen können soll. Darauf aufbauend plant IBM den Nachfolger Quantum Blue Jay mit einer Milliarde Operationen über 2.000 logischen Qubits. Google, AWS und IBM im Effizienzvergleich Forscher weltweit entwickeln derzeit konkurrierende Verfahren zur Fehlerkorrektur in Quantencomputern: Während Googles Oberflächencode rund 100 physische Qubits pro logischem Qubit benötigt, setzen AWS (9 Qubits) und IBM (12 Qubits mit qLDPC-Code) auf vermeintlich effizientere Methoden. IBM unterscheidet sich hiervon durch sein Starling-Design, welches Fehler in Echtzeit mithilfe eines FPGA-basierten Dekodierungsalgorithmus diagnostizieren soll. Skalierung und Fehlertoleranz im Fokus IBM geht davon aus, dass ein fehlertoleranter Quantencomputer mit Hunderten bis Tausenden logischen Qubits enorme Rechenleistungen ermöglicht. Diese sollen in der Lage sein, in vielen Bereichen Revolutionäres zu schaffen. Hierzu zählen etwa die Arzneimittelentwicklung, Materialforschung, Chemie und komplexe Optimierungsprobleme. Das Unternehmen plant, IBM Quantum Starling als Grundlage für diese Fortschritte zu nutzen und damit neue Geschäftsmöglichkeiten zu eröffnen. 

IBM baut Quantencomputer der nächsten Generation​ Im Wettlauf mit Google und AWS setzt IBM auf eine besonders effiziente Fehlerkorrektur.IBM

IBM treibt die Entwicklung des weltweit ersten hochskalierenden, fehlertoleranten Quantencomputers voran. IBM Quantum Starling heißt das Projekt und soll bis 2029 verfügbar sein. Geplant ist, dass dieses System voraussichtlich 20.000-mal mehr Quantenoperationen ausführen können wird als heutige Quantencomputer. Laut IBM soll der Speicher von mehr als einer Oktillion, das ist eine 1 mit 48 Nullen (10^48), der leistungsstärksten Supercomputer der Welt erforderlich sein, um die Rechenleistung von Starling nachzubilden.

Roadmap zu Quantum Starling

IBM verfolgt eine klare Quantum-Roadmap, die den Weg zu IBM Quantum Starling skizziert:

IBM Quantum Loon (2025): Testet Architekturkomponenten zur Fehlerkorrektur, insbesondere den innovativen qLDPC-Code (Quantum Low-Density Parity-Check), sowie „C-Koppler“, die Qubits über größere Distanzen auf einem Chip verbinden.

IBM Quantum Kookaburra (2026): Erster modularer Prozessor, der Quantenspeicher mit logischen Operationen kombiniert – entscheidend für die Skalierung fehlertoleranter Systeme über einzelne Chips hinaus.

IBM Quantum Cockatoo (2027): Verbindet zwei Kookaburra-Module über „L-Koppler“ und ermöglicht so die Vernetzung von Quantenchips als Nodes in einem größeren System. Dies vermeidet laut IBM den Bau übermäßig großer Chips.

Diese Entwicklungen zielen darauf ab, IBM Quantum Starling zu erschaffen, das dann mit 200 logischen Qubits etwa 100 Millionen Quantenoperationen ausführen können soll. Darauf aufbauend plant IBM den Nachfolger Quantum Blue Jay mit einer Milliarde Operationen über 2.000 logischen Qubits.

Google, AWS und IBM im Effizienzvergleich

Forscher weltweit entwickeln derzeit konkurrierende Verfahren zur Fehlerkorrektur in Quantencomputern: Während Googles Oberflächencode rund 100 physische Qubits pro logischem Qubit benötigt, setzen AWS (9 Qubits) und IBM (12 Qubits mit qLDPC-Code) auf vermeintlich effizientere Methoden. IBM unterscheidet sich hiervon durch sein Starling-Design, welches Fehler in Echtzeit mithilfe eines FPGA-basierten Dekodierungsalgorithmus diagnostizieren soll.

Skalierung und Fehlertoleranz im Fokus

IBM geht davon aus, dass ein fehlertoleranter Quantencomputer mit Hunderten bis Tausenden logischen Qubits enorme Rechenleistungen ermöglicht. Diese sollen in der Lage sein, in vielen Bereichen Revolutionäres zu schaffen. Hierzu zählen etwa die Arzneimittelentwicklung, Materialforschung, Chemie und komplexe Optimierungsprobleme.

Das Unternehmen plant, IBM Quantum Starling als Grundlage für diese Fortschritte zu nutzen und damit neue Geschäftsmöglichkeiten zu eröffnen.

IBM baut Quantencomputer der nächsten Generation​ Weiterlesen »

Bitkom-Studie: Cloud-Boom trifft Sicherheitsbedenken​

Allgemein

Obwohl es deutsche Unternehmen immer stärker in die Cloud zieht, herrscht dort nicht immer eitel Sonnenschein. tkhome23 – Shutterstock Die deutsche Wirtschaft schlägt Alarm: Laut dem “Cloud Report 2025” des Digitalverbands Bitkom sehen drei Viertel der Unternehmen (78 Prozent) eine zu große Abhängigkeit von US-amerikanischen Cloud-Anbietern. Jedes zweite Unternehmen (50 Prozent), das Cloud-Computing nutzt, sieht sich aufgrund der Politik der Trump-Regierung dazu gezwungen, seine Cloud-Strategie zu überdenken. Wie die repräsentative Befragung von 604 Unternehmen in Deutschland (ab 20 Mitarbeitern) ergab, haben Standort und Herkunft des Cloud-Anbieters nach dem Regierungswechsel in Washington an Bedeutung gewonnen: 100 Prozent bevorzugen einen deutschen Anbieter, 61 Prozent einen aus der EU, während US-Anbieter nur noch für sechs Prozent der Befragten attraktiv sind. Deutsche Cloud darf keine Kompromisslösung sein srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?quality=50&strip=all 1900w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wunsch und Wirklichkeit: Alle Umfrageteilnehmer würden einen Cloud-Anbieter aus Deutschland bevorzugen. Bitkom Research „Die Cloud ist für die deutsche Wirtschaft unverzichtbar. Angesichts der geopolitischen Veränderungen ist der Cloud-Standort Deutschland in den Fokus gerückt“, erklärt Bitkom-Präsident Ralf Wintergerst Deutschland müsse sich von einseitigen Abhängigkeiten freimachen, auch bei digitaler Infrastruktur. Das werde eine zentrale Aufgabe der neuen Bundesregierung sein, so Wintergerst. Allerdings lassen sich die Unternehmen dabei nicht mit einer Notlösung abspeisen: Laut Umfrage wäre nur eine Minderheit bereit, bei einer deutschen Cloud Nachteile in Kauf zu nehmen, wie etwa: längere Wartezeiten auf neue Funktionen (12 Prozent), fehlende Funktionen (8 Prozent), höhere Kosten (7 Prozent für 10-20 Prozent mehr) oder Abstriche bei Bedienbarkeit und Service (6 Prozent). Zwei Drittel (65 Prozent) der Befragten würden sogar keine dieser Nachteile akzeptieren. „International wettbewerbsfähige Unternehmen brauchen eine international wettbewerbsfähige IT“, kommentiert Wintergerst die Ergebnisse. „Wir haben hierzulande Anbieter, die weltweit konkurrenzfähige Angebote aufbauen können. Klar ist: Eine deutsche Cloud muss genauso gut und genauso günstig sein, wie die Angebote anderer Anbieter. Ist sie das nicht, bleibt sie ein Nischenprodukt.“ Cloud-Aussichten: Heiter bis wolkig Der Wunsch nach einem vertrauenswürdigen Cloud-Anbieter ist berechtigt. Laut Bitkom-Umfrage nutzen mittlerweile 90 Prozent der Unternehmen Cloud-Dienste, vor einem Jahr waren es noch 81 Prozent. Bei rund zwei Dritteln hängt der Betrieb dabei sogar maßgeblich von der Cloud ab. In der Nutzung liegt die Private Cloud dabei mit 74 Prozent deutlich vor Public-Cloud-Angeboten (59 Prozent). 29 Prozent nutzen eine Hybrid-Cloud, also sowohl private als auch öffentliche Cloud-Dienste. Und 41 Prozent setzen auf Multi-Cloud, beziehen also Cloud-Dienste von mehreren Providern. Insgesamt werden in der deutschen Wirtschaft rund die Hälfte (47 Prozent) aller IT-Anwendungen aus der Cloud betrieben, 2024 waren es noch 38 Prozent. In fünf Jahren soll der Anteil bereits bei 58 Prozent liegen. Der Studie zufolge steht die Cloud dabei erstmals bei der Hälfte der Cloud-Nutzer im Mittelpunkt der IT-Strategie. So verfolgen 19 Prozent einen „Cloud-only“-Ansatz, bei dem Cloud Computing für ausnahmslos alle Anwendungen und Systeme genutzt wird und bestehende Lösungen in die Cloud überführt werden. Weitere 31 Prozent setzen auf „Cloud first“, verwenden also bevorzugt Cloud-Lösungen bei neuen Projekten und ziehen bestehende Anwendungen bei Bedarf in die Cloud um. Und 31 Prozent haben eine „Cloud too“-Strategie, ergänzen also bestehende IT-Lösungen um Cloud-Anwendungen. Laut Bitkom-Umfrage wird die Cloud meist genutzt, um interne Prozesse zu digitalisieren.Bitkom Research Allerdings erfolgt diese Fokussierung nicht immer aus freien Stücken, wie die Bitkom-Studie ergab: Mehr als zwei Drittel (64 Prozent) der befragten Unternehmen erklären, sie seien gezwungen, Cloud-Dienste zu nutzen, weil die Software nur noch Cloud-basiert angeboten wird. Gleichzeitig geben mehr als die Hälfte (53 Prozent) an, sie fühlten sich den Cloud-Anbietern ausgeliefert, was Preise und Vertragsgestaltung angeht. Fast ebenso viele (51 Prozent) rechnen damit, dass die Betriebskosten ihrer Cloud-Lösungen 2025 voraussichtlich steigen. Nur acht Prozent gehen von sinkenden Kosten aus. „Aktuell fällt es Kunden aufgrund des hohen Aufwands und der hohen Kosten bei einer Migration schwer, einen einmal gewählten Cloud-Anbieter wieder zu verlassen“, erklärt Bitkom-Präsident Wintergerst. Lock-In-Effekte dieser Art so gering wie möglich zu halten, sollte deshalb auch Teil der eigenen Cloud-Strategie sein. 

Bitkom-Studie: Cloud-Boom trifft Sicherheitsbedenken​ Obwohl es deutsche Unternehmen immer stärker in die Cloud zieht, herrscht dort nicht immer eitel Sonnenschein. tkhome23 – Shutterstock

Die deutsche Wirtschaft schlägt Alarm: Laut dem “Cloud Report 2025” des Digitalverbands Bitkom sehen drei Viertel der Unternehmen (78 Prozent) eine zu große Abhängigkeit von US-amerikanischen Cloud-Anbietern. Jedes zweite Unternehmen (50 Prozent), das Cloud-Computing nutzt, sieht sich aufgrund der Politik der Trump-Regierung dazu gezwungen, seine Cloud-Strategie zu überdenken.

Wie die repräsentative Befragung von 604 Unternehmen in Deutschland (ab 20 Mitarbeitern) ergab, haben Standort und Herkunft des Cloud-Anbieters nach dem Regierungswechsel in Washington an Bedeutung gewonnen:

100 Prozent bevorzugen einen deutschen Anbieter,

61 Prozent einen aus der EU, während

US-Anbieter nur noch für sechs Prozent der Befragten attraktiv sind.

Deutsche Cloud darf keine Kompromisslösung sein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?quality=50&strip=all 1900w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Screenshot-2025-06-12-120344_neu.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wunsch und Wirklichkeit: Alle Umfrageteilnehmer würden einen Cloud-Anbieter aus Deutschland bevorzugen. Bitkom Research

„Die Cloud ist für die deutsche Wirtschaft unverzichtbar. Angesichts der geopolitischen Veränderungen ist der Cloud-Standort Deutschland in den Fokus gerückt“, erklärt Bitkom-Präsident Ralf Wintergerst Deutschland müsse sich von einseitigen Abhängigkeiten freimachen, auch bei digitaler Infrastruktur. Das werde eine zentrale Aufgabe der neuen Bundesregierung sein, so Wintergerst.

Allerdings lassen sich die Unternehmen dabei nicht mit einer Notlösung abspeisen: Laut Umfrage wäre nur eine Minderheit bereit, bei einer deutschen Cloud Nachteile in Kauf zu nehmen, wie etwa:

längere Wartezeiten auf neue Funktionen (12 Prozent),

fehlende Funktionen (8 Prozent),

höhere Kosten (7 Prozent für 10-20 Prozent mehr) oder

Abstriche bei Bedienbarkeit und Service (6 Prozent).

Zwei Drittel (65 Prozent) der Befragten würden sogar keine dieser Nachteile akzeptieren.

„International wettbewerbsfähige Unternehmen brauchen eine international wettbewerbsfähige IT“, kommentiert Wintergerst die Ergebnisse. „Wir haben hierzulande Anbieter, die weltweit konkurrenzfähige Angebote aufbauen können. Klar ist: Eine deutsche Cloud muss genauso gut und genauso günstig sein, wie die Angebote anderer Anbieter. Ist sie das nicht, bleibt sie ein Nischenprodukt.“

Cloud-Aussichten: Heiter bis wolkig

Der Wunsch nach einem vertrauenswürdigen Cloud-Anbieter ist berechtigt. Laut Bitkom-Umfrage nutzen mittlerweile 90 Prozent der Unternehmen Cloud-Dienste, vor einem Jahr waren es noch 81 Prozent. Bei rund zwei Dritteln hängt der Betrieb dabei sogar maßgeblich von der Cloud ab.

In der Nutzung liegt die Private Cloud dabei mit 74 Prozent deutlich vor Public-Cloud-Angeboten (59 Prozent). 29 Prozent nutzen eine Hybrid-Cloud, also sowohl private als auch öffentliche Cloud-Dienste. Und 41 Prozent setzen auf Multi-Cloud, beziehen also Cloud-Dienste von mehreren Providern.

Insgesamt werden in der deutschen Wirtschaft rund die Hälfte (47 Prozent) aller IT-Anwendungen aus der Cloud betrieben, 2024 waren es noch 38 Prozent. In fünf Jahren soll der Anteil bereits bei 58 Prozent liegen.

Der Studie zufolge steht die Cloud dabei erstmals bei der Hälfte der Cloud-Nutzer im Mittelpunkt der IT-Strategie.

So verfolgen 19 Prozent einen „Cloud-only“-Ansatz, bei dem Cloud Computing für ausnahmslos alle Anwendungen und Systeme genutzt wird und bestehende Lösungen in die Cloud überführt werden.

Weitere 31 Prozent setzen auf „Cloud first“, verwenden also bevorzugt Cloud-Lösungen bei neuen Projekten und ziehen bestehende Anwendungen bei Bedarf in die Cloud um.

Und 31 Prozent haben eine „Cloud too“-Strategie, ergänzen also bestehende IT-Lösungen um Cloud-Anwendungen.

Laut Bitkom-Umfrage wird die Cloud meist genutzt, um interne Prozesse zu digitalisieren.Bitkom Research

Allerdings erfolgt diese Fokussierung nicht immer aus freien Stücken, wie die Bitkom-Studie ergab: Mehr als zwei Drittel (64 Prozent) der befragten Unternehmen erklären, sie seien gezwungen, Cloud-Dienste zu nutzen, weil die Software nur noch Cloud-basiert angeboten wird.

Gleichzeitig geben mehr als die Hälfte (53 Prozent) an, sie fühlten sich den Cloud-Anbietern ausgeliefert, was Preise und Vertragsgestaltung angeht. Fast ebenso viele (51 Prozent) rechnen damit, dass die Betriebskosten ihrer Cloud-Lösungen 2025 voraussichtlich steigen. Nur acht Prozent gehen von sinkenden Kosten aus.

„Aktuell fällt es Kunden aufgrund des hohen Aufwands und der hohen Kosten bei einer Migration schwer, einen einmal gewählten Cloud-Anbieter wieder zu verlassen“, erklärt Bitkom-Präsident Wintergerst. Lock-In-Effekte dieser Art so gering wie möglich zu halten, sollte deshalb auch Teil der eigenen Cloud-Strategie sein.

Bitkom-Studie: Cloud-Boom trifft Sicherheitsbedenken​ Weiterlesen »

5 Boolean-Tipps für Entwickler​

Allgemein

True oder False – was kann da schon schiefgehen?Rohane Hamilton | shutterstock.com Boolesche Werte wirken trügerisch einfach. Nutzt man sie dann jedoch tatsächlich einmal, kann man sich schnell in einem weitläufigen Minenfeld wiederfinden. Verstehen Sie mich nicht falsch: Ich verstehe den Reiz, den Booleans entfalten – schließlich bin ich alt genug, um mich noch an die Zeiten zu erinnern, als es noch keine Booleschen Typen gab. Die mussten wir damals mit Integers simulieren. Etwa so: 10 LET FLAG = 0 20 IF FLAG = 1 THEN PRINT “YOU WILL NEVER SEE THIS” 30 LET FLAG = 1 40 IF FLAG = 1 THEN PRINT “NOW IT PRINTS” 50 END Im Vergleich dazu sind Booleans performant und simpel. Dennoch kann ich auf der Grundlage meiner jahrelangen Erfahrung als Entwickler nur empfehlen, sie nach Möglichkeit zu vermeiden. Und wenn das nicht möglich ist, sie äußerst vorsichtig und mit Bedacht einzusetzen. Natürlich gibt es auch Ausnahmen, beziehungsweise einfache Fälle wie isLoading, bei denen nur True oder False möglich ist. Von diesen Fällen abgesehen, können Entwickler mit Booleans jedoch leicht in eine Falle tappen – und am Ende komplizierten, schwer verständlichen Code produzieren. Um das zu verhindern, kann ich Ihnen die folgenden fünf Regeln ans Herz legen, an denen ich mich auch selbst stets orientiere. 1. Positiv bleiben Wenn ich es mit Booleschen Variablen zu tun bekomme, versuche ich, deren Namen stets positiv zu halten. Variablen, die True “sind”, gewährleisten, dass Dinge funktionieren und passieren. Deshalb bevorzuge ich Ausdrücke wie: if UserIsAuthorized { // Do something } Statt: if !UserIsNotAuthorized { // Do something } Ersterer Code ist wesentlich leichter lesbar und besser zu verstehen. Schließlich sind doppelte Verneinungen deutlich anstrengender für den menschlichen Denkapparat. 2. Positive-First-Ansatz durchziehen In diesem Sinne empfiehlt es sich auch, bei if…else-Konstruktionen die positive Klausel stets an erste Stelle zu setzen. Verzichten Sie also auf Vorgehensweisen wie: if not Authorized { // bad stuff } else { // good stuff } Und setzen Sie stattdessen auf: if Authorized { // Things are okay } else { // Go away!! } Das ist leichter zu lesen und erspart Ihrem Gehirn außerdem, not verarbeiten zu müssen. 3. Komplexe Ausdrücke vermeiden Erklärende Variablen werden unterschätzt und verkannt – in erster Linie, weil Developer schnell vorankommen wollen. Es lohnt sich allerdings fast immer, über den eigenen Code auch zu reflektieren. Ich für meinen Teil nutze zwischen benannten Variablen ausschließlich && und || – niemals Raw Expressions. Aber mir begegnen ständig Code-Schnipsel dieser Art: if (user.age > 18 && user.isActive && !user.isBanned && user.subscriptionLevel >= 2) { grantAccess(); } Denken Sie an den armen Tropf, der dieses Monstrum lesen – und dann wie folgt umschreiben muss: const isAdult = user.age > 18; const hasAccess = !user.isBanned; const isActive = user.isActive; const isSubscriber = user.subscriptionLevel >= 2; const canAccess = isAdult && hasAccess && isActive && isSubscriber; if (canAccess) { grantAccess(); } So ist das Ganze lesbar und transparent. Dabei sollten Sie sich nicht scheuen, erklärende Variablen klar herauszustellen. Die Wahrscheinlichkeit, dass sich jemand über Code wie den folgenden beschwert, ist eher gering: const userHasJumpedThroughAllTheRequiredHoops = true; Klar, das bedeutet mehr Tipparbeit, allerdings sollte Klarheit und Transparenz wichtiger sein, als ein paar Tastenanschläge zu sparen. Dazu kommt, dass sich erklärende Variablen hervorragend für Unit-Tests eignen und auch Logging und Debugging erheblich vereinfachen. 4. Auf Boolesche Parameter verzichten Kaum etwas generiert wohl pro Minute mehr “WTF?“-Kommentare als Boolesche Parameter. Vergegenwärtigen Sie sich beispielsweise folgendes “Juwel”: saveUser(user, true, false); // …the heck does this even mean? Wenn Sie diese Funktion schreiben, sieht erst einmal alles gut aus, weil die Parameter benannt sind. Geht es jedoch darum, die Funktion aufzurufen, muss ein Maintainer erst einmal die Funktionsdeklaration suchen, um zu verstehen, was hier übergeben wird. Ein besserer Weg: Vermeiden Sie Booleans einfach komplett und deklarieren Sie einen deskriptiven enum-Typ für die Parameter, der darüber Auskunft gibt, was vor sich geht: enum WelcomeEmailOption { Send, DoNotSend, } enum VerificationStatus { Verified, Unverified, } Ihre Funktion könnte dann wie folgt aussehen: function saveUser( user: User, emailOption: WelcomeEmailOption, verificationStatus: VerificationStatus ): void { if (emailOption === WelcomeEmailOption.Send) { sendEmail(user.email, ‘Welcome!’); } if (verificationStatus === VerificationStatus.Verified) { user.verified = true; } // save user to database… } Und so könnten Sie diese aufrufen: saveUser(newUser, WelcomeEmailOption.Send, VerificationStatus.Unverified); Eine Wohltat für jedes Dev-Gehirn, liest sich dieser Call wie eine Dokumentation: Klar, prägnant – und der Maintainer kann unmittelbar erkennen, was der Aufruf bewirkt und die Parameter bedeuten. 5. Vorausschauend programmieren Ein Vorteil von enums: Sie sind erweiterbar. Angenommen, Sie programmieren ein System für Lebensmittel, das auch große und kleine Getränke umfasst. Das könnte in folgendem Code resultieren: var IsSmallDrink: boolean; Anschließend bauen Sie Ihr System um diese Boolesche Variable herum auf und legen sogar Boolesche Felder in der Datenbank dafür an. Nur um dann in der nächsten Kaffeepause dem Chef in die Arme zu laufen, der Sie kurz angebunden darüber informiert, dass künftig auch mittelgroße Getränke zum Sortiment gehören. Und schon wird eine simple Boolesche Variable zu einem eklatanten Problem. Um Situationen wie diese gar nicht erst aufkommen zu lassen, vermeiden Sie Boolesche Variablen. Etwa damit: enum DrinkSize { Small, Large } Dieser Code macht es bedeutend leichter, die neue Getränkegröße hinzuzufügen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

5 Boolean-Tipps für Entwickler​ True oder False – was kann da schon schiefgehen?Rohane Hamilton | shutterstock.com

Boolesche Werte wirken trügerisch einfach. Nutzt man sie dann jedoch tatsächlich einmal, kann man sich schnell in einem weitläufigen Minenfeld wiederfinden. Verstehen Sie mich nicht falsch: Ich verstehe den Reiz, den Booleans entfalten – schließlich bin ich alt genug, um mich noch an die Zeiten zu erinnern, als es noch keine Booleschen Typen gab. Die mussten wir damals mit Integers simulieren. Etwa so:

10 LET FLAG = 0
20 IF FLAG = 1 THEN PRINT “YOU WILL NEVER SEE THIS”
30 LET FLAG = 1
40 IF FLAG = 1 THEN PRINT “NOW IT PRINTS”
50 END

Im Vergleich dazu sind Booleans performant und simpel. Dennoch kann ich auf der Grundlage meiner jahrelangen Erfahrung als Entwickler nur empfehlen, sie nach Möglichkeit zu vermeiden. Und wenn das nicht möglich ist, sie äußerst vorsichtig und mit Bedacht einzusetzen. Natürlich gibt es auch Ausnahmen, beziehungsweise einfache Fälle wie isLoading, bei denen nur True oder False möglich ist.

Von diesen Fällen abgesehen, können Entwickler mit Booleans jedoch leicht in eine Falle tappen – und am Ende komplizierten, schwer verständlichen Code produzieren. Um das zu verhindern, kann ich Ihnen die folgenden fünf Regeln ans Herz legen, an denen ich mich auch selbst stets orientiere.

1. Positiv bleiben

Wenn ich es mit Booleschen Variablen zu tun bekomme, versuche ich, deren Namen stets positiv zu halten. Variablen, die True “sind”, gewährleisten, dass Dinge funktionieren und passieren. Deshalb bevorzuge ich Ausdrücke wie:

if UserIsAuthorized {
// Do something
}

Statt:

if !UserIsNotAuthorized {
// Do something
}

Ersterer Code ist wesentlich leichter lesbar und besser zu verstehen. Schließlich sind doppelte Verneinungen deutlich anstrengender für den menschlichen Denkapparat.

2. Positive-First-Ansatz durchziehen

In diesem Sinne empfiehlt es sich auch, bei if…else-Konstruktionen die positive Klausel stets an erste Stelle zu setzen. Verzichten Sie also auf Vorgehensweisen wie:

if not Authorized {
// bad stuff
} else {
// good stuff
}

Und setzen Sie stattdessen auf:

if Authorized {
// Things are okay
} else {
// Go away!!
}

Das ist leichter zu lesen und erspart Ihrem Gehirn außerdem, not verarbeiten zu müssen.

3. Komplexe Ausdrücke vermeiden

Erklärende Variablen werden unterschätzt und verkannt – in erster Linie, weil Developer schnell vorankommen wollen. Es lohnt sich allerdings fast immer, über den eigenen Code auch zu reflektieren. Ich für meinen Teil nutze zwischen benannten Variablen ausschließlich && und || – niemals Raw Expressions.

Aber mir begegnen ständig Code-Schnipsel dieser Art:

if (user.age > 18 && user.isActive && !user.isBanned && user.subscriptionLevel >= 2) {
grantAccess();
}

Denken Sie an den armen Tropf, der dieses Monstrum lesen – und dann wie folgt umschreiben muss:

const isAdult = user.age > 18;
const hasAccess = !user.isBanned;
const isActive = user.isActive;
const isSubscriber = user.subscriptionLevel >= 2;

const canAccess = isAdult && hasAccess && isActive && isSubscriber;

if (canAccess) {
grantAccess();
}

So ist das Ganze lesbar und transparent. Dabei sollten Sie sich nicht scheuen, erklärende Variablen klar herauszustellen. Die Wahrscheinlichkeit, dass sich jemand über Code wie den folgenden beschwert, ist eher gering:

const userHasJumpedThroughAllTheRequiredHoops = true;

Klar, das bedeutet mehr Tipparbeit, allerdings sollte Klarheit und Transparenz wichtiger sein, als ein paar Tastenanschläge zu sparen. Dazu kommt, dass sich erklärende Variablen hervorragend für Unit-Tests eignen und auch Logging und Debugging erheblich vereinfachen.

4. Auf Boolesche Parameter verzichten

Kaum etwas generiert wohl pro Minute mehr “WTF?“-Kommentare als Boolesche Parameter. Vergegenwärtigen Sie sich beispielsweise folgendes “Juwel”:

saveUser(user, true, false); // …the heck does this even mean?

Wenn Sie diese Funktion schreiben, sieht erst einmal alles gut aus, weil die Parameter benannt sind. Geht es jedoch darum, die Funktion aufzurufen, muss ein Maintainer erst einmal die Funktionsdeklaration suchen, um zu verstehen, was hier übergeben wird. Ein besserer Weg: Vermeiden Sie Booleans einfach komplett und deklarieren Sie einen deskriptiven enum-Typ für die Parameter, der darüber Auskunft gibt, was vor sich geht:

enum WelcomeEmailOption {
Send,
DoNotSend,
}

enum VerificationStatus {
Verified,
Unverified,
}

Ihre Funktion könnte dann wie folgt aussehen:

function saveUser(
user: User,
emailOption: WelcomeEmailOption,
verificationStatus: VerificationStatus
): void {
if (emailOption === WelcomeEmailOption.Send) {
sendEmail(user.email, ‘Welcome!’);
}
if (verificationStatus === VerificationStatus.Verified) {
user.verified = true;
}
// save user to database…
}

Und so könnten Sie diese aufrufen:

saveUser(newUser, WelcomeEmailOption.Send, VerificationStatus.Unverified);

Eine Wohltat für jedes Dev-Gehirn, liest sich dieser Call wie eine Dokumentation: Klar, prägnant – und der Maintainer kann unmittelbar erkennen, was der Aufruf bewirkt und die Parameter bedeuten.

5. Vorausschauend programmieren

Ein Vorteil von enums: Sie sind erweiterbar. Angenommen, Sie programmieren ein System für Lebensmittel, das auch große und kleine Getränke umfasst. Das könnte in folgendem Code resultieren:

var IsSmallDrink: boolean;

Anschließend bauen Sie Ihr System um diese Boolesche Variable herum auf und legen sogar Boolesche Felder in der Datenbank dafür an. Nur um dann in der nächsten Kaffeepause dem Chef in die Arme zu laufen, der Sie kurz angebunden darüber informiert, dass künftig auch mittelgroße Getränke zum Sortiment gehören. Und schon wird eine simple Boolesche Variable zu einem eklatanten Problem. Um Situationen wie diese gar nicht erst aufkommen zu lassen, vermeiden Sie Boolesche Variablen.

Etwa damit:

enum DrinkSize {
Small,
Large
}

Dieser Code macht es bedeutend leichter, die neue Getränkegröße hinzuzufügen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

5 Boolean-Tipps für Entwickler​ Weiterlesen »

Schwitzen im Büro: Dresscode: Im T-Shirt zum Kunden?​

Allgemein

1. Im T-Shirt zum Kunden?Ein Leser schreibt: ” Als IT-Experte wird man mehr respektiert, wenn man auch zum Kunden mit Jeans und T-Shirt fährt. Bei einem fachlichen Experten erwarten eben auch die Kunden keinen BWLer, sondern einen Nerd!”IT-Experten werden mehr respektiert, wenn sie auch zum Kunden mit Jeans und T-Shirt fahren, meint ein Leser. Die Stilexpertin sieht das etwas anders. Foto: Eugenio Marongiu – shutterstock.comChristina Tabernig von Korrekt empfiehlt, zumindest beim Erstkontakt mit dem Kunden nicht als Nerd im T-Shirt aufzutreten: “Wenn ich den Kunden noch nicht kenne, sollten auch IT-Profis nicht auf Hemd mit Anzug oder Kombination verzichten. Eine Krawatte ist dagegen kein Muss mehr. Beim Erstkontakt hat man wenig Spielraum, schließlich drückt eine angemessene Kleidung auch den Respekt gegenüber dem Kunden aus: Lieber die Latte höher hängen.” Mitarbeiter, die in Kundenkontakt stehen, sollten sich mit der Wahl ihrer Kleidung immer an der Branche des Kunden orientieren. Geht es beim Kunden auch lockerer zu, kann der IT-Profi auch mit Stoffhose und Poloshirt auftauchen. Von T-Shirts ohne Kragen rät sie ab. Jeans gingen nur in Kombination mit einem gepflegten Lederschuh, der die “Arbeiterhose” aufwerte.2. Ab 30 Grad sind Birkenstocks in der IT erlaubtEin IT-Mitarbeiter einer Bank sitzt bei 31,5 Grad mit einfarbiger 3/4 Hose und den besagten Birkenstock-Sandalen am PC und sieht um sich herum viele Nachahmer: “Meistens sind doch IT´ler/Techniker/Elektriker/usw. eher leger gekleidet und Birkenstocks angesagt.”“Kein Mann schaut in Sandalen gut aus”, lautet dazu der Kommentar von Christina Tabernig. Mitarbeiter, die nur intern unterwegs sind, können im Sommer auf Bootsschuhe oder Loafers ausweichen. Geht es zum Kunden, müssen aber auch diese Schuhe zuhause im Schrank bleiben.Christina Tabernig, korrekt: “Kein Mann schaut in Sandalen gut aus.” Foto: Christina Tabernig3. Mit kurzer Hose ins Büro?Ein Leser schreibt: “Auch bei deutschen Unternehmen, die von einem amerikanischen Mutterkonzern geführt werden, stelle ich immer häufiger die Kombination weißes Hemd mit kurzer Hose fest.”Kurze Hosen sind in den Augen der Knigge-Expertin im Home Office oder höchstens im stillen Kämmerlein erlaubt, in dem sich aber immer weniger der IT-Experten befinden. “Lange Hosen sind ein Muss für Herren”, betont Tabernig. Ob Dreiviertel- Hosen oder Bermudas, diese Beinkleider trägt man in der Freizeit. “Eine Faustregel sagt: Alles, was am Strand nicht auffällt, hat im Büro nichts zu suchen. Darunter fallen auch transparente Oberteile, Spaghettiträger oder zu kurze Röcke für die Frauen”, sagt Tabernig. Mitarbeiter sollten daran denken, dass auch ihr Chef registriert, in welchem Aufzug sie ins Büro kommen. Eine zu lockere oder zu nachlässige Kleidung verschlechtere oft die Karrierechancen.4. Die Hemdenfrage: Von kurzen Ärmeln und offenen KnöpfenMuss man den obersten Knopf immer schließen? Mancher Leser sieht darin ein Zeichen seiner “Angepasstheit” und lehnt das ab. Und was spricht gegen ein kurzes Hemd im Sommer?Dazu Christina Tabernig: “Der oberste Knopf kann offen bleiben, wenn man keine Krawatte trägt. Auch ein kurzes Hemd ist in Ordnung, aber dann bitte ohne Sakko und Krawatte. Das Motto ´lässig, aber nicht nachlässig´ ist hier eine gute Richtschnur. So wirkt es zum Beispiel nachlässig, wenn der oberste Knopf offen steht und die Krawatte auf Halbmast hängt.”5. Dresscode nur für Führungskräfte?Ein Leser stellt fest: “Es gibt keinen allgemeinen Business Dresscode. Es kommt immer darauf an, wo man arbeitet, welche Position man hat , usw.” Müssen sich zum Beispiel nur Führungskräfte an Kleidungsvorschriften halten?Auch Stilexpertin Tabernig empfiehlt, sich in Sachen Kleidung an den Gepflogenheiten im Unternehmen zu orientieren, und die können von Branche zu Branche sehr unterschiedlich sein. “Man sollte sich immer so kleiden wie die Position, die man als nächstes innehaben will”, sagt Tabernig. Einen Dresscode, der sich nur auf Führungskräfte bezieht, gebe es nicht. Allerdings nehme der Spielraum, wie sich Männer und Frauen kleiden können, mit zunehmender Hierarchiestufe ab. Je näher die Vorstandsebene rückt, desto grauer und dunkler würden die Farben.6. Wann darf Mann das Sakko ausziehen?Bei welcher Temperatur dürfen sich Männer in der Geschäftswelt ihres Sakkos entledigen? Das ist laut Tabernig keine Frage der Temperatur, sondern hat mit Rangordnung zu tun: “Wenn der Chef das Sakko auch bei 30 Grad anbehält, muss ich mitschwitzen.” Der Ranghöchste beziehungsweise der Gastgeber entscheidet, wann das Sakko auszuziehen ist. Auf einer Hochzeit ist das der Bräutigam oder wie beim Weißwurstfrühstück Joachim Sauer, Ehemann von Kanzlerin Angela Merkel, der stellvertretend für die Gastgeberin auch sein Sakko ausgezogen hatte. Und US-Präsident Barack Obama folgte diesem Beispiel gern.Mehr zum Thema KleidungDresscodes im Job: Was ist Business Casual?13 Kleidungstipps für MännerKleidungstipps für BusinessfrauenDresscode: Sommer im BüroEndlich Sommer!Barfuss, bauchfrei, Bermuda oder Birkenstock sind auch bei 30 Grad im Büro ein Fauxpax. Klicken Sie sich durch die größten Sommer-Sünden in Sachen Kleidung.Dazu Knigge-Expertin Christina Tabernig:Der Ranghöchste beziehungsweise der Gastgeber entscheidet, wann das Sakko auszuziehen ist. Auf einer Hochzeit ist das der Bräutigam oder wie beim Weißwurstfrühstück Joachim Sauer, Ehemann von Kanzlerin Angela Merkel, der stellvertretend für die Gastgeberin auch sein Sakko ausgezogen hatte. Und US-Präsident Barack Obama folgte diesem Beispiel gern.Das Sakko bleibt an …… solange der Vorgesetzte nicht abgelegt und Erleichterung angeboten hat. Frauen müssen den Blazer nicht ablegen, vielleicht tragen sie ja nur ein leichtes Shirt darunter.Männer in Bermudas oder Shorts …… sollten sich in deutschen Büros nicht blicken lassen, auch wenn das Thermometer auf 30 Grad und mehr klettert. Dazu die Faustregel von Knigge-Expertin Tabernig: “Alles, was am Strand nicht auffällt, hat im Büro nichts zu suchen.”Mit Sandalen …… oder Birkenstocks …… sollte kein Mann im Sommer ins Büro gehen. Mit weißen Tennissocken übrigens auch nicht. Auch Flipflops …… sind nur in der Freizeit erlaubt, wenngleich sie auch bequem und luftig sind.Auf Socken …… können Männer nur in der Mittagspause im Park verzichten, aber niemals im Büro Slipper oder Schuhe ohne Socken tragen.Es geht auch ohne Sakko und Krawatte …… oder mit Kurzarmhemd. Letzeres aber nur ohne Krawatee und Sakko tragen. Vertriebler und Berater …… müssen dagegen in der Regel das Sakko auch im Sommer anziehen. Ihre oberste Richtschnur ist immer der Kunde beziehungsweise die Kleidung in dessen Untenrehmen.Luftige Sommerkleider …… können Frauen im Job gern anziehen, wenn denn die Rocklänge stimmt. Eine Handbreit oberhalb des Knies ist erlaubt, alles andere geht zu weit.Auch mit Spaghetti-Trägern …… und nackten Schultern sollte Frau sich zurückhalten. Freie Schultern gehören nicht ins Büro. Auch beim klassischen Etuikleid muss ein Blazer oder Jäckchen darüber getragen werden.Dicke Gürtel …… sind auch nicht für den Einsatz im Büro vorgesehen.Bauchfrei, Cut-Outs und Hotpants …… taugen für die Disco oder den Strand, sind aber kein Outfit fürs Büro.In Sachen Schuhe …… haben Business-Frauen eine größere Auswahl als ihre männlichen Kollegen. Geschlossene Schuhe statt offener Sandalen …… heißt die Devise für Business-Frauen im Sommer. Rot lackierte Fussnägel lenken den Blick vom Wesentlichen ab. Auch Feinstrumpfhosen sind im Sommer ein Muss.Slingpumps sind eine AlternativeNoch nie gehört? Das sind Sandalen, die vorne geschlossen und hinten offen sind. Große Schweißflecken …… kommen bei bestimmten Farben (lindgrün, khaki) noch deutlicher heraus. Diese Farben sollte man meiden.Wenn das Deo versagt und der Schweiß siegt, …… kann man das dem schwitzenden Kollegen unter vier Augen und im freundlich-verständnisvollen Ton sagen. Vielleicht fällt ihm selbst der Schweißgeruch ja gar nicht mehr auf. Eis in der Mittagspause …… hilft über so manchen heißen Bürotag hinweg. Was aber, wenn man einen Eisfleck auf der Bluse hat? Wenn Sie keine Sofortlösung wie Reinigungstücher oder Wasser zur Verfügung haben, müssen Sie damit leben. 

Schwitzen im Büro: Dresscode: Im T-Shirt zum Kunden?​ 1. Im T-Shirt zum Kunden?Ein Leser schreibt: ” Als IT-Experte wird man mehr respektiert, wenn man auch zum Kunden mit Jeans und T-Shirt fährt. Bei einem fachlichen Experten erwarten eben auch die Kunden keinen BWLer, sondern einen Nerd!”IT-Experten werden mehr respektiert, wenn sie auch zum Kunden mit Jeans und T-Shirt fahren, meint ein Leser. Die Stilexpertin sieht das etwas anders.
Foto: Eugenio Marongiu – shutterstock.comChristina Tabernig von Korrekt empfiehlt, zumindest beim Erstkontakt mit dem Kunden nicht als Nerd im T-Shirt aufzutreten: “Wenn ich den Kunden noch nicht kenne, sollten auch IT-Profis nicht auf Hemd mit Anzug oder Kombination verzichten. Eine Krawatte ist dagegen kein Muss mehr. Beim Erstkontakt hat man wenig Spielraum, schließlich drückt eine angemessene Kleidung auch den Respekt gegenüber dem Kunden aus: Lieber die Latte höher hängen.” Mitarbeiter, die in Kundenkontakt stehen, sollten sich mit der Wahl ihrer Kleidung immer an der Branche des Kunden orientieren. Geht es beim Kunden auch lockerer zu, kann der IT-Profi auch mit Stoffhose und Poloshirt auftauchen. Von T-Shirts ohne Kragen rät sie ab. Jeans gingen nur in Kombination mit einem gepflegten Lederschuh, der die “Arbeiterhose” aufwerte.2. Ab 30 Grad sind Birkenstocks in der IT erlaubtEin IT-Mitarbeiter einer Bank sitzt bei 31,5 Grad mit einfarbiger 3/4 Hose und den besagten Birkenstock-Sandalen am PC und sieht um sich herum viele Nachahmer: “Meistens sind doch IT´ler/Techniker/Elektriker/usw. eher leger gekleidet und Birkenstocks angesagt.”“Kein Mann schaut in Sandalen gut aus”, lautet dazu der Kommentar von Christina Tabernig. Mitarbeiter, die nur intern unterwegs sind, können im Sommer auf Bootsschuhe oder Loafers ausweichen. Geht es zum Kunden, müssen aber auch diese Schuhe zuhause im Schrank bleiben.Christina Tabernig, korrekt: “Kein Mann schaut in Sandalen gut aus.”
Foto: Christina Tabernig3. Mit kurzer Hose ins Büro?Ein Leser schreibt: “Auch bei deutschen Unternehmen, die von einem amerikanischen Mutterkonzern geführt werden, stelle ich immer häufiger die Kombination weißes Hemd mit kurzer Hose fest.”Kurze Hosen sind in den Augen der Knigge-Expertin im Home Office oder höchstens im stillen Kämmerlein erlaubt, in dem sich aber immer weniger der IT-Experten befinden. “Lange Hosen sind ein Muss für Herren”, betont Tabernig. Ob Dreiviertel- Hosen oder Bermudas, diese Beinkleider trägt man in der Freizeit. “Eine Faustregel sagt: Alles, was am Strand nicht auffällt, hat im Büro nichts zu suchen. Darunter fallen auch transparente Oberteile, Spaghettiträger oder zu kurze Röcke für die Frauen”, sagt Tabernig. Mitarbeiter sollten daran denken, dass auch ihr Chef registriert, in welchem Aufzug sie ins Büro kommen. Eine zu lockere oder zu nachlässige Kleidung verschlechtere oft die Karrierechancen.4. Die Hemdenfrage: Von kurzen Ärmeln und offenen KnöpfenMuss man den obersten Knopf immer schließen? Mancher Leser sieht darin ein Zeichen seiner “Angepasstheit” und lehnt das ab. Und was spricht gegen ein kurzes Hemd im Sommer?Dazu Christina Tabernig: “Der oberste Knopf kann offen bleiben, wenn man keine Krawatte trägt. Auch ein kurzes Hemd ist in Ordnung, aber dann bitte ohne Sakko und Krawatte. Das Motto ´lässig, aber nicht nachlässig´ ist hier eine gute Richtschnur. So wirkt es zum Beispiel nachlässig, wenn der oberste Knopf offen steht und die Krawatte auf Halbmast hängt.”5. Dresscode nur für Führungskräfte?Ein Leser stellt fest: “Es gibt keinen allgemeinen Business Dresscode. Es kommt immer darauf an, wo man arbeitet, welche Position man hat , usw.” Müssen sich zum Beispiel nur Führungskräfte an Kleidungsvorschriften halten?Auch Stilexpertin Tabernig empfiehlt, sich in Sachen Kleidung an den Gepflogenheiten im Unternehmen zu orientieren, und die können von Branche zu Branche sehr unterschiedlich sein. “Man sollte sich immer so kleiden wie die Position, die man als nächstes innehaben will”, sagt Tabernig. Einen Dresscode, der sich nur auf Führungskräfte bezieht, gebe es nicht. Allerdings nehme der Spielraum, wie sich Männer und Frauen kleiden können, mit zunehmender Hierarchiestufe ab. Je näher die Vorstandsebene rückt, desto grauer und dunkler würden die Farben.6. Wann darf Mann das Sakko ausziehen?Bei welcher Temperatur dürfen sich Männer in der Geschäftswelt ihres Sakkos entledigen? Das ist laut Tabernig keine Frage der Temperatur, sondern hat mit Rangordnung zu tun: “Wenn der Chef das Sakko auch bei 30 Grad anbehält, muss ich mitschwitzen.” Der Ranghöchste beziehungsweise der Gastgeber entscheidet, wann das Sakko auszuziehen ist. Auf einer Hochzeit ist das der Bräutigam oder wie beim Weißwurstfrühstück Joachim Sauer, Ehemann von Kanzlerin Angela Merkel, der stellvertretend für die Gastgeberin auch sein Sakko ausgezogen hatte. Und US-Präsident Barack Obama folgte diesem Beispiel gern.Mehr zum Thema KleidungDresscodes im Job: Was ist Business Casual?13 Kleidungstipps für MännerKleidungstipps für BusinessfrauenDresscode: Sommer im BüroEndlich Sommer!Barfuss, bauchfrei, Bermuda oder Birkenstock sind auch bei 30 Grad im Büro ein Fauxpax. Klicken Sie sich durch die größten Sommer-Sünden in Sachen Kleidung.Dazu Knigge-Expertin Christina Tabernig:Der Ranghöchste beziehungsweise der Gastgeber entscheidet, wann das Sakko auszuziehen ist. Auf einer Hochzeit ist das der Bräutigam oder wie beim Weißwurstfrühstück Joachim Sauer, Ehemann von Kanzlerin Angela Merkel, der stellvertretend für die Gastgeberin auch sein Sakko ausgezogen hatte. Und US-Präsident Barack Obama folgte diesem Beispiel gern.Das Sakko bleibt an …… solange der Vorgesetzte nicht abgelegt und Erleichterung angeboten hat. Frauen müssen den Blazer nicht ablegen, vielleicht tragen sie ja nur ein leichtes Shirt darunter.Männer in Bermudas oder Shorts …… sollten sich in deutschen Büros nicht blicken lassen, auch wenn das Thermometer auf 30 Grad und mehr klettert. Dazu die Faustregel von Knigge-Expertin Tabernig: “Alles, was am Strand nicht auffällt, hat im Büro nichts zu suchen.”Mit Sandalen …… oder Birkenstocks …… sollte kein Mann im Sommer ins Büro gehen. Mit weißen Tennissocken übrigens auch nicht. Auch Flipflops …… sind nur in der Freizeit erlaubt, wenngleich sie auch bequem und luftig sind.Auf Socken …… können Männer nur in der Mittagspause im Park verzichten, aber niemals im Büro Slipper oder Schuhe ohne Socken tragen.Es geht auch ohne Sakko und Krawatte …… oder mit Kurzarmhemd. Letzeres aber nur ohne Krawatee und Sakko tragen. Vertriebler und Berater …… müssen dagegen in der Regel das Sakko auch im Sommer anziehen. Ihre oberste Richtschnur ist immer der Kunde beziehungsweise die Kleidung in dessen Untenrehmen.Luftige Sommerkleider …… können Frauen im Job gern anziehen, wenn denn die Rocklänge stimmt. Eine Handbreit oberhalb des Knies ist erlaubt, alles andere geht zu weit.Auch mit Spaghetti-Trägern …… und nackten Schultern sollte Frau sich zurückhalten. Freie Schultern gehören nicht ins Büro. Auch beim klassischen Etuikleid muss ein Blazer oder Jäckchen darüber getragen werden.Dicke Gürtel …… sind auch nicht für den Einsatz im Büro vorgesehen.Bauchfrei, Cut-Outs und Hotpants …… taugen für die Disco oder den Strand, sind aber kein Outfit fürs Büro.In Sachen Schuhe …… haben Business-Frauen eine größere Auswahl als ihre männlichen Kollegen. Geschlossene Schuhe statt offener Sandalen …… heißt die Devise für Business-Frauen im Sommer. Rot lackierte Fussnägel lenken den Blick vom Wesentlichen ab. Auch Feinstrumpfhosen sind im Sommer ein Muss.Slingpumps sind eine AlternativeNoch nie gehört? Das sind Sandalen, die vorne geschlossen und hinten offen sind. Große Schweißflecken …… kommen bei bestimmten Farben (lindgrün, khaki) noch deutlicher heraus. Diese Farben sollte man meiden.Wenn das Deo versagt und der Schweiß siegt, …… kann man das dem schwitzenden Kollegen unter vier Augen und im freundlich-verständnisvollen Ton sagen. Vielleicht fällt ihm selbst der Schweißgeruch ja gar nicht mehr auf. Eis in der Mittagspause …… hilft über so manchen heißen Bürotag hinweg. Was aber, wenn man einen Eisfleck auf der Bluse hat? Wenn Sie keine Sofortlösung wie Reinigungstücher oder Wasser zur Verfügung haben, müssen Sie damit leben.

Schwitzen im Büro: Dresscode: Im T-Shirt zum Kunden?​ Weiterlesen »

Database Oriented Operating System (DBOS): Der bessere Weg, Cloud-Apps zu entwickeln?​

Allgemein

DBOS stellt eine drastische (und auf den ersten Blick unter Umständen absonderliche) Abkehr von bisherigen Konzepten der App-Entwicklung in der Cloud dar. Foto: Tattoboo | shutterstock.com Das Open-Source-Projekt Database Oriented Operating System (DBOS) wurde von Wissenschaftlern des MIT und der Stanford University im Rahmen eines kooperativen Forschungsprojekts auf die Beine gestellt. DBOS stellt Entwicklern in Aussicht, stabile Cloud-Native-Applikationen bei hoher Fehlertoleranz schneller, einfacher und sicherer erstellen zu können. Im Folgenden werfen wir einen detaillierten Blick auf die Entstehungsgeschichte, Komponenten und Funktionen von DBOS – und sagen Ihnen, wie Sie erste Schritte in der Praxis gehen. Was ist DBOS? Ende März 2024 verkündete Postgres-Schöpfer und DBOS-Mitbegründer Mike Stonebraker im Rahmen eines Blogbeitrags die Veröffentlichung von DBOS Cloud, “einer transaktionalen, Serverless-Computing-Plattform, die durch das revolutionäre, neue Betriebssystem DBOS ermöglicht wird und Betriebssystem-Services auf einer verteilten Datenbank implementiert”. Das klingt bei initialem Konsum – gelinde gesagt – ein wenig seltsam, ergibt aber mit Blick auf die Entstehungsgeschichte von DBOS durchaus Sinn. Die erläutert Stonebraker ebenfalls in besagtem Blogbeitrag: “Die Idee für DBOS entstand vor drei Jahren, als ich erkannte, dass der State, den ein Betriebssystem aufrechterhalten muss (Dateien, Prozesse, Threads, Nachrichten etcetera), um etwa sechs Größenordnungen gewachsen ist, seit ich 1973 mit Unix auf einer PDP-11/40 meine ersten Schritte tat. Aus dieser Perspektive ist es in erster Linie ein Datenbankproblem, den OS-State zu speichern. Dazu kommt, dass es sich bei Linux um Legacy-Code handelt, der sich nur schwer weiterentwickeln lässt. So gibt es zum Beispiel keine Multi-Node-Version – ein Orchestrierungs-Tool wie Kubernetes ist also obligatorisch. Als ich dann einen Vortrag von Matei Zaharia hörte, in dem er sagte, dass Databricks für seine Zwecke herkömmliche OS-Scheduling-Technologien nicht nutzen konnte und stattdessen auf eine Datenbankmanagement-Lösung setzte, war mir klar: Es war an der Zeit, letztere in den Kernel zu verlagern und ein neues Betriebssystem zu entwickeln.” Die verteilte Datenbank fußt (auf dem Papier) auf einem Minimal-Kernel, ist aber unterhalb der OS Services angesiedelt – statt wie eine herkömmliche Datenbank im Applikations-Layer zu laufen. Foto: Martin Heller | IDG Falls Sie Mike Stonebraker noch nicht kannten: Er ist bereits seit den frühen 1970er Jahren als Informatiker mit Datenbank-Fokus tätig. Zu seinen Errungenschaften zählen unter anderem die Entwicklung des relationalen Datenbanksystems Ingres, das später Sybase inspirierte – was wiederum die Grundlage für Microsoft SQL Server bildete. Zudem leistete Stonebraker Grundlagenarbeit für Postgres, das sich später zu PostgreSQL (und Illustra) weiterentwickelte. Angesichts dieser Historie überrascht es nicht, dass DBOS eine verteilte PostgreSQL-Version als Kernel-Database-Layer nutzt. Introducing DBOS Cloud: transactional #serverless computing platform.DBOS Cloud enhances #TypeScript with auto-scaling, statefulness, fault-tolerance, & cyber-resilience.Learn more from DBOS CTO & #postgres creator, Mike Stonebrakerhttps://t.co/1TIOdgHrLI1/2— DBOS (@DBOS_Inc) March 12, 2024 DBOS-Funktionen Im Folgenden werfen wir einen Blick auf die wesentlichen Komponenten von DBOS und ihre Features. Im Anschluß betrachten wir einige besonders interessante Aspekte im Detail. Bei DBOS Transact handelt es sich um ein Open-Source-TypeScript-Framework. Dieses unterstützt unter anderem: Workflow-Orchestrierung, Authentifizierung und Autorisierung, und Unit-Testing. DBOS Cloud ist eine transaktionale Serverless-Plattform, um DBOS-Transact-Apps bereitzustellen. Sie bietet zum Beispiel Support für: Serverless App Deployment, Time Travel Debugging, Cloud-Datenbankmanagement und Observability. DBOS Transact Der Code im folgenden Screenshot demonstriert Transaktionen sowie HTTP-Serving mit GET. Es lohnt sich also, die 18 Zeilen genau zu analysieren. Dieser Typescript-Code für eine Hello-Klasse wird generiert, wenn Sie einen DBOS-Create-Prozess anstoßen. Foto: Martin Heller | IDG Der erste Import (Zeile 1) bringt die DBOS-SDK-Klassen ein, die wir benötigen. Der zweite Import (Zeile 2) beschert uns den Knex.js SQL Query Builder, der die parametrisierte Abfrage an die Postgres-Datenbank sendet und die resultierenden Zeilen zurückgibt. Das Datenbankschema wird schließlich in den Zeilen 4 bis 8 definiert. Die einzigen Spalten sind ein name-String und ein greet_count-Integer. Die einzige Methode innerhalb der Hello-Klasse ist helloTransaction. Sie wird mit den Decorators @GetApi und @Transaction verpackt. Diese bewirken jeweils, dass besagte Methode über den Pfad /greeting/ als Antwort auf einen HTTP GET-Request geliefert wird – gefolgt vom zu übergebenden Username-Parameter. Das stellt sicher, dass nicht zwei Instanzen parallel die Datenbank aktualisieren. Der Datenbank-Query-String in Zeile 16 nutzt PostgreSQL-Syntax, um für den zur Verfügung gestellten Namen eine Zeile in die Datenbank einzufügen und diese mit dem Initialwert 1 auszustatten. Sollte diese Zeile bereits existieren, führt der ON CONFLICT-Trigger eine Aktualisierungsoperation aus. Wie in Zeile 17 zu sehen, wird die SQL-Abfrage mit Knex.js an die DBOS-Systemdatenbank gesendet und ihr Ergebnis abgerufen. DBOS Time Travel Debugger Wenn Sie eine Anwendung in DBOS Cloud ausführen, wird jeder Schritt und jede Änderung in der Datenbank festgehalten. Debuggen können Sie dabei entweder mit Visual Studio Code oder der DBOS Time Travel Debugger Extension. Letztere erlaubt Ihnen, Ihre DBOS-Applikation anhand der Datenbank (so wie sie zum Zeitpunkt des ausgewählten Workflows aussah) zu debuggen. Um den Time Travel Debugger zu nutzen, starten Sie mit einer CodeLens, um aus einer Liste gespeicherter Workflows den betreffenden auszuwählen. Foto: Martin Heller | IDG Time-travel Debugging mit einem gespeicherten Workflow erinnert stark an rudimentäre Arbeit mit Visual Studio Code. Foto: Martin Heller | IDG DBOS Quickstart Tutorial Das folgende Quickstart-Tutorial erfordert Node.js 20 (oder höher) und eine PostgreSQL-Datenbank, zu der Sie entweder lokal, über einen Docker-Container oder remote eine Verbindung herstellen können. Der eigentliche Quickstart beginnt damit, ein DBOS-App-Verzeichnis mit Node.js zu erstellen. martinheller@Martins-M1-MBP ~ % npx -y @dbos-inc/create@latest -n myapp Merged .gitignore files saved to myapp/.gitignore added 590 packages, and audited 591 packages in 25s found 0 vulnerabilities added 1 package, and audited 592 packages in 1s found 0 vulnerabilities added 129 packages, and audited 721 packages in 5s found 0 vulnerabilities Application initialized successfully! Anschließend füttern Sie die Anwendung mit den Daten Ihres Postgres-Servers und exportieren Ihr Passwort in eine Umgebungsvariable. martinheller@Martins-M1-MBP ~ % cd myapp martinheller@Martins-M1-MBP myapp % npx dbos configure ? What is the hostname of your Postgres server? localhost ? What is the port of your Postgres server? 5432 ? What is your Postgres username? postgres martinheller@Martins-M1-MBP myapp % export PGPASSWORD=********* Im nächsten Schritt erstellen Sie eine “Hello”-Datenbank mit Node.js und Knex.js. martinheller@Martins-M1-MBP myapp % npx dbos migrate 2024-04-09 15:01:42 [info]: Starting migration: creating database hello if it does not exist 2024-04-09 15:01:42 [info]: Database hello does not exist, creating… 2024-04-09 15:01:42 [info]: Executing migration command: npx knex migrate:latest 2024-04-09 15:01:43 [info]: Batch 1 run: 1 migrations 2024-04-09 15:01:43 [info]: Creating DBOS tables and system database. 2024-04-09 15:01:43 [info]: Migration successful! Hiernach können Sie die DBOS-Applikation lokal erstellen und ausführen. martinheller@Martins-M1-MBP myapp % npm run build npx dbos start > myapp@0.0.1 build > tsc 2024-04-09 15:02:30 [info]: Workflow executor initialized 2024-04-09 15:02:30 [info]: HTTP endpoints supported: 2024-04-09 15:02:30 [info]: GET : /greeting/:user 2024-04-09 15:02:30 [info]: DBOS Server is running at http://localhost:3000 2024-04-09 15:02:30 [info]: DBOS Admin Server is running at http://localhost:3001 ^C An diesem Punkt können Sie http://localhost:3000 aufrufen, um die Anwendung zu testen. Danach registrieren Sie sich für DBOS Cloud und stellen dort Ihre eigene Datenbank bereit. martinheller@Martins-M1-MBP myapp % npx dbos-cloud register -u meheller 2024-04-09 15:11:35 [info]: Welcome to DBOS Cloud! 2024-04-09 15:11:35 [info]: Before creating an account, please tell us a bit about yourself! Enter First/Given Name: Martin Enter Last/Family Name: Heller Enter Company: self 2024-04-09 15:12:06 [info]: Please authenticate with DBOS Cloud! Login URL: https://login.dbos.dev/activate?user_code=QWKW-TXTB 2024-04-09 15:12:12 [info]: Waiting for login… 2024-04-09 15:12:17 [info]: Waiting for login… 2024-04-09 15:12:22 [info]: Waiting for login… 2024-04-09 15:12:27 [info]: Waiting for login… 2024-04-09 15:12:32 [info]: Waiting for login… 2024-04-09 15:12:38 [info]: Waiting for login… 2024-04-09 15:12:44 [info]: meheller successfully registered! martinheller@Martins-M1-MBP myapp % npx dbos-cloud db provision iw_db -U meheller Database Password: ******** 2024-04-09 15:19:22 [info]: Successfully started provisioning database: iw_db 2024-04-09 15:19:28 [info]: {“PostgresInstanceName”:”iw_db”,”HostName”:”userdb-51fcc211-6ed3-4450-a90e-0f864fc1066c.cvc4gmaa6qm9.us-east-1.rds.amazonaws.com”,”Status”:”available”,”Port”:5432,”DatabaseUsername”:”meheller”,”AdminUsername”:”meheller”} 2024-04-09 15:19:28 [info]: Database successfully provisioned! Im letzten Schritt können Sie schließlich Ihre Applikation über DBOS Cloud registrieren und bereitstellen. martinheller@Martins-M1-MBP myapp % npx dbos-cloud app register -d iw_db 2024-04-09 15:20:09 [info]: Loaded application name from package.json: myapp 2024-04-09 15:20:09 [info]: Registering application: myapp 2024-04-09 15:20:11 [info]: myapp ID: d8806829-c5b8-4df0-8b5a-2d1bf87c3322 2024-04-09 15:20:11 [info]: Successfully registered myapp! martinheller@Martins-M1-MBP myapp % npx dbos-cloud app deploy 2024-04-09 15:20:35 [info]: Loaded application name from package.json: myapp 2024-04-09 15:20:35 [info]: Submitting deploy request for myapp 2024-04-09 15:21:09 [info]: Submitted deploy request for myapp. Assigned version: 1712676035 2024-04-09 15:21:13 [info]: Waiting for myapp with version 1712676035 to be available 2024-04-09 15:21:21 [info]: Successfully deployed myapp! 2024-04-09 15:21:21 [info]: Access your application at https://meheller-myapp.cloud.dbos.dev/ Diese “Hello”-Anwendung resultiert aus dem obenstehenden Code. Foto: Martin Heller | IDG Diese Anwendung veranschaulicht einige Kernfunktionen von DBOS Transact und DBOS Cloud, ist dabei aber so einfach gestrickt, dass sie eher untauglich ist, um damit zu experimentieren. Das DBOS “Programming Quickstart“-Tutorial ist etwas tiefgehender angelegt. Hier lernen Sie zum Beispiel, wie Sie Communicator-Funktionen verwenden, um auf Dienste von Drittanbietern zuzugreifen oder wie Sie zuverlässige Workflows zusammenstellen. Fazit: DBOS (Cloud) verlockt! DBOS und DBOS Cloud sehen unserer Meinung nach sehr interessant aus, nicht zuletzt wegen der zuverlässigen Execution und der Möglichkeit des Time-Travel Debugging. Vor dem Real-World-Einsatz gilt es allerdings noch einige Fragen zu beantworten. Zum Beispiel mit Blick auf Skalierbarkeit und Kosten. Ob sich DBOS unter Entwicklern durchsetzt, bleibt ohnehin abzuwarten. Schließlich tendieren diese eher dazu, an Gewohnheiten festzuhalten – bis die nicht mehr funktionieren. Insofern könnte eine Umstellung auf DBOS und den auf den ersten Blick etwas extravagant anmutenden Code eine Herausforderung darstellen. Zu erwähnen ist auch, dass die aktuelle Implementierung von DBOS dem Schaubild am Anfang des Artikels eher fern als nah ist: DBOS läuft aktuell auf macOS, Linux, Windows – DBOS Cloud auf AWS. Von “Minimal Kernel” kann da eher keine Rede sein. Dennoch hat DBOS seinen Reiz und die Reputation der Köpfe hinter dem Projekt spricht für sich selbst. Bis DBOS Mainstream wird, könnte es trotzdem noch eine ganze Zeit lang dauern. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Database Oriented Operating System (DBOS): Der bessere Weg, Cloud-Apps zu entwickeln?​ DBOS stellt eine drastische (und auf den ersten Blick unter Umständen absonderliche) Abkehr von bisherigen Konzepten der App-Entwicklung in der Cloud dar.
Foto: Tattoboo | shutterstock.com

Das Open-Source-Projekt Database Oriented Operating System (DBOS) wurde von Wissenschaftlern des MIT und der Stanford University im Rahmen eines kooperativen Forschungsprojekts auf die Beine gestellt. DBOS stellt Entwicklern in Aussicht, stabile Cloud-Native-Applikationen bei hoher Fehlertoleranz schneller, einfacher und sicherer erstellen zu können.

Im Folgenden werfen wir einen detaillierten Blick auf die Entstehungsgeschichte, Komponenten und Funktionen von DBOS – und sagen Ihnen, wie Sie erste Schritte in der Praxis gehen.

Was ist DBOS?

Ende März 2024 verkündete Postgres-Schöpfer und DBOS-Mitbegründer Mike Stonebraker im Rahmen eines Blogbeitrags die Veröffentlichung von DBOS Cloud, “einer transaktionalen, Serverless-Computing-Plattform, die durch das revolutionäre, neue Betriebssystem DBOS ermöglicht wird und Betriebssystem-Services auf einer verteilten Datenbank implementiert”. Das klingt bei initialem Konsum – gelinde gesagt – ein wenig seltsam, ergibt aber mit Blick auf die Entstehungsgeschichte von DBOS durchaus Sinn. Die erläutert Stonebraker ebenfalls in besagtem Blogbeitrag:

“Die Idee für DBOS entstand vor drei Jahren, als ich erkannte, dass der State, den ein Betriebssystem aufrechterhalten muss (Dateien, Prozesse, Threads, Nachrichten etcetera), um etwa sechs Größenordnungen gewachsen ist, seit ich 1973 mit Unix auf einer PDP-11/40 meine ersten Schritte tat. Aus dieser Perspektive ist es in erster Linie ein Datenbankproblem, den OS-State zu speichern. Dazu kommt, dass es sich bei Linux um Legacy-Code handelt, der sich nur schwer weiterentwickeln lässt. So gibt es zum Beispiel keine Multi-Node-Version – ein Orchestrierungs-Tool wie Kubernetes ist also obligatorisch. Als ich dann einen Vortrag von Matei Zaharia hörte, in dem er sagte, dass Databricks für seine Zwecke herkömmliche OS-Scheduling-Technologien nicht nutzen konnte und stattdessen auf eine Datenbankmanagement-Lösung setzte, war mir klar: Es war an der Zeit, letztere in den Kernel zu verlagern und ein neues Betriebssystem zu entwickeln.”

Die verteilte Datenbank fußt (auf dem Papier) auf einem Minimal-Kernel, ist aber unterhalb der OS Services angesiedelt – statt wie eine herkömmliche Datenbank im Applikations-Layer zu laufen.
Foto: Martin Heller | IDG

Falls Sie Mike Stonebraker noch nicht kannten: Er ist bereits seit den frühen 1970er Jahren als Informatiker mit Datenbank-Fokus tätig. Zu seinen Errungenschaften zählen unter anderem die Entwicklung des relationalen Datenbanksystems Ingres, das später Sybase inspirierte – was wiederum die Grundlage für Microsoft SQL Server bildete. Zudem leistete Stonebraker Grundlagenarbeit für Postgres, das sich später zu PostgreSQL (und Illustra) weiterentwickelte. Angesichts dieser Historie überrascht es nicht, dass DBOS eine verteilte PostgreSQL-Version als Kernel-Database-Layer nutzt.

Introducing DBOS Cloud: transactional #serverless computing platform.DBOS Cloud enhances #TypeScript with auto-scaling, statefulness, fault-tolerance, & cyber-resilience.Learn more from DBOS CTO & #postgres creator, Mike Stonebrakerhttps://t.co/1TIOdgHrLI1/2— DBOS (@DBOS_Inc) March 12, 2024

DBOS-Funktionen

Im Folgenden werfen wir einen Blick auf die wesentlichen Komponenten von DBOS und ihre Features. Im Anschluß betrachten wir einige besonders interessante Aspekte im Detail.

Bei DBOS Transact handelt es sich um ein Open-Source-TypeScript-Framework. Dieses unterstützt unter anderem:

Workflow-Orchestrierung,

Authentifizierung und Autorisierung, und

Unit-Testing.

DBOS Cloud ist eine transaktionale Serverless-Plattform, um DBOS-Transact-Apps bereitzustellen. Sie bietet zum Beispiel Support für:

Serverless App Deployment,

Time Travel Debugging,

Cloud-Datenbankmanagement und

Observability.

DBOS Transact

Der Code im folgenden Screenshot demonstriert Transaktionen sowie HTTP-Serving mit GET. Es lohnt sich also, die 18 Zeilen genau zu analysieren.

Dieser Typescript-Code für eine Hello-Klasse wird generiert, wenn Sie einen DBOS-Create-Prozess anstoßen.
Foto: Martin Heller | IDG

Der erste Import (Zeile 1) bringt die DBOS-SDK-Klassen ein, die wir benötigen. Der zweite Import (Zeile 2) beschert uns den Knex.js SQL Query Builder, der die parametrisierte Abfrage an die Postgres-Datenbank sendet und die resultierenden Zeilen zurückgibt. Das Datenbankschema wird schließlich in den Zeilen 4 bis 8 definiert. Die einzigen Spalten sind ein name-String und ein greet_count-Integer.

Die einzige Methode innerhalb der Hello-Klasse ist helloTransaction. Sie wird mit den Decorators @GetApi und @Transaction verpackt. Diese bewirken jeweils, dass besagte Methode über den Pfad /greeting/ als Antwort auf einen HTTP GET-Request geliefert wird – gefolgt vom zu übergebenden Username-Parameter. Das stellt sicher, dass nicht zwei Instanzen parallel die Datenbank aktualisieren.

Der Datenbank-Query-String in Zeile 16 nutzt PostgreSQL-Syntax, um für den zur Verfügung gestellten Namen eine Zeile in die Datenbank einzufügen und diese mit dem Initialwert 1 auszustatten. Sollte diese Zeile bereits existieren, führt der ON CONFLICT-Trigger eine Aktualisierungsoperation aus. Wie in Zeile 17 zu sehen, wird die SQL-Abfrage mit Knex.js an die DBOS-Systemdatenbank gesendet und ihr Ergebnis abgerufen.

DBOS Time Travel Debugger

Wenn Sie eine Anwendung in DBOS Cloud ausführen, wird jeder Schritt und jede Änderung in der Datenbank festgehalten. Debuggen können Sie dabei entweder mit Visual Studio Code oder der DBOS Time Travel Debugger Extension. Letztere erlaubt Ihnen, Ihre DBOS-Applikation anhand der Datenbank (so wie sie zum Zeitpunkt des ausgewählten Workflows aussah) zu debuggen.

Um den Time Travel Debugger zu nutzen, starten Sie mit einer CodeLens, um aus einer Liste gespeicherter Workflows den betreffenden auszuwählen.
Foto: Martin Heller | IDG

Time-travel Debugging mit einem gespeicherten Workflow erinnert stark an rudimentäre Arbeit mit Visual Studio Code.
Foto: Martin Heller | IDG

DBOS Quickstart Tutorial

Das folgende Quickstart-Tutorial erfordert Node.js 20 (oder höher) und eine PostgreSQL-Datenbank, zu der Sie entweder lokal, über einen Docker-Container oder remote eine Verbindung herstellen können. Der eigentliche Quickstart beginnt damit, ein DBOS-App-Verzeichnis mit Node.js zu erstellen.

martinheller@Martins-M1-MBP ~ % npx -y @dbos-inc/create@latest -n myapp

Merged .gitignore files saved to myapp/.gitignore

added 590 packages, and audited 591 packages in 25s

found 0 vulnerabilities

added 1 package, and audited 592 packages in 1s

found 0 vulnerabilities

added 129 packages, and audited 721 packages in 5s

found 0 vulnerabilities

Application initialized successfully!

Anschließend füttern Sie die Anwendung mit den Daten Ihres Postgres-Servers und exportieren Ihr Passwort in eine Umgebungsvariable.

martinheller@Martins-M1-MBP ~ % cd myapp

martinheller@Martins-M1-MBP myapp % npx dbos configure

? What is the hostname of your Postgres server? localhost

? What is the port of your Postgres server? 5432

? What is your Postgres username? postgres

martinheller@Martins-M1-MBP myapp % export PGPASSWORD=*********

Im nächsten Schritt erstellen Sie eine “Hello”-Datenbank mit Node.js und Knex.js.

martinheller@Martins-M1-MBP myapp % npx dbos migrate

2024-04-09 15:01:42 [info]: Starting migration: creating database hello if it does not exist

2024-04-09 15:01:42 [info]: Database hello does not exist, creating…

2024-04-09 15:01:42 [info]: Executing migration command: npx knex migrate:latest

2024-04-09 15:01:43 [info]: Batch 1 run: 1 migrations

2024-04-09 15:01:43 [info]: Creating DBOS tables and system database.

2024-04-09 15:01:43 [info]: Migration successful!

Hiernach können Sie die DBOS-Applikation lokal erstellen und ausführen.

martinheller@Martins-M1-MBP myapp % npm run build

npx dbos start

> myapp@0.0.1 build

> tsc

2024-04-09 15:02:30 [info]: Workflow executor initialized

2024-04-09 15:02:30 [info]: HTTP endpoints supported:

2024-04-09 15:02:30 [info]: GET : /greeting/:user

2024-04-09 15:02:30 [info]: DBOS Server is running at http://localhost:3000

2024-04-09 15:02:30 [info]: DBOS Admin Server is running at http://localhost:3001

^C

An diesem Punkt können Sie http://localhost:3000 aufrufen, um die Anwendung zu testen. Danach registrieren Sie sich für DBOS Cloud und stellen dort Ihre eigene Datenbank bereit.

martinheller@Martins-M1-MBP myapp % npx dbos-cloud register -u meheller

2024-04-09 15:11:35 [info]: Welcome to DBOS Cloud!

2024-04-09 15:11:35 [info]: Before creating an account, please tell us a bit about yourself!

Enter First/Given Name: Martin

Enter Last/Family Name: Heller

Enter Company: self

2024-04-09 15:12:06 [info]: Please authenticate with DBOS Cloud!

Login URL: https://login.dbos.dev/activate?user_code=QWKW-TXTB

2024-04-09 15:12:12 [info]: Waiting for login…

2024-04-09 15:12:17 [info]: Waiting for login…

2024-04-09 15:12:22 [info]: Waiting for login…

2024-04-09 15:12:27 [info]: Waiting for login…

2024-04-09 15:12:32 [info]: Waiting for login…

2024-04-09 15:12:38 [info]: Waiting for login…

2024-04-09 15:12:44 [info]: meheller successfully registered!

martinheller@Martins-M1-MBP myapp % npx dbos-cloud db provision iw_db -U meheller

Database Password: ********

2024-04-09 15:19:22 [info]: Successfully started provisioning database: iw_db

2024-04-09 15:19:28 [info]: {“PostgresInstanceName”:”iw_db”,”HostName”:”userdb-51fcc211-6ed3-4450-a90e-0f864fc1066c.cvc4gmaa6qm9.us-east-1.rds.amazonaws.com”,”Status”:”available”,”Port”:5432,”DatabaseUsername”:”meheller”,”AdminUsername”:”meheller”}

2024-04-09 15:19:28 [info]: Database successfully provisioned!

Im letzten Schritt können Sie schließlich Ihre Applikation über DBOS Cloud registrieren und bereitstellen.

martinheller@Martins-M1-MBP myapp % npx dbos-cloud app register -d iw_db

2024-04-09 15:20:09 [info]: Loaded application name from package.json: myapp

2024-04-09 15:20:09 [info]: Registering application: myapp

2024-04-09 15:20:11 [info]: myapp ID: d8806829-c5b8-4df0-8b5a-2d1bf87c3322

2024-04-09 15:20:11 [info]: Successfully registered myapp!

martinheller@Martins-M1-MBP myapp % npx dbos-cloud app deploy

2024-04-09 15:20:35 [info]: Loaded application name from package.json: myapp

2024-04-09 15:20:35 [info]: Submitting deploy request for myapp

2024-04-09 15:21:09 [info]: Submitted deploy request for myapp. Assigned version: 1712676035

2024-04-09 15:21:13 [info]: Waiting for myapp with version 1712676035 to be available

2024-04-09 15:21:21 [info]: Successfully deployed myapp!

2024-04-09 15:21:21 [info]: Access your application at https://meheller-myapp.cloud.dbos.dev/

Diese “Hello”-Anwendung resultiert aus dem obenstehenden Code.
Foto: Martin Heller | IDG

Diese Anwendung veranschaulicht einige Kernfunktionen von DBOS Transact und DBOS Cloud, ist dabei aber so einfach gestrickt, dass sie eher untauglich ist, um damit zu experimentieren. Das DBOS “Programming Quickstart“-Tutorial ist etwas tiefgehender angelegt. Hier lernen Sie zum Beispiel, wie Sie Communicator-Funktionen verwenden, um auf Dienste von Drittanbietern zuzugreifen oder wie Sie zuverlässige Workflows zusammenstellen.

Fazit: DBOS (Cloud) verlockt!

DBOS und DBOS Cloud sehen unserer Meinung nach sehr interessant aus, nicht zuletzt wegen der zuverlässigen Execution und der Möglichkeit des Time-Travel Debugging. Vor dem Real-World-Einsatz gilt es allerdings noch einige Fragen zu beantworten. Zum Beispiel mit Blick auf Skalierbarkeit und Kosten.

Ob sich DBOS unter Entwicklern durchsetzt, bleibt ohnehin abzuwarten. Schließlich tendieren diese eher dazu, an Gewohnheiten festzuhalten – bis die nicht mehr funktionieren. Insofern könnte eine Umstellung auf DBOS und den auf den ersten Blick etwas extravagant anmutenden Code eine Herausforderung darstellen. Zu erwähnen ist auch, dass die aktuelle Implementierung von DBOS dem Schaubild am Anfang des Artikels eher fern als nah ist: DBOS läuft aktuell auf macOS, Linux, Windows – DBOS Cloud auf AWS. Von “Minimal Kernel” kann da eher keine Rede sein.

Dennoch hat DBOS seinen Reiz und die Reputation der Köpfe hinter dem Projekt spricht für sich selbst. Bis DBOS Mainstream wird, könnte es trotzdem noch eine ganze Zeit lang dauern. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Database Oriented Operating System (DBOS): Der bessere Weg, Cloud-Apps zu entwickeln?​ Weiterlesen »

Behörden weiten Zugriff auf Nutzerkonten aus​

Allgemein

Behörden nehmen weltweit immer mehr Nutzerkonten ins Visier und verlangen Einblick von Apple, Google, Meta und Microsoft.AlinStock – shutterstock.com Regierungen und Behörden weltweit verlangen immer häufiger Zugriff auf Nutzerkonten bei Big Tech-Konzernen wie Apple, Google, Meta und Microsoft. Das zeigt ein Bericht von Surfshark, einem Cybersecurity-Anbieter. Demzufolge hätten seit 2020 rund 190 Regierungen insgesamt 8,4 Millionen Nutzerkonten angefragt. Die Länder mit den meisten Anfragen sind:  USA (33 Prozent),  Indien (21 Prozent),  Brasilien (13 Prozent),  Deutschland (8 Prozent),  Großbritannien (3,2 Prozent),  Frankreich (3,2 Prozent),  Südkorea (2,8 Prozent),  Polen (1,9 Prozent),  Spanien (1,2 Prozent) und  Italien (0,9 Prozent).  Laut dem Surfshark-Bericht fordern Regierungen mehr Nutzerdaten an als je zuvor. 2020 seien insgesamt 1,3 Millionen Konten angefragt worden. 2023 lag diese Zahl bereits bei 2,1 Millionen – ein Anstieg um 63 Prozent. Das erste Halbjahr 2024 deutet auf ein weiteres Rekordjahr hin. US- und EU-Behörden würden demzufolge die meisten Anfragen stellen und seien in den Jahren 2013 bis Mitte 2024 für 55 Prozent aller angefragten Konten verantwortlich gewesen.  Big Tech spielt mit Dabei steigt auch die Kooperationsbereitschaft von Big Tech. Lag die durchschnittliche Kooperationsrate zwischen 2013 und 2021 bei 70 Prozent, stieg sie von 2022 bis Mitte 2024 auf durchschnittlich 78 Prozent. Die Ergebnisse im Einzelnen:  Google erhielt 337.919 Anfragen und erfüllte 250.074 davon – eine Kooperationsrate von 74 Prozent.  Meta erhielt 215.942 Anfragen und kam 138.015 nach – eine Kooperationsrate von 64 Prozent.  Apple erhielt 11.712 Anfragen, davon wurden 7.894 erfüllt – eine Kooperationsrate von 67 Prozent.  Microsoft erhielt 107.029 Anfragen und kam 67.402 nach – eine Kooperationsrate von 63 Prozent.  Surfshark weist in seinem Bericht auch auf ein anderes bedenkliches Phänomen hin – den deutlichen Anstieg von Notfallanfragen, die gängige rechtliche Verfahren umgehen. Seit 2013 seien in Notfällen 153.000 Anfragen zu Nutzerdaten gestellt worden, allein im ersten Quartal 2024 rund 15.000. Tendenz offenbar steigend, wie Zahlen aus Deutschland belegen. Hierzulande hätten Behörden in der ersten Hälfte des Jahres 2024 Notfallanfragen für 661 Nutzerkonten gestellt – verglichen mit 418 im ersten Halbjahr 2023. Das entspricht einem Anstieg von 58 Prozent.  Schmaler Grat zwischen Schutz und Missbrauch „Notfallanfragen werden typischerweise in Situationen gestellt, in denen eine unmittelbare Gefahr für Leben oder schwere Verletzungen besteht, zum Beispiel bei Suizidandrohungen oder Amokläufen an Schulen“, erläutert Goda Sukackaite, Datenschutzexpertin bei Surfshark. Besorgniserregend sei jedoch, dass solche dringenden Anfragen von Regierungen oder Strafverfolgungsbehörden häufig ohne richterliche Anordnung oder Vorladung gestellt würden, um schnell auf Nutzerdaten zuzugreifen und Schaden zu verhindern. Regierungen verlangen Zugriff auf immer mehr Nutzerkonten.Surfshark „Sollten Regierungen diese Methoden missbräuchlich anwenden – beispielsweise durch eine übermäßig weite Interpretation des Begriffs ‚Bedrohung‘ – könnte dies in Massenüberwachung, der Sammlung enormer Datenmengen und der Gefährdung fundamentaler Freiheiten resultieren“, warnt Sukachaite. Notfallanfragen erfüllten zwar eine wichtige Rolle beim Schutz von Leben und öffentlicher Sicherheit, erforderten jedoch auch eine sorgfältige Regulierung und Aufsicht, um individuelle Rechte zu schützen und Missbrauch zu verhindern. Google bekommt die meisten Notfallanfragen Behörden in Großbritannien stellten von 2013 bis Mitte 2024 weltweit die meisten Notfallanfragen (26 Prozent und 40.000 Konten). Deutschland belegt in Europa den dritten Platz bei den Notfallanfragen und kommt weltweit auf einen Anteil von zwei Prozent (3.000 Konten).  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/073Ftu9wc76gPLEDqyfOwb?utm_source=oembed”> Von den Big-Tech-Konzernen veröffentlichen Google, Microsoft und Apple Zahlen zu erhaltenen Notfallanfragen, während Meta diese nicht separat ausweist. Google erhielt 85 Prozent aller Notfallanfragen und war zwischen 2013 und 2015 das einzige Unternehmen, das diese berichtete. 2013 erhielt Google 392 Anfragen, 2023 waren es bereits 25.500. Bei Apple liefen zehn Prozent aller Notfallanfragen auf, bei Microsoft fünf Prozent. Beide Unternehmen zeigen ähnliche Trends wie Google.  

Behörden weiten Zugriff auf Nutzerkonten aus​ Behörden nehmen weltweit immer mehr Nutzerkonten ins Visier und verlangen Einblick von Apple, Google, Meta und Microsoft.AlinStock – shutterstock.com

Regierungen und Behörden weltweit verlangen immer häufiger Zugriff auf Nutzerkonten bei Big Tech-Konzernen wie Apple, Google, Meta und Microsoft. Das zeigt ein Bericht von Surfshark, einem Cybersecurity-Anbieter. Demzufolge hätten seit 2020 rund 190 Regierungen insgesamt 8,4 Millionen Nutzerkonten angefragt. Die Länder mit den meisten Anfragen sind: 

USA (33 Prozent), 

Indien (21 Prozent), 

Brasilien (13 Prozent), 

Deutschland (8 Prozent), 

Großbritannien (3,2 Prozent), 

Frankreich (3,2 Prozent), 

Südkorea (2,8 Prozent), 

Polen (1,9 Prozent), 

Spanien (1,2 Prozent) und 

Italien (0,9 Prozent). 

Laut dem Surfshark-Bericht fordern Regierungen mehr Nutzerdaten an als je zuvor. 2020 seien insgesamt 1,3 Millionen Konten angefragt worden. 2023 lag diese Zahl bereits bei 2,1 Millionen – ein Anstieg um 63 Prozent. Das erste Halbjahr 2024 deutet auf ein weiteres Rekordjahr hin. US- und EU-Behörden würden demzufolge die meisten Anfragen stellen und seien in den Jahren 2013 bis Mitte 2024 für 55 Prozent aller angefragten Konten verantwortlich gewesen. 

Big Tech spielt mit

Dabei steigt auch die Kooperationsbereitschaft von Big Tech. Lag die durchschnittliche Kooperationsrate zwischen 2013 und 2021 bei 70 Prozent, stieg sie von 2022 bis Mitte 2024 auf durchschnittlich 78 Prozent. Die Ergebnisse im Einzelnen: 

Google erhielt 337.919 Anfragen und erfüllte 250.074 davon – eine Kooperationsrate von 74 Prozent. 

Meta erhielt 215.942 Anfragen und kam 138.015 nach – eine Kooperationsrate von 64 Prozent. 

Apple erhielt 11.712 Anfragen, davon wurden 7.894 erfüllt – eine Kooperationsrate von 67 Prozent. 

Microsoft erhielt 107.029 Anfragen und kam 67.402 nach – eine Kooperationsrate von 63 Prozent. 

Surfshark weist in seinem Bericht auch auf ein anderes bedenkliches Phänomen hin – den deutlichen Anstieg von Notfallanfragen, die gängige rechtliche Verfahren umgehen. Seit 2013 seien in Notfällen 153.000 Anfragen zu Nutzerdaten gestellt worden, allein im ersten Quartal 2024 rund 15.000. Tendenz offenbar steigend, wie Zahlen aus Deutschland belegen. Hierzulande hätten Behörden in der ersten Hälfte des Jahres 2024 Notfallanfragen für 661 Nutzerkonten gestellt – verglichen mit 418 im ersten Halbjahr 2023. Das entspricht einem Anstieg von 58 Prozent. 

Schmaler Grat zwischen Schutz und Missbrauch

„Notfallanfragen werden typischerweise in Situationen gestellt, in denen eine unmittelbare Gefahr für Leben oder schwere Verletzungen besteht, zum Beispiel bei Suizidandrohungen oder Amokläufen an Schulen“, erläutert Goda Sukackaite, Datenschutzexpertin bei Surfshark. Besorgniserregend sei jedoch, dass solche dringenden Anfragen von Regierungen oder Strafverfolgungsbehörden häufig ohne richterliche Anordnung oder Vorladung gestellt würden, um schnell auf Nutzerdaten zuzugreifen und Schaden zu verhindern.

Regierungen verlangen Zugriff auf immer mehr Nutzerkonten.Surfshark

„Sollten Regierungen diese Methoden missbräuchlich anwenden – beispielsweise durch eine übermäßig weite Interpretation des Begriffs ‚Bedrohung‘ – könnte dies in Massenüberwachung, der Sammlung enormer Datenmengen und der Gefährdung fundamentaler Freiheiten resultieren“, warnt Sukachaite. Notfallanfragen erfüllten zwar eine wichtige Rolle beim Schutz von Leben und öffentlicher Sicherheit, erforderten jedoch auch eine sorgfältige Regulierung und Aufsicht, um individuelle Rechte zu schützen und Missbrauch zu verhindern.

Google bekommt die meisten Notfallanfragen

Behörden in Großbritannien stellten von 2013 bis Mitte 2024 weltweit die meisten Notfallanfragen (26 Prozent und 40.000 Konten). Deutschland belegt in Europa den dritten Platz bei den Notfallanfragen und kommt weltweit auf einen Anteil von zwei Prozent (3.000 Konten). 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/073Ftu9wc76gPLEDqyfOwb?utm_source=oembed”>

Von den Big-Tech-Konzernen veröffentlichen Google, Microsoft und Apple Zahlen zu erhaltenen Notfallanfragen, während Meta diese nicht separat ausweist. Google erhielt 85 Prozent aller Notfallanfragen und war zwischen 2013 und 2015 das einzige Unternehmen, das diese berichtete. 2013 erhielt Google 392 Anfragen, 2023 waren es bereits 25.500. Bei Apple liefen zehn Prozent aller Notfallanfragen auf, bei Microsoft fünf Prozent. Beide Unternehmen zeigen ähnliche Trends wie Google. 

Behörden weiten Zugriff auf Nutzerkonten aus​ Weiterlesen »

Allianz zwischen OpenAI und Google Cloud​

Allgemein

OpenAI fährt mehrgleisig und will künftig neben der Azure-Infrastruktur von Microsoft auch Ressourcen aus der Google Cloud nutzen. Tada Images – shutterstock.com Eigentlich sind OpenAI und Google Cloud Konkurrenten im Bereich der Künstlichen Intelligenz (KI). Doch im Mai 2025 haben das Start-Up und der Techriese überraschend eine Partnerschaft vereinbart, wie das Nachrichtenportal Reuters berichtete. Ziel der Kooperation ist offenbar, OpenAIs wachsenden Bedarf an Rechenkapazitäten zu decken. Google Cloud ergänzt Azure Der abgeschlossene Cloud-Deal markiert eine strategische Abkehr der ChatGPT-Macher von der bisherigen exklusiven Partnerschaft mit Microsoft Azure. Diese besteht seit 2019 und wurde in den letzten Jahren durch erhebliche Investitionen von Microsoft intensiviert. OpenAI nutzt nun zusätzlich Googles Cloud-Infrastruktur, um seine KI-Modelle effizienter zu betreiben, wobei die Alphabet-Tochter dafür zusätzliche Rechenkapazitäten bereitstellt. Der Deal ist Teil einer Reihe von Maßnahmen von OpenAI, ihre Rechenressourcen zu diversifizieren. TPUs als Schlüssel Für Google ist die Aufnahme von OpenAI als Cloud-Kunde ein Beleg für die erfolgreiche Nutzung eigener Tensor Processing Units (TPUs), so Reuters. Diese wurden speziell für KI-Aufgaben entwickelt und sollen es Google ermöglichen, sich als bevorzugter Cloud-Anbieter für KI-Startups zu positionieren. Zusätzlich sollen die Chips Google dabei helfen, im Cloud-Wettbewerb mit Amazon und Microsoft im Cloud-Markt konkurrenzfähig zu bleiben. Trotz der strategischen Vorteile für Google birgt der Deal allerdings auch das Risiko, einen direkten Wettbewerber zu stärken. Denn Googles KI-Abteilung DeepMind steht bei der Entwicklung von KI-Modellen und -Tools in direktem Wettbewerb mit OpenAI. Sundar Pichai, CEO von Google deutete jedoch im Mai 2025 an, dass es im KI-Rennen nicht unbedingt einen eindeutigen Sieger geben muss. Neue Allianzen trotz Konkurrenz Die Partnerschaft zwischen OpenAI und Google Cloud verdeutlicht auf jeden Fall, wie der immense Bedarf an KI-Rechenleistung traditionelle Wettbewerbsgrenzen verändert und neue Kooperationsformen ermöglicht. Während OpenAI seine Infrastruktur breiter aufstellt, um den steigenden Anforderungen gerecht zu werden, nutzt Google die Gelegenheit, seine Cloud-Strategie im KI-Wettbewerb weiter auszubauen. 

Allianz zwischen OpenAI und Google Cloud​ OpenAI fährt mehrgleisig und will künftig neben der Azure-Infrastruktur von Microsoft auch Ressourcen aus der Google Cloud nutzen.
Tada Images – shutterstock.com

Eigentlich sind OpenAI und Google Cloud Konkurrenten im Bereich der Künstlichen Intelligenz (KI). Doch im Mai 2025 haben das Start-Up und der Techriese überraschend eine Partnerschaft vereinbart, wie das Nachrichtenportal Reuters berichtete. Ziel der Kooperation ist offenbar, OpenAIs wachsenden Bedarf an Rechenkapazitäten zu decken.

Google Cloud ergänzt Azure

Der abgeschlossene Cloud-Deal markiert eine strategische Abkehr der ChatGPT-Macher von der bisherigen exklusiven Partnerschaft mit Microsoft Azure. Diese besteht seit 2019 und wurde in den letzten Jahren durch erhebliche Investitionen von Microsoft intensiviert.

OpenAI nutzt nun zusätzlich Googles Cloud-Infrastruktur, um seine KI-Modelle effizienter zu betreiben, wobei die Alphabet-Tochter dafür zusätzliche Rechenkapazitäten bereitstellt. Der Deal ist Teil einer Reihe von Maßnahmen von OpenAI, ihre Rechenressourcen zu diversifizieren.

TPUs als Schlüssel

Für Google ist die Aufnahme von OpenAI als Cloud-Kunde ein Beleg für die erfolgreiche Nutzung eigener Tensor Processing Units (TPUs), so Reuters. Diese wurden speziell für KI-Aufgaben entwickelt und sollen es Google ermöglichen, sich als bevorzugter Cloud-Anbieter für KI-Startups zu positionieren.

Zusätzlich sollen die Chips Google dabei helfen, im Cloud-Wettbewerb mit Amazon und Microsoft im Cloud-Markt konkurrenzfähig zu bleiben. Trotz der strategischen Vorteile für Google birgt der Deal allerdings auch das Risiko, einen direkten Wettbewerber zu stärken. Denn Googles KI-Abteilung DeepMind steht bei der Entwicklung von KI-Modellen und -Tools in direktem Wettbewerb mit OpenAI. Sundar Pichai, CEO von Google deutete jedoch im Mai 2025 an, dass es im KI-Rennen nicht unbedingt einen eindeutigen Sieger geben muss.

Neue Allianzen trotz Konkurrenz

Die Partnerschaft zwischen OpenAI und Google Cloud verdeutlicht auf jeden Fall, wie der immense Bedarf an KI-Rechenleistung traditionelle Wettbewerbsgrenzen verändert und neue Kooperationsformen ermöglicht. Während OpenAI seine Infrastruktur breiter aufstellt, um den steigenden Anforderungen gerecht zu werden, nutzt Google die Gelegenheit, seine Cloud-Strategie im KI-Wettbewerb weiter auszubauen.

Allianz zwischen OpenAI und Google Cloud​ Weiterlesen »

Rimini Street verlängert SAP-Support bis 2040​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?quality=50&strip=all 5230w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Rimini Street verspricht, SAP ECC 6.0 noch bis 2040 am Leben zu erhalten, 36 Jahre nach der Einführung. Kwangmoozaa – Shutterstock.com Kosten und Komplexität der Migration sind die Hauptgründe dafür, dass viele SAP-Kunden mit dem Wechsel auf S/4Hana zögern. Laut Gartner waren Ende 2024 nur etwa 39 Prozent (14.000 von 35.000) der ECC-Kunden zu S/4HANA migriert. Wird dieses Schneckentempo beibehalten, wären bis zum Ablauf der Deadline 2027 noch rund 17.000 Unternehmen bei ECC, so die Analysten. Selbst 2030 könnten laut Gartner noch 13.000 Unternehmen mit dem alten ERP-System arbeiten.  Geht es nach Rimini Street, sind sogar noch zehn weitere Jahre drin. Der Anbieter von Enterprise-Software-Support hat angekündigt, den vollen Support für alle SAP-ECC-6.0- und S/4HANA-Releases bis 2040 zu verlängern – sowohl für bestehende als auch für neue Kunden.  Lohnender Migrationsverzicht  Mit der Ankündigung positioniert sich das Unternehmen aus Las Vegas als Alternative für SAP-Kunden, die ihre aktuellen ECC-6.0- oder S/4HANA-Systeme über die offiziellen SAP-Wartungsfristen hinaus betreiben möchten. Sie könnten dabei nicht nur die Kosten und Risiken einer Migration zu S/4HANA auf RISE vermeiden, sondern auch jährliche Wartungseinsparungen von bis zu 90 Prozent erzielen, stellt Rimini Street in Aussicht.  „SAP-Lizenznehmer müssen keine hohen Kosten, Risiken und Betriebsunterbrechungen für eine Softwaremigration auf sich nehmen, die viele für unnötig und wenig wertstiftend halten“, erklärt Seth Ravin, CEO von Rimini Street, „verglichen mit dem sofortigen Nutzwert, den neue Technologien wie KI, Workflow- und Aufgabenautomatisierung bringen können.”  “Schon jetzt haben unsere Kunden neun Milliarden Dollar an IT-Betriebskosten eingespart und finanzieren Innovationen selbst, um sie voranzutreiben, ohne durch unnötige, kostspielige und riskante Upgrades, Migrationen oder Replatforming-Initiativen ausgebremst zu werden“, führt Ravin aus.  Die Company hat Rimini Support für SAP vor über fünfzehn Jahren eingeführt und unterstützt derzeit nach eigenen Angaben Hunderte von SAP-ECC-6.0- und S/4HANA-Kunden.   Das Ende von ERP wie wir es heute kennen „Wir sagen voraus, dass sich die Zukunft von ERP in den nächsten fünf bis zehn Jahren für immer verändern wird. ERP-Software wird durch neue, schnellere und flexiblere agentenbasierte ERP-Prozesse ersetzt, die wir bereits für unsere Kunden einsetzen“, so Ravin weiter. Der Rimini-Street-Chef verwies damit auf eine Partnerschaft, die das Unternehmen im Oktober 2025 mit ServiceNow eingegangen war. Die dieser Kooperation entsprungene, neue Lösung kombiniert die Now-Plattform von ServiceNow mit Rimini Support und Rimini Manage.   „Die Systeme des zwanzigsten Jahrhunderts haben ein Chaos an Komplexität geschaffen, das die Innovation des 21. Jahrhunderts behindert“, erklärte Bill McDermott, ServiceNow-CEO und früherer SAP-Chef, damals. “Durch die Partnerschaft von ServiceNow mit Rimini Street erhalten Kunden eine einheitliche, intelligente Plattform, mit der sie ihre bestehenden Software-Investitionen maximieren können, um einen schnelleren Weg zur Transformation zu finden.“   Die Mainstream-Wartung von SAP für ECC 6.0 läuft bis 2027, aber für die Enhancement Packages 0 bis 5 ist das Enddatum der 31. Dezember 2025. Ähnlich verhält es sich bei SAP S/4HANA, wo die Mainstream Maintenance je nach Version bereits abgelaufen ist oder 2025, 2026 oder 2027 enden wird. Die erweiterte Wartung von SAP ist für einige Versionen von ECC 6.0 und S/4HANA verfügbar, aber nicht für alle – und geht mit einem erheblichen Kostenanstieg einher.   

Rimini Street verlängert SAP-Support bis 2040​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?quality=50&strip=all 5230w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2417123887_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Rimini Street verspricht, SAP ECC 6.0 noch bis 2040 am Leben zu erhalten, 36 Jahre nach der Einführung. Kwangmoozaa – Shutterstock.com

Kosten und Komplexität der Migration sind die Hauptgründe dafür, dass viele SAP-Kunden mit dem Wechsel auf S/4Hana zögern. Laut Gartner waren Ende 2024 nur etwa 39 Prozent (14.000 von 35.000) der ECC-Kunden zu S/4HANA migriert. Wird dieses Schneckentempo beibehalten, wären bis zum Ablauf der Deadline 2027 noch rund 17.000 Unternehmen bei ECC, so die Analysten. Selbst 2030 könnten laut Gartner noch 13.000 Unternehmen mit dem alten ERP-System arbeiten. 

Geht es nach Rimini Street, sind sogar noch zehn weitere Jahre drin. Der Anbieter von Enterprise-Software-Support hat angekündigt, den vollen Support für alle SAP-ECC-6.0- und S/4HANA-Releases bis 2040 zu verlängern – sowohl für bestehende als auch für neue Kunden. 

Lohnender Migrationsverzicht 

Mit der Ankündigung positioniert sich das Unternehmen aus Las Vegas als Alternative für SAP-Kunden, die ihre aktuellen ECC-6.0- oder S/4HANA-Systeme über die offiziellen SAP-Wartungsfristen hinaus betreiben möchten. Sie könnten dabei nicht nur die Kosten und Risiken einer Migration zu S/4HANA auf RISE vermeiden, sondern auch jährliche Wartungseinsparungen von bis zu 90 Prozent erzielen, stellt Rimini Street in Aussicht. 

„SAP-Lizenznehmer müssen keine hohen Kosten, Risiken und Betriebsunterbrechungen für eine Softwaremigration auf sich nehmen, die viele für unnötig und wenig wertstiftend halten“, erklärt Seth Ravin, CEO von Rimini Street, „verglichen mit dem sofortigen Nutzwert, den neue Technologien wie KI, Workflow- und Aufgabenautomatisierung bringen können.”  “Schon jetzt haben unsere Kunden neun Milliarden Dollar an IT-Betriebskosten eingespart und finanzieren Innovationen selbst, um sie voranzutreiben, ohne durch unnötige, kostspielige und riskante Upgrades, Migrationen oder Replatforming-Initiativen ausgebremst zu werden“, führt Ravin aus. 

Die Company hat Rimini Support für SAP vor über fünfzehn Jahren eingeführt und unterstützt derzeit nach eigenen Angaben Hunderte von SAP-ECC-6.0- und S/4HANA-Kunden.  

Das Ende von ERP wie wir es heute kennen

„Wir sagen voraus, dass sich die Zukunft von ERP in den nächsten fünf bis zehn Jahren für immer verändern wird. ERP-Software wird durch neue, schnellere und flexiblere agentenbasierte ERP-Prozesse ersetzt, die wir bereits für unsere Kunden einsetzen“, so Ravin weiter. Der Rimini-Street-Chef verwies damit auf eine Partnerschaft, die das Unternehmen im Oktober 2025 mit ServiceNow eingegangen war. Die dieser Kooperation entsprungene, neue Lösung kombiniert die Now-Plattform von ServiceNow mit Rimini Support und Rimini Manage.  

„Die Systeme des zwanzigsten Jahrhunderts haben ein Chaos an Komplexität geschaffen, das die Innovation des 21. Jahrhunderts behindert“, erklärte Bill McDermott, ServiceNow-CEO und früherer SAP-Chef, damals. “Durch die Partnerschaft von ServiceNow mit Rimini Street erhalten Kunden eine einheitliche, intelligente Plattform, mit der sie ihre bestehenden Software-Investitionen maximieren können, um einen schnelleren Weg zur Transformation zu finden.“  

Die Mainstream-Wartung von SAP für ECC 6.0 läuft bis 2027, aber für die Enhancement Packages 0 bis 5 ist das Enddatum der 31. Dezember 2025. Ähnlich verhält es sich bei SAP S/4HANA, wo die Mainstream Maintenance je nach Version bereits abgelaufen ist oder 2025, 2026 oder 2027 enden wird. Die erweiterte Wartung von SAP ist für einige Versionen von ECC 6.0 und S/4HANA verfügbar, aber nicht für alle – und geht mit einem erheblichen Kostenanstieg einher.  

Rimini Street verlängert SAP-Support bis 2040​ Weiterlesen »

Nach oben scrollen
×