Computerhaus Quickborn

Juni 2025

2,4 GHz oder Bluetooth: Welche Drahtlostechnik ist besser?​

Allgemein

Bose Für maximale Leistung und Stabilität ist 2,4 Gigahertz häufig die bevorzugte Wahl, während Bluetooth mit Vielseitigkeit wie auch Energieeffizienz überzeugt. Die 2,4-Gigahertz-Technik, auch bekannt als USB-RF, nutzt einen kleinen USB-Dongle, um Geräte mit dem Rechner zu verbinden. Diese proprietäre Technik findet besonders im Gaming-Bereich Anwendung, da sie eine höhere Bandbreite und geringere Latenzen ermöglicht. Bluetooth hingegen erreicht eine maximale Abfragerate von 125 Hertz mit einer Latenzzeit von etwa acht Millisekunden. Viele 2,4-GHz-Geräte bieten allerdings Abfrageraten von 1000 Hertz oder mehr, was eine wesentlich schnellere Reaktionszeit ermöglicht. Neuere Modelle, wie etwa die Tastatur Corsair K70 Pro TKL, schaffen sogar 8000 Hertz (Hyper-Polling). Moderne Tastaturen arbeiten selbst im 2,4-GHz-Modus weit über der 1000-Hertz-Marke. Zum Beispiel sorgt Corsairs Technik Axon für 8000 Hertz Hyper-Polling, um die Abtastrate von Peripheriegeräten wie Tastaturen zu erhöhen.Corsair Obwohl beide Drahtlostechniken dasselbe Frequenzband benutzen, legt Bluetooth den Fokus auf kurze Reichweiten wie auch einen niedrigen Energieverbrauch. Dadurch kommt es zu einer geringeren Bandbreite und einer höheren Anfälligkeit für Störungen. Tests zeigen jedoch, dass 2,4 Gigahertz unter gleichen Bedingungen sowohl schneller als auch stabiler ist, was insbesondere bei rechenintensiven Anwendungen wie Gaming oder hochauflösendem Audio-Streaming von Vorteil ist. Ein wesentlicher Nachteil der 2,4-Gigahertz-Technik ist jedoch ihre Proprietät. Jeder Hersteller verwendet ein eigenes System, was zur Folge hat, dass für verschiedene Geräte oftmals mehrere Dongles erforderlich sind. Selbst bei einem einzigen Hersteller können Kompatibilitätsprobleme auftreten: So bietet Logitech zum Beispiel die Techniken „Lightspeed“, „Unifying Receiver“ und „Logi Bolt“ an, die nicht miteinander kompatibel sind. Geht ein Dongle verloren oder funktioniert er nicht mehr, kann es teuer werden. Denn anders als bei universellen Bluetooth-Dongles müssen die Ersatzteile genau zum jeweiligen Gerät passen und können bis zu 40 Euro kosten. 2,4 Gigahertz und Bluetooth sind zwei Wireless-Techniken, die jeweils Vor- und Nachteile mitbringen. Mittlerweile gibt es viele Peripheriegeräte wie Tastaturen, Mäuse oder auch Kopfhörer (hier von Steelseries), die beides unterstützen.Steelseries Bluetooth punktet dagegen damit, dass sich die Drahtlostechnik universell einsetzen lässt. Viele Geräte wie etwa Smartphones, Tablets, Fernseher oder Laptops unterstützen Bluetooth standardmäßig, sodass kein zusätzlicher Dongle notwendig ist. Außerdem überzeugt Bluetooth durch die hohe Energieeffizienz, was zu längeren Akkulaufzeiten führt. Für den Büroalltag sowie einfache Anwendungen bietet Bluetooth in der Regel eine ausreichende Leistung – besonders bei Mäusen und Tastaturen. Für Gamer und Nutzer mit hohen Anforderungen weist Bluetooth allerdings klare Schwächen auf. Die höhere Latenz macht die Technik für kompetitive Spiele ungeeignet, überdies beeinträchtigt die geringere Bandbreite die Audioqualität. Vor allem bei drahtlosen Headsets wird der Unterschied deutlich: 2,4 Gigahertz bietet stabilere Verbindungen und eine höhere Klangauflösung. Auch die geringere Reichweite von Bluetooth kann problematisch sein, etwa wenn Sie sich weiter vom PC entfernen oder durch mehrere Räume bewegen. Mittlerweile bieten immer mehr Hersteller (hier beispielsweise Turtle Beach) die Möglichkeit, zwischen den Drahtlostechniken 2,4 Gigahertz und Bluetooth umzuschalten. So lassen sich die Vorteile beider Verbindungsverfahren flexibel nutzen.Turtle Beach Ideal sind Lösungen, die sowohl 2,4 GHz als auch Bluetooth unterstützen. Solche hybriden Geräte sind vor allem bei drahtlosen mechanischen Tastaturen verbreitet und werden zunehmend auch bei Mäusen und Headsets angeboten. Aufgrund ihrer Vielseitigkeit können Anwender flexibel zwischen den Wireless-Techniken wechseln und die Vorteile beider Systeme nutzen. Und sollte ein Dongle verloren gehen, lässt sich das Gerät zumindest über Bluetooth weiterverwenden. Letztlich hängt die Wahl zwischen 2,4 Gigahertz und Bluetooth von den individuellen Bedürfnissen ab. Während 2,4 Gigahertz für maximale Leistung und Stabilität sorgt, überzeugt Bluetooth durch universalen Einsatz und Energieeffizienz. Um die Störanfälligkeit beider Verfahren zu minimieren, sollten Sie die Geräte möglichst in Sichtweite und nahe am Empfänger positionieren. So lassen sich die jeweiligen Stärken optimal ausschöpfen.(PC-Welt) 

2,4 GHz oder Bluetooth: Welche Drahtlostechnik ist besser?​ Bose

Für maximale Leistung und Stabilität ist 2,4 Gigahertz häufig die bevorzugte Wahl, während Bluetooth mit Vielseitigkeit wie auch Energieeffizienz überzeugt. Die 2,4-Gigahertz-Technik, auch bekannt als USB-RF, nutzt einen kleinen USB-Dongle, um Geräte mit dem Rechner zu verbinden.

Diese proprietäre Technik findet besonders im Gaming-Bereich Anwendung, da sie eine höhere Bandbreite und geringere Latenzen ermöglicht. Bluetooth hingegen erreicht eine maximale Abfragerate von 125 Hertz mit einer Latenzzeit von etwa acht Millisekunden.

Viele 2,4-GHz-Geräte bieten allerdings Abfrageraten von 1000 Hertz oder mehr, was eine wesentlich schnellere Reaktionszeit ermöglicht. Neuere Modelle, wie etwa die Tastatur Corsair K70 Pro TKL, schaffen sogar 8000 Hertz (Hyper-Polling).

Moderne Tastaturen arbeiten selbst im 2,4-GHz-Modus weit über der 1000-Hertz-Marke. Zum Beispiel sorgt Corsairs Technik Axon für 8000 Hertz Hyper-Polling, um die Abtastrate von Peripheriegeräten wie Tastaturen zu erhöhen.Corsair

Obwohl beide Drahtlostechniken dasselbe Frequenzband benutzen, legt Bluetooth den Fokus auf kurze Reichweiten wie auch einen niedrigen Energieverbrauch. Dadurch kommt es zu einer geringeren Bandbreite und einer höheren Anfälligkeit für Störungen.

Tests zeigen jedoch, dass 2,4 Gigahertz unter gleichen Bedingungen sowohl schneller als auch stabiler ist, was insbesondere bei rechenintensiven Anwendungen wie Gaming oder hochauflösendem Audio-Streaming von Vorteil ist.

Ein wesentlicher Nachteil der 2,4-Gigahertz-Technik ist jedoch ihre Proprietät. Jeder Hersteller verwendet ein eigenes System, was zur Folge hat, dass für verschiedene Geräte oftmals mehrere Dongles erforderlich sind. Selbst bei einem einzigen Hersteller können Kompatibilitätsprobleme auftreten:

So bietet Logitech zum Beispiel die Techniken „Lightspeed“, „Unifying Receiver“ und „Logi Bolt“ an, die nicht miteinander kompatibel sind. Geht ein Dongle verloren oder funktioniert er nicht mehr, kann es teuer werden. Denn anders als bei universellen Bluetooth-Dongles müssen die Ersatzteile genau zum jeweiligen Gerät passen und können bis zu 40 Euro kosten.

2,4 Gigahertz und Bluetooth sind zwei Wireless-Techniken, die jeweils Vor- und Nachteile mitbringen. Mittlerweile gibt es viele Peripheriegeräte wie Tastaturen, Mäuse oder auch Kopfhörer (hier von Steelseries), die beides unterstützen.Steelseries

Bluetooth punktet dagegen damit, dass sich die Drahtlostechnik universell einsetzen lässt. Viele Geräte wie etwa Smartphones, Tablets, Fernseher oder Laptops unterstützen Bluetooth standardmäßig, sodass kein zusätzlicher Dongle notwendig ist.

Außerdem überzeugt Bluetooth durch die hohe Energieeffizienz, was zu längeren Akkulaufzeiten führt. Für den Büroalltag sowie einfache Anwendungen bietet Bluetooth in der Regel eine ausreichende Leistung – besonders bei Mäusen und Tastaturen.

Für Gamer und Nutzer mit hohen Anforderungen weist Bluetooth allerdings klare Schwächen auf. Die höhere Latenz macht die Technik für kompetitive Spiele ungeeignet, überdies beeinträchtigt die geringere Bandbreite die Audioqualität.

Vor allem bei drahtlosen Headsets wird der Unterschied deutlich: 2,4 Gigahertz bietet stabilere Verbindungen und eine höhere Klangauflösung. Auch die geringere Reichweite von Bluetooth kann problematisch sein, etwa wenn Sie sich weiter vom PC entfernen oder durch mehrere Räume bewegen.

Mittlerweile bieten immer mehr Hersteller (hier beispielsweise Turtle Beach) die Möglichkeit, zwischen den Drahtlostechniken 2,4 Gigahertz und Bluetooth umzuschalten. So lassen sich die Vorteile beider Verbindungsverfahren flexibel nutzen.Turtle Beach

Ideal sind Lösungen, die sowohl 2,4 GHz als auch Bluetooth unterstützen. Solche hybriden Geräte sind vor allem bei drahtlosen mechanischen Tastaturen verbreitet und werden zunehmend auch bei Mäusen und Headsets angeboten.

Aufgrund ihrer Vielseitigkeit können Anwender flexibel zwischen den Wireless-Techniken wechseln und die Vorteile beider Systeme nutzen. Und sollte ein Dongle verloren gehen, lässt sich das Gerät zumindest über Bluetooth weiterverwenden.

Letztlich hängt die Wahl zwischen 2,4 Gigahertz und Bluetooth von den individuellen Bedürfnissen ab. Während 2,4 Gigahertz für maximale Leistung und Stabilität sorgt, überzeugt Bluetooth durch universalen Einsatz und Energieeffizienz. Um die Störanfälligkeit beider Verfahren zu minimieren, sollten Sie die Geräte möglichst in Sichtweite und nahe am Empfänger positionieren. So lassen sich die jeweiligen Stärken optimal ausschöpfen.(PC-Welt)

2,4 GHz oder Bluetooth: Welche Drahtlostechnik ist besser?​ Weiterlesen »

Smartphone als mobilen Hotspot nutzen – so geht’s und das bringt es​

Allgemein

Who is Danny/Shutterstock.com Ein Android-Smartphone lässt sich im Handumdrehen in einen WLAN-Router verwandeln. So surfen Sie mit Notebook, Tablet oder anderen Geräten unterwegs über Ihre mobile Datenverbindung und können sich Internetsticks und Co. sparen. Lesen Sie, wie Sie Ihr Handy als Hotspot einrichten und worauf Sie achten sollten. Definition: Was ist ein mobiler Hotspot – und was bedeutet Tethering? Wenn ein Smartphone die eigene mobile Internetverbindung mit anderen Geräten teilt, spricht man von einem sogenannten Hotspot. Diese Funktion verwandelt das Handy in einen WLAN-Router, über den sich Geräte wie Laptops, Tablets oder andere Smartphones ins Internet einwählen können. Die Verbindung erfolgt in der Regel über WLAN, es gibt aber auch andere Möglichkeiten wie Bluetooth-Tethering oder USB-Tethering. Tethering ist der übergeordnete Begriff und umfasst alle Arten der Internetfreigabe durch ein Smartphone – unabhängig davon, ob diese über WLAN, Bluetooth oder USB erfolgt. Am verbreitetsten und für die meisten Nutzer am praktischsten ist das WLAN-Tethering, also der mobile Hotspot. So richten Sie den WLAN-Hotspot auf einem Android-Smartphone ein Die Hotspot-Funktion ist seit vielen Jahren fester Bestandteil von Android und lässt sich in wenigen Schritten aktivieren. Die genaue Bezeichnung der Menüpunkte kann je nach Hersteller und Android-Version leicht abweichen, die Vorgehensweise ist jedoch im Prinzip immer gleich: Gehen Sie in die Einstellungen Ihres Android-Smartphones. Tippen Sie dort auf „Netzwerk & Internet“ oder „Verbindungen“ – je nach Gerät kann die Bezeichnung leicht variieren. Wählen Sie anschließend „Mobile Hotspot und Tethering“ oder „Mobiler Hotspot“ aus. Aktivieren Sie nun den Hotspot, indem Sie den Schieberegler bei „Mobile Hotspot“ beziehungsweise “WLAN-Hotspot” einschalten. Wenn Sie auf die Option tippen, können Sie zusätzlich den Namen des Netzwerks (SSID) bearbeiten und ein sicheres Passwort festlegen. Möchten Sie jetzt beispielsweise Ihren Laptop oder ein anderes Gerät verbinden, gehen Sie wie bei einem normalen WLAN vor: Öffnen Sie die WLAN-Einstellungen des Geräts, suchen Sie nach verfügbaren Netzwerken, wählen Sie Ihren Hotspot aus und geben Sie das Passwort ein. Das Gerät verbindet sich dann mit dem Hotspot und greift zum Surfen auf die mobilen Daten Ihres Smartphones zu. Über die mobile Hotspot-Funktion verwandeln Sie Ihr Android-Handy in einen WLAN-Router.PC-Welt Was Sie beim mobilen Hotspot unter Android beachten sollten Beim Einrichten und Nutzen eines mobilen Hotspots sollten Sie einige Punkte beachten, um Probleme zu vermeiden und die Sicherheit zu gewährleisten: Ein aktiver Hotspot verbraucht das mobile Datenvolumen Ihres Tarifs – und zwar für alle verbundenen Geräte. Wenn Sie also mit Laptop, Tablet oder anderen Smartphones gleichzeitig surfen, summiert sich der Verbrauch schnell. Den aktuellen Datenverbrauch können Sie direkt unter Einstellungen > Netzwerk & Internet > Datennutzung einsehen. Auch die Akkulaufzeit leidet bei eingeschaltetem Hotspot deutlich. Am besten schließen Sie das Smartphone während der Nutzung an ein Ladegerät oder eine Powerbank an, besonders bei längeren Sitzungen oder intensiver Nutzung. Vergeben Sie ein starkes Passwort und nutzen Sie als Verschlüsselung WPA2 oder idealerweise WPA3. Diese Einstellungen finden Sie, wenn Sie auf die “Mobile Hotspot”-Funktion tippen. Standardmäßig schalten viele Android-Geräte den Hotspot nach einer gewissen Zeit ohne aktive Verbindung automatisch ab. Auch diese Zeitspanne lässt sich anpassen: Tippen Sie unter “Mobile Hotspot” auf das Feld “Bereich” mit Angabe des WLAN-Frequenzbands (unter Name und Passwort) und dort auf “Erweitert” oder “Erweiterte Optionen”. Suchen Sie nach einer Option wie “Ausschalten, wenn keine Geräteverbindung für …” und stellen Sie eine bevorzugte Minutenzahl an. Unter den Frequenzband-Einstellungen finden Sie weitere Möglichkeiten, den mobilen Hotspot zu konfigurieren.PC-Welt (PC-Welt) 

Smartphone als mobilen Hotspot nutzen – so geht’s und das bringt es​ Who is Danny/Shutterstock.com

Ein Android-Smartphone lässt sich im Handumdrehen in einen WLAN-Router verwandeln. So surfen Sie mit Notebook, Tablet oder anderen Geräten unterwegs über Ihre mobile Datenverbindung und können sich Internetsticks und Co. sparen. Lesen Sie, wie Sie Ihr Handy als Hotspot einrichten und worauf Sie achten sollten.

Definition: Was ist ein mobiler Hotspot – und was bedeutet Tethering?

Wenn ein Smartphone die eigene mobile Internetverbindung mit anderen Geräten teilt, spricht man von einem sogenannten Hotspot. Diese Funktion verwandelt das Handy in einen WLAN-Router, über den sich Geräte wie Laptops, Tablets oder andere Smartphones ins Internet einwählen können. Die Verbindung erfolgt in der Regel über WLAN, es gibt aber auch andere Möglichkeiten wie Bluetooth-Tethering oder USB-Tethering.

Tethering ist der übergeordnete Begriff und umfasst alle Arten der Internetfreigabe durch ein Smartphone – unabhängig davon, ob diese über WLAN, Bluetooth oder USB erfolgt. Am verbreitetsten und für die meisten Nutzer am praktischsten ist das WLAN-Tethering, also der mobile Hotspot.

So richten Sie den WLAN-Hotspot auf einem Android-Smartphone ein

Die Hotspot-Funktion ist seit vielen Jahren fester Bestandteil von Android und lässt sich in wenigen Schritten aktivieren. Die genaue Bezeichnung der Menüpunkte kann je nach Hersteller und Android-Version leicht abweichen, die Vorgehensweise ist jedoch im Prinzip immer gleich:

Gehen Sie in die Einstellungen Ihres Android-Smartphones.

Tippen Sie dort auf „Netzwerk & Internet“ oder „Verbindungen“ – je nach Gerät kann die Bezeichnung leicht variieren.

Wählen Sie anschließend „Mobile Hotspot und Tethering“ oder „Mobiler Hotspot“ aus.

Aktivieren Sie nun den Hotspot, indem Sie den Schieberegler bei „Mobile Hotspot“ beziehungsweise “WLAN-Hotspot” einschalten. Wenn Sie auf die Option tippen, können Sie zusätzlich den Namen des Netzwerks (SSID) bearbeiten und ein sicheres Passwort festlegen.

Möchten Sie jetzt beispielsweise Ihren Laptop oder ein anderes Gerät verbinden, gehen Sie wie bei einem normalen WLAN vor: Öffnen Sie die WLAN-Einstellungen des Geräts, suchen Sie nach verfügbaren Netzwerken, wählen Sie Ihren Hotspot aus und geben Sie das Passwort ein. Das Gerät verbindet sich dann mit dem Hotspot und greift zum Surfen auf die mobilen Daten Ihres Smartphones zu.

Über die mobile Hotspot-Funktion verwandeln Sie Ihr Android-Handy in einen WLAN-Router.PC-Welt

Was Sie beim mobilen Hotspot unter Android beachten sollten

Beim Einrichten und Nutzen eines mobilen Hotspots sollten Sie einige Punkte beachten, um Probleme zu vermeiden und die Sicherheit zu gewährleisten:

Ein aktiver Hotspot verbraucht das mobile Datenvolumen Ihres Tarifs – und zwar für alle verbundenen Geräte. Wenn Sie also mit Laptop, Tablet oder anderen Smartphones gleichzeitig surfen, summiert sich der Verbrauch schnell. Den aktuellen Datenverbrauch können Sie direkt unter Einstellungen > Netzwerk & Internet > Datennutzung einsehen.

Auch die Akkulaufzeit leidet bei eingeschaltetem Hotspot deutlich. Am besten schließen Sie das Smartphone während der Nutzung an ein Ladegerät oder eine Powerbank an, besonders bei längeren Sitzungen oder intensiver Nutzung.

Vergeben Sie ein starkes Passwort und nutzen Sie als Verschlüsselung WPA2 oder idealerweise WPA3. Diese Einstellungen finden Sie, wenn Sie auf die “Mobile Hotspot”-Funktion tippen.

Standardmäßig schalten viele Android-Geräte den Hotspot nach einer gewissen Zeit ohne aktive Verbindung automatisch ab. Auch diese Zeitspanne lässt sich anpassen: Tippen Sie unter “Mobile Hotspot” auf das Feld “Bereich” mit Angabe des WLAN-Frequenzbands (unter Name und Passwort) und dort auf “Erweitert” oder “Erweiterte Optionen”. Suchen Sie nach einer Option wie “Ausschalten, wenn keine Geräteverbindung für …” und stellen Sie eine bevorzugte Minutenzahl an.

Unter den Frequenzband-Einstellungen finden Sie weitere Möglichkeiten, den mobilen Hotspot zu konfigurieren.PC-Welt

(PC-Welt)

Smartphone als mobilen Hotspot nutzen – so geht’s und das bringt es​ Weiterlesen »

Tutorial: Erste Schritte mit Django​

Allgemein

So arbeiten Sie mit Django – dem beliebtesten Web Framework für Python. Foto: attem | shutterstock.com Django wurde von Ruby on Rails inspiriert und verwendet entsprechend in vielen Fällen dieselben Metaphern, um die Webentwicklung möglichst schnell und einfach zu gestalten. Dank seiner zahlreichen Features und Flexibilität hat sich Django inzwischen zum meistgenutzten Web Framework für Python gemausert. Allerdings steht das quelloffene Framework auch im Ruf, äußerst komplex zu sein – zahlreichen Komponenten und einer Menge Konfigurationsoptionen sei Dank. Zur Wahrheit gehört allerdings auch, dass sich einfache Python-Applikationen in relativ überschaubarer Zeit erstellen lassen – deren Funktionalität anschließend nach Bedarf erweitert werden kann. Wie das mit Django geht, erfahren Sie in diesem Tutorial. Django-Kernbibliotheken installieren Um Django 5.0 zu installieren, benötigen Sie mindestens Python 3.10. Falls Sie mit einer älteren Version arbeiten, sollten Sie die Kompatibilität überprüfen. Idealerweise sollten Sie die neueste Python-Version einsetzen. Im ersten Schritt gilt es zunächst, eine virtuelle Umgebung aufzusetzen, in der Django installiert werden kann. Auf diese Weise separieren Sie Django und die zugehörigen Libraries von Ihrer Python-Basisinstallation. Tipp Um mehrere Projekte mit einer einzigen Instanz von Django zu erstellen, müssen Sie nicht auf Virtual Environments zurückgreifen. Sie benötigen diese lediglich, um verschiedene Punktversionen des Django-Frameworks mit jeweils unterschiedlichen Projekten zu isolieren. Anschließend installieren Sie Django in der von Ihnen gewählten virtuellen Umgebung mit Pythons pip-Utility: pip install django Damit werden die zentralen Django-Bibliotheken und das Kommandozeilen-Tool django-admin installiert. Letzteres kommt zum Einsatz, um Django-Projekte zu managen. Django-Projekt neu aufsetzen Django-Instanzen sind in zwei Kategorien organisiert – Projects und Apps. Ein Project ist eine Django-Instanz mit eigener Datenbankkonfiguration, eigenen Settings und eigenen Apps. Ein Django-Projekt könnte man sich als einen Ort vorstellen, an dem sämtliche Konfigurationen gespeichert sind, die auf Site-Ebene verwendet werden. Eine App ist eine Unterkategorie eines Projekts, mit eigener Route und Rendering-Logik. Mehrere Apps können in einem einzelnen Django-Projekt untergebracht werden. Um ein neues Django-Projekt anzulegen, müssen Sie zunächst das Verzeichnis angeben, indem Sie das Project speichern möchten: django-admin startproject Dabei ist zugleich der Name des Projekts und des Unterverzeichnisses, in dem das Projekt gespeichert werden soll. Das neu erstellte Verzeichnis sollte eine Datei namens manage.py enthalten. Mit dieser wird das Verhalten der Applikation über die Kommandozeile gesteuert. Darüber hinaus sollte ein weiteres Unterverzeichnis vorhanden sein, das die folgenden Dateien enthält: __init__.py wird von Python verwendet, um ein Unterverzeichnis als Codemodul zu kennzeichnen. settings.py enthält die für das Projekt verwendeten Einstellungen. Die gebräuchlichsten Einstellungen werden vorausgefüllt. urls.py listet die Routes oder URLs auf, die in Ihrem Django-Projekt zur Verfügung stehen oder für die das Projekt Antworten liefert. wsgi.py wird von WSGI-kompatiblen Webservern wie Apache HTTP oder Nginx verwendet, um die Apps in Ihrem Projekts zu bedienen. asgi.py wird von ASGI-kompatiblen Webservern verwendet wird, um die Apps in Ihrem Projekt zu bedienen. ASGI ist ein relativ neuer Standard für asynchrone Server und Anwendungen und erfordert einen Support-Server wie uvicorn. Django unterstützt erst seit kurzem nativ asynchrone Anwendungen. Diese müssen ebenfalls auf einem Async-kompatiblen Server gehostet werden, um wirklich effektiv zu sein. Als Nächstes testen Sie das Projekt, um sicherzustellen, dass es funktioniert. Füttern Sie dazu die Befehlszeile in dem Verzeichnis, in dem sich die Datei manage.py Ihres Projekts befindet, mit folgendem Kommando: python manage.py runserver Dieser Befehl startet einen Development Web Server, der unter der URL http://127.0.0.1:8000/ abrufbar ist. Wenn die Installation erfolgreich war, sehen Sie dort eine Willkommensseite. Zu beachten ist dabei, dass der Development Web Server nicht geeignet ist, um öffentlich zugängliche Django-Projekte bereitzustellen – er ist ausschließlich für lokale Tests gedacht. Django-App erstellen Im nächsten Schritt erstellen wir eine Anwendung im eben aufgesetzten Projekt. Wechseln Sie dazu in das Verzeichnis von manage.py und nutzen Sie den Befehl: python manage.py startapp myapp Hierdurch wird ein Unterverzeichnis für eine Anwendung namens myapp erstellt, das folgende Inhalte aufweist: Ein migrations-Verzeichnis, dessen Code verwendet wird, um die Site zwischen ihren Datenschema-Versionen zu migrieren. Django-Projekte nutzen für gewöhnlich eine Datenbank – entsprechend wird deren Schema (sowie Änderungen daran) im Rahmen des Projekts verwaltet. admin.py enthält Objekte, die von Djangos integrierten Administrations-Tools genutzt werden. Wenn Ihre Anwendung ein Admin Interface oder privilegierte Benutzer hat, werden die entsprechenden Objekte hier konfiguriert. apps.py stellt dem gesamten Projekt Konfigurationsinformationen über die Anwendung in Form eines AppConfig-Objekts zur Verfügung. models.py enthält Objekte, die Datenstrukturen definieren. Diese werden von der Applikation als Schnittstelle zu Datenbanken genutzt. tests.py beinhaltet sämtliche Tests, die die Funktionalität der Webseite und ihrer Module sicherstellen. views.py enthält Funktionen, um Antworten zu rendern und zurückzugeben. Um mit der Django-Anwendung arbeiten zu können, müssen Sie sie zunächst im Projekt registrieren. Dazu bearbeiten Sie myproj/settings.py wie folgt: INSTALLED_APPS = [ “myapp.apps.MyappConfig”, “django.contrib.admin”, … Das vorgenerierte Objekt MyappConfig, auf das wir hier referenzieren, finden Sie in der Datei myproj/myapp/apps.py. Routes und Views zu Django-Apps hinzufügen Um Requests zu verarbeiten, folgen Django-Applikationen einem grundlegenden Muster: Wenn eine Anfrage eingeht, analysiert Django die URL, um eine Route zu finden, auf die sie angewendet werden kann. Routes werden in urls.py definiert, wobei jede Route mit einem View verknüpft ist – also einer Funktion, die Daten zurückgibt, die an den Client gesendet werden. Views können überall in einem Django-Projekt platziert werden, sind aber idealerweise in eigenen Modulen organisiert. Views können die Ergebnisse eines Templates beinhalten, also Code, der angeforderte Daten auf Grundlage bestimmter Designstandards formatiert. Um eine Vorstellung davon zu bekommen, wie all diese Teile zusammenpassen, wollen wir im nächsten Schritt die Standard-Route unserer Beispielanwendung so verändern, dass sie eine benutzerdefinierte Nachricht zurückgibt. Routes werden wie bereits erwähnt in urls.py definiert – in einer Liste namens urlpatterns. Wenn Sie die Datei öffnen, sehen Sie, dass urlpatterns dabei bereits vordefiniert ist: urlpatterns = [ path(‘admin/’, admin.site.urls), ] Die path-Funktion ist in Django integriert und generiert aus einer Route und einer View-Funktion eine Referenz zu einem URL-Pfad. Standardmäßig erstellt Django einen admin-Pfad, der für die Website-Administration verwendet wird. Um eigene Routes zu erstellen, verändern Sie die Datei wie folgt: from django.contrib import admin from django.urls import include, path urlpatterns = [ path(‘admin/’, admin.site.urls), path(‘myapp/’, include(‘myapp.urls’)) ] Die include-Funktion weist Django an, in myapp.urls nach weiteren Informationen über Route Patterns zu suchen. Alle in dieser Datei gefundenen Routes werden an die Top-Level-Route myapp angehängt (beispielsweise http://127.0.0.1:8080/myapp). Nun erstellen Sie eine neue urls.py-Datei in myapp und fügen hinzu: from django.urls import path from . import views urlpatterns = [ path(”, views.index) ] Django stellt jeder URL einen Slash (/) voran. Um das Root-Verzeichnis der Seite zu spezifizieren, nutzen Sie einen Blank String als URL. Bearbeiten Sie nun die Datei myapp/views.py folgendermaßen: from django.http import HttpResponse def index(request): return HttpResponse(“Hello, world!”) Bei django.http.HttpResponse handelt es sich um eine Django-Integration, die eine HTTP-Antwort aus einem übergebenen String generiert. Dabei ist zu beachten, dass request (das die Informationen für eine eingehende HTTP-Anfrage enthält), als erster Parameter an eine view-Funktion übergeben werden muss. Starten Sie den Entwicklungs-Web-Server anschließend neu und navigieren Sie zu http://127.0.0.1:8000/myapp/. Sie sollten nun “Hello, World!” in Ihrem Browser sehen. Routes mit Variablen hinzufügen Django akzeptiert Routes, die im Rahmen ihrer Syntax Variablen enthalten. Angenommen, Sie wollen URLs akzeptieren, die das Format year/ aufweisen. Das könnten Sie umsetzen, indem Sie urlpatterns um folgenden Eintrag ergänzen: path(‘year/’, views.year) Die Funktion views.year würde dann über Routes wie year/1996, year/2010, et cetera aufgerufen werden. Dabei wird die Variable year als Parameter an views.year übergeben. Um das selbst auszuprobieren, fügen Sie obigen urlpatterns-Eintrag zu myapp/urls.py hinzu und ergänzen myapp/views.py um folgende Funktion: def year(request, year): return HttpResponse(‘Year: {}’.format(year)) Wenn Sie auf Ihrer Website nun zu /myapp/year/2010 navigieren, sollte als Antwort Year: 2010 angezeigt werden. Dabei ist zu beachten, dass Routen wie /myapp/year/rutabaga zu einem Fehler führen. Das liegt daran, dass die Einschränkung int: für die Variable year an dieser Stelle nur eine Ganzzahl zulässt. Ganz allgemein sind für Routes viele weitere Formatierungsoptionen verfügbar. Frühere Versionen von Django wiesen eine komplexere Syntax für Routes auf, die schwer zu parsen war. Falls Sie dennoch Routes mit der alten Syntax hinzufügen müssen – beispielsweise, um Abwärtskompatibilität mit älteren Django-Projekten zu gewährleisten – können Sie dazu die Funktion django.urls.re_path verwenden, die Routen mit regulären Ausdrücken matcht. Django Templates Mit Hilfe von Djangos integrierter Template-Sprache lassen sich Webseiten aus Daten generieren. Die Templates für Django-Apps werden in einem zentralen Projektverzeichnis abgelegt: /templates//. Für unser myapp-Projekt würde der Verzeichnisname myapp/templates/myapp/ lauten. Diese Struktur mag auf den ersten Blick umständlich erscheinen. Dadurch, dass Django an mehreren Stellen nach Templates suchen kann, werden allerdings Namenskollisionen zwischen gleichnamigen Templates geräteübergreifend vermieden. Erstellen Sie nun in myapp/templates/myapp/ eine Datei namens year.html mit folgendem Inhalt: Year: {{year}} Jeder Wert innerhalb der doppelten geschweiften Klammern wird als Variable behandelt. Ändern Sie nun myapp/views.py ab, so dass sich folgendes Bild ergibt: from django.shortcuts import render from django.http import HttpResponse def index(request): return HttpResponse(“Hello, world!”) def year(request, year): data = {‘year’:year} return render(request, ‘myapp/year.html’, data) Die render-Funktion ist ein Django-Shortcut und bezieht sich auf das request-Objekt. Sie durchsucht die Liste der verfügbaren Template-Speicherorte nach myapp/year.html und übergibt das Dictionary data als Template-Kontext. Das Template nutzt das Dictionary als Namespace für Variablen, die dort zur Anwendung kommen. Ist das der Fall, wird die Variable {{year}} innerhalb des Templates durch den Wert des Keys year im Dictionary data ersetzt (data[“year”]). Der Umfang der Datenverarbeitung in Django-Templates ist absichtlich limitiert. Das liegt an der Philosophie von Django, Präsentations- und Business-Logik – wann immer möglich – voneinander zu trennen. Sie können also über iterierbare Objekte loopen und if/then/else-Tests fahren – Daten innerhalb eines Templates zu ändern, ist jedoch nicht zu empfehlen. Ein einfacher if-Test ließe sich folgendermaßen realisieren: {% if year > 2000 %} 21st century year: {{year}} {% else %} Pre-21st century year: {{year}} {% endif %} Die {% x %}-Markierungen grenzen dabei die Codeblöcke ab, die in der Template-Sprache von Django ausgeführt werden können. Sie können darüber hinaus auch anspruchsvollere Template-Sprachen verwenden: Django enthält beispielsweise eine Backend-Integration für Jinja2. Ganz allgemein können Sie jedoch jede Template-Sprache einsetzen, die einen String zurückgibt. Django kann noch mehr Dieses Tutorial deckt lediglich die absoluten Django-Basics ab. Das Python Web Framework enthält eine Vielzahl weiterer Komponenten für den Einsatz in Web-Development-Projekten. Ein abschließender, kurzer Überblick: Datenbanken und Datenmodelle: Mit dem in Django integrierten ORM lassen sich Datenstrukturen und -beziehungen für Ihre Anwendung sowie Migrationspfade zwischen diesen definieren. Forms: Django bietet einen konsistenten Weg, um zu gewährleisten, dass views den Benutzern Input Forms bereitstellen, um Daten abzurufen, die Ergebnisse zu normalisieren und konsistente Reportings zu generieren. Security und Utilities: Django enthält diverse integrierte Funktionen für Caching-, Logging- und Session-Handling-Zwecke sowie um mit statischen Daten umzugehen und URLs zu normalisieren. Auch für allgemeine Sicherheitsbedürfnisse stehen entsprechende Tool-Bundles zur Verfügung. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Tutorial: Erste Schritte mit Django​ So arbeiten Sie mit Django – dem beliebtesten Web Framework für Python.
Foto: attem | shutterstock.com

Django wurde von Ruby on Rails inspiriert und verwendet entsprechend in vielen Fällen dieselben Metaphern, um die Webentwicklung möglichst schnell und einfach zu gestalten. Dank seiner zahlreichen Features und Flexibilität hat sich Django inzwischen zum meistgenutzten Web Framework für Python gemausert.

Allerdings steht das quelloffene Framework auch im Ruf, äußerst komplex zu sein – zahlreichen Komponenten und einer Menge Konfigurationsoptionen sei Dank. Zur Wahrheit gehört allerdings auch, dass sich einfache Python-Applikationen in relativ überschaubarer Zeit erstellen lassen – deren Funktionalität anschließend nach Bedarf erweitert werden kann. Wie das mit Django geht, erfahren Sie in diesem Tutorial.

Django-Kernbibliotheken installieren

Um Django 5.0 zu installieren, benötigen Sie mindestens Python 3.10. Falls Sie mit einer älteren Version arbeiten, sollten Sie die Kompatibilität überprüfen. Idealerweise sollten Sie die neueste Python-Version einsetzen.

Im ersten Schritt gilt es zunächst, eine virtuelle Umgebung aufzusetzen, in der Django installiert werden kann. Auf diese Weise separieren Sie Django und die zugehörigen Libraries von Ihrer Python-Basisinstallation.

Tipp

Um mehrere Projekte mit einer einzigen Instanz von Django zu erstellen, müssen Sie nicht auf Virtual Environments zurückgreifen. Sie benötigen diese lediglich, um verschiedene Punktversionen des Django-Frameworks mit jeweils unterschiedlichen Projekten zu isolieren.

Anschließend installieren Sie Django in der von Ihnen gewählten virtuellen Umgebung mit Pythons pip-Utility:

pip install django

Damit werden die zentralen Django-Bibliotheken und das Kommandozeilen-Tool django-admin installiert. Letzteres kommt zum Einsatz, um Django-Projekte zu managen.

Django-Projekt neu aufsetzen

Django-Instanzen sind in zwei Kategorien organisiert – Projects und Apps.

Ein Project ist eine Django-Instanz mit eigener Datenbankkonfiguration, eigenen Settings und eigenen Apps. Ein Django-Projekt könnte man sich als einen Ort vorstellen, an dem sämtliche Konfigurationen gespeichert sind, die auf Site-Ebene verwendet werden.

Eine App ist eine Unterkategorie eines Projekts, mit eigener Route und Rendering-Logik. Mehrere Apps können in einem einzelnen Django-Projekt untergebracht werden.

Um ein neues Django-Projekt anzulegen, müssen Sie zunächst das Verzeichnis angeben, indem Sie das Project speichern möchten:

django-admin startproject

Dabei ist zugleich der Name des Projekts und des Unterverzeichnisses, in dem das Projekt gespeichert werden soll. Das neu erstellte Verzeichnis sollte eine Datei namens manage.py enthalten. Mit dieser wird das Verhalten der Applikation über die Kommandozeile gesteuert. Darüber hinaus sollte ein weiteres Unterverzeichnis vorhanden sein, das die folgenden Dateien enthält:

__init__.py wird von Python verwendet, um ein Unterverzeichnis als Codemodul zu kennzeichnen.

settings.py enthält die für das Projekt verwendeten Einstellungen. Die gebräuchlichsten Einstellungen werden vorausgefüllt.

urls.py listet die Routes oder URLs auf, die in Ihrem Django-Projekt zur Verfügung stehen oder für die das Projekt Antworten liefert.

wsgi.py wird von WSGI-kompatiblen Webservern wie Apache HTTP oder Nginx verwendet, um die Apps in Ihrem Projekts zu bedienen.

asgi.py wird von ASGI-kompatiblen Webservern verwendet wird, um die Apps in Ihrem Projekt zu bedienen. ASGI ist ein relativ neuer Standard für asynchrone Server und Anwendungen und erfordert einen Support-Server wie uvicorn. Django unterstützt erst seit kurzem nativ asynchrone Anwendungen. Diese müssen ebenfalls auf einem Async-kompatiblen Server gehostet werden, um wirklich effektiv zu sein.

Als Nächstes testen Sie das Projekt, um sicherzustellen, dass es funktioniert. Füttern Sie dazu die Befehlszeile in dem Verzeichnis, in dem sich die Datei manage.py Ihres Projekts befindet, mit folgendem Kommando:

python manage.py runserver

Dieser Befehl startet einen Development Web Server, der unter der URL http://127.0.0.1:8000/ abrufbar ist. Wenn die Installation erfolgreich war, sehen Sie dort eine Willkommensseite. Zu beachten ist dabei, dass der Development Web Server nicht geeignet ist, um öffentlich zugängliche Django-Projekte bereitzustellen – er ist ausschließlich für lokale Tests gedacht.

Django-App erstellen

Im nächsten Schritt erstellen wir eine Anwendung im eben aufgesetzten Projekt. Wechseln Sie dazu in das Verzeichnis von manage.py und nutzen Sie den Befehl:

python manage.py startapp myapp

Hierdurch wird ein Unterverzeichnis für eine Anwendung namens myapp erstellt, das folgende Inhalte aufweist:

Ein migrations-Verzeichnis, dessen Code verwendet wird, um die Site zwischen ihren Datenschema-Versionen zu migrieren. Django-Projekte nutzen für gewöhnlich eine Datenbank – entsprechend wird deren Schema (sowie Änderungen daran) im Rahmen des Projekts verwaltet.

admin.py enthält Objekte, die von Djangos integrierten Administrations-Tools genutzt werden. Wenn Ihre Anwendung ein Admin Interface oder privilegierte Benutzer hat, werden die entsprechenden Objekte hier konfiguriert.

apps.py stellt dem gesamten Projekt Konfigurationsinformationen über die Anwendung in Form eines AppConfig-Objekts zur Verfügung.

models.py enthält Objekte, die Datenstrukturen definieren. Diese werden von der Applikation als Schnittstelle zu Datenbanken genutzt.

tests.py beinhaltet sämtliche Tests, die die Funktionalität der Webseite und ihrer Module sicherstellen.

views.py enthält Funktionen, um Antworten zu rendern und zurückzugeben.

Um mit der Django-Anwendung arbeiten zu können, müssen Sie sie zunächst im Projekt registrieren. Dazu bearbeiten Sie myproj/settings.py wie folgt:

INSTALLED_APPS = [

“myapp.apps.MyappConfig”,

“django.contrib.admin”,

Das vorgenerierte Objekt MyappConfig, auf das wir hier referenzieren, finden Sie in der Datei myproj/myapp/apps.py.

Routes und Views zu Django-Apps hinzufügen

Um Requests zu verarbeiten, folgen Django-Applikationen einem grundlegenden Muster:

Wenn eine Anfrage eingeht, analysiert Django die URL, um eine Route zu finden, auf die sie angewendet werden kann.

Routes werden in urls.py definiert, wobei jede Route mit einem View verknüpft ist – also einer Funktion, die Daten zurückgibt, die an den Client gesendet werden. Views können überall in einem Django-Projekt platziert werden, sind aber idealerweise in eigenen Modulen organisiert.

Views können die Ergebnisse eines Templates beinhalten, also Code, der angeforderte Daten auf Grundlage bestimmter Designstandards formatiert.

Um eine Vorstellung davon zu bekommen, wie all diese Teile zusammenpassen, wollen wir im nächsten Schritt die Standard-Route unserer Beispielanwendung so verändern, dass sie eine benutzerdefinierte Nachricht zurückgibt.

Routes werden wie bereits erwähnt in urls.py definiert – in einer Liste namens urlpatterns. Wenn Sie die Datei öffnen, sehen Sie, dass urlpatterns dabei bereits vordefiniert ist:

urlpatterns = [

path(‘admin/’, admin.site.urls),

]

Die path-Funktion ist in Django integriert und generiert aus einer Route und einer View-Funktion eine Referenz zu einem URL-Pfad. Standardmäßig erstellt Django einen admin-Pfad, der für die Website-Administration verwendet wird. Um eigene Routes zu erstellen, verändern Sie die Datei wie folgt:

from django.contrib import admin

from django.urls import include, path

urlpatterns = [

path(‘admin/’, admin.site.urls),

path(‘myapp/’, include(‘myapp.urls’))

]

Die include-Funktion weist Django an, in myapp.urls nach weiteren Informationen über Route Patterns zu suchen. Alle in dieser Datei gefundenen Routes werden an die Top-Level-Route myapp angehängt (beispielsweise http://127.0.0.1:8080/myapp).

Nun erstellen Sie eine neue urls.py-Datei in myapp und fügen hinzu:

from django.urls import path

from . import views

urlpatterns = [

path(”, views.index)

]

Django stellt jeder URL einen Slash (/) voran. Um das Root-Verzeichnis der Seite zu spezifizieren, nutzen Sie einen Blank String als URL.

Bearbeiten Sie nun die Datei myapp/views.py folgendermaßen:

from django.http import HttpResponse

def index(request):

return HttpResponse(“Hello, world!”)

Bei django.http.HttpResponse handelt es sich um eine Django-Integration, die eine HTTP-Antwort aus einem übergebenen String generiert. Dabei ist zu beachten, dass request (das die Informationen für eine eingehende HTTP-Anfrage enthält), als erster Parameter an eine view-Funktion übergeben werden muss.

Starten Sie den Entwicklungs-Web-Server anschließend neu und navigieren Sie zu http://127.0.0.1:8000/myapp/. Sie sollten nun “Hello, World!” in Ihrem Browser sehen.

Routes mit Variablen hinzufügen

Django akzeptiert Routes, die im Rahmen ihrer Syntax Variablen enthalten. Angenommen, Sie wollen URLs akzeptieren, die das Format year/ aufweisen. Das könnten Sie umsetzen, indem Sie urlpatterns um folgenden Eintrag ergänzen:

path(‘year/’, views.year)

Die Funktion views.year würde dann über Routes wie year/1996, year/2010, et cetera aufgerufen werden. Dabei wird die Variable year als Parameter an views.year übergeben. Um das selbst auszuprobieren, fügen Sie obigen urlpatterns-Eintrag zu myapp/urls.py hinzu und ergänzen myapp/views.py um folgende Funktion:

def year(request, year):

return HttpResponse(‘Year: {}’.format(year))

Wenn Sie auf Ihrer Website nun zu /myapp/year/2010 navigieren, sollte als Antwort Year: 2010 angezeigt werden. Dabei ist zu beachten, dass Routen wie /myapp/year/rutabaga zu einem Fehler führen. Das liegt daran, dass die Einschränkung int: für die Variable year an dieser Stelle nur eine Ganzzahl zulässt. Ganz allgemein sind für Routes viele weitere Formatierungsoptionen verfügbar.

Frühere Versionen von Django wiesen eine komplexere Syntax für Routes auf, die schwer zu parsen war. Falls Sie dennoch Routes mit der alten Syntax hinzufügen müssen – beispielsweise, um Abwärtskompatibilität mit älteren Django-Projekten zu gewährleisten – können Sie dazu die Funktion django.urls.re_path verwenden, die Routen mit regulären Ausdrücken matcht.

Django Templates

Mit Hilfe von Djangos integrierter Template-Sprache lassen sich Webseiten aus Daten generieren.

Die Templates für Django-Apps werden in einem zentralen Projektverzeichnis abgelegt: /templates//. Für unser myapp-Projekt würde der Verzeichnisname myapp/templates/myapp/ lauten. Diese Struktur mag auf den ersten Blick umständlich erscheinen. Dadurch, dass Django an mehreren Stellen nach Templates suchen kann, werden allerdings Namenskollisionen zwischen gleichnamigen Templates geräteübergreifend vermieden.

Erstellen Sie nun in myapp/templates/myapp/ eine Datei namens year.html mit folgendem Inhalt:

Year: {{year}}

Jeder Wert innerhalb der doppelten geschweiften Klammern wird als Variable behandelt.

Ändern Sie nun myapp/views.py ab, so dass sich folgendes Bild ergibt:

from django.shortcuts import render

from django.http import HttpResponse

def index(request):

return HttpResponse(“Hello, world!”)

def year(request, year):

data = {‘year’:year}

return render(request, ‘myapp/year.html’, data)

Die render-Funktion ist ein Django-Shortcut und bezieht sich auf das request-Objekt. Sie durchsucht die Liste der verfügbaren Template-Speicherorte nach myapp/year.html und übergibt das Dictionary data als Template-Kontext. Das Template nutzt das Dictionary als Namespace für Variablen, die dort zur Anwendung kommen. Ist das der Fall, wird die Variable {{year}} innerhalb des Templates durch den Wert des Keys year im Dictionary data ersetzt (data[“year”]).

Der Umfang der Datenverarbeitung in Django-Templates ist absichtlich limitiert. Das liegt an der Philosophie von Django, Präsentations- und Business-Logik – wann immer möglich – voneinander zu trennen. Sie können also über iterierbare Objekte loopen und if/then/else-Tests fahren – Daten innerhalb eines Templates zu ändern, ist jedoch nicht zu empfehlen.

Ein einfacher if-Test ließe sich folgendermaßen realisieren:

{% if year > 2000 %}

21st century year: {{year}}

{% else %}

Pre-21st century year: {{year}}

{% endif %}

Die {% x %}-Markierungen grenzen dabei die Codeblöcke ab, die in der Template-Sprache von Django ausgeführt werden können.

Sie können darüber hinaus auch anspruchsvollere Template-Sprachen verwenden: Django enthält beispielsweise eine Backend-Integration für Jinja2. Ganz allgemein können Sie jedoch jede Template-Sprache einsetzen, die einen String zurückgibt.

Django kann noch mehr

Dieses Tutorial deckt lediglich die absoluten Django-Basics ab. Das Python Web Framework enthält eine Vielzahl weiterer Komponenten für den Einsatz in Web-Development-Projekten. Ein abschließender, kurzer Überblick:

Datenbanken und Datenmodelle: Mit dem in Django integrierten ORM lassen sich Datenstrukturen und -beziehungen für Ihre Anwendung sowie Migrationspfade zwischen diesen definieren.

Forms: Django bietet einen konsistenten Weg, um zu gewährleisten, dass views den Benutzern Input Forms bereitstellen, um Daten abzurufen, die Ergebnisse zu normalisieren und konsistente Reportings zu generieren.

Security und Utilities: Django enthält diverse integrierte Funktionen für Caching-, Logging- und Session-Handling-Zwecke sowie um mit statischen Daten umzugehen und URLs zu normalisieren. Auch für allgemeine Sicherheitsbedürfnisse stehen entsprechende Tool-Bundles zur Verfügung.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Tutorial: Erste Schritte mit Django​ Weiterlesen »

Business-Intelligence-Software: Die besten BI-Tools​

Allgemein

Die für Ihr Unternehmen passende Business Intelligence Software zu finden, ist keine leichte Aufgabe. Wir zeigen Ihnen die derzeit besten BI Tools. Foto: Sergey Nivens – shutterstock.com Das Datenaufkommen steigt nicht nur im Unternehmensumfeld unaufhörlich. Umso wichtiger ist es, sich auf die Daten zu fokussieren, die relevant sind, um zu umsetzbaren Lösungen für Business-Problemstellungen aller Art zu kommen. Genau das ist es, worum es bei Business Intelligence (BI) geht. BI Tools können dabei unterstützen, die richtigen Daten zu korrelieren und diese dabei so zu visualisieren, dass die Zusammenhänge verständlich werden. Wie simpel sich dieser Prozess gestaltet und wie (gut) sich Daten konkret visualisieren lassen, ist stark abhängig von der gewählten Business Intelligence Software: Es kommt darauf an, dass die Embedded BI zu den Anforderungen des Unternehmens passt. Diese Aufstellung der derzeit besten Business Intelligence Tools soll Sie dabei unterstützen, die für Sie geeignete Lösung zu ermitteln. Folgende BI Tools werden in diesem Artikel behandelt: Board Domo Dundas BI Microsoft Power BI Strategy Oracle Analytics Cloud Qlik SAP SAS Sisense Tableau CRM Spotfire Board Board kombiniert gleich drei Tools in einer Lösung: Business Intelligence, Predictive Analytics und Performance Management laufen in der Software zusammen, die für jeden etwas bieten will – aber sich im Grunde doch eher auf finanzorientierte BI fokussiert. Die Board-Lösung stellt jedoch diverse Module zur Verfügung – beispielsweise für Finanzen (Planung und Konsolidierung), HR (Skills Mapping und Workforce-Planung), Marketing (Social-Media-Analysen, Loyalty Monitoring), Supply Chain (Lieferoptimierung, Zulieferer-Management), Sales (diverse Verkaufsanalysen) und IT (KPIs, Service Levels). Das Unternehmen ist in der Schweiz ansässig und bietet sein BI-Tool in verschiedenen Sprachen an. Seit der letzten Aktualisierung der Software nimmt Board vom MOLAP-Ansatz Abstand und setzt stattdessen auf In-Memory-Berechnungen. Zielgruppe: Enterprise (alle Bereiche, aber Fokus auf Finanzabteilung); besondere Features: Multi Language Support (Englisch, Spanisch, Chinesisch Japanisch, Französisch, Italienisch und Deutsch); Preis: Lizenzkosten sind abhängig von der Rolle des Nutzers; Domo Die Cloud-basierte BI-Plattform Domo setzt in erster Linie auf User-orientierte Dashboards und eine einfache Benutzerführung. Dabei beinhaltet Domo BI-Tools für verschiedene Branchen (etwa Finanzdienstleistung, Healthcare, Manufacturing und Bildung) und auch Rollen (CEOs, Sales, BI- und IT-Profis). CIOs sollten zuerst die Datenintegration mit AWS, Jira, GitHub oder New Relic austesten, bevor sie die mehr als 500 weiteren Integrationsmöglichkeiten zu ihrem Vorteil nutzen. Zielgruppe: CEOs, Sales und Marketing, BI-Profis; besondere Features: zuverlässiges, mobiles Interface; Preis: auf Anfrage; Dundas BI Die BI-Lösung von Dundas, “Data Visualization”, kommt in erster Linie zur Erstellung von Dashboards und Scorecards zum Einsatz. Sie eignet sich darüber hinaus aber auch für Standard- und Ad-hoc-Reportings. Analysen und Visualisierungen werden über ein Web Interface durchgeführt, dass sich an die Skills der Benutzer anpassen lässt: Power User kommen so in den Genuss erweiterter Features. In der neuesten Version des Dundas Business Intelligence Tools erwarten Sie unter anderem eine In-Memory Engine, Natural-Language-Suchabfragen, Trendanalysen, Linux-Support und eine Applikations-Entwicklungsumgebung für spezifische Analysen. Die BI-Lösung richtet sich in erster Linie an Großunternehmen in diversen Branchen und ist auf “Embedded BI” spezialisiert. Zielgruppe: C-Level, HR, Finanzabteilung, Sales, Marketing, Kundenservice; besondere Features: flexibles HTML5-Interface, dass sich an alle Gerätearten anpassen lässt; Preis: richtet sich nach der Anzahl paralleler Nutzer; Microsoft Power BI Mit Hilfe der Power-BI-Desktop-Anwendung für Windows-Systeme können Nutzer Daten aus lokalen oder Cloud-basierten Quellen analysieren und visualisieren sowie die Ergebnisse in Reporting-Form auf der Power-BI-Plattform veröffentlichen. Dabei unterstützt die laut Gartner-Quadrant führende Business-Intelligence-Lösung von Microsoft Data Preparation, Visual-based Discovery, interaktive Dashboards und Augmented Analytics. Die kostenlose Variante der Power BI App richtet sich an einzelne Nutzer während die Pro-Version kollaborative Analysen vereinfachen soll. Die kostenpflichtige Version ermöglicht auch die Einbindung von Raw-Daten über Microsoft Office 365, SharePoint und Teams. Darüber hinaus ist es auch möglich, Unternehmensdaten, die in Microsoft Dynamics 365, Azure SQL Data Warehouse oder Drittanbieterquellen wie Salesforce vorgehalten werden, über Konnektoren einzubinden. Zielgruppe: Microsoft-Nutzer; besondere Features: Mobile App erlaubt Touchscreen-Anmerkungen für Reportings; Preis: kostenlos, Pro-Version für 9,40 Euro monatlich; Strategy Dieser Anbieter adressiert mit einer ganzen Reihe von Deployment-Optionen (Cloud, On-Premises oder Hybrid) diverse Branchen. Ein Drag-and-Drop-Interface hilft den Anwendern dabei, benutzerdefinierte Datenvisualisierungen und personalisierte Echtzeit-Dashboards zusammenzustellen. Darüber hinaus bietet das ehemals als MicroStrategy bekannte Unternehmen auch Federated Analytics – Datenquellen wie Tableau, Qlik und Power BI lassen sich also problemlos einbinden. Das BI-Angebot enthält auch einen Enterprise Semantics Graph – der Data Assets indiziert, um Datensilos mit Intelligenz und Echtzeit-Telemtrie auszustatten. Seit der Einführung der One-Plattform setzt MicroStrategy zudem auch massiv auf Generative AI. Zielgruppe: alle Enterprise-Nutzer; besondere Features: die Möglichkeit, Passwörter und Tokens für die Authentifizierung gegen rollenbaserte Identity Badges einzutauschen, die mit Mobilgeräten verknüpft sind; Preis: auf Anfrage; Oracle Analytics Cloud Oracle hat sein 2014 an den Start gegangenes Analytics-Cloud-Angebot zielstrebig ausgebaut. 2020 ergänzte der Konzern sein Offering um HCM aus der Cloud, um Self-Service-Analytics für die Personalabteilung zu verwirklichen. Dabei hat sich Oracle darauf konzentriert, sein Cloud-Angebot (inklusive Reporting- und ML-Features) möglichst intuitiv und benutzerfreundlich zu gestalten. Zu den weiteren Schlüsselfunktionen zählen Data Preparation, Datenkonnektoren, Visualisierungen, Predictive Analytivs, nativer Mobile-App-Support sowie Untertsützung für Embedded Analytics. Zielgruppe: mittlere und große Unternehmen; besondere Features: Conversational Analytics und natürlichsprachliche Suchfunktionen; Preis: ab 162 Dollar pro Monat (OAC Professional Edition mit zehn festgelegten Nutzern); Qlik Analytics / Sense Im Fall von Qlik lautet die Zielsetzung: Jeder im Unternehmen soll auf all seine Daten Zugriff haben – unter Einhaltung der jeweils gültigen Data-Governance-Richtlinien, versteht sich. Die Menge dieser Daten ist in der Lage, die meisten Database Engines in die Knie zu zwingen. Bei Qlik ist man allerdings davon überzeugt, dass die hauseigene “Associative Engine” Datenkorrelationen jeglicher Granularität aus dem Effeff beherrscht und die Suche nach Verbindung deswegen erheblich erleichtert. Inzwischen nutzt diese Datenbank-Engine auch KI- beziehungsweise Machine-Learning-Fähigkeiten. Qlik Sense kommt als Self-Service-BI-Tool wahlweise aus der Cloud oder als On-Premises-Version. Zielgruppe: alle Unternehmen; besondere Features: “Associative Engine”; Preis: Standard-Plan ab 825 Euro pro Monat (25 GB Analysedaten pro Jahr; 20 Benutzer); SAP SAP hatte seine Ambition im Geschäft mit BI-Lösungen erstmals 2008 angemeldet. Die Übernahme von Business Objects für 4,8 Milliarden Euro war die bis dato größte Akquisition der Walldorfer. In den Folgejahren veränderte sich mit der stärkeren Orientierung in Richtung Cloud auch die Business-Intelligence-Strategie von SAP. Im Herbst 2015 präsentierte der Konzern mit “Cloud for Analytics” ein neues BI-Tool. Das Ziel: Den Kunden unter einem gemeinsamen Cloud-Dach verschiedene Funktionen rund um Reporting, Business Intelligence (BI), Planning und Predictive Analytics als integrierte Analytics-Lösung anzubieten. Bei der SAP Analytics Cloud handelt es sich um eine Cloud-native Multitenant-Plattform, auf der eine Reihe verschiedener Funktionen wie Planning oder Predictive Analytics gebündelt angeboten werden. Mit Hilfe eines sogenannten “Digital Boardroom” lassen sich Datenauswertungen visualisieren. Die Verantwortlichen in den Anwenderunternehmen erhielten so Unterstützung für ihre Business-Entscheidungen. SAP arbeitet derzeit mit Hochdruck daran, die Lösungen innerhalb ihres Softwarekosmos besser miteinander zu integrieren. Die Analytics Cloud ist eng mit anderen Cloud-Lösungen wie SuccessFactors und C/4HANA und S/4HANA verdrahtet. Auch mit den klassischen On-premise-Anwendungen lassen sich die Analytics-Tools aus der Cloud verknüpfen. Darüber hinaus geht es für SAP darum, seine Datenmodelle zu harmonisieren – eine wichtige Grundlage für eine funktionierende Analytics-Plattform im Unternehmen. Zielgruppe: vor allem SAP-Anwenderunternehmen; besondere Features: Digital Boardroom als Cockpit für das Management; Preis: hängt von Zahl der Nutzer und den Verknüpfungen mit Fremdapplikationen und Datenquellen ab; SAS SAS bietet über seine Microservices-basierte Plattform Viya das Business-Intelligence-Tool Visual Analytics an. Dieses BI-Werkzeug fokussiert auf die automatische Ermittlung von entscheidenden Relationen in Datenmustern. In der neuesten Version kommen automatische Vorschläge für relevante Faktoren sowie Insights in Form von Visualisierungen und Natural Language Processing hinzu. Weitere Features sind etwa Sentiment-Analysen, die automatische Erstellung von Charts und Maps sowie Datenvorbereitung im Self-Service. Ausgerollt werden kann das BI Tool wahlweise On-Premises, in der Private oder Public Cloud sowie über die Cloud Foundry PaaS. Zielgruppe: Großunternehmen; besondere Features: automatisierte Analysemöglichkeiten; Preis: auf Anfrage; Sisense Der BI Software Stack von Sisense deckt von der Datenbank über ETL und Analytics bis hin zu Visualisierungen sämtliche Bereiche ab. Dabei verspricht das Unternehmen dank einer “In-chip Database Engine” mehr Speed als eine In-Memory-Datenbank. Die neueste Version bringt zudem KI-Fähigkeiten ein. Das Sisense BI Tool steht sowohl On-Premises als auch auf Cloud-Basis zur Verfügung – und stellt dabei Lösungen für die Finanzabteilung, Marketing, Sales, HR, IT, Logistik und den Kundenservice bereit. Die Analytics-Funktionen können darüber hinaus auch für externe User verfügbar gemacht werden, indem sie in Web-Applikationen eingebettet werden. Im September 2019 hat Sisense Periscope Data akquiriert und Advanced Analytics in sein Business-Intelligence-Tool integriert. Zielgruppe: kleine und mittlere Unternehmen; besondere Features: webbasierter Client; Preis: On-Demand-Angebot, basierend auf jährlicher Gebühr für Software und Service; Spotfire Spotfire ist eine KI-getriebene Self-Service-Plattform für Dashboards, interaktive Visualisierungen, Data Preparation und Workflows. Durch die Einbindung von Machine Learning können auch komplexe Datenmodelle erstellt werden. Ein Deployment bietet sich in diversen vertikalen Branchen an – zum Beispiel Finanzdienstleistungen, Energie, produzierende Industrie, Einzelhandel, Touristik und Logistik, Healthcare oder Life Sciences. Das Business Intelligence Tool unterstützt außerdem die Programmiersprache Python. Zielgruppe: Analysten und Datenwissenschaftler; besondere Features: Data-Science-Techniken, Geo Analytics und Echtzeit-Streaming von Daten (NLP), Python Support; Preis: auf Anfrage; Tableau CRM Nachdem Tableau im August 2019 von Salesforce aufgekauft wurde, wurden die BI-Angebote der beiden Unternehmen zusammengeführt – inklusive der von Salesforce bekannten Predictive- und Prescriptive-Analytics-Funktionen. Das Ziel: Self-Service unternehmensweit auch auf den Bereich Daten auszuweiten. Ein erstes Produkt der Integration von Tableau und Salesforce ist die KI- und Machine-Learning-Plattform “Einstein Discovery”. Damit können Nutzer auch eigene prädiktive Modelle aus ihren Daten erzeugen. Darüber hinaus stehen nicht nur branchenspezifische Templates, sondern auch maßgeschneiderte Tools für Sales, Services, Marketing und IT zur Verfügung. Zielgruppe: Salesforce-Nutzer; besondere Features: KI; Preis: ab 35 Dollar pro Monat und Benutzer (Enterprise Viewer); Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Business-Intelligence-Software: Die besten BI-Tools​ Die für Ihr Unternehmen passende Business Intelligence Software zu finden, ist keine leichte Aufgabe. Wir zeigen Ihnen die derzeit besten BI Tools.
Foto: Sergey Nivens – shutterstock.com

Das Datenaufkommen steigt nicht nur im Unternehmensumfeld unaufhörlich. Umso wichtiger ist es, sich auf die Daten zu fokussieren, die relevant sind, um zu umsetzbaren Lösungen für Business-Problemstellungen aller Art zu kommen. Genau das ist es, worum es bei Business Intelligence (BI) geht.

BI Tools können dabei unterstützen, die richtigen Daten zu korrelieren und diese dabei so zu visualisieren, dass die Zusammenhänge verständlich werden. Wie simpel sich dieser Prozess gestaltet und wie (gut) sich Daten konkret visualisieren lassen, ist stark abhängig von der gewählten Business Intelligence Software: Es kommt darauf an, dass die Embedded BI zu den Anforderungen des Unternehmens passt.

Diese Aufstellung der derzeit besten Business Intelligence Tools soll Sie dabei unterstützen, die für Sie geeignete Lösung zu ermitteln. Folgende BI Tools werden in diesem Artikel behandelt:

Board

Domo

Dundas BI

Microsoft Power BI

Strategy

Oracle Analytics Cloud

Qlik

SAP

SAS

Sisense

Tableau CRM

Spotfire

Board

Board kombiniert gleich drei Tools in einer Lösung: Business Intelligence, Predictive Analytics und Performance Management laufen in der Software zusammen, die für jeden etwas bieten will – aber sich im Grunde doch eher auf finanzorientierte BI fokussiert. Die Board-Lösung stellt jedoch diverse Module zur Verfügung – beispielsweise für Finanzen (Planung und Konsolidierung), HR (Skills Mapping und Workforce-Planung), Marketing (Social-Media-Analysen, Loyalty Monitoring), Supply Chain (Lieferoptimierung, Zulieferer-Management), Sales (diverse Verkaufsanalysen) und IT (KPIs, Service Levels). Das Unternehmen ist in der Schweiz ansässig und bietet sein BI-Tool in verschiedenen Sprachen an. Seit der letzten Aktualisierung der Software nimmt Board vom MOLAP-Ansatz Abstand und setzt stattdessen auf In-Memory-Berechnungen.

Zielgruppe: Enterprise (alle Bereiche, aber Fokus auf Finanzabteilung);

besondere Features: Multi Language Support (Englisch, Spanisch, Chinesisch Japanisch, Französisch, Italienisch und Deutsch);

Preis: Lizenzkosten sind abhängig von der Rolle des Nutzers;

Domo

Die Cloud-basierte BI-Plattform Domo setzt in erster Linie auf User-orientierte Dashboards und eine einfache Benutzerführung. Dabei beinhaltet Domo BI-Tools für verschiedene Branchen (etwa Finanzdienstleistung, Healthcare, Manufacturing und Bildung) und auch Rollen (CEOs, Sales, BI- und IT-Profis). CIOs sollten zuerst die Datenintegration mit AWS, Jira, GitHub oder New Relic austesten, bevor sie die mehr als 500 weiteren Integrationsmöglichkeiten zu ihrem Vorteil nutzen.

Zielgruppe: CEOs, Sales und Marketing, BI-Profis;

besondere Features: zuverlässiges, mobiles Interface;

Preis: auf Anfrage;

Dundas BI

Die BI-Lösung von Dundas, “Data Visualization”, kommt in erster Linie zur Erstellung von Dashboards und Scorecards zum Einsatz. Sie eignet sich darüber hinaus aber auch für Standard- und Ad-hoc-Reportings. Analysen und Visualisierungen werden über ein Web Interface durchgeführt, dass sich an die Skills der Benutzer anpassen lässt: Power User kommen so in den Genuss erweiterter Features. In der neuesten Version des Dundas Business Intelligence Tools erwarten Sie unter anderem eine In-Memory Engine, Natural-Language-Suchabfragen, Trendanalysen, Linux-Support und eine Applikations-Entwicklungsumgebung für spezifische Analysen. Die BI-Lösung richtet sich in erster Linie an Großunternehmen in diversen Branchen und ist auf “Embedded BI” spezialisiert.

Zielgruppe: C-Level, HR, Finanzabteilung, Sales, Marketing, Kundenservice;

besondere Features: flexibles HTML5-Interface, dass sich an alle Gerätearten anpassen lässt;

Preis: richtet sich nach der Anzahl paralleler Nutzer;

Microsoft Power BI

Mit Hilfe der Power-BI-Desktop-Anwendung für Windows-Systeme können Nutzer Daten aus lokalen oder Cloud-basierten Quellen analysieren und visualisieren sowie die Ergebnisse in Reporting-Form auf der Power-BI-Plattform veröffentlichen. Dabei unterstützt die laut Gartner-Quadrant führende Business-Intelligence-Lösung von Microsoft Data Preparation, Visual-based Discovery, interaktive Dashboards und Augmented Analytics.

Die kostenlose Variante der Power BI App richtet sich an einzelne Nutzer während die Pro-Version kollaborative Analysen vereinfachen soll. Die kostenpflichtige Version ermöglicht auch die Einbindung von Raw-Daten über Microsoft Office 365, SharePoint und Teams. Darüber hinaus ist es auch möglich, Unternehmensdaten, die in Microsoft Dynamics 365, Azure SQL Data Warehouse oder Drittanbieterquellen wie Salesforce vorgehalten werden, über Konnektoren einzubinden.

Zielgruppe: Microsoft-Nutzer;

besondere Features: Mobile App erlaubt Touchscreen-Anmerkungen für Reportings;

Preis: kostenlos, Pro-Version für 9,40 Euro monatlich;

Strategy

Dieser Anbieter adressiert mit einer ganzen Reihe von Deployment-Optionen (Cloud, On-Premises oder Hybrid) diverse Branchen. Ein Drag-and-Drop-Interface hilft den Anwendern dabei, benutzerdefinierte Datenvisualisierungen und personalisierte Echtzeit-Dashboards zusammenzustellen. Darüber hinaus bietet das ehemals als MicroStrategy bekannte Unternehmen auch Federated Analytics – Datenquellen wie Tableau, Qlik und Power BI lassen sich also problemlos einbinden. Das BI-Angebot enthält auch einen Enterprise Semantics Graph – der Data Assets indiziert, um Datensilos mit Intelligenz und Echtzeit-Telemtrie auszustatten. Seit der Einführung der One-Plattform setzt MicroStrategy zudem auch massiv auf Generative AI.

Zielgruppe: alle Enterprise-Nutzer;

besondere Features: die Möglichkeit, Passwörter und Tokens für die Authentifizierung gegen rollenbaserte Identity Badges einzutauschen, die mit Mobilgeräten verknüpft sind;

Preis: auf Anfrage;

Oracle Analytics Cloud

Oracle hat sein 2014 an den Start gegangenes Analytics-Cloud-Angebot zielstrebig ausgebaut. 2020 ergänzte der Konzern sein Offering um HCM aus der Cloud, um Self-Service-Analytics für die Personalabteilung zu verwirklichen. Dabei hat sich Oracle darauf konzentriert, sein Cloud-Angebot (inklusive Reporting- und ML-Features) möglichst intuitiv und benutzerfreundlich zu gestalten. Zu den weiteren Schlüsselfunktionen zählen Data Preparation, Datenkonnektoren, Visualisierungen, Predictive Analytivs, nativer Mobile-App-Support sowie Untertsützung für Embedded Analytics.

Zielgruppe: mittlere und große Unternehmen;

besondere Features: Conversational Analytics und natürlichsprachliche Suchfunktionen;

Preis: ab 162 Dollar pro Monat (OAC Professional Edition mit zehn festgelegten Nutzern);

Qlik Analytics / Sense

Im Fall von Qlik lautet die Zielsetzung: Jeder im Unternehmen soll auf all seine Daten Zugriff haben – unter Einhaltung der jeweils gültigen Data-Governance-Richtlinien, versteht sich. Die Menge dieser Daten ist in der Lage, die meisten Database Engines in die Knie zu zwingen. Bei Qlik ist man allerdings davon überzeugt, dass die hauseigene “Associative Engine” Datenkorrelationen jeglicher Granularität aus dem Effeff beherrscht und die Suche nach Verbindung deswegen erheblich erleichtert. Inzwischen nutzt diese Datenbank-Engine auch KI- beziehungsweise Machine-Learning-Fähigkeiten. Qlik Sense kommt als Self-Service-BI-Tool wahlweise aus der Cloud oder als On-Premises-Version.

Zielgruppe: alle Unternehmen;

besondere Features: “Associative Engine”;

Preis: Standard-Plan ab 825 Euro pro Monat (25 GB Analysedaten pro Jahr; 20 Benutzer);

SAP

SAP hatte seine Ambition im Geschäft mit BI-Lösungen erstmals 2008 angemeldet. Die Übernahme von Business Objects für 4,8 Milliarden Euro war die bis dato größte Akquisition der Walldorfer. In den Folgejahren veränderte sich mit der stärkeren Orientierung in Richtung Cloud auch die Business-Intelligence-Strategie von SAP. Im Herbst 2015 präsentierte der Konzern mit “Cloud for Analytics” ein neues BI-Tool. Das Ziel: Den Kunden unter einem gemeinsamen Cloud-Dach verschiedene Funktionen rund um Reporting, Business Intelligence (BI), Planning und Predictive Analytics als integrierte Analytics-Lösung anzubieten.

Bei der SAP Analytics Cloud handelt es sich um eine Cloud-native Multitenant-Plattform, auf der eine Reihe verschiedener Funktionen wie Planning oder Predictive Analytics gebündelt angeboten werden. Mit Hilfe eines sogenannten “Digital Boardroom” lassen sich Datenauswertungen visualisieren. Die Verantwortlichen in den Anwenderunternehmen erhielten so Unterstützung für ihre Business-Entscheidungen.

SAP arbeitet derzeit mit Hochdruck daran, die Lösungen innerhalb ihres Softwarekosmos besser miteinander zu integrieren. Die Analytics Cloud ist eng mit anderen Cloud-Lösungen wie SuccessFactors und C/4HANA und S/4HANA verdrahtet. Auch mit den klassischen On-premise-Anwendungen lassen sich die Analytics-Tools aus der Cloud verknüpfen. Darüber hinaus geht es für SAP darum, seine Datenmodelle zu harmonisieren – eine wichtige Grundlage für eine funktionierende Analytics-Plattform im Unternehmen.

Zielgruppe: vor allem SAP-Anwenderunternehmen;

besondere Features: Digital Boardroom als Cockpit für das Management;

Preis: hängt von Zahl der Nutzer und den Verknüpfungen mit Fremdapplikationen und Datenquellen ab;

SAS

SAS bietet über seine Microservices-basierte Plattform Viya das Business-Intelligence-Tool Visual Analytics an. Dieses BI-Werkzeug fokussiert auf die automatische Ermittlung von entscheidenden Relationen in Datenmustern. In der neuesten Version kommen automatische Vorschläge für relevante Faktoren sowie Insights in Form von Visualisierungen und Natural Language Processing hinzu. Weitere Features sind etwa Sentiment-Analysen, die automatische Erstellung von Charts und Maps sowie Datenvorbereitung im Self-Service. Ausgerollt werden kann das BI Tool wahlweise On-Premises, in der Private oder Public Cloud sowie über die Cloud Foundry PaaS.

Zielgruppe: Großunternehmen;

besondere Features: automatisierte Analysemöglichkeiten;

Preis: auf Anfrage;

Sisense

Der BI Software Stack von Sisense deckt von der Datenbank über ETL und Analytics bis hin zu Visualisierungen sämtliche Bereiche ab. Dabei verspricht das Unternehmen dank einer “In-chip Database Engine” mehr Speed als eine In-Memory-Datenbank. Die neueste Version bringt zudem KI-Fähigkeiten ein. Das Sisense BI Tool steht sowohl On-Premises als auch auf Cloud-Basis zur Verfügung – und stellt dabei Lösungen für die Finanzabteilung, Marketing, Sales, HR, IT, Logistik und den Kundenservice bereit. Die Analytics-Funktionen können darüber hinaus auch für externe User verfügbar gemacht werden, indem sie in Web-Applikationen eingebettet werden. Im September 2019 hat Sisense Periscope Data akquiriert und Advanced Analytics in sein Business-Intelligence-Tool integriert.

Zielgruppe: kleine und mittlere Unternehmen;

besondere Features: webbasierter Client;

Preis: On-Demand-Angebot, basierend auf jährlicher Gebühr für Software und Service;

Spotfire

Spotfire ist eine KI-getriebene Self-Service-Plattform für Dashboards, interaktive Visualisierungen, Data Preparation und Workflows. Durch die Einbindung von Machine Learning können auch komplexe Datenmodelle erstellt werden. Ein Deployment bietet sich in diversen vertikalen Branchen an – zum Beispiel Finanzdienstleistungen, Energie, produzierende Industrie, Einzelhandel, Touristik und Logistik, Healthcare oder Life Sciences. Das Business Intelligence Tool unterstützt außerdem die Programmiersprache Python.

Zielgruppe: Analysten und Datenwissenschaftler;

besondere Features: Data-Science-Techniken, Geo Analytics und Echtzeit-Streaming von Daten (NLP), Python Support;

Preis: auf Anfrage;

Tableau CRM

Nachdem Tableau im August 2019 von Salesforce aufgekauft wurde, wurden die BI-Angebote der beiden Unternehmen zusammengeführt – inklusive der von Salesforce bekannten Predictive- und Prescriptive-Analytics-Funktionen. Das Ziel: Self-Service unternehmensweit auch auf den Bereich Daten auszuweiten.

Ein erstes Produkt der Integration von Tableau und Salesforce ist die KI- und Machine-Learning-Plattform “Einstein Discovery”. Damit können Nutzer auch eigene prädiktive Modelle aus ihren Daten erzeugen. Darüber hinaus stehen nicht nur branchenspezifische Templates, sondern auch maßgeschneiderte Tools für Sales, Services, Marketing und IT zur Verfügung.

Zielgruppe: Salesforce-Nutzer;

besondere Features: KI;

Preis: ab 35 Dollar pro Monat und Benutzer (Enterprise Viewer);

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Business-Intelligence-Software: Die besten BI-Tools​ Weiterlesen »

Off Rails: Was wurde eigentlich aus Ruby?​

Allgemein

Hat Ruby angesichts der Dominanz von Python und JavaScript noch einen Platz in der Welt der Softwareentwicklung? Foto: Byjeng – shutterstock.com Das Feld der Webentwicklung hat viele Programmiersprachen und Frameworks kommen und gehen sehen. Dabei leuchtete der Stern von Ruby (und der des 2004 eingeführten Frameworks Ruby on Rails) heller als die meisten anderen. Im Jahr 2008 fragte sich unsere US-Schwesterpublikation Infoworld sogar, ob Ruby und Ruby on Rails auf lange Sicht Java ersetzen könnten. Fünfzehn Jahre später erscheint diese Vorstellung abwegig: Im TIOBE-Index, der unter anderem die Popularität von Programmiersprachen erfasst, ist Ruby nicht mehr in den Top 20 vertreten. Java rangiert hingegen hinter Python, C und C++ auf einem respektablen vierten Platz (Stand Mai 2025). Die Karriere- und Skill-Plattform Filtered ermöglicht Bewerbern, potenziellen Arbeitgebern ihre Coding-Skills unter Beweis zu stellen und hat vor einiger Zeit analysiert, welche acht Sprachen zu diesem Zweck am häufigsten zum Einsatz gekommen sind. Dabei kann sich Java mit deutlichem Abstand vor Python positionieren, während Ruby gar nicht erst geführt wird. Laut Filtered wurde die Programmiersprache nur in etwa 0,5 Prozent der Fälle abgefragt beziehungsweise getestet. Trotzdem sollten Sie Ruby noch nicht aufs Abstellgleis zu FORTRAN und ALGOL verfrachten. Wir haben mit (ehemaligen) Ruby-Programmierern über den Aufstieg und Niedergang der Programmiersprache gesprochen und die Gründe dafür erörtert. Dabei sind sich die Experten einig: Ruby hat noch eine Zukunft. Der Aufstieg von Ruby Für den anfänglichen Popularitätsschub von Ruby waren eine Reihe von Faktoren ursächlich. Insbesondere aber die Tatsache, dass sich damit die Frontend-Entwicklung maßgeblich beschleunigen ließ. Daran hat sich nichts geändert, wie Noel Rappin, Co-Autor von “Programming Ruby 3.2”, unterstreicht: “Ruby on Rails befähigt kleine Teams immer noch, die Wirkung eines großen zu erzielen. Es ist nach wie vor einer der schnellsten Wege, um von Null zu einem echten, werthaltigen Produkt zu kommen.” Auch Pulkit Bhardwaj, E-Commerce-Coach bei BoutiqueSetup.net, weiß Ruby weiterhin zu schätzen: “Ruby war und ist noch immer die beste Sprache, wenn es darum geht, dem Benutzer ein solides Frontend-Erlebnis zu bieten. Sie ist für die Endbenutzer einfach zu bedienen und bietet eine stabile, sichere Experience. Zudem bietet Interactive Ruby auch Raum für Experimente.” Ein weiteres Argument für Ruby ist seine von Anbeginn starke Open-Source-Community. Das liegt laut Kevin Trowbridge, CTO der Expertise-Plattform Qwoted, vor allem an der Natur der Sprache selbst: “Ruby ist die ‘gebildetste’ aller Programmiersprachen. Sie ist einfach so intuitiv zu schreiben und zu lesen. Dazu kommt eine Philosophie, die darauf abzielt, das Produkt, die Produktivität und die Entwicklerzufriedenheit zu optimieren.” Allerdings hat es für Ruby und Ruby on Rails dennoch nie zu einer dominanten Marktposition gereicht – auch weil andere Sprachen und Frameworks sich in der Zwischenzeit (weiter)entwickelt haben: “Ruby on Rails tauchte auf, als das Web vor einer Wachstums- und Transformationsphase stand”, erinnert sich Matthew Boeh, Ruby-Entwickler seit 2006. “Von diesem Wachstum konnte Ruby profitieren und es weiter anheizen. Aber es war klar, dass es auch andere Erfolgsgeschichten geben würde. Man könnte sagen, dass Ruby ein Opfer seines eigenen Erfolgs geworden ist, da seine Community eine wichtige treibende Kraft bei der Renaissance der Kommandozeile war”, sagt der Entwickler, der heute beim TypeScript-Unternehmen Lattice tätig ist. Er fügt hinzu: “In den frühen 2000er Jahren hat Ruby Leuten, die noch nie etwas von Lisp gehört hatten, die REPL-gesteuerte Entwicklung nahegebracht und testgesteuertes Development außerhalb der Java-Welt etabliert. Das sind Dinge, die heute als Standard gelten. Natürlich hat Ruby nichts davon ‘erfunden’ – seine Community allerdings für Popularität und Zugänglichkeit gesorgt.” Die Ruby-Herausforderer Wenn es eine Sprache gibt, die heute in den Bereichen dominiert, in denen früher Ruby “herrschte”, ist es JavaScript. Zumindest, seitdem sie dem Browser entkommen konnte, wie Jemiah Sius, Director of Developer Relations beim Cloud-Softwareanbieter New Relic, erläutert: “Mit der Entwicklung von JavaScript zu einer Full-Stack-Sprache wurde es möglich, Frontend-, Backend- und mobile Projekte in einer Sprache oder sogar einer gemeinsamen Codebasis zu entwickeln. Ruby ist leicht zu erlernen, bietet einen sehr hohen Sicherheitsstandard und verfügt über eine aktive Community. Aber wenn jemand an Full-Stack denkt, denkt er an JavaScript, Node.js oder React.” Nach Meinung von Qwoted-CTO Trowbridge konnte JavaScript seinen Rückstand vor allem deshalb aufholen, weil es sich im Laufe der Zeit entscheidend verbessert hat: “Tatsächlich ist JavaScript Ruby im Laufe der Zeit ähnlicher geworden. Die Browser-Hersteller haben sich bemüht, JavaScript zu formalisieren, zu standardisieren, zu vereinfachen und zu optimieren. Heute ist es so viel schöner als damals.” Ruby-Experte Boeh stimmt zu und fügt an: “Das JavaScript-Ökosystem in seiner heutigen Form wäre 2004 noch unvorstellbar gewesen – es brauchte sowohl die Renaissance der Kommandozeile als auch den Durchbruch der Web-Plattform. Wussten Sie, dass es ein ganzes Jahrzehnt dauerte – von 1999 bis 2009 – bis eine einzige neue Version des JavaScript-Standards veröffentlicht wurde? Inzwischen bekommen wir eine pro Jahr. Ruby on Rails wurde eine große Sache zu einer Zeit, in der es noch möglich war, ohne Java-Kenntnisse Full-Stack-Entwickler zu sein.” In einem der angesagtesten Bereiche der Softwareentwicklung – künstliche Intelligenz beziehungsweise Machine Learning – dominiert heute Python. E-Commerce-Experte Bhardwaj kennt die Gründe: “Python wurde in der wissenschaftlichen Gemeinschaft populär, weil es ermöglichte, Modelle und Algorithmen schneller als je zuvor zu entwickeln. Damit war es Ruby, das als langsam in punkto Ausführungsgeschwindigkeit wahrgenommen wurde, um Jahre voraus.” New-Relic-Mann Sius kann sich dem lediglich mit einem Python-Loblied anschließen: “Geht es um eine vielseitige Sprache, mit der man alles von Spielen über VR bis hin zu KI und ML entwickeln kann, weiß jeder: Python ist der klare Gewinner.” Der Niedergang von Ruby Doch es lag nicht nur an den Eigenschaften von Ruby selbst, dass JavaScript und Python die Vorherrschaft erlangten. “Auf dem Papier sind Python und Ruby ziemlich gleichwertig”, analysiert Manager Trowbridge. “Beide sind dynamische, interpretierte Skriptsprachen, die sich am besten auf dem Server machen. Sie nutzen den Speicher nicht sehr effizient und sind daher teuer in der Ausführung, aber sie bieten eine unglaubliche Flexibilität und sind daher auch recht schnell zu schreiben und anfängerfreundlich.” Geht es allerdings um Datenwissenschaft, hat Python die Nase vorn. In erster Linie weil Bibliotheken wie TensorFlow und Keras sofort verfügbar sind. “Diese Frameworks machen es Programmierern leicht, Datenvisualisierungen zu erstellen und Machine-Learning-Programme zu schreiben”, erklärt Bhardwaj. Viele dieser Bibliotheken wurden von Community-Mitgliedern entwickelt, was andere zu Beiträgen inspirierte – ein Schneeballeffekt, den jeder kennt, der sich mit Open Source beschäftigt. Dabei hat allerdings ein großer Player maßgeblichen Einfluss genommen: Google veröffentlichte das Framework TensorFlow, das Python als interne Skriptsprache nutzt. Als Hersteller des dominierenden Webbrowsers hat Google zudem ein offensichtliches Interesse daran, JavaScript zu verbessern – was der Konzern laut Trowbridge auch geschafft hat: “JavaScript ist viel schneller und speichereffizienter als früher. In mancher Hinsicht fühlt es sich fast wie eine Low-Level-Sprache an.” Im Fall von Ruby gibt es keinen Unternehmenssponsor dieser Größe, der Ressourcen bereitstellt, um die Sprache zu verbessern. Dazu kommt: Einige Nischen, die einst Ruby besetzte, gibt es inzwischen nicht mehr, wie Entwickler Boeh aus eigener Erfahrung zu berichten weiß: “Ich habe meine Karriere damit begonnen, Marketing-Websites und Online-Shops für die Kunden einer lokalen Kreativagentur zu erstellen. Meiner Meinung nach wird oft übersehen, wie sehr das untere Ende der Webentwicklungswelt automatisiert wurde. Innerhalb von ein paar Jahren war das gesamte Geschäft nicht mehr lebensfähig – niemand, der einigermaßen mit WordPress oder Shopify zurechtkam, war noch an solchen maßgeschneiderten Websites interessiert.” Warum Ruby dennoch nicht stirbt Dennoch wird Ruby nicht verschwinden – und der E-Commerce-Gigant Shopify ist dafür der Hauptgrund, denn Ruby on Rails ist seine wichtigste Entwicklungsplattform. E-Commerce-Spezialist Bhardwai kann das gut nachvollziehen: “Ruby ist aufgrund seiner dynamischen Funktionalität und Flexibilität immer noch die beste Lösung, um E-Commerce-Anwendungen zu entwickeln. Sie können Ihre App mit verschiedenen Modulen aufbauen und diese später verändern. Das macht es einfacher, zusätzliche Funktionen einzubinden.” Natürlich ist Shopify nicht mit einem Technologie-Gigant wie Google vergleichbar, dennoch bemüht sich das Unternehmen, zu einem Mäzen für Ruby zu werden. So hat Shopify kürzlich den Just-in-Time-Compiler YJIT entwickelt, der die Performance von Ruby optimiert und als Standard akzeptiert wurde. Auch CTO Trowbridge ist sich sicher, dass Ruby und Ruby on Rails weiterhin relevant bleiben werden: “Es gibt viele Sprachen, die nach wie vor stark genutzt werden, auch wenn sie nicht mehr so populär sind, wie sie es einmal waren. Ich würde Java als das beste Beispiel dafür anführen und vermute, dass Ruby und Java eine ähnliche Entwicklung durchlaufen werden.” Und schließlich gibt es ja auch noch die Ruby-Community, die weiterhin mit Enthusiasmus und Hingabe bei der Sache ist. Das findet man nicht bei allen Programmiersprachen – selbst bei einigen nicht, die Ruby in vielen Bereichen übertrumpfen konnten. Cosmin Andriescu, CTO von Lumenova AI, meint zum Beispiel, Ruby on Rails habe mit seiner riesigen Menge an Bibliotheken immer noch einen großen Vorteil gegenüber vielen JavaScript-Frameworks: “Die zeichnen sich vor allem durch instabile APIs und unausgereifte Tools für die Webentwicklung aus.” Boeh charakterisiert Python etwas unverblümter als die Sprache, die die meisten Leute seiner Erfahrung nach absolut hassen würden – und offenbart dann: “Für persönliche Projekte nutze ich immer noch Ruby – und ich hoffe, das auch wieder professionell tun zu können. In der Ruby-Welt gibt es im Moment viele spannende Entwicklungen – und jede Menge Job-Möglichkeiten. Ruby wird vielleicht nie wieder das ‘next big thing’, aber ich bin davon überzeugt, dass es gekommen ist, um zu bleiben.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Off Rails: Was wurde eigentlich aus Ruby?​ Hat Ruby angesichts der Dominanz von Python und JavaScript noch einen Platz in der Welt der Softwareentwicklung?
Foto: Byjeng – shutterstock.com

Das Feld der Webentwicklung hat viele Programmiersprachen und Frameworks kommen und gehen sehen. Dabei leuchtete der Stern von Ruby (und der des 2004 eingeführten Frameworks Ruby on Rails) heller als die meisten anderen. Im Jahr 2008 fragte sich unsere US-Schwesterpublikation Infoworld sogar, ob Ruby und Ruby on Rails auf lange Sicht Java ersetzen könnten. Fünfzehn Jahre später erscheint diese Vorstellung abwegig: Im TIOBE-Index, der unter anderem die Popularität von Programmiersprachen erfasst, ist Ruby nicht mehr in den Top 20 vertreten. Java rangiert hingegen hinter Python, C und C++ auf einem respektablen vierten Platz (Stand Mai 2025).

Die Karriere- und Skill-Plattform Filtered ermöglicht Bewerbern, potenziellen Arbeitgebern ihre Coding-Skills unter Beweis zu stellen und hat vor einiger Zeit analysiert, welche acht Sprachen zu diesem Zweck am häufigsten zum Einsatz gekommen sind. Dabei kann sich Java mit deutlichem Abstand vor Python positionieren, während Ruby gar nicht erst geführt wird. Laut Filtered wurde die Programmiersprache nur in etwa 0,5 Prozent der Fälle abgefragt beziehungsweise getestet.

Trotzdem sollten Sie Ruby noch nicht aufs Abstellgleis zu FORTRAN und ALGOL verfrachten. Wir haben mit (ehemaligen) Ruby-Programmierern über den Aufstieg und Niedergang der Programmiersprache gesprochen und die Gründe dafür erörtert. Dabei sind sich die Experten einig: Ruby hat noch eine Zukunft.

Der Aufstieg von Ruby

Für den anfänglichen Popularitätsschub von Ruby waren eine Reihe von Faktoren ursächlich. Insbesondere aber die Tatsache, dass sich damit die Frontend-Entwicklung maßgeblich beschleunigen ließ. Daran hat sich nichts geändert, wie Noel Rappin, Co-Autor von “Programming Ruby 3.2”, unterstreicht: “Ruby on Rails befähigt kleine Teams immer noch, die Wirkung eines großen zu erzielen. Es ist nach wie vor einer der schnellsten Wege, um von Null zu einem echten, werthaltigen Produkt zu kommen.”

Auch Pulkit Bhardwaj, E-Commerce-Coach bei BoutiqueSetup.net, weiß Ruby weiterhin zu schätzen: “Ruby war und ist noch immer die beste Sprache, wenn es darum geht, dem Benutzer ein solides Frontend-Erlebnis zu bieten. Sie ist für die Endbenutzer einfach zu bedienen und bietet eine stabile, sichere Experience. Zudem bietet Interactive Ruby auch Raum für Experimente.”

Ein weiteres Argument für Ruby ist seine von Anbeginn starke Open-Source-Community. Das liegt laut Kevin Trowbridge, CTO der Expertise-Plattform Qwoted, vor allem an der Natur der Sprache selbst: “Ruby ist die ‘gebildetste’ aller Programmiersprachen. Sie ist einfach so intuitiv zu schreiben und zu lesen. Dazu kommt eine Philosophie, die darauf abzielt, das Produkt, die Produktivität und die Entwicklerzufriedenheit zu optimieren.”

Allerdings hat es für Ruby und Ruby on Rails dennoch nie zu einer dominanten Marktposition gereicht – auch weil andere Sprachen und Frameworks sich in der Zwischenzeit (weiter)entwickelt haben: “Ruby on Rails tauchte auf, als das Web vor einer Wachstums- und Transformationsphase stand”, erinnert sich Matthew Boeh, Ruby-Entwickler seit 2006. “Von diesem Wachstum konnte Ruby profitieren und es weiter anheizen. Aber es war klar, dass es auch andere Erfolgsgeschichten geben würde. Man könnte sagen, dass Ruby ein Opfer seines eigenen Erfolgs geworden ist, da seine Community eine wichtige treibende Kraft bei der Renaissance der Kommandozeile war”, sagt der Entwickler, der heute beim TypeScript-Unternehmen Lattice tätig ist.

Er fügt hinzu: “In den frühen 2000er Jahren hat Ruby Leuten, die noch nie etwas von Lisp gehört hatten, die REPL-gesteuerte Entwicklung nahegebracht und testgesteuertes Development außerhalb der Java-Welt etabliert. Das sind Dinge, die heute als Standard gelten. Natürlich hat Ruby nichts davon ‘erfunden’ – seine Community allerdings für Popularität und Zugänglichkeit gesorgt.”

Die Ruby-Herausforderer

Wenn es eine Sprache gibt, die heute in den Bereichen dominiert, in denen früher Ruby “herrschte”, ist es JavaScript. Zumindest, seitdem sie dem Browser entkommen konnte, wie Jemiah Sius, Director of Developer Relations beim Cloud-Softwareanbieter New Relic, erläutert: “Mit der Entwicklung von JavaScript zu einer Full-Stack-Sprache wurde es möglich, Frontend-, Backend- und mobile Projekte in einer Sprache oder sogar einer gemeinsamen Codebasis zu entwickeln. Ruby ist leicht zu erlernen, bietet einen sehr hohen Sicherheitsstandard und verfügt über eine aktive Community. Aber wenn jemand an Full-Stack denkt, denkt er an JavaScript, Node.js oder React.”

Nach Meinung von Qwoted-CTO Trowbridge konnte JavaScript seinen Rückstand vor allem deshalb aufholen, weil es sich im Laufe der Zeit entscheidend verbessert hat: “Tatsächlich ist JavaScript Ruby im Laufe der Zeit ähnlicher geworden. Die Browser-Hersteller haben sich bemüht, JavaScript zu formalisieren, zu standardisieren, zu vereinfachen und zu optimieren. Heute ist es so viel schöner als damals.”

Ruby-Experte Boeh stimmt zu und fügt an: “Das JavaScript-Ökosystem in seiner heutigen Form wäre 2004 noch unvorstellbar gewesen – es brauchte sowohl die Renaissance der Kommandozeile als auch den Durchbruch der Web-Plattform. Wussten Sie, dass es ein ganzes Jahrzehnt dauerte – von 1999 bis 2009 – bis eine einzige neue Version des JavaScript-Standards veröffentlicht wurde? Inzwischen bekommen wir eine pro Jahr. Ruby on Rails wurde eine große Sache zu einer Zeit, in der es noch möglich war, ohne Java-Kenntnisse Full-Stack-Entwickler zu sein.”

In einem der angesagtesten Bereiche der Softwareentwicklung – künstliche Intelligenz beziehungsweise Machine Learning – dominiert heute Python. E-Commerce-Experte Bhardwaj kennt die Gründe: “Python wurde in der wissenschaftlichen Gemeinschaft populär, weil es ermöglichte, Modelle und Algorithmen schneller als je zuvor zu entwickeln. Damit war es Ruby, das als langsam in punkto Ausführungsgeschwindigkeit wahrgenommen wurde, um Jahre voraus.”

New-Relic-Mann Sius kann sich dem lediglich mit einem Python-Loblied anschließen: “Geht es um eine vielseitige Sprache, mit der man alles von Spielen über VR bis hin zu KI und ML entwickeln kann, weiß jeder: Python ist der klare Gewinner.”

Der Niedergang von Ruby

Doch es lag nicht nur an den Eigenschaften von Ruby selbst, dass JavaScript und Python die Vorherrschaft erlangten. “Auf dem Papier sind Python und Ruby ziemlich gleichwertig”, analysiert Manager Trowbridge. “Beide sind dynamische, interpretierte Skriptsprachen, die sich am besten auf dem Server machen. Sie nutzen den Speicher nicht sehr effizient und sind daher teuer in der Ausführung, aber sie bieten eine unglaubliche Flexibilität und sind daher auch recht schnell zu schreiben und anfängerfreundlich.”

Geht es allerdings um Datenwissenschaft, hat Python die Nase vorn. In erster Linie weil Bibliotheken wie TensorFlow und Keras sofort verfügbar sind. “Diese Frameworks machen es Programmierern leicht, Datenvisualisierungen zu erstellen und Machine-Learning-Programme zu schreiben”, erklärt Bhardwaj.

Viele dieser Bibliotheken wurden von Community-Mitgliedern entwickelt, was andere zu Beiträgen inspirierte – ein Schneeballeffekt, den jeder kennt, der sich mit Open Source beschäftigt. Dabei hat allerdings ein großer Player maßgeblichen Einfluss genommen: Google veröffentlichte das Framework TensorFlow, das Python als interne Skriptsprache nutzt. Als Hersteller des dominierenden Webbrowsers hat Google zudem ein offensichtliches Interesse daran, JavaScript zu verbessern – was der Konzern laut Trowbridge auch geschafft hat: “JavaScript ist viel schneller und speichereffizienter als früher. In mancher Hinsicht fühlt es sich fast wie eine Low-Level-Sprache an.”

Im Fall von Ruby gibt es keinen Unternehmenssponsor dieser Größe, der Ressourcen bereitstellt, um die Sprache zu verbessern. Dazu kommt: Einige Nischen, die einst Ruby besetzte, gibt es inzwischen nicht mehr, wie Entwickler Boeh aus eigener Erfahrung zu berichten weiß: “Ich habe meine Karriere damit begonnen, Marketing-Websites und Online-Shops für die Kunden einer lokalen Kreativagentur zu erstellen. Meiner Meinung nach wird oft übersehen, wie sehr das untere Ende der Webentwicklungswelt automatisiert wurde. Innerhalb von ein paar Jahren war das gesamte Geschäft nicht mehr lebensfähig – niemand, der einigermaßen mit WordPress oder Shopify zurechtkam, war noch an solchen maßgeschneiderten Websites interessiert.”

Warum Ruby dennoch nicht stirbt

Dennoch wird Ruby nicht verschwinden – und der E-Commerce-Gigant Shopify ist dafür der Hauptgrund, denn Ruby on Rails ist seine wichtigste Entwicklungsplattform. E-Commerce-Spezialist Bhardwai kann das gut nachvollziehen: “Ruby ist aufgrund seiner dynamischen Funktionalität und Flexibilität immer noch die beste Lösung, um E-Commerce-Anwendungen zu entwickeln. Sie können Ihre App mit verschiedenen Modulen aufbauen und diese später verändern. Das macht es einfacher, zusätzliche Funktionen einzubinden.”

Natürlich ist Shopify nicht mit einem Technologie-Gigant wie Google vergleichbar, dennoch bemüht sich das Unternehmen, zu einem Mäzen für Ruby zu werden. So hat Shopify kürzlich den Just-in-Time-Compiler YJIT entwickelt, der die Performance von Ruby optimiert und als Standard akzeptiert wurde. Auch CTO Trowbridge ist sich sicher, dass Ruby und Ruby on Rails weiterhin relevant bleiben werden: “Es gibt viele Sprachen, die nach wie vor stark genutzt werden, auch wenn sie nicht mehr so populär sind, wie sie es einmal waren. Ich würde Java als das beste Beispiel dafür anführen und vermute, dass Ruby und Java eine ähnliche Entwicklung durchlaufen werden.”

Und schließlich gibt es ja auch noch die Ruby-Community, die weiterhin mit Enthusiasmus und Hingabe bei der Sache ist. Das findet man nicht bei allen Programmiersprachen – selbst bei einigen nicht, die Ruby in vielen Bereichen übertrumpfen konnten. Cosmin Andriescu, CTO von Lumenova AI, meint zum Beispiel, Ruby on Rails habe mit seiner riesigen Menge an Bibliotheken immer noch einen großen Vorteil gegenüber vielen JavaScript-Frameworks: “Die zeichnen sich vor allem durch instabile APIs und unausgereifte Tools für die Webentwicklung aus.”

Boeh charakterisiert Python etwas unverblümter als die Sprache, die die meisten Leute seiner Erfahrung nach absolut hassen würden – und offenbart dann: “Für persönliche Projekte nutze ich immer noch Ruby – und ich hoffe, das auch wieder professionell tun zu können. In der Ruby-Welt gibt es im Moment viele spannende Entwicklungen – und jede Menge Job-Möglichkeiten. Ruby wird vielleicht nie wieder das ‘next big thing’, aber ich bin davon überzeugt, dass es gekommen ist, um zu bleiben.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Off Rails: Was wurde eigentlich aus Ruby?​ Weiterlesen »

Promise-Probleme in JavaScript beheben​

Allgemein

Promises-Probleme können JavaScript-Projekte ausbremsen.DC Studio | shutterstock.com Das Thema Promises in JavaScript haben wir bereits in einem ausführlichen Tutorial beleuchtet. In diesem Artikel werfen wir einen Blick auf vier häufige Probleme im Zusammenhang mit Promises – und darauf, wie diese sich am besten auflösen lassen. 1. Handler, die Promises zurückgeben Werden Informationen aus einem then– oder catch-Handler zurückgeben, werden diese stets mit einem Promise “gewrappt” (um/eingeschlossen) – sofern es sich nicht bereits um ein Promise handelt. Code wie den folgenden müssen Entwickler also nicht schreiben: firstAjaxCall.then(() => { return new Promise((resolve, reject) => { nextAjaxCall().then(() => resolve()); }); }); Weil nextAjaxCall ebenfalls ein Promise zurückgibt, können Sie sich stattdessen beschränken auf: firstAjaxCall.then(() => { return nextAjaxCall(); }); Wird darüber hinaus ein einfacher Wert (kein Promise) zurückgegeben, gibt der Handler ein Promise zurück, das auf diesen Wert (Value) aufgelöst wird. Sie können also weiterhin .then nutzen, um die Ergebnisse zu callen: firstAjaxCall.then((response) => { return response.importantField }).then((resolvedValue) => { // resolvedValue is the value of response.importantField returned above console.log(resolvedValue); }); Das ist praktisch – wirft aber die Frage auf, wie zu verfahren ist, wenn Sie den State eines eingehenden Werts (Values) nicht kennen. Lösungstipp: Promise.resolve() nutzen Wenn Sie sich unsicher sind, ob Ihr eingehender Wert bereits ein Promise ist oder nicht, können Sie einfach auf die statische Promise.resolve()-Methode zurückgreifen. Betreffende Variablen können als Argument an Promise.resolve übergeben werden. Handelt es sich um ein Promise, wird dieses von der Methode zurückgegeben. Handelt es sich bei der Variable hingegen um einen Value, gibt die Methode ein Promise zurück, das auf den Wert aufgelöst wurde: let processInput = (maybePromise) => { let definitelyPromise = Promise.resolve(maybePromise); definitelyPromise.then(doSomeWork); }; 2. .then nimmt stets eine Funktion Sehr wahrscheinlich haben schon einmal Promise-Code gesehen (oder geschrieben). Dieser sieht in etwa so aus: let getAllArticles = () => { return someAjax.get(‘/articles’); }; let getArticleById = (id) => { return someAjax.get(`/articles/${id}`); }; getAllArticles().then(getArticleById(2)); Dieser Code soll den Zweck erfüllen, zunächst alle Artikel abzurufen – und anschließend den mit der ID 2. Auch wenn die Intention war, diese Aktionen sequenziell auszuführen, werden die beiden Promises im Wesentlichen zur selben Zeit gestartet. Die Reihenfolge ist also dem Zufall überlassen.   Das Problem: Bei diesem Code haben wir eine JavaScript-Grundregel außer Acht gelassen: Argumente für Funktionen werden immer ausgewertet, bevor sie an die Funktion übergeben werden. In unserem Fall geht .then aber keine Funktion zu, sondern der Rückgabewert von getArticleById. Das liegt daran, dass getArticleById direkt mit dem Klammeroperator aufgerufen wird. Um das zu beheben, gibt es mehrere Möglichkeiten. Lösungstipp 1: Arrow-Funktion als Wrapper nutzen Um sicherzustellen, dass beide Funktionen nacheinander ausgeführt werden, könnten Sie folgendermaßen verfahren: // A little arrow function is all you need getAllArticles().then(() => getArticleById(2)); Indem Sie den Call von getArticleById mit einer Arrow-Funktion umschliessen, wird .then mit einer Funktion “versorgt”, die es aufrufen kann, wenn getAllArticles() aufgelöst ist. Lösungstipp 2: Benannte Funktionen an .then übergeben Sie müssen jedoch nicht auf anonyme Inline-Funktionen als Argumente für .then zurückgreifen. Stattdessen können Sie einfach einer Variable eine Funktion zuweisen und die Referenz auf diese an .then übergeben. // function definitions from Gotcha #2 let getArticle2 = () => { return getArticleById(2); }; getAllArticles().then(getArticle2); getAllArticles().then(getArticle2); In diesem Beispiel übergeben wir die Referenz lediglich und rufen sie nicht auf. Lösungstipp 3: async/await verwenden Eine weitere Möglichkeit, die Reihenfolge der Ereignisse klarer zu gestalten, besteht darin, die Keywords async/await zu nutzen: async function getSequentially() { const allArticles = await getAllArticles(); // Wait for first call const specificArticle = await getArticleById(2); // Then wait for second // … use specificArticle } Das legt eindeutig und offensichtlich fest, dass zwei Schritte nacheinander ausgeführt werden – und der Execution-Prozess erst dann weiterläuft, wenn beide abgeschlossen sind. 3. Nicht-funktionale .then-Argumente Das eben behandelte Problem lässt sich noch erweitern: let getAllArticles = () => { return someAjax.get(‘/articles’); }; let getArticleById = (id) => { return someAjax.get(`/articles/${id}`); }; getAllArticles().then(getArticleById(2)).then((article2) => { // Do something with article2 }); Wir wissen bereits, dass diese Kette nicht wie gewünscht sequenziell ausgeführt wird – haben jetzt aber ein zusätzliches Promise-Problem: Was ist der Wert von article2 im letzten .then? Da wir keine Funktion an das erste Argument von .then übergeben, gibt JavaScript das ursprüngliche Promise mit seinem aufgelösten Wert weiter. Das führt dazu, dass der Value von article2 dem Wert entspricht, den getAllArticles() aufgelöst hat. Wenn Sie es mit einer langen Kette von .then-Methoden zu tun haben und einige Ihrer Handler Werte aus früheren .then-Methoden erhalten, sollten Sie sicherstellen, dass auch tatsächlich Funktionen an .then übergeben werden. Lösungstipp 1: Benannte Funktionen mit formalen Parametern nutzen Eine Möglichkeit, dieses Problem zu händeln, besteht darin, benannte Funktionen zu übergeben, die einen einzelnen, formalen Parameter definieren (also ein Argument entgegennehmen). Das ermöglicht Ihnen, generische Funktionen zu erstellen, die sich sowohl innerhalb als auch außerhalb einer Kette von .then-Methoden nutzen lassen. Angenommen, die Funktion getFirstArticle ruft eine API auf, um den neuesten article in einem Set abzurufen und diesen zu einem article-Objekt aufzulösen – mit Eigenschaften wie ID, Titel und Publikationsdatum. Eine weitere Funktion – getCommentsForArticleId – nimmt eine Artikel-ID entgegen und führt einen API-Call aus, um sämtliche Kommentare zu diesem Artikel abzurufen. Um diese beiden Funktionen miteinander zu verbinden, müssen Sie nun nur noch vom Auflösungswert der ersten Funktion (ein article-Objekt) zum erwarteten Argumentwert der zweiten Funktion (eine Artikel-ID) gelangen. Zu diesem Zweck könnten Sie auf eine anonyme Inline-Funktion zurückgreifen: getFirstArticle().then((article) => { return getCommentsForArticleId(article.id); }); Oder Sie erstellen eine simple Funktion, die einen Artikel entgegennimmt, dessen ID zurückgibt und alles mit .then verknüpft: let extractId = (article) => article.id; getFirstArticle().then(extractId).then(getCommentsForArticleId); Diese Lösung verschleiert den Auflösungswert aller Funktionen, weil diese nicht inline definiert sind. Andererseits entstehen dadurch flexible Funktionen, die sehr wahrscheinlich wiederverwendet werden können. Hier gibt es auch ein “Wiedersehen” mit einem Learning aus unserem ersten behandelten Problem: Zwar gibt extractId kein Promise zurück, dennoch wird .then seinen Rückgabewert in eines verpacken – wodurch Sie .then erneut callen können. Lösungstipp 2: async/await verwenden Auch mit async/await lässt sich an dieser Stelle Abhilfe schaffen – beziehungsweise mehr Übersichtlichkeit herstellen: async function getArticleAndComments() { const article = await getFirstArticle(); const comments = await getCommentsForArticleId(article.id); // Extract ID directly // … use comments } Hier warten Sie einfach, bis getFirstArticle() beendet ist und verwenden dann den Artikel, um seine ID abzurufen. Das ist möglich, weil sicher ist, dass der Artikel durch die zugrundeliegende Operation aufgelöst wurde. 4. async/await beeinträchtigt Concurrency Falls Sie mehrere asynchrone Prozesse gleichzeitig starten möchten, setzen Sie diese in einen Loop und nutzen await: // (Bad practice below!) async function getMultipleUsersSequentially(userIds) { const users = []; const startTime = Date.now(); for (const id of userIds) { // await pauses the *entire loop* for each fetch const user = await fetchUserDataPromise(id); users.push(user); } const endTime = Date.now(); console.log(`Sequential fetch took ${endTime – startTime}ms`); return users; } // If each fetch takes 1.5s, 3 fetches would take ~4.5s total. In diesem Beispiel wollen wir sämtliche fetchUserDataPromise()-Requests zusammen senden. Allerdings wird im Loop dennoch eine Anfrage nach der anderen ausgeführt. Lösungstipp: Promise.all verwenden Diese Problemstellung lässt sich ganz einfach auflösen – und zwar mit Hilfe von Promise.all: // (Requests happen concurrently) async function getMultipleUsersConcurrently(userIds) { console.log(“Starting concurrent fetch…”); const startTime = Date.now(); const promises = userIds.map(id => fetchUserDataPromise(id)); const users = await Promise.all(promises); const endTime = Date.now(); console.log(`Concurrent fetch took ${endTime – startTime}ms`); return users; } // If each fetch takes 1.5s, 3 concurrent fetches would take ~1.5s total (plus a tiny overhead). Dabei bewirkt Promise.all dass sämtliche Promises im Array gleichzeitig gestartet und abgeschlossen werden. In diesem Anwendungsfall sind Promises im Vergleich zu async/await die simplere Lösung (dennoch kommt await zum Einsatz, um darauf zu warten, dass Promise.all abgeschlossen wird). (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Promise-Probleme in JavaScript beheben​ Promises-Probleme können JavaScript-Projekte ausbremsen.DC Studio | shutterstock.com

Das Thema Promises in JavaScript haben wir bereits in einem ausführlichen Tutorial beleuchtet. In diesem Artikel werfen wir einen Blick auf vier häufige Probleme im Zusammenhang mit Promises – und darauf, wie diese sich am besten auflösen lassen.

1. Handler, die Promises zurückgeben

Werden Informationen aus einem then– oder catch-Handler zurückgeben, werden diese stets mit einem Promise “gewrappt” (um/eingeschlossen) – sofern es sich nicht bereits um ein Promise handelt. Code wie den folgenden müssen Entwickler also nicht schreiben:

firstAjaxCall.then(() => {
return new Promise((resolve, reject) => {
nextAjaxCall().then(() => resolve());
});
});

Weil nextAjaxCall ebenfalls ein Promise zurückgibt, können Sie sich stattdessen beschränken auf:

firstAjaxCall.then(() => {
return nextAjaxCall();
});

Wird darüber hinaus ein einfacher Wert (kein Promise) zurückgegeben, gibt der Handler ein Promise zurück, das auf diesen Wert (Value) aufgelöst wird. Sie können also weiterhin .then nutzen, um die Ergebnisse zu callen:

firstAjaxCall.then((response) => {
return response.importantField
}).then((resolvedValue) => {
// resolvedValue is the value of response.importantField returned above
console.log(resolvedValue);
});

Das ist praktisch – wirft aber die Frage auf, wie zu verfahren ist, wenn Sie den State eines eingehenden Werts (Values) nicht kennen.

Lösungstipp: Promise.resolve() nutzen

Wenn Sie sich unsicher sind, ob Ihr eingehender Wert bereits ein Promise ist oder nicht, können Sie einfach auf die statische Promise.resolve()-Methode zurückgreifen. Betreffende Variablen können als Argument an Promise.resolve übergeben werden. Handelt es sich um ein Promise, wird dieses von der Methode zurückgegeben. Handelt es sich bei der Variable hingegen um einen Value, gibt die Methode ein Promise zurück, das auf den Wert aufgelöst wurde:

let processInput = (maybePromise) => {
let definitelyPromise = Promise.resolve(maybePromise);
definitelyPromise.then(doSomeWork);
};

2. .then nimmt stets eine Funktion

Sehr wahrscheinlich haben schon einmal Promise-Code gesehen (oder geschrieben). Dieser sieht in etwa so aus:

let getAllArticles = () => {
return someAjax.get(‘/articles’);
};
let getArticleById = (id) => {
return someAjax.get(`/articles/${id}`);
};

getAllArticles().then(getArticleById(2));

Dieser Code soll den Zweck erfüllen, zunächst alle Artikel abzurufen – und anschließend den mit der ID 2. Auch wenn die Intention war, diese Aktionen sequenziell auszuführen, werden die beiden Promises im Wesentlichen zur selben Zeit gestartet. Die Reihenfolge ist also dem Zufall überlassen.  

Das Problem: Bei diesem Code haben wir eine JavaScript-Grundregel außer Acht gelassen: Argumente für Funktionen werden immer ausgewertet, bevor sie an die Funktion übergeben werden. In unserem Fall geht .then aber keine Funktion zu, sondern der Rückgabewert von getArticleById. Das liegt daran, dass getArticleById direkt mit dem Klammeroperator aufgerufen wird. Um das zu beheben, gibt es mehrere Möglichkeiten.

Lösungstipp 1: Arrow-Funktion als Wrapper nutzen

Um sicherzustellen, dass beide Funktionen nacheinander ausgeführt werden, könnten Sie folgendermaßen verfahren:

// A little arrow function is all you need

getAllArticles().then(() => getArticleById(2));

Indem Sie den Call von getArticleById mit einer Arrow-Funktion umschliessen, wird .then mit einer Funktion “versorgt”, die es aufrufen kann, wenn getAllArticles() aufgelöst ist.

Lösungstipp 2: Benannte Funktionen an .then übergeben

Sie müssen jedoch nicht auf anonyme Inline-Funktionen als Argumente für .then zurückgreifen. Stattdessen können Sie einfach einer Variable eine Funktion zuweisen und die Referenz auf diese an .then übergeben.

// function definitions from Gotcha #2
let getArticle2 = () => {
return getArticleById(2);
};

getAllArticles().then(getArticle2);

getAllArticles().then(getArticle2);

In diesem Beispiel übergeben wir die Referenz lediglich und rufen sie nicht auf.

Lösungstipp 3: async/await verwenden

Eine weitere Möglichkeit, die Reihenfolge der Ereignisse klarer zu gestalten, besteht darin, die Keywords async/await zu nutzen:

async function getSequentially() {
const allArticles = await getAllArticles(); // Wait for first call
const specificArticle = await getArticleById(2); // Then wait for second
// … use specificArticle
}

Das legt eindeutig und offensichtlich fest, dass zwei Schritte nacheinander ausgeführt werden – und der Execution-Prozess erst dann weiterläuft, wenn beide abgeschlossen sind.

3. Nicht-funktionale .then-Argumente

Das eben behandelte Problem lässt sich noch erweitern:

let getAllArticles = () => {
return someAjax.get(‘/articles’);
};
let getArticleById = (id) => {
return someAjax.get(`/articles/${id}`);
};

getAllArticles().then(getArticleById(2)).then((article2) => {
// Do something with article2
});

Wir wissen bereits, dass diese Kette nicht wie gewünscht sequenziell ausgeführt wird – haben jetzt aber ein zusätzliches Promise-Problem: Was ist der Wert von article2 im letzten .then? Da wir keine Funktion an das erste Argument von .then übergeben, gibt JavaScript das ursprüngliche Promise mit seinem aufgelösten Wert weiter. Das führt dazu, dass der Value von article2 dem Wert entspricht, den getAllArticles() aufgelöst hat. Wenn Sie es mit einer langen Kette von .then-Methoden zu tun haben und einige Ihrer Handler Werte aus früheren .then-Methoden erhalten, sollten Sie sicherstellen, dass auch tatsächlich Funktionen an .then übergeben werden.

Lösungstipp 1: Benannte Funktionen mit formalen Parametern nutzen

Eine Möglichkeit, dieses Problem zu händeln, besteht darin, benannte Funktionen zu übergeben, die einen einzelnen, formalen Parameter definieren (also ein Argument entgegennehmen). Das ermöglicht Ihnen, generische Funktionen zu erstellen, die sich sowohl innerhalb als auch außerhalb einer Kette von .then-Methoden nutzen lassen.

Angenommen, die Funktion getFirstArticle ruft eine API auf, um den neuesten article in einem Set abzurufen und diesen zu einem article-Objekt aufzulösen – mit Eigenschaften wie ID, Titel und Publikationsdatum. Eine weitere Funktion – getCommentsForArticleId – nimmt eine Artikel-ID entgegen und führt einen API-Call aus, um sämtliche Kommentare zu diesem Artikel abzurufen. Um diese beiden Funktionen miteinander zu verbinden, müssen Sie nun nur noch vom Auflösungswert der ersten Funktion (ein article-Objekt) zum erwarteten Argumentwert der zweiten Funktion (eine Artikel-ID) gelangen. Zu diesem Zweck könnten Sie auf eine anonyme Inline-Funktion zurückgreifen:

getFirstArticle().then((article) => {
return getCommentsForArticleId(article.id);
});

Oder Sie erstellen eine simple Funktion, die einen Artikel entgegennimmt, dessen ID zurückgibt und alles mit .then verknüpft:

let extractId = (article) => article.id;
getFirstArticle().then(extractId).then(getCommentsForArticleId);

Diese Lösung verschleiert den Auflösungswert aller Funktionen, weil diese nicht inline definiert sind. Andererseits entstehen dadurch flexible Funktionen, die sehr wahrscheinlich wiederverwendet werden können. Hier gibt es auch ein “Wiedersehen” mit einem Learning aus unserem ersten behandelten Problem: Zwar gibt extractId kein Promise zurück, dennoch wird .then seinen Rückgabewert in eines verpacken – wodurch Sie .then erneut callen können.

Lösungstipp 2: async/await verwenden

Auch mit async/await lässt sich an dieser Stelle Abhilfe schaffen – beziehungsweise mehr Übersichtlichkeit herstellen:

async function getArticleAndComments() {
const article = await getFirstArticle();
const comments = await getCommentsForArticleId(article.id); // Extract ID directly
// … use comments
}

Hier warten Sie einfach, bis getFirstArticle() beendet ist und verwenden dann den Artikel, um seine ID abzurufen. Das ist möglich, weil sicher ist, dass der Artikel durch die zugrundeliegende Operation aufgelöst wurde.

4. async/await beeinträchtigt Concurrency

Falls Sie mehrere asynchrone Prozesse gleichzeitig starten möchten, setzen Sie diese in einen Loop und nutzen await:

// (Bad practice below!)
async function getMultipleUsersSequentially(userIds) {
const users = [];
const startTime = Date.now();
for (const id of userIds) {
// await pauses the *entire loop* for each fetch
const user = await fetchUserDataPromise(id);
users.push(user);
}
const endTime = Date.now();
console.log(`Sequential fetch took ${endTime – startTime}ms`);
return users;
}
// If each fetch takes 1.5s, 3 fetches would take ~4.5s total.

In diesem Beispiel wollen wir sämtliche fetchUserDataPromise()-Requests zusammen senden. Allerdings wird im Loop dennoch eine Anfrage nach der anderen ausgeführt.

Lösungstipp: Promise.all verwenden

Diese Problemstellung lässt sich ganz einfach auflösen – und zwar mit Hilfe von Promise.all:

// (Requests happen concurrently)
async function getMultipleUsersConcurrently(userIds) {
console.log(“Starting concurrent fetch…”);
const startTime = Date.now();
const promises = userIds.map(id => fetchUserDataPromise(id));

const users = await Promise.all(promises);

const endTime = Date.now();
console.log(`Concurrent fetch took ${endTime – startTime}ms`);
return users;
}
// If each fetch takes 1.5s, 3 concurrent fetches would take ~1.5s total (plus a tiny overhead).

Dabei bewirkt Promise.all dass sämtliche Promises im Array gleichzeitig gestartet und abgeschlossen werden. In diesem Anwendungsfall sind Promises im Vergleich zu async/await die simplere Lösung (dennoch kommt await zum Einsatz, um darauf zu warten, dass Promise.all abgeschlossen wird). (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Promise-Probleme in JavaScript beheben​ Weiterlesen »

Android-Browser: Die 5 besten Chrome-Alternativen​

Allgemein

Diese Chrome-Alternativen für Ihr Android-Smartphone helfen gegen zu viel Google-Flavor… Foto: RAW-films – shutterstock.com Es gibt diverse (gute) Gründe, auf Google-Apps verzichten zu wollen (allerdings sollte man sich dann auch unter Umständen nicht für ein Android-Telefon entscheiden). Was auch immer für Ihre Entscheidung ursächlich mag, nicht mit Chrome browsen zu wollen: Im Google Play Store stehen diverse alternative Browser zur Verfügung. Dabei empfiehlt es sich, sich an vertrauenswürdige Marken mit entsprechender Reputation zu halten. Die 5 besten Android-Browser, die nicht Chrome sind Im Folgenden haben wir die fünf besten Google-Chrome-Alternativen für Ihr Android-Smartphone sowie deren wichtigste (Business-)Funktionen in alphabetischer Reihenfolge zusammengestellt. DuckDuckGo Private Browser Ähnlich wie bei seinem Suchmaschinenangebot legt DuckDuckGo auch bei seinem mobilen Browser für Android den Fokus auf den Schutz Ihrer Privatsphäre. Soll heißen: Sie können im Netz stöbern, ohne befürchten zu müssen, dass jeder Ihrer Klicks getrackt wird. Das trägt auch zu einem schnelleren Surferlebnis bei. Ein besonders nützliches Feature verbirgt sich dabei hinter einer Schaltfläche mit “Feuer”-Symbolik: Ein Druck auf sie genügt, um sämtliche Registerkarten zu schließen und Surf-Daten zu löschen. Bestimmte Sites können Sie dabei als “fireproof” kennzeichnen. In diesem Fall werden zwar Cookies für Anmeldung oder Warenkorb gesetzt, die Tracking-Versuche von Drittanbietern bleiben jedoch weiterhin wirkungslos. Davon abgesehen zeichnet sich der DuckDuckGo-Browser durch sein klares Design aus: Neue Tabs sind nicht direkt mit News-Meldungen oder Webseiten-Vorschlägen zugepflastert. Edge Wenn Sie im Job Microsoft 365 beziehungsweise Microsofts Edge-Browser verwenden, kann es Sinn machen, den auch auf Ihrem Android-Device zu installieren. Etwa, um arbeitsbezogene Browserinformationen die gemeinsam genutzt werden, auf Ihrem Android-Telefon zu synchronisieren. Ähnlich wie bei Chrome sind auch die Datenschutz-Standardeinstellungen von Edge darauf ausgerichtet, Ihre Onlineaktivitäten mit Entwicklern und besuchten Webseiten zu teilen. Allerdings bietet Edge auch die Möglichkeit, Datenschutz- und Sicherheitseinstellungen manuell anzupassen. Eine neue Standardregisterkarte in Edge sieht erst einmal ziemlich unübersichtlich aus: Wie bei den meisten Browsern wird eine Suchleiste und Symbol-Links zu vorgeschlagenen Websites angezeigt. Ein Wisch nach oben führt zu einem (personalisierten) Newsfeed. Darüber hinaus bietet Edge: einen Lese-Modus für (manche) Webseiten, der der Übersichtlichkeit zuliebe überflüssige Werbeanzeigen aus dem Layout verbannt. eine konfigurierbare Textvorlesefunktion für Webseiten. Anpassen lassen sich dabei zum Beispiel Lesegeschwindigkeit sowie Stimm- und Sprechstil. Auch eine Übersetzungsfunktion steht zur Verfügung. falls Sie einen Windows 10- oder 11-PC besitzen, die Möglichkeit, Dokumente und Dateien auf OneDrive hochzuladen/zu synchronisieren. KI-Funktionen. Firefox (Klar) Wie bei Edge wird auch bei Firefox standardmäßig eine neue Registerkarte mit einem Suchmaschinenfeld, Links zu vorgeschlagenen Websites und einem Bereich mit Nachrichten und Artikeln geladen. Der Browser bietet unter anderem die Möglichkeit, Daten geräteübergreifend zu synchronisieren und einen Edge-ähnlichen Lesemodus für Webseiten. Wie bei der Desktop-Version können Sie die Funktionen von Firefox auch auf Ihrem Android-Device über Add-ons erweitern. Darüber hinaus bietet Mozilla Firefox auch für Android in einer “Light”-Version namens Firefox Klar an. Dieser Browser setzt standardmäßig ein strengeres Datenschutzniveau durch und blockiert automatisch Tracker und Werbung. Ähnlich wie beim Browser von DuckDuckGo löschen Sie bei Firefox mit einem Tastendruck (auf das Mülleimer-Symbol) direkt alle Passwörter und Cookies. Firefox Klar zeichnet sich durch eine minimalistische, aufgeräumte Oberfläche aus, lässt aber den Lesemodus vermissen – und eine Registerkartenfunktion. Dadurch sind Sie gezwungen, sich auf eine einzelne Webseite zu fokussieren, dafür aber mit maximaler Performanz. Opera Opera wirft das unübersichtlichste aller Standard-Browser-Tabs in die Waagschale und listet extrem viele News- und Artikelvorschläge, die mit diversen Sponsored-Beiträgen durchsetzt sind. Das können Sie glücklicherweise mit einigen Klicks auch deaktivieren. Opera für Android-Telefone will darüber hinaus mit folgenden Features punkten: einem Lesemodus für Webseiten (funktioniert ähnlich wie bei Edge und Firefox); der Funktion “My Flow”, mit deren Hilfe Sie Links, Bilder, Videos und andere Dateien in einem verschlüsselten Speicher ablegen können, der sich geräteübergreifend synchronisieren lässt. einer integrierten VPN-Funktionalität; KI-Funktionen. Für kein Geld sollen Sie bei letztgenannter Funktion nicht zu viel erwarten: Opera stellt lediglich drei Regionen zur Wahl (Amerika, Asien und Europa) und funktioniert nur innerhalb des Browsers selbst. Wenn Sie Server in einem spezifischen Land wählen und ihren gesamten Traffic tunneln möchten, brauchen Sie ein Pro-Abo bei Opera (ab 4 Euro monatlich). Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Android-Browser: Die 5 besten Chrome-Alternativen​ Diese Chrome-Alternativen für Ihr Android-Smartphone helfen gegen zu viel Google-Flavor…
Foto: RAW-films – shutterstock.com

Es gibt diverse (gute) Gründe, auf Google-Apps verzichten zu wollen (allerdings sollte man sich dann auch unter Umständen nicht für ein Android-Telefon entscheiden). Was auch immer für Ihre Entscheidung ursächlich mag, nicht mit Chrome browsen zu wollen: Im Google Play Store stehen diverse alternative Browser zur Verfügung. Dabei empfiehlt es sich, sich an vertrauenswürdige Marken mit entsprechender Reputation zu halten.

Die 5 besten Android-Browser, die nicht Chrome sind

Im Folgenden haben wir die fünf besten Google-Chrome-Alternativen für Ihr Android-Smartphone sowie deren wichtigste (Business-)Funktionen in alphabetischer Reihenfolge zusammengestellt.

DuckDuckGo Private Browser

Ähnlich wie bei seinem Suchmaschinenangebot legt DuckDuckGo auch bei seinem mobilen Browser für Android den Fokus auf den Schutz Ihrer Privatsphäre. Soll heißen: Sie können im Netz stöbern, ohne befürchten zu müssen, dass jeder Ihrer Klicks getrackt wird. Das trägt auch zu einem schnelleren Surferlebnis bei.

Ein besonders nützliches Feature verbirgt sich dabei hinter einer Schaltfläche mit “Feuer”-Symbolik: Ein Druck auf sie genügt, um sämtliche Registerkarten zu schließen und Surf-Daten zu löschen. Bestimmte Sites können Sie dabei als “fireproof” kennzeichnen. In diesem Fall werden zwar Cookies für Anmeldung oder Warenkorb gesetzt, die Tracking-Versuche von Drittanbietern bleiben jedoch weiterhin wirkungslos.

Davon abgesehen zeichnet sich der DuckDuckGo-Browser durch sein klares Design aus: Neue Tabs sind nicht direkt mit News-Meldungen oder Webseiten-Vorschlägen zugepflastert.

Edge

Wenn Sie im Job Microsoft 365 beziehungsweise Microsofts Edge-Browser verwenden, kann es Sinn machen, den auch auf Ihrem Android-Device zu installieren. Etwa, um arbeitsbezogene Browserinformationen die gemeinsam genutzt werden, auf Ihrem Android-Telefon zu synchronisieren.

Ähnlich wie bei Chrome sind auch die Datenschutz-Standardeinstellungen von Edge darauf ausgerichtet, Ihre Onlineaktivitäten mit Entwicklern und besuchten Webseiten zu teilen. Allerdings bietet Edge auch die Möglichkeit, Datenschutz- und Sicherheitseinstellungen manuell anzupassen. Eine neue Standardregisterkarte in Edge sieht erst einmal ziemlich unübersichtlich aus: Wie bei den meisten Browsern wird eine Suchleiste und Symbol-Links zu vorgeschlagenen Websites angezeigt. Ein Wisch nach oben führt zu einem (personalisierten) Newsfeed. Darüber hinaus bietet Edge:

einen Lese-Modus für (manche) Webseiten, der der Übersichtlichkeit zuliebe überflüssige Werbeanzeigen aus dem Layout verbannt.

eine konfigurierbare Textvorlesefunktion für Webseiten. Anpassen lassen sich dabei zum Beispiel Lesegeschwindigkeit sowie Stimm- und Sprechstil. Auch eine Übersetzungsfunktion steht zur Verfügung.

falls Sie einen Windows 10- oder 11-PC besitzen, die Möglichkeit, Dokumente und Dateien auf OneDrive hochzuladen/zu synchronisieren.

KI-Funktionen.

Firefox (Klar)

Wie bei Edge wird auch bei Firefox standardmäßig eine neue Registerkarte mit einem Suchmaschinenfeld, Links zu vorgeschlagenen Websites und einem Bereich mit Nachrichten und Artikeln geladen. Der Browser bietet unter anderem die Möglichkeit, Daten geräteübergreifend zu synchronisieren und einen Edge-ähnlichen Lesemodus für Webseiten. Wie bei der Desktop-Version können Sie die Funktionen von Firefox auch auf Ihrem Android-Device über Add-ons erweitern.

Darüber hinaus bietet Mozilla Firefox auch für Android in einer “Light”-Version namens Firefox Klar an. Dieser Browser setzt standardmäßig ein strengeres Datenschutzniveau durch und blockiert automatisch Tracker und Werbung. Ähnlich wie beim Browser von DuckDuckGo löschen Sie bei Firefox mit einem Tastendruck (auf das Mülleimer-Symbol) direkt alle Passwörter und Cookies.

Firefox Klar zeichnet sich durch eine minimalistische, aufgeräumte Oberfläche aus, lässt aber den Lesemodus vermissen – und eine Registerkartenfunktion. Dadurch sind Sie gezwungen, sich auf eine einzelne Webseite zu fokussieren, dafür aber mit maximaler Performanz.

Opera

Opera wirft das unübersichtlichste aller Standard-Browser-Tabs in die Waagschale und listet extrem viele News- und Artikelvorschläge, die mit diversen Sponsored-Beiträgen durchsetzt sind. Das können Sie glücklicherweise mit einigen Klicks auch deaktivieren. Opera für Android-Telefone will darüber hinaus mit folgenden Features punkten:

einem Lesemodus für Webseiten (funktioniert ähnlich wie bei Edge und Firefox);

der Funktion “My Flow”, mit deren Hilfe Sie Links, Bilder, Videos und andere Dateien in einem verschlüsselten Speicher ablegen können, der sich geräteübergreifend synchronisieren lässt.

einer integrierten VPN-Funktionalität;

KI-Funktionen.

Für kein Geld sollen Sie bei letztgenannter Funktion nicht zu viel erwarten: Opera stellt lediglich drei Regionen zur Wahl (Amerika, Asien und Europa) und funktioniert nur innerhalb des Browsers selbst. Wenn Sie Server in einem spezifischen Land wählen und ihren gesamten Traffic tunneln möchten, brauchen Sie ein Pro-Abo bei Opera (ab 4 Euro monatlich).

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Android-Browser: Die 5 besten Chrome-Alternativen​ Weiterlesen »

4 Don’ts für Rust-Einsteiger​

Allgemein

Diese Fallstricke können Rust-Bestrebungen erodieren lassen.James M Crittenden | shutterstock.com Eine neue Programmiersprache zu erlernen, ist nicht nur Eitel Sonnenschein, sondern birgt auch erhebliches Frustrationspotenzial. Insbesondere, wenn es um neue, komplexe Zusammenhänge geht – die man zum Einstieg (noch) nicht wirklich durchdringen muss. In diesem Artikel haben wir vier Don’ts zusammengetragen, die sich Developer mit Rust-Ambitionen zu Herzen nehmen sollten. 1. Aktualität voraussetzen Rust ist eine Sprache, die sich rasant weiterentwickelt. Seine Dokumentation hält dabei nicht immer Schritt. Hüten Sie sich deshalb vor Lernmaterialien, die Sie mit veralteten Beispielen in die Irre führen. In diese Falle kann grundsätzlich jeder tappen – allerdings ist diese Gefahr bei Neulingen, die nicht mit dem Status Quo vertraut sind, ungleich höher. Ältere Versionen von Rust beinhalteten beispielsweise ein Makro namens try!, das verwendet wurde, um Ergebnisse zu “unwrappen” und eventuell zurückgegebene Fehler weiterzugeben. Inzwischen wurde dieses durch den ?-Operator ersetzt, der nativer Bestandteil der Rust-Syntax ist. Es ist nur ein Beispiel von vielen, das Sie auf veraltete Wege führt. Grundsätzlich ist deshalb jedes Rust-Tutorial, das älter als zwei Jahre ist, mit Vorsicht zu genießen. Ebenso wie undatiertes Material.  2. In alte Gewohnheiten zurückfallen Einige Konzepte, die in Rust zur Anwendung kommen, können anfangs frustrieren. So gehen etwa Ownership/Borrowing-Metaphern für das Memory Management oder typbasiertes Error Handling mit steilen Lernkurven einher. An dieser Stelle einfach die Konzepte anderer Sprachen heranzuziehen, wäre jedoch nicht zielführend. Insbesondere sollten Sie unbedingt davon absehen, Memory Management im Stil von C (oder gar C++) verwenden oder direkten Raw-Memory-Zugriff über Pointer herstellen zu wollen. Referenzen sind diesbezüglich “safe”, weil sie immer über Borrowing und Ownership getrackt werden. Pointer (deren Verwendung Sie explizit aktivieren müssen) können in der Theorie auf alles mögliche verweisen, weswegen sie von Natur aus “unsafe” sind. Die Lösung besteht an dieser Stelle allerdings nicht darin, Ihren Code großzügig mit unsafe{} auszuschmücken, um Pointer innerhalb dieser Bereiche dereferenzieren zu können. Nutzen Sie stattdessen von Anfang an Referenzen und machen Sie sich mit Typen wie Box, Rc und Arc vertraut. Sie ermöglichen es, Ownership-Regeln für beliebige Memory-Bereiche zu nutzen. So müssen Sie sich gar nicht erst mit dem Thema Raw Pointer beschäftigen. Und sollten Sie wirklich keine andere Wahl haben: Beschränken Sie Pointer auf die kleinstmöglichen unsafe{}-Bereiche und extrahieren Sie aus diesen Rust-Werte, die “safe” sind. Insbesondere C++-Entwickler versuchen oft, die gewohnten Idiome in Rust zu reproduzieren. Wenn Sie zu diesen geplagten Kandidaten gehören, kann das “C++ to Rust Phrasebook” unter Umständen eine Hilfestellung bieten, um elegant von C++- zu Rust-Konzepten überzugehen. 3. Sämtliche String-Typen durchdringen wollen Innerhalb des Rust-Ökosystems existieren diverse String-Typen, um Text zu verarbeiten. Diese sind in vielen Fällen für spezifische Tasks gedacht. Falls Sie lediglich Strings zwischen Funktionen übergeben oder auf der Konsole ausgeben möchten, müssen Sie sich darüber (erst einmal) keine Gedanken machen. Konzentrieren Sie sich stattdessen zunächst lieber auf die beiden gängigsten String-Typen: str (unveränderlich, entspricht im Wesentlichen dem, was String-Literale im Code liefern) und String (veränderlich, wird immer im Heap gespeichert). Nutzen Sie str, um String-Konstanten zu erstellen und &str, um “borrowed” Referenzen auf vorhandenen String-Werten abzurufen. Alles andere kann vorerst warten. 4. Auf Cloning verzichten Ihr Erfolg als Rust-Programmierer hängt ganz wesentlich davon ab, erkennen zu können, wann Memory Management unerlässlich ist. Solange Sie allerdings noch nicht mit der Syntax und den Tools der Sprache vertraut sind, kann dieser Aspekt eine enorme Belastung darstellen. Ein Weg, die Borrowing-Sorgen vergessen zu machen, besteht darin, Objekte zu klonen – statt die Ownership zu übertragen. Im Rahmen dieses Cloning-Prozesses wird eine neue Instanz derselben Daten erstellt, jedoch mit einem neuen, unabhängigen Owner. Die ursprüngliche Instanz behält hingegen ihren ursprünglichen Owner, so dass es keine Object-Ownership-Probleme entstehen können. Und: Wie beim Originalobjekt wird auch der Klon automatisch gelöscht, sobald er den Scope verlässt. Der Nachteil: Cloning kann Performance kosten, insbesondere wenn Sie darauf mehrere Male innerhalb eines Loops zurückgreifen. Speziell wenn es um leistungssensitiven Code geht, sollten Sie das deshalb vermeiden. Bis Sie diese Art von Code erstellen (und gelernt haben, wie Sie Metriken nutzen, um Hot Paths im Code zu erkennen), können Sie auf Cloning setzen, um die Ownership-Chain Ihrer Objekte klarer herauszustellen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

4 Don’ts für Rust-Einsteiger​ Diese Fallstricke können Rust-Bestrebungen erodieren lassen.James M Crittenden | shutterstock.com

Eine neue Programmiersprache zu erlernen, ist nicht nur Eitel Sonnenschein, sondern birgt auch erhebliches Frustrationspotenzial. Insbesondere, wenn es um neue, komplexe Zusammenhänge geht – die man zum Einstieg (noch) nicht wirklich durchdringen muss. In diesem Artikel haben wir vier Don’ts zusammengetragen, die sich Developer mit Rust-Ambitionen zu Herzen nehmen sollten.

1. Aktualität voraussetzen

Rust ist eine Sprache, die sich rasant weiterentwickelt. Seine Dokumentation hält dabei nicht immer Schritt. Hüten Sie sich deshalb vor Lernmaterialien, die Sie mit veralteten Beispielen in die Irre führen. In diese Falle kann grundsätzlich jeder tappen – allerdings ist diese Gefahr bei Neulingen, die nicht mit dem Status Quo vertraut sind, ungleich höher.

Ältere Versionen von Rust beinhalteten beispielsweise ein Makro namens try!, das verwendet wurde, um Ergebnisse zu “unwrappen” und eventuell zurückgegebene Fehler weiterzugeben. Inzwischen wurde dieses durch den ?-Operator ersetzt, der nativer Bestandteil der Rust-Syntax ist. Es ist nur ein Beispiel von vielen, das Sie auf veraltete Wege führt. Grundsätzlich ist deshalb jedes Rust-Tutorial, das älter als zwei Jahre ist, mit Vorsicht zu genießen. Ebenso wie undatiertes Material. 

2. In alte Gewohnheiten zurückfallen

Einige Konzepte, die in Rust zur Anwendung kommen, können anfangs frustrieren. So gehen etwa Ownership/Borrowing-Metaphern für das Memory Management oder typbasiertes Error Handling mit steilen Lernkurven einher. An dieser Stelle einfach die Konzepte anderer Sprachen heranzuziehen, wäre jedoch nicht zielführend. Insbesondere sollten Sie unbedingt davon absehen, Memory Management im Stil von C (oder gar C++) verwenden oder direkten Raw-Memory-Zugriff über Pointer herstellen zu wollen. Referenzen sind diesbezüglich “safe”, weil sie immer über Borrowing und Ownership getrackt werden. Pointer (deren Verwendung Sie explizit aktivieren müssen) können in der Theorie auf alles mögliche verweisen, weswegen sie von Natur aus “unsafe” sind.

Die Lösung besteht an dieser Stelle allerdings nicht darin, Ihren Code großzügig mit unsafe{} auszuschmücken, um Pointer innerhalb dieser Bereiche dereferenzieren zu können. Nutzen Sie stattdessen von Anfang an Referenzen und machen Sie sich mit Typen wie Box, Rc und Arc vertraut. Sie ermöglichen es, Ownership-Regeln für beliebige Memory-Bereiche zu nutzen. So müssen Sie sich gar nicht erst mit dem Thema Raw Pointer beschäftigen. Und sollten Sie wirklich keine andere Wahl haben: Beschränken Sie Pointer auf die kleinstmöglichen unsafe{}-Bereiche und extrahieren Sie aus diesen Rust-Werte, die “safe” sind.

Insbesondere C++-Entwickler versuchen oft, die gewohnten Idiome in Rust zu reproduzieren. Wenn Sie zu diesen geplagten Kandidaten gehören, kann das “C++ to Rust Phrasebook” unter Umständen eine Hilfestellung bieten, um elegant von C++- zu Rust-Konzepten überzugehen.

3. Sämtliche String-Typen durchdringen wollen

Innerhalb des Rust-Ökosystems existieren diverse String-Typen, um Text zu verarbeiten. Diese sind in vielen Fällen für spezifische Tasks gedacht. Falls Sie lediglich Strings zwischen Funktionen übergeben oder auf der Konsole ausgeben möchten, müssen Sie sich darüber (erst einmal) keine Gedanken machen. Konzentrieren Sie sich stattdessen zunächst lieber auf die beiden gängigsten String-Typen:

str (unveränderlich, entspricht im Wesentlichen dem, was String-Literale im Code liefern) und

String (veränderlich, wird immer im Heap gespeichert).

Nutzen Sie str, um String-Konstanten zu erstellen und &str, um “borrowed” Referenzen auf vorhandenen String-Werten abzurufen. Alles andere kann vorerst warten.

4. Auf Cloning verzichten

Ihr Erfolg als Rust-Programmierer hängt ganz wesentlich davon ab, erkennen zu können, wann Memory Management unerlässlich ist. Solange Sie allerdings noch nicht mit der Syntax und den Tools der Sprache vertraut sind, kann dieser Aspekt eine enorme Belastung darstellen. Ein Weg, die Borrowing-Sorgen vergessen zu machen, besteht darin, Objekte zu klonen – statt die Ownership zu übertragen. Im Rahmen dieses Cloning-Prozesses wird eine neue Instanz derselben Daten erstellt, jedoch mit einem neuen, unabhängigen Owner. Die ursprüngliche Instanz behält hingegen ihren ursprünglichen Owner, so dass es keine Object-Ownership-Probleme entstehen können. Und: Wie beim Originalobjekt wird auch der Klon automatisch gelöscht, sobald er den Scope verlässt.

Der Nachteil: Cloning kann Performance kosten, insbesondere wenn Sie darauf mehrere Male innerhalb eines Loops zurückgreifen. Speziell wenn es um leistungssensitiven Code geht, sollten Sie das deshalb vermeiden. Bis Sie diese Art von Code erstellen (und gelernt haben, wie Sie Metriken nutzen, um Hot Paths im Code zu erkennen), können Sie auf Cloning setzen, um die Ownership-Chain Ihrer Objekte klarer herauszustellen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

4 Don’ts für Rust-Einsteiger​ Weiterlesen »

Zero Trust Network Access: Die wichtigsten ZTNA-Anbieter und -Lösungen​

Allgemein

Zero Trust (Network Access) kann viele Formen annehmen. Wir haben die wichtigsten Anbieter und ihre Offerings für Sie zusammengestellt. Foto: ArtemisDiana – shutterstock.com In den letzten Jahren hat das Interesse an Zero Trust Network Access (ZTNA) explosionsartig zugenommen – getrieben insbesondere durch den Remote-Work-Boom, den die Corona-Pandemie ausgelöst hat. Zu diesem Anlass mussten nicht wenige Unternehmen feststellen, dass traditionelle VPN-Netzwerke schnell an ihre Grenzen kommen, wenn eine Vielzahl von Mitarbeitern parallel remote arbeiten will. Davon abgesehen ist der traditionelle Perimeter-basierte Sicherheitsansatz ohnehin nicht mehr zeitgemäß. Darauf haben Netzwerk- und Security-Anbieter reagiert und eine ganze Reihe von Produkten und Services an den Start gebracht, die VPN-Konnektivität ergänzen oder komplett ersetzen sollen und Fernzugriff mit Zero-Trust-Prinzipien versprechen. Weil es sich bei Zero Trust jedoch nicht um ein Produkt, sondern ein Framework (PDF) handelt, ist der Zusatz “ZTNA” durchaus mit Vorsicht zu genießen, wie Forrester Analyst David Holm unterstreicht: “Die Anbietergemeinschaft hat Zero Trust schnell als wirksamen Marketingbegriff erkannt, was zu einer Art Anti-Hype geführt hat. Viele Provider vermarkten ZTNA-Funktionen zudem nicht als eigenständige Produkte oder Services, sondern integrieren diese in größere Security-Suiten oder -Toolsets.” ZTNA-Anbieter im Überblick Um Ihnen den Überblick in Sachen ZTNA zu erleichtern, haben wir im Folgenden die aktuell wichtigsten Anbieter und ihre Offerings im Bereich Zero Trust Network Access in alphabetischer Reihenfolge für Sie zusammengestellt. Tiefgehendere beziehungsweise weiterführende Informationen finden Sie auf der jeweils verlinkten Hersteller-Webseite sowie in der IDC-Studie “Worldwide Zero Trust Network Access 2023 Vendor Assessment“. Akamai Enterprise Application Access Mit Akamais Lösung können Benutzer per Browser auf geschützte Anwendungen zugreifen (es gibt auch eine clientbasierte Alternative). Device Profiling ist direkt in die Optionen zur Durchsetzung von Richtlinien integriert. Nicht enthalten sind allerdings Data-Loss-Prevention- (DLP) und Threat-Detection-Features. Anwenderunternehmen können Akamai Enterprise Application Access mit vorhandenen Identity Service Providern und in bestehende Systeme zur Multifaktor-Authentifizierung (MFA) integrieren. Darüber hinaus lässt sich Akamais ZTNA-Lösung natürlich auch mit der MFA-Lösung sowie den Network-Access-Control- und Mikrosegmentierungs-Tools des Anbieters nutzen. Appgate SDP Zu den Pionieren im Bereich ZTNA zählt Appgate. Das Unternehmen bietet mit seiner Lösung eine ganze Reihe von Funktionen, darunter Single-Packet Authorization, “getarnte” Applikationen und Access Points sowie clientless Acess und Direct Routing. Letzteres trägt zusätzlich dazu bei, geschützte Ressourcen abzuschirmen. Was die Implmentierung angeht, stehen den Anwendern diverse Optionen zur Wahl – von Cloud-hosted bis On-Premises. Eine besondere Stärke des Appgate-Angebots: Es unterstützt eine Reihe spezieller Netzwerkprotokolle und eignet sich deswegen besonders gut für OT-, IoT– und Industrial-Rollouts. Nativ mangelt es dem Offering an Tools wie DLP oder Network Edge Security as a Service (NESaaS) – Partnerschaften mit Drittanbietern sollen diese Lücken schließen. Cisco Secure Client Der (Unified) Secure Client von Cisco unterstützt sowohl VPN als auch ZTNA und lässt Anwender wahlweise ZTNA App Connectors oder Backhaul VPN implementieren – Integrationsoptionen für SD-WAN-Lösungen von Drittanbietern sind ebenfalls geboten. Die Cisco-Lösung bietet ein einheitliches Dashboard für ZTNA- und NESaaS-Management. Zudem ist für die Zukunft eine engere Integration mit dem umfangreichen Cybersecurity-Portfolio des Konzerns geplant. Das aktuelle Angebot stützt sich auf andere Cisco-Technologien wie Duo und Umbrella Secure Cloud Service. Das könnte für entsprechend ausgestattete Anwender von Vorteil sein – für diejenigen, die noch keine Geschäftsbeziehung zu Cisco unterhalten, wahrscheinlich nicht. Citrix Secure Private Access Bei Citrix ist Zero Trust Network Access Teil einer umfassenden Remote-Access-Mission – und reiht sich im Portfolio neben VPN-, Virtual-Desktop-, Enterprise-Browser- und Desktop-as-a-Service-Angeboten ein, die sowohl cloudbasiert als auch On-Premises zu haben sind. Citrix Secure Private Access bietet eine Application-Discovery-Funktion inklusive Workflows, um automatisiert App-Zugangsdefinitionen und Richtlinien zu erstellen. Um den Anwendern das Onboarding respektive die Konfiguration zu erleichtern, bietet die Citrix-Lösung Hunderte vorausgefüllte Single-Sign-On-Templates für Webanwendungen. Citrix ist einer der wenigen Anbieter, der mit einer nativen Client-Benutzeroberfläche, einem nativen Browser und Kontrollmechanismen aufwarten kann, um BYOD sowie Managed und Unmanaged Devices zu unterstützen. Allerdings ist Secure Private Access nicht Teil einer vollständigen NESaaS-Plattform und kann nicht mit Mikrosegmentierungslösungen integriert werden. Cloudflare Access Cloudflare nutzt seine Cloud-Content-Delivery-Expertise auch im Rahmen seines ZTNA-Offerings. Cloudflare Access kombiniert Web Application Firewall, DDoS-Abwehr und Bot-Management mit nativen Threat-Detection-Funktionen (auf Machine-Learning-Basis). Die Lösung unterstützt Cloud- und On-Premises-Rollouts, Managed und Unmanaged Devices (einschließlich IoT) sowie RDP-Anwendungen. Vermissen lässt die Cloudflare-Lösung einige Cloud-nahe Zero-Trust-Technologien wie Mikrosegmentierung, Network Access Control oder MFA. Entsprechende Drittanbieter-Lösungen lassen sich nur über APIs integrieren. Forcepoint One ZTNA Mit One ZTNA bietet Forcepoint eine Cloud-native und Cloud-geroutete ZTNA-Lösung, die sowohl agentenlos als auch agentenbasiert eingesetzt werden kann und neben DLP-Integrationsmöglichkeiten auch einige einzigartige Funktionen mitbringt (etwa Steganografie-Support). Anwender, die bereits Kunde bei Forcepoint sind, können praktischerweise die SD-WAN- und Firewall-Produkte des Anbieters als ZTNA-Anwendungskonnektoren nutzen. Das Portfolio des Sicherheitsanbieters fokussiert auf Compliance und bietet zu diesem Zweck unter anderem vordefinierte Templates. Auf der Negativseite ist der Mangel an Elementen des Software-defined Perimeter aufzuführen: keine Single-Packet-Authorization, Resource Cloaking oder dedizierte Mikrosegmentierung. Fortinet Fortinet integriert ZTNA eng mit seinem FortiFabric-Ökosystem. Dieses umfasst diverse Security- und Netzwerkprodukte, etwa Mikrosegmentierung, IAM, MFA, SIEM, SOAR, EDR oder SD-WAN. Fortinets ZTNA-Lösung arbeitet problemlos parallel zum VPN des Unternehmens – je nachdem, welche Anwendungen der Endbenutzer ausführt. Der Sicherheitsanbieter bietet eines der preisgünstigsten ZTNA-Angebote der Branche (vierteljährliche Software-Updates mit neuen Funktionen inklusive). Der Haken: Wenn Sie kein Fortinet-Kunde sind, ist die ZTNA-Lösung nicht als Standalone-Angebot erhältlich. Google BeyondCorp Das ZTNA-Angebot von Google ist eine Komponente seines erfolgreichen und weitverbreiteten Chrome-Browsers. Da für diese ZTNA-Lösung keine zusätzliche Software oder Agenten im Hintergrund laufen müssen, reduziert sie die Komplexität und ist einem zügigen Rollout zuträglich. Das System arbeitet mit Googles weltweitem Managed Network und profitiert folglich von einer starken Netzwerk-Performance. Die Kehrseite der Medaille: Die Lösung ist auf den Browser beschränkt und enthält keinen dedizierten Endpunkt-Agenten. ZTNA ist Teil des NESaaS-Angebots von Google, das mit Tools von Palo Alto Networks integriert. iboss Network Security as a Service und Zero Trust wird bei iBoss “vermengt”. Der ZTNA-Service des Unternehmens basiert auf einer Container-Architektur, die den gesamten Stack an Netzwerksicherheitsfunktionen ermöglicht und alle Anwendungen und Ressourcen mit einem “Cloud Edge Service” abschirmt, um Scanning- oder Spähaktionen vorzubeugen. Die Browser der Benutzer fungieren hierbei als Clients und streamen sämtliche Funktionen und Daten in Pixel- statt in Daten- oder Code-Form. Im Ergebnis landen keine Daten auf den Endgeräten der Benutzer. Die Lösungen von iboss sind für Unternehmensanwender konzipiert, die den Luxus haben, sich in ein komplexes Managementsystem einarbeiten zu können. Eine traditionelle Firewall ist nicht Teil der Lösung, bei Bedarf können die On-Premises-Cloud-Gateways des Anbieters jedoch als Firewalls eingesetzt werden. Netskope Private Access (ZTNA Next) Das ZTNA-Angebot von Netskope ist Teil einer umfassenderen NESaaS-Suite, die auch Data-Protection- und Threat-Prevention-Funktionen umfasst. Netskope nutzt seine DLP- und User-Analytics-Funktionen für adaptive Zugriffskontrollen in seiner ZTNA-Lösung. Das aktuelle Netskope ZTNA funktioniert mit modernisierten Webanwendungen. Wenn Legacy-Anwendungen für Sie wichtig sind, müssen Sie sich noch etwas gedulden: Netskope hat sein Angebot inzwischen umfassend aktualisiert – und in ZTNA Next umbenannt. Palo Alto Networks Prisma Die ZTNA-Lösung von Palo Alto Networks ist Teil der übergreifenden Sicherheitsplattform des Anbieters. Diese vereint Zero Trust Network Access, Secure Web Gateway und Firewall as a Service in einem Produkt. Eine gleichbleibende Servicequalität über sein gesamtes Portfolio hinweg kann Palo Alto deswegen gewährleisten, weil es Zugang zum Premium-Glasfasernetzwerk von Google hat. Prisma Access ZTNA profitiert von der Integration in das NESaaS-Angebot des Anbieters und dürfte insbesondere für Anwender interessant sein, die auch andere Produkte beziehunsgweise Angebote des Unternehmens in Betracht ziehen. Dabei unterstützt die ZTNA-Lösung sowohl moderne als auch Legacy-Anwendungen und ist äußerst flexibel, wenn es um Bereitstellungsmodelle geht: Out-of-Band-, Inline-, Proxy-basiert, über die Cloud geroutet oder direkt über einen Agenten sind genauso möglich wie agentenlos, vor Ort gehostet oder ein containerisierter Rollout. Skyhigh Private Access Skyhigh bietet ein Cloud-geroutetes ZTNA-Modell, das verspricht, Anwendungen vor unbefugtem Zugriff oder Scanning zu schützen. Dabei bietet Private Access umfassende DLP-Kontrollen in Kombination mit fortschrittlichem EDM, IDM und OCR. Das Angebot umfasst darüber hinaus auch eine Inline-Sandboxing-Option, die Zero-Day-Bedrohungen durch Emulation erkennt. Der Zugriff funktioniert sowohl agentenbasierten als auch agentenlos – BYOD und mobile Geräte werden ebenfalls unterstützt. Ein besonderer Fokus liegt bei Skyhigh auf stark regulierten Branchen: Betreffenden Unternehmen stehen eine Reihe von Richtlinien-Templates zur Verfügung. Skyhigh Security bietet mit Private Access keine nativen DLP-Funktionen – diese sind in Security Suite des Anbieters enthalten. Diese ZTNA-Lösung dürfte also vor allem für Bestandkunden ein attraktives Add-on darstellen. Sophos ZTNA Beim Security-Anbieter Sophos ist Zero Trust Network Access eng mit der Endpoint-Lösung des Unternehmens integriert. Beide Lösungen teilen sich einen Agenten sowie Bedrohungstelemetrie- und -statusinformationen, um Zugriffsrechte in Echtzeit einzuschränken oder zu entziehen. Sophos ZTNA lässt sich darüber hinaus auch in das breitere Ökosystem des Providers integrieren, einschließlich seines Rund-um-die-Uhr Managed-Detection-und-Response-Service. Die enge Integration mit anderen Produkten macht Sophos ZTNA in erster Linie für Bestandkunden interessant. Symantec ZTNA Die ursprünglich von Luminate entwickelte Symantec ZTNA ist inzwischen Teil des breitgefächerten NESaaS-Angebots von Broadcom und kann sowohl mit als auch ohne Agenten betrieben werden (wobei letztere bevorzugt werden). Die Lösung beinhaltet unter anderem eine Funktion namens “Mirror Gateway”, die mithilfe von Reverse Proxying und Browser-Isolierung ausgewählten Benutzern den Zugriff auf Daten erlaubt, einen Download der Informationen jedoch verhindert. Um das Tool in automatisierte DevSecOps-Prozesse zu integrieren, können Entwickler die Symantec ZTNA-API verwenden. Dieses ZTNA-Angebot richtet sich in erster Linie an Großunternehmen. Zscaler Private Access Bei Zscaler liegt der Fokus auf cloud-basierten Security Services – da bildet auch Zero Trust Network Access keine Ausnahme. Der Private-Access-Service leitet den gesamten Benutzer- und Geräte-Traffic über Zscalers Zero-Trust-Exchange-Plattform, um umfassende Transparenz, Kontrolle sowie ein konsistentes Sicherheitsniveau zu gewährleisten. Die Lösung umfasst auch eine KI-generierte Richtlinie, um den Zugriff von Benutzern auf Anwendungen automatisiert zu segmentieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Zero Trust Network Access: Die wichtigsten ZTNA-Anbieter und -Lösungen​ Zero Trust (Network Access) kann viele Formen annehmen. Wir haben die wichtigsten Anbieter und ihre Offerings für Sie zusammengestellt.
Foto: ArtemisDiana – shutterstock.com

In den letzten Jahren hat das Interesse an Zero Trust Network Access (ZTNA) explosionsartig zugenommen – getrieben insbesondere durch den Remote-Work-Boom, den die Corona-Pandemie ausgelöst hat. Zu diesem Anlass mussten nicht wenige Unternehmen feststellen, dass traditionelle VPN-Netzwerke schnell an ihre Grenzen kommen, wenn eine Vielzahl von Mitarbeitern parallel remote arbeiten will. Davon abgesehen ist der traditionelle Perimeter-basierte Sicherheitsansatz ohnehin nicht mehr zeitgemäß. Darauf haben Netzwerk- und Security-Anbieter reagiert und eine ganze Reihe von Produkten und Services an den Start gebracht, die VPN-Konnektivität ergänzen oder komplett ersetzen sollen und Fernzugriff mit Zero-Trust-Prinzipien versprechen.

Weil es sich bei Zero Trust jedoch nicht um ein Produkt, sondern ein Framework (PDF) handelt, ist der Zusatz “ZTNA” durchaus mit Vorsicht zu genießen, wie Forrester Analyst David Holm unterstreicht: “Die Anbietergemeinschaft hat Zero Trust schnell als wirksamen Marketingbegriff erkannt, was zu einer Art Anti-Hype geführt hat. Viele Provider vermarkten ZTNA-Funktionen zudem nicht als eigenständige Produkte oder Services, sondern integrieren diese in größere Security-Suiten oder -Toolsets.”

ZTNA-Anbieter im Überblick

Um Ihnen den Überblick in Sachen ZTNA zu erleichtern, haben wir im Folgenden die aktuell wichtigsten Anbieter und ihre Offerings im Bereich Zero Trust Network Access in alphabetischer Reihenfolge für Sie zusammengestellt. Tiefgehendere beziehungsweise weiterführende Informationen finden Sie auf der jeweils verlinkten Hersteller-Webseite sowie in der IDC-Studie “Worldwide Zero Trust Network Access 2023 Vendor Assessment“.

Akamai Enterprise Application Access

Mit Akamais Lösung können Benutzer per Browser auf geschützte Anwendungen zugreifen (es gibt auch eine clientbasierte Alternative). Device Profiling ist direkt in die Optionen zur Durchsetzung von Richtlinien integriert. Nicht enthalten sind allerdings Data-Loss-Prevention- (DLP) und Threat-Detection-Features.

Anwenderunternehmen können Akamai Enterprise Application Access mit vorhandenen Identity Service Providern und in bestehende Systeme zur Multifaktor-Authentifizierung (MFA) integrieren. Darüber hinaus lässt sich Akamais ZTNA-Lösung natürlich auch mit der MFA-Lösung sowie den Network-Access-Control- und Mikrosegmentierungs-Tools des Anbieters nutzen.

Appgate SDP

Zu den Pionieren im Bereich ZTNA zählt Appgate. Das Unternehmen bietet mit seiner Lösung eine ganze Reihe von Funktionen, darunter Single-Packet Authorization, “getarnte” Applikationen und Access Points sowie clientless Acess und Direct Routing. Letzteres trägt zusätzlich dazu bei, geschützte Ressourcen abzuschirmen. Was die Implmentierung angeht, stehen den Anwendern diverse Optionen zur Wahl – von Cloud-hosted bis On-Premises.

Eine besondere Stärke des Appgate-Angebots: Es unterstützt eine Reihe spezieller Netzwerkprotokolle und eignet sich deswegen besonders gut für OT-, IoT– und Industrial-Rollouts. Nativ mangelt es dem Offering an Tools wie DLP oder Network Edge Security as a Service (NESaaS) – Partnerschaften mit Drittanbietern sollen diese Lücken schließen.

Cisco Secure Client

Der (Unified) Secure Client von Cisco unterstützt sowohl VPN als auch ZTNA und lässt Anwender wahlweise ZTNA App Connectors oder Backhaul VPN implementieren – Integrationsoptionen für SD-WAN-Lösungen von Drittanbietern sind ebenfalls geboten.

Die Cisco-Lösung bietet ein einheitliches Dashboard für ZTNA- und NESaaS-Management. Zudem ist für die Zukunft eine engere Integration mit dem umfangreichen Cybersecurity-Portfolio des Konzerns geplant. Das aktuelle Angebot stützt sich auf andere Cisco-Technologien wie Duo und Umbrella Secure Cloud Service. Das könnte für entsprechend ausgestattete Anwender von Vorteil sein – für diejenigen, die noch keine Geschäftsbeziehung zu Cisco unterhalten, wahrscheinlich nicht.

Citrix Secure Private Access

Bei Citrix ist Zero Trust Network Access Teil einer umfassenden Remote-Access-Mission – und reiht sich im Portfolio neben VPN-, Virtual-Desktop-, Enterprise-Browser- und Desktop-as-a-Service-Angeboten ein, die sowohl cloudbasiert als auch On-Premises zu haben sind.

Citrix Secure Private Access bietet eine Application-Discovery-Funktion inklusive Workflows, um automatisiert App-Zugangsdefinitionen und Richtlinien zu erstellen. Um den Anwendern das Onboarding respektive die Konfiguration zu erleichtern, bietet die Citrix-Lösung Hunderte vorausgefüllte Single-Sign-On-Templates für Webanwendungen.

Citrix ist einer der wenigen Anbieter, der mit einer nativen Client-Benutzeroberfläche, einem nativen Browser und Kontrollmechanismen aufwarten kann, um BYOD sowie Managed und Unmanaged Devices zu unterstützen. Allerdings ist Secure Private Access nicht Teil einer vollständigen NESaaS-Plattform und kann nicht mit Mikrosegmentierungslösungen integriert werden.

Cloudflare Access

Cloudflare nutzt seine Cloud-Content-Delivery-Expertise auch im Rahmen seines ZTNA-Offerings. Cloudflare Access kombiniert Web Application Firewall, DDoS-Abwehr und Bot-Management mit nativen Threat-Detection-Funktionen (auf Machine-Learning-Basis). Die Lösung unterstützt Cloud- und On-Premises-Rollouts, Managed und Unmanaged Devices (einschließlich IoT) sowie RDP-Anwendungen.

Vermissen lässt die Cloudflare-Lösung einige Cloud-nahe Zero-Trust-Technologien wie Mikrosegmentierung, Network Access Control oder MFA. Entsprechende Drittanbieter-Lösungen lassen sich nur über APIs integrieren.

Forcepoint One ZTNA

Mit One ZTNA bietet Forcepoint eine Cloud-native und Cloud-geroutete ZTNA-Lösung, die sowohl agentenlos als auch agentenbasiert eingesetzt werden kann und neben DLP-Integrationsmöglichkeiten auch einige einzigartige Funktionen mitbringt (etwa Steganografie-Support).

Anwender, die bereits Kunde bei Forcepoint sind, können praktischerweise die SD-WAN- und Firewall-Produkte des Anbieters als ZTNA-Anwendungskonnektoren nutzen. Das Portfolio des Sicherheitsanbieters fokussiert auf Compliance und bietet zu diesem Zweck unter anderem vordefinierte Templates. Auf der Negativseite ist der Mangel an Elementen des Software-defined Perimeter aufzuführen: keine Single-Packet-Authorization, Resource Cloaking oder dedizierte Mikrosegmentierung.

Fortinet

Fortinet integriert ZTNA eng mit seinem FortiFabric-Ökosystem. Dieses umfasst diverse Security- und Netzwerkprodukte, etwa Mikrosegmentierung, IAM, MFA, SIEM, SOAR, EDR oder SD-WAN.

Fortinets ZTNA-Lösung arbeitet problemlos parallel zum VPN des Unternehmens – je nachdem, welche Anwendungen der Endbenutzer ausführt. Der Sicherheitsanbieter bietet eines der preisgünstigsten ZTNA-Angebote der Branche (vierteljährliche Software-Updates mit neuen Funktionen inklusive). Der Haken: Wenn Sie kein Fortinet-Kunde sind, ist die ZTNA-Lösung nicht als Standalone-Angebot erhältlich.

Google BeyondCorp

Das ZTNA-Angebot von Google ist eine Komponente seines erfolgreichen und weitverbreiteten Chrome-Browsers. Da für diese ZTNA-Lösung keine zusätzliche Software oder Agenten im Hintergrund laufen müssen, reduziert sie die Komplexität und ist einem zügigen Rollout zuträglich. Das System arbeitet mit Googles weltweitem Managed Network und profitiert folglich von einer starken Netzwerk-Performance.

Die Kehrseite der Medaille: Die Lösung ist auf den Browser beschränkt und enthält keinen dedizierten Endpunkt-Agenten. ZTNA ist Teil des NESaaS-Angebots von Google, das mit Tools von Palo Alto Networks integriert.

iboss

Network Security as a Service und Zero Trust wird bei iBoss “vermengt”. Der ZTNA-Service des Unternehmens basiert auf einer Container-Architektur, die den gesamten Stack an Netzwerksicherheitsfunktionen ermöglicht und alle Anwendungen und Ressourcen mit einem “Cloud Edge Service” abschirmt, um Scanning- oder Spähaktionen vorzubeugen. Die Browser der Benutzer fungieren hierbei als Clients und streamen sämtliche Funktionen und Daten in Pixel- statt in Daten- oder Code-Form. Im Ergebnis landen keine Daten auf den Endgeräten der Benutzer.

Die Lösungen von iboss sind für Unternehmensanwender konzipiert, die den Luxus haben, sich in ein komplexes Managementsystem einarbeiten zu können. Eine traditionelle Firewall ist nicht Teil der Lösung, bei Bedarf können die On-Premises-Cloud-Gateways des Anbieters jedoch als Firewalls eingesetzt werden.

Netskope Private Access (ZTNA Next)

Das ZTNA-Angebot von Netskope ist Teil einer umfassenderen NESaaS-Suite, die auch Data-Protection- und Threat-Prevention-Funktionen umfasst. Netskope nutzt seine DLP- und User-Analytics-Funktionen für adaptive Zugriffskontrollen in seiner ZTNA-Lösung.

Das aktuelle Netskope ZTNA funktioniert mit modernisierten Webanwendungen. Wenn Legacy-Anwendungen für Sie wichtig sind, müssen Sie sich noch etwas gedulden: Netskope hat sein Angebot inzwischen umfassend aktualisiert – und in ZTNA Next umbenannt.

Palo Alto Networks Prisma

Die ZTNA-Lösung von Palo Alto Networks ist Teil der übergreifenden Sicherheitsplattform des Anbieters. Diese vereint Zero Trust Network Access, Secure Web Gateway und Firewall as a Service in einem Produkt. Eine gleichbleibende Servicequalität über sein gesamtes Portfolio hinweg kann Palo Alto deswegen gewährleisten, weil es Zugang zum Premium-Glasfasernetzwerk von Google hat.

Prisma Access ZTNA profitiert von der Integration in das NESaaS-Angebot des Anbieters und dürfte insbesondere für Anwender interessant sein, die auch andere Produkte beziehunsgweise Angebote des Unternehmens in Betracht ziehen. Dabei unterstützt die ZTNA-Lösung sowohl moderne als auch Legacy-Anwendungen und ist äußerst flexibel, wenn es um Bereitstellungsmodelle geht: Out-of-Band-, Inline-, Proxy-basiert, über die Cloud geroutet oder direkt über einen Agenten sind genauso möglich wie agentenlos, vor Ort gehostet oder ein containerisierter Rollout.

Skyhigh Private Access

Skyhigh bietet ein Cloud-geroutetes ZTNA-Modell, das verspricht, Anwendungen vor unbefugtem Zugriff oder Scanning zu schützen.

Dabei bietet Private Access umfassende DLP-Kontrollen in Kombination mit fortschrittlichem EDM, IDM und OCR. Das Angebot umfasst darüber hinaus auch eine Inline-Sandboxing-Option, die Zero-Day-Bedrohungen durch Emulation erkennt. Der Zugriff funktioniert sowohl agentenbasierten als auch agentenlos – BYOD und mobile Geräte werden ebenfalls unterstützt. Ein besonderer Fokus liegt bei Skyhigh auf stark regulierten Branchen: Betreffenden Unternehmen stehen eine Reihe von Richtlinien-Templates zur Verfügung.

Skyhigh Security bietet mit Private Access keine nativen DLP-Funktionen – diese sind in Security Suite des Anbieters enthalten. Diese ZTNA-Lösung dürfte also vor allem für Bestandkunden ein attraktives Add-on darstellen.

Sophos ZTNA

Beim Security-Anbieter Sophos ist Zero Trust Network Access eng mit der Endpoint-Lösung des Unternehmens integriert. Beide Lösungen teilen sich einen Agenten sowie Bedrohungstelemetrie- und -statusinformationen, um Zugriffsrechte in Echtzeit einzuschränken oder zu entziehen.

Sophos ZTNA lässt sich darüber hinaus auch in das breitere Ökosystem des Providers integrieren, einschließlich seines Rund-um-die-Uhr Managed-Detection-und-Response-Service. Die enge Integration mit anderen Produkten macht Sophos ZTNA in erster Linie für Bestandkunden interessant.

Symantec ZTNA

Die ursprünglich von Luminate entwickelte Symantec ZTNA ist inzwischen Teil des breitgefächerten NESaaS-Angebots von Broadcom und kann sowohl mit als auch ohne Agenten betrieben werden (wobei letztere bevorzugt werden). Die Lösung beinhaltet unter anderem eine Funktion namens “Mirror Gateway”, die mithilfe von Reverse Proxying und Browser-Isolierung ausgewählten Benutzern den Zugriff auf Daten erlaubt, einen Download der Informationen jedoch verhindert.

Um das Tool in automatisierte DevSecOps-Prozesse zu integrieren, können Entwickler die Symantec ZTNA-API verwenden. Dieses ZTNA-Angebot richtet sich in erster Linie an Großunternehmen.

Zscaler Private Access

Bei Zscaler liegt der Fokus auf cloud-basierten Security Services – da bildet auch Zero Trust Network Access keine Ausnahme. Der Private-Access-Service leitet den gesamten Benutzer- und Geräte-Traffic über Zscalers Zero-Trust-Exchange-Plattform, um umfassende Transparenz, Kontrolle sowie ein konsistentes Sicherheitsniveau zu gewährleisten. Die Lösung umfasst auch eine KI-generierte Richtlinie, um den Zugriff von Benutzern auf Anwendungen automatisiert zu segmentieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Zero Trust Network Access: Die wichtigsten ZTNA-Anbieter und -Lösungen​ Weiterlesen »

Barfuß, bauchfrei, Bermuda: Dresscode: Sommersünden im Büro​

Allgemein

Der Sommer in Deutschland steht vor der Tür und stellt diejenigen, die im Büro arbeiten müssen, jeden Morgen vor die Frage: Was ziehe ich heute an? Sind jetzt tatsächlich Seidenstrümpfe und dunkle Kostüme angesagt? Dürfen es auch mal Bermudas sein? Offene Sandalen, luftiges Top? Welche Dresscodes sind im Büro erlaubt? Die Stil-Expertinnen Christina Tabernig (links) und Anke Quittschau. Foto: Korrekt “Es ist immer wieder Ermessenssache, wie weit man sich aus dem Fenster lehnen möchte”, sagt Benimm-Trainerin Christina Tabernig von der Agentur korrekt! und fährt fort: “Jeder sollte sich fragen, was sein Kunde von ihm erwartet und in wie weit er dem Image seiner Firma gerecht werden muss?” Denn schon durch die Beantwortung dieser Fragen lassen sich viele Lösungen finden. Wir haben die Trainerinnen Anke Quittschau und Christina Tabernig von korrekt! gebeten, die wichtigsten Tipps für die heiße Jahreszeit für uns zusammenzufassen: “Wir haben selber viele Trainings in heißen Sommermonaten veranstaltet. Oft haben uns die Kunden vorher angerufen und um legere Sommerkleidung gebeten. Dem ist grundsätzlich nichts entgegenzusetzen und es ist eigentlich eine sehr nette Geste. Bei diesen Temperaturen kann man bestehende Regeln auch aktiv außer Kraft setzen. Da wir in Deutschland nicht in einer Air-Condition-Gesellschaft leben wie in den USA, haben wir es durchaus schwerer, was die Konzentration in heißen Räumen angeht. Aber zurück zum Dresscode”: Männer in Bermudas? Männer müssen auf jeden Fall eine lange Hose tragen. Sie können keineswegs wie in Australien oder den USA in Shorts ins Büro kommen. Niemals! Solange Sie keinen Kundenkontakt haben, können Sie auch ein kurzärmeliges Hemd tragen, dann aber ohne Krawatte und leger ohne Sakko. Gehen Sie jedoch zum Kunden, kommen Sie im Grunde nicht um einen Anzug mit langärmeligem Hemd und Krawatte herum. Vor allem für Führungskräfte gilt: Je höher sie auf der Karriereleiter angelangt sind, desto eher müssen sie den Anzug auch im Sommer tragen. Das Schuhwerk der Herren sollte immer geschlossen sein. Mit Sandalen, Birkenstocks oder Latschen geht niemand ins Büro. Slipper ohne Socken sind nur in der Freizeit möglich. Frauen: Von Miniröcken und Spaghettiträgern Frauen haben eine größere Auswahl an Schuhen, aber die Zehen sollte man auch nicht sehen. Foto: Lisa S. – shutterstock.com Die weibliche Geschäftswelt hat es da etwas einfacher. Mit Rock und Bluse ist eine Frau schon meist gut gekleidet. Aber auch hier gilt, je höher die Management-Etage, in der Sie sich bewegen, desto strenger ist Ihr Dresscode. Aber was geht nun gar nicht? Grundsätzlich kann man sagen, alles was für den Strand tauglich ist, ist kein Outfit für das Büro. Also niemals: Bauchfrei, Spaghetti-Träger oder Schultern zeigen in konservativen Unternehmen. Auch Schuhe, die vorne offen sind, sind hier nicht angebracht. Röcke und Kleider sollten Knie umspielend sein oder länger. Miniröcke enden höchstens eine Handbreit über dem Knie. Also zu breite Gürtel oder Hot-Pants sind nicht für den Einsatz im Büro gedacht. Längere Shorts, die am Knie enden, können durchaus passend kombiniert eingesetzt werden. Frauen haben einfach einen größeren Spielraum. Vermeiden Sie aber Kleidung zu tragen, bei der man Schweißränder oder Flecken gut sehen kann. Hierunter fallen Farben, die durchgeschwitzt deutlich dunkler werden als der Ursprungston. Dazu gehören etwa lindgrüne Seidenblusen, khaki-farbene Kleider oder Sakkos. Um große Schweißflecke unter dem Arm zu vermeiden, können Sie spezielle Einlagen einnähen oder kleben, die den Schweiß aufnehmen. Models kleben sich oft einfach nur Slipeinlagen ein. Wie spreche ich ein Schweißproblem an? Schweißgeruch bei Kollegen oder Mitarbeitern sollte man auf jeden Fall ansprechen, denn der Schwitzende riecht es oft selber nicht; er hat sich an seinen Geruch gewöhnt. Das gleiche kann passieren, wenn jemand über einen langen Zeitraum das gleiche Parfum verwendet und die richtige Dosis nicht mehr einschätzen kann. Sprechen Sie das Schweißproblem auf jeden Fall unter vier Augen an und möglichst auf der gleichen Geschlechterebene. Beginnen Sie mit verständnisvollen Einleitungssätzen wie “Es fällt mir nicht leicht das anzusprechen . . .” oder “Es ist mir etwas unangenehm, aber mir ist aufgefallen . . .”. Wenn man jemanden wirklich gut kennt, dann kann man ihm auch sagen: “Hör mal, du hast heute ganz schönen Mundgeruch.” Oder: “Heute riechst du aber sehr intensiv nach Schweiß.” Versuchen Sie diese Nachricht aber möglichst freundlich zu übermitteln und geben Sie dem Betroffenen das Gefühl, dass Sie es gut mit ihm meinen. Niemand wird dann beleidigt sein. Ihre Kollegen werden eher dankbar für Ihre Ehrlichkeit sein. Flecken auf der Kleidung Was passiert, wenn man nach der Mittagspause einen Eisfleck auf der Bluse hat? Wenn Sie keine Sofortlösung wie Reinigungstücher oder Wasser zur Verfügung haben, müssen Sie einfach damit leben. Passiert Ihnen dies auf dem Weg zum Meeting, hilft am Schluss nur die Flucht nach vorne. Entschuldigen Sie sich charmant für Ihren Aufzug und erwähnen Sie vielleicht, dass Sie normalerweise nicht so rumlaufen. Hightech im Businessdress Mit Hilfe moderner Technologien werden Anzüge und Kostüme heute resistent gegen Flecken und Gerüche ausgestattet. Hightechfasern machen dies möglich. Viele Kleidungsstücke sind schon mit der Nanotechnologie ausgestattet und erfreuen sich wachsender Beliebtheit. Anzüge mit geruchsschluckender Funktion gibt es beispielsweise von Bugatti ab 199,95 Euro. Blusen und Hemden die den Geruch stoppen von Eterna (um 49 Euro). Fleckabweisende Krawatten gibt es von Bugatti oder Olymp ab 29,95 Euro. Schon Freiherr von Knigge sagte in seinem Werk “Über den Umgang mit Menschen” (1788): “Kleide dich bequem, aber reinlich und geschmackvoll – egal wie heiß es ist.” Kleidungstipps für Profis Weitere Kleidungstipps in allen Geschäftslagen lesen Sie hier: Dresscodes: Was ist Business Casual? Wie bindet man Schnürsenkel richtig? 14 Kleidungstipps für Männer Von “hochoffiziell” bis “come as you are” – Dresscodes für Frauen Hosenanzug oder Kostüm – 10 Kleidungstipps für Business-Frauen Dresscode: Sommer im BüroEndlich Sommer! Foto: Sergey Peterman – shutterstock.comBarfuss, bauchfrei, Bermuda oder Birkenstock sind auch bei 30 Grad im Büro ein Fauxpax. Klicken Sie sich durch die größten Sommer-Sünden in Sachen Kleidung.Dazu Knigge-Expertin Christina Tabernig: Foto: Christina TabernigDer Ranghöchste beziehungsweise der Gastgeber entscheidet, wann das Sakko auszuziehen ist. Auf einer Hochzeit ist das der Bräutigam oder wie beim Weißwurstfrühstück Joachim Sauer, Ehemann von Kanzlerin Angela Merkel, der stellvertretend für die Gastgeberin auch sein Sakko ausgezogen hatte. Und US-Präsident Barack Obama folgte diesem Beispiel gern.Das Sakko bleibt an … Foto: kantver – Fotolia.com… solange der Vorgesetzte nicht abgelegt und Erleichterung angeboten hat. Frauen müssen den Blazer nicht ablegen, vielleicht tragen sie ja nur ein leichtes Shirt darunter.Männer in Bermudas oder Shorts … Foto: Eugenio Marongiu – shutterstock.com… sollten sich in deutschen Büros nicht blicken lassen, auch wenn das Thermometer auf 30 Grad und mehr klettert. Dazu die Faustregel von Knigge-Expertin Tabernig: “Alles, was am Strand nicht auffällt, hat im Büro nichts zu suchen.”Mit Sandalen … Foto: Shevs – shutterstock.com… oder Birkenstocks … Foto: G.G. Lattek – Fotolia.com… sollte kein Mann im Sommer ins Büro gehen. Mit weißen Tennissocken übrigens auch nicht. Auch Flipflops … Foto: Kenishiroties – shutterstock.com… sind nur in der Freizeit erlaubt, wenngleich sie auch bequem und luftig sind.Auf Socken … Foto: prodakszyn – shutterstock.com… können Männer nur in der Mittagspause im Park verzichten, aber niemals im Büro Slipper oder Schuhe ohne Socken tragen.Es geht auch ohne Sakko und Krawatte … Foto: Peter Atkins – Fotolia.com… oder mit Kurzarmhemd. Letzeres aber nur ohne Krawatee und Sakko tragen. Vertriebler und Berater … Foto: olly – Fotolia.com… müssen dagegen in der Regel das Sakko auch im Sommer anziehen. Ihre oberste Richtschnur ist immer der Kunde beziehungsweise die Kleidung in dessen Untenrehmen.Luftige Sommerkleider … Foto: K.- P. Adler – Fotolia.com… können Frauen im Job gern anziehen, wenn denn die Rocklänge stimmt. Eine Handbreit oberhalb des Knies ist erlaubt, alles andere geht zu weit.Auch mit Spaghetti-Trägern … Foto: paffy – shutterstock.com… und nackten Schultern sollte Frau sich zurückhalten. Freie Schultern gehören nicht ins Büro. Auch beim klassischen Etuikleid muss ein Blazer oder Jäckchen darüber getragen werden.Dicke Gürtel … Foto: withGod – shutterstock.com… sind auch nicht für den Einsatz im Büro vorgesehen.Bauchfrei, Cut-Outs und Hotpants … Foto: Gorosi – shutterstock.com… taugen für die Disco oder den Strand, sind aber kein Outfit fürs Büro.In Sachen Schuhe … Foto: Lisa S. – shutterstock.com… haben Business-Frauen eine größere Auswahl als ihre männlichen Kollegen. Geschlossene Schuhe statt offener Sandalen … Foto: Africa Studio – shutterstock.com… heißt die Devise für Business-Frauen im Sommer. Rot lackierte Fussnägel lenken den Blick vom Wesentlichen ab. Auch Feinstrumpfhosen sind im Sommer ein Muss.Slingpumps sind eine Alternative Foto: Gernot Krautberger – Fotolia.comNoch nie gehört? Das sind Sandalen, die vorne geschlossen und hinten offen sind. Große Schweißflecken … Foto: Michal Kowalski – shutterstock.com… kommen bei bestimmten Farben (lindgrün, khaki) noch deutlicher heraus. Diese Farben sollte man meiden.Wenn das Deo versagt und der Schweiß siegt, … Foto: mehmet dinler – shutterstock.com… kann man das dem schwitzenden Kollegen unter vier Augen und im freundlich-verständnisvollen Ton sagen. Vielleicht fällt ihm selbst der Schweißgeruch ja gar nicht mehr auf. Eis in der Mittagspause … Foto: Gtranquillity – shutterstock.com… hilft über so manchen heißen Bürotag hinweg. Was aber, wenn man einen Eisfleck auf der Bluse hat? Wenn Sie keine Sofortlösung wie Reinigungstücher oder Wasser zur Verfügung haben, müssen Sie damit leben. 

Barfuß, bauchfrei, Bermuda: Dresscode: Sommersünden im Büro​ Der Sommer in Deutschland steht vor der Tür und stellt diejenigen, die im Büro arbeiten müssen, jeden Morgen vor die Frage: Was ziehe ich heute an? Sind jetzt tatsächlich Seidenstrümpfe und dunkle Kostüme angesagt? Dürfen es auch mal Bermudas sein? Offene Sandalen, luftiges Top? Welche Dresscodes sind im Büro erlaubt?

Die Stil-Expertinnen Christina Tabernig (links) und Anke Quittschau.
Foto: Korrekt

“Es ist immer wieder Ermessenssache, wie weit man sich aus dem Fenster lehnen möchte”, sagt Benimm-Trainerin Christina Tabernig von der Agentur korrekt! und fährt fort: “Jeder sollte sich fragen, was sein Kunde von ihm erwartet und in wie weit er dem Image seiner Firma gerecht werden muss?” Denn schon durch die Beantwortung dieser Fragen lassen sich viele Lösungen finden.

Wir haben die Trainerinnen Anke Quittschau und Christina Tabernig von korrekt! gebeten, die wichtigsten Tipps für die heiße Jahreszeit für uns zusammenzufassen:

“Wir haben selber viele Trainings in heißen Sommermonaten veranstaltet. Oft haben uns die Kunden vorher angerufen und um legere Sommerkleidung gebeten. Dem ist grundsätzlich nichts entgegenzusetzen und es ist eigentlich eine sehr nette Geste. Bei diesen Temperaturen kann man bestehende Regeln auch aktiv außer Kraft setzen. Da wir in Deutschland nicht in einer Air-Condition-Gesellschaft leben wie in den USA, haben wir es durchaus schwerer, was die Konzentration in heißen Räumen angeht. Aber zurück zum Dresscode”:

Männer in Bermudas?

Männer müssen auf jeden Fall eine lange Hose tragen. Sie können keineswegs wie in Australien oder den USA in Shorts ins Büro kommen. Niemals!

Solange Sie keinen Kundenkontakt haben, können Sie auch ein kurzärmeliges Hemd tragen, dann aber ohne Krawatte und leger ohne Sakko. Gehen Sie jedoch zum Kunden, kommen Sie im Grunde nicht um einen Anzug mit langärmeligem Hemd und Krawatte herum. Vor allem für Führungskräfte gilt: Je höher sie auf der Karriereleiter angelangt sind, desto eher müssen sie den Anzug auch im Sommer tragen.

Das Schuhwerk der Herren sollte immer geschlossen sein. Mit Sandalen, Birkenstocks oder Latschen geht niemand ins Büro. Slipper ohne Socken sind nur in der Freizeit möglich.

Frauen: Von Miniröcken und Spaghettiträgern

Frauen haben eine größere Auswahl an Schuhen, aber die Zehen sollte man auch nicht sehen.
Foto: Lisa S. – shutterstock.com

Die weibliche Geschäftswelt hat es da etwas einfacher. Mit Rock und Bluse ist eine Frau schon meist gut gekleidet. Aber auch hier gilt, je höher die Management-Etage, in der Sie sich bewegen, desto strenger ist Ihr Dresscode.

Aber was geht nun gar nicht? Grundsätzlich kann man sagen, alles was für den Strand tauglich ist, ist kein Outfit für das Büro. Also niemals: Bauchfrei, Spaghetti-Träger oder Schultern zeigen in konservativen Unternehmen. Auch Schuhe, die vorne offen sind, sind hier nicht angebracht. Röcke und Kleider sollten Knie umspielend sein oder länger. Miniröcke enden höchstens eine Handbreit über dem Knie. Also zu breite Gürtel oder Hot-Pants sind nicht für den Einsatz im Büro gedacht. Längere Shorts, die am Knie enden, können durchaus passend kombiniert eingesetzt werden. Frauen haben einfach einen größeren Spielraum.

Vermeiden Sie aber Kleidung zu tragen, bei der man Schweißränder oder Flecken gut sehen kann. Hierunter fallen Farben, die durchgeschwitzt deutlich dunkler werden als der Ursprungston. Dazu gehören etwa lindgrüne Seidenblusen, khaki-farbene Kleider oder Sakkos. Um große Schweißflecke unter dem Arm zu vermeiden, können Sie spezielle Einlagen einnähen oder kleben, die den Schweiß aufnehmen. Models kleben sich oft einfach nur Slipeinlagen ein.

Wie spreche ich ein Schweißproblem an?

Schweißgeruch bei Kollegen oder Mitarbeitern sollte man auf jeden Fall ansprechen, denn der Schwitzende riecht es oft selber nicht; er hat sich an seinen Geruch gewöhnt. Das gleiche kann passieren, wenn jemand über einen langen Zeitraum das gleiche Parfum verwendet und die richtige Dosis nicht mehr einschätzen kann.

Sprechen Sie das Schweißproblem auf jeden Fall unter vier Augen an und möglichst auf der gleichen Geschlechterebene. Beginnen Sie mit verständnisvollen Einleitungssätzen wie “Es fällt mir nicht leicht das anzusprechen . . .” oder “Es ist mir etwas unangenehm, aber mir ist aufgefallen . . .”.

Wenn man jemanden wirklich gut kennt, dann kann man ihm auch sagen: “Hör mal, du hast heute ganz schönen Mundgeruch.” Oder: “Heute riechst du aber sehr intensiv nach Schweiß.” Versuchen Sie diese Nachricht aber möglichst freundlich zu übermitteln und geben Sie dem Betroffenen das Gefühl, dass Sie es gut mit ihm meinen. Niemand wird dann beleidigt sein. Ihre Kollegen werden eher dankbar für Ihre Ehrlichkeit sein.

Flecken auf der Kleidung

Was passiert, wenn man nach der Mittagspause einen Eisfleck auf der Bluse hat? Wenn Sie keine Sofortlösung wie Reinigungstücher oder Wasser zur Verfügung haben, müssen Sie einfach damit leben.

Passiert Ihnen dies auf dem Weg zum Meeting, hilft am Schluss nur die Flucht nach vorne. Entschuldigen Sie sich charmant für Ihren Aufzug und erwähnen Sie vielleicht, dass Sie normalerweise nicht so rumlaufen.

Hightech im Businessdress

Mit Hilfe moderner Technologien werden Anzüge und Kostüme heute resistent gegen Flecken und Gerüche ausgestattet. Hightechfasern machen dies möglich. Viele Kleidungsstücke sind schon mit der Nanotechnologie ausgestattet und erfreuen sich wachsender Beliebtheit. Anzüge mit geruchsschluckender Funktion gibt es beispielsweise von Bugatti ab 199,95 Euro. Blusen und Hemden die den Geruch stoppen von Eterna (um 49 Euro). Fleckabweisende Krawatten gibt es von Bugatti oder Olymp ab 29,95 Euro.

Schon Freiherr von Knigge sagte in seinem Werk “Über den Umgang mit Menschen” (1788): “Kleide dich bequem, aber reinlich und geschmackvoll – egal wie heiß es ist.”

Kleidungstipps für Profis

Weitere Kleidungstipps in allen Geschäftslagen lesen Sie hier:

Dresscodes: Was ist Business Casual?

Wie bindet man Schnürsenkel richtig? 14 Kleidungstipps für Männer

Von “hochoffiziell” bis “come as you are” – Dresscodes für Frauen

Hosenanzug oder Kostüm – 10 Kleidungstipps für Business-Frauen

Dresscode: Sommer im BüroEndlich Sommer!
Foto: Sergey Peterman – shutterstock.comBarfuss, bauchfrei, Bermuda oder Birkenstock sind auch bei 30 Grad im Büro ein Fauxpax. Klicken Sie sich durch die größten Sommer-Sünden in Sachen Kleidung.Dazu Knigge-Expertin Christina Tabernig:
Foto: Christina TabernigDer Ranghöchste beziehungsweise der Gastgeber entscheidet, wann das Sakko auszuziehen ist. Auf einer Hochzeit ist das der Bräutigam oder wie beim Weißwurstfrühstück Joachim Sauer, Ehemann von Kanzlerin Angela Merkel, der stellvertretend für die Gastgeberin auch sein Sakko ausgezogen hatte. Und US-Präsident Barack Obama folgte diesem Beispiel gern.Das Sakko bleibt an …
Foto: kantver – Fotolia.com… solange der Vorgesetzte nicht abgelegt und Erleichterung angeboten hat. Frauen müssen den Blazer nicht ablegen, vielleicht tragen sie ja nur ein leichtes Shirt darunter.Männer in Bermudas oder Shorts …
Foto: Eugenio Marongiu – shutterstock.com… sollten sich in deutschen Büros nicht blicken lassen, auch wenn das Thermometer auf 30 Grad und mehr klettert. Dazu die Faustregel von Knigge-Expertin Tabernig: “Alles, was am Strand nicht auffällt, hat im Büro nichts zu suchen.”Mit Sandalen …
Foto: Shevs – shutterstock.com… oder Birkenstocks …
Foto: G.G. Lattek – Fotolia.com… sollte kein Mann im Sommer ins Büro gehen. Mit weißen Tennissocken übrigens auch nicht. Auch Flipflops …
Foto: Kenishiroties – shutterstock.com… sind nur in der Freizeit erlaubt, wenngleich sie auch bequem und luftig sind.Auf Socken …
Foto: prodakszyn – shutterstock.com… können Männer nur in der Mittagspause im Park verzichten, aber niemals im Büro Slipper oder Schuhe ohne Socken tragen.Es geht auch ohne Sakko und Krawatte …
Foto: Peter Atkins – Fotolia.com… oder mit Kurzarmhemd. Letzeres aber nur ohne Krawatee und Sakko tragen. Vertriebler und Berater …
Foto: olly – Fotolia.com… müssen dagegen in der Regel das Sakko auch im Sommer anziehen. Ihre oberste Richtschnur ist immer der Kunde beziehungsweise die Kleidung in dessen Untenrehmen.Luftige Sommerkleider …
Foto: K.- P. Adler – Fotolia.com… können Frauen im Job gern anziehen, wenn denn die Rocklänge stimmt. Eine Handbreit oberhalb des Knies ist erlaubt, alles andere geht zu weit.Auch mit Spaghetti-Trägern …
Foto: paffy – shutterstock.com… und nackten Schultern sollte Frau sich zurückhalten. Freie Schultern gehören nicht ins Büro. Auch beim klassischen Etuikleid muss ein Blazer oder Jäckchen darüber getragen werden.Dicke Gürtel …
Foto: withGod – shutterstock.com… sind auch nicht für den Einsatz im Büro vorgesehen.Bauchfrei, Cut-Outs und Hotpants …
Foto: Gorosi – shutterstock.com… taugen für die Disco oder den Strand, sind aber kein Outfit fürs Büro.In Sachen Schuhe …
Foto: Lisa S. – shutterstock.com… haben Business-Frauen eine größere Auswahl als ihre männlichen Kollegen. Geschlossene Schuhe statt offener Sandalen …
Foto: Africa Studio – shutterstock.com… heißt die Devise für Business-Frauen im Sommer. Rot lackierte Fussnägel lenken den Blick vom Wesentlichen ab. Auch Feinstrumpfhosen sind im Sommer ein Muss.Slingpumps sind eine Alternative
Foto: Gernot Krautberger – Fotolia.comNoch nie gehört? Das sind Sandalen, die vorne geschlossen und hinten offen sind. Große Schweißflecken …
Foto: Michal Kowalski – shutterstock.com… kommen bei bestimmten Farben (lindgrün, khaki) noch deutlicher heraus. Diese Farben sollte man meiden.Wenn das Deo versagt und der Schweiß siegt, …
Foto: mehmet dinler – shutterstock.com… kann man das dem schwitzenden Kollegen unter vier Augen und im freundlich-verständnisvollen Ton sagen. Vielleicht fällt ihm selbst der Schweißgeruch ja gar nicht mehr auf. Eis in der Mittagspause …
Foto: Gtranquillity – shutterstock.com… hilft über so manchen heißen Bürotag hinweg. Was aber, wenn man einen Eisfleck auf der Bluse hat? Wenn Sie keine Sofortlösung wie Reinigungstücher oder Wasser zur Verfügung haben, müssen Sie damit leben.

Barfuß, bauchfrei, Bermuda: Dresscode: Sommersünden im Büro​ Weiterlesen »

Sovereign-Cloud-Initiative: Microsoft 365 geht On-Premises​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?quality=50&strip=all 5638w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit Microsoft 365 Local will der Softwareriese skeptischen Kunden zusätzliche Wahlmöglichkeiten bieten.PixieMe/Shutterstock Um die Sorgen seiner europäischen Kunden um einen US-amerikanischen Kill-Switch zu entkräften, hat Microsoft neben der Microsoft Sovereign Cloud einen weiteren „souveränen“ Trumpf aus dem Ärmel gezaubert. Im Rahmen seiner „Digitalen Zusicherungen für Europa“ kündigte der Softwareriese mit Microsoft 365 Local nun auch eine (vermeintliche) On-Premises-Version seiner Productivity-Suite an. Microsoft 365 Local wirft Fragen auf Microsoft 365 Local soll es Unternehmen ermöglichen, Microsoft-Produktivitäts-Workloads wie Exchange Server und SharePoint Server in ihren eigenen Rechenzentren oder souveränen Cloud-Umgebungen bereitstellen, auf Basis einer von Microsoft validierten Referenzarchitektur. Wie der Softwareriese verspricht, bei voller Kontrolle über Sicherheit, Compliance und Governance. Microsoft 365 Local läuft auf Azure Local, einer Ende 2024 vorgestellten und im Laufe des Jahres verfügbaren Private-Cloud-Lösung. Sie stellt zentrale Azure-Funktionen wie Rechen-, Speicher-, Netzwerk- und Virtualisierungsdienste On-Premises an Standorten von Kunden oder in von Partnern betriebenen Rechenzentren bereit. Mangels weiterer Informationen wirft die Ankündigung von Microsoft 365 Local allerdings einige Fragen auf. So scheint die Lösung abgesehen vom Branding wenig mit den Cloud-Services von Microsoft 365 zu verbinden. Stattdessen handelt es sich wohl eher um die lokalen Versionen von Exchange Server, SharePoint Server und Skype for Business Server, die auf einer Azure-Local-Instanz ausgeführt werden. Außerdem ist nicht klar, ob es sich dabei um eine vollständig von Microsoft verwaltete Umgebung (beispielsweise mittels Azure Arc) oder eine klassische On-Premises-Installation handelt. 

Sovereign-Cloud-Initiative: Microsoft 365 geht On-Premises​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?quality=50&strip=all 5638w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/shutterstock_2492810627_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit Microsoft 365 Local will der Softwareriese skeptischen Kunden zusätzliche Wahlmöglichkeiten bieten.PixieMe/Shutterstock

Um die Sorgen seiner europäischen Kunden um einen US-amerikanischen Kill-Switch zu entkräften, hat Microsoft neben der Microsoft Sovereign Cloud einen weiteren „souveränen“ Trumpf aus dem Ärmel gezaubert. Im Rahmen seiner „Digitalen Zusicherungen für Europa“ kündigte der Softwareriese mit Microsoft 365 Local nun auch eine (vermeintliche) On-Premises-Version seiner Productivity-Suite an.

Microsoft 365 Local wirft Fragen auf

Microsoft 365 Local soll es Unternehmen ermöglichen, Microsoft-Produktivitäts-Workloads wie Exchange Server und SharePoint Server in ihren eigenen Rechenzentren oder souveränen Cloud-Umgebungen bereitstellen, auf Basis einer von Microsoft validierten Referenzarchitektur. Wie der Softwareriese verspricht, bei voller Kontrolle über Sicherheit, Compliance und Governance.

Microsoft 365 Local läuft auf Azure Local, einer Ende 2024 vorgestellten und im Laufe des Jahres verfügbaren Private-Cloud-Lösung. Sie stellt zentrale Azure-Funktionen wie Rechen-, Speicher-, Netzwerk- und Virtualisierungsdienste On-Premises an Standorten von Kunden oder in von Partnern betriebenen Rechenzentren bereit.

Mangels weiterer Informationen wirft die Ankündigung von Microsoft 365 Local allerdings einige Fragen auf. So scheint die Lösung abgesehen vom Branding wenig mit den Cloud-Services von Microsoft 365 zu verbinden. Stattdessen handelt es sich wohl eher um die lokalen Versionen von Exchange Server, SharePoint Server und Skype for Business Server, die auf einer Azure-Local-Instanz ausgeführt werden. Außerdem ist nicht klar, ob es sich dabei um eine vollständig von Microsoft verwaltete Umgebung (beispielsweise mittels Azure Arc) oder eine klassische On-Premises-Installation handelt.

Sovereign-Cloud-Initiative: Microsoft 365 geht On-Premises​ Weiterlesen »

Hybride Kundenservice-Modelle nehmen zu​

Allgemein

„Digital first, but not digital only“ soll das neue Erfolgsrezept im Service werden. Stock-Asso -shutterstock.com Die Integration von Künstlicher Intelligenz (KI) in den Kundenservice gilt als einer der wichtigsten Trends der letzten Jahre. Unternehmen versprechen sich davon hauptsächlich Effizienzsteigerungen und Kosteneinsparungen. Doch einer aktuellen Studie von Gartner zufolge wird es wohl noch lange Bedarf an menschlichen Agenten geben. Die Analysten kommen zu dem Schluss, dass der vollständige Ersatz menschlicher Agenten durch KI-gestützte Systeme weder technisch ausgereift noch betrieblich sinnvoll sei. Menschliche Agenten bleiben zentral Eine im März 2025 unter 163 Führungskräften im Kundenservice vorgenommene Umfrage von Gartner bestätigt dies. Demnach planen 95 Prozent der Unternehmen, neben der KI weiterhin menschliche Agenten einzusetzen, um „Fallstricke eines übereilten Übergangs zu einem agentenlosen Modell zu vermeiden“. Gartner schätzt, dass bis 2027 die Hälfte der Unternehmen, die einen erheblichen Personalabbau im Kundenservice vorgesehen hatten, diese Pläne wieder aufgeben werden wollen. KI ist kein Allheilmittel „KI bietet zwar ein erhebliches Potenzial zur Transformation des Kundenservice, ist jedoch kein Allheilmittel“, erklärt Kathy Ross, Senior Director Analyst im Bereich Kundenservice und Support bei Gartner. Der menschliche Faktor bleibe in vielen Interaktionen unersetzlich, und Unternehmen müssten ein Gleichgewicht zwischen Technologie und menschlicher Empathie und Verständnis finden. „Ein hybrider Ansatz, bei dem KI und menschliche Mitarbeiter zusammenarbeiten, ist die effektivste Strategie, um außergewöhnliche Kundenerlebnisse zu bieten“, führt die Gartner-Analystin weiter aus. Um den Kundenservice zu verbessern und sicherzustellen, dass KI die menschliche Interaktion ergänzt und nicht ersetzt, sollten Unternehmen die Rolle der KI klar definieren, strategische Ziele priorisieren und die Rollen der menschlichen Mitarbeiter festlegen. 

Hybride Kundenservice-Modelle nehmen zu​ „Digital first, but not digital only“ soll das neue Erfolgsrezept im Service werden.
Stock-Asso -shutterstock.com

Die Integration von Künstlicher Intelligenz (KI) in den Kundenservice gilt als einer der wichtigsten Trends der letzten Jahre. Unternehmen versprechen sich davon hauptsächlich Effizienzsteigerungen und Kosteneinsparungen.

Doch einer aktuellen Studie von Gartner zufolge wird es wohl noch lange Bedarf an menschlichen Agenten geben. Die Analysten kommen zu dem Schluss, dass der vollständige Ersatz menschlicher Agenten durch KI-gestützte Systeme weder technisch ausgereift noch betrieblich sinnvoll sei.

Menschliche Agenten bleiben zentral

Eine im März 2025 unter 163 Führungskräften im Kundenservice vorgenommene Umfrage von Gartner bestätigt dies. Demnach planen 95 Prozent der Unternehmen, neben der KI weiterhin menschliche Agenten einzusetzen, um „Fallstricke eines übereilten Übergangs zu einem agentenlosen Modell zu vermeiden“. Gartner schätzt, dass bis 2027 die Hälfte der Unternehmen, die einen erheblichen Personalabbau im Kundenservice vorgesehen hatten, diese Pläne wieder aufgeben werden wollen.

KI ist kein Allheilmittel

„KI bietet zwar ein erhebliches Potenzial zur Transformation des Kundenservice, ist jedoch kein Allheilmittel“, erklärt Kathy Ross, Senior Director Analyst im Bereich Kundenservice und Support bei Gartner. Der menschliche Faktor bleibe in vielen Interaktionen unersetzlich, und Unternehmen müssten ein Gleichgewicht zwischen Technologie und menschlicher Empathie und Verständnis finden.

„Ein hybrider Ansatz, bei dem KI und menschliche Mitarbeiter zusammenarbeiten, ist die effektivste Strategie, um außergewöhnliche Kundenerlebnisse zu bieten“, führt die Gartner-Analystin weiter aus. Um den Kundenservice zu verbessern und sicherzustellen, dass KI die menschliche Interaktion ergänzt und nicht ersetzt, sollten Unternehmen die Rolle der KI klar definieren, strategische Ziele priorisieren und die Rollen der menschlichen Mitarbeiter festlegen.

Hybride Kundenservice-Modelle nehmen zu​ Weiterlesen »

Wie souverän ist Microsofts Sovereign Cloud wirklich?​

Allgemein

width=”3000″ height=”2000″ sizes=”(max-width: 3000px) 100vw, 3000px”>Microsoft-CEO verspricht seinen Kunden in Europa mehr Kontrolle in der Azure-Cloud. Ob es gelingt, die Bedenken vieler Anwenderunternehmen hierzulande zu zerstreuen, bleibt abzuwarten.Dan DeLong / Microsoft Microsoft-CEO Satya Nadella hat im Rahmen der AI Tour in Amsterdam versucht, Bedenken europäischer Kunden hinsichtlich des Datenschutzes in der Cloud zu zerstreuen. Gleichzeitig kündigte er zusätzliche Features für mehr digitale Souveränität von Unternehmen in ganz Europa an. „Microsoft setzt sich für ein Modell der digitalen Souveränität ein, das Einzelpersonen und Institutionen befähigt, unabhängig, sicher und selbstbestimmt zu arbeiten“, beteuerte der US-amerikanische Softwarekonzern in einer Mitteilung. Die neuen Funktionen erweiterten Microsoft zufolge die Souveränität auf alle europäischen Organisationen, die die Public Cloud nutzen, und eröffneten gleichzeitig neue Optionen für den Betrieb von Microsoft-Diensten in souveränen privaten Cloud-Umgebungen. Dafür vereine die Microsoft Sovereign Cloud Produktivitäts-, Sicherheits- und Cloud-Lösungen, die europäischen Unternehmen mehr Kontrolle ermöglichen sollten. Mit folgenden Angeboten will Microsoft seinen europäischen und deutschen Kunden mehr Souveränität und Kontrolle bieten: Die Sovereign Public Cloud soll in allen bestehenden europäischen Rechenzentrumsregionen von Microsoft für alle europäischen Kunden angeboten werden. Das Paket enthält Unternehmensdienste wie Microsoft Azure, Microsoft 365, Microsoft Security und die Power Platform. In der Sovereign Public Cloud blieben die Kundendaten in Europa und unterlägen dem europäischen Recht, verspricht der Softwarekonzern. Betrieb und Zugriff auf die Cloud liege allein in Händen von in Europa ansässigem Personal. Darüber hinaus sorge das Feature Data Guardian dafür, dass nur Microsoft-Mitarbeiterinnen und -Mitarbeiter mit Wohnsitz in Europa den Fernzugriff auf diese Systeme kontrollierten. Kunden hätten außerdem volle Kontrolle über die Verschlüsselung ihrer Daten in der Microsoft-Cloud. Mit der Sovereign Private Cloud geht Microsoft noch einen Schritt weiter. Kunden könnten kritische Kollaborations- und Kommunikations-Workloads auf Azure Local ausführen. Dabei würden Lösungen wie Microsoft 365 Local und Microsofts Produktivitätsserver-Software in einer Umgebung zusammenführt, die vollständig im kundeneigenen Rechenzentrum ausgeführt werden könne, hieß es. Darüber hinaus setzt Microsoft auf Partnerschaften. Der US-Anbieter will mit nationalen Partner-Clouds wie beispielsweise Bleu in Frankreich und die Delos Cloud in Deutschland kooperieren. Dort sollen Kunden Funktionen von Microsoft 365 und Microsoft Azure in einer eigenständigen und unabhängig betriebenen Umgebung beziehen können. Für das externe Schlüsselmanagement arbeitet Microsoft unter anderem mit der Aachener Firma Utimaco zusammen. Bestandteil der gemeinsamen Lösung ist unter anderem eine Azure Managed HSM (Hardware Security Module) Encryption. Microsoft zufolge können Kunden somit ihre Daten in der Cloud verschlüsseln und die benötigten Schlüssel selbst oder über lokale Partner erzeugen, verwalten und sicher speichern. Mit Hilfe eines externen Key Managers, wie dem Utimaco Enterprise Secure Key Manager (ESKM), könnten Anwenderunternehmen zusätzlich Schlüssel nach höchsten FIPS-Standards generieren, verspricht Microsoft. Diese seien durch ein integriertes Hardware-Sicherheitsmodul abgesichert, das als On-Premises-Appliance oder as-a-Service bezogen werden könne. Microsoft muss sich Trump-Dekret beugen Microsoft war erst vor wenigen Wochen in die Kritik geraten, nachdem der US-Anbieter den E-Mail-Account von Karim Khan, Chefankläger am Internationalen Strafgerichtshof, gesperrt hatte. Anlass dafür war ein Sanktionsdekret von US-Präsident Donald Trump, der Strafen für alle androhte, die Khan finanziell, materiell oder technisch unterstützten. Diese Maßnahme heizte die Diskussion hierzulande zum Thema digitale Souveränität weiter an. Immer mehr Anwenderunternehmen in Deutschland und Europa stellen sich derzeit die Frage, inwieweit ihre Systeme und Daten in den Cloud-Infrastrukturen der US-Hyperscaler wie AWS, Google und Microsoft noch sicher sind. Anlass genug für die US-amerikanischen Cloud-Anbieter, um ihre Geschäfte in Europa zu fürchten. Um gegenzusteuern, bauen sie eigenständige und aus ihrer Sicht souveräne Infrastrukturen auf, die technisch und organisatorisch vom Rest ihrer Public Clouds getrennt seien. Beispielsweise hat erst Anfang Juni 2025 AWS eine angeblich unabhängige europäische Governance-Struktur für die AWS European Sovereign Cloud eingerichtet. Dazu zählt ein eigenes Security Operations Center und die Gründung einer neuen Muttergesellschaft. Diese werde von Staatsbürgern aus Mitgliedstaaten der Europäischen Union (EU) geleitet und unterliege lokalen rechtlichen Anforderungen, hieß es. Digitale Souveränität: Alles Augenwischerei? Axel Oppermann, Analyst bei Avispador, sieht die Bemühungen der US-Anbieter kritisch und bezeichnet das von Microsoft vermittelte Souveränitätsversprechen als Illusion. In einem Beitrag auf LinkedIn, spricht Oppermann davon, dass Souveränität durch den Eindruck von Souveränität ersetzt werde – verpackt in ein Regelwerk, das Microsoft selbst mitdefiniere. „Microsoft steuert weiterhin Codebasis, Update-Zyklen, Schlüsselmechanismen – auch wenn der Serverstandort wechselt.“ „Souveränität wird simuliert, nicht gewährleistet“, moniert der Analyst. Die eigentliche Verschiebung betreffe den Bedeutungsrahmen. Mit ihrer Infrastrukturmacht und juristischer Präzision verwandle Microsoft „Souveränität“ in ein betriebsfähiges Compliance-Produkt. Der reale Effekt aus Sicht Oppermanns: „Kundenbindung durch Komplexitätsreduktion – technologische Abhängigkeit wird zur vermeintlichen Wahlfreiheit umgedeutet.“ Mit ihrer Strategie zementiere Microsoft trotz minimaler struktureller Zugeständnisse ihre maximale Marktmacht, konstatiert der Analyst. „Europas Debatte über digitale Souveränität wird nicht ignoriert – sie wird absorbiert, transformiert und in Architektur überführt, die Alternativen delegitimiert, bevor sie entstehen.“ Die Folge laut Oppermann: Wer auf Microsoft setze, entscheide sich nicht nur für Technologie – sondern gegen autonome Infrastrukturen. 

Wie souverän ist Microsofts Sovereign Cloud wirklich?​ width=”3000″ height=”2000″ sizes=”(max-width: 3000px) 100vw, 3000px”>Microsoft-CEO verspricht seinen Kunden in Europa mehr Kontrolle in der Azure-Cloud. Ob es gelingt, die Bedenken vieler Anwenderunternehmen hierzulande zu zerstreuen, bleibt abzuwarten.Dan DeLong / Microsoft

Microsoft-CEO Satya Nadella hat im Rahmen der AI Tour in Amsterdam versucht, Bedenken europäischer Kunden hinsichtlich des Datenschutzes in der Cloud zu zerstreuen. Gleichzeitig kündigte er zusätzliche Features für mehr digitale Souveränität von Unternehmen in ganz Europa an. „Microsoft setzt sich für ein Modell der digitalen Souveränität ein, das Einzelpersonen und Institutionen befähigt, unabhängig, sicher und selbstbestimmt zu arbeiten“, beteuerte der US-amerikanische Softwarekonzern in einer Mitteilung.

Die neuen Funktionen erweiterten Microsoft zufolge die Souveränität auf alle europäischen Organisationen, die die Public Cloud nutzen, und eröffneten gleichzeitig neue Optionen für den Betrieb von Microsoft-Diensten in souveränen privaten Cloud-Umgebungen. Dafür vereine die Microsoft Sovereign Cloud Produktivitäts-, Sicherheits- und Cloud-Lösungen, die europäischen Unternehmen mehr Kontrolle ermöglichen sollten.

Mit folgenden Angeboten will Microsoft seinen europäischen und deutschen Kunden mehr Souveränität und Kontrolle bieten:

Die Sovereign Public Cloud soll in allen bestehenden europäischen Rechenzentrumsregionen von Microsoft für alle europäischen Kunden angeboten werden. Das Paket enthält Unternehmensdienste wie Microsoft Azure, Microsoft 365, Microsoft Security und die Power Platform. In der Sovereign Public Cloud blieben die Kundendaten in Europa und unterlägen dem europäischen Recht, verspricht der Softwarekonzern. Betrieb und Zugriff auf die Cloud liege allein in Händen von in Europa ansässigem Personal. Darüber hinaus sorge das Feature Data Guardian dafür, dass nur Microsoft-Mitarbeiterinnen und -Mitarbeiter mit Wohnsitz in Europa den Fernzugriff auf diese Systeme kontrollierten. Kunden hätten außerdem volle Kontrolle über die Verschlüsselung ihrer Daten in der Microsoft-Cloud.

Mit der Sovereign Private Cloud geht Microsoft noch einen Schritt weiter. Kunden könnten kritische Kollaborations- und Kommunikations-Workloads auf Azure Local ausführen. Dabei würden Lösungen wie Microsoft 365 Local und Microsofts Produktivitätsserver-Software in einer Umgebung zusammenführt, die vollständig im kundeneigenen Rechenzentrum ausgeführt werden könne, hieß es.

Darüber hinaus setzt Microsoft auf Partnerschaften. Der US-Anbieter will mit nationalen Partner-Clouds wie beispielsweise Bleu in Frankreich und die Delos Cloud in Deutschland kooperieren. Dort sollen Kunden Funktionen von Microsoft 365 und Microsoft Azure in einer eigenständigen und unabhängig betriebenen Umgebung beziehen können.

Für das externe Schlüsselmanagement arbeitet Microsoft unter anderem mit der Aachener Firma Utimaco zusammen. Bestandteil der gemeinsamen Lösung ist unter anderem eine Azure Managed HSM (Hardware Security Module) Encryption. Microsoft zufolge können Kunden somit ihre Daten in der Cloud verschlüsseln und die benötigten Schlüssel selbst oder über lokale Partner erzeugen, verwalten und sicher speichern.

Mit Hilfe eines externen Key Managers, wie dem Utimaco Enterprise Secure Key Manager (ESKM), könnten Anwenderunternehmen zusätzlich Schlüssel nach höchsten FIPS-Standards generieren, verspricht Microsoft. Diese seien durch ein integriertes Hardware-Sicherheitsmodul abgesichert, das als On-Premises-Appliance oder as-a-Service bezogen werden könne.

Microsoft muss sich Trump-Dekret beugen

Microsoft war erst vor wenigen Wochen in die Kritik geraten, nachdem der US-Anbieter den E-Mail-Account von Karim Khan, Chefankläger am Internationalen Strafgerichtshof, gesperrt hatte. Anlass dafür war ein Sanktionsdekret von US-Präsident Donald Trump, der Strafen für alle androhte, die Khan finanziell, materiell oder technisch unterstützten.

Diese Maßnahme heizte die Diskussion hierzulande zum Thema digitale Souveränität weiter an. Immer mehr Anwenderunternehmen in Deutschland und Europa stellen sich derzeit die Frage, inwieweit ihre Systeme und Daten in den Cloud-Infrastrukturen der US-Hyperscaler wie AWS, Google und Microsoft noch sicher sind.

Anlass genug für die US-amerikanischen Cloud-Anbieter, um ihre Geschäfte in Europa zu fürchten. Um gegenzusteuern, bauen sie eigenständige und aus ihrer Sicht souveräne Infrastrukturen auf, die technisch und organisatorisch vom Rest ihrer Public Clouds getrennt seien. Beispielsweise hat erst Anfang Juni 2025 AWS eine angeblich unabhängige europäische Governance-Struktur für die AWS European Sovereign Cloud eingerichtet. Dazu zählt ein eigenes Security Operations Center und die Gründung einer neuen Muttergesellschaft. Diese werde von Staatsbürgern aus Mitgliedstaaten der Europäischen Union (EU) geleitet und unterliege lokalen rechtlichen Anforderungen, hieß es.

Digitale Souveränität: Alles Augenwischerei?

Axel Oppermann, Analyst bei Avispador, sieht die Bemühungen der US-Anbieter kritisch und bezeichnet das von Microsoft vermittelte Souveränitätsversprechen als Illusion. In einem Beitrag auf LinkedIn, spricht Oppermann davon, dass Souveränität durch den Eindruck von Souveränität ersetzt werde – verpackt in ein Regelwerk, das Microsoft selbst mitdefiniere. „Microsoft steuert weiterhin Codebasis, Update-Zyklen, Schlüsselmechanismen – auch wenn der Serverstandort wechselt.“

„Souveränität wird simuliert, nicht gewährleistet“, moniert der Analyst. Die eigentliche Verschiebung betreffe den Bedeutungsrahmen. Mit ihrer Infrastrukturmacht und juristischer Präzision verwandle Microsoft „Souveränität“ in ein betriebsfähiges Compliance-Produkt. Der reale Effekt aus Sicht Oppermanns: „Kundenbindung durch Komplexitätsreduktion – technologische Abhängigkeit wird zur vermeintlichen Wahlfreiheit umgedeutet.“

Mit ihrer Strategie zementiere Microsoft trotz minimaler struktureller Zugeständnisse ihre maximale Marktmacht, konstatiert der Analyst. „Europas Debatte über digitale Souveränität wird nicht ignoriert – sie wird absorbiert, transformiert und in Architektur überführt, die Alternativen delegitimiert, bevor sie entstehen.“ Die Folge laut Oppermann: Wer auf Microsoft setze, entscheide sich nicht nur für Technologie – sondern gegen autonome Infrastrukturen.

Wie souverän ist Microsofts Sovereign Cloud wirklich?​ Weiterlesen »

LLM-Agenten offenbaren in neuem Härtetest Schwächen​

Allgemein

Selbst bei einfachen, einstufigen Aufgaben waren die LLM-Agenten bestenfalls in sechs von zehn Fällen erfolgreich. BOY ANTHONY – shutterstock.com Large Language Models (LLMs) werden angeblich immer besser. Dennoch sollte man ihnen nicht unbedingt geschäftskritische Aufgaben mit sensiblen Daten blind anvertrauen, wie ein Team unter der Leitung von Kung-Hsiang Huang, einem KI-Forscher bei Salesforce, herausgefunden hat. In einem aktuellen Bericht dokumentierten die Forschenden, dass auf Basis von LLMs erstellte Agenten bei Aufgaben unterdurchschnittlich abschnitten. So erreichten die auf Modellen von OpenAI, Google und Meta erstellten Tools bei Aufgaben, die in einem einzigen Schritt erledigt werden können, ohne dass Folgeaktionen oder weitere Informationen erforderlich sind, bestenfalls eine Erfolgsquote von etwa 58 Prozent. Erforderte eine Aufgabe mehrere Schritte, fiel das Ergebnis mit einer Erfolgsrate von rund 35 Prozent deutlich schlechter aus.   Grundlage für die Ergebnisse war ein neuer, speziell für die Bewertung von KI-Agenten entwickelter Benchmark-Test namens CRMArena-Pro. Das Tool wird mit realitätsnahen, synthetischen Daten gespeist, um eine Salesforce-Umgebung als Testplattform zu simulieren. Der KI-Agent verarbeitet Nutzeranfragen und entscheidet, ob er eine API-Abfrage durchführt oder den Nutzern eine Rückmeldung zur Klärung oder Beantwortung gibt. Fehlendes Bewusstsein für Vertraulichkeit Wie die Forscher weiterhin feststellten, weisen die KI-Agenten ein mangelndes Bewusstsein für Vertraulichkeit, was sensible Daten angeht auf. Dies lasse sich durch gezielte Anweisungen verbessern, wenn auch oft auf Kosten der Leistungsfähigkeit, heißt es in der Studie. 

LLM-Agenten offenbaren in neuem Härtetest Schwächen​ Selbst bei einfachen, einstufigen Aufgaben waren die LLM-Agenten bestenfalls in sechs von zehn Fällen erfolgreich.
BOY ANTHONY – shutterstock.com

Large Language Models (LLMs) werden angeblich immer besser. Dennoch sollte man ihnen nicht unbedingt geschäftskritische Aufgaben mit sensiblen Daten blind anvertrauen, wie ein Team unter der Leitung von Kung-Hsiang Huang, einem KI-Forscher bei Salesforce, herausgefunden hat.

In einem aktuellen Bericht dokumentierten die Forschenden, dass auf Basis von LLMs erstellte Agenten bei Aufgaben unterdurchschnittlich abschnitten. So erreichten die auf Modellen von OpenAI, Google und Meta erstellten Tools bei Aufgaben, die in einem einzigen Schritt erledigt werden können, ohne dass Folgeaktionen oder weitere Informationen erforderlich sind, bestenfalls eine Erfolgsquote von etwa 58 Prozent.

Erforderte eine Aufgabe mehrere Schritte, fiel das Ergebnis mit einer Erfolgsrate von rund 35 Prozent deutlich schlechter aus.  

Grundlage für die Ergebnisse war ein neuer, speziell für die Bewertung von KI-Agenten entwickelter Benchmark-Test namens CRMArena-Pro. Das Tool wird mit realitätsnahen, synthetischen Daten gespeist, um eine Salesforce-Umgebung als Testplattform zu simulieren. Der KI-Agent verarbeitet Nutzeranfragen und entscheidet, ob er eine API-Abfrage durchführt oder den Nutzern eine Rückmeldung zur Klärung oder Beantwortung gibt.

Fehlendes Bewusstsein für Vertraulichkeit

Wie die Forscher weiterhin feststellten, weisen die KI-Agenten ein mangelndes Bewusstsein für Vertraulichkeit, was sensible Daten angeht auf. Dies lasse sich durch gezielte Anweisungen verbessern, wenn auch oft auf Kosten der Leistungsfähigkeit, heißt es in der Studie.

LLM-Agenten offenbaren in neuem Härtetest Schwächen​ Weiterlesen »

6 Anbieterplattformen für Ihre “Watchlist”​

Allgemein

Der Trend geht zur Plattform.kosant dejnonsang | shutterstock.com Diverse große IT-Anbieter führen ihre Netzwerk- und Sicherheitsprodukte inzwischen zu einheitlichen Architekturen zusammen, um ihren Kunden zu ermöglichen: Richtlinien besser durchzusetzen, die allgemeine Transparenz zu steigern, und die IT-Produktivität zu optimieren. Dabei verfolgen die Anbieter unterschiedliche Platformization-Ansätze: Manche konsolidieren Netzwerk- und Security-Features, andere bauen separate Domänenplattformen auf. Im Folgenden sechs prominente Beispiele (in alphabetischer Reihenfolge). 1. Cisco Cisco kündigte Mitte 2023 seine Networking Cloud an: Eine einheitliche Management-Plattform, die sowohl On-Premises als auch in der Cloud läuft – und mehr Transparenz sowie Automatisierung verspricht. Zum Beispiel für Campusnetze, Filialgeschäfte, aber auch für Rechenzentren, IoT oder SD-WAN. Seitdem hat der Netzwerkriese sukzessive neue Funktionen eingeführt. Zum Beispiel: eine neue Single-Sign-On-Technologie (SSO), eine engere Integration zwischen dem Meraki-Dashboard und der Network-Intelligence-Software Thousand Eyes, sowie optimiertes Cloud Management für Catalyst-Switches. Darüber hinaus bietet Cisco auch eine Security-Cloud-Plattform auf Basis seiner Hypershield-Sicherheitsarchitektur an. 2. Extreme Networks Mit seiner Platform One hat Extreme Networks eine Connectivity-Plattform für Unternehmen aufgebaut, die Netzwerk-, Sicherheits- und Bestandsmanagement mit KI und Support Services kombiniert. Die Extreme-Plattform bietet unter anderem: dialogorientierte KI-Erfahrungen, interaktive Analysen und Dashboards, Agentic AI sowie KI-gestützte Workflows für Design, Konfiguration, Fehlerbehebung und Migration. Vor kurzem hat Extreme seine Plattform auch um einen KI-Service-Agenten sowie ein neues Dashboard ergänzt. Letzteres soll den Netzwerk- und Sicherheitsbetrieb vereinfachen. 3. Fortinet Fortinets Security-Fabric-Plattform verspricht integrierten Ende-zu-Ende-Schutz für Netzwerk-, Endpunkt- und Cloud-Deployments. Sie umfasst: ein Betriebssystem (FortiOS), einen einheitlichen Agenten (FortiClient), eine Management-Konsole (FortiManager), eine Data-Lake-Lösung (FortiAnalyzer), offene APIs, und Integrationsmöglichkeiten für mehr als 500 Drittanbieterprodukte. Auch Fortinet setzt darauf, Netzwerk- und Sicherheitsfunktionen in seiner Plattform zusammenzuführen. Das soll umfassende Automatisierungsinitiativen ermöglichen und Echtzeitschutz für Devices, Daten und Applikationen gewährleisten. Der Sicherheitsanbieter fertigt außerdem auch seine eigenen Security Processing Units (SPUs). 4. HPE Hewlett Packard Enterprise (HPE) bietet mit Aruba Networking Central eine Cloud-basierte Netzwerkmanagement-Plattform, die auch als Service zur Verfügung steht und zudem Teil des NaaS-Abonnements HPE GreenLake for Networking ist. Zuletzt hat der Anbieter seine Plattform erweitert um: eine optimierte Konfigurations-Engine für Netzwerkgeräte, Network-Observability-Funktionen sowie Netzwerkoptimierungsmöglichkeiten auf KI-Basis. Darüber hinaus hat HPE nach der Akquisition von OpsRamp auch Features integriert, um Netzwerk-Devices von Drittanbietern zu überwachen. 5. Juniper Networks Die KI-native Netzwerkplattform von Juniper bietet ein einheitliches Networking- und Security-Interface auf Basis von Mist AI, um: Traffic-Muster zu überwachen, Anomalien zu identifizieren und Sicherheitsrichtlinien konsistent über die gesamte Infrastruktur anzuwenden. Neben Mist AI beinhaltet die Juniper-Plattform auch den virtuellen Netzwerkassistenten Marvis sowie die Möglichkeit, Root-Cause-Analysen zu fahren und Events automatisiert zu korrelieren. Das soll den Anwendern dabei helfen, Problemen schneller auf die Schliche zu kommen. Zudem integriert der Anbieter mit seiner Plattform den Zero-Trust-Ansatz in alle Netzwerkdomänen. 6. Palo Alto Networks Palo Alto Networks kündigte Anfang 2024 die Umstellung von Standalone-Produkten auf eine Plattformstrategie an. Besser gesagt eine Multi-Plattformstrategie, denn der US-Sicherheitsanbieter hat gleich drei im Angebot: Strata ist eine Network-Security-Plattform, die den Betrieb vereinfachen, Sicherheitsrichtlinien durchsetzen und vor komplexen Bedrohungen schützen soll. Prisma Cloud ist eine Code-to-Cloud-Plattform, die Anwendungen über den gesamten Lebenszyklus hinweg absichern soll. Cortex ist eine KI-gesteuerte SecOps-Plattform, die verspricht, Sicherheitsbedrohungen schneller zu erkennen und zu beheben. In allen drei Fällen hat Palo Alto Networks zahlreiche eigenständige Security-Tools in einer singulären, eng integrierten Architektur konsolidiert. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

6 Anbieterplattformen für Ihre “Watchlist”​ Der Trend geht zur Plattform.kosant dejnonsang | shutterstock.com

Diverse große IT-Anbieter führen ihre Netzwerk- und Sicherheitsprodukte inzwischen zu einheitlichen Architekturen zusammen, um ihren Kunden zu ermöglichen:

Richtlinien besser durchzusetzen,

die allgemeine Transparenz zu steigern, und

die IT-Produktivität zu optimieren.

Dabei verfolgen die Anbieter unterschiedliche Platformization-Ansätze: Manche konsolidieren Netzwerk- und Security-Features, andere bauen separate Domänenplattformen auf. Im Folgenden sechs prominente Beispiele (in alphabetischer Reihenfolge).

1. Cisco

Cisco kündigte Mitte 2023 seine Networking Cloud an: Eine einheitliche Management-Plattform, die sowohl On-Premises als auch in der Cloud läuft – und mehr Transparenz sowie Automatisierung verspricht. Zum Beispiel für Campusnetze, Filialgeschäfte, aber auch für Rechenzentren, IoT oder SD-WAN. Seitdem hat der Netzwerkriese sukzessive neue Funktionen eingeführt. Zum Beispiel:

eine neue Single-Sign-On-Technologie (SSO),

eine engere Integration zwischen dem Meraki-Dashboard und der Network-Intelligence-Software Thousand Eyes, sowie

optimiertes Cloud Management für Catalyst-Switches.

Darüber hinaus bietet Cisco auch eine Security-Cloud-Plattform auf Basis seiner Hypershield-Sicherheitsarchitektur an.

2. Extreme Networks

Mit seiner Platform One hat Extreme Networks eine Connectivity-Plattform für Unternehmen aufgebaut, die Netzwerk-, Sicherheits- und Bestandsmanagement mit KI und Support Services kombiniert. Die Extreme-Plattform bietet unter anderem:

dialogorientierte KI-Erfahrungen,

interaktive Analysen und Dashboards,

Agentic AI sowie

KI-gestützte Workflows für Design, Konfiguration, Fehlerbehebung und Migration.

Vor kurzem hat Extreme seine Plattform auch um einen KI-Service-Agenten sowie ein neues Dashboard ergänzt. Letzteres soll den Netzwerk- und Sicherheitsbetrieb vereinfachen.

3. Fortinet

Fortinets Security-Fabric-Plattform verspricht integrierten Ende-zu-Ende-Schutz für Netzwerk-, Endpunkt- und Cloud-Deployments. Sie umfasst:

ein Betriebssystem (FortiOS),

einen einheitlichen Agenten (FortiClient),

eine Management-Konsole (FortiManager),

eine Data-Lake-Lösung (FortiAnalyzer),

offene APIs, und

Integrationsmöglichkeiten für mehr als 500 Drittanbieterprodukte.

Auch Fortinet setzt darauf, Netzwerk- und Sicherheitsfunktionen in seiner Plattform zusammenzuführen. Das soll umfassende Automatisierungsinitiativen ermöglichen und Echtzeitschutz für Devices, Daten und Applikationen gewährleisten. Der Sicherheitsanbieter fertigt außerdem auch seine eigenen Security Processing Units (SPUs).

4. HPE

Hewlett Packard Enterprise (HPE) bietet mit Aruba Networking Central eine Cloud-basierte Netzwerkmanagement-Plattform, die auch als Service zur Verfügung steht und zudem Teil des NaaS-Abonnements HPE GreenLake for Networking ist.

Zuletzt hat der Anbieter seine Plattform erweitert um:

eine optimierte Konfigurations-Engine für Netzwerkgeräte,

Network-Observability-Funktionen sowie

Netzwerkoptimierungsmöglichkeiten auf KI-Basis.

Darüber hinaus hat HPE nach der Akquisition von OpsRamp auch Features integriert, um Netzwerk-Devices von Drittanbietern zu überwachen.

5. Juniper Networks

Die KI-native Netzwerkplattform von Juniper bietet ein einheitliches Networking- und Security-Interface auf Basis von Mist AI, um:

Traffic-Muster zu überwachen,

Anomalien zu identifizieren und

Sicherheitsrichtlinien konsistent über die gesamte Infrastruktur anzuwenden.

Neben Mist AI beinhaltet die Juniper-Plattform auch den virtuellen Netzwerkassistenten Marvis sowie die Möglichkeit, Root-Cause-Analysen zu fahren und Events automatisiert zu korrelieren. Das soll den Anwendern dabei helfen, Problemen schneller auf die Schliche zu kommen. Zudem integriert der Anbieter mit seiner Plattform den Zero-Trust-Ansatz in alle Netzwerkdomänen.

6. Palo Alto Networks

Palo Alto Networks kündigte Anfang 2024 die Umstellung von Standalone-Produkten auf eine Plattformstrategie an. Besser gesagt eine Multi-Plattformstrategie, denn der US-Sicherheitsanbieter hat gleich drei im Angebot:

Strata ist eine Network-Security-Plattform, die den Betrieb vereinfachen, Sicherheitsrichtlinien durchsetzen und vor komplexen Bedrohungen schützen soll.

Prisma Cloud ist eine Code-to-Cloud-Plattform, die Anwendungen über den gesamten Lebenszyklus hinweg absichern soll.

Cortex ist eine KI-gesteuerte SecOps-Plattform, die verspricht, Sicherheitsbedrohungen schneller zu erkennen und zu beheben.

In allen drei Fällen hat Palo Alto Networks zahlreiche eigenständige Security-Tools in einer singulären, eng integrierten Architektur konsolidiert. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

6 Anbieterplattformen für Ihre “Watchlist”​ Weiterlesen »

Tutorial: Python richtig installieren​

Allgemein

Python gilt als Shooting Star unter den Programmiersprachen. Wir sagen Ihnen, wie Sie die Installation unter Windows, Linux und MacOS reibungslos bewerkstelligen und was Sie dabei beachten sollten. Foto: Flegere – shutterstock.com Mit der einsteiger- und benutzerfreundlichen Programmiersprache Python können Sie nahezu jede erdenkliche Applikation coden. Aber es ist eben auch nur eine Software wie jede andere – Installation und Management können mitunter komplex ausfallen. Wir verraten Ihnen, wie Sie Python aufsetzen, die richtige Version für Ihre Zwecke ermitteln und mögliche Fallstricke bei der Installation unter Windows, Linux und MacOS vermeiden. Die richtige Python-Version ermitteln Um die Kompatibilität mit Drittanbieter-Modulen gewährleisten zu können, sollten Sie nicht auf die neueste Python-Version setzen. Stattdessen empfiehlt sich die letzte große Versionierung. Aktuell (Stand: Juni 2025) ist Python 3.13.5 die neueste Version. Um sicherzugehen, dass alles läuft, sollten Sie sich also für die letzte Revision von Python 3.12 entscheiden. Natürlich können Sie die neueste Python-Version jederzeit in einer geschützten Umgebung – etwa einer virtuellen Maschine – austesten. Von Python existieren darüber hinaus auch verschiedene Distributionen – ganz ähnlich wie das bei Linux der Fall ist. Allerdings ist die Programmiersprache, im Gegensatz zu Linux, auch in einer offiziellen Version erhältlich, die Sie als Fallback-Option nutzen können: CPython wird von der Python Software Foundation zur Verfügung gestellt und ist die sicherste und kompatibelste Distribution. Mit anderen Python-Distributionen für spezifische Use Cases können Sie zu einem späteren Zeitpunkt jederzeit experimentieren. Ein wesentlicher Punkt bei der Wahl der Python-Distribution – insbesondere unter Windows – ist die Entscheidung zwischen der 32-Bit- und der 64-Bit-Version. Sehr wahrscheinlich werden Sie sich für letztere entscheiden, denn: die meisten modernen Betriebssysteme arbeiten standardmäßig mit der 64-Bit-Version von Python. Windows-Nutzer können die 32-Bit-Versionen der Coding-Sprache auch mit einem 64-Bit-Windows betreiben, müssen sich aber auf leichte Performance-Einbußen einstellen. 32-Bit-Applikationen – auch Python – können zeitgleich auf maximal 4 GB Arbeitsspeicher zugreifen. Dieses Limit kennen 64-Bit-Apps nicht. Hinzu kommt, dass viele Datenanalyse- und Machine-Learning-Tools innerhalb einer 64-bit-Umgebung am besten laufen. Für die 32-Bit-Version von Python sollten Sie sich lediglich dann entscheiden, wenn Sie auch ein 32-Bit-Windows oder ein Drittanbieter-Modul nutzen (müssen), welches lediglich als 32-Bit-Version vorliegt. Python unter Windows installieren Wie bei nahezu jeder Applikation unter Windows läuft auch die Installation von Python über einen Installer ab, der Sie durch den Setup-Prozess geleitet. Standardmäßig legt der Python-Installer .exe-Dateien unter Windows im App-Data-Verzeichnis des jeweiligen Nutzers ab – so dass keine Administratorrechte für die Installation benötigt werden. Den richtige Python Installer für Windows finden Python.org stellt mehrere verschiedene Windows Installer zur Verfügung. Neben der 32-Bit- (x86) und der 64-Bit-Version (x86-64) auch ein embeddable Zip File, eine .exe-Datei sowie einen webbasierten Installer. Diese unterscheiden sich wie folgt: Der .exe Installer ist lediglich eine ausführbare Datei, die den Installationsprozess von Python startet – das ist die gängigste und simpelste Lösung. Der webbasierte Installer ist im Grunde identisch zu seinem .exe-Pendant, mit dem Unterschied, dass es die Dateien, die für die Installation nötig sind, separat herunterlädt. Dadurch reduziert sich die Größe des Installers drastisch, allerdings ist eine Netzwerkverbindung zwingend erforderlich. Das embeddable Zip File ist eine in sich geschlossene, auf das Minimum reduzierte Kopie der Python-Laufzeitumgebung. Das ist nützlich, wenn Sie eine Python-Applikation manuell verteilen oder schnell etwas testen wollen. Allerdings enthält dieser Installer keines der nützlichen Tools, die die anderen Versionen an Bord haben. Python mit einem Package Manager unter Windows installieren Eine weitere Option unter Windows ist die Nutzung des betriebssystemeigenen Package-Management-Systems NuGet. Der Package Manager für .NET hat auch Python im Angebot, allerdings als Komponente für .NET-Applikationen und nicht, um als Installer für eine Standalone-Version von Python zum Einsatz zu kommen. Das Management Ihrer Python-Instanz dürfte sich deshalb mit einer regulären Installation einfacher gestalten. Auch das Windows Package Management System Chocolatey stellt Python zur Verfügung. Das ist im Vergleich zu NuGet in der Regel die bessere Option, weil Ihr System dabei auf eine vorhandene Python-Laufzeitumgebung überprüft wird. Allerdings sollten Sie vermeiden, reguläre Installationen und solche mit Chocolatey auf einem System zu vermischen. Python unter Linux installieren Weil Linux-Distributionen teilweise erhebliche Unterschiede aufweisen, sollten Sie bei der Installation von Python unter dem Open-Source-Betriebssystem auch auf den Package Manager der jeweiligen Distribution zurückgreifen. Die Vorgehensweise bei der Installation unterscheidet sich beispielsweise im Fall von Ubuntu und Fedora grundlegend. Das Installations-Zielverzeichnis orientiert sich dabei im Regelfall an der Python-Versionsnummer (/usr/bin/python3.x). Ein Weg, die Komplexität im Umgang mit Linux-Package-Managern zu umgehen ist die Nutzung einer Container-basierten Python-Laufzeitumgebung. Container sind vom Rest des Systems isoliert – Sie müssen sich also auch keine Gedanken darüber machen, dass unterschiedliche Python-Laufzeitumgebungen Konflikte verursachen. Falls Sie keine Erfahrungen im Umgang mit Containern haben, müssen Sie allerdings ein wenig Zeit und Mühe einplanen, um sich mit der Materie vertraut zu machen. Das Tool asdf-vm ist hilfreich, um mehrere Python-Laufzeitumgebungen auf Unix-basierten Systemen (Linux und MacOS) zu managen. Dabei beschränkt sich das Tool nicht auf Python: auch mehrere Laufzeitumgebungen für Node.js, Ruby, Elixir und viele weitere Programmiersprachen können mit asdf-vm unter einen Hut gebracht werden. Python unter MacOS installieren Apples MacOS wurde lange mit einer vorinstallierten Python-Version ausgeliefert – allerdings kam dabei keine Version zum Einsatz, die neuer als 2.7 war. Das führte mit der Veröffentlichung von Python 3.0 des Öfteren zu Problemen beziehungsweise Konflikten. Die offizielle Python-Dokumentation geht am Rande auf dieses Problem ein, stellt als Lösungsansatz allerdings nur die Empfehlung bereit, den richtigen Pfad für die entsprechende Python-Instanz zu wählen. Die Nutzung des Homebrew Package Managers stellt einen gängigen Weg dar, um Python-Laufzeitumgebungen unter MacOS zu managen. Dieser stellt ein konsistentes Interface für Download, (De-)Installation und Management von Python zur Verfügung. Python Packages installieren Wenn Sie die Grundinstallation von Python abgeschlossen haben, sollten Sie im nächsten Schritt nicht direkt mit Pip (der Python Package Manager) die Packages installieren – selbst, wenn Sie Python nur für ein einzelnes Projekt nutzen wollen. Stattdessen empfiehlt es sich, virtuelle Python-Umgebungen aufzusetzen und die Packages innerhalb dieser Umgebungen zu installieren. So bleibt die Basis-Installation “clean”. Eine Vielzahl von Projekten mit virtuellen Umgebungen zu managen, kann sich anspruchsvoll gestalten. Hier empfiehlt sich ein Blick auf das Kommandozeilen-Tool Poetry. Mehrere Python-Versionen parallel installieren Richtig knifflig wird es, wenn mehrere verschiedene Versionen der Programmiersprache parallel installiert werden sollen. Hier sollten Sie insbesondere zwei Dinge beachten: Installieren Sie jede Python-Version immer in einem eigenen Verzeichnis. Stellen Sie sicher, dass die Systempfade zuerst auf die Python-Version verweisen, die standardmäßig zum Einsatz kommen soll. Die Einrichtung virtueller Umgebungen für jedes einzelne Projekt ist wärmstens zu empfehlen, wenn unterschiedliche Python-Versionen parallel zum Einsatz kommen sollen: So stellen Sie sicher, dass bei Aktivierung der entsprechenden virtuellen Umgebung immer automatisch die richtige Version der Coding-Sprache zum Einsatz kommt. Windows-Nutzern steht in diesem Zusammenhang mit der Py Launcher App eine weitere Option zur Verfügung. Diese kann im Rahmen des Installationsprozesses hinzugefügt werden und ermöglicht Ihnen, über Kommandozeilen-Flags auszuwählen, welche Python-Version für das jeweilige Script zum Einsatz kommen soll. Mehrere Python-Versionen unter Windows managen Bislang war es nicht wirklich möglich, unter Windows installierte Python-Versionen zu managen. Das soll sich künftig (ab Version 3.14) mit einem Tool ändern, das das Python-Kernteam neu entwickelt hat. Der Python Installation Manager for Windows ist derzeit als Betaversion verfügbar und soll künftig das Mittel der Wahl darstellen, um Installationen unter Windows zu verwalten. Weil der neue Installation Manager selbst nur eine normale Windows-App ist, gibt es mehrere Möglichkeiten, diesen zu installieren. Das funktioniert über:   den Microsoft Store, die offizielle Python-Website per Direkt-Download, oder den WinGet-Paketmanager (winget install 9NQ7512CXL7T). Das bisherige py-Tool soll künftig durch den Installation Manager ersetzt werden, wobei das neue Tool das alte in Sachen Funktionalität deutlich übertrifft. Die Befehle, die zuvor funktioniert haben, können weiterhin verwendet werden. Einen nützlichen Überblick über alle wichtigen Kommandos rufen Sie mit py help auf: IDG Um einzusehen, welche Python-Versionen bereits auf Ihrem Windows-System vorhanden sind, nutzen Sie den Befehl py list: IDG Wenn Sie an bereits installierten Python-Instanzen Änderungen vornehmen möchten, müssen Sie diese manuell entfernen und anschließend mit dem Installation Manager neu installieren. Das ist denkbar einfach: Python-Versionen fügen Sie mit py install hinzu, rufen diese nach der Installation mit py – auf, und nutzen py uninstall für die Deinstallation. Um zu sehen, welche Python-Versionen über den Manager verfügbar sind, nutzen Sie py list –online. Die hier gelisteten Python-Installationen lassen sich zudem mit dem Befehl py list -f=json im JSON-Format exportieren (CSV und JSONL sind ebenfalls verfügbar). Die standardmäßige Python-Version wird in der Auflistung durch ein Sternchen markiert: IDG Sobald Sie den Befehl py eingeben, wird diese Standard-Version aufgerufen. Falls Sie das ändern möchten, können Sie eine Umgebungsvariable definieren. Um etwa Python 3.12 als Standardversion festzulegen, würden Sie Powershell mit folgendem Kommando füttern:   $Env:PYTHON_MANAGER_DEFAULT=„3.12“ Ein Befehl wie py install könnte allerdings leicht mit vorkonfigurierten Befehlen in virtuellen Umgebungen oder mit einem anderen Alias kollidieren. Um das zu vermeiden, können Sie pymanager als eindeutigen Namen für den Installation Manager nutzen. Alle Befehle bleiben dabei unverändert, lediglich der Name der Executable ändert sich. IDG Darüber hinaus ist es auch möglich, die Windows App Execution Aliases für Befehle wie python und python3 anzupassen. Dazu geben Sie lediglich py install –configure ein. Sie werden dann aufgefordert, die Aliase Ihres Systems zu ändern: IDG Python richtig upgraden Weniger umfangreiche Python-Revisionen (etwa von 3.7.2 auf 3.7.3) stellen im Regelfall kein Problem dar: Unter Windows erkennt der Installer automatisch die installierte Version und stößt das entsprechende Upgrade an – unter Linux und MacOS in der Regel ebenso. Allerdings müssen auch alle virtuellen Umgebungen, die Sie erstellt haben, mit einem Upgrade versehen werden – das geschieht nicht automatisch. Bei großen Revisionen (etwa von 3.12 auf 3.13) sollten Sie hingegen neue virtuelle Umgebungen innerhalb der einzelnen Projektverzeichnisse erstellen. Die meisten IDEs die Python unterstützen (zum Beispiel Microsoft Visual Studio Code), erkennen das automatisch und ermöglichen Ihnen, zwischen den verschiedenen virtuellen Umgebungen hin- und her zu wechseln. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Tutorial: Python richtig installieren​ Python gilt als Shooting Star unter den Programmiersprachen. Wir sagen Ihnen, wie Sie die Installation unter Windows, Linux und MacOS reibungslos bewerkstelligen und was Sie dabei beachten sollten.
Foto: Flegere – shutterstock.com

Mit der einsteiger- und benutzerfreundlichen Programmiersprache Python können Sie nahezu jede erdenkliche Applikation coden. Aber es ist eben auch nur eine Software wie jede andere – Installation und Management können mitunter komplex ausfallen. Wir verraten Ihnen, wie Sie Python aufsetzen, die richtige Version für Ihre Zwecke ermitteln und mögliche Fallstricke bei der Installation unter Windows, Linux und MacOS vermeiden.

Die richtige Python-Version ermitteln

Um die Kompatibilität mit Drittanbieter-Modulen gewährleisten zu können, sollten Sie nicht auf die neueste Python-Version setzen. Stattdessen empfiehlt sich die letzte große Versionierung. Aktuell (Stand: Juni 2025) ist Python 3.13.5 die neueste Version. Um sicherzugehen, dass alles läuft, sollten Sie sich also für die letzte Revision von Python 3.12 entscheiden. Natürlich können Sie die neueste Python-Version jederzeit in einer geschützten Umgebung – etwa einer virtuellen Maschine – austesten.

Von Python existieren darüber hinaus auch verschiedene Distributionen – ganz ähnlich wie das bei Linux der Fall ist. Allerdings ist die Programmiersprache, im Gegensatz zu Linux, auch in einer offiziellen Version erhältlich, die Sie als Fallback-Option nutzen können: CPython wird von der Python Software Foundation zur Verfügung gestellt und ist die sicherste und kompatibelste Distribution. Mit anderen Python-Distributionen für spezifische Use Cases können Sie zu einem späteren Zeitpunkt jederzeit experimentieren.

Ein wesentlicher Punkt bei der Wahl der Python-Distribution – insbesondere unter Windows – ist die Entscheidung zwischen der 32-Bit- und der 64-Bit-Version. Sehr wahrscheinlich werden Sie sich für letztere entscheiden, denn:

die meisten modernen Betriebssysteme arbeiten standardmäßig mit der 64-Bit-Version von Python. Windows-Nutzer können die 32-Bit-Versionen der Coding-Sprache auch mit einem 64-Bit-Windows betreiben, müssen sich aber auf leichte Performance-Einbußen einstellen.

32-Bit-Applikationen – auch Python – können zeitgleich auf maximal 4 GB Arbeitsspeicher zugreifen. Dieses Limit kennen 64-Bit-Apps nicht. Hinzu kommt, dass viele Datenanalyse- und Machine-Learning-Tools innerhalb einer 64-bit-Umgebung am besten laufen.

Für die 32-Bit-Version von Python sollten Sie sich lediglich dann entscheiden, wenn Sie auch ein 32-Bit-Windows oder ein Drittanbieter-Modul nutzen (müssen), welches lediglich als 32-Bit-Version vorliegt.

Python unter Windows installieren

Wie bei nahezu jeder Applikation unter Windows läuft auch die Installation von Python über einen Installer ab, der Sie durch den Setup-Prozess geleitet. Standardmäßig legt der Python-Installer .exe-Dateien unter Windows im App-Data-Verzeichnis des jeweiligen Nutzers ab – so dass keine Administratorrechte für die Installation benötigt werden.

Den richtige Python Installer für Windows finden

Python.org stellt mehrere verschiedene Windows Installer zur Verfügung. Neben der 32-Bit- (x86) und der 64-Bit-Version (x86-64) auch ein embeddable Zip File, eine .exe-Datei sowie einen webbasierten Installer. Diese unterscheiden sich wie folgt:

Der .exe Installer ist lediglich eine ausführbare Datei, die den Installationsprozess von Python startet – das ist die gängigste und simpelste Lösung.

Der webbasierte Installer ist im Grunde identisch zu seinem .exe-Pendant, mit dem Unterschied, dass es die Dateien, die für die Installation nötig sind, separat herunterlädt. Dadurch reduziert sich die Größe des Installers drastisch, allerdings ist eine Netzwerkverbindung zwingend erforderlich.

Das embeddable Zip File ist eine in sich geschlossene, auf das Minimum reduzierte Kopie der Python-Laufzeitumgebung. Das ist nützlich, wenn Sie eine Python-Applikation manuell verteilen oder schnell etwas testen wollen. Allerdings enthält dieser Installer keines der nützlichen Tools, die die anderen Versionen an Bord haben.

Python mit einem Package Manager unter Windows installieren

Eine weitere Option unter Windows ist die Nutzung des betriebssystemeigenen Package-Management-Systems NuGet. Der Package Manager für .NET hat auch Python im Angebot, allerdings als Komponente für .NET-Applikationen und nicht, um als Installer für eine Standalone-Version von Python zum Einsatz zu kommen. Das Management Ihrer Python-Instanz dürfte sich deshalb mit einer regulären Installation einfacher gestalten.

Auch das Windows Package Management System Chocolatey stellt Python zur Verfügung. Das ist im Vergleich zu NuGet in der Regel die bessere Option, weil Ihr System dabei auf eine vorhandene Python-Laufzeitumgebung überprüft wird. Allerdings sollten Sie vermeiden, reguläre Installationen und solche mit Chocolatey auf einem System zu vermischen.

Python unter Linux installieren

Weil Linux-Distributionen teilweise erhebliche Unterschiede aufweisen, sollten Sie bei der Installation von Python unter dem Open-Source-Betriebssystem auch auf den Package Manager der jeweiligen Distribution zurückgreifen. Die Vorgehensweise bei der Installation unterscheidet sich beispielsweise im Fall von Ubuntu und Fedora grundlegend. Das Installations-Zielverzeichnis orientiert sich dabei im Regelfall an der Python-Versionsnummer (/usr/bin/python3.x).

Ein Weg, die Komplexität im Umgang mit Linux-Package-Managern zu umgehen ist die Nutzung einer Container-basierten Python-Laufzeitumgebung. Container sind vom Rest des Systems isoliert – Sie müssen sich also auch keine Gedanken darüber machen, dass unterschiedliche Python-Laufzeitumgebungen Konflikte verursachen. Falls Sie keine Erfahrungen im Umgang mit Containern haben, müssen Sie allerdings ein wenig Zeit und Mühe einplanen, um sich mit der Materie vertraut zu machen.

Das Tool asdf-vm ist hilfreich, um mehrere Python-Laufzeitumgebungen auf Unix-basierten Systemen (Linux und MacOS) zu managen. Dabei beschränkt sich das Tool nicht auf Python: auch mehrere Laufzeitumgebungen für Node.js, Ruby, Elixir und viele weitere Programmiersprachen können mit asdf-vm unter einen Hut gebracht werden.

Python unter MacOS installieren

Apples MacOS wurde lange mit einer vorinstallierten Python-Version ausgeliefert – allerdings kam dabei keine Version zum Einsatz, die neuer als 2.7 war. Das führte mit der Veröffentlichung von Python 3.0 des Öfteren zu Problemen beziehungsweise Konflikten. Die offizielle Python-Dokumentation geht am Rande auf dieses Problem ein, stellt als Lösungsansatz allerdings nur die Empfehlung bereit, den richtigen Pfad für die entsprechende Python-Instanz zu wählen.

Die Nutzung des Homebrew Package Managers stellt einen gängigen Weg dar, um Python-Laufzeitumgebungen unter MacOS zu managen. Dieser stellt ein konsistentes Interface für Download, (De-)Installation und Management von Python zur Verfügung.

Python Packages installieren

Wenn Sie die Grundinstallation von Python abgeschlossen haben, sollten Sie im nächsten Schritt nicht direkt mit Pip (der Python Package Manager) die Packages installieren – selbst, wenn Sie Python nur für ein einzelnes Projekt nutzen wollen. Stattdessen empfiehlt es sich, virtuelle Python-Umgebungen aufzusetzen und die Packages innerhalb dieser Umgebungen zu installieren. So bleibt die Basis-Installation “clean”.

Eine Vielzahl von Projekten mit virtuellen Umgebungen zu managen, kann sich anspruchsvoll gestalten. Hier empfiehlt sich ein Blick auf das Kommandozeilen-Tool Poetry.

Mehrere Python-Versionen parallel installieren

Richtig knifflig wird es, wenn mehrere verschiedene Versionen der Programmiersprache parallel installiert werden sollen. Hier sollten Sie insbesondere zwei Dinge beachten:

Installieren Sie jede Python-Version immer in einem eigenen Verzeichnis.

Stellen Sie sicher, dass die Systempfade zuerst auf die Python-Version verweisen, die standardmäßig zum Einsatz kommen soll.

Die Einrichtung virtueller Umgebungen für jedes einzelne Projekt ist wärmstens zu empfehlen, wenn unterschiedliche Python-Versionen parallel zum Einsatz kommen sollen: So stellen Sie sicher, dass bei Aktivierung der entsprechenden virtuellen Umgebung immer automatisch die richtige Version der Coding-Sprache zum Einsatz kommt. Windows-Nutzern steht in diesem Zusammenhang mit der Py Launcher App eine weitere Option zur Verfügung. Diese kann im Rahmen des Installationsprozesses hinzugefügt werden und ermöglicht Ihnen, über Kommandozeilen-Flags auszuwählen, welche Python-Version für das jeweilige Script zum Einsatz kommen soll.

Mehrere Python-Versionen unter Windows managen

Bislang war es nicht wirklich möglich, unter Windows installierte Python-Versionen zu managen. Das soll sich künftig (ab Version 3.14) mit einem Tool ändern, das das Python-Kernteam neu entwickelt hat. Der Python Installation Manager for Windows ist derzeit als Betaversion verfügbar und soll künftig das Mittel der Wahl darstellen, um Installationen unter Windows zu verwalten. Weil der neue Installation Manager selbst nur eine normale Windows-App ist, gibt es mehrere Möglichkeiten, diesen zu installieren. Das funktioniert über:  

den Microsoft Store,

die offizielle Python-Website per Direkt-Download, oder

den WinGet-Paketmanager (winget install 9NQ7512CXL7T).

Das bisherige py-Tool soll künftig durch den Installation Manager ersetzt werden, wobei das neue Tool das alte in Sachen Funktionalität deutlich übertrifft. Die Befehle, die zuvor funktioniert haben, können weiterhin verwendet werden. Einen nützlichen Überblick über alle wichtigen Kommandos rufen Sie mit py help auf:

IDG

Um einzusehen, welche Python-Versionen bereits auf Ihrem Windows-System vorhanden sind, nutzen Sie den Befehl py list:

IDG

Wenn Sie an bereits installierten Python-Instanzen Änderungen vornehmen möchten, müssen Sie diese manuell entfernen und anschließend mit dem Installation Manager neu installieren. Das ist denkbar einfach:

Python-Versionen fügen Sie mit py install hinzu,

rufen diese nach der Installation mit py – auf, und

nutzen py uninstall für die Deinstallation.

Um zu sehen, welche Python-Versionen über den Manager verfügbar sind, nutzen Sie py list –online. Die hier gelisteten Python-Installationen lassen sich zudem mit dem Befehl py list -f=json im JSON-Format exportieren (CSV und JSONL sind ebenfalls verfügbar). Die standardmäßige Python-Version wird in der Auflistung durch ein Sternchen markiert:

IDG

Sobald Sie den Befehl py eingeben, wird diese Standard-Version aufgerufen. Falls Sie das ändern möchten, können Sie eine Umgebungsvariable definieren. Um etwa Python 3.12 als Standardversion festzulegen, würden Sie Powershell mit folgendem Kommando füttern:  

$Env:PYTHON_MANAGER_DEFAULT=„3.12“

Ein Befehl wie py install könnte allerdings leicht mit vorkonfigurierten Befehlen in virtuellen Umgebungen oder mit einem anderen Alias kollidieren. Um das zu vermeiden, können Sie pymanager als eindeutigen Namen für den Installation Manager nutzen. Alle Befehle bleiben dabei unverändert, lediglich der Name der Executable ändert sich.

IDG

Darüber hinaus ist es auch möglich, die Windows App Execution Aliases für Befehle wie python und python3 anzupassen. Dazu geben Sie lediglich py install –configure ein. Sie werden dann aufgefordert, die Aliase Ihres Systems zu ändern:

IDG

Python richtig upgraden

Weniger umfangreiche Python-Revisionen (etwa von 3.7.2 auf 3.7.3) stellen im Regelfall kein Problem dar: Unter Windows erkennt der Installer automatisch die installierte Version und stößt das entsprechende Upgrade an – unter Linux und MacOS in der Regel ebenso. Allerdings müssen auch alle virtuellen Umgebungen, die Sie erstellt haben, mit einem Upgrade versehen werden – das geschieht nicht automatisch.

Bei großen Revisionen (etwa von 3.12 auf 3.13) sollten Sie hingegen neue virtuelle Umgebungen innerhalb der einzelnen Projektverzeichnisse erstellen. Die meisten IDEs die Python unterstützen (zum Beispiel Microsoft Visual Studio Code), erkennen das automatisch und ermöglichen Ihnen, zwischen den verschiedenen virtuellen Umgebungen hin- und her zu wechseln.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Tutorial: Python richtig installieren​ Weiterlesen »

Version Control Systems – ein Ratgeber​

Allgemein

Ohne agile, skalierbare und performante Versionskontrollsysteme wird’s schwer mit dem Softwareerfolg. Foto: lilik ferri yanto | shutterstock.com Version Control Systems (VCS) unterstützen Entwicklungs-Teams dabei, sämtliche Änderungen am Quellcode im Zeitverlauf zu verfolgen. Das ermöglicht nicht nur zu prüfen, wer wann was geändert hat sondern auch einen Rollback auf frühere Versionen – und etabliert eine Single Source of Truth. Im Folgenden lesen Sie: wie sich der Markt für Versionskontrollsysteme entwickelt, was entsprechende Lösungen leisten sollten und welche Version Control Systems derzeit relevant sind. Der Markt für Versionskontrollsysteme Wir blicken zunächst auf einige Zahlen und Einschätzungen zur künftigen Marktentwicklung und werfen anschließend einen Blick auf den aktuellen Stand der Entwicklung sowie neu aufkommende Trends im Bereich der Versionskontrollsysteme. Prognose Die Bedeutung der Versionskontrolle steigt in einer Welt, in der Software und Daten essenzielle Güter sind und Produkte immer schneller auf den Markt gebracht werden müssen, zunehmend. Dabei entwickeln sich auch die Lösungen in diesem Bereich kontinuierlich weiter, um den steigenden Anforderungen an Flexibilität, Skalierbarkeit und Performance gerecht zu werden. Stichwort GenAI. Jim Mercer, Program Vice President für die Bereiche Software Development, DevOps & DevSecOps bei IDC, setzt das Thema in einen Kontext: “Version Control oder Source Control Management war ursprünglich für den Quellcode von Softwareentwicklern gedacht. Da wir uns aber in Richtung eines Everything-as-Code-Ansatzes bewegen, steigt auch die Zahl der Anwender von Versionskontrollsystemen.” Christopher Condo, Principal Analyst bei Forrester Research, sieht das ähnlich: “Dass die Nachfrage sowohl bei traditioneller Software als auch in neuen Bereichen wie Infrastructure– und Policy as a Code oder Low-Code weiter wächst, hat einen direkten Impact auf die Nachfrage nach Versionskontrollsystemen – schließlich sind diese für jede Art von Programmcode nötig.” Auch die Berater von Acumen Research & Consulting prophezeihen dem VCS-Markt in einer Analyse fortgesetztes Wachstum. Demnach soll dieser auf globaler Ebene bis zum Jahr 2030 auf 2,68 Milliarden Dollar anschwellen (2021: 982 Millionen Dollar) – mit einer jährlichen Wachstumsrate von 11,9 Prozent. Laut den Analysten sollen dabei vor allem die zunehmend populären Cloud-basierten Versionskontrollsysteme als Wachstumstreiber fungieren. Status Quo Laut IDC-Mann Mercer wurden in den letzten zwanzig Jahren diverse Version Control Systems entwickelt – etwa Subversion, ClearCase, Mercurial und andere. “Die meisten Teams bevorzugen allerdings Lösungen, die auf dem Open-Source-Projekt Git basieren”, erklärt er. Hier seien die wichtigsten Optionen GitHub, GitLab und Bitbucket. Das Gros der übrigen Versionskontrollsysteme habe angesichts der Git-Dominanz entweder entsprechende Brücken oder Integrationen geschaffen.” Mercer zufolge haben sich VCS wie GitLab und GitHub dank zahlreicher hinzugekommener Funktionen inzwischen zu vollwertigen Devops-Plattformen entwickelt. “Zudem haben sich Version Control Systems auch mit Blick auf die Sicherheit und die Möglichkeit, Richtlinien zu erstellen, weiterentwickelt.” Auch Thomas Murphy, Senior Director Analyst bei Gartner, attestiert GitHub, GitLab und Bitbucket eine dramatische Weiterentwicklung: “Diese Plattformen wollen die ‘moderne Entwicklerumgebung’ sein: Sie kümmern sich um den Build, managen das Projekt sowie die Dokumentation und können auch noch die Software verpacken, testen und bereitstellen.” Trends Der Gartner-Chefanalyst merkt an, dass diese Plattformen inzwischen auch generative KI-Assistenten einsetzen, um bei Code-Aktualisierung und -Erstellung sowie anderen Tasks zu unterstützen. Allerdings bereite Generative AI – und insbesondere die Art und Weise, wie die der Technologie zugrundeliegenden Large Language Models (LLMs) trainiert werden – einigen Anwendern zunehmend Sorgen, führt Forrester-Analyst Condo an: “Tools wie GitHub Copilot nutzen Quellcode aus öffentlichen Versionskontrollsystemen, die sie hosten, um ihr Modell zu trainieren.” Die Anwender sollten sich deshalb genau überlegen, ob sie damit einverstanden sind oder es vorziehen, ihren Code nicht zu KI-Trainingsmaterial zu machen, so der Analyst. Er warnt: “Unternehmen, die sensiblen Algorithmen nutzen oder Angst um ihr geistiges Eigentum haben, sollten davon die Finger lassen.” Ein weiterer Trend ist die zunehmende Verlagerung hin zu Cloud-basierten Versionskontrollsystemen. Laut den Experten von Acumen Research & Consulting erschließt das Benefits wie: Echtzeit-Collaboration, Zugriff von jedem Ort sowie zu jeder Zeit und niedrigere Anschaffungskosten (im Vergleich zu On-Premises-Systemen). “GitHub, GitLab und andere Online-Repositories ermöglichen es Unternehmen, ihre Software-as-a-Service-Produkte zu nutzen, ohne ein selbstgehostetes Versionskontrollsystem betreiben zu müssen. Das erleichtert die länderübergreifende Zusammenarbeit”, erläutert Condo. Unternehmen, die sich dafür entscheiden, ihr eigenes Versionskontrollsystem On-Premises zu betreiben, sollten nach Empfehlung des Forrester-Analysten in jedem Fall über die dafür notwendigen Skills und Ressourcen verfügen – zumindest wenn sie damit erfolgreich sein wollten. Das sollte Versionskontrolle leisten Grundsätzlich ermöglicht ein Version Control System es den Entwicklern, verschiedene Versionen von Quellcode, Konfigurationen und anderen Artefakten zu managen, die sich im Zeitverlauf verändern. Je nach Art und Größe sowie Prioritäten des Unternehmens sind jedoch auch weitere wichtige Funktionen relevant. Dazu gehören laut IDC-Experte Mercer und Forrester-Analyst Condo: Skalierbarkeit: Version Control Systems sollten Devs und andere Anwender in die Lage versetzen, Code domänen- und plattformübergreifend zu managen – insbesondere, wenn es sich um wachsende Unternehmen mit expandierenden Entwicklungsinitiativen handelt. Performance: Software für die Versionskontrolle sollte überall dort, wo sie in einem Unternehmen eingesetzt wird, gut funktionieren. Branching: VCS sollten zudem über BRanching-Funktionen verfügen. Das ermöglicht, Objekte im Rahmen der Versionskontrolle zu duplizieren, so dass jedes nachfolgende Objekt separat und parallel geändert werden kann. Branches mit Trunks mergen zu können, ist diesbezüglich eine weitere, wichtige Funktion. Collaboration: Für moderne Versionskontrollsysteme sind Funktionen für die Zusammenarbeit unerlässlich. Schließlich steigt die Zahl der verteilt arbeitenden Dev-Teams – was effektive Collaboration umso wichtiger macht. VCS stellen dabei sicher, dass alle mit der gleichen Quelle arbeiten, unabhängig davon, ob es sich um eine einzelne Codebasis oder mehrere Branches handelt. APIs: Auch die Erweiterbarkeit über sichere Schnittstellen ist ein wichtiges Merkmal bei Versionskontrollsystemen. Die sind nämlich zunehmend das System der Wahl, um Automatisierungen in den Bereichen Testing, Deployment und Release zu orchestrieren und in die Produktion zu überführen. Sichere APIs sind dabei nötig, um VCS und Release Management Tools zu integrieren und Continuous Delivery zu erreichen. Datenintegrität: Anwender sollten sich auf die Versionshistorie verlassen können und je nach Bedarf die Version im Zeitverlauf wählen können, die sie benötigen. Die wichtigsten Version Control Systems Abschließend ein kurzer Überblick über die derzeit relevanten Versionskontrollsysteme und ihre wesentlichen Features. Apache Subversion Dieses Softwareversionierungs- und Versionskontrollsystem wird als Open Source Software unter der Apache-Lizenz vertrieben. Entwickler können Apache Subversion nutzen, um aktuelle und historische Versionen von Dateien (einschließlich Quellcode), Webseiten und Dokumentation zu managen. Bitbucket Dieser Git-basierte Quellcode-Repository-Hosting-Service gehört zum Portfolio von Atlassian. Bitbucket bietet sowohl kommerzielle Versionen (mit verschiedenen Preisplänen) als auch kostenlose Konten (mit einer unbegrenzten Anzahl privater Repositories) an. Dieses Tool kommt hauptsächlich für Source Code und Code-Reviews zum Einsatz. Git Das populärste Version Control System ist ein kostenloses, quelloffenes Devops-Tool, das auch genutzt werden kann, um Source Code zu managen. Git eignet sich dabei für Projekte jeder Größe und ermöglicht es unter anderem mehreren Devs, bei nicht-linearen Entwicklungsprojekten zu kollaborieren. GitHub Die Plattform ermöglicht Developern, Code zu erstellen, zu managen und gemeinsam zu nutzen. GitHub kombiniert dabei die verteilte Versionskontrolle von Git mit Access Control, Bug Tracking, Task Management und anderen Funktionen. Darüber hinaus kann die Plattform auch ein ausgedehntes Open-Source-Repository bieten und verfügt über Tools, um Softwareprojekte und Communities zu managen. Ein breites Partner-Portfolio versorgt Anwender zudem mit Add-In-Funktionen. GitLab Die Basis für GitLab bildet, wie die Nomenklatur bereits nahelegt, Git. Dieser quelloffene Repository-Manager kommt in erster Linie zu Collaboration- und Versionskontroll-Zwecken zum Einsatz. Mercurial Dieses kostenlose, verteilte Source-Control-Management-Tool befähigt Softwareentwickler, Projekte jeder Größe zu managen. Mercurial wurde zudem vor allem mit Blick auf Plattformunabhängigkeit entwickelt. Perforce Diese Versionskontrollplattform unterstützt ebenfalls Git, bietet aber mit “Helix Core” ein proprietäres Produkt. Das Tool wird genutzt, um Änderungen an Quellcode, digitalen Assets und großen Binärdateien zu tracken und zu managen. Team Foundation Version Control Bei dieser Plattform von Microsoft handelt es sich um ein zentralisiertes Version Control System. Team Foundation Version Control befähigt Anwender zum Beispiel, granulare Berechtigungen zu vergeben und den Zugriff bis auf Dateiebene zu beschränken. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Version Control Systems – ein Ratgeber​ Ohne agile, skalierbare und performante Versionskontrollsysteme wird’s schwer mit dem Softwareerfolg.
Foto: lilik ferri yanto | shutterstock.com

Version Control Systems (VCS) unterstützen Entwicklungs-Teams dabei, sämtliche Änderungen am Quellcode im Zeitverlauf zu verfolgen. Das ermöglicht nicht nur zu prüfen, wer wann was geändert hat sondern auch einen Rollback auf frühere Versionen – und etabliert eine Single Source of Truth.

Im Folgenden lesen Sie:

wie sich der Markt für Versionskontrollsysteme entwickelt,

was entsprechende Lösungen leisten sollten und

welche Version Control Systems derzeit relevant sind.

Der Markt für Versionskontrollsysteme

Wir blicken zunächst auf einige Zahlen und Einschätzungen zur künftigen Marktentwicklung und werfen anschließend einen Blick auf den aktuellen Stand der Entwicklung sowie neu aufkommende Trends im Bereich der Versionskontrollsysteme.

Prognose

Die Bedeutung der Versionskontrolle steigt in einer Welt, in der Software und Daten essenzielle Güter sind und Produkte immer schneller auf den Markt gebracht werden müssen, zunehmend. Dabei entwickeln sich auch die Lösungen in diesem Bereich kontinuierlich weiter, um den steigenden Anforderungen an Flexibilität, Skalierbarkeit und Performance gerecht zu werden. Stichwort GenAI.

Jim Mercer, Program Vice President für die Bereiche Software Development, DevOps & DevSecOps bei IDC, setzt das Thema in einen Kontext: “Version Control oder Source Control Management war ursprünglich für den Quellcode von Softwareentwicklern gedacht. Da wir uns aber in Richtung eines Everything-as-Code-Ansatzes bewegen, steigt auch die Zahl der Anwender von Versionskontrollsystemen.”

Christopher Condo, Principal Analyst bei Forrester Research, sieht das ähnlich: “Dass die Nachfrage sowohl bei traditioneller Software als auch in neuen Bereichen wie Infrastructure– und Policy as a Code oder Low-Code weiter wächst, hat einen direkten Impact auf die Nachfrage nach Versionskontrollsystemen – schließlich sind diese für jede Art von Programmcode nötig.”

Auch die Berater von Acumen Research & Consulting prophezeihen dem VCS-Markt in einer Analyse fortgesetztes Wachstum. Demnach soll dieser auf globaler Ebene bis zum Jahr 2030 auf 2,68 Milliarden Dollar anschwellen (2021: 982 Millionen Dollar) – mit einer jährlichen Wachstumsrate von 11,9 Prozent. Laut den Analysten sollen dabei vor allem die zunehmend populären Cloud-basierten Versionskontrollsysteme als Wachstumstreiber fungieren.

Status Quo

Laut IDC-Mann Mercer wurden in den letzten zwanzig Jahren diverse Version Control Systems entwickelt – etwa Subversion, ClearCase, Mercurial und andere. “Die meisten Teams bevorzugen allerdings Lösungen, die auf dem Open-Source-Projekt Git basieren”, erklärt er. Hier seien die wichtigsten Optionen GitHub, GitLab und Bitbucket. Das Gros der übrigen Versionskontrollsysteme habe angesichts der Git-Dominanz entweder entsprechende Brücken oder Integrationen geschaffen.”

Mercer zufolge haben sich VCS wie GitLab und GitHub dank zahlreicher hinzugekommener Funktionen inzwischen zu vollwertigen Devops-Plattformen entwickelt. “Zudem haben sich Version Control Systems auch mit Blick auf die Sicherheit und die Möglichkeit, Richtlinien zu erstellen, weiterentwickelt.”

Auch Thomas Murphy, Senior Director Analyst bei Gartner, attestiert GitHub, GitLab und Bitbucket eine dramatische Weiterentwicklung: “Diese Plattformen wollen die ‘moderne Entwicklerumgebung’ sein: Sie kümmern sich um den Build, managen das Projekt sowie die Dokumentation und können auch noch die Software verpacken, testen und bereitstellen.”

Trends

Der Gartner-Chefanalyst merkt an, dass diese Plattformen inzwischen auch generative KI-Assistenten einsetzen, um bei Code-Aktualisierung und -Erstellung sowie anderen Tasks zu unterstützen. Allerdings bereite Generative AI – und insbesondere die Art und Weise, wie die der Technologie zugrundeliegenden Large Language Models (LLMs) trainiert werden – einigen Anwendern zunehmend Sorgen, führt Forrester-Analyst Condo an: “Tools wie GitHub Copilot nutzen Quellcode aus öffentlichen Versionskontrollsystemen, die sie hosten, um ihr Modell zu trainieren.”

Die Anwender sollten sich deshalb genau überlegen, ob sie damit einverstanden sind oder es vorziehen, ihren Code nicht zu KI-Trainingsmaterial zu machen, so der Analyst. Er warnt: “Unternehmen, die sensiblen Algorithmen nutzen oder Angst um ihr geistiges Eigentum haben, sollten davon die Finger lassen.”

Ein weiterer Trend ist die zunehmende Verlagerung hin zu Cloud-basierten Versionskontrollsystemen. Laut den Experten von Acumen Research & Consulting erschließt das Benefits wie:

Echtzeit-Collaboration,

Zugriff von jedem Ort sowie zu jeder Zeit und

niedrigere Anschaffungskosten (im Vergleich zu On-Premises-Systemen).

“GitHub, GitLab und andere Online-Repositories ermöglichen es Unternehmen, ihre Software-as-a-Service-Produkte zu nutzen, ohne ein selbstgehostetes Versionskontrollsystem betreiben zu müssen. Das erleichtert die länderübergreifende Zusammenarbeit”, erläutert Condo. Unternehmen, die sich dafür entscheiden, ihr eigenes Versionskontrollsystem On-Premises zu betreiben, sollten nach Empfehlung des Forrester-Analysten in jedem Fall über die dafür notwendigen Skills und Ressourcen verfügen – zumindest wenn sie damit erfolgreich sein wollten.

Das sollte Versionskontrolle leisten

Grundsätzlich ermöglicht ein Version Control System es den Entwicklern, verschiedene Versionen von Quellcode, Konfigurationen und anderen Artefakten zu managen, die sich im Zeitverlauf verändern. Je nach Art und Größe sowie Prioritäten des Unternehmens sind jedoch auch weitere wichtige Funktionen relevant. Dazu gehören laut IDC-Experte Mercer und Forrester-Analyst Condo:

Skalierbarkeit: Version Control Systems sollten Devs und andere Anwender in die Lage versetzen, Code domänen- und plattformübergreifend zu managen – insbesondere, wenn es sich um wachsende Unternehmen mit expandierenden Entwicklungsinitiativen handelt.

Performance: Software für die Versionskontrolle sollte überall dort, wo sie in einem Unternehmen eingesetzt wird, gut funktionieren.

Branching: VCS sollten zudem über BRanching-Funktionen verfügen. Das ermöglicht, Objekte im Rahmen der Versionskontrolle zu duplizieren, so dass jedes nachfolgende Objekt separat und parallel geändert werden kann. Branches mit Trunks mergen zu können, ist diesbezüglich eine weitere, wichtige Funktion.

Collaboration: Für moderne Versionskontrollsysteme sind Funktionen für die Zusammenarbeit unerlässlich. Schließlich steigt die Zahl der verteilt arbeitenden Dev-Teams – was effektive Collaboration umso wichtiger macht. VCS stellen dabei sicher, dass alle mit der gleichen Quelle arbeiten, unabhängig davon, ob es sich um eine einzelne Codebasis oder mehrere Branches handelt.

APIs: Auch die Erweiterbarkeit über sichere Schnittstellen ist ein wichtiges Merkmal bei Versionskontrollsystemen. Die sind nämlich zunehmend das System der Wahl, um Automatisierungen in den Bereichen Testing, Deployment und Release zu orchestrieren und in die Produktion zu überführen. Sichere APIs sind dabei nötig, um VCS und Release Management Tools zu integrieren und Continuous Delivery zu erreichen.

Datenintegrität: Anwender sollten sich auf die Versionshistorie verlassen können und je nach Bedarf die Version im Zeitverlauf wählen können, die sie benötigen.

Die wichtigsten Version Control Systems

Abschließend ein kurzer Überblick über die derzeit relevanten Versionskontrollsysteme und ihre wesentlichen Features.

Apache Subversion

Dieses Softwareversionierungs- und Versionskontrollsystem wird als Open Source Software unter der Apache-Lizenz vertrieben. Entwickler können Apache Subversion nutzen, um aktuelle und historische Versionen von Dateien (einschließlich Quellcode), Webseiten und Dokumentation zu managen.

Bitbucket

Dieser Git-basierte Quellcode-Repository-Hosting-Service gehört zum Portfolio von Atlassian. Bitbucket bietet sowohl kommerzielle Versionen (mit verschiedenen Preisplänen) als auch kostenlose Konten (mit einer unbegrenzten Anzahl privater Repositories) an. Dieses Tool kommt hauptsächlich für Source Code und Code-Reviews zum Einsatz.

Git

Das populärste Version Control System ist ein kostenloses, quelloffenes Devops-Tool, das auch genutzt werden kann, um Source Code zu managen. Git eignet sich dabei für Projekte jeder Größe und ermöglicht es unter anderem mehreren Devs, bei nicht-linearen Entwicklungsprojekten zu kollaborieren.

GitHub

Die Plattform ermöglicht Developern, Code zu erstellen, zu managen und gemeinsam zu nutzen. GitHub kombiniert dabei die verteilte Versionskontrolle von Git mit Access Control, Bug Tracking, Task Management und anderen Funktionen. Darüber hinaus kann die Plattform auch ein ausgedehntes Open-Source-Repository bieten und verfügt über Tools, um Softwareprojekte und Communities zu managen. Ein breites Partner-Portfolio versorgt Anwender zudem mit Add-In-Funktionen.

GitLab

Die Basis für GitLab bildet, wie die Nomenklatur bereits nahelegt, Git. Dieser quelloffene Repository-Manager kommt in erster Linie zu Collaboration- und Versionskontroll-Zwecken zum Einsatz.

Mercurial

Dieses kostenlose, verteilte Source-Control-Management-Tool befähigt Softwareentwickler, Projekte jeder Größe zu managen. Mercurial wurde zudem vor allem mit Blick auf Plattformunabhängigkeit entwickelt.

Perforce

Diese Versionskontrollplattform unterstützt ebenfalls Git, bietet aber mit “Helix Core” ein proprietäres Produkt. Das Tool wird genutzt, um Änderungen an Quellcode, digitalen Assets und großen Binärdateien zu tracken und zu managen.

Team Foundation Version Control

Bei dieser Plattform von Microsoft handelt es sich um ein zentralisiertes Version Control System. Team Foundation Version Control befähigt Anwender zum Beispiel, granulare Berechtigungen zu vergeben und den Zugriff bis auf Dateiebene zu beschränken. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Version Control Systems – ein Ratgeber​ Weiterlesen »

Zuckerbergs Hologramm-Visionen​

Allgemein

Das Metaverse lebt… irgendwie.Hadrian | shutterstock.com Meta-Gründer und -CEO Mark Zuckerberg war vor kurzem zu Gast im Podcast von Theo Von, einem (Trump-nahen) Comedian. Bei dieser Gelegenheit ging Zuckerberg auch auf seine Vision der technologischen Zukunft ein. In dieser sind die allermeisten physischen Objekte – vom Buch, über das Brettspiel bis hin zur Tischtennisplatte – überflüssig. Der Grund: Sie werden durch Hologramme substituiert, die über Augmented-Reality-Brillen betrachtet werden. So zumindest die Prognose des Facebook-Erfinders. Doch damit nicht genug: Zuck geht außerdem davon aus, dass bereits in den nächsten vier Jahren bis zu zwei Milliarden Menschen AR-Brillen statt ihrer Smartphones nutzen könnten. Der Hologramm-Status-Quo Die Voraussetzung dafür wäre allerdings, dass die Benutzer auch tatsächlich physische Objekte durch virtuelle ersetzen wollen. Wovon bislang eher nicht die Rede sein kann, wie Apples Vision Pro zeigt. Die Mixed-Reality-Brille ist bereits seit 2024 erhältlich und ermöglicht bereits jetzt, mit digitalen Objekten in realen Umgebungen zu interagieren. So könnte man schon heute etwa riesige Fernsehbildschirme virtualisieren. Und obwohl der UVP der Apple-Brille mit 3.500 Dollar weit unter dem eines 221-Zoll-TV liegen dürfte, ist bislang kaum ein Verbraucher davon überzeugt, dass die Apple-Brille ihr Geld wert ist. Zugegeben: Dieser Vergleich hinkt ein bisschen. Man könnte argumentieren, dass ein TV nicht wirklich durch die Vision Pro ersetzt werden kann, weil dann nur jeweils eine Person schauen kann. Und: In Zuckerbergs Zukunft werden Hologramme außerdem nicht mehr über sperrige Gerätschaften wie die Vision Pro übertragen, sondern über Brillen, die nicht wesentlich schwerer oder größer sind als ihre herkömmlichen Pendants. Dennoch: Aktuell leben wir noch in einer Welt, in der kein populäres Consumer-Technikprodukt mit Hologrammen arbeitet – und sämtliche Produkte in diesem Bereich ein Nischendasein fristen. Einige Beispiele: Looking Glass hat mit dem Go ein klappbares, holografisches Display im Taschenformat im Angebot. Mit der zugehörigen Software lassen sich normale Digitalfotos in 3D-Hologramme umwandeln, die sich dann auf dem Display anzeigen lassen. Holloconnects adressiert mit seiner Holobox das Unternehmensumfeld. Die interaktiven 3D-Hologramm-Displays (die in verschiedenen Ausführungen erhältlich sind) können unter anderem im Retail-Bereich für Produktbewerbungen und -Previews oder in der Telemedizin eingesetzt werden und lassen sich auch mit KI-Avataren kombinieren. Der Anbieter produziert bei Bedarf auch maßgeschneiderte holografische Inhalte nach Kundenwunsch. Proto bietet mit seiner Hologramm-Kabine Epic die Möglichkeit, lebensgroße 3D-Abbilder von Personen in Echtzeit anzuzeigen. Das Produkt ist für Remote-Meetings oder Veranstaltungen gedacht und ermöglicht seinem Benutzer, weltweit virtuell präsent zu sein. Die Kabinen von Proto sind immerhin bereits an einigen Flughäfen, Konferenzzentren und Retail-Geschäften in den USA und Europa installiert. Leia Inc. verkauft sein Lume Pad 2 derzeit ausschließlich in den USA. Das Tablet-Device (läuft auf Android) verspricht, 3D-Inhalte zu generieren, die ganz ohne Brille konsumiert werden können, dafür aber mit künstlicher Intelligenz optimiert werden. Laut dem Hersteller ist das Device mit seinen integrierten stereoskopischen Kameras der ideale Begleiter für “3D-Content-Enthusiasten”. zSpace bietet sowohl holografische Produkte als auch Services für Unternehmen an. Die Technologie des Unternehmens ermöglicht realistische 3D-Visualisierungen über proprietäre Display-Technologie, eine trackbare Brille und einen Stift. So können die Benutzer mit digitalen Objekten wie in der echten Welt interagieren. Der Anbieter adressiert in erster Linie die Manufacturing- und Healthcare-Branche sowie den Forschungsbereich. Hypervsn hat ebenfalls eine holografische 3D-Display-Technologie für Unternehmen im Angebot. Mit ihr lassen sich hochauflösende Hologramme realisieren, die ohne Brille betrachtet werden können. Zur Produktpalette gehört unter anderem die modulare, skalierbare 3D-Hologramm-Wand SmartV Wall. Die Displays von Hypervsn werden vornehmlich für Werbekampagnen, größere Events und in Showrooms eingesetzt. Light Field Lab vertreibt mit SolidLight nach eigener Aussage das “Display der nächsten Generation”. Das Produkt ist in der Lage, aus modularen, direkt emittierenden Panels dichte, konvergierende Lichtwellenfronten zu erzeugen. Das Resultat sind holografische Objekte, die in der Luft zu schweben scheinen und aus mehreren Blickwinkeln mit korrekter Bewegungsparallaxe, Reflexionen und Brechungen betrachtet werden können. Diese Hologramm-Lösung ist zum Beispiel für Entertainment-Zwecke, immersive Werbung und digitale Beschilderungen in öffentlichen Räumen geeignet. Voxon Photonics produziert fortschrittliche volumetrische Displays, die interaktive 3D-Hologramme mit Millionen von Lichtpunkten in Echtzeit erzeugen. Die Displays versprechen ein 3D-Erlebnis ganz ohne Brille oder Headset und eignen sich laut Hersteller für “Shared Environments” wie Museen, Kinosäale oder die Meeting-Räume von Unternehmen. Realfiction ist ebenfalls auf holografische Displays spezialisiert, die es ermöglichen, entsprechende Inhalte ohne Brille zu konsumieren. Die Technologie des Anbieters eignet sich für diverse Anwendungsfälle – von der Automotive- über die Kommunikations-Lösung bis hin zu Entwicklungsumgebungen für 3D-Visualisierungen. Die Wahrscheinlichkeit, dass Sie noch nie zuvor von einer dieser Firmen oder ihren Lösungen gehört haben, ist hoch. Und das nicht ohne Grund: Holografische Produkte und Services existieren schon seit Jahren, sind aber bislang nicht über den Status des Marketing-Gimmicks hinausgekommen. Schöne, neue Fake-Welt? Was Meta-CEO Zuckerberg vorschwebt, geht jedoch noch ein paar Schritte weiter und hat nichts mehr mit Einzelprodukten für Unternehmen oder Verbraucher zu tun. In seiner Vision existiert ein ganzes Ökosystem von holografischen Inhalten, die über eine Brille, die so gut wie jeder täglich auf der Nase hat, konsumiert werden sollen. Meine persönliche Meinung: Ich zweifle sowohl an Zuckerbergs Motiven als auch an seiner prädiktiven Treffsicherheit. Zunächst einmal scheint der Meta-CEO zu glauben, dass die Zukunft der sozialen Netzwerke darin liegt, Menschen mit KI zu sozialisieren. So ließ er im April 2024 im Podcast mit dem KI-Experten Dwarkesh Patel verlauten, dass Durchschnittsmenschen nach mehr Vernetzung und Verbindungen streben als sie haben. Eine Lücke, die Zuck vorzugsweise mit “virtuellen Freunden” in Form von KI-Chatbots füllen möchte. Dabei kritisierte er parallel das “Stigma”, das Freundschaften zwischen Mensch und KI anhafte, und zeigte sich fest davon überzeugt, dass diese Verbindungen in Zukunft gesellschaftliche Akzeptanz erfahren. Dass sein Unternehmen genau die Tools und Services zur Verfügung stellt, um diese Vision umzusetzen, ist natürlich reiner Zufall. Ebenso, wie Zuckerbergs Vorstoß in Sachen AR-Brillen und die enormen Investments von Meta in diese Technologie.   Im Grunde ist Zuckerbergs “neue” Tech-Zukunftsvision der alten Idee vom Metaverse ziemlich ähnlich: Menschen leben mit Fake-Freunden in einer Fake-Umgebung, lesen Fake-Bücher, spielen Fake-Schach und fläzen virtuell vor Fake-Bildschirmen – und lassen all ihr Geld bei Meta, statt in Kinos, Bars und Buchläden. Dass eine Zukunft dieser Art für Zuckerberg reizvoll ist, kann ich mir gut vorstellen. Alle anderen sind wahrscheinlich eher weniger begeistert – nicht nur, weil es keine physischen Objekte mehr gibt. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Zuckerbergs Hologramm-Visionen​ Das Metaverse lebt… irgendwie.Hadrian | shutterstock.com

Meta-Gründer und -CEO Mark Zuckerberg war vor kurzem zu Gast im Podcast von Theo Von, einem (Trump-nahen) Comedian. Bei dieser Gelegenheit ging Zuckerberg auch auf seine Vision der technologischen Zukunft ein.

In dieser sind die allermeisten physischen Objekte – vom Buch, über das Brettspiel bis hin zur Tischtennisplatte – überflüssig. Der Grund: Sie werden durch Hologramme substituiert, die über Augmented-Reality-Brillen betrachtet werden. So zumindest die Prognose des Facebook-Erfinders. Doch damit nicht genug: Zuck geht außerdem davon aus, dass bereits in den nächsten vier Jahren bis zu zwei Milliarden Menschen AR-Brillen statt ihrer Smartphones nutzen könnten.

Der Hologramm-Status-Quo

Die Voraussetzung dafür wäre allerdings, dass die Benutzer auch tatsächlich physische Objekte durch virtuelle ersetzen wollen. Wovon bislang eher nicht die Rede sein kann, wie Apples Vision Pro zeigt. Die Mixed-Reality-Brille ist bereits seit 2024 erhältlich und ermöglicht bereits jetzt, mit digitalen Objekten in realen Umgebungen zu interagieren. So könnte man schon heute etwa riesige Fernsehbildschirme virtualisieren. Und obwohl der UVP der Apple-Brille mit 3.500 Dollar weit unter dem eines 221-Zoll-TV liegen dürfte, ist bislang kaum ein Verbraucher davon überzeugt, dass die Apple-Brille ihr Geld wert ist.

Zugegeben: Dieser Vergleich hinkt ein bisschen. Man könnte argumentieren, dass ein TV nicht wirklich durch die Vision Pro ersetzt werden kann, weil dann nur jeweils eine Person schauen kann. Und: In Zuckerbergs Zukunft werden Hologramme außerdem nicht mehr über sperrige Gerätschaften wie die Vision Pro übertragen, sondern über Brillen, die nicht wesentlich schwerer oder größer sind als ihre herkömmlichen Pendants. Dennoch: Aktuell leben wir noch in einer Welt, in der kein populäres Consumer-Technikprodukt mit Hologrammen arbeitet – und sämtliche Produkte in diesem Bereich ein Nischendasein fristen.

Einige Beispiele:

Looking Glass hat mit dem Go ein klappbares, holografisches Display im Taschenformat im Angebot. Mit der zugehörigen Software lassen sich normale Digitalfotos in 3D-Hologramme umwandeln, die sich dann auf dem Display anzeigen lassen.

Holloconnects adressiert mit seiner Holobox das Unternehmensumfeld. Die interaktiven 3D-Hologramm-Displays (die in verschiedenen Ausführungen erhältlich sind) können unter anderem im Retail-Bereich für Produktbewerbungen und -Previews oder in der Telemedizin eingesetzt werden und lassen sich auch mit KI-Avataren kombinieren. Der Anbieter produziert bei Bedarf auch maßgeschneiderte holografische Inhalte nach Kundenwunsch.

Proto bietet mit seiner Hologramm-Kabine Epic die Möglichkeit, lebensgroße 3D-Abbilder von Personen in Echtzeit anzuzeigen. Das Produkt ist für Remote-Meetings oder Veranstaltungen gedacht und ermöglicht seinem Benutzer, weltweit virtuell präsent zu sein. Die Kabinen von Proto sind immerhin bereits an einigen Flughäfen, Konferenzzentren und Retail-Geschäften in den USA und Europa installiert.

Leia Inc. verkauft sein Lume Pad 2 derzeit ausschließlich in den USA. Das Tablet-Device (läuft auf Android) verspricht, 3D-Inhalte zu generieren, die ganz ohne Brille konsumiert werden können, dafür aber mit künstlicher Intelligenz optimiert werden. Laut dem Hersteller ist das Device mit seinen integrierten stereoskopischen Kameras der ideale Begleiter für “3D-Content-Enthusiasten”.

zSpace bietet sowohl holografische Produkte als auch Services für Unternehmen an. Die Technologie des Unternehmens ermöglicht realistische 3D-Visualisierungen über proprietäre Display-Technologie, eine trackbare Brille und einen Stift. So können die Benutzer mit digitalen Objekten wie in der echten Welt interagieren. Der Anbieter adressiert in erster Linie die Manufacturing- und Healthcare-Branche sowie den Forschungsbereich.

Hypervsn hat ebenfalls eine holografische 3D-Display-Technologie für Unternehmen im Angebot. Mit ihr lassen sich hochauflösende Hologramme realisieren, die ohne Brille betrachtet werden können. Zur Produktpalette gehört unter anderem die modulare, skalierbare 3D-Hologramm-Wand SmartV Wall. Die Displays von Hypervsn werden vornehmlich für Werbekampagnen, größere Events und in Showrooms eingesetzt.

Light Field Lab vertreibt mit SolidLight nach eigener Aussage das “Display der nächsten Generation”. Das Produkt ist in der Lage, aus modularen, direkt emittierenden Panels dichte, konvergierende Lichtwellenfronten zu erzeugen. Das Resultat sind holografische Objekte, die in der Luft zu schweben scheinen und aus mehreren Blickwinkeln mit korrekter Bewegungsparallaxe, Reflexionen und Brechungen betrachtet werden können. Diese Hologramm-Lösung ist zum Beispiel für Entertainment-Zwecke, immersive Werbung und digitale Beschilderungen in öffentlichen Räumen geeignet.

Voxon Photonics produziert fortschrittliche volumetrische Displays, die interaktive 3D-Hologramme mit Millionen von Lichtpunkten in Echtzeit erzeugen. Die Displays versprechen ein 3D-Erlebnis ganz ohne Brille oder Headset und eignen sich laut Hersteller für “Shared Environments” wie Museen, Kinosäale oder die Meeting-Räume von Unternehmen.

Realfiction ist ebenfalls auf holografische Displays spezialisiert, die es ermöglichen, entsprechende Inhalte ohne Brille zu konsumieren. Die Technologie des Anbieters eignet sich für diverse Anwendungsfälle – von der Automotive- über die Kommunikations-Lösung bis hin zu Entwicklungsumgebungen für 3D-Visualisierungen.

Die Wahrscheinlichkeit, dass Sie noch nie zuvor von einer dieser Firmen oder ihren Lösungen gehört haben, ist hoch. Und das nicht ohne Grund: Holografische Produkte und Services existieren schon seit Jahren, sind aber bislang nicht über den Status des Marketing-Gimmicks hinausgekommen.

Schöne, neue Fake-Welt?

Was Meta-CEO Zuckerberg vorschwebt, geht jedoch noch ein paar Schritte weiter und hat nichts mehr mit Einzelprodukten für Unternehmen oder Verbraucher zu tun. In seiner Vision existiert ein ganzes Ökosystem von holografischen Inhalten, die über eine Brille, die so gut wie jeder täglich auf der Nase hat, konsumiert werden sollen.

Meine persönliche Meinung: Ich zweifle sowohl an Zuckerbergs Motiven als auch an seiner prädiktiven Treffsicherheit. Zunächst einmal scheint der Meta-CEO zu glauben, dass die Zukunft der sozialen Netzwerke darin liegt, Menschen mit KI zu sozialisieren. So ließ er im April 2024 im Podcast mit dem KI-Experten Dwarkesh Patel verlauten, dass Durchschnittsmenschen nach mehr Vernetzung und Verbindungen streben als sie haben. Eine Lücke, die Zuck vorzugsweise mit “virtuellen Freunden” in Form von KI-Chatbots füllen möchte. Dabei kritisierte er parallel das “Stigma”, das Freundschaften zwischen Mensch und KI anhafte, und zeigte sich fest davon überzeugt, dass diese Verbindungen in Zukunft gesellschaftliche Akzeptanz erfahren. Dass sein Unternehmen genau die Tools und Services zur Verfügung stellt, um diese Vision umzusetzen, ist natürlich reiner Zufall. Ebenso, wie Zuckerbergs Vorstoß in Sachen AR-Brillen und die enormen Investments von Meta in diese Technologie.  

Im Grunde ist Zuckerbergs “neue” Tech-Zukunftsvision der alten Idee vom Metaverse ziemlich ähnlich: Menschen leben mit Fake-Freunden in einer Fake-Umgebung, lesen Fake-Bücher, spielen Fake-Schach und fläzen virtuell vor Fake-Bildschirmen – und lassen all ihr Geld bei Meta, statt in Kinos, Bars und Buchläden. Dass eine Zukunft dieser Art für Zuckerberg reizvoll ist, kann ich mir gut vorstellen. Alle anderen sind wahrscheinlich eher weniger begeistert – nicht nur, weil es keine physischen Objekte mehr gibt. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Zuckerbergs Hologramm-Visionen​ Weiterlesen »

Cloud Computing : Der Himmel klärt sich auf​

Allgemein

Vor rund 20 Jahren tauchte erstmals der Begriff „Cloud Computing“ auf. Seitdem hat diese Nutzung von Rechen- und Storage-Leistungen eine stürmische Entwicklung durchlaufen und sich zu einem zentralen Bestandteil der digitalen Transformation bei vielen Unternehmen entwickelt. Der Siegeszug basierte vor allem auf der Flexibilität, der schnellen Bereitstellung von neuen Anwendungen und den verbrauchsabhängigen Kosten. Doch inzwischen sehen viele CIOs die Public Cloud kritisch. Laut einer CIO-Umfrage von Barkley planen 83 Prozent der Unternehmen, Teile ihre Workloads zurück in eine Private Cloud zu verlagern. „Cloud Repatriation“ nennt man das, und es ist zu einem ganz heißen Trend geworden. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?quality=50&strip=all 5000w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=300%2C210&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=768%2C538&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=1024%2C717&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=1536%2C1075&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=2048%2C1434&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=996%2C697&quality=50&strip=all 996w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=240%2C168&quality=50&strip=all 240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=120%2C84&quality=50&strip=all 120w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=686%2C480&quality=50&strip=all 686w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=514%2C360&quality=50&strip=all 514w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=357%2C250&quality=50&strip=all 357w” width=”1024″ height=”717″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der einstige Hype um Public-Cloud-Umgebungen ist verflogen und die gegenwärtige Ernüchterung verändert praktisch alle IT-Architekturen. Shutterstock / Oleksiy Mark Die Cloud-Flucht hat viele Ursachen Anfangs war Cloud Repatriation oft die Reaktion auf eine erfolglose Migration, doch heute zeichnen sich viele Anwendungsprobleme ab. Das größte davon sind die Kosten. Zwar wird weiterhin nutzungsabhängig abgerechnet, doch es hat sich herumgesprochen, dass eine gut ausgelastete eigene Infrastruktur wesentlich günstiger ist. Ein weiteres weit verbreitetes Problem ist der Vendor Lock-in. Manche Provider verlangen sogar Geld dafür, dass man die eigenen Daten wieder runterlädt. Ein zunehmend wichtiger Punkt ist die Performance und Latenz. Vor allem bei Cloud-basierten Edge-Lösungen oder den neuen KI-Anwendungen. Hier kann eine unzureichende Bandbreite das KO-Kriterium für die Cloud sein. In Deutschland gibt es noch zwei weitere besonders kritische Punkte: Die Datenhoheit und die Compliance-Auflagen. Gerade in streng regulierten Branchen, wie Finanzen, Gesundheitswesen und KRITIS entscheidet man sich immer häufiger gegen eine Public Cloud – vor allem wenn es um die US-basierten Hyperscaler geht. Von Cloud First zu Cloud Smart Cloud Repatriation bedeutet nicht, dass nichts mehr in die Cloud gehen darf – im Gegenteil: Die neuen Architekturen beinhalten eine sinnvolle Aufgabenteilung zwischen den verschiedenen On-Premise-Möglichkeiten und den Public-Cloud-Angeboten. Viele Workloads, die wegen wechselnder Nutzung und problemlosen Daten günstig und einfach in der Cloud betrieben werden können, sollen dort auch bleiben. Andere aber, die woanders günstiger betrieben werden können, sollten dann auch dort zum Einsatz kommen. Diese Aufteilung nennt man „Cloud Smart“ und bedeutet „so wenig Cloud wie möglich und so viel Cloud wie nötig“. Die Cloud beherrschen: Private und Sovereign Clouds Private Clouds ermöglichen beispielsweise die vollständige Verwaltung der Daten und bieten die Freiheit, die Infrastruktur ohne Einschränkungen stets anzupassen und zu optimieren. Das macht Private Clouds zur perfekten Lösung für die Unternehmen, die mehr Kontrolle über ihre Anwendungen benötigen oder sensible Daten verarbeiten. Mit einer Sovereign Cloud lässt sich der letzte Punkt noch deutlich verbessern. Eine solche Cloud eignet sich speziell für staatliche oder besonders datensensible Umgebungen. Hierbei garantiert der Anbieter, dass keine Daten außerhalb des nationalen oder europäischen Rechtsraums verarbeitet werden. Auch der Zugang durch ausländische Behörden ist ausgeschlossen. Viele Wege führen in die eigene Cloud Es gibt spezielle Dienstleister, die eine Cloud Repatriation und den Aufbau einer eigenen IT-Infrastruktur unterstützen. Das Nürnberger Unternehmen noris network zählt hier zu den führenden Anbietern. Zu deren Leistungsspektrum gehören unter anderem: Die noris Enterprise Cloud Private ist eine Private Cloud aus Deutschland mit dedizierter Infrastruktur, transparenten Kosten, hochverfügbaren Ressourcen und vielfältigen technischen Möglichkeiten für höchste Performance. Sie basiert auf einer Hyperconverged Infrastructure (HCI) in einem VMware Cloud verified Design und wird nach den BSI C5-Kriterien betrieben. Standardmäßig besteht sie aus einem Cluster mit dedizierten Hosts, die optional an die jeweiligen Anforderungen angepasst werden können. Infrastructure as Code (IaC) wird unterstützt, sodass das Setup automatisiert über APIs (Terraform) gesteuert werden kann. Mit der noris Sovereign Cloud lassen sich die Flexibilität und die Kostenvorteile (pay per use) einer Public Cloud nutzen, ohne dass Kompromisse beim Datenschutz oder den Compliance-Vorgaben gemacht werden müssen. Sie basiert auf Open Stack und den Standards des Sovereign Cloud Stack. Die wichtigsten Vorteile sind die Interoperabilität, die Kompatibilität und kein Vendor-Lock-In. Sie erfüllt damit alle Kriterien für die Nutzung von Cloud-Angeboten durch die Öffentliche Hand. Auch wer sich lieber für eine komplett eigene Infrastruktur entscheidet, muss deshalb nicht sein eigenes RZ ausbauen. Eine Colocation bei noris network bietet die gewünschte Sicherheit, Performance und Verfügbarkeit innerhalb der noris-network-eigenen deutschen Rechenzentren. Zur Verfügung stehen maßgeschneiderte und individuell ausgestattete Rechenzentrumsflächen, die sich perfekt an jede Forderung anpassen lassen. Wer trotzdem lieber das eigene Rechenzentrum erweitern möchte oder gar oder ein komplett neues plant, sollte noris network als kompetenten Berater hinzuziehen. Das Unternehmen hat jahrelange Erfahrung im Bau und Betrieb von Rechenzentren und verfügt über umfangreiches Know-how. Die Experten von noris network liefern maßgeschneiderte und zuverlässige RZ-Lösungen – von der Analyse der Bedürfnisse bis hin zur detaillierten Planung, Umsetzung und Inbetriebnahme. Fazit Eine Public Cloud ist keine Allround-Lösung für die modernen IT-Anforderungen. Gefordert ist eine Architektur, bei der alle Cloud- und On-Premise-Formen entsprechend den unternehmens-spezifischen Anforderungen optimal genutzt werden. Registrieren Sie sich jetzt 

Cloud Computing : Der Himmel klärt sich auf​ Vor rund 20 Jahren tauchte erstmals der Begriff „Cloud Computing“ auf. Seitdem hat diese Nutzung von Rechen- und Storage-Leistungen eine stürmische Entwicklung durchlaufen und sich zu einem zentralen Bestandteil der digitalen Transformation bei vielen Unternehmen entwickelt. Der Siegeszug basierte vor allem auf der Flexibilität, der schnellen Bereitstellung von neuen Anwendungen und den verbrauchsabhängigen Kosten. Doch inzwischen sehen viele CIOs die Public Cloud kritisch. Laut einer CIO-Umfrage von Barkley planen 83 Prozent der Unternehmen, Teile ihre Workloads zurück in eine Private Cloud zu verlagern. „Cloud Repatriation“ nennt man das, und es ist zu einem ganz heißen Trend geworden.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?quality=50&strip=all 5000w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=300%2C210&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=768%2C538&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=1024%2C717&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=1536%2C1075&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=2048%2C1434&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=996%2C697&quality=50&strip=all 996w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=240%2C168&quality=50&strip=all 240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=120%2C84&quality=50&strip=all 120w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=686%2C480&quality=50&strip=all 686w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=514%2C360&quality=50&strip=all 514w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=357%2C250&quality=50&strip=all 357w” width=”1024″ height=”717″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der einstige Hype um Public-Cloud-Umgebungen ist verflogen und die gegenwärtige Ernüchterung verändert praktisch alle IT-Architekturen.
Shutterstock / Oleksiy Mark

Die Cloud-Flucht hat viele Ursachen

Anfangs war Cloud Repatriation oft die Reaktion auf eine erfolglose Migration, doch heute zeichnen sich viele Anwendungsprobleme ab. Das größte davon sind die Kosten. Zwar wird weiterhin nutzungsabhängig abgerechnet, doch es hat sich herumgesprochen, dass eine gut ausgelastete eigene Infrastruktur wesentlich günstiger ist. Ein weiteres weit verbreitetes Problem ist der Vendor Lock-in. Manche Provider verlangen sogar Geld dafür, dass man die eigenen Daten wieder runterlädt. Ein zunehmend wichtiger Punkt ist die Performance und Latenz. Vor allem bei Cloud-basierten Edge-Lösungen oder den neuen KI-Anwendungen. Hier kann eine unzureichende Bandbreite das KO-Kriterium für die Cloud sein. In Deutschland gibt es noch zwei weitere besonders kritische Punkte: Die Datenhoheit und die Compliance-Auflagen. Gerade in streng regulierten Branchen, wie Finanzen, Gesundheitswesen und KRITIS entscheidet man sich immer häufiger gegen eine Public Cloud – vor allem wenn es um die US-basierten Hyperscaler geht.

Von Cloud First zu Cloud Smart

Cloud Repatriation bedeutet nicht, dass nichts mehr in die Cloud gehen darf – im Gegenteil: Die neuen Architekturen beinhalten eine sinnvolle Aufgabenteilung zwischen den verschiedenen On-Premise-Möglichkeiten und den Public-Cloud-Angeboten. Viele Workloads, die wegen wechselnder Nutzung und problemlosen Daten günstig und einfach in der Cloud betrieben werden können, sollen dort auch bleiben. Andere aber, die woanders günstiger betrieben werden können, sollten dann auch dort zum Einsatz kommen. Diese Aufteilung nennt man „Cloud Smart“ und bedeutet „so wenig Cloud wie möglich und so viel Cloud wie nötig“.

Die Cloud beherrschen: Private und Sovereign Clouds

Private Clouds ermöglichen beispielsweise die vollständige Verwaltung der Daten und bieten die Freiheit, die Infrastruktur ohne Einschränkungen stets anzupassen und zu optimieren. Das macht Private Clouds zur perfekten Lösung für die Unternehmen, die mehr Kontrolle über ihre Anwendungen benötigen oder sensible Daten verarbeiten. Mit einer Sovereign Cloud lässt sich der letzte Punkt noch deutlich verbessern. Eine solche Cloud eignet sich speziell für staatliche oder besonders datensensible Umgebungen. Hierbei garantiert der Anbieter, dass keine Daten außerhalb des nationalen oder europäischen Rechtsraums verarbeitet werden. Auch der Zugang durch ausländische Behörden ist ausgeschlossen.

Viele Wege führen in die eigene Cloud

Es gibt spezielle Dienstleister, die eine Cloud Repatriation und den Aufbau einer eigenen IT-Infrastruktur unterstützen. Das Nürnberger Unternehmen noris network zählt hier zu den führenden Anbietern. Zu deren Leistungsspektrum gehören unter anderem:

Die noris Enterprise Cloud Private ist eine Private Cloud aus Deutschland mit dedizierter Infrastruktur, transparenten Kosten, hochverfügbaren Ressourcen und vielfältigen technischen Möglichkeiten für höchste Performance. Sie basiert auf einer Hyperconverged Infrastructure (HCI) in einem VMware Cloud verified Design und wird nach den BSI C5-Kriterien betrieben. Standardmäßig besteht sie aus einem Cluster mit dedizierten Hosts, die optional an die jeweiligen Anforderungen angepasst werden können. Infrastructure as Code (IaC) wird unterstützt, sodass das Setup automatisiert über APIs (Terraform) gesteuert werden kann.

Mit der noris Sovereign Cloud lassen sich die Flexibilität und die Kostenvorteile (pay per use) einer Public Cloud nutzen, ohne dass Kompromisse beim Datenschutz oder den Compliance-Vorgaben gemacht werden müssen. Sie basiert auf Open Stack und den Standards des Sovereign Cloud Stack. Die wichtigsten Vorteile sind die Interoperabilität, die Kompatibilität und kein Vendor-Lock-In. Sie erfüllt damit alle Kriterien für die Nutzung von Cloud-Angeboten durch die Öffentliche Hand.

Auch wer sich lieber für eine komplett eigene Infrastruktur entscheidet, muss deshalb nicht sein eigenes RZ ausbauen. Eine Colocation bei noris network bietet die gewünschte Sicherheit, Performance und Verfügbarkeit innerhalb der noris-network-eigenen deutschen Rechenzentren. Zur Verfügung stehen maßgeschneiderte und individuell ausgestattete Rechenzentrumsflächen, die sich perfekt an jede Forderung anpassen lassen. Wer trotzdem lieber das eigene Rechenzentrum erweitern möchte oder gar oder ein komplett neues plant, sollte noris network als kompetenten Berater hinzuziehen. Das Unternehmen hat jahrelange Erfahrung im Bau und Betrieb von Rechenzentren und verfügt über umfangreiches Know-how. Die Experten von noris network liefern maßgeschneiderte und zuverlässige RZ-Lösungen – von der Analyse der Bedürfnisse bis hin zur detaillierten Planung, Umsetzung und Inbetriebnahme.

Fazit

Eine Public Cloud ist keine Allround-Lösung für die modernen IT-Anforderungen. Gefordert ist eine Architektur, bei der alle Cloud- und On-Premise-Formen entsprechend den unternehmens-spezifischen Anforderungen optimal genutzt werden.

Registrieren Sie sich jetzt

Cloud Computing : Der Himmel klärt sich auf​ Weiterlesen »

Praxistipps von Multicloud-Entwicklern​

Allgemein

Viele Clouds, viele Probleme? Muss nicht sein. Wir haben Experten gefragt, wie Multicloud in der Praxis geht.Juice Flair | shutterstock.com Multicloud-Architekturen versprechen das Beste aus sämtlichen Welten, indem sie es ermöglichen, spezielle Funktionen mehrerer Anbieter zu nutzen. Die Voraussetzung dafür sind allerdings Entwicklungsprozesse, die dazu geeignet sind, die mit einem Multicloud-Ansatz einhergehenden Herausforderungen und Komplexitäten zu bewältigen. Denn im Vergleich zu traditionellem Cloud Computing erfordert es strategische, architektonische und operative Umstellungen, um Code zu schreiben, der zuverlässig in mehreren verschiedenen Cloud-Instanzen läuft. Dazu gilt es, sämtliche Parts des Entwicklungsprozesses weiterzuentwickeln – von der Container-Orchestrierung über Observability bis hin zu internen Tools.    Wie sich das in der Praxis ganz konkret umsetzen lässt, dazu haben wir erfahrene Cloud-Experten befragt. Diese geben dabei nicht nur Auskunft über ihre Erfolge, sondern auch über ihre Fails – beziehungsweise die daraus gelernten Lektionen. Kommunikation & Strategie Bevor Entwicklungsteams auch nur eine Zeile Code für Multicloud-Umgebungen schreiben, muss klar sein, warum. Darüber aufzuklären, sieht Drew Firment, Chief Cloud Strategist beim E-Learning-Anbieter Pluralsight, als Aufgabe des Managements an: “Multicloud ist kein Thema für Entwickler. Es handelt sich um ein strategisches Problem, das ein klares Cloud-Betriebsmodell erfordert. Dieses sollte klar definieren, wann, wo und warum Entwicklungsteams bestimmte Cloud-Funktionen nutzen.” Ohne ein solches Modell riskierten Unternehmen hohe Kosten, Sicherheitsprobleme und letztendlich den Projekterfolg, warnt Firment. Er empfiehlt an dieser Stelle mit einem strategischen Framework zu beginnen, das auf die Geschäftsziele abgestimmt ist und zudem klare Verantwortlichkeiten für Multicloud-Entscheidungen zuweist. Dieser Prozess sollte jedoch nicht nur Top-Down verlaufen. Deshalb ist für Heather Davis Lam, Gründerin und CEO der IT-Beratung Revenue Ops, abteilungsübergreifende Kommunikation in diesem Zusammenhang unabdingbar: “Sprechen Sie miteinander. An Multicloud-Projekten sind Entwickler, Betriebsspezialisten, Security-Profis und manchmal auch die Rechtsabteilung beteiligt. Die Probleme entstehen dabei in der Regel durch Missverständnisse, nicht durch schlechten Code. Regelmäßige Check-ins und ehrliche Gespräche sind deshalb enorm hilfreich wenn es um Multicloud-Projekte geht.” Dieser Planungsprozess sollte die Frage klären, warum Multicloud für das Unternehmen ein geeignetes Konzept ist und wie die spezifischen Plattformen innerhalb der Infrastruktur optimal genutzt werden können. Umgebungspluralität Das Multicloud-Entwicklungsteam wird sich in weiten Teilen vor allem mit der Frage beschäftigen, wann und wie Cloud-agnostischer oder plattformübergreifender Code geschrieben werden sollte. Dabei versuchten nicht wenige Teams, ihren Code vollständig Cloud-portabel zu gestalten, meint Gründerin Lam: “Das ist eine schöne Idee, aber in der Praxis kann sie zu Overengineering und noch mehr Kopfzerbrechen führen. Wenn das Team damit anfängt, zusätzliche Layer aufzubauen, nur damit alles funktioniert, ist es an der Zeit, innezuhalten.” Das kann Patrik Dudits, Senior Software Engineer bei der Open-Source-Company Payara Services, aus eigener Erfahrung bestätigen: “Der Versuch, die Architektur auf den ‚kleinsten gemeinsamen Nenner‘ zu beschränken, ist ein gängiger Fehler. In der Praxis ist es deutlich erfolgversprechender, die jeweiligen Stärken der einzelnen Clouds zu nutzen.” Damit meint der Softwareentwickler, Systeme mit Blick auf ihre Autonomie zu entwickeln, um Services unabhängig in ihren jeweiligen Clouds zu betreiben – ohne eine zu enge Kopplung entstehen zu lassen. Dieses Prinzip spielt auch im Ansatz von Matt Dimich, VP of Platform Engineering beim Medienkonzern Thomson Reuters, eine tragende Rolle: “Unser Ziel ist es, die Plattform, auf der wir unsere Anwendungen ausführen, agil zu gestalten. Jedes Jahr kommen neue Innovationen und Rechenleistung wird immer kostengünstigerer. Je schneller wir das nutzen können, umso mehr Wert können wir für unsere Kunden generieren.” Die ultimative Multicloud-Herausforderung besteht laut Pluralsight-Manager Firment darin, Cloud-Fähigkeiten zu optimieren, ohne dabei Chaos zu verursachen: “Die erste Faustregel lautet, die gemeinsamen Kernservices, die in allen Clouds vorhanden sind, zu abstrahieren und gleichzeitig Cloud-spezifische Services, die einen einzigartigen Kundennutzen bieten, zu isolieren. Nutzen Sie beispielsweise einen standardisierten Authentifizierungs- und Compute-Layer für alle Clouds und optimieren Sie gleichzeitig mit AWS-spezifischen Tools wie S3 oder Athena die Kosten und die Query-Performance bei großen Datensätzen.” Das deckt sich mit der Empfehlung von Gründerin Lam: “Halten Sie die Kerngeschäftslogik portabel – APIs, containerisierte Anwendungen, gemeinsame Sprachen wie Python oder Node – dort ist Portabilität wirklich wichtig. Geht es hingegen um Infrastruktur oder Orchestrierung, würde ich dazu raten, auf das zu setzen, was die jeweilige Cloud am besten kann.” Plattformübergreifender Code Der Schlüssel, um die Kerngeschäftslogik Cloud-übergreifend so portabel wie möglich zu gestalten, ist für so gut wie alle unsere Gesprächspartner die Container-Orchestrierungsplattform Kubernetes. Diese empfiehlt zum Beispiel auch Radhakrishnan Krishna Kripa, leitender DevOps-Ingenieur beim Entwicklungsspezialisten Ansys, um Bereitstellungen zu standardisieren: “Indem wir Kubernetes und Docker Container einsetzen, können wir den Code einmal schreiben und ihn anschließend mit minimalen Änderungen in AKS, AWS EKS oder sogar in lokalen Clustern ausführen.” Mit diesem Ansatz rennt Kripa bei Sidd Seethepalli, CTO und Mitbegründer des KI-Unternehmens Vellum, offene Türen ein: “Wir verlassen uns auf Kubernetes statt auf anbieterspezifische Services. So können wir Kubernetes-Cluster überall konsistent bereitstellen, wo sie benötigt werden.” Neil Qylie, Principal Solutions Architect bei der IT-Beratung Myriad360, betrachtet Kubernetes ebenfalls als gute Grundlage: “Indem wir auf Kubernetes aufbauen, können wir Anwendungsdefinitionen und -Deployments mit Helm standardisieren. Der Rollout lässt sich in der Regel über einen GitOps-Workflow mit Tools wie ArgoCD automatisieren.” Dieser Ansatz biete laut Qylie “echte Workload-Mobilität” und gewährleiste parallel konsistente und validierte Deployments über CI/CD-Pipelines. Apropos CI/CD: Diese Tools sind ebenso wichtig wie die Infrastruktur, auf der der Code läuft. Kripa empfiehlt, diese mit Hilfe Cloud-neutraler Tools wie GitHub Actions oder Terraform zu standardisieren: “Wir nutzen hauptsächlich Azure, aber Tools wie GitHub Actions ermöglichen es uns, Builds und Infrastruktur über mehrere Umgebungen hinweg mit einem konsistenten Workflow zu managen. Das trägt dazu bei, die Belastung für die Entwickler bei einem Anbieterwechsel oder einem Deployment in hybriden Umgebungen zu reduzieren.” Unabhängig davon, wie stark Sie Ihren Code standardisieren, müssen Sie dennoch mit den APIs und SDKs der einzelnen Cloud-Anbieter interagieren. Um das ohne Portabilitätseinbußen zu realisieren, hat Anant Agarwal, Mitbegründer und CTO des Softwareunternehmens Aidora, ein Pattern entwickelt: “Wir behandeln jede Cloud-API und jedes SDK wie eine Abhängigkeit: Wir verpacken sie in eine interne Bibliothek und stellen dem Rest der Codebasis eine saubere, generische Schnittstelle zur Verfügung. So bleibt die Cloud-spezifische Logik isoliert und austauschbar, die Kernlogik der Anwendung ist hingegen einfacher zu warten und wird widerstandsfähiger gegen Plattformabhängigkeiten.” Insbesondere dort, wo proprietäre Cloud-Funktionen in der Vergangenheit zu Reibungsverlusten geführt haben, helfe die Open-Source-Community dabei, die Lücken zu schließen, meint Qylie und verweist auf das Serverless-Workflow-Projekt. “Ich behalte die CNCF-Landschaft stets im Auge. Es gibt regelmäßig neue Projekte, die genau diese ‚Knackpunkte‘ adressieren”, so der Entwickler. Komplexitätsbewältigung Heterogene Multi-Cloud-Umgebungen sind komplex. Diesen Umstand sollte auch der Entwicklungsprozess berücksichtigen – insbesondere, wenn es um Sichtbarkeit geht. Der erste Schritt sollte entsprechend darin bestehen Logs und Alerts zu zentralisieren – so wie es auch bei Aidora geschieht: “Wir leiten sämtliche Protokolle an eine einheitliche Observability-Plattform weiter und erstellen eine konsolidierte Ansicht. Bei neueren Tools alles komplett abzudecken, ist schwierig, aber dieser Ansatz unterstützt uns dabei, Vorfälle schnell zu triagieren und dabei Transparenz über alle Cloud-Anbieter hinweg zu gewährleisten.” Diese Vorgehensweise empfiehlt auch Payara-Chefentwickler Dudits: “Es macht Sinn, in ein zentrales, anbieterunabhängiges Dashboard mit hochwertigen Metriken für die gesamte Multicloud-Umgebung zu investieren. Das erleichtert es, anbieterübergreifende Probleme zu erkennen – auch wenn tiefgehendere Analysen weiterhin über anbieterspezifische Tools laufen.” RevenueOps-CEO Lam schreibt hochwertigen Logging-Tools mit Blick auf Multicloud-Umgebungen eine besondere Bedeutung zu: “Es ist schon schwierig genug, eine Cloud zu debuggen. Wenn Sie mit drei oder vier Clouds arbeiten, können Sie mit einem guten Logging- und Monitoring-Tool Stunden oder sogar Tage an Arbeit einsparen.”   CTO Agarwal merkt zudem an, dass komplexe Multicloud-Workflows nicht nur durch Automatisierung, sondern auch interne KI-Tools optimiert werden können: “Wir haben unsere internen Playbooks in ein benutzerdefiniertes GPT umgewandelt, das kontextspezifische Fragen wie ‚Wo stelle ich diesen Service bereit?‘ direkt beantwortet. Um Reibungsverluste weiter zu reduzieren, haben wir dieselben Regeln in Cursor kodifiziert, sodass Entwickler Inline-Anleitungen direkt in ihrer IDE erhalten.” Als vielleicht wichtigste Multicloud-Erkenntnis sieht Managerin Lam, dass man in solchen Umgebungen mit Ausfällen rechnen muss. Je mehr Clouds und Services miteinander verbunden würden, desto größer sei die Wahrscheinlichkeit, dass etwas schiefgeht: “Probleme treten häufig an den Verbindungsstellen auf – etwa API-Timeouts, abgelaufene Authentifizierungstoken oder seltsame Latenzspitzen. Sie sollten mit solchen Unwägbarkeiten rechnen.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Praxistipps von Multicloud-Entwicklern​ Viele Clouds, viele Probleme? Muss nicht sein. Wir haben Experten gefragt, wie Multicloud in der Praxis geht.Juice Flair | shutterstock.com

Multicloud-Architekturen versprechen das Beste aus sämtlichen Welten, indem sie es ermöglichen, spezielle Funktionen mehrerer Anbieter zu nutzen. Die Voraussetzung dafür sind allerdings Entwicklungsprozesse, die dazu geeignet sind, die mit einem Multicloud-Ansatz einhergehenden Herausforderungen und Komplexitäten zu bewältigen. Denn im Vergleich zu traditionellem Cloud Computing erfordert es strategische, architektonische und operative Umstellungen, um Code zu schreiben, der zuverlässig in mehreren verschiedenen Cloud-Instanzen läuft. Dazu gilt es, sämtliche Parts des Entwicklungsprozesses weiterzuentwickeln – von der Container-Orchestrierung über Observability bis hin zu internen Tools.   

Wie sich das in der Praxis ganz konkret umsetzen lässt, dazu haben wir erfahrene Cloud-Experten befragt. Diese geben dabei nicht nur Auskunft über ihre Erfolge, sondern auch über ihre Fails – beziehungsweise die daraus gelernten Lektionen.

Kommunikation & Strategie

Bevor Entwicklungsteams auch nur eine Zeile Code für Multicloud-Umgebungen schreiben, muss klar sein, warum. Darüber aufzuklären, sieht Drew Firment, Chief Cloud Strategist beim E-Learning-Anbieter Pluralsight, als Aufgabe des Managements an: “Multicloud ist kein Thema für Entwickler. Es handelt sich um ein strategisches Problem, das ein klares Cloud-Betriebsmodell erfordert. Dieses sollte klar definieren, wann, wo und warum Entwicklungsteams bestimmte Cloud-Funktionen nutzen.”

Ohne ein solches Modell riskierten Unternehmen hohe Kosten, Sicherheitsprobleme und letztendlich den Projekterfolg, warnt Firment. Er empfiehlt an dieser Stelle mit einem strategischen Framework zu beginnen, das auf die Geschäftsziele abgestimmt ist und zudem klare Verantwortlichkeiten für Multicloud-Entscheidungen zuweist. Dieser Prozess sollte jedoch nicht nur Top-Down verlaufen. Deshalb ist für Heather Davis Lam, Gründerin und CEO der IT-Beratung Revenue Ops, abteilungsübergreifende Kommunikation in diesem Zusammenhang unabdingbar: “Sprechen Sie miteinander. An Multicloud-Projekten sind Entwickler, Betriebsspezialisten, Security-Profis und manchmal auch die Rechtsabteilung beteiligt. Die Probleme entstehen dabei in der Regel durch Missverständnisse, nicht durch schlechten Code. Regelmäßige Check-ins und ehrliche Gespräche sind deshalb enorm hilfreich wenn es um Multicloud-Projekte geht.”

Dieser Planungsprozess sollte die Frage klären, warum Multicloud für das Unternehmen ein geeignetes Konzept ist und wie die spezifischen Plattformen innerhalb der Infrastruktur optimal genutzt werden können.

Umgebungspluralität

Das Multicloud-Entwicklungsteam wird sich in weiten Teilen vor allem mit der Frage beschäftigen, wann und wie Cloud-agnostischer oder plattformübergreifender Code geschrieben werden sollte. Dabei versuchten nicht wenige Teams, ihren Code vollständig Cloud-portabel zu gestalten, meint Gründerin Lam: “Das ist eine schöne Idee, aber in der Praxis kann sie zu Overengineering und noch mehr Kopfzerbrechen führen. Wenn das Team damit anfängt, zusätzliche Layer aufzubauen, nur damit alles funktioniert, ist es an der Zeit, innezuhalten.”

Das kann Patrik Dudits, Senior Software Engineer bei der Open-Source-Company Payara Services, aus eigener Erfahrung bestätigen: “Der Versuch, die Architektur auf den ‚kleinsten gemeinsamen Nenner‘ zu beschränken, ist ein gängiger Fehler. In der Praxis ist es deutlich erfolgversprechender, die jeweiligen Stärken der einzelnen Clouds zu nutzen.”

Damit meint der Softwareentwickler, Systeme mit Blick auf ihre Autonomie zu entwickeln, um Services unabhängig in ihren jeweiligen Clouds zu betreiben – ohne eine zu enge Kopplung entstehen zu lassen. Dieses Prinzip spielt auch im Ansatz von Matt Dimich, VP of Platform Engineering beim Medienkonzern Thomson Reuters, eine tragende Rolle: “Unser Ziel ist es, die Plattform, auf der wir unsere Anwendungen ausführen, agil zu gestalten. Jedes Jahr kommen neue Innovationen und Rechenleistung wird immer kostengünstigerer. Je schneller wir das nutzen können, umso mehr Wert können wir für unsere Kunden generieren.”

Die ultimative Multicloud-Herausforderung besteht laut Pluralsight-Manager Firment darin, Cloud-Fähigkeiten zu optimieren, ohne dabei Chaos zu verursachen: “Die erste Faustregel lautet, die gemeinsamen Kernservices, die in allen Clouds vorhanden sind, zu abstrahieren und gleichzeitig Cloud-spezifische Services, die einen einzigartigen Kundennutzen bieten, zu isolieren. Nutzen Sie beispielsweise einen standardisierten Authentifizierungs- und Compute-Layer für alle Clouds und optimieren Sie gleichzeitig mit AWS-spezifischen Tools wie S3 oder Athena die Kosten und die Query-Performance bei großen Datensätzen.”

Das deckt sich mit der Empfehlung von Gründerin Lam: “Halten Sie die Kerngeschäftslogik portabel – APIs, containerisierte Anwendungen, gemeinsame Sprachen wie Python oder Node – dort ist Portabilität wirklich wichtig. Geht es hingegen um Infrastruktur oder Orchestrierung, würde ich dazu raten, auf das zu setzen, was die jeweilige Cloud am besten kann.”

Plattformübergreifender Code

Der Schlüssel, um die Kerngeschäftslogik Cloud-übergreifend so portabel wie möglich zu gestalten, ist für so gut wie alle unsere Gesprächspartner die Container-Orchestrierungsplattform Kubernetes. Diese empfiehlt zum Beispiel auch Radhakrishnan Krishna Kripa, leitender DevOps-Ingenieur beim Entwicklungsspezialisten Ansys, um Bereitstellungen zu standardisieren: “Indem wir Kubernetes und Docker Container einsetzen, können wir den Code einmal schreiben und ihn anschließend mit minimalen Änderungen in AKS, AWS EKS oder sogar in lokalen Clustern ausführen.”

Mit diesem Ansatz rennt Kripa bei Sidd Seethepalli, CTO und Mitbegründer des KI-Unternehmens Vellum, offene Türen ein: “Wir verlassen uns auf Kubernetes statt auf anbieterspezifische Services. So können wir Kubernetes-Cluster überall konsistent bereitstellen, wo sie benötigt werden.”

Neil Qylie, Principal Solutions Architect bei der IT-Beratung Myriad360, betrachtet Kubernetes ebenfalls als gute Grundlage: “Indem wir auf Kubernetes aufbauen, können wir Anwendungsdefinitionen und -Deployments mit Helm standardisieren. Der Rollout lässt sich in der Regel über einen GitOps-Workflow mit Tools wie ArgoCD automatisieren.” Dieser Ansatz biete laut Qylie “echte Workload-Mobilität” und gewährleiste parallel konsistente und validierte Deployments über CI/CD-Pipelines.

Apropos CI/CD: Diese Tools sind ebenso wichtig wie die Infrastruktur, auf der der Code läuft. Kripa empfiehlt, diese mit Hilfe Cloud-neutraler Tools wie GitHub Actions oder Terraform zu standardisieren: “Wir nutzen hauptsächlich Azure, aber Tools wie GitHub Actions ermöglichen es uns, Builds und Infrastruktur über mehrere Umgebungen hinweg mit einem konsistenten Workflow zu managen. Das trägt dazu bei, die Belastung für die Entwickler bei einem Anbieterwechsel oder einem Deployment in hybriden Umgebungen zu reduzieren.”

Unabhängig davon, wie stark Sie Ihren Code standardisieren, müssen Sie dennoch mit den APIs und SDKs der einzelnen Cloud-Anbieter interagieren. Um das ohne Portabilitätseinbußen zu realisieren, hat Anant Agarwal, Mitbegründer und CTO des Softwareunternehmens Aidora, ein Pattern entwickelt: “Wir behandeln jede Cloud-API und jedes SDK wie eine Abhängigkeit: Wir verpacken sie in eine interne Bibliothek und stellen dem Rest der Codebasis eine saubere, generische Schnittstelle zur Verfügung. So bleibt die Cloud-spezifische Logik isoliert und austauschbar, die Kernlogik der Anwendung ist hingegen einfacher zu warten und wird widerstandsfähiger gegen Plattformabhängigkeiten.”

Insbesondere dort, wo proprietäre Cloud-Funktionen in der Vergangenheit zu Reibungsverlusten geführt haben, helfe die Open-Source-Community dabei, die Lücken zu schließen, meint Qylie und verweist auf das Serverless-Workflow-Projekt. “Ich behalte die CNCF-Landschaft stets im Auge. Es gibt regelmäßig neue Projekte, die genau diese ‚Knackpunkte‘ adressieren”, so der Entwickler.

Komplexitätsbewältigung

Heterogene Multi-Cloud-Umgebungen sind komplex. Diesen Umstand sollte auch der Entwicklungsprozess berücksichtigen – insbesondere, wenn es um Sichtbarkeit geht. Der erste Schritt sollte entsprechend darin bestehen Logs und Alerts zu zentralisieren – so wie es auch bei Aidora geschieht: “Wir leiten sämtliche Protokolle an eine einheitliche Observability-Plattform weiter und erstellen eine konsolidierte Ansicht. Bei neueren Tools alles komplett abzudecken, ist schwierig, aber dieser Ansatz unterstützt uns dabei, Vorfälle schnell zu triagieren und dabei Transparenz über alle Cloud-Anbieter hinweg zu gewährleisten.”

Diese Vorgehensweise empfiehlt auch Payara-Chefentwickler Dudits: “Es macht Sinn, in ein zentrales, anbieterunabhängiges Dashboard mit hochwertigen Metriken für die gesamte Multicloud-Umgebung zu investieren. Das erleichtert es, anbieterübergreifende Probleme zu erkennen – auch wenn tiefgehendere Analysen weiterhin über anbieterspezifische Tools laufen.”

RevenueOps-CEO Lam schreibt hochwertigen Logging-Tools mit Blick auf Multicloud-Umgebungen eine besondere Bedeutung zu: “Es ist schon schwierig genug, eine Cloud zu debuggen. Wenn Sie mit drei oder vier Clouds arbeiten, können Sie mit einem guten Logging- und Monitoring-Tool Stunden oder sogar Tage an Arbeit einsparen.”  

CTO Agarwal merkt zudem an, dass komplexe Multicloud-Workflows nicht nur durch Automatisierung, sondern auch interne KI-Tools optimiert werden können: “Wir haben unsere internen Playbooks in ein benutzerdefiniertes GPT umgewandelt, das kontextspezifische Fragen wie ‚Wo stelle ich diesen Service bereit?‘ direkt beantwortet. Um Reibungsverluste weiter zu reduzieren, haben wir dieselben Regeln in Cursor kodifiziert, sodass Entwickler Inline-Anleitungen direkt in ihrer IDE erhalten.”

Als vielleicht wichtigste Multicloud-Erkenntnis sieht Managerin Lam, dass man in solchen Umgebungen mit Ausfällen rechnen muss. Je mehr Clouds und Services miteinander verbunden würden, desto größer sei die Wahrscheinlichkeit, dass etwas schiefgeht: “Probleme treten häufig an den Verbindungsstellen auf – etwa API-Timeouts, abgelaufene Authentifizierungstoken oder seltsame Latenzspitzen. Sie sollten mit solchen Unwägbarkeiten rechnen.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Praxistipps von Multicloud-Entwicklern​ Weiterlesen »

Nach oben scrollen
×