Computerhaus Quickborn

Allgemein

LLM-Agenten offenbaren in neuem Härtetest Schwächen​

Allgemein

Selbst bei einfachen, einstufigen Aufgaben waren die LLM-Agenten bestenfalls in sechs von zehn Fällen erfolgreich. BOY ANTHONY – shutterstock.com Large Language Models (LLMs) werden angeblich immer besser. Dennoch sollte man ihnen nicht unbedingt geschäftskritische Aufgaben mit sensiblen Daten blind anvertrauen, wie ein Team unter der Leitung von Kung-Hsiang Huang, einem KI-Forscher bei Salesforce, herausgefunden hat. In einem aktuellen Bericht dokumentierten die Forschenden, dass auf Basis von LLMs erstellte Agenten bei Aufgaben unterdurchschnittlich abschnitten. So erreichten die auf Modellen von OpenAI, Google und Meta erstellten Tools bei Aufgaben, die in einem einzigen Schritt erledigt werden können, ohne dass Folgeaktionen oder weitere Informationen erforderlich sind, bestenfalls eine Erfolgsquote von etwa 58 Prozent. Erforderte eine Aufgabe mehrere Schritte, fiel das Ergebnis mit einer Erfolgsrate von rund 35 Prozent deutlich schlechter aus.   Grundlage für die Ergebnisse war ein neuer, speziell für die Bewertung von KI-Agenten entwickelter Benchmark-Test namens CRMArena-Pro. Das Tool wird mit realitätsnahen, synthetischen Daten gespeist, um eine Salesforce-Umgebung als Testplattform zu simulieren. Der KI-Agent verarbeitet Nutzeranfragen und entscheidet, ob er eine API-Abfrage durchführt oder den Nutzern eine Rückmeldung zur Klärung oder Beantwortung gibt. Fehlendes Bewusstsein für Vertraulichkeit Wie die Forscher weiterhin feststellten, weisen die KI-Agenten ein mangelndes Bewusstsein für Vertraulichkeit, was sensible Daten angeht auf. Dies lasse sich durch gezielte Anweisungen verbessern, wenn auch oft auf Kosten der Leistungsfähigkeit, heißt es in der Studie. 

LLM-Agenten offenbaren in neuem Härtetest Schwächen​ Selbst bei einfachen, einstufigen Aufgaben waren die LLM-Agenten bestenfalls in sechs von zehn Fällen erfolgreich.
BOY ANTHONY – shutterstock.com

Large Language Models (LLMs) werden angeblich immer besser. Dennoch sollte man ihnen nicht unbedingt geschäftskritische Aufgaben mit sensiblen Daten blind anvertrauen, wie ein Team unter der Leitung von Kung-Hsiang Huang, einem KI-Forscher bei Salesforce, herausgefunden hat.

In einem aktuellen Bericht dokumentierten die Forschenden, dass auf Basis von LLMs erstellte Agenten bei Aufgaben unterdurchschnittlich abschnitten. So erreichten die auf Modellen von OpenAI, Google und Meta erstellten Tools bei Aufgaben, die in einem einzigen Schritt erledigt werden können, ohne dass Folgeaktionen oder weitere Informationen erforderlich sind, bestenfalls eine Erfolgsquote von etwa 58 Prozent.

Erforderte eine Aufgabe mehrere Schritte, fiel das Ergebnis mit einer Erfolgsrate von rund 35 Prozent deutlich schlechter aus.  

Grundlage für die Ergebnisse war ein neuer, speziell für die Bewertung von KI-Agenten entwickelter Benchmark-Test namens CRMArena-Pro. Das Tool wird mit realitätsnahen, synthetischen Daten gespeist, um eine Salesforce-Umgebung als Testplattform zu simulieren. Der KI-Agent verarbeitet Nutzeranfragen und entscheidet, ob er eine API-Abfrage durchführt oder den Nutzern eine Rückmeldung zur Klärung oder Beantwortung gibt.

Fehlendes Bewusstsein für Vertraulichkeit

Wie die Forscher weiterhin feststellten, weisen die KI-Agenten ein mangelndes Bewusstsein für Vertraulichkeit, was sensible Daten angeht auf. Dies lasse sich durch gezielte Anweisungen verbessern, wenn auch oft auf Kosten der Leistungsfähigkeit, heißt es in der Studie.

LLM-Agenten offenbaren in neuem Härtetest Schwächen​ Weiterlesen »

6 Anbieterplattformen für Ihre “Watchlist”​

Allgemein

Der Trend geht zur Plattform.kosant dejnonsang | shutterstock.com Diverse große IT-Anbieter führen ihre Netzwerk- und Sicherheitsprodukte inzwischen zu einheitlichen Architekturen zusammen, um ihren Kunden zu ermöglichen: Richtlinien besser durchzusetzen, die allgemeine Transparenz zu steigern, und die IT-Produktivität zu optimieren. Dabei verfolgen die Anbieter unterschiedliche Platformization-Ansätze: Manche konsolidieren Netzwerk- und Security-Features, andere bauen separate Domänenplattformen auf. Im Folgenden sechs prominente Beispiele (in alphabetischer Reihenfolge). 1. Cisco Cisco kündigte Mitte 2023 seine Networking Cloud an: Eine einheitliche Management-Plattform, die sowohl On-Premises als auch in der Cloud läuft – und mehr Transparenz sowie Automatisierung verspricht. Zum Beispiel für Campusnetze, Filialgeschäfte, aber auch für Rechenzentren, IoT oder SD-WAN. Seitdem hat der Netzwerkriese sukzessive neue Funktionen eingeführt. Zum Beispiel: eine neue Single-Sign-On-Technologie (SSO), eine engere Integration zwischen dem Meraki-Dashboard und der Network-Intelligence-Software Thousand Eyes, sowie optimiertes Cloud Management für Catalyst-Switches. Darüber hinaus bietet Cisco auch eine Security-Cloud-Plattform auf Basis seiner Hypershield-Sicherheitsarchitektur an. 2. Extreme Networks Mit seiner Platform One hat Extreme Networks eine Connectivity-Plattform für Unternehmen aufgebaut, die Netzwerk-, Sicherheits- und Bestandsmanagement mit KI und Support Services kombiniert. Die Extreme-Plattform bietet unter anderem: dialogorientierte KI-Erfahrungen, interaktive Analysen und Dashboards, Agentic AI sowie KI-gestützte Workflows für Design, Konfiguration, Fehlerbehebung und Migration. Vor kurzem hat Extreme seine Plattform auch um einen KI-Service-Agenten sowie ein neues Dashboard ergänzt. Letzteres soll den Netzwerk- und Sicherheitsbetrieb vereinfachen. 3. Fortinet Fortinets Security-Fabric-Plattform verspricht integrierten Ende-zu-Ende-Schutz für Netzwerk-, Endpunkt- und Cloud-Deployments. Sie umfasst: ein Betriebssystem (FortiOS), einen einheitlichen Agenten (FortiClient), eine Management-Konsole (FortiManager), eine Data-Lake-Lösung (FortiAnalyzer), offene APIs, und Integrationsmöglichkeiten für mehr als 500 Drittanbieterprodukte. Auch Fortinet setzt darauf, Netzwerk- und Sicherheitsfunktionen in seiner Plattform zusammenzuführen. Das soll umfassende Automatisierungsinitiativen ermöglichen und Echtzeitschutz für Devices, Daten und Applikationen gewährleisten. Der Sicherheitsanbieter fertigt außerdem auch seine eigenen Security Processing Units (SPUs). 4. HPE Hewlett Packard Enterprise (HPE) bietet mit Aruba Networking Central eine Cloud-basierte Netzwerkmanagement-Plattform, die auch als Service zur Verfügung steht und zudem Teil des NaaS-Abonnements HPE GreenLake for Networking ist. Zuletzt hat der Anbieter seine Plattform erweitert um: eine optimierte Konfigurations-Engine für Netzwerkgeräte, Network-Observability-Funktionen sowie Netzwerkoptimierungsmöglichkeiten auf KI-Basis. Darüber hinaus hat HPE nach der Akquisition von OpsRamp auch Features integriert, um Netzwerk-Devices von Drittanbietern zu überwachen. 5. Juniper Networks Die KI-native Netzwerkplattform von Juniper bietet ein einheitliches Networking- und Security-Interface auf Basis von Mist AI, um: Traffic-Muster zu überwachen, Anomalien zu identifizieren und Sicherheitsrichtlinien konsistent über die gesamte Infrastruktur anzuwenden. Neben Mist AI beinhaltet die Juniper-Plattform auch den virtuellen Netzwerkassistenten Marvis sowie die Möglichkeit, Root-Cause-Analysen zu fahren und Events automatisiert zu korrelieren. Das soll den Anwendern dabei helfen, Problemen schneller auf die Schliche zu kommen. Zudem integriert der Anbieter mit seiner Plattform den Zero-Trust-Ansatz in alle Netzwerkdomänen. 6. Palo Alto Networks Palo Alto Networks kündigte Anfang 2024 die Umstellung von Standalone-Produkten auf eine Plattformstrategie an. Besser gesagt eine Multi-Plattformstrategie, denn der US-Sicherheitsanbieter hat gleich drei im Angebot: Strata ist eine Network-Security-Plattform, die den Betrieb vereinfachen, Sicherheitsrichtlinien durchsetzen und vor komplexen Bedrohungen schützen soll. Prisma Cloud ist eine Code-to-Cloud-Plattform, die Anwendungen über den gesamten Lebenszyklus hinweg absichern soll. Cortex ist eine KI-gesteuerte SecOps-Plattform, die verspricht, Sicherheitsbedrohungen schneller zu erkennen und zu beheben. In allen drei Fällen hat Palo Alto Networks zahlreiche eigenständige Security-Tools in einer singulären, eng integrierten Architektur konsolidiert. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

6 Anbieterplattformen für Ihre “Watchlist”​ Der Trend geht zur Plattform.kosant dejnonsang | shutterstock.com

Diverse große IT-Anbieter führen ihre Netzwerk- und Sicherheitsprodukte inzwischen zu einheitlichen Architekturen zusammen, um ihren Kunden zu ermöglichen:

Richtlinien besser durchzusetzen,

die allgemeine Transparenz zu steigern, und

die IT-Produktivität zu optimieren.

Dabei verfolgen die Anbieter unterschiedliche Platformization-Ansätze: Manche konsolidieren Netzwerk- und Security-Features, andere bauen separate Domänenplattformen auf. Im Folgenden sechs prominente Beispiele (in alphabetischer Reihenfolge).

1. Cisco

Cisco kündigte Mitte 2023 seine Networking Cloud an: Eine einheitliche Management-Plattform, die sowohl On-Premises als auch in der Cloud läuft – und mehr Transparenz sowie Automatisierung verspricht. Zum Beispiel für Campusnetze, Filialgeschäfte, aber auch für Rechenzentren, IoT oder SD-WAN. Seitdem hat der Netzwerkriese sukzessive neue Funktionen eingeführt. Zum Beispiel:

eine neue Single-Sign-On-Technologie (SSO),

eine engere Integration zwischen dem Meraki-Dashboard und der Network-Intelligence-Software Thousand Eyes, sowie

optimiertes Cloud Management für Catalyst-Switches.

Darüber hinaus bietet Cisco auch eine Security-Cloud-Plattform auf Basis seiner Hypershield-Sicherheitsarchitektur an.

2. Extreme Networks

Mit seiner Platform One hat Extreme Networks eine Connectivity-Plattform für Unternehmen aufgebaut, die Netzwerk-, Sicherheits- und Bestandsmanagement mit KI und Support Services kombiniert. Die Extreme-Plattform bietet unter anderem:

dialogorientierte KI-Erfahrungen,

interaktive Analysen und Dashboards,

Agentic AI sowie

KI-gestützte Workflows für Design, Konfiguration, Fehlerbehebung und Migration.

Vor kurzem hat Extreme seine Plattform auch um einen KI-Service-Agenten sowie ein neues Dashboard ergänzt. Letzteres soll den Netzwerk- und Sicherheitsbetrieb vereinfachen.

3. Fortinet

Fortinets Security-Fabric-Plattform verspricht integrierten Ende-zu-Ende-Schutz für Netzwerk-, Endpunkt- und Cloud-Deployments. Sie umfasst:

ein Betriebssystem (FortiOS),

einen einheitlichen Agenten (FortiClient),

eine Management-Konsole (FortiManager),

eine Data-Lake-Lösung (FortiAnalyzer),

offene APIs, und

Integrationsmöglichkeiten für mehr als 500 Drittanbieterprodukte.

Auch Fortinet setzt darauf, Netzwerk- und Sicherheitsfunktionen in seiner Plattform zusammenzuführen. Das soll umfassende Automatisierungsinitiativen ermöglichen und Echtzeitschutz für Devices, Daten und Applikationen gewährleisten. Der Sicherheitsanbieter fertigt außerdem auch seine eigenen Security Processing Units (SPUs).

4. HPE

Hewlett Packard Enterprise (HPE) bietet mit Aruba Networking Central eine Cloud-basierte Netzwerkmanagement-Plattform, die auch als Service zur Verfügung steht und zudem Teil des NaaS-Abonnements HPE GreenLake for Networking ist.

Zuletzt hat der Anbieter seine Plattform erweitert um:

eine optimierte Konfigurations-Engine für Netzwerkgeräte,

Network-Observability-Funktionen sowie

Netzwerkoptimierungsmöglichkeiten auf KI-Basis.

Darüber hinaus hat HPE nach der Akquisition von OpsRamp auch Features integriert, um Netzwerk-Devices von Drittanbietern zu überwachen.

5. Juniper Networks

Die KI-native Netzwerkplattform von Juniper bietet ein einheitliches Networking- und Security-Interface auf Basis von Mist AI, um:

Traffic-Muster zu überwachen,

Anomalien zu identifizieren und

Sicherheitsrichtlinien konsistent über die gesamte Infrastruktur anzuwenden.

Neben Mist AI beinhaltet die Juniper-Plattform auch den virtuellen Netzwerkassistenten Marvis sowie die Möglichkeit, Root-Cause-Analysen zu fahren und Events automatisiert zu korrelieren. Das soll den Anwendern dabei helfen, Problemen schneller auf die Schliche zu kommen. Zudem integriert der Anbieter mit seiner Plattform den Zero-Trust-Ansatz in alle Netzwerkdomänen.

6. Palo Alto Networks

Palo Alto Networks kündigte Anfang 2024 die Umstellung von Standalone-Produkten auf eine Plattformstrategie an. Besser gesagt eine Multi-Plattformstrategie, denn der US-Sicherheitsanbieter hat gleich drei im Angebot:

Strata ist eine Network-Security-Plattform, die den Betrieb vereinfachen, Sicherheitsrichtlinien durchsetzen und vor komplexen Bedrohungen schützen soll.

Prisma Cloud ist eine Code-to-Cloud-Plattform, die Anwendungen über den gesamten Lebenszyklus hinweg absichern soll.

Cortex ist eine KI-gesteuerte SecOps-Plattform, die verspricht, Sicherheitsbedrohungen schneller zu erkennen und zu beheben.

In allen drei Fällen hat Palo Alto Networks zahlreiche eigenständige Security-Tools in einer singulären, eng integrierten Architektur konsolidiert. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

6 Anbieterplattformen für Ihre “Watchlist”​ Weiterlesen »

Tutorial: Python richtig installieren​

Allgemein

Python gilt als Shooting Star unter den Programmiersprachen. Wir sagen Ihnen, wie Sie die Installation unter Windows, Linux und MacOS reibungslos bewerkstelligen und was Sie dabei beachten sollten. Foto: Flegere – shutterstock.com Mit der einsteiger- und benutzerfreundlichen Programmiersprache Python können Sie nahezu jede erdenkliche Applikation coden. Aber es ist eben auch nur eine Software wie jede andere – Installation und Management können mitunter komplex ausfallen. Wir verraten Ihnen, wie Sie Python aufsetzen, die richtige Version für Ihre Zwecke ermitteln und mögliche Fallstricke bei der Installation unter Windows, Linux und MacOS vermeiden. Die richtige Python-Version ermitteln Um die Kompatibilität mit Drittanbieter-Modulen gewährleisten zu können, sollten Sie nicht auf die neueste Python-Version setzen. Stattdessen empfiehlt sich die letzte große Versionierung. Aktuell (Stand: Juni 2025) ist Python 3.13.5 die neueste Version. Um sicherzugehen, dass alles läuft, sollten Sie sich also für die letzte Revision von Python 3.12 entscheiden. Natürlich können Sie die neueste Python-Version jederzeit in einer geschützten Umgebung – etwa einer virtuellen Maschine – austesten. Von Python existieren darüber hinaus auch verschiedene Distributionen – ganz ähnlich wie das bei Linux der Fall ist. Allerdings ist die Programmiersprache, im Gegensatz zu Linux, auch in einer offiziellen Version erhältlich, die Sie als Fallback-Option nutzen können: CPython wird von der Python Software Foundation zur Verfügung gestellt und ist die sicherste und kompatibelste Distribution. Mit anderen Python-Distributionen für spezifische Use Cases können Sie zu einem späteren Zeitpunkt jederzeit experimentieren. Ein wesentlicher Punkt bei der Wahl der Python-Distribution – insbesondere unter Windows – ist die Entscheidung zwischen der 32-Bit- und der 64-Bit-Version. Sehr wahrscheinlich werden Sie sich für letztere entscheiden, denn: die meisten modernen Betriebssysteme arbeiten standardmäßig mit der 64-Bit-Version von Python. Windows-Nutzer können die 32-Bit-Versionen der Coding-Sprache auch mit einem 64-Bit-Windows betreiben, müssen sich aber auf leichte Performance-Einbußen einstellen. 32-Bit-Applikationen – auch Python – können zeitgleich auf maximal 4 GB Arbeitsspeicher zugreifen. Dieses Limit kennen 64-Bit-Apps nicht. Hinzu kommt, dass viele Datenanalyse- und Machine-Learning-Tools innerhalb einer 64-bit-Umgebung am besten laufen. Für die 32-Bit-Version von Python sollten Sie sich lediglich dann entscheiden, wenn Sie auch ein 32-Bit-Windows oder ein Drittanbieter-Modul nutzen (müssen), welches lediglich als 32-Bit-Version vorliegt. Python unter Windows installieren Wie bei nahezu jeder Applikation unter Windows läuft auch die Installation von Python über einen Installer ab, der Sie durch den Setup-Prozess geleitet. Standardmäßig legt der Python-Installer .exe-Dateien unter Windows im App-Data-Verzeichnis des jeweiligen Nutzers ab – so dass keine Administratorrechte für die Installation benötigt werden. Den richtige Python Installer für Windows finden Python.org stellt mehrere verschiedene Windows Installer zur Verfügung. Neben der 32-Bit- (x86) und der 64-Bit-Version (x86-64) auch ein embeddable Zip File, eine .exe-Datei sowie einen webbasierten Installer. Diese unterscheiden sich wie folgt: Der .exe Installer ist lediglich eine ausführbare Datei, die den Installationsprozess von Python startet – das ist die gängigste und simpelste Lösung. Der webbasierte Installer ist im Grunde identisch zu seinem .exe-Pendant, mit dem Unterschied, dass es die Dateien, die für die Installation nötig sind, separat herunterlädt. Dadurch reduziert sich die Größe des Installers drastisch, allerdings ist eine Netzwerkverbindung zwingend erforderlich. Das embeddable Zip File ist eine in sich geschlossene, auf das Minimum reduzierte Kopie der Python-Laufzeitumgebung. Das ist nützlich, wenn Sie eine Python-Applikation manuell verteilen oder schnell etwas testen wollen. Allerdings enthält dieser Installer keines der nützlichen Tools, die die anderen Versionen an Bord haben. Python mit einem Package Manager unter Windows installieren Eine weitere Option unter Windows ist die Nutzung des betriebssystemeigenen Package-Management-Systems NuGet. Der Package Manager für .NET hat auch Python im Angebot, allerdings als Komponente für .NET-Applikationen und nicht, um als Installer für eine Standalone-Version von Python zum Einsatz zu kommen. Das Management Ihrer Python-Instanz dürfte sich deshalb mit einer regulären Installation einfacher gestalten. Auch das Windows Package Management System Chocolatey stellt Python zur Verfügung. Das ist im Vergleich zu NuGet in der Regel die bessere Option, weil Ihr System dabei auf eine vorhandene Python-Laufzeitumgebung überprüft wird. Allerdings sollten Sie vermeiden, reguläre Installationen und solche mit Chocolatey auf einem System zu vermischen. Python unter Linux installieren Weil Linux-Distributionen teilweise erhebliche Unterschiede aufweisen, sollten Sie bei der Installation von Python unter dem Open-Source-Betriebssystem auch auf den Package Manager der jeweiligen Distribution zurückgreifen. Die Vorgehensweise bei der Installation unterscheidet sich beispielsweise im Fall von Ubuntu und Fedora grundlegend. Das Installations-Zielverzeichnis orientiert sich dabei im Regelfall an der Python-Versionsnummer (/usr/bin/python3.x). Ein Weg, die Komplexität im Umgang mit Linux-Package-Managern zu umgehen ist die Nutzung einer Container-basierten Python-Laufzeitumgebung. Container sind vom Rest des Systems isoliert – Sie müssen sich also auch keine Gedanken darüber machen, dass unterschiedliche Python-Laufzeitumgebungen Konflikte verursachen. Falls Sie keine Erfahrungen im Umgang mit Containern haben, müssen Sie allerdings ein wenig Zeit und Mühe einplanen, um sich mit der Materie vertraut zu machen. Das Tool asdf-vm ist hilfreich, um mehrere Python-Laufzeitumgebungen auf Unix-basierten Systemen (Linux und MacOS) zu managen. Dabei beschränkt sich das Tool nicht auf Python: auch mehrere Laufzeitumgebungen für Node.js, Ruby, Elixir und viele weitere Programmiersprachen können mit asdf-vm unter einen Hut gebracht werden. Python unter MacOS installieren Apples MacOS wurde lange mit einer vorinstallierten Python-Version ausgeliefert – allerdings kam dabei keine Version zum Einsatz, die neuer als 2.7 war. Das führte mit der Veröffentlichung von Python 3.0 des Öfteren zu Problemen beziehungsweise Konflikten. Die offizielle Python-Dokumentation geht am Rande auf dieses Problem ein, stellt als Lösungsansatz allerdings nur die Empfehlung bereit, den richtigen Pfad für die entsprechende Python-Instanz zu wählen. Die Nutzung des Homebrew Package Managers stellt einen gängigen Weg dar, um Python-Laufzeitumgebungen unter MacOS zu managen. Dieser stellt ein konsistentes Interface für Download, (De-)Installation und Management von Python zur Verfügung. Python Packages installieren Wenn Sie die Grundinstallation von Python abgeschlossen haben, sollten Sie im nächsten Schritt nicht direkt mit Pip (der Python Package Manager) die Packages installieren – selbst, wenn Sie Python nur für ein einzelnes Projekt nutzen wollen. Stattdessen empfiehlt es sich, virtuelle Python-Umgebungen aufzusetzen und die Packages innerhalb dieser Umgebungen zu installieren. So bleibt die Basis-Installation “clean”. Eine Vielzahl von Projekten mit virtuellen Umgebungen zu managen, kann sich anspruchsvoll gestalten. Hier empfiehlt sich ein Blick auf das Kommandozeilen-Tool Poetry. Mehrere Python-Versionen parallel installieren Richtig knifflig wird es, wenn mehrere verschiedene Versionen der Programmiersprache parallel installiert werden sollen. Hier sollten Sie insbesondere zwei Dinge beachten: Installieren Sie jede Python-Version immer in einem eigenen Verzeichnis. Stellen Sie sicher, dass die Systempfade zuerst auf die Python-Version verweisen, die standardmäßig zum Einsatz kommen soll. Die Einrichtung virtueller Umgebungen für jedes einzelne Projekt ist wärmstens zu empfehlen, wenn unterschiedliche Python-Versionen parallel zum Einsatz kommen sollen: So stellen Sie sicher, dass bei Aktivierung der entsprechenden virtuellen Umgebung immer automatisch die richtige Version der Coding-Sprache zum Einsatz kommt. Windows-Nutzern steht in diesem Zusammenhang mit der Py Launcher App eine weitere Option zur Verfügung. Diese kann im Rahmen des Installationsprozesses hinzugefügt werden und ermöglicht Ihnen, über Kommandozeilen-Flags auszuwählen, welche Python-Version für das jeweilige Script zum Einsatz kommen soll. Mehrere Python-Versionen unter Windows managen Bislang war es nicht wirklich möglich, unter Windows installierte Python-Versionen zu managen. Das soll sich künftig (ab Version 3.14) mit einem Tool ändern, das das Python-Kernteam neu entwickelt hat. Der Python Installation Manager for Windows ist derzeit als Betaversion verfügbar und soll künftig das Mittel der Wahl darstellen, um Installationen unter Windows zu verwalten. Weil der neue Installation Manager selbst nur eine normale Windows-App ist, gibt es mehrere Möglichkeiten, diesen zu installieren. Das funktioniert über:   den Microsoft Store, die offizielle Python-Website per Direkt-Download, oder den WinGet-Paketmanager (winget install 9NQ7512CXL7T). Das bisherige py-Tool soll künftig durch den Installation Manager ersetzt werden, wobei das neue Tool das alte in Sachen Funktionalität deutlich übertrifft. Die Befehle, die zuvor funktioniert haben, können weiterhin verwendet werden. Einen nützlichen Überblick über alle wichtigen Kommandos rufen Sie mit py help auf: IDG Um einzusehen, welche Python-Versionen bereits auf Ihrem Windows-System vorhanden sind, nutzen Sie den Befehl py list: IDG Wenn Sie an bereits installierten Python-Instanzen Änderungen vornehmen möchten, müssen Sie diese manuell entfernen und anschließend mit dem Installation Manager neu installieren. Das ist denkbar einfach: Python-Versionen fügen Sie mit py install hinzu, rufen diese nach der Installation mit py – auf, und nutzen py uninstall für die Deinstallation. Um zu sehen, welche Python-Versionen über den Manager verfügbar sind, nutzen Sie py list –online. Die hier gelisteten Python-Installationen lassen sich zudem mit dem Befehl py list -f=json im JSON-Format exportieren (CSV und JSONL sind ebenfalls verfügbar). Die standardmäßige Python-Version wird in der Auflistung durch ein Sternchen markiert: IDG Sobald Sie den Befehl py eingeben, wird diese Standard-Version aufgerufen. Falls Sie das ändern möchten, können Sie eine Umgebungsvariable definieren. Um etwa Python 3.12 als Standardversion festzulegen, würden Sie Powershell mit folgendem Kommando füttern:   $Env:PYTHON_MANAGER_DEFAULT=„3.12“ Ein Befehl wie py install könnte allerdings leicht mit vorkonfigurierten Befehlen in virtuellen Umgebungen oder mit einem anderen Alias kollidieren. Um das zu vermeiden, können Sie pymanager als eindeutigen Namen für den Installation Manager nutzen. Alle Befehle bleiben dabei unverändert, lediglich der Name der Executable ändert sich. IDG Darüber hinaus ist es auch möglich, die Windows App Execution Aliases für Befehle wie python und python3 anzupassen. Dazu geben Sie lediglich py install –configure ein. Sie werden dann aufgefordert, die Aliase Ihres Systems zu ändern: IDG Python richtig upgraden Weniger umfangreiche Python-Revisionen (etwa von 3.7.2 auf 3.7.3) stellen im Regelfall kein Problem dar: Unter Windows erkennt der Installer automatisch die installierte Version und stößt das entsprechende Upgrade an – unter Linux und MacOS in der Regel ebenso. Allerdings müssen auch alle virtuellen Umgebungen, die Sie erstellt haben, mit einem Upgrade versehen werden – das geschieht nicht automatisch. Bei großen Revisionen (etwa von 3.12 auf 3.13) sollten Sie hingegen neue virtuelle Umgebungen innerhalb der einzelnen Projektverzeichnisse erstellen. Die meisten IDEs die Python unterstützen (zum Beispiel Microsoft Visual Studio Code), erkennen das automatisch und ermöglichen Ihnen, zwischen den verschiedenen virtuellen Umgebungen hin- und her zu wechseln. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Tutorial: Python richtig installieren​ Python gilt als Shooting Star unter den Programmiersprachen. Wir sagen Ihnen, wie Sie die Installation unter Windows, Linux und MacOS reibungslos bewerkstelligen und was Sie dabei beachten sollten.
Foto: Flegere – shutterstock.com

Mit der einsteiger- und benutzerfreundlichen Programmiersprache Python können Sie nahezu jede erdenkliche Applikation coden. Aber es ist eben auch nur eine Software wie jede andere – Installation und Management können mitunter komplex ausfallen. Wir verraten Ihnen, wie Sie Python aufsetzen, die richtige Version für Ihre Zwecke ermitteln und mögliche Fallstricke bei der Installation unter Windows, Linux und MacOS vermeiden.

Die richtige Python-Version ermitteln

Um die Kompatibilität mit Drittanbieter-Modulen gewährleisten zu können, sollten Sie nicht auf die neueste Python-Version setzen. Stattdessen empfiehlt sich die letzte große Versionierung. Aktuell (Stand: Juni 2025) ist Python 3.13.5 die neueste Version. Um sicherzugehen, dass alles läuft, sollten Sie sich also für die letzte Revision von Python 3.12 entscheiden. Natürlich können Sie die neueste Python-Version jederzeit in einer geschützten Umgebung – etwa einer virtuellen Maschine – austesten.

Von Python existieren darüber hinaus auch verschiedene Distributionen – ganz ähnlich wie das bei Linux der Fall ist. Allerdings ist die Programmiersprache, im Gegensatz zu Linux, auch in einer offiziellen Version erhältlich, die Sie als Fallback-Option nutzen können: CPython wird von der Python Software Foundation zur Verfügung gestellt und ist die sicherste und kompatibelste Distribution. Mit anderen Python-Distributionen für spezifische Use Cases können Sie zu einem späteren Zeitpunkt jederzeit experimentieren.

Ein wesentlicher Punkt bei der Wahl der Python-Distribution – insbesondere unter Windows – ist die Entscheidung zwischen der 32-Bit- und der 64-Bit-Version. Sehr wahrscheinlich werden Sie sich für letztere entscheiden, denn:

die meisten modernen Betriebssysteme arbeiten standardmäßig mit der 64-Bit-Version von Python. Windows-Nutzer können die 32-Bit-Versionen der Coding-Sprache auch mit einem 64-Bit-Windows betreiben, müssen sich aber auf leichte Performance-Einbußen einstellen.

32-Bit-Applikationen – auch Python – können zeitgleich auf maximal 4 GB Arbeitsspeicher zugreifen. Dieses Limit kennen 64-Bit-Apps nicht. Hinzu kommt, dass viele Datenanalyse- und Machine-Learning-Tools innerhalb einer 64-bit-Umgebung am besten laufen.

Für die 32-Bit-Version von Python sollten Sie sich lediglich dann entscheiden, wenn Sie auch ein 32-Bit-Windows oder ein Drittanbieter-Modul nutzen (müssen), welches lediglich als 32-Bit-Version vorliegt.

Python unter Windows installieren

Wie bei nahezu jeder Applikation unter Windows läuft auch die Installation von Python über einen Installer ab, der Sie durch den Setup-Prozess geleitet. Standardmäßig legt der Python-Installer .exe-Dateien unter Windows im App-Data-Verzeichnis des jeweiligen Nutzers ab – so dass keine Administratorrechte für die Installation benötigt werden.

Den richtige Python Installer für Windows finden

Python.org stellt mehrere verschiedene Windows Installer zur Verfügung. Neben der 32-Bit- (x86) und der 64-Bit-Version (x86-64) auch ein embeddable Zip File, eine .exe-Datei sowie einen webbasierten Installer. Diese unterscheiden sich wie folgt:

Der .exe Installer ist lediglich eine ausführbare Datei, die den Installationsprozess von Python startet – das ist die gängigste und simpelste Lösung.

Der webbasierte Installer ist im Grunde identisch zu seinem .exe-Pendant, mit dem Unterschied, dass es die Dateien, die für die Installation nötig sind, separat herunterlädt. Dadurch reduziert sich die Größe des Installers drastisch, allerdings ist eine Netzwerkverbindung zwingend erforderlich.

Das embeddable Zip File ist eine in sich geschlossene, auf das Minimum reduzierte Kopie der Python-Laufzeitumgebung. Das ist nützlich, wenn Sie eine Python-Applikation manuell verteilen oder schnell etwas testen wollen. Allerdings enthält dieser Installer keines der nützlichen Tools, die die anderen Versionen an Bord haben.

Python mit einem Package Manager unter Windows installieren

Eine weitere Option unter Windows ist die Nutzung des betriebssystemeigenen Package-Management-Systems NuGet. Der Package Manager für .NET hat auch Python im Angebot, allerdings als Komponente für .NET-Applikationen und nicht, um als Installer für eine Standalone-Version von Python zum Einsatz zu kommen. Das Management Ihrer Python-Instanz dürfte sich deshalb mit einer regulären Installation einfacher gestalten.

Auch das Windows Package Management System Chocolatey stellt Python zur Verfügung. Das ist im Vergleich zu NuGet in der Regel die bessere Option, weil Ihr System dabei auf eine vorhandene Python-Laufzeitumgebung überprüft wird. Allerdings sollten Sie vermeiden, reguläre Installationen und solche mit Chocolatey auf einem System zu vermischen.

Python unter Linux installieren

Weil Linux-Distributionen teilweise erhebliche Unterschiede aufweisen, sollten Sie bei der Installation von Python unter dem Open-Source-Betriebssystem auch auf den Package Manager der jeweiligen Distribution zurückgreifen. Die Vorgehensweise bei der Installation unterscheidet sich beispielsweise im Fall von Ubuntu und Fedora grundlegend. Das Installations-Zielverzeichnis orientiert sich dabei im Regelfall an der Python-Versionsnummer (/usr/bin/python3.x).

Ein Weg, die Komplexität im Umgang mit Linux-Package-Managern zu umgehen ist die Nutzung einer Container-basierten Python-Laufzeitumgebung. Container sind vom Rest des Systems isoliert – Sie müssen sich also auch keine Gedanken darüber machen, dass unterschiedliche Python-Laufzeitumgebungen Konflikte verursachen. Falls Sie keine Erfahrungen im Umgang mit Containern haben, müssen Sie allerdings ein wenig Zeit und Mühe einplanen, um sich mit der Materie vertraut zu machen.

Das Tool asdf-vm ist hilfreich, um mehrere Python-Laufzeitumgebungen auf Unix-basierten Systemen (Linux und MacOS) zu managen. Dabei beschränkt sich das Tool nicht auf Python: auch mehrere Laufzeitumgebungen für Node.js, Ruby, Elixir und viele weitere Programmiersprachen können mit asdf-vm unter einen Hut gebracht werden.

Python unter MacOS installieren

Apples MacOS wurde lange mit einer vorinstallierten Python-Version ausgeliefert – allerdings kam dabei keine Version zum Einsatz, die neuer als 2.7 war. Das führte mit der Veröffentlichung von Python 3.0 des Öfteren zu Problemen beziehungsweise Konflikten. Die offizielle Python-Dokumentation geht am Rande auf dieses Problem ein, stellt als Lösungsansatz allerdings nur die Empfehlung bereit, den richtigen Pfad für die entsprechende Python-Instanz zu wählen.

Die Nutzung des Homebrew Package Managers stellt einen gängigen Weg dar, um Python-Laufzeitumgebungen unter MacOS zu managen. Dieser stellt ein konsistentes Interface für Download, (De-)Installation und Management von Python zur Verfügung.

Python Packages installieren

Wenn Sie die Grundinstallation von Python abgeschlossen haben, sollten Sie im nächsten Schritt nicht direkt mit Pip (der Python Package Manager) die Packages installieren – selbst, wenn Sie Python nur für ein einzelnes Projekt nutzen wollen. Stattdessen empfiehlt es sich, virtuelle Python-Umgebungen aufzusetzen und die Packages innerhalb dieser Umgebungen zu installieren. So bleibt die Basis-Installation “clean”.

Eine Vielzahl von Projekten mit virtuellen Umgebungen zu managen, kann sich anspruchsvoll gestalten. Hier empfiehlt sich ein Blick auf das Kommandozeilen-Tool Poetry.

Mehrere Python-Versionen parallel installieren

Richtig knifflig wird es, wenn mehrere verschiedene Versionen der Programmiersprache parallel installiert werden sollen. Hier sollten Sie insbesondere zwei Dinge beachten:

Installieren Sie jede Python-Version immer in einem eigenen Verzeichnis.

Stellen Sie sicher, dass die Systempfade zuerst auf die Python-Version verweisen, die standardmäßig zum Einsatz kommen soll.

Die Einrichtung virtueller Umgebungen für jedes einzelne Projekt ist wärmstens zu empfehlen, wenn unterschiedliche Python-Versionen parallel zum Einsatz kommen sollen: So stellen Sie sicher, dass bei Aktivierung der entsprechenden virtuellen Umgebung immer automatisch die richtige Version der Coding-Sprache zum Einsatz kommt. Windows-Nutzern steht in diesem Zusammenhang mit der Py Launcher App eine weitere Option zur Verfügung. Diese kann im Rahmen des Installationsprozesses hinzugefügt werden und ermöglicht Ihnen, über Kommandozeilen-Flags auszuwählen, welche Python-Version für das jeweilige Script zum Einsatz kommen soll.

Mehrere Python-Versionen unter Windows managen

Bislang war es nicht wirklich möglich, unter Windows installierte Python-Versionen zu managen. Das soll sich künftig (ab Version 3.14) mit einem Tool ändern, das das Python-Kernteam neu entwickelt hat. Der Python Installation Manager for Windows ist derzeit als Betaversion verfügbar und soll künftig das Mittel der Wahl darstellen, um Installationen unter Windows zu verwalten. Weil der neue Installation Manager selbst nur eine normale Windows-App ist, gibt es mehrere Möglichkeiten, diesen zu installieren. Das funktioniert über:  

den Microsoft Store,

die offizielle Python-Website per Direkt-Download, oder

den WinGet-Paketmanager (winget install 9NQ7512CXL7T).

Das bisherige py-Tool soll künftig durch den Installation Manager ersetzt werden, wobei das neue Tool das alte in Sachen Funktionalität deutlich übertrifft. Die Befehle, die zuvor funktioniert haben, können weiterhin verwendet werden. Einen nützlichen Überblick über alle wichtigen Kommandos rufen Sie mit py help auf:

IDG

Um einzusehen, welche Python-Versionen bereits auf Ihrem Windows-System vorhanden sind, nutzen Sie den Befehl py list:

IDG

Wenn Sie an bereits installierten Python-Instanzen Änderungen vornehmen möchten, müssen Sie diese manuell entfernen und anschließend mit dem Installation Manager neu installieren. Das ist denkbar einfach:

Python-Versionen fügen Sie mit py install hinzu,

rufen diese nach der Installation mit py – auf, und

nutzen py uninstall für die Deinstallation.

Um zu sehen, welche Python-Versionen über den Manager verfügbar sind, nutzen Sie py list –online. Die hier gelisteten Python-Installationen lassen sich zudem mit dem Befehl py list -f=json im JSON-Format exportieren (CSV und JSONL sind ebenfalls verfügbar). Die standardmäßige Python-Version wird in der Auflistung durch ein Sternchen markiert:

IDG

Sobald Sie den Befehl py eingeben, wird diese Standard-Version aufgerufen. Falls Sie das ändern möchten, können Sie eine Umgebungsvariable definieren. Um etwa Python 3.12 als Standardversion festzulegen, würden Sie Powershell mit folgendem Kommando füttern:  

$Env:PYTHON_MANAGER_DEFAULT=„3.12“

Ein Befehl wie py install könnte allerdings leicht mit vorkonfigurierten Befehlen in virtuellen Umgebungen oder mit einem anderen Alias kollidieren. Um das zu vermeiden, können Sie pymanager als eindeutigen Namen für den Installation Manager nutzen. Alle Befehle bleiben dabei unverändert, lediglich der Name der Executable ändert sich.

IDG

Darüber hinaus ist es auch möglich, die Windows App Execution Aliases für Befehle wie python und python3 anzupassen. Dazu geben Sie lediglich py install –configure ein. Sie werden dann aufgefordert, die Aliase Ihres Systems zu ändern:

IDG

Python richtig upgraden

Weniger umfangreiche Python-Revisionen (etwa von 3.7.2 auf 3.7.3) stellen im Regelfall kein Problem dar: Unter Windows erkennt der Installer automatisch die installierte Version und stößt das entsprechende Upgrade an – unter Linux und MacOS in der Regel ebenso. Allerdings müssen auch alle virtuellen Umgebungen, die Sie erstellt haben, mit einem Upgrade versehen werden – das geschieht nicht automatisch.

Bei großen Revisionen (etwa von 3.12 auf 3.13) sollten Sie hingegen neue virtuelle Umgebungen innerhalb der einzelnen Projektverzeichnisse erstellen. Die meisten IDEs die Python unterstützen (zum Beispiel Microsoft Visual Studio Code), erkennen das automatisch und ermöglichen Ihnen, zwischen den verschiedenen virtuellen Umgebungen hin- und her zu wechseln.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Tutorial: Python richtig installieren​ Weiterlesen »

Version Control Systems – ein Ratgeber​

Allgemein

Ohne agile, skalierbare und performante Versionskontrollsysteme wird’s schwer mit dem Softwareerfolg. Foto: lilik ferri yanto | shutterstock.com Version Control Systems (VCS) unterstützen Entwicklungs-Teams dabei, sämtliche Änderungen am Quellcode im Zeitverlauf zu verfolgen. Das ermöglicht nicht nur zu prüfen, wer wann was geändert hat sondern auch einen Rollback auf frühere Versionen – und etabliert eine Single Source of Truth. Im Folgenden lesen Sie: wie sich der Markt für Versionskontrollsysteme entwickelt, was entsprechende Lösungen leisten sollten und welche Version Control Systems derzeit relevant sind. Der Markt für Versionskontrollsysteme Wir blicken zunächst auf einige Zahlen und Einschätzungen zur künftigen Marktentwicklung und werfen anschließend einen Blick auf den aktuellen Stand der Entwicklung sowie neu aufkommende Trends im Bereich der Versionskontrollsysteme. Prognose Die Bedeutung der Versionskontrolle steigt in einer Welt, in der Software und Daten essenzielle Güter sind und Produkte immer schneller auf den Markt gebracht werden müssen, zunehmend. Dabei entwickeln sich auch die Lösungen in diesem Bereich kontinuierlich weiter, um den steigenden Anforderungen an Flexibilität, Skalierbarkeit und Performance gerecht zu werden. Stichwort GenAI. Jim Mercer, Program Vice President für die Bereiche Software Development, DevOps & DevSecOps bei IDC, setzt das Thema in einen Kontext: “Version Control oder Source Control Management war ursprünglich für den Quellcode von Softwareentwicklern gedacht. Da wir uns aber in Richtung eines Everything-as-Code-Ansatzes bewegen, steigt auch die Zahl der Anwender von Versionskontrollsystemen.” Christopher Condo, Principal Analyst bei Forrester Research, sieht das ähnlich: “Dass die Nachfrage sowohl bei traditioneller Software als auch in neuen Bereichen wie Infrastructure– und Policy as a Code oder Low-Code weiter wächst, hat einen direkten Impact auf die Nachfrage nach Versionskontrollsystemen – schließlich sind diese für jede Art von Programmcode nötig.” Auch die Berater von Acumen Research & Consulting prophezeihen dem VCS-Markt in einer Analyse fortgesetztes Wachstum. Demnach soll dieser auf globaler Ebene bis zum Jahr 2030 auf 2,68 Milliarden Dollar anschwellen (2021: 982 Millionen Dollar) – mit einer jährlichen Wachstumsrate von 11,9 Prozent. Laut den Analysten sollen dabei vor allem die zunehmend populären Cloud-basierten Versionskontrollsysteme als Wachstumstreiber fungieren. Status Quo Laut IDC-Mann Mercer wurden in den letzten zwanzig Jahren diverse Version Control Systems entwickelt – etwa Subversion, ClearCase, Mercurial und andere. “Die meisten Teams bevorzugen allerdings Lösungen, die auf dem Open-Source-Projekt Git basieren”, erklärt er. Hier seien die wichtigsten Optionen GitHub, GitLab und Bitbucket. Das Gros der übrigen Versionskontrollsysteme habe angesichts der Git-Dominanz entweder entsprechende Brücken oder Integrationen geschaffen.” Mercer zufolge haben sich VCS wie GitLab und GitHub dank zahlreicher hinzugekommener Funktionen inzwischen zu vollwertigen Devops-Plattformen entwickelt. “Zudem haben sich Version Control Systems auch mit Blick auf die Sicherheit und die Möglichkeit, Richtlinien zu erstellen, weiterentwickelt.” Auch Thomas Murphy, Senior Director Analyst bei Gartner, attestiert GitHub, GitLab und Bitbucket eine dramatische Weiterentwicklung: “Diese Plattformen wollen die ‘moderne Entwicklerumgebung’ sein: Sie kümmern sich um den Build, managen das Projekt sowie die Dokumentation und können auch noch die Software verpacken, testen und bereitstellen.” Trends Der Gartner-Chefanalyst merkt an, dass diese Plattformen inzwischen auch generative KI-Assistenten einsetzen, um bei Code-Aktualisierung und -Erstellung sowie anderen Tasks zu unterstützen. Allerdings bereite Generative AI – und insbesondere die Art und Weise, wie die der Technologie zugrundeliegenden Large Language Models (LLMs) trainiert werden – einigen Anwendern zunehmend Sorgen, führt Forrester-Analyst Condo an: “Tools wie GitHub Copilot nutzen Quellcode aus öffentlichen Versionskontrollsystemen, die sie hosten, um ihr Modell zu trainieren.” Die Anwender sollten sich deshalb genau überlegen, ob sie damit einverstanden sind oder es vorziehen, ihren Code nicht zu KI-Trainingsmaterial zu machen, so der Analyst. Er warnt: “Unternehmen, die sensiblen Algorithmen nutzen oder Angst um ihr geistiges Eigentum haben, sollten davon die Finger lassen.” Ein weiterer Trend ist die zunehmende Verlagerung hin zu Cloud-basierten Versionskontrollsystemen. Laut den Experten von Acumen Research & Consulting erschließt das Benefits wie: Echtzeit-Collaboration, Zugriff von jedem Ort sowie zu jeder Zeit und niedrigere Anschaffungskosten (im Vergleich zu On-Premises-Systemen). “GitHub, GitLab und andere Online-Repositories ermöglichen es Unternehmen, ihre Software-as-a-Service-Produkte zu nutzen, ohne ein selbstgehostetes Versionskontrollsystem betreiben zu müssen. Das erleichtert die länderübergreifende Zusammenarbeit”, erläutert Condo. Unternehmen, die sich dafür entscheiden, ihr eigenes Versionskontrollsystem On-Premises zu betreiben, sollten nach Empfehlung des Forrester-Analysten in jedem Fall über die dafür notwendigen Skills und Ressourcen verfügen – zumindest wenn sie damit erfolgreich sein wollten. Das sollte Versionskontrolle leisten Grundsätzlich ermöglicht ein Version Control System es den Entwicklern, verschiedene Versionen von Quellcode, Konfigurationen und anderen Artefakten zu managen, die sich im Zeitverlauf verändern. Je nach Art und Größe sowie Prioritäten des Unternehmens sind jedoch auch weitere wichtige Funktionen relevant. Dazu gehören laut IDC-Experte Mercer und Forrester-Analyst Condo: Skalierbarkeit: Version Control Systems sollten Devs und andere Anwender in die Lage versetzen, Code domänen- und plattformübergreifend zu managen – insbesondere, wenn es sich um wachsende Unternehmen mit expandierenden Entwicklungsinitiativen handelt. Performance: Software für die Versionskontrolle sollte überall dort, wo sie in einem Unternehmen eingesetzt wird, gut funktionieren. Branching: VCS sollten zudem über BRanching-Funktionen verfügen. Das ermöglicht, Objekte im Rahmen der Versionskontrolle zu duplizieren, so dass jedes nachfolgende Objekt separat und parallel geändert werden kann. Branches mit Trunks mergen zu können, ist diesbezüglich eine weitere, wichtige Funktion. Collaboration: Für moderne Versionskontrollsysteme sind Funktionen für die Zusammenarbeit unerlässlich. Schließlich steigt die Zahl der verteilt arbeitenden Dev-Teams – was effektive Collaboration umso wichtiger macht. VCS stellen dabei sicher, dass alle mit der gleichen Quelle arbeiten, unabhängig davon, ob es sich um eine einzelne Codebasis oder mehrere Branches handelt. APIs: Auch die Erweiterbarkeit über sichere Schnittstellen ist ein wichtiges Merkmal bei Versionskontrollsystemen. Die sind nämlich zunehmend das System der Wahl, um Automatisierungen in den Bereichen Testing, Deployment und Release zu orchestrieren und in die Produktion zu überführen. Sichere APIs sind dabei nötig, um VCS und Release Management Tools zu integrieren und Continuous Delivery zu erreichen. Datenintegrität: Anwender sollten sich auf die Versionshistorie verlassen können und je nach Bedarf die Version im Zeitverlauf wählen können, die sie benötigen. Die wichtigsten Version Control Systems Abschließend ein kurzer Überblick über die derzeit relevanten Versionskontrollsysteme und ihre wesentlichen Features. Apache Subversion Dieses Softwareversionierungs- und Versionskontrollsystem wird als Open Source Software unter der Apache-Lizenz vertrieben. Entwickler können Apache Subversion nutzen, um aktuelle und historische Versionen von Dateien (einschließlich Quellcode), Webseiten und Dokumentation zu managen. Bitbucket Dieser Git-basierte Quellcode-Repository-Hosting-Service gehört zum Portfolio von Atlassian. Bitbucket bietet sowohl kommerzielle Versionen (mit verschiedenen Preisplänen) als auch kostenlose Konten (mit einer unbegrenzten Anzahl privater Repositories) an. Dieses Tool kommt hauptsächlich für Source Code und Code-Reviews zum Einsatz. Git Das populärste Version Control System ist ein kostenloses, quelloffenes Devops-Tool, das auch genutzt werden kann, um Source Code zu managen. Git eignet sich dabei für Projekte jeder Größe und ermöglicht es unter anderem mehreren Devs, bei nicht-linearen Entwicklungsprojekten zu kollaborieren. GitHub Die Plattform ermöglicht Developern, Code zu erstellen, zu managen und gemeinsam zu nutzen. GitHub kombiniert dabei die verteilte Versionskontrolle von Git mit Access Control, Bug Tracking, Task Management und anderen Funktionen. Darüber hinaus kann die Plattform auch ein ausgedehntes Open-Source-Repository bieten und verfügt über Tools, um Softwareprojekte und Communities zu managen. Ein breites Partner-Portfolio versorgt Anwender zudem mit Add-In-Funktionen. GitLab Die Basis für GitLab bildet, wie die Nomenklatur bereits nahelegt, Git. Dieser quelloffene Repository-Manager kommt in erster Linie zu Collaboration- und Versionskontroll-Zwecken zum Einsatz. Mercurial Dieses kostenlose, verteilte Source-Control-Management-Tool befähigt Softwareentwickler, Projekte jeder Größe zu managen. Mercurial wurde zudem vor allem mit Blick auf Plattformunabhängigkeit entwickelt. Perforce Diese Versionskontrollplattform unterstützt ebenfalls Git, bietet aber mit “Helix Core” ein proprietäres Produkt. Das Tool wird genutzt, um Änderungen an Quellcode, digitalen Assets und großen Binärdateien zu tracken und zu managen. Team Foundation Version Control Bei dieser Plattform von Microsoft handelt es sich um ein zentralisiertes Version Control System. Team Foundation Version Control befähigt Anwender zum Beispiel, granulare Berechtigungen zu vergeben und den Zugriff bis auf Dateiebene zu beschränken. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Version Control Systems – ein Ratgeber​ Ohne agile, skalierbare und performante Versionskontrollsysteme wird’s schwer mit dem Softwareerfolg.
Foto: lilik ferri yanto | shutterstock.com

Version Control Systems (VCS) unterstützen Entwicklungs-Teams dabei, sämtliche Änderungen am Quellcode im Zeitverlauf zu verfolgen. Das ermöglicht nicht nur zu prüfen, wer wann was geändert hat sondern auch einen Rollback auf frühere Versionen – und etabliert eine Single Source of Truth.

Im Folgenden lesen Sie:

wie sich der Markt für Versionskontrollsysteme entwickelt,

was entsprechende Lösungen leisten sollten und

welche Version Control Systems derzeit relevant sind.

Der Markt für Versionskontrollsysteme

Wir blicken zunächst auf einige Zahlen und Einschätzungen zur künftigen Marktentwicklung und werfen anschließend einen Blick auf den aktuellen Stand der Entwicklung sowie neu aufkommende Trends im Bereich der Versionskontrollsysteme.

Prognose

Die Bedeutung der Versionskontrolle steigt in einer Welt, in der Software und Daten essenzielle Güter sind und Produkte immer schneller auf den Markt gebracht werden müssen, zunehmend. Dabei entwickeln sich auch die Lösungen in diesem Bereich kontinuierlich weiter, um den steigenden Anforderungen an Flexibilität, Skalierbarkeit und Performance gerecht zu werden. Stichwort GenAI.

Jim Mercer, Program Vice President für die Bereiche Software Development, DevOps & DevSecOps bei IDC, setzt das Thema in einen Kontext: “Version Control oder Source Control Management war ursprünglich für den Quellcode von Softwareentwicklern gedacht. Da wir uns aber in Richtung eines Everything-as-Code-Ansatzes bewegen, steigt auch die Zahl der Anwender von Versionskontrollsystemen.”

Christopher Condo, Principal Analyst bei Forrester Research, sieht das ähnlich: “Dass die Nachfrage sowohl bei traditioneller Software als auch in neuen Bereichen wie Infrastructure– und Policy as a Code oder Low-Code weiter wächst, hat einen direkten Impact auf die Nachfrage nach Versionskontrollsystemen – schließlich sind diese für jede Art von Programmcode nötig.”

Auch die Berater von Acumen Research & Consulting prophezeihen dem VCS-Markt in einer Analyse fortgesetztes Wachstum. Demnach soll dieser auf globaler Ebene bis zum Jahr 2030 auf 2,68 Milliarden Dollar anschwellen (2021: 982 Millionen Dollar) – mit einer jährlichen Wachstumsrate von 11,9 Prozent. Laut den Analysten sollen dabei vor allem die zunehmend populären Cloud-basierten Versionskontrollsysteme als Wachstumstreiber fungieren.

Status Quo

Laut IDC-Mann Mercer wurden in den letzten zwanzig Jahren diverse Version Control Systems entwickelt – etwa Subversion, ClearCase, Mercurial und andere. “Die meisten Teams bevorzugen allerdings Lösungen, die auf dem Open-Source-Projekt Git basieren”, erklärt er. Hier seien die wichtigsten Optionen GitHub, GitLab und Bitbucket. Das Gros der übrigen Versionskontrollsysteme habe angesichts der Git-Dominanz entweder entsprechende Brücken oder Integrationen geschaffen.”

Mercer zufolge haben sich VCS wie GitLab und GitHub dank zahlreicher hinzugekommener Funktionen inzwischen zu vollwertigen Devops-Plattformen entwickelt. “Zudem haben sich Version Control Systems auch mit Blick auf die Sicherheit und die Möglichkeit, Richtlinien zu erstellen, weiterentwickelt.”

Auch Thomas Murphy, Senior Director Analyst bei Gartner, attestiert GitHub, GitLab und Bitbucket eine dramatische Weiterentwicklung: “Diese Plattformen wollen die ‘moderne Entwicklerumgebung’ sein: Sie kümmern sich um den Build, managen das Projekt sowie die Dokumentation und können auch noch die Software verpacken, testen und bereitstellen.”

Trends

Der Gartner-Chefanalyst merkt an, dass diese Plattformen inzwischen auch generative KI-Assistenten einsetzen, um bei Code-Aktualisierung und -Erstellung sowie anderen Tasks zu unterstützen. Allerdings bereite Generative AI – und insbesondere die Art und Weise, wie die der Technologie zugrundeliegenden Large Language Models (LLMs) trainiert werden – einigen Anwendern zunehmend Sorgen, führt Forrester-Analyst Condo an: “Tools wie GitHub Copilot nutzen Quellcode aus öffentlichen Versionskontrollsystemen, die sie hosten, um ihr Modell zu trainieren.”

Die Anwender sollten sich deshalb genau überlegen, ob sie damit einverstanden sind oder es vorziehen, ihren Code nicht zu KI-Trainingsmaterial zu machen, so der Analyst. Er warnt: “Unternehmen, die sensiblen Algorithmen nutzen oder Angst um ihr geistiges Eigentum haben, sollten davon die Finger lassen.”

Ein weiterer Trend ist die zunehmende Verlagerung hin zu Cloud-basierten Versionskontrollsystemen. Laut den Experten von Acumen Research & Consulting erschließt das Benefits wie:

Echtzeit-Collaboration,

Zugriff von jedem Ort sowie zu jeder Zeit und

niedrigere Anschaffungskosten (im Vergleich zu On-Premises-Systemen).

“GitHub, GitLab und andere Online-Repositories ermöglichen es Unternehmen, ihre Software-as-a-Service-Produkte zu nutzen, ohne ein selbstgehostetes Versionskontrollsystem betreiben zu müssen. Das erleichtert die länderübergreifende Zusammenarbeit”, erläutert Condo. Unternehmen, die sich dafür entscheiden, ihr eigenes Versionskontrollsystem On-Premises zu betreiben, sollten nach Empfehlung des Forrester-Analysten in jedem Fall über die dafür notwendigen Skills und Ressourcen verfügen – zumindest wenn sie damit erfolgreich sein wollten.

Das sollte Versionskontrolle leisten

Grundsätzlich ermöglicht ein Version Control System es den Entwicklern, verschiedene Versionen von Quellcode, Konfigurationen und anderen Artefakten zu managen, die sich im Zeitverlauf verändern. Je nach Art und Größe sowie Prioritäten des Unternehmens sind jedoch auch weitere wichtige Funktionen relevant. Dazu gehören laut IDC-Experte Mercer und Forrester-Analyst Condo:

Skalierbarkeit: Version Control Systems sollten Devs und andere Anwender in die Lage versetzen, Code domänen- und plattformübergreifend zu managen – insbesondere, wenn es sich um wachsende Unternehmen mit expandierenden Entwicklungsinitiativen handelt.

Performance: Software für die Versionskontrolle sollte überall dort, wo sie in einem Unternehmen eingesetzt wird, gut funktionieren.

Branching: VCS sollten zudem über BRanching-Funktionen verfügen. Das ermöglicht, Objekte im Rahmen der Versionskontrolle zu duplizieren, so dass jedes nachfolgende Objekt separat und parallel geändert werden kann. Branches mit Trunks mergen zu können, ist diesbezüglich eine weitere, wichtige Funktion.

Collaboration: Für moderne Versionskontrollsysteme sind Funktionen für die Zusammenarbeit unerlässlich. Schließlich steigt die Zahl der verteilt arbeitenden Dev-Teams – was effektive Collaboration umso wichtiger macht. VCS stellen dabei sicher, dass alle mit der gleichen Quelle arbeiten, unabhängig davon, ob es sich um eine einzelne Codebasis oder mehrere Branches handelt.

APIs: Auch die Erweiterbarkeit über sichere Schnittstellen ist ein wichtiges Merkmal bei Versionskontrollsystemen. Die sind nämlich zunehmend das System der Wahl, um Automatisierungen in den Bereichen Testing, Deployment und Release zu orchestrieren und in die Produktion zu überführen. Sichere APIs sind dabei nötig, um VCS und Release Management Tools zu integrieren und Continuous Delivery zu erreichen.

Datenintegrität: Anwender sollten sich auf die Versionshistorie verlassen können und je nach Bedarf die Version im Zeitverlauf wählen können, die sie benötigen.

Die wichtigsten Version Control Systems

Abschließend ein kurzer Überblick über die derzeit relevanten Versionskontrollsysteme und ihre wesentlichen Features.

Apache Subversion

Dieses Softwareversionierungs- und Versionskontrollsystem wird als Open Source Software unter der Apache-Lizenz vertrieben. Entwickler können Apache Subversion nutzen, um aktuelle und historische Versionen von Dateien (einschließlich Quellcode), Webseiten und Dokumentation zu managen.

Bitbucket

Dieser Git-basierte Quellcode-Repository-Hosting-Service gehört zum Portfolio von Atlassian. Bitbucket bietet sowohl kommerzielle Versionen (mit verschiedenen Preisplänen) als auch kostenlose Konten (mit einer unbegrenzten Anzahl privater Repositories) an. Dieses Tool kommt hauptsächlich für Source Code und Code-Reviews zum Einsatz.

Git

Das populärste Version Control System ist ein kostenloses, quelloffenes Devops-Tool, das auch genutzt werden kann, um Source Code zu managen. Git eignet sich dabei für Projekte jeder Größe und ermöglicht es unter anderem mehreren Devs, bei nicht-linearen Entwicklungsprojekten zu kollaborieren.

GitHub

Die Plattform ermöglicht Developern, Code zu erstellen, zu managen und gemeinsam zu nutzen. GitHub kombiniert dabei die verteilte Versionskontrolle von Git mit Access Control, Bug Tracking, Task Management und anderen Funktionen. Darüber hinaus kann die Plattform auch ein ausgedehntes Open-Source-Repository bieten und verfügt über Tools, um Softwareprojekte und Communities zu managen. Ein breites Partner-Portfolio versorgt Anwender zudem mit Add-In-Funktionen.

GitLab

Die Basis für GitLab bildet, wie die Nomenklatur bereits nahelegt, Git. Dieser quelloffene Repository-Manager kommt in erster Linie zu Collaboration- und Versionskontroll-Zwecken zum Einsatz.

Mercurial

Dieses kostenlose, verteilte Source-Control-Management-Tool befähigt Softwareentwickler, Projekte jeder Größe zu managen. Mercurial wurde zudem vor allem mit Blick auf Plattformunabhängigkeit entwickelt.

Perforce

Diese Versionskontrollplattform unterstützt ebenfalls Git, bietet aber mit “Helix Core” ein proprietäres Produkt. Das Tool wird genutzt, um Änderungen an Quellcode, digitalen Assets und großen Binärdateien zu tracken und zu managen.

Team Foundation Version Control

Bei dieser Plattform von Microsoft handelt es sich um ein zentralisiertes Version Control System. Team Foundation Version Control befähigt Anwender zum Beispiel, granulare Berechtigungen zu vergeben und den Zugriff bis auf Dateiebene zu beschränken. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Version Control Systems – ein Ratgeber​ Weiterlesen »

Zuckerbergs Hologramm-Visionen​

Allgemein

Das Metaverse lebt… irgendwie.Hadrian | shutterstock.com Meta-Gründer und -CEO Mark Zuckerberg war vor kurzem zu Gast im Podcast von Theo Von, einem (Trump-nahen) Comedian. Bei dieser Gelegenheit ging Zuckerberg auch auf seine Vision der technologischen Zukunft ein. In dieser sind die allermeisten physischen Objekte – vom Buch, über das Brettspiel bis hin zur Tischtennisplatte – überflüssig. Der Grund: Sie werden durch Hologramme substituiert, die über Augmented-Reality-Brillen betrachtet werden. So zumindest die Prognose des Facebook-Erfinders. Doch damit nicht genug: Zuck geht außerdem davon aus, dass bereits in den nächsten vier Jahren bis zu zwei Milliarden Menschen AR-Brillen statt ihrer Smartphones nutzen könnten. Der Hologramm-Status-Quo Die Voraussetzung dafür wäre allerdings, dass die Benutzer auch tatsächlich physische Objekte durch virtuelle ersetzen wollen. Wovon bislang eher nicht die Rede sein kann, wie Apples Vision Pro zeigt. Die Mixed-Reality-Brille ist bereits seit 2024 erhältlich und ermöglicht bereits jetzt, mit digitalen Objekten in realen Umgebungen zu interagieren. So könnte man schon heute etwa riesige Fernsehbildschirme virtualisieren. Und obwohl der UVP der Apple-Brille mit 3.500 Dollar weit unter dem eines 221-Zoll-TV liegen dürfte, ist bislang kaum ein Verbraucher davon überzeugt, dass die Apple-Brille ihr Geld wert ist. Zugegeben: Dieser Vergleich hinkt ein bisschen. Man könnte argumentieren, dass ein TV nicht wirklich durch die Vision Pro ersetzt werden kann, weil dann nur jeweils eine Person schauen kann. Und: In Zuckerbergs Zukunft werden Hologramme außerdem nicht mehr über sperrige Gerätschaften wie die Vision Pro übertragen, sondern über Brillen, die nicht wesentlich schwerer oder größer sind als ihre herkömmlichen Pendants. Dennoch: Aktuell leben wir noch in einer Welt, in der kein populäres Consumer-Technikprodukt mit Hologrammen arbeitet – und sämtliche Produkte in diesem Bereich ein Nischendasein fristen. Einige Beispiele: Looking Glass hat mit dem Go ein klappbares, holografisches Display im Taschenformat im Angebot. Mit der zugehörigen Software lassen sich normale Digitalfotos in 3D-Hologramme umwandeln, die sich dann auf dem Display anzeigen lassen. Holloconnects adressiert mit seiner Holobox das Unternehmensumfeld. Die interaktiven 3D-Hologramm-Displays (die in verschiedenen Ausführungen erhältlich sind) können unter anderem im Retail-Bereich für Produktbewerbungen und -Previews oder in der Telemedizin eingesetzt werden und lassen sich auch mit KI-Avataren kombinieren. Der Anbieter produziert bei Bedarf auch maßgeschneiderte holografische Inhalte nach Kundenwunsch. Proto bietet mit seiner Hologramm-Kabine Epic die Möglichkeit, lebensgroße 3D-Abbilder von Personen in Echtzeit anzuzeigen. Das Produkt ist für Remote-Meetings oder Veranstaltungen gedacht und ermöglicht seinem Benutzer, weltweit virtuell präsent zu sein. Die Kabinen von Proto sind immerhin bereits an einigen Flughäfen, Konferenzzentren und Retail-Geschäften in den USA und Europa installiert. Leia Inc. verkauft sein Lume Pad 2 derzeit ausschließlich in den USA. Das Tablet-Device (läuft auf Android) verspricht, 3D-Inhalte zu generieren, die ganz ohne Brille konsumiert werden können, dafür aber mit künstlicher Intelligenz optimiert werden. Laut dem Hersteller ist das Device mit seinen integrierten stereoskopischen Kameras der ideale Begleiter für “3D-Content-Enthusiasten”. zSpace bietet sowohl holografische Produkte als auch Services für Unternehmen an. Die Technologie des Unternehmens ermöglicht realistische 3D-Visualisierungen über proprietäre Display-Technologie, eine trackbare Brille und einen Stift. So können die Benutzer mit digitalen Objekten wie in der echten Welt interagieren. Der Anbieter adressiert in erster Linie die Manufacturing- und Healthcare-Branche sowie den Forschungsbereich. Hypervsn hat ebenfalls eine holografische 3D-Display-Technologie für Unternehmen im Angebot. Mit ihr lassen sich hochauflösende Hologramme realisieren, die ohne Brille betrachtet werden können. Zur Produktpalette gehört unter anderem die modulare, skalierbare 3D-Hologramm-Wand SmartV Wall. Die Displays von Hypervsn werden vornehmlich für Werbekampagnen, größere Events und in Showrooms eingesetzt. Light Field Lab vertreibt mit SolidLight nach eigener Aussage das “Display der nächsten Generation”. Das Produkt ist in der Lage, aus modularen, direkt emittierenden Panels dichte, konvergierende Lichtwellenfronten zu erzeugen. Das Resultat sind holografische Objekte, die in der Luft zu schweben scheinen und aus mehreren Blickwinkeln mit korrekter Bewegungsparallaxe, Reflexionen und Brechungen betrachtet werden können. Diese Hologramm-Lösung ist zum Beispiel für Entertainment-Zwecke, immersive Werbung und digitale Beschilderungen in öffentlichen Räumen geeignet. Voxon Photonics produziert fortschrittliche volumetrische Displays, die interaktive 3D-Hologramme mit Millionen von Lichtpunkten in Echtzeit erzeugen. Die Displays versprechen ein 3D-Erlebnis ganz ohne Brille oder Headset und eignen sich laut Hersteller für “Shared Environments” wie Museen, Kinosäale oder die Meeting-Räume von Unternehmen. Realfiction ist ebenfalls auf holografische Displays spezialisiert, die es ermöglichen, entsprechende Inhalte ohne Brille zu konsumieren. Die Technologie des Anbieters eignet sich für diverse Anwendungsfälle – von der Automotive- über die Kommunikations-Lösung bis hin zu Entwicklungsumgebungen für 3D-Visualisierungen. Die Wahrscheinlichkeit, dass Sie noch nie zuvor von einer dieser Firmen oder ihren Lösungen gehört haben, ist hoch. Und das nicht ohne Grund: Holografische Produkte und Services existieren schon seit Jahren, sind aber bislang nicht über den Status des Marketing-Gimmicks hinausgekommen. Schöne, neue Fake-Welt? Was Meta-CEO Zuckerberg vorschwebt, geht jedoch noch ein paar Schritte weiter und hat nichts mehr mit Einzelprodukten für Unternehmen oder Verbraucher zu tun. In seiner Vision existiert ein ganzes Ökosystem von holografischen Inhalten, die über eine Brille, die so gut wie jeder täglich auf der Nase hat, konsumiert werden sollen. Meine persönliche Meinung: Ich zweifle sowohl an Zuckerbergs Motiven als auch an seiner prädiktiven Treffsicherheit. Zunächst einmal scheint der Meta-CEO zu glauben, dass die Zukunft der sozialen Netzwerke darin liegt, Menschen mit KI zu sozialisieren. So ließ er im April 2024 im Podcast mit dem KI-Experten Dwarkesh Patel verlauten, dass Durchschnittsmenschen nach mehr Vernetzung und Verbindungen streben als sie haben. Eine Lücke, die Zuck vorzugsweise mit “virtuellen Freunden” in Form von KI-Chatbots füllen möchte. Dabei kritisierte er parallel das “Stigma”, das Freundschaften zwischen Mensch und KI anhafte, und zeigte sich fest davon überzeugt, dass diese Verbindungen in Zukunft gesellschaftliche Akzeptanz erfahren. Dass sein Unternehmen genau die Tools und Services zur Verfügung stellt, um diese Vision umzusetzen, ist natürlich reiner Zufall. Ebenso, wie Zuckerbergs Vorstoß in Sachen AR-Brillen und die enormen Investments von Meta in diese Technologie.   Im Grunde ist Zuckerbergs “neue” Tech-Zukunftsvision der alten Idee vom Metaverse ziemlich ähnlich: Menschen leben mit Fake-Freunden in einer Fake-Umgebung, lesen Fake-Bücher, spielen Fake-Schach und fläzen virtuell vor Fake-Bildschirmen – und lassen all ihr Geld bei Meta, statt in Kinos, Bars und Buchläden. Dass eine Zukunft dieser Art für Zuckerberg reizvoll ist, kann ich mir gut vorstellen. Alle anderen sind wahrscheinlich eher weniger begeistert – nicht nur, weil es keine physischen Objekte mehr gibt. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Zuckerbergs Hologramm-Visionen​ Das Metaverse lebt… irgendwie.Hadrian | shutterstock.com

Meta-Gründer und -CEO Mark Zuckerberg war vor kurzem zu Gast im Podcast von Theo Von, einem (Trump-nahen) Comedian. Bei dieser Gelegenheit ging Zuckerberg auch auf seine Vision der technologischen Zukunft ein.

In dieser sind die allermeisten physischen Objekte – vom Buch, über das Brettspiel bis hin zur Tischtennisplatte – überflüssig. Der Grund: Sie werden durch Hologramme substituiert, die über Augmented-Reality-Brillen betrachtet werden. So zumindest die Prognose des Facebook-Erfinders. Doch damit nicht genug: Zuck geht außerdem davon aus, dass bereits in den nächsten vier Jahren bis zu zwei Milliarden Menschen AR-Brillen statt ihrer Smartphones nutzen könnten.

Der Hologramm-Status-Quo

Die Voraussetzung dafür wäre allerdings, dass die Benutzer auch tatsächlich physische Objekte durch virtuelle ersetzen wollen. Wovon bislang eher nicht die Rede sein kann, wie Apples Vision Pro zeigt. Die Mixed-Reality-Brille ist bereits seit 2024 erhältlich und ermöglicht bereits jetzt, mit digitalen Objekten in realen Umgebungen zu interagieren. So könnte man schon heute etwa riesige Fernsehbildschirme virtualisieren. Und obwohl der UVP der Apple-Brille mit 3.500 Dollar weit unter dem eines 221-Zoll-TV liegen dürfte, ist bislang kaum ein Verbraucher davon überzeugt, dass die Apple-Brille ihr Geld wert ist.

Zugegeben: Dieser Vergleich hinkt ein bisschen. Man könnte argumentieren, dass ein TV nicht wirklich durch die Vision Pro ersetzt werden kann, weil dann nur jeweils eine Person schauen kann. Und: In Zuckerbergs Zukunft werden Hologramme außerdem nicht mehr über sperrige Gerätschaften wie die Vision Pro übertragen, sondern über Brillen, die nicht wesentlich schwerer oder größer sind als ihre herkömmlichen Pendants. Dennoch: Aktuell leben wir noch in einer Welt, in der kein populäres Consumer-Technikprodukt mit Hologrammen arbeitet – und sämtliche Produkte in diesem Bereich ein Nischendasein fristen.

Einige Beispiele:

Looking Glass hat mit dem Go ein klappbares, holografisches Display im Taschenformat im Angebot. Mit der zugehörigen Software lassen sich normale Digitalfotos in 3D-Hologramme umwandeln, die sich dann auf dem Display anzeigen lassen.

Holloconnects adressiert mit seiner Holobox das Unternehmensumfeld. Die interaktiven 3D-Hologramm-Displays (die in verschiedenen Ausführungen erhältlich sind) können unter anderem im Retail-Bereich für Produktbewerbungen und -Previews oder in der Telemedizin eingesetzt werden und lassen sich auch mit KI-Avataren kombinieren. Der Anbieter produziert bei Bedarf auch maßgeschneiderte holografische Inhalte nach Kundenwunsch.

Proto bietet mit seiner Hologramm-Kabine Epic die Möglichkeit, lebensgroße 3D-Abbilder von Personen in Echtzeit anzuzeigen. Das Produkt ist für Remote-Meetings oder Veranstaltungen gedacht und ermöglicht seinem Benutzer, weltweit virtuell präsent zu sein. Die Kabinen von Proto sind immerhin bereits an einigen Flughäfen, Konferenzzentren und Retail-Geschäften in den USA und Europa installiert.

Leia Inc. verkauft sein Lume Pad 2 derzeit ausschließlich in den USA. Das Tablet-Device (läuft auf Android) verspricht, 3D-Inhalte zu generieren, die ganz ohne Brille konsumiert werden können, dafür aber mit künstlicher Intelligenz optimiert werden. Laut dem Hersteller ist das Device mit seinen integrierten stereoskopischen Kameras der ideale Begleiter für “3D-Content-Enthusiasten”.

zSpace bietet sowohl holografische Produkte als auch Services für Unternehmen an. Die Technologie des Unternehmens ermöglicht realistische 3D-Visualisierungen über proprietäre Display-Technologie, eine trackbare Brille und einen Stift. So können die Benutzer mit digitalen Objekten wie in der echten Welt interagieren. Der Anbieter adressiert in erster Linie die Manufacturing- und Healthcare-Branche sowie den Forschungsbereich.

Hypervsn hat ebenfalls eine holografische 3D-Display-Technologie für Unternehmen im Angebot. Mit ihr lassen sich hochauflösende Hologramme realisieren, die ohne Brille betrachtet werden können. Zur Produktpalette gehört unter anderem die modulare, skalierbare 3D-Hologramm-Wand SmartV Wall. Die Displays von Hypervsn werden vornehmlich für Werbekampagnen, größere Events und in Showrooms eingesetzt.

Light Field Lab vertreibt mit SolidLight nach eigener Aussage das “Display der nächsten Generation”. Das Produkt ist in der Lage, aus modularen, direkt emittierenden Panels dichte, konvergierende Lichtwellenfronten zu erzeugen. Das Resultat sind holografische Objekte, die in der Luft zu schweben scheinen und aus mehreren Blickwinkeln mit korrekter Bewegungsparallaxe, Reflexionen und Brechungen betrachtet werden können. Diese Hologramm-Lösung ist zum Beispiel für Entertainment-Zwecke, immersive Werbung und digitale Beschilderungen in öffentlichen Räumen geeignet.

Voxon Photonics produziert fortschrittliche volumetrische Displays, die interaktive 3D-Hologramme mit Millionen von Lichtpunkten in Echtzeit erzeugen. Die Displays versprechen ein 3D-Erlebnis ganz ohne Brille oder Headset und eignen sich laut Hersteller für “Shared Environments” wie Museen, Kinosäale oder die Meeting-Räume von Unternehmen.

Realfiction ist ebenfalls auf holografische Displays spezialisiert, die es ermöglichen, entsprechende Inhalte ohne Brille zu konsumieren. Die Technologie des Anbieters eignet sich für diverse Anwendungsfälle – von der Automotive- über die Kommunikations-Lösung bis hin zu Entwicklungsumgebungen für 3D-Visualisierungen.

Die Wahrscheinlichkeit, dass Sie noch nie zuvor von einer dieser Firmen oder ihren Lösungen gehört haben, ist hoch. Und das nicht ohne Grund: Holografische Produkte und Services existieren schon seit Jahren, sind aber bislang nicht über den Status des Marketing-Gimmicks hinausgekommen.

Schöne, neue Fake-Welt?

Was Meta-CEO Zuckerberg vorschwebt, geht jedoch noch ein paar Schritte weiter und hat nichts mehr mit Einzelprodukten für Unternehmen oder Verbraucher zu tun. In seiner Vision existiert ein ganzes Ökosystem von holografischen Inhalten, die über eine Brille, die so gut wie jeder täglich auf der Nase hat, konsumiert werden sollen.

Meine persönliche Meinung: Ich zweifle sowohl an Zuckerbergs Motiven als auch an seiner prädiktiven Treffsicherheit. Zunächst einmal scheint der Meta-CEO zu glauben, dass die Zukunft der sozialen Netzwerke darin liegt, Menschen mit KI zu sozialisieren. So ließ er im April 2024 im Podcast mit dem KI-Experten Dwarkesh Patel verlauten, dass Durchschnittsmenschen nach mehr Vernetzung und Verbindungen streben als sie haben. Eine Lücke, die Zuck vorzugsweise mit “virtuellen Freunden” in Form von KI-Chatbots füllen möchte. Dabei kritisierte er parallel das “Stigma”, das Freundschaften zwischen Mensch und KI anhafte, und zeigte sich fest davon überzeugt, dass diese Verbindungen in Zukunft gesellschaftliche Akzeptanz erfahren. Dass sein Unternehmen genau die Tools und Services zur Verfügung stellt, um diese Vision umzusetzen, ist natürlich reiner Zufall. Ebenso, wie Zuckerbergs Vorstoß in Sachen AR-Brillen und die enormen Investments von Meta in diese Technologie.  

Im Grunde ist Zuckerbergs “neue” Tech-Zukunftsvision der alten Idee vom Metaverse ziemlich ähnlich: Menschen leben mit Fake-Freunden in einer Fake-Umgebung, lesen Fake-Bücher, spielen Fake-Schach und fläzen virtuell vor Fake-Bildschirmen – und lassen all ihr Geld bei Meta, statt in Kinos, Bars und Buchläden. Dass eine Zukunft dieser Art für Zuckerberg reizvoll ist, kann ich mir gut vorstellen. Alle anderen sind wahrscheinlich eher weniger begeistert – nicht nur, weil es keine physischen Objekte mehr gibt. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Zuckerbergs Hologramm-Visionen​ Weiterlesen »

Praxistipps von Multicloud-Entwicklern​

Allgemein

Viele Clouds, viele Probleme? Muss nicht sein. Wir haben Experten gefragt, wie Multicloud in der Praxis geht.Juice Flair | shutterstock.com Multicloud-Architekturen versprechen das Beste aus sämtlichen Welten, indem sie es ermöglichen, spezielle Funktionen mehrerer Anbieter zu nutzen. Die Voraussetzung dafür sind allerdings Entwicklungsprozesse, die dazu geeignet sind, die mit einem Multicloud-Ansatz einhergehenden Herausforderungen und Komplexitäten zu bewältigen. Denn im Vergleich zu traditionellem Cloud Computing erfordert es strategische, architektonische und operative Umstellungen, um Code zu schreiben, der zuverlässig in mehreren verschiedenen Cloud-Instanzen läuft. Dazu gilt es, sämtliche Parts des Entwicklungsprozesses weiterzuentwickeln – von der Container-Orchestrierung über Observability bis hin zu internen Tools.    Wie sich das in der Praxis ganz konkret umsetzen lässt, dazu haben wir erfahrene Cloud-Experten befragt. Diese geben dabei nicht nur Auskunft über ihre Erfolge, sondern auch über ihre Fails – beziehungsweise die daraus gelernten Lektionen. Kommunikation & Strategie Bevor Entwicklungsteams auch nur eine Zeile Code für Multicloud-Umgebungen schreiben, muss klar sein, warum. Darüber aufzuklären, sieht Drew Firment, Chief Cloud Strategist beim E-Learning-Anbieter Pluralsight, als Aufgabe des Managements an: “Multicloud ist kein Thema für Entwickler. Es handelt sich um ein strategisches Problem, das ein klares Cloud-Betriebsmodell erfordert. Dieses sollte klar definieren, wann, wo und warum Entwicklungsteams bestimmte Cloud-Funktionen nutzen.” Ohne ein solches Modell riskierten Unternehmen hohe Kosten, Sicherheitsprobleme und letztendlich den Projekterfolg, warnt Firment. Er empfiehlt an dieser Stelle mit einem strategischen Framework zu beginnen, das auf die Geschäftsziele abgestimmt ist und zudem klare Verantwortlichkeiten für Multicloud-Entscheidungen zuweist. Dieser Prozess sollte jedoch nicht nur Top-Down verlaufen. Deshalb ist für Heather Davis Lam, Gründerin und CEO der IT-Beratung Revenue Ops, abteilungsübergreifende Kommunikation in diesem Zusammenhang unabdingbar: “Sprechen Sie miteinander. An Multicloud-Projekten sind Entwickler, Betriebsspezialisten, Security-Profis und manchmal auch die Rechtsabteilung beteiligt. Die Probleme entstehen dabei in der Regel durch Missverständnisse, nicht durch schlechten Code. Regelmäßige Check-ins und ehrliche Gespräche sind deshalb enorm hilfreich wenn es um Multicloud-Projekte geht.” Dieser Planungsprozess sollte die Frage klären, warum Multicloud für das Unternehmen ein geeignetes Konzept ist und wie die spezifischen Plattformen innerhalb der Infrastruktur optimal genutzt werden können. Umgebungspluralität Das Multicloud-Entwicklungsteam wird sich in weiten Teilen vor allem mit der Frage beschäftigen, wann und wie Cloud-agnostischer oder plattformübergreifender Code geschrieben werden sollte. Dabei versuchten nicht wenige Teams, ihren Code vollständig Cloud-portabel zu gestalten, meint Gründerin Lam: “Das ist eine schöne Idee, aber in der Praxis kann sie zu Overengineering und noch mehr Kopfzerbrechen führen. Wenn das Team damit anfängt, zusätzliche Layer aufzubauen, nur damit alles funktioniert, ist es an der Zeit, innezuhalten.” Das kann Patrik Dudits, Senior Software Engineer bei der Open-Source-Company Payara Services, aus eigener Erfahrung bestätigen: “Der Versuch, die Architektur auf den ‚kleinsten gemeinsamen Nenner‘ zu beschränken, ist ein gängiger Fehler. In der Praxis ist es deutlich erfolgversprechender, die jeweiligen Stärken der einzelnen Clouds zu nutzen.” Damit meint der Softwareentwickler, Systeme mit Blick auf ihre Autonomie zu entwickeln, um Services unabhängig in ihren jeweiligen Clouds zu betreiben – ohne eine zu enge Kopplung entstehen zu lassen. Dieses Prinzip spielt auch im Ansatz von Matt Dimich, VP of Platform Engineering beim Medienkonzern Thomson Reuters, eine tragende Rolle: “Unser Ziel ist es, die Plattform, auf der wir unsere Anwendungen ausführen, agil zu gestalten. Jedes Jahr kommen neue Innovationen und Rechenleistung wird immer kostengünstigerer. Je schneller wir das nutzen können, umso mehr Wert können wir für unsere Kunden generieren.” Die ultimative Multicloud-Herausforderung besteht laut Pluralsight-Manager Firment darin, Cloud-Fähigkeiten zu optimieren, ohne dabei Chaos zu verursachen: “Die erste Faustregel lautet, die gemeinsamen Kernservices, die in allen Clouds vorhanden sind, zu abstrahieren und gleichzeitig Cloud-spezifische Services, die einen einzigartigen Kundennutzen bieten, zu isolieren. Nutzen Sie beispielsweise einen standardisierten Authentifizierungs- und Compute-Layer für alle Clouds und optimieren Sie gleichzeitig mit AWS-spezifischen Tools wie S3 oder Athena die Kosten und die Query-Performance bei großen Datensätzen.” Das deckt sich mit der Empfehlung von Gründerin Lam: “Halten Sie die Kerngeschäftslogik portabel – APIs, containerisierte Anwendungen, gemeinsame Sprachen wie Python oder Node – dort ist Portabilität wirklich wichtig. Geht es hingegen um Infrastruktur oder Orchestrierung, würde ich dazu raten, auf das zu setzen, was die jeweilige Cloud am besten kann.” Plattformübergreifender Code Der Schlüssel, um die Kerngeschäftslogik Cloud-übergreifend so portabel wie möglich zu gestalten, ist für so gut wie alle unsere Gesprächspartner die Container-Orchestrierungsplattform Kubernetes. Diese empfiehlt zum Beispiel auch Radhakrishnan Krishna Kripa, leitender DevOps-Ingenieur beim Entwicklungsspezialisten Ansys, um Bereitstellungen zu standardisieren: “Indem wir Kubernetes und Docker Container einsetzen, können wir den Code einmal schreiben und ihn anschließend mit minimalen Änderungen in AKS, AWS EKS oder sogar in lokalen Clustern ausführen.” Mit diesem Ansatz rennt Kripa bei Sidd Seethepalli, CTO und Mitbegründer des KI-Unternehmens Vellum, offene Türen ein: “Wir verlassen uns auf Kubernetes statt auf anbieterspezifische Services. So können wir Kubernetes-Cluster überall konsistent bereitstellen, wo sie benötigt werden.” Neil Qylie, Principal Solutions Architect bei der IT-Beratung Myriad360, betrachtet Kubernetes ebenfalls als gute Grundlage: “Indem wir auf Kubernetes aufbauen, können wir Anwendungsdefinitionen und -Deployments mit Helm standardisieren. Der Rollout lässt sich in der Regel über einen GitOps-Workflow mit Tools wie ArgoCD automatisieren.” Dieser Ansatz biete laut Qylie “echte Workload-Mobilität” und gewährleiste parallel konsistente und validierte Deployments über CI/CD-Pipelines. Apropos CI/CD: Diese Tools sind ebenso wichtig wie die Infrastruktur, auf der der Code läuft. Kripa empfiehlt, diese mit Hilfe Cloud-neutraler Tools wie GitHub Actions oder Terraform zu standardisieren: “Wir nutzen hauptsächlich Azure, aber Tools wie GitHub Actions ermöglichen es uns, Builds und Infrastruktur über mehrere Umgebungen hinweg mit einem konsistenten Workflow zu managen. Das trägt dazu bei, die Belastung für die Entwickler bei einem Anbieterwechsel oder einem Deployment in hybriden Umgebungen zu reduzieren.” Unabhängig davon, wie stark Sie Ihren Code standardisieren, müssen Sie dennoch mit den APIs und SDKs der einzelnen Cloud-Anbieter interagieren. Um das ohne Portabilitätseinbußen zu realisieren, hat Anant Agarwal, Mitbegründer und CTO des Softwareunternehmens Aidora, ein Pattern entwickelt: “Wir behandeln jede Cloud-API und jedes SDK wie eine Abhängigkeit: Wir verpacken sie in eine interne Bibliothek und stellen dem Rest der Codebasis eine saubere, generische Schnittstelle zur Verfügung. So bleibt die Cloud-spezifische Logik isoliert und austauschbar, die Kernlogik der Anwendung ist hingegen einfacher zu warten und wird widerstandsfähiger gegen Plattformabhängigkeiten.” Insbesondere dort, wo proprietäre Cloud-Funktionen in der Vergangenheit zu Reibungsverlusten geführt haben, helfe die Open-Source-Community dabei, die Lücken zu schließen, meint Qylie und verweist auf das Serverless-Workflow-Projekt. “Ich behalte die CNCF-Landschaft stets im Auge. Es gibt regelmäßig neue Projekte, die genau diese ‚Knackpunkte‘ adressieren”, so der Entwickler. Komplexitätsbewältigung Heterogene Multi-Cloud-Umgebungen sind komplex. Diesen Umstand sollte auch der Entwicklungsprozess berücksichtigen – insbesondere, wenn es um Sichtbarkeit geht. Der erste Schritt sollte entsprechend darin bestehen Logs und Alerts zu zentralisieren – so wie es auch bei Aidora geschieht: “Wir leiten sämtliche Protokolle an eine einheitliche Observability-Plattform weiter und erstellen eine konsolidierte Ansicht. Bei neueren Tools alles komplett abzudecken, ist schwierig, aber dieser Ansatz unterstützt uns dabei, Vorfälle schnell zu triagieren und dabei Transparenz über alle Cloud-Anbieter hinweg zu gewährleisten.” Diese Vorgehensweise empfiehlt auch Payara-Chefentwickler Dudits: “Es macht Sinn, in ein zentrales, anbieterunabhängiges Dashboard mit hochwertigen Metriken für die gesamte Multicloud-Umgebung zu investieren. Das erleichtert es, anbieterübergreifende Probleme zu erkennen – auch wenn tiefgehendere Analysen weiterhin über anbieterspezifische Tools laufen.” RevenueOps-CEO Lam schreibt hochwertigen Logging-Tools mit Blick auf Multicloud-Umgebungen eine besondere Bedeutung zu: “Es ist schon schwierig genug, eine Cloud zu debuggen. Wenn Sie mit drei oder vier Clouds arbeiten, können Sie mit einem guten Logging- und Monitoring-Tool Stunden oder sogar Tage an Arbeit einsparen.”   CTO Agarwal merkt zudem an, dass komplexe Multicloud-Workflows nicht nur durch Automatisierung, sondern auch interne KI-Tools optimiert werden können: “Wir haben unsere internen Playbooks in ein benutzerdefiniertes GPT umgewandelt, das kontextspezifische Fragen wie ‚Wo stelle ich diesen Service bereit?‘ direkt beantwortet. Um Reibungsverluste weiter zu reduzieren, haben wir dieselben Regeln in Cursor kodifiziert, sodass Entwickler Inline-Anleitungen direkt in ihrer IDE erhalten.” Als vielleicht wichtigste Multicloud-Erkenntnis sieht Managerin Lam, dass man in solchen Umgebungen mit Ausfällen rechnen muss. Je mehr Clouds und Services miteinander verbunden würden, desto größer sei die Wahrscheinlichkeit, dass etwas schiefgeht: “Probleme treten häufig an den Verbindungsstellen auf – etwa API-Timeouts, abgelaufene Authentifizierungstoken oder seltsame Latenzspitzen. Sie sollten mit solchen Unwägbarkeiten rechnen.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Praxistipps von Multicloud-Entwicklern​ Viele Clouds, viele Probleme? Muss nicht sein. Wir haben Experten gefragt, wie Multicloud in der Praxis geht.Juice Flair | shutterstock.com

Multicloud-Architekturen versprechen das Beste aus sämtlichen Welten, indem sie es ermöglichen, spezielle Funktionen mehrerer Anbieter zu nutzen. Die Voraussetzung dafür sind allerdings Entwicklungsprozesse, die dazu geeignet sind, die mit einem Multicloud-Ansatz einhergehenden Herausforderungen und Komplexitäten zu bewältigen. Denn im Vergleich zu traditionellem Cloud Computing erfordert es strategische, architektonische und operative Umstellungen, um Code zu schreiben, der zuverlässig in mehreren verschiedenen Cloud-Instanzen läuft. Dazu gilt es, sämtliche Parts des Entwicklungsprozesses weiterzuentwickeln – von der Container-Orchestrierung über Observability bis hin zu internen Tools.   

Wie sich das in der Praxis ganz konkret umsetzen lässt, dazu haben wir erfahrene Cloud-Experten befragt. Diese geben dabei nicht nur Auskunft über ihre Erfolge, sondern auch über ihre Fails – beziehungsweise die daraus gelernten Lektionen.

Kommunikation & Strategie

Bevor Entwicklungsteams auch nur eine Zeile Code für Multicloud-Umgebungen schreiben, muss klar sein, warum. Darüber aufzuklären, sieht Drew Firment, Chief Cloud Strategist beim E-Learning-Anbieter Pluralsight, als Aufgabe des Managements an: “Multicloud ist kein Thema für Entwickler. Es handelt sich um ein strategisches Problem, das ein klares Cloud-Betriebsmodell erfordert. Dieses sollte klar definieren, wann, wo und warum Entwicklungsteams bestimmte Cloud-Funktionen nutzen.”

Ohne ein solches Modell riskierten Unternehmen hohe Kosten, Sicherheitsprobleme und letztendlich den Projekterfolg, warnt Firment. Er empfiehlt an dieser Stelle mit einem strategischen Framework zu beginnen, das auf die Geschäftsziele abgestimmt ist und zudem klare Verantwortlichkeiten für Multicloud-Entscheidungen zuweist. Dieser Prozess sollte jedoch nicht nur Top-Down verlaufen. Deshalb ist für Heather Davis Lam, Gründerin und CEO der IT-Beratung Revenue Ops, abteilungsübergreifende Kommunikation in diesem Zusammenhang unabdingbar: “Sprechen Sie miteinander. An Multicloud-Projekten sind Entwickler, Betriebsspezialisten, Security-Profis und manchmal auch die Rechtsabteilung beteiligt. Die Probleme entstehen dabei in der Regel durch Missverständnisse, nicht durch schlechten Code. Regelmäßige Check-ins und ehrliche Gespräche sind deshalb enorm hilfreich wenn es um Multicloud-Projekte geht.”

Dieser Planungsprozess sollte die Frage klären, warum Multicloud für das Unternehmen ein geeignetes Konzept ist und wie die spezifischen Plattformen innerhalb der Infrastruktur optimal genutzt werden können.

Umgebungspluralität

Das Multicloud-Entwicklungsteam wird sich in weiten Teilen vor allem mit der Frage beschäftigen, wann und wie Cloud-agnostischer oder plattformübergreifender Code geschrieben werden sollte. Dabei versuchten nicht wenige Teams, ihren Code vollständig Cloud-portabel zu gestalten, meint Gründerin Lam: “Das ist eine schöne Idee, aber in der Praxis kann sie zu Overengineering und noch mehr Kopfzerbrechen führen. Wenn das Team damit anfängt, zusätzliche Layer aufzubauen, nur damit alles funktioniert, ist es an der Zeit, innezuhalten.”

Das kann Patrik Dudits, Senior Software Engineer bei der Open-Source-Company Payara Services, aus eigener Erfahrung bestätigen: “Der Versuch, die Architektur auf den ‚kleinsten gemeinsamen Nenner‘ zu beschränken, ist ein gängiger Fehler. In der Praxis ist es deutlich erfolgversprechender, die jeweiligen Stärken der einzelnen Clouds zu nutzen.”

Damit meint der Softwareentwickler, Systeme mit Blick auf ihre Autonomie zu entwickeln, um Services unabhängig in ihren jeweiligen Clouds zu betreiben – ohne eine zu enge Kopplung entstehen zu lassen. Dieses Prinzip spielt auch im Ansatz von Matt Dimich, VP of Platform Engineering beim Medienkonzern Thomson Reuters, eine tragende Rolle: “Unser Ziel ist es, die Plattform, auf der wir unsere Anwendungen ausführen, agil zu gestalten. Jedes Jahr kommen neue Innovationen und Rechenleistung wird immer kostengünstigerer. Je schneller wir das nutzen können, umso mehr Wert können wir für unsere Kunden generieren.”

Die ultimative Multicloud-Herausforderung besteht laut Pluralsight-Manager Firment darin, Cloud-Fähigkeiten zu optimieren, ohne dabei Chaos zu verursachen: “Die erste Faustregel lautet, die gemeinsamen Kernservices, die in allen Clouds vorhanden sind, zu abstrahieren und gleichzeitig Cloud-spezifische Services, die einen einzigartigen Kundennutzen bieten, zu isolieren. Nutzen Sie beispielsweise einen standardisierten Authentifizierungs- und Compute-Layer für alle Clouds und optimieren Sie gleichzeitig mit AWS-spezifischen Tools wie S3 oder Athena die Kosten und die Query-Performance bei großen Datensätzen.”

Das deckt sich mit der Empfehlung von Gründerin Lam: “Halten Sie die Kerngeschäftslogik portabel – APIs, containerisierte Anwendungen, gemeinsame Sprachen wie Python oder Node – dort ist Portabilität wirklich wichtig. Geht es hingegen um Infrastruktur oder Orchestrierung, würde ich dazu raten, auf das zu setzen, was die jeweilige Cloud am besten kann.”

Plattformübergreifender Code

Der Schlüssel, um die Kerngeschäftslogik Cloud-übergreifend so portabel wie möglich zu gestalten, ist für so gut wie alle unsere Gesprächspartner die Container-Orchestrierungsplattform Kubernetes. Diese empfiehlt zum Beispiel auch Radhakrishnan Krishna Kripa, leitender DevOps-Ingenieur beim Entwicklungsspezialisten Ansys, um Bereitstellungen zu standardisieren: “Indem wir Kubernetes und Docker Container einsetzen, können wir den Code einmal schreiben und ihn anschließend mit minimalen Änderungen in AKS, AWS EKS oder sogar in lokalen Clustern ausführen.”

Mit diesem Ansatz rennt Kripa bei Sidd Seethepalli, CTO und Mitbegründer des KI-Unternehmens Vellum, offene Türen ein: “Wir verlassen uns auf Kubernetes statt auf anbieterspezifische Services. So können wir Kubernetes-Cluster überall konsistent bereitstellen, wo sie benötigt werden.”

Neil Qylie, Principal Solutions Architect bei der IT-Beratung Myriad360, betrachtet Kubernetes ebenfalls als gute Grundlage: “Indem wir auf Kubernetes aufbauen, können wir Anwendungsdefinitionen und -Deployments mit Helm standardisieren. Der Rollout lässt sich in der Regel über einen GitOps-Workflow mit Tools wie ArgoCD automatisieren.” Dieser Ansatz biete laut Qylie “echte Workload-Mobilität” und gewährleiste parallel konsistente und validierte Deployments über CI/CD-Pipelines.

Apropos CI/CD: Diese Tools sind ebenso wichtig wie die Infrastruktur, auf der der Code läuft. Kripa empfiehlt, diese mit Hilfe Cloud-neutraler Tools wie GitHub Actions oder Terraform zu standardisieren: “Wir nutzen hauptsächlich Azure, aber Tools wie GitHub Actions ermöglichen es uns, Builds und Infrastruktur über mehrere Umgebungen hinweg mit einem konsistenten Workflow zu managen. Das trägt dazu bei, die Belastung für die Entwickler bei einem Anbieterwechsel oder einem Deployment in hybriden Umgebungen zu reduzieren.”

Unabhängig davon, wie stark Sie Ihren Code standardisieren, müssen Sie dennoch mit den APIs und SDKs der einzelnen Cloud-Anbieter interagieren. Um das ohne Portabilitätseinbußen zu realisieren, hat Anant Agarwal, Mitbegründer und CTO des Softwareunternehmens Aidora, ein Pattern entwickelt: “Wir behandeln jede Cloud-API und jedes SDK wie eine Abhängigkeit: Wir verpacken sie in eine interne Bibliothek und stellen dem Rest der Codebasis eine saubere, generische Schnittstelle zur Verfügung. So bleibt die Cloud-spezifische Logik isoliert und austauschbar, die Kernlogik der Anwendung ist hingegen einfacher zu warten und wird widerstandsfähiger gegen Plattformabhängigkeiten.”

Insbesondere dort, wo proprietäre Cloud-Funktionen in der Vergangenheit zu Reibungsverlusten geführt haben, helfe die Open-Source-Community dabei, die Lücken zu schließen, meint Qylie und verweist auf das Serverless-Workflow-Projekt. “Ich behalte die CNCF-Landschaft stets im Auge. Es gibt regelmäßig neue Projekte, die genau diese ‚Knackpunkte‘ adressieren”, so der Entwickler.

Komplexitätsbewältigung

Heterogene Multi-Cloud-Umgebungen sind komplex. Diesen Umstand sollte auch der Entwicklungsprozess berücksichtigen – insbesondere, wenn es um Sichtbarkeit geht. Der erste Schritt sollte entsprechend darin bestehen Logs und Alerts zu zentralisieren – so wie es auch bei Aidora geschieht: “Wir leiten sämtliche Protokolle an eine einheitliche Observability-Plattform weiter und erstellen eine konsolidierte Ansicht. Bei neueren Tools alles komplett abzudecken, ist schwierig, aber dieser Ansatz unterstützt uns dabei, Vorfälle schnell zu triagieren und dabei Transparenz über alle Cloud-Anbieter hinweg zu gewährleisten.”

Diese Vorgehensweise empfiehlt auch Payara-Chefentwickler Dudits: “Es macht Sinn, in ein zentrales, anbieterunabhängiges Dashboard mit hochwertigen Metriken für die gesamte Multicloud-Umgebung zu investieren. Das erleichtert es, anbieterübergreifende Probleme zu erkennen – auch wenn tiefgehendere Analysen weiterhin über anbieterspezifische Tools laufen.”

RevenueOps-CEO Lam schreibt hochwertigen Logging-Tools mit Blick auf Multicloud-Umgebungen eine besondere Bedeutung zu: “Es ist schon schwierig genug, eine Cloud zu debuggen. Wenn Sie mit drei oder vier Clouds arbeiten, können Sie mit einem guten Logging- und Monitoring-Tool Stunden oder sogar Tage an Arbeit einsparen.”  

CTO Agarwal merkt zudem an, dass komplexe Multicloud-Workflows nicht nur durch Automatisierung, sondern auch interne KI-Tools optimiert werden können: “Wir haben unsere internen Playbooks in ein benutzerdefiniertes GPT umgewandelt, das kontextspezifische Fragen wie ‚Wo stelle ich diesen Service bereit?‘ direkt beantwortet. Um Reibungsverluste weiter zu reduzieren, haben wir dieselben Regeln in Cursor kodifiziert, sodass Entwickler Inline-Anleitungen direkt in ihrer IDE erhalten.”

Als vielleicht wichtigste Multicloud-Erkenntnis sieht Managerin Lam, dass man in solchen Umgebungen mit Ausfällen rechnen muss. Je mehr Clouds und Services miteinander verbunden würden, desto größer sei die Wahrscheinlichkeit, dass etwas schiefgeht: “Probleme treten häufig an den Verbindungsstellen auf – etwa API-Timeouts, abgelaufene Authentifizierungstoken oder seltsame Latenzspitzen. Sie sollten mit solchen Unwägbarkeiten rechnen.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Praxistipps von Multicloud-Entwicklern​ Weiterlesen »

Cloud Computing : Der Himmel klärt sich auf​

Allgemein

Vor rund 20 Jahren tauchte erstmals der Begriff „Cloud Computing“ auf. Seitdem hat diese Nutzung von Rechen- und Storage-Leistungen eine stürmische Entwicklung durchlaufen und sich zu einem zentralen Bestandteil der digitalen Transformation bei vielen Unternehmen entwickelt. Der Siegeszug basierte vor allem auf der Flexibilität, der schnellen Bereitstellung von neuen Anwendungen und den verbrauchsabhängigen Kosten. Doch inzwischen sehen viele CIOs die Public Cloud kritisch. Laut einer CIO-Umfrage von Barkley planen 83 Prozent der Unternehmen, Teile ihre Workloads zurück in eine Private Cloud zu verlagern. „Cloud Repatriation“ nennt man das, und es ist zu einem ganz heißen Trend geworden. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?quality=50&strip=all 5000w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=300%2C210&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=768%2C538&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=1024%2C717&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=1536%2C1075&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=2048%2C1434&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=996%2C697&quality=50&strip=all 996w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=240%2C168&quality=50&strip=all 240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=120%2C84&quality=50&strip=all 120w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=686%2C480&quality=50&strip=all 686w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=514%2C360&quality=50&strip=all 514w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=357%2C250&quality=50&strip=all 357w” width=”1024″ height=”717″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der einstige Hype um Public-Cloud-Umgebungen ist verflogen und die gegenwärtige Ernüchterung verändert praktisch alle IT-Architekturen. Shutterstock / Oleksiy Mark Die Cloud-Flucht hat viele Ursachen Anfangs war Cloud Repatriation oft die Reaktion auf eine erfolglose Migration, doch heute zeichnen sich viele Anwendungsprobleme ab. Das größte davon sind die Kosten. Zwar wird weiterhin nutzungsabhängig abgerechnet, doch es hat sich herumgesprochen, dass eine gut ausgelastete eigene Infrastruktur wesentlich günstiger ist. Ein weiteres weit verbreitetes Problem ist der Vendor Lock-in. Manche Provider verlangen sogar Geld dafür, dass man die eigenen Daten wieder runterlädt. Ein zunehmend wichtiger Punkt ist die Performance und Latenz. Vor allem bei Cloud-basierten Edge-Lösungen oder den neuen KI-Anwendungen. Hier kann eine unzureichende Bandbreite das KO-Kriterium für die Cloud sein. In Deutschland gibt es noch zwei weitere besonders kritische Punkte: Die Datenhoheit und die Compliance-Auflagen. Gerade in streng regulierten Branchen, wie Finanzen, Gesundheitswesen und KRITIS entscheidet man sich immer häufiger gegen eine Public Cloud – vor allem wenn es um die US-basierten Hyperscaler geht. Von Cloud First zu Cloud Smart Cloud Repatriation bedeutet nicht, dass nichts mehr in die Cloud gehen darf – im Gegenteil: Die neuen Architekturen beinhalten eine sinnvolle Aufgabenteilung zwischen den verschiedenen On-Premise-Möglichkeiten und den Public-Cloud-Angeboten. Viele Workloads, die wegen wechselnder Nutzung und problemlosen Daten günstig und einfach in der Cloud betrieben werden können, sollen dort auch bleiben. Andere aber, die woanders günstiger betrieben werden können, sollten dann auch dort zum Einsatz kommen. Diese Aufteilung nennt man „Cloud Smart“ und bedeutet „so wenig Cloud wie möglich und so viel Cloud wie nötig“. Die Cloud beherrschen: Private und Sovereign Clouds Private Clouds ermöglichen beispielsweise die vollständige Verwaltung der Daten und bieten die Freiheit, die Infrastruktur ohne Einschränkungen stets anzupassen und zu optimieren. Das macht Private Clouds zur perfekten Lösung für die Unternehmen, die mehr Kontrolle über ihre Anwendungen benötigen oder sensible Daten verarbeiten. Mit einer Sovereign Cloud lässt sich der letzte Punkt noch deutlich verbessern. Eine solche Cloud eignet sich speziell für staatliche oder besonders datensensible Umgebungen. Hierbei garantiert der Anbieter, dass keine Daten außerhalb des nationalen oder europäischen Rechtsraums verarbeitet werden. Auch der Zugang durch ausländische Behörden ist ausgeschlossen. Viele Wege führen in die eigene Cloud Es gibt spezielle Dienstleister, die eine Cloud Repatriation und den Aufbau einer eigenen IT-Infrastruktur unterstützen. Das Nürnberger Unternehmen noris network zählt hier zu den führenden Anbietern. Zu deren Leistungsspektrum gehören unter anderem: Die noris Enterprise Cloud Private ist eine Private Cloud aus Deutschland mit dedizierter Infrastruktur, transparenten Kosten, hochverfügbaren Ressourcen und vielfältigen technischen Möglichkeiten für höchste Performance. Sie basiert auf einer Hyperconverged Infrastructure (HCI) in einem VMware Cloud verified Design und wird nach den BSI C5-Kriterien betrieben. Standardmäßig besteht sie aus einem Cluster mit dedizierten Hosts, die optional an die jeweiligen Anforderungen angepasst werden können. Infrastructure as Code (IaC) wird unterstützt, sodass das Setup automatisiert über APIs (Terraform) gesteuert werden kann. Mit der noris Sovereign Cloud lassen sich die Flexibilität und die Kostenvorteile (pay per use) einer Public Cloud nutzen, ohne dass Kompromisse beim Datenschutz oder den Compliance-Vorgaben gemacht werden müssen. Sie basiert auf Open Stack und den Standards des Sovereign Cloud Stack. Die wichtigsten Vorteile sind die Interoperabilität, die Kompatibilität und kein Vendor-Lock-In. Sie erfüllt damit alle Kriterien für die Nutzung von Cloud-Angeboten durch die Öffentliche Hand. Auch wer sich lieber für eine komplett eigene Infrastruktur entscheidet, muss deshalb nicht sein eigenes RZ ausbauen. Eine Colocation bei noris network bietet die gewünschte Sicherheit, Performance und Verfügbarkeit innerhalb der noris-network-eigenen deutschen Rechenzentren. Zur Verfügung stehen maßgeschneiderte und individuell ausgestattete Rechenzentrumsflächen, die sich perfekt an jede Forderung anpassen lassen. Wer trotzdem lieber das eigene Rechenzentrum erweitern möchte oder gar oder ein komplett neues plant, sollte noris network als kompetenten Berater hinzuziehen. Das Unternehmen hat jahrelange Erfahrung im Bau und Betrieb von Rechenzentren und verfügt über umfangreiches Know-how. Die Experten von noris network liefern maßgeschneiderte und zuverlässige RZ-Lösungen – von der Analyse der Bedürfnisse bis hin zur detaillierten Planung, Umsetzung und Inbetriebnahme. Fazit Eine Public Cloud ist keine Allround-Lösung für die modernen IT-Anforderungen. Gefordert ist eine Architektur, bei der alle Cloud- und On-Premise-Formen entsprechend den unternehmens-spezifischen Anforderungen optimal genutzt werden. Registrieren Sie sich jetzt 

Cloud Computing : Der Himmel klärt sich auf​ Vor rund 20 Jahren tauchte erstmals der Begriff „Cloud Computing“ auf. Seitdem hat diese Nutzung von Rechen- und Storage-Leistungen eine stürmische Entwicklung durchlaufen und sich zu einem zentralen Bestandteil der digitalen Transformation bei vielen Unternehmen entwickelt. Der Siegeszug basierte vor allem auf der Flexibilität, der schnellen Bereitstellung von neuen Anwendungen und den verbrauchsabhängigen Kosten. Doch inzwischen sehen viele CIOs die Public Cloud kritisch. Laut einer CIO-Umfrage von Barkley planen 83 Prozent der Unternehmen, Teile ihre Workloads zurück in eine Private Cloud zu verlagern. „Cloud Repatriation“ nennt man das, und es ist zu einem ganz heißen Trend geworden.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?quality=50&strip=all 5000w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=300%2C210&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=768%2C538&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=1024%2C717&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=1536%2C1075&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=2048%2C1434&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=996%2C697&quality=50&strip=all 996w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=240%2C168&quality=50&strip=all 240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=120%2C84&quality=50&strip=all 120w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=686%2C480&quality=50&strip=all 686w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=514%2C360&quality=50&strip=all 514w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_108857858.jpg?resize=357%2C250&quality=50&strip=all 357w” width=”1024″ height=”717″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der einstige Hype um Public-Cloud-Umgebungen ist verflogen und die gegenwärtige Ernüchterung verändert praktisch alle IT-Architekturen.
Shutterstock / Oleksiy Mark

Die Cloud-Flucht hat viele Ursachen

Anfangs war Cloud Repatriation oft die Reaktion auf eine erfolglose Migration, doch heute zeichnen sich viele Anwendungsprobleme ab. Das größte davon sind die Kosten. Zwar wird weiterhin nutzungsabhängig abgerechnet, doch es hat sich herumgesprochen, dass eine gut ausgelastete eigene Infrastruktur wesentlich günstiger ist. Ein weiteres weit verbreitetes Problem ist der Vendor Lock-in. Manche Provider verlangen sogar Geld dafür, dass man die eigenen Daten wieder runterlädt. Ein zunehmend wichtiger Punkt ist die Performance und Latenz. Vor allem bei Cloud-basierten Edge-Lösungen oder den neuen KI-Anwendungen. Hier kann eine unzureichende Bandbreite das KO-Kriterium für die Cloud sein. In Deutschland gibt es noch zwei weitere besonders kritische Punkte: Die Datenhoheit und die Compliance-Auflagen. Gerade in streng regulierten Branchen, wie Finanzen, Gesundheitswesen und KRITIS entscheidet man sich immer häufiger gegen eine Public Cloud – vor allem wenn es um die US-basierten Hyperscaler geht.

Von Cloud First zu Cloud Smart

Cloud Repatriation bedeutet nicht, dass nichts mehr in die Cloud gehen darf – im Gegenteil: Die neuen Architekturen beinhalten eine sinnvolle Aufgabenteilung zwischen den verschiedenen On-Premise-Möglichkeiten und den Public-Cloud-Angeboten. Viele Workloads, die wegen wechselnder Nutzung und problemlosen Daten günstig und einfach in der Cloud betrieben werden können, sollen dort auch bleiben. Andere aber, die woanders günstiger betrieben werden können, sollten dann auch dort zum Einsatz kommen. Diese Aufteilung nennt man „Cloud Smart“ und bedeutet „so wenig Cloud wie möglich und so viel Cloud wie nötig“.

Die Cloud beherrschen: Private und Sovereign Clouds

Private Clouds ermöglichen beispielsweise die vollständige Verwaltung der Daten und bieten die Freiheit, die Infrastruktur ohne Einschränkungen stets anzupassen und zu optimieren. Das macht Private Clouds zur perfekten Lösung für die Unternehmen, die mehr Kontrolle über ihre Anwendungen benötigen oder sensible Daten verarbeiten. Mit einer Sovereign Cloud lässt sich der letzte Punkt noch deutlich verbessern. Eine solche Cloud eignet sich speziell für staatliche oder besonders datensensible Umgebungen. Hierbei garantiert der Anbieter, dass keine Daten außerhalb des nationalen oder europäischen Rechtsraums verarbeitet werden. Auch der Zugang durch ausländische Behörden ist ausgeschlossen.

Viele Wege führen in die eigene Cloud

Es gibt spezielle Dienstleister, die eine Cloud Repatriation und den Aufbau einer eigenen IT-Infrastruktur unterstützen. Das Nürnberger Unternehmen noris network zählt hier zu den führenden Anbietern. Zu deren Leistungsspektrum gehören unter anderem:

Die noris Enterprise Cloud Private ist eine Private Cloud aus Deutschland mit dedizierter Infrastruktur, transparenten Kosten, hochverfügbaren Ressourcen und vielfältigen technischen Möglichkeiten für höchste Performance. Sie basiert auf einer Hyperconverged Infrastructure (HCI) in einem VMware Cloud verified Design und wird nach den BSI C5-Kriterien betrieben. Standardmäßig besteht sie aus einem Cluster mit dedizierten Hosts, die optional an die jeweiligen Anforderungen angepasst werden können. Infrastructure as Code (IaC) wird unterstützt, sodass das Setup automatisiert über APIs (Terraform) gesteuert werden kann.

Mit der noris Sovereign Cloud lassen sich die Flexibilität und die Kostenvorteile (pay per use) einer Public Cloud nutzen, ohne dass Kompromisse beim Datenschutz oder den Compliance-Vorgaben gemacht werden müssen. Sie basiert auf Open Stack und den Standards des Sovereign Cloud Stack. Die wichtigsten Vorteile sind die Interoperabilität, die Kompatibilität und kein Vendor-Lock-In. Sie erfüllt damit alle Kriterien für die Nutzung von Cloud-Angeboten durch die Öffentliche Hand.

Auch wer sich lieber für eine komplett eigene Infrastruktur entscheidet, muss deshalb nicht sein eigenes RZ ausbauen. Eine Colocation bei noris network bietet die gewünschte Sicherheit, Performance und Verfügbarkeit innerhalb der noris-network-eigenen deutschen Rechenzentren. Zur Verfügung stehen maßgeschneiderte und individuell ausgestattete Rechenzentrumsflächen, die sich perfekt an jede Forderung anpassen lassen. Wer trotzdem lieber das eigene Rechenzentrum erweitern möchte oder gar oder ein komplett neues plant, sollte noris network als kompetenten Berater hinzuziehen. Das Unternehmen hat jahrelange Erfahrung im Bau und Betrieb von Rechenzentren und verfügt über umfangreiches Know-how. Die Experten von noris network liefern maßgeschneiderte und zuverlässige RZ-Lösungen – von der Analyse der Bedürfnisse bis hin zur detaillierten Planung, Umsetzung und Inbetriebnahme.

Fazit

Eine Public Cloud ist keine Allround-Lösung für die modernen IT-Anforderungen. Gefordert ist eine Architektur, bei der alle Cloud- und On-Premise-Formen entsprechend den unternehmens-spezifischen Anforderungen optimal genutzt werden.

Registrieren Sie sich jetzt

Cloud Computing : Der Himmel klärt sich auf​ Weiterlesen »

Tipps, um SAP-HCM-Projekte zu meistern​

Allgemein

loading=”lazy” width=”400px”>Im Zuge der digitalen Transformation sollten auch die Human-Capital-Management- (HCM-)Systeme modernisiert werden – gerade im SAP-Umfeld jedoch keine leichte Aufgabe.eamesBot – shutterstock.com Der Druck auf Unternehmen wächst, ihre bestehenden HR/IT-Systemlandschaften an die Anforderungen zukunftsfähiger Lösungen anzupassen. Dies gilt insbesondere für personalwirtschaftliche Lösungen von SAP-Anwenderunternehmen. HCM System Landscape Transformation – kurz SLT – ist der Schlüssel, um diese Entwicklung erfolgreich zu gestalten. Sie geht weit über die rein technische Migration von On-Premises basierten SAP-Systemen hinaus und erfordert strategische Planung sowie gezielte Anpassungen, um zukunftssichere HR-Systeme zu schaffen. Für die Verantwortlichen in den Unternehmen wirft das Thema allerdings einige Fragen auf. Was verbirgt sich hinter diesem Begriff, welche Anwendungsfälle sind denkbar und wie lässt sich beispielsweise ein HCM Carve-Out als ein häufiges SLT Szenario umsetzen? Was bedeutet HCM SLT im SAP-Kontext? System Landscape Transformation im HR/IT-Bereich bezeichnet die Transformation bestehender SAP HCM-Lösungen, um diese an neue Geschäftsanforderungen und technologische Veränderungen anzupassen. Dies betrifft sowohl On-Premises- als auch Cloud-Lösungen. Ein häufiger Auslöser für SLT-Projekte ist die Migration von SAP ERP Human Capital Management (HCM) auf die Nachfolgelösung SAP HCM for S/4HANA (H4S4) oder die Einführung von SAP SuccessFactors als HCM-Lösung in der Cloud. SLT ist dabei jedoch mehr als nur ein technischer Prozess – es bildet einen elementaren Baustein der digitalen Transformation im HR-Umfeld. Die Dringlichkeit einer solchen Transformation wird durch das Wartungsende des SAP ERP HCM Systems zusätzlich verstärkt. Unternehmen, die diese Lösung einsetzen, müssen zeitnah handeln, da Ende 2027 der Standard-Support seitens des Softwareherstellers ausläuft. Für Anwenderbetriebe, welche darüber hinaus auf die Extented Maintenance zurückgreifen, endet diese spätestens 2030. Wesentlich dringlicher stellt sich die Situation für Unternehmen dar, welche derzeit im sogenannten Kompatibilitätsmodus unterwegs sind. In diesem Betriebsmodell wird SAP HCM integriert mit S/4HANA auf einer Systemumgebung beziehungsweise Instanz betrieben (embedded) und muss spätestens bis zum 1. Januar 2026 auf H4S4 umgestellt worden sein. SLT-Optionen für die Transformation: On-Premises-Szenarien Unternehmen, die weiterhin stark auf On-Premises-Architekturen setzen, stehen verschiedene Wege offen, ihre SAP HCM-Systemlandschaft neu aufzustellen und zu modernisieren. So lassen sich SAP-HCM-Systeme im On-premises-Umfeld modernisieren.Michael Scheffler Carve-Out: HCM-Systeme trennen und flexibel bleiben Ein typisches Beispiel für HCM SLT ist der Carve-Out, also das strukturierte herauslösen oder „entkoppeln“ eines SAP HCM-Systems, aus einer integrierten Systemumgebung mit SAP ERP beziehungsweise S/4HANA. Neben dem Treiber H4S4 entstehen solche Projekte häufig aufgrund technischer Restriktionen und Abhängigkeiten im Rahmen der im HR-Umfeld notwendigen Jahreswechselaktivitäten. Auch spielen Sicherheits- und Datenschutzvorgaben oft eine ausschlaggebende Rolle. Ein Carve-Out trennt also das SAP HCM-System aus der integrierten Instanz und überführt es in eine eigenständige Umgebung (sidecar-Ansatz oder auch HR-Stand-Alone-System). Die auf diesem Wege geschaffene, entkoppelte Instanz wird dann mittels SAP Standard-Schnittstellen (Stichwort: ALE) mit der bisherigen Systemumgebung re-integriert. Eine solche verteilte Systemumgebung ermöglicht es Unternehmen, das HCM unabhängig von anderen SAP Modulen zu betreiben, im Sinne eines „Bebauungsplans“ gezielt weiterzuentwickeln und etwa mittel- bis langfristig in Richtung SAP SuccessFactors zu transformieren. Merge: Verschmelzung von HCM-Systemen Im Rahmen von Unternehmenszusammenschlüssen, Restrukturierungen oder aufgrund einer technischen Konsolidierung kann es sinnvoll sein, mehrere HCM-Systeme zu einer einzigen Instanz zusammenzuführen. Dadurch werden redundante Systeme und/oder Mandanten eliminiert. So entsteht eine zentrale HR-Datenquelle im Sinne eines globalen HR-Systems, welches alle relevanten Informationen vereint. Ferner kann es in diesem Zusammenhang auch notwendig werden, bestehende personalwirtschaftliche Gruppierungen (Customizing) zu vereinheitlichen und in dem konsolidierten System beziehungsweise Mandanten zusammenzuführen. Das kann durchaus eine technisch wie auch fachlich anspruchsvolle Aufgabe sein – welche aber mit dem richtigen Toolset gelöst werden kann. Dazu später mehr. Split: Aufteilung von HCM-Systemen Beim Split-Szenario wird das HCM-System in mehrere Instanzen aufgeteilt. Das ist oft der Fall, wenn etwa Tochtergesellschaften verkauft werden, sodass die HR-Daten der verkauften Einheit separiert und eigenständig betrieben werden können. Replatforming: Auf eine neue Plattform migrieren Beim Replatforming wird eine heterogene Systemlandschaft auf eine einheitliche Plattform übertragen. Das ist besonders dann notwendig, wenn die Ausgangslage eine Kombination aus SAP- und Nicht-SAP-Lösungen darstellt oder die bestehende Infrastruktur veraltet ist. Replatforming kann also die technische Basis modernisieren und gewährleistet, dass bestehende Funktionalitäten erhalten bleiben. Cloud als Alternative: Transformationsszenarien für SAP SuccessFactors Mit der fortschreitenden Verlagerung von HR-Prozessen in die Cloud müssen Unternehmen, die noch On-Premises-Systeme nutzen, eine Strategie für die Cloud-Transformation entwickeln. SAP SuccessFactors bietet eine moderne und leistungsfähige Alternative zu klassischen HCM-Systemen. Darüber hinaus nehmen Anwendungsfälle für HCM SLT in der Cloud zu. Drei Cloud-Szenarien für die HCM-Transformation.Michael Scheffler Cloud Split: Trennung von HR-Daten in der Cloud Ähnlich wie bei der On-Premises-Lösung ermöglicht der Cloud-Split die Aufteilung einer kombinierten SAP SuccessFactors Instanz in zwei voneinander unabhängige Umgebungen. Das gibt Unternehmen die Möglichkeit, ihre HR-Prozesse spezifisch zu betreiben und flexibel auf Unternehmensanforderungen zu reagieren. Payroll Migration: Entgeltabrechnung in die Cloud bringen Mit SAP SuccessFactors Employee Central (ECP) können Unternehmen den wichtigen HR-Prozess der Entgeltabrechnung schon heute modernisieren und zum Beispiel von Non-SAP-Systemen auf die Cloud-Lösung von SAP umstellen. Auch die H4S4 Payroll in der SAP S/4HANA Private Cloud Edition stellt eine valide Option dar. Künftig wird es darüber hinaus mit der SAP SuccessFactors Payroll (eher bekannt unter NextGen-Payroll) eine völlig neuartige Lösung geben. Sämtliche Varianten erlauben einen langfristigen Betrieb der Entgeltabrechnung in der Cloud. Private Cloud: HCM in der Private Cloud Edition betreiben Eine weitere Option ist, SAP HCM in Form von H4S4 Private Cloud Edition (PCE) oder RISE zu betreiben. Hierbei wird das vollständige HR-System von SAP selbst gehostet und verwaltet – eine attraktive Möglichkeit für Unternehmen, die ihre eigenen Rechenzentren abbauen. Aber Achtung: Diese Variante bringt einige funktionale Defizite im direkten Vergleich zur H4S4 On-Premise Edition (siehe SAP Hinweis 3091160). SAP HCM Carve-Out: Der Weg zur erfolgreichen Trennung Am Beispiel eines SAP HCM Carve-Outs soll nachfolgend ein solches Projekt beschrieben werden, welches eine umfassende Planung und eine klare Vorgehensweise erfordert. Oftmals wird der Carve-Out als Teil- oder Vorprojekt einer S/4HANA-Migration durchgeführt, um die HR-Daten vom SAP ERP-System zu trennen und in eine eigenständige Systemumgebung zu überführen. Lesen Sie mehr über die Transformation von HCM-Systemen: HR-Transformation Roadmap: So sieht Personalplanung der Zukunft aus HCM On-premises und aus der Cloud: So setzen Sie ein hybrides SAP-HR-System richtig auf SAP SuccessFactors Work Zone: Was Lust auf Arbeit macht Personalmanagement für S/4HANA: Ihr Weg zur SAP-HCM-Strategie Somit lassen sich etwa die Gesamtkomplexität reduzieren und technische Abhängigkeiten auflösen. Besonders drängend wird ein Carve-Out durch den bereits diskutierten Kompatibilitätsmodus und das damit verbundene Ende der Nutzungsrechte in einer integrierten S/4HANA Umgebung (Stichtag: 31. Dezember 2025). Die Wahl der richtigen Vorgehensweise: Je nach individueller Ausgangslage, Anforderungen und gegebener technischer als auch prozessualer Komplexität sind verschiedene Ansätze für einen Carve-Out möglich. Folgende Optionen sind denkbar, um ein HCM-System erfolgreich zu separieren: HCM-Datenexport mittels SAP Standard-Programm Mit dem SAP-Programm RPCTABCC können HCM-Daten via Stücklisten beziehungsweise Transportaufträge transferiert werden. Dabei wird das HCM hinsichtlich der Stamm- und Bewegungsdaten sowie Customizing aus dem Quellsystem exportiert und in die neue Systemumgebung importiert. Repository Objekte des Quellsystems, wie etwa kundenspezifische Entwicklungen und Schnittstellen, müssen bei diesem Ansatz manuell in das Zielsystem übertragen und an dessen Rahmenbedingungen angepasst werden. Systemkopie: Maximale Geschwindigkeit Eine vollständige Systemkopie des integrierten SAP ERP respektive S/4HANA Systems inklusive HCM in eine neue oder zusätzliche Systemumgebung ist die schnellste und gleichzeitig umfassendes Variante eines Carve-Outs. Dieser Ansatz ermöglicht die Übertragung aller Stamm- und Bewegungsdaten inklusive der Repository Objekte – allerdings einschließlich der Nicht-HCM Objekte und Daten. Diese verbleiben auf dem neu geschaffenen Zielsystem als „technische Restschuld“ und sollten in einem zweiten Schritt mittels ILM oder kundeneigener Löschprogramme bereinigt werden. Unterstützung durch 3rd-Party-Tools und Anbieter Für besonders komplexe Migrationsprojekte bieten spezialisierte Anbieter wie etwa cbs, EPI-USE oder die SAP SLO flexible Werkzeuge an. Diese Lösungen erlauben es, Daten während des Carve-Outs nicht nur zu kopieren, sondern auch zu manipulieren und so an die neue Umgebung anzupassen – ideal, wenn zum Beispiel mehrere Gesellschaften fusionieren. Schritt für Schritt: Der Ablauf eines SAP HCM Carve-Outs Die Umsetzung eines SAP HCM Carve-Outs folgt einem klar strukturierten Plan, der aus mehreren Schritten besteht: Vorgehensweise festlegen: Zu Beginn des Vorhabens wird entschieden, welche der oben beschriebenen Optionen für den Carve-Out genutzt werden soll. Diese Entscheidung legt den Grundstein für den Projektverlauf. Sandbox-System aufbauen: Ein Projekt- beziehungsweise Sandbox-System dient als Testumgebung. Hier wird das Vorgehen im besten Falle mehrfach simuliert, Fehler werden frühzeitig erkannt und behoben, um spätere Störungen im Produktivsystem zu vermeiden. Frozen Zone starten: Zu Beginn des Vorhabens muss eine Frozen Zone ausgerufen werden. Das bedeutet, dass das HCM-System beziehungsweise „Altsystem“ bis zum Projektende nicht mehr mittels Customizing oder Programmanpassungen verändert werden darf. Änderungen könnten sonst zu Inkonsistenzen im neuen System führen und den Carve-Out-Prozess erheblich erschweren. Für produktive Störungen können Ausnahmeregelungen vorgesehen werden. HCM-Entwicklungssystem (DEV-Umgebung) aufbauen : Das künftige HCM-Entwicklungssystem wird aufgebaut, indem die zu überführenden HCM Repository-Objekte exportiert und in das neue SAP HCM System importiert werden. Ab diesem Zeitpunkt müssen Anpassungen an dem Quellcode auf dieser Umgebung erfolgen. Hierfür ist eine Änderung des Originalsystems unabdingbar. Eventuelle Notfalltransporte für die noch produktive Alt-Umgebung sind zu gegebener Zeit manuell nachzuholen. HCM-Qualitätssicherungssystem (QAS-Umgebung) aufbauen: Sofern vorgesehen, ist die zweite Systemstufe, das Qualitäts- beziehungsweise Konsolidierungssystem zu etablieren. Es bietet die Möglichkeit, realitätsnahe Tests durchzuführen. Schnittstellen zu Subsystemen wie etwa Zeiterfassungsterminals sollten integriert werden, um sicherzustellen, dass alle kritischen Schnittstellen und Prozesse im neuen HR-Umfeld reibungslos funktionieren. Umfassendes Testmanagement etablieren: End-to-End-Tests decken alle relevanten HR-Geschäftsprozesse ab und minimieren so das Risiko von Fehlfunktionen im späteren Produktivbetrieb. Diese Tests sollten alle Systeme und Prozesse einschließen, die mit dem HCM-System interagieren. Change Management sicherstellen: Anwenderinnen und Anwender müssen frühzeitig und umfassend über die geplante Umstellung informiert werden. Dadurch lassen sich Missverständnisse und Unsicherheiten vermeiden. Gleichzeitig fördert ein gut aufgesetztes Change Management die Akzeptanz der neuen Systemumgebung. Cut-Over-Plan erstellen und anwenden: Ein gut durchdachter Cut-Over-Plan stellt sicher, dass alle Aktivitäten zur Umstellung in der richtigen Reihenfolge ablaufen. Mit Blick auf Abhängigkeiten und Verantwortlichkeiten hilft ein präziser Zeitplan, den Übergang mit einer minimalen Downtime der Produktivumgebung zu realisieren. Go/No-Go-Entscheidung, Smoke-Test und Go-Live: Kurz vor dem Go-Live wird eine Go/No-Go-Entscheidung getroffen. Diese basiert auf den Ergebnissen eines Smoke-Tests, der auf dem produktiven System durchgeführt wird und den erfolgreichen Transfer der HCM-Daten bestätigt. Dabei werden grundlegende Funktionen wie die Erfassung neuer Mitarbeitenden getestet, um sicherzustellen, dass keine grundsätzlichen Probleme bestehen. Die System Landscape Transformation ist für Unternehmen, die weiterhin auf eine On-Premises basierte SAP HCM Lösung setzen, mehr als hilfreich. Wer frühzeitig mit der Planung beginnt, kann nicht nur das Auslaufen des Supports für ältere Systeme abfedern, sondern auch die HR-Prozesse auf zukunftsfähige Plattformen wie H4S4 oder SAP SuccessFactors überführen. Wer jetzt handelt, schafft die Basis für ein modernes, effizientes und wettbewerbsfähiges HCM-System. 

Tipps, um SAP-HCM-Projekte zu meistern​ loading=”lazy” width=”400px”>Im Zuge der digitalen Transformation sollten auch die Human-Capital-Management- (HCM-)Systeme modernisiert werden – gerade im SAP-Umfeld jedoch keine leichte Aufgabe.eamesBot – shutterstock.com

Der Druck auf Unternehmen wächst, ihre bestehenden HR/IT-Systemlandschaften an die Anforderungen zukunftsfähiger Lösungen anzupassen. Dies gilt insbesondere für personalwirtschaftliche Lösungen von SAP-Anwenderunternehmen. HCM System Landscape Transformation – kurz SLT – ist der Schlüssel, um diese Entwicklung erfolgreich zu gestalten. Sie geht weit über die rein technische Migration von On-Premises basierten SAP-Systemen hinaus und erfordert strategische Planung sowie gezielte Anpassungen, um zukunftssichere HR-Systeme zu schaffen.

Für die Verantwortlichen in den Unternehmen wirft das Thema allerdings einige Fragen auf. Was verbirgt sich hinter diesem Begriff, welche Anwendungsfälle sind denkbar und wie lässt sich beispielsweise ein HCM Carve-Out als ein häufiges SLT Szenario umsetzen?

Was bedeutet HCM SLT im SAP-Kontext?

System Landscape Transformation im HR/IT-Bereich bezeichnet die Transformation bestehender SAP HCM-Lösungen, um diese an neue Geschäftsanforderungen und technologische Veränderungen anzupassen. Dies betrifft sowohl On-Premises- als auch Cloud-Lösungen. Ein häufiger Auslöser für SLT-Projekte ist die Migration von SAP ERP Human Capital Management (HCM) auf die Nachfolgelösung SAP HCM for S/4HANA (H4S4) oder die Einführung von SAP SuccessFactors als HCM-Lösung in der Cloud. SLT ist dabei jedoch mehr als nur ein technischer Prozess – es bildet einen elementaren Baustein der digitalen Transformation im HR-Umfeld.

Die Dringlichkeit einer solchen Transformation wird durch das Wartungsende des SAP ERP HCM Systems zusätzlich verstärkt. Unternehmen, die diese Lösung einsetzen, müssen zeitnah handeln, da Ende 2027 der Standard-Support seitens des Softwareherstellers ausläuft. Für Anwenderbetriebe, welche darüber hinaus auf die Extented Maintenance zurückgreifen, endet diese spätestens 2030.

Wesentlich dringlicher stellt sich die Situation für Unternehmen dar, welche derzeit im sogenannten Kompatibilitätsmodus unterwegs sind. In diesem Betriebsmodell wird SAP HCM integriert mit S/4HANA auf einer Systemumgebung beziehungsweise Instanz betrieben (embedded) und muss spätestens bis zum 1. Januar 2026 auf H4S4 umgestellt worden sein.

SLT-Optionen für die Transformation: On-Premises-Szenarien

Unternehmen, die weiterhin stark auf On-Premises-Architekturen setzen, stehen verschiedene Wege offen, ihre SAP HCM-Systemlandschaft neu aufzustellen und zu modernisieren.

So lassen sich SAP-HCM-Systeme im On-premises-Umfeld modernisieren.Michael Scheffler

Carve-Out: HCM-Systeme trennen und flexibel bleiben

Ein typisches Beispiel für HCM SLT ist der Carve-Out, also das strukturierte herauslösen oder „entkoppeln“ eines SAP HCM-Systems, aus einer integrierten Systemumgebung mit SAP ERP beziehungsweise S/4HANA. Neben dem Treiber H4S4 entstehen solche Projekte häufig aufgrund technischer Restriktionen und Abhängigkeiten im Rahmen der im HR-Umfeld notwendigen Jahreswechselaktivitäten. Auch spielen Sicherheits- und Datenschutzvorgaben oft eine ausschlaggebende Rolle.

Ein Carve-Out trennt also das SAP HCM-System aus der integrierten Instanz und überführt es in eine eigenständige Umgebung (sidecar-Ansatz oder auch HR-Stand-Alone-System). Die auf diesem Wege geschaffene, entkoppelte Instanz wird dann mittels SAP Standard-Schnittstellen (Stichwort: ALE) mit der bisherigen Systemumgebung re-integriert. Eine solche verteilte Systemumgebung ermöglicht es Unternehmen, das HCM unabhängig von anderen SAP Modulen zu betreiben, im Sinne eines „Bebauungsplans“ gezielt weiterzuentwickeln und etwa mittel- bis langfristig in Richtung SAP SuccessFactors zu transformieren.

Merge: Verschmelzung von HCM-Systemen

Im Rahmen von Unternehmenszusammenschlüssen, Restrukturierungen oder aufgrund einer technischen Konsolidierung kann es sinnvoll sein, mehrere HCM-Systeme zu einer einzigen Instanz zusammenzuführen. Dadurch werden redundante Systeme und/oder Mandanten eliminiert. So entsteht eine zentrale HR-Datenquelle im Sinne eines globalen HR-Systems, welches alle relevanten Informationen vereint.

Ferner kann es in diesem Zusammenhang auch notwendig werden, bestehende personalwirtschaftliche Gruppierungen (Customizing) zu vereinheitlichen und in dem konsolidierten System beziehungsweise Mandanten zusammenzuführen. Das kann durchaus eine technisch wie auch fachlich anspruchsvolle Aufgabe sein – welche aber mit dem richtigen Toolset gelöst werden kann. Dazu später mehr.

Split: Aufteilung von HCM-Systemen

Beim Split-Szenario wird das HCM-System in mehrere Instanzen aufgeteilt. Das ist oft der Fall, wenn etwa Tochtergesellschaften verkauft werden, sodass die HR-Daten der verkauften Einheit separiert und eigenständig betrieben werden können.

Replatforming: Auf eine neue Plattform migrieren

Beim Replatforming wird eine heterogene Systemlandschaft auf eine einheitliche Plattform übertragen. Das ist besonders dann notwendig, wenn die Ausgangslage eine Kombination aus SAP- und Nicht-SAP-Lösungen darstellt oder die bestehende Infrastruktur veraltet ist. Replatforming kann also die technische Basis modernisieren und gewährleistet, dass bestehende Funktionalitäten erhalten bleiben.

Cloud als Alternative: Transformationsszenarien für SAP SuccessFactors

Mit der fortschreitenden Verlagerung von HR-Prozessen in die Cloud müssen Unternehmen, die noch On-Premises-Systeme nutzen, eine Strategie für die Cloud-Transformation entwickeln. SAP SuccessFactors bietet eine moderne und leistungsfähige Alternative zu klassischen HCM-Systemen. Darüber hinaus nehmen Anwendungsfälle für HCM SLT in der Cloud zu.

Drei Cloud-Szenarien für die HCM-Transformation.Michael Scheffler

Cloud Split: Trennung von HR-Daten in der Cloud

Ähnlich wie bei der On-Premises-Lösung ermöglicht der Cloud-Split die Aufteilung einer kombinierten SAP SuccessFactors Instanz in zwei voneinander unabhängige Umgebungen. Das gibt Unternehmen die Möglichkeit, ihre HR-Prozesse spezifisch zu betreiben und flexibel auf Unternehmensanforderungen zu reagieren.

Payroll Migration: Entgeltabrechnung in die Cloud bringen

Mit SAP SuccessFactors Employee Central (ECP) können Unternehmen den wichtigen HR-Prozess der Entgeltabrechnung schon heute modernisieren und zum Beispiel von Non-SAP-Systemen auf die Cloud-Lösung von SAP umstellen. Auch die H4S4 Payroll in der SAP S/4HANA Private Cloud Edition stellt eine valide Option dar. Künftig wird es darüber hinaus mit der SAP SuccessFactors Payroll (eher bekannt unter NextGen-Payroll) eine völlig neuartige Lösung geben. Sämtliche Varianten erlauben einen langfristigen Betrieb der Entgeltabrechnung in der Cloud.

Private Cloud: HCM in der Private Cloud Edition betreiben

Eine weitere Option ist, SAP HCM in Form von H4S4 Private Cloud Edition (PCE) oder RISE zu betreiben. Hierbei wird das vollständige HR-System von SAP selbst gehostet und verwaltet – eine attraktive Möglichkeit für Unternehmen, die ihre eigenen Rechenzentren abbauen. Aber Achtung: Diese Variante bringt einige funktionale Defizite im direkten Vergleich zur H4S4 On-Premise Edition (siehe SAP Hinweis 3091160).

SAP HCM Carve-Out: Der Weg zur erfolgreichen Trennung

Am Beispiel eines SAP HCM Carve-Outs soll nachfolgend ein solches Projekt beschrieben werden, welches eine umfassende Planung und eine klare Vorgehensweise erfordert. Oftmals wird der Carve-Out als Teil- oder Vorprojekt einer S/4HANA-Migration durchgeführt, um die HR-Daten vom SAP ERP-System zu trennen und in eine eigenständige Systemumgebung zu überführen.

Lesen Sie mehr über die Transformation von HCM-Systemen:

HR-Transformation Roadmap: So sieht Personalplanung der Zukunft aus

HCM On-premises und aus der Cloud: So setzen Sie ein hybrides SAP-HR-System richtig auf

SAP SuccessFactors Work Zone: Was Lust auf Arbeit macht

Personalmanagement für S/4HANA: Ihr Weg zur SAP-HCM-Strategie

Somit lassen sich etwa die Gesamtkomplexität reduzieren und technische Abhängigkeiten auflösen. Besonders drängend wird ein Carve-Out durch den bereits diskutierten Kompatibilitätsmodus und das damit verbundene Ende der Nutzungsrechte in einer integrierten S/4HANA Umgebung (Stichtag: 31. Dezember 2025).

Die Wahl der richtigen Vorgehensweise: Je nach individueller Ausgangslage, Anforderungen und gegebener technischer als auch prozessualer Komplexität sind verschiedene Ansätze für einen Carve-Out möglich. Folgende Optionen sind denkbar, um ein HCM-System erfolgreich zu separieren:

HCM-Datenexport mittels SAP Standard-Programm

Mit dem SAP-Programm RPCTABCC können HCM-Daten via Stücklisten beziehungsweise Transportaufträge transferiert werden. Dabei wird das HCM hinsichtlich der Stamm- und Bewegungsdaten sowie Customizing aus dem Quellsystem exportiert und in die neue Systemumgebung importiert. Repository Objekte des Quellsystems, wie etwa kundenspezifische Entwicklungen und Schnittstellen, müssen bei diesem Ansatz manuell in das Zielsystem übertragen und an dessen Rahmenbedingungen angepasst werden.

Systemkopie: Maximale Geschwindigkeit

Eine vollständige Systemkopie des integrierten SAP ERP respektive S/4HANA Systems inklusive HCM in eine neue oder zusätzliche Systemumgebung ist die schnellste und gleichzeitig umfassendes Variante eines Carve-Outs. Dieser Ansatz ermöglicht die Übertragung aller Stamm- und Bewegungsdaten inklusive der Repository Objekte – allerdings einschließlich der Nicht-HCM Objekte und Daten. Diese verbleiben auf dem neu geschaffenen Zielsystem als „technische Restschuld“ und sollten in einem zweiten Schritt mittels ILM oder kundeneigener Löschprogramme bereinigt werden.

Unterstützung durch 3rd-Party-Tools und Anbieter

Für besonders komplexe Migrationsprojekte bieten spezialisierte Anbieter wie etwa cbs, EPI-USE oder die SAP SLO flexible Werkzeuge an. Diese Lösungen erlauben es, Daten während des Carve-Outs nicht nur zu kopieren, sondern auch zu manipulieren und so an die neue Umgebung anzupassen – ideal, wenn zum Beispiel mehrere Gesellschaften fusionieren.

Schritt für Schritt: Der Ablauf eines SAP HCM Carve-Outs

Die Umsetzung eines SAP HCM Carve-Outs folgt einem klar strukturierten Plan, der aus mehreren Schritten besteht:

Vorgehensweise festlegen: Zu Beginn des Vorhabens wird entschieden, welche der oben beschriebenen Optionen für den Carve-Out genutzt werden soll. Diese Entscheidung legt den Grundstein für den Projektverlauf.

Sandbox-System aufbauen: Ein Projekt- beziehungsweise Sandbox-System dient als Testumgebung. Hier wird das Vorgehen im besten Falle mehrfach simuliert, Fehler werden frühzeitig erkannt und behoben, um spätere Störungen im Produktivsystem zu vermeiden.

Frozen Zone starten: Zu Beginn des Vorhabens muss eine Frozen Zone ausgerufen werden. Das bedeutet, dass das HCM-System beziehungsweise „Altsystem“ bis zum Projektende nicht mehr mittels Customizing oder Programmanpassungen verändert werden darf. Änderungen könnten sonst zu Inkonsistenzen im neuen System führen und den Carve-Out-Prozess erheblich erschweren. Für produktive Störungen können Ausnahmeregelungen vorgesehen werden.

HCM-Entwicklungssystem (DEV-Umgebung) aufbauen : Das künftige HCM-Entwicklungssystem wird aufgebaut, indem die zu überführenden HCM Repository-Objekte exportiert und in das neue SAP HCM System importiert werden. Ab diesem Zeitpunkt müssen Anpassungen an dem Quellcode auf dieser Umgebung erfolgen. Hierfür ist eine Änderung des Originalsystems unabdingbar. Eventuelle Notfalltransporte für die noch produktive Alt-Umgebung sind zu gegebener Zeit manuell nachzuholen.

HCM-Qualitätssicherungssystem (QAS-Umgebung) aufbauen: Sofern vorgesehen, ist die zweite Systemstufe, das Qualitäts- beziehungsweise Konsolidierungssystem zu etablieren. Es bietet die Möglichkeit, realitätsnahe Tests durchzuführen. Schnittstellen zu Subsystemen wie etwa Zeiterfassungsterminals sollten integriert werden, um sicherzustellen, dass alle kritischen Schnittstellen und Prozesse im neuen HR-Umfeld reibungslos funktionieren.

Umfassendes Testmanagement etablieren: End-to-End-Tests decken alle relevanten HR-Geschäftsprozesse ab und minimieren so das Risiko von Fehlfunktionen im späteren Produktivbetrieb. Diese Tests sollten alle Systeme und Prozesse einschließen, die mit dem HCM-System interagieren.

Change Management sicherstellen: Anwenderinnen und Anwender müssen frühzeitig und umfassend über die geplante Umstellung informiert werden. Dadurch lassen sich Missverständnisse und Unsicherheiten vermeiden. Gleichzeitig fördert ein gut aufgesetztes Change Management die Akzeptanz der neuen Systemumgebung.

Cut-Over-Plan erstellen und anwenden: Ein gut durchdachter Cut-Over-Plan stellt sicher, dass alle Aktivitäten zur Umstellung in der richtigen Reihenfolge ablaufen. Mit Blick auf Abhängigkeiten und Verantwortlichkeiten hilft ein präziser Zeitplan, den Übergang mit einer minimalen Downtime der Produktivumgebung zu realisieren.

Go/No-Go-Entscheidung, Smoke-Test und Go-Live: Kurz vor dem Go-Live wird eine Go/No-Go-Entscheidung getroffen. Diese basiert auf den Ergebnissen eines Smoke-Tests, der auf dem produktiven System durchgeführt wird und den erfolgreichen Transfer der HCM-Daten bestätigt. Dabei werden grundlegende Funktionen wie die Erfassung neuer Mitarbeitenden getestet, um sicherzustellen, dass keine grundsätzlichen Probleme bestehen.

Die System Landscape Transformation ist für Unternehmen, die weiterhin auf eine On-Premises basierte SAP HCM Lösung setzen, mehr als hilfreich. Wer frühzeitig mit der Planung beginnt, kann nicht nur das Auslaufen des Supports für ältere Systeme abfedern, sondern auch die HR-Prozesse auf zukunftsfähige Plattformen wie H4S4 oder SAP SuccessFactors überführen. Wer jetzt handelt, schafft die Basis für ein modernes, effizientes und wettbewerbsfähiges HCM-System.

Tipps, um SAP-HCM-Projekte zu meistern​ Weiterlesen »

Tipps und Tricks: So retten Sie Ihre Urlaubsentspannung ins Unternehmen​

Allgemein

Warum das so ist, hat ganz einfache Gründe. Das menschliche Gehirn reagiert auf jede nicht kontrollierbare Situation oder Person mit Stress, sobald man etwas verlieren könnte. Zeitdruck oder zu viele Aufgaben zum Beispiel sagen dem Gehirn, dass ein Verlust oder Ärger droht. Daraufhin wird sofort eine Stressreaktion ausgelöst, als laufe ein hungriger Grizzlybär hinter einem her. Gleichzeitig werden die Gehirnareale fürs Denken abgeschaltet. So kocht man dann im Stress hoch und wird gleichzeitig auch noch ineffektiver.Der Grund dafür liegt in unserer evolutionären Vergangenheit. Der Mensch ist zoologisch betrachtet nämlich ein Mitglied der Familie der großen Menschenaffen und hat sein letztes funktionales genetisches Update vor mehr als 40.000 Jahren erhalten. Deswegen ist auch der vermeidlich moderne Mensch eigentlich eher ein biologischer Oldtimer. Er ist auch heute immer noch dazu gebaut, sich als Jäger und Sammler in einer rauen Natur zu behaupten. Und alles, was da nicht unter Kontrolle ist, kann ziemlich schnell den Tod bedeuten. Deswegen heißt es bei allem nicht kontrollierbaren, wie zum Beispiel der Begegnung mit Raubtieren oder krawalligen Menschen, sich entweder durch Weglaufen oder Bekämpfen körperlich zu retten.Termindruck, Zeitmangel, Geldsorgen, Arbeitsverdichtung und Pausenmangel, das gibt es in der Natur in der Regel nicht. Das alte Stressprogramm des Menschen macht bei unkontrollierbaren Situationen oder Personen heute deswegen so einen Alarm, weil es jedes Mal denkt, ein Grizzly oder eine keulenschwingender Höhlenmensch sei hinter ihm her …Der gehetzte SchimpanseKaum sind wir also aus unserem schönen “grizzlyfreien” Urlaub zurück, da geht schon wieder die Post ab. Viele Aufgaben und Mails haben sich während unserer Abwesenheit angestaut. Ab dann flitzen die Stresshormone wieder durch Körper und Geist und saugen den liebevoll aufgeladenen Akku wieder leer. Warum der Akku so schnell wieder leer geht, hat auch einen Grund. Grundsätzlich ist der Mensch für Stress gebaut (schließlich wimmelt es in der puren Natur wie zum Beispiel in Afrika nur so von Gefahren von 0 bis 8 Beinen). Allerdings ist das mit dem Stress wie mit dem Benzinverbrauch bei Autos. Je mehr man aufs Gas tritt, desto höher ist der Verbrauch und um so schneller der Tank leer. Je mehr Stress wir also haben, desto schneller sind wir erschöpft. Aber auch wenn wir nur den motivierenden und verbrauchsarmen Stress entwickeln, ist irgendwann der Akku leer.Dann brauchen wir eine Erholungspause. Je tiefer der Akku nun entladen ist, desto länger brauchen wir unsere Ruhe. Und da liegt bei den meisten Menschen das Problem im Alltag. Wer viel Stress hat, der hat meistens auch wenig Zeit zum Regenerieren. Wenn wir also nach dem Urlaub sofort wieder Vollgas geben und die dann nötigen längeren Regenerationszeiten nicht einhalten, dann ist der Akku schon in wenigen Tagen wieder leergesaugt. Denn der Akku kann genau wie ein Tank im Auto nicht mehr als voll gemacht werden. Und dann hält der menschliche Akku im vollen Ladezustand stets immer nur ein paar Tage, bevor er wieder an das Ladegerät muss.Sollten Sie sich gerade hier wiederfinden, dann bekommen Sie jetzt schon einmal eine ganz wichtige Information. Sie verbrauchen mehr Energie als der Energiespeicher Ihres Körper zur Verfügung stellt. Normalerweise sollte ein Leben eine Balance zwischen Belastung (Stress) und Erholung bieten. Natürlich gibt es immer Phasen wie Kinder, Hausbau, Jobwechsel, Projekte etc., die an den Kräften zehren. Das aber sollte die Ausnahme sein, nicht die Regel. Ansonsten wird es auf die eine oder andere Weise ungesund.Stellen Sie sich dazu einmal vor, wir hetzten einen Schimpansen und ließen ihn kaum zur Ruhe kommen. Es würde sicherlich niemanden wundern, wenn der Affe irgendwann krank werden würde. Genau so ist das bei uns Menschen(affen) auch. Dauerstress belastet das Herz-Kreislauf-System enorm. Bluthochdruck und Herzinfarkte sind Krankheitsbilder, die daraus resultieren können. Das Verdauungssystem wird auch gestört, weil Verdauen eigentlich in der Ruhephase stattfinden soll. Nur wenn es kaum Ruhephasen gibt?! Magengeschwüre und Co. lassen grüßen.Auch müssen Sie unbedingt wissen, dass sich unter Stress die Körperzellen nicht gerne erneuern. Aber genau dass müssen sie regelmäßig. Denken Sie in dem Zusammenhang mal an Hautschüppchen. Aber nicht nur die Haut erneuert sich permanent. Auch die Zellen der Organe tun dies und das ziemlich emsig. Und wenn wir uns im Dauerstress befinden, werden die Zellen immer weniger erneuert und damit anfällig für diverse Krankheiten. Daneben wird das Immunsystem durch Dauerstress immer schwächer und bietet Erregern aller Couleur täglich mehr Spielraum. Auch kann es sein, dass der Körper irgendwann so erschöpft ist, dass er depressiv zusammenbricht. Er ist dann ausgebrannt, man spricht dann von Burn-out.Zeit, dass wir uns den Lösungen zuwendenStress gehört zu jedem Leben dazu. Viel Stress kostet einfach viel Kraft und fordert deshalb auch viel Erholung. Weil die meisten Menschen aber nicht alle zwei Wochen in Urlaub fahren können, sollte man versuchen den Urlaub in jeden Tag zu integrieren. Bereits wenige Minuten abzuschalten, tankt den Akku wunderbar auf und verhindert die Tiefenentladung. Ein idealer Zeitpunkt dafür ist, wenn wir sowieso müde sind. Das ist in der Regel natürlicherweise ungefähr alle vier Stunden der Fall. Auch nach dem Mittagessen, wenn der Körper alle Energie in die Verdauung investiert, ist ein guter Zeitpunkt für einen Kurzurlaub.Es gibt viele verschiedene Techniken, um abzuschalten und Kraft zu tanken. Ich werde Ihnen im Folgenden drei Techniken vorstellen, die ich persönlich für besonders gut halte.1. Einen Baum pflanzenMachen Sie es sich für diese Technik an einem beliebigen Ort bequem und reservieren Sie sich ein Zeitfenster von fünf bis zehn Minuten. Wenn Sie danach terminlich eng sind, stellen Sie sich einen Wecker, denn manchmal schläft man dabei auch gerne ein.Haben Sie dabei nicht den Anspruch, dass der Ort völlig ruhig ist. Das gibt es meistens nur auf Friedhöfen. Die Kunst ist, unter auch nicht optimalen Bedingungen abschalten zu lernen.Schließen Sie nun Ihre Augen und stellen sich vor, Sie drücken ein Samenkorn in den Boden. Nun stellen Sie sich in Ihrer Phantasie vor, wie aus dem Samenkorn ein kleiner Stamm aus dem Boden erwächst. Jetzt nehmen Sie alle Wahrnehmungen und Gedanken, die Ihnen gerade durch den Kopf gehen, und lassen Sie mit Ihnen den Baumstamm immer dicker und größer werden.Wenn der Stamm durch Gedanken und Wahrnehmungen genährt, richtig groß und stark geworden ist, dann lassen Sie in der Baumkrone schöne grüne Blätter wachsen. Jetzt dürfen Sie Ihren Baum ein wenig bestaunen!Was ist das für ein Baum? Wie sieht der Stamm genau aus? Wie sehen die Blätter genau aus? Wie sieht der Boden unter den Füßen aus? Wie sieht es in der Umgebung aus? Ihre Umgebung kann ja zum Beispiel einem Lieblingsort aus einem Urlaub ähneln …Vielleicht können Sie ja auch noch Geräusche wahrnehmen? Vielleicht spüren Sie etwas Wind oder Sonne auf Ihrer Haut, oder Gerüche?Je mehr Sie sich nun in der Welt versinken, desto entspannter werden Sie. Sie schöpfen neue Kraft und tanken Erholung. Mit dem Wecker oder dem natürlichen Öffnen der Augen beenden Sie dann Ihren Kurzurlaub. Aber Sie wissen, dass Sie ab jetzt jederzeit hier hin wieder zurückkehren können.Die Schritte in Kurzform:Tageszeitpunkt leichter Müdigkeit wählenZeitfenster von fünf bis zehn Minuten nehmen und eventuell Wecker stellenAugen schließenIn der Phantasie Samenkorn in den Boden drückenBaumstamm wachsen lassen und alle Gedanken und Wahrnehmungen dort reindrückenBlätter wachsen lassenUmgebung entstehen lassenWeitere Eindrücke wie Geräusche, Wahrnehmungen oder Gerüche suchen2. Die kleine AtempauseNehmen Sie sich dazu ein Zeitfenster von rund fünf Minuten und stellen Sie ruhig einen Wecker dazu ein. Machen Sie es sich gemütlich. Wenn Sie wollen, können Sie auch noch etwas Musik oder andere stimmungsfördernde Mittel einsetzen. Dann konzentrieren Sie sich zu Beginn nur auf das Einatmen durch die Nase. Stellen Sie sich dabei einfach vor, sie atmen durch den Bauchnabel ein.Dabei können Sie feststellen, wie sich Ihre Lungen von der Tiefe aus mit frischer Luft füllen und sich der Brustkorb immer mehr erweitert. Das Einatmen sollte ungefähr vier bis fünf Sekunden dauern. Anfänglich können Sie ruhig mit der inneren Stimme mitzählen.Nach dem Einatmen lassen Sie einfach los und atmen langsam durch den leicht geschlossenen Mund aus.Wenn Ihre Gedanken oder andere Wahrnehmungen wie Geräusche Ihre Aufmerksamkeit von der Atmung abziehen, ist das normal. Versuchen Sie, wenn Sie es merken, dann einfach wieder auf die Atmung – mit Schwerpunkt Einatmen – zurückzukehren.Die Schritte in Kurzform: Fünf Minuten Zeit nehmen und Wecker stellen Bequem machen Konzentration auf das Einatmen durch die Nase In der Vorstellung wird durch den Bauchnabel eingeatmet Beim Ausatmen einfach loslassen und durch den leicht geschlossen Mund ausatmen Wenn die Gedanken abschweifen, einfach wieder auf das Einatmen konzentrieren3. Das AbschaltritualKörper und Geist entspannen in der Freizeit meist automatisch. Denn in der freien Zeit machen Menschen das, wonach ihnen ist. Ganz egal, ob Sie zum Beispiel Fernsehen gucken, ein Buch lesen, mit anderen Menschen sprechen, im Internet surfen, spazieren gehen oder Sport treiben. In Abhängigkeit zur Energie machen sie meist entweder herausfordernde oder eher entspannende Dinge.Das alles funktioniert aber nur dann, wenn der unbewusste Teil des Gehirns sich gedanklich von der Arbeit verabschiedet. Der Geist nimmt aber nicht selten Arbeitsthemen mit nach Hause. Dann klappt das Abschalten nicht gut, weil die Gedanken an die Arbeit immer weiter Stress im Körper auslösen.Um sich von belastenden Arbeitsgedanken zu lösen, bedarf es eines Rituals. Möglicherweise wenden Sie bereits schon eins mehr oder weniger bewusst an. Manche Menschen legen mit der Berufskleidung den Job ab, andere trinken erstmal eine Tasse Tee oder legen zehn Minuten die Füße hoch.Eine Idee von mir für ein Ritual findet am Türschloss statt. Wenn Sie zu Hause ankommen und den Schlüssel ins Schloss stecken, atmen Sie einmal so langsam wie Sie können durch die Nase ein und so langsam wie es geht durch den leicht geschlossenen Mund wieder aus. Betreten Sie dann Ihre Wohnung, schenken sich selber ein freundliches Lächeln und sagen sich “Ich wünsche mir jetzt eine erholsame und schöne freie Zeit!” Stellen Sie sich dabei vor, mit der Türschwelle eine Linie zu überqueren.Eins ist noch wichtig! Wenn wir sehr gestresst nach Hause kommen, dann flitzen immer noch viele Stresshormone im Körper rum. Wenn sie jetzt versuchen würden in die Freizeit zu wechseln, würden sie wahrscheinlich trotzdem keine innere Ruhe finden. Ihr angetriebener Körper treibt jetzt weiter den Geist an. Meine Empfehlung wäre jetzt das zu tun, wofür Stresshormone da sind: Bewegung! Ob Sie jetzt körperlich im Haus oder Garten arbeiten, zügig spazieren gehen oder zum Sport, das bleibt Ihnen überlassen. Wichtig ist nur, dass Sie Ihre Stresshormone vor dem Abschalten verbrauchen!Die Schritte im Einzelnen: Beim Aufschließen so langsam wie es geht durch die Nase einatmen So langsam wie es geht durch den leicht geschlossenen Mund ausatmen Die Wohnung mit einem freundlichen Lächeln betreten und sich bei der Türschwelle vorstellen, eine Linie zu überqueren Sich selbst eine erholsame und schöne freie Zeit wünschen Stresshormone verbrauchen durch körperliche Aktionen und Bewegung Alternativ ein anderes Ritual des Übergangs suchen und übenLieber Leser, ich hoffe es ist mir gelungen, Ihnen ein paar neue Ideen für Ihre Gelassenheit geben zu können. Natürlich führen alle Wege nach Rom und es gibt viele weitere tolle Tipps und Techniken. Wichtig für Sie noch zu wissen ist, dass wir gar nicht so viele Techniken brauchen. Lieber nur zwei bis drei Techniken, aber diese regelmäßig anwenden. Denn mit jeder Wiederholung gelingt eine Technik mit ihrem positiven Effekt immer leichter, bis sie dann fast automatisch läuft. Und das ist gerade in stressigen Zeiten so wichtig. Der römische Philosoph Seneca sagte dazu sehr schön: “Der wahre Steuermann zeigt sich im Sturm.” In diesem Sinne wünsche ich Ihnen viel Erfolg und Erkenntnisse auf Ihrem Weg zur Gelassenheit!9 Tipps für einen entspannten Urlaub9 Tipps für einen entspannten UrlaubBesser vier Wochen Sylt, als zwei Wochen DomRep: “Körper und Seele brauchen mindestens drei Wochen, um sich zu erholen”, weiß der Psychiater Michael Stark. “Das gilt ganz besonders, wenn man in eine andere Zeitzone oder in ein anderes Klima fährt.” Denn Jetlag und die Umstellung auf tropische Temperaturen belasten den Körper mehr, als ihn zu erholen. Das gilt ganz besonders für stark Gestresste und für Kurzurlaube.Erledigen Sie alle wichtigen Aufgaben vor Ihrem UrlaubUnd bitte nicht die letzten Aufgaben im Flugzeug auf dem Weg in den Urlaub erledigen. Die Gefahr, die Arbeit mit in die Ferien zu nehmen wäre zu hoch.Versuchen Sie es mit einem KontrastprogrammMachen Sie in Ihrem Urlaub das, was Sie zuhause selten tun. Wenn Sie bei ihrem Job viel sitzen oder stehen, versuchen Sie es in den Ferien mit Bewegung. Haben Sie in Ihrer Arbeit ständig mit vielen Menschen zu tun, probieren Sie im Urlaub aus, ob Sie Stille und Leere genießen können.Überfrachten Sie Ihren Urlaub nichtNehmen Sie sich nicht jeden Tag was vor, sondern planen Sie auch Zeiten ohne Aktivitäten ein, in denen Sie einfach nur entspannen. Wenn Sie mit Partner oder Familie reisen, gönnen Sie allen auch einmal Zeit ohne die anderen. Manchmal lassen sich einfach nicht alle Urlaubswünsche auf einen Nenner bringen. Schalten Sie Ihr Handy ausDiese Maßnahme wird den meisten wohl am schwersten fallen; schließlich kann es ja sein, dass Kunden mit Aufträgen winken. Genau das ist aber zugleich der größte Stressfaktor. Versuchen Sie es zunächst mit langsamer Entwöhnung: Hören Sie einmal am Tag Ihre Mailbox ab, das reicht.Lassen Sie zwischen letztem Arbeits- und erstem Reisetag ein paar Tage vergehenDamit geben Sie dem Körper die Möglichkeit, zwischen Arbeitsstress und Reisestress schon einmal ein wenig zu entspannen.Der eine liegt im Urlaub gerne am Strand, der andere geht gerne wandernFinden Sie heraus, was Ihnen gut tut: faulenzen oder aktive Entspannung. Das ist von Mensch zu Mensch unterschiedlich.Wenn Sie in den ersten Urlaubstagen noch an die Arbeit denken, machen Sie sich keinen Stress damitSolche Gedanken stehen nicht im Widerspruch zu Ihrem Wunsch nach Entspannung, sondern können der Auftakt dafür sein, wenn Sie anschließend die Fragen und Probleme aus Ihrem Job abgehakt haben.Nehmen Sie Ihren Urlaub mit nach HauseFotos und Videos wecken auch später die Erinnerung an entspannte Tage und schöne Erlebnisse. Die Musik, die Sie am Strand oder im Club gehört haben, bringt Ihnen das Gefühl der Erholung wieder zurück. Und wenn Sie Ihren Weg zur Entspannung gefunden haben, probieren Sie einfach aus, ob der auch im Alltag für Sie begehbar ist. 

Tipps und Tricks: So retten Sie Ihre Urlaubsentspannung ins Unternehmen​ Warum das so ist, hat ganz einfache Gründe. Das menschliche Gehirn reagiert auf jede nicht kontrollierbare Situation oder Person mit Stress, sobald man etwas verlieren könnte. Zeitdruck oder zu viele Aufgaben zum Beispiel sagen dem Gehirn, dass ein Verlust oder Ärger droht. Daraufhin wird sofort eine Stressreaktion ausgelöst, als laufe ein hungriger Grizzlybär hinter einem her. Gleichzeitig werden die Gehirnareale fürs Denken abgeschaltet. So kocht man dann im Stress hoch und wird gleichzeitig auch noch ineffektiver.Der Grund dafür liegt in unserer evolutionären Vergangenheit. Der Mensch ist zoologisch betrachtet nämlich ein Mitglied der Familie der großen Menschenaffen und hat sein letztes funktionales genetisches Update vor mehr als 40.000 Jahren erhalten. Deswegen ist auch der vermeidlich moderne Mensch eigentlich eher ein biologischer Oldtimer. Er ist auch heute immer noch dazu gebaut, sich als Jäger und Sammler in einer rauen Natur zu behaupten. Und alles, was da nicht unter Kontrolle ist, kann ziemlich schnell den Tod bedeuten. Deswegen heißt es bei allem nicht kontrollierbaren, wie zum Beispiel der Begegnung mit Raubtieren oder krawalligen Menschen, sich entweder durch Weglaufen oder Bekämpfen körperlich zu retten.Termindruck, Zeitmangel, Geldsorgen, Arbeitsverdichtung und Pausenmangel, das gibt es in der Natur in der Regel nicht. Das alte Stressprogramm des Menschen macht bei unkontrollierbaren Situationen oder Personen heute deswegen so einen Alarm, weil es jedes Mal denkt, ein Grizzly oder eine keulenschwingender Höhlenmensch sei hinter ihm her …Der gehetzte SchimpanseKaum sind wir also aus unserem schönen “grizzlyfreien” Urlaub zurück, da geht schon wieder die Post ab. Viele Aufgaben und Mails haben sich während unserer Abwesenheit angestaut. Ab dann flitzen die Stresshormone wieder durch Körper und Geist und saugen den liebevoll aufgeladenen Akku wieder leer. Warum der Akku so schnell wieder leer geht, hat auch einen Grund. Grundsätzlich ist der Mensch für Stress gebaut (schließlich wimmelt es in der puren Natur wie zum Beispiel in Afrika nur so von Gefahren von 0 bis 8 Beinen). Allerdings ist das mit dem Stress wie mit dem Benzinverbrauch bei Autos. Je mehr man aufs Gas tritt, desto höher ist der Verbrauch und um so schneller der Tank leer. Je mehr Stress wir also haben, desto schneller sind wir erschöpft. Aber auch wenn wir nur den motivierenden und verbrauchsarmen Stress entwickeln, ist irgendwann der Akku leer.Dann brauchen wir eine Erholungspause. Je tiefer der Akku nun entladen ist, desto länger brauchen wir unsere Ruhe. Und da liegt bei den meisten Menschen das Problem im Alltag. Wer viel Stress hat, der hat meistens auch wenig Zeit zum Regenerieren. Wenn wir also nach dem Urlaub sofort wieder Vollgas geben und die dann nötigen längeren Regenerationszeiten nicht einhalten, dann ist der Akku schon in wenigen Tagen wieder leergesaugt. Denn der Akku kann genau wie ein Tank im Auto nicht mehr als voll gemacht werden. Und dann hält der menschliche Akku im vollen Ladezustand stets immer nur ein paar Tage, bevor er wieder an das Ladegerät muss.Sollten Sie sich gerade hier wiederfinden, dann bekommen Sie jetzt schon einmal eine ganz wichtige Information. Sie verbrauchen mehr Energie als der Energiespeicher Ihres Körper zur Verfügung stellt. Normalerweise sollte ein Leben eine Balance zwischen Belastung (Stress) und Erholung bieten. Natürlich gibt es immer Phasen wie Kinder, Hausbau, Jobwechsel, Projekte etc., die an den Kräften zehren. Das aber sollte die Ausnahme sein, nicht die Regel. Ansonsten wird es auf die eine oder andere Weise ungesund.Stellen Sie sich dazu einmal vor, wir hetzten einen Schimpansen und ließen ihn kaum zur Ruhe kommen. Es würde sicherlich niemanden wundern, wenn der Affe irgendwann krank werden würde. Genau so ist das bei uns Menschen(affen) auch. Dauerstress belastet das Herz-Kreislauf-System enorm. Bluthochdruck und Herzinfarkte sind Krankheitsbilder, die daraus resultieren können. Das Verdauungssystem wird auch gestört, weil Verdauen eigentlich in der Ruhephase stattfinden soll. Nur wenn es kaum Ruhephasen gibt?! Magengeschwüre und Co. lassen grüßen.Auch müssen Sie unbedingt wissen, dass sich unter Stress die Körperzellen nicht gerne erneuern. Aber genau dass müssen sie regelmäßig. Denken Sie in dem Zusammenhang mal an Hautschüppchen. Aber nicht nur die Haut erneuert sich permanent. Auch die Zellen der Organe tun dies und das ziemlich emsig. Und wenn wir uns im Dauerstress befinden, werden die Zellen immer weniger erneuert und damit anfällig für diverse Krankheiten. Daneben wird das Immunsystem durch Dauerstress immer schwächer und bietet Erregern aller Couleur täglich mehr Spielraum. Auch kann es sein, dass der Körper irgendwann so erschöpft ist, dass er depressiv zusammenbricht. Er ist dann ausgebrannt, man spricht dann von Burn-out.Zeit, dass wir uns den Lösungen zuwendenStress gehört zu jedem Leben dazu. Viel Stress kostet einfach viel Kraft und fordert deshalb auch viel Erholung. Weil die meisten Menschen aber nicht alle zwei Wochen in Urlaub fahren können, sollte man versuchen den Urlaub in jeden Tag zu integrieren. Bereits wenige Minuten abzuschalten, tankt den Akku wunderbar auf und verhindert die Tiefenentladung. Ein idealer Zeitpunkt dafür ist, wenn wir sowieso müde sind. Das ist in der Regel natürlicherweise ungefähr alle vier Stunden der Fall. Auch nach dem Mittagessen, wenn der Körper alle Energie in die Verdauung investiert, ist ein guter Zeitpunkt für einen Kurzurlaub.Es gibt viele verschiedene Techniken, um abzuschalten und Kraft zu tanken. Ich werde Ihnen im Folgenden drei Techniken vorstellen, die ich persönlich für besonders gut halte.1. Einen Baum pflanzenMachen Sie es sich für diese Technik an einem beliebigen Ort bequem und reservieren Sie sich ein Zeitfenster von fünf bis zehn Minuten. Wenn Sie danach terminlich eng sind, stellen Sie sich einen Wecker, denn manchmal schläft man dabei auch gerne ein.Haben Sie dabei nicht den Anspruch, dass der Ort völlig ruhig ist. Das gibt es meistens nur auf Friedhöfen. Die Kunst ist, unter auch nicht optimalen Bedingungen abschalten zu lernen.Schließen Sie nun Ihre Augen und stellen sich vor, Sie drücken ein Samenkorn in den Boden. Nun stellen Sie sich in Ihrer Phantasie vor, wie aus dem Samenkorn ein kleiner Stamm aus dem Boden erwächst. Jetzt nehmen Sie alle Wahrnehmungen und Gedanken, die Ihnen gerade durch den Kopf gehen, und lassen Sie mit Ihnen den Baumstamm immer dicker und größer werden.Wenn der Stamm durch Gedanken und Wahrnehmungen genährt, richtig groß und stark geworden ist, dann lassen Sie in der Baumkrone schöne grüne Blätter wachsen. Jetzt dürfen Sie Ihren Baum ein wenig bestaunen!Was ist das für ein Baum? Wie sieht der Stamm genau aus? Wie sehen die Blätter genau aus? Wie sieht der Boden unter den Füßen aus? Wie sieht es in der Umgebung aus? Ihre Umgebung kann ja zum Beispiel einem Lieblingsort aus einem Urlaub ähneln …Vielleicht können Sie ja auch noch Geräusche wahrnehmen? Vielleicht spüren Sie etwas Wind oder Sonne auf Ihrer Haut, oder Gerüche?Je mehr Sie sich nun in der Welt versinken, desto entspannter werden Sie. Sie schöpfen neue Kraft und tanken Erholung. Mit dem Wecker oder dem natürlichen Öffnen der Augen beenden Sie dann Ihren Kurzurlaub. Aber Sie wissen, dass Sie ab jetzt jederzeit hier hin wieder zurückkehren können.Die Schritte in Kurzform:Tageszeitpunkt leichter Müdigkeit wählenZeitfenster von fünf bis zehn Minuten nehmen und eventuell Wecker stellenAugen schließenIn der Phantasie Samenkorn in den Boden drückenBaumstamm wachsen lassen und alle Gedanken und Wahrnehmungen dort reindrückenBlätter wachsen lassenUmgebung entstehen lassenWeitere Eindrücke wie Geräusche, Wahrnehmungen oder Gerüche suchen2. Die kleine AtempauseNehmen Sie sich dazu ein Zeitfenster von rund fünf Minuten und stellen Sie ruhig einen Wecker dazu ein. Machen Sie es sich gemütlich. Wenn Sie wollen, können Sie auch noch etwas Musik oder andere stimmungsfördernde Mittel einsetzen. Dann konzentrieren Sie sich zu Beginn nur auf das Einatmen durch die Nase. Stellen Sie sich dabei einfach vor, sie atmen durch den Bauchnabel ein.Dabei können Sie feststellen, wie sich Ihre Lungen von der Tiefe aus mit frischer Luft füllen und sich der Brustkorb immer mehr erweitert. Das Einatmen sollte ungefähr vier bis fünf Sekunden dauern. Anfänglich können Sie ruhig mit der inneren Stimme mitzählen.Nach dem Einatmen lassen Sie einfach los und atmen langsam durch den leicht geschlossenen Mund aus.Wenn Ihre Gedanken oder andere Wahrnehmungen wie Geräusche Ihre Aufmerksamkeit von der Atmung abziehen, ist das normal. Versuchen Sie, wenn Sie es merken, dann einfach wieder auf die Atmung – mit Schwerpunkt Einatmen – zurückzukehren.Die Schritte in Kurzform: Fünf Minuten Zeit nehmen und Wecker stellen Bequem machen Konzentration auf das Einatmen durch die Nase In der Vorstellung wird durch den Bauchnabel eingeatmet Beim Ausatmen einfach loslassen und durch den leicht geschlossen Mund ausatmen Wenn die Gedanken abschweifen, einfach wieder auf das Einatmen konzentrieren3. Das AbschaltritualKörper und Geist entspannen in der Freizeit meist automatisch. Denn in der freien Zeit machen Menschen das, wonach ihnen ist. Ganz egal, ob Sie zum Beispiel Fernsehen gucken, ein Buch lesen, mit anderen Menschen sprechen, im Internet surfen, spazieren gehen oder Sport treiben. In Abhängigkeit zur Energie machen sie meist entweder herausfordernde oder eher entspannende Dinge.Das alles funktioniert aber nur dann, wenn der unbewusste Teil des Gehirns sich gedanklich von der Arbeit verabschiedet. Der Geist nimmt aber nicht selten Arbeitsthemen mit nach Hause. Dann klappt das Abschalten nicht gut, weil die Gedanken an die Arbeit immer weiter Stress im Körper auslösen.Um sich von belastenden Arbeitsgedanken zu lösen, bedarf es eines Rituals. Möglicherweise wenden Sie bereits schon eins mehr oder weniger bewusst an. Manche Menschen legen mit der Berufskleidung den Job ab, andere trinken erstmal eine Tasse Tee oder legen zehn Minuten die Füße hoch.Eine Idee von mir für ein Ritual findet am Türschloss statt. Wenn Sie zu Hause ankommen und den Schlüssel ins Schloss stecken, atmen Sie einmal so langsam wie Sie können durch die Nase ein und so langsam wie es geht durch den leicht geschlossenen Mund wieder aus. Betreten Sie dann Ihre Wohnung, schenken sich selber ein freundliches Lächeln und sagen sich “Ich wünsche mir jetzt eine erholsame und schöne freie Zeit!” Stellen Sie sich dabei vor, mit der Türschwelle eine Linie zu überqueren.Eins ist noch wichtig! Wenn wir sehr gestresst nach Hause kommen, dann flitzen immer noch viele Stresshormone im Körper rum. Wenn sie jetzt versuchen würden in die Freizeit zu wechseln, würden sie wahrscheinlich trotzdem keine innere Ruhe finden. Ihr angetriebener Körper treibt jetzt weiter den Geist an. Meine Empfehlung wäre jetzt das zu tun, wofür Stresshormone da sind: Bewegung! Ob Sie jetzt körperlich im Haus oder Garten arbeiten, zügig spazieren gehen oder zum Sport, das bleibt Ihnen überlassen. Wichtig ist nur, dass Sie Ihre Stresshormone vor dem Abschalten verbrauchen!Die Schritte im Einzelnen: Beim Aufschließen so langsam wie es geht durch die Nase einatmen So langsam wie es geht durch den leicht geschlossenen Mund ausatmen Die Wohnung mit einem freundlichen Lächeln betreten und sich bei der Türschwelle vorstellen, eine Linie zu überqueren Sich selbst eine erholsame und schöne freie Zeit wünschen Stresshormone verbrauchen durch körperliche Aktionen und Bewegung Alternativ ein anderes Ritual des Übergangs suchen und übenLieber Leser, ich hoffe es ist mir gelungen, Ihnen ein paar neue Ideen für Ihre Gelassenheit geben zu können. Natürlich führen alle Wege nach Rom und es gibt viele weitere tolle Tipps und Techniken. Wichtig für Sie noch zu wissen ist, dass wir gar nicht so viele Techniken brauchen. Lieber nur zwei bis drei Techniken, aber diese regelmäßig anwenden. Denn mit jeder Wiederholung gelingt eine Technik mit ihrem positiven Effekt immer leichter, bis sie dann fast automatisch läuft. Und das ist gerade in stressigen Zeiten so wichtig. Der römische Philosoph Seneca sagte dazu sehr schön: “Der wahre Steuermann zeigt sich im Sturm.” In diesem Sinne wünsche ich Ihnen viel Erfolg und Erkenntnisse auf Ihrem Weg zur Gelassenheit!9 Tipps für einen entspannten Urlaub9 Tipps für einen entspannten UrlaubBesser vier Wochen Sylt, als zwei Wochen DomRep: “Körper und Seele brauchen mindestens drei Wochen, um sich zu erholen”, weiß der Psychiater Michael Stark. “Das gilt ganz besonders, wenn man in eine andere Zeitzone oder in ein anderes Klima fährt.” Denn Jetlag und die Umstellung auf tropische Temperaturen belasten den Körper mehr, als ihn zu erholen. Das gilt ganz besonders für stark Gestresste und für Kurzurlaube.Erledigen Sie alle wichtigen Aufgaben vor Ihrem UrlaubUnd bitte nicht die letzten Aufgaben im Flugzeug auf dem Weg in den Urlaub erledigen. Die Gefahr, die Arbeit mit in die Ferien zu nehmen wäre zu hoch.Versuchen Sie es mit einem KontrastprogrammMachen Sie in Ihrem Urlaub das, was Sie zuhause selten tun. Wenn Sie bei ihrem Job viel sitzen oder stehen, versuchen Sie es in den Ferien mit Bewegung. Haben Sie in Ihrer Arbeit ständig mit vielen Menschen zu tun, probieren Sie im Urlaub aus, ob Sie Stille und Leere genießen können.Überfrachten Sie Ihren Urlaub nichtNehmen Sie sich nicht jeden Tag was vor, sondern planen Sie auch Zeiten ohne Aktivitäten ein, in denen Sie einfach nur entspannen. Wenn Sie mit Partner oder Familie reisen, gönnen Sie allen auch einmal Zeit ohne die anderen. Manchmal lassen sich einfach nicht alle Urlaubswünsche auf einen Nenner bringen. Schalten Sie Ihr Handy ausDiese Maßnahme wird den meisten wohl am schwersten fallen; schließlich kann es ja sein, dass Kunden mit Aufträgen winken. Genau das ist aber zugleich der größte Stressfaktor. Versuchen Sie es zunächst mit langsamer Entwöhnung: Hören Sie einmal am Tag Ihre Mailbox ab, das reicht.Lassen Sie zwischen letztem Arbeits- und erstem Reisetag ein paar Tage vergehenDamit geben Sie dem Körper die Möglichkeit, zwischen Arbeitsstress und Reisestress schon einmal ein wenig zu entspannen.Der eine liegt im Urlaub gerne am Strand, der andere geht gerne wandernFinden Sie heraus, was Ihnen gut tut: faulenzen oder aktive Entspannung. Das ist von Mensch zu Mensch unterschiedlich.Wenn Sie in den ersten Urlaubstagen noch an die Arbeit denken, machen Sie sich keinen Stress damitSolche Gedanken stehen nicht im Widerspruch zu Ihrem Wunsch nach Entspannung, sondern können der Auftakt dafür sein, wenn Sie anschließend die Fragen und Probleme aus Ihrem Job abgehakt haben.Nehmen Sie Ihren Urlaub mit nach HauseFotos und Videos wecken auch später die Erinnerung an entspannte Tage und schöne Erlebnisse. Die Musik, die Sie am Strand oder im Club gehört haben, bringt Ihnen das Gefühl der Erholung wieder zurück. Und wenn Sie Ihren Weg zur Entspannung gefunden haben, probieren Sie einfach aus, ob der auch im Alltag für Sie begehbar ist.

Tipps und Tricks: So retten Sie Ihre Urlaubsentspannung ins Unternehmen​ Weiterlesen »

Angst vor hohen Betriebskosten bremst KI-Einführung​

Allgemein

Beim KI-Training noch tragbar, können anhaltend hohe Inferenzkosten das Potenzial von KI-Projekte deutlich reduzieren. Andrey_Popov – Shutterstock Die zunehmende Nutzung von KI in Unternehmen wird durch die schwer kalkulierbaren Inferenzkosten gebremst – viele Unternehmen befürchten unerwartet hohe Rechnungen für entsprechende Cloud-Dienste. Zu diesem Ergebnis kommen die Marktforscher von Canalys in einem aktuellen Bericht. Demnach beliefen sich die weltweiten Ausgaben für Cloud-Infrastrukturdienste den Schätzungen der Analysten zufolge im ersten Quartal 2025 auf 90,9 Milliarden Dollar. Das entspricht einem Anstieg von 21 Prozent gegenüber dem Vorjahr. KI treibt Cloud-Migration   Die Unternehmen hätten erkannt, dass die Bereitstellung von KI-Anwendungen einen erneuten Fokus auf die Cloud-Migration erfordert, so die Marktforscher. Sie gehen davon aus, dass umfangreiche Investitionen in Cloud- und KI-Infrastruktur das ganze Jahr über ein bestimmendes Marktthema sein werden. Allerdings beobachten die Auguren, dass die mangelnde Transparenz bei den laufenden, wiederkehrenden Inferenzkosten bei den Unternehmen für Verunsicherung sorgt. „Im Gegensatz zum Training, das eine einmalige Investition darstellt, verursacht die Inferenz wiederkehrende Betriebskosten, was sie zu einem entscheidenden Hindernis auf dem Weg zur Kommerzialisierung der KI macht“, erklärt Rachel Brindley, Senior Director bei Canalys. Da KI zunehmend von der Forschung in den großflächigen Einsatz übergehe, würden Unternehmen ihr Augenmerk verstärkt auf die Kosteneffizienz der Inferenz legen und dabei Modelle, Cloud-Plattformen und Hardware-Architekturen wie GPUs mit speziell entwickelten Beschleunigern vergleichen. „Viele KI-Dienste folgen heute nutzungsbasierten Preismodellen – in der Regel werden Token oder API-Aufrufe abgerechnet –, was die Kostenprognose mit steigender Nutzung zunehmend erschwert“, fügt Yi Zhang, ebenfalls Analystin bei Canalys, hinzu. Sind die Inferenzkosten volatil oder übermäßig hoch, seien Unternehmen gezwungen, die Nutzung einzuschränken, die Komplexität der Modelle zu reduzieren oder den Einsatz auf hochwertige Szenarien zu beschränken. „Als Konsequenz bleibt das breitere Potenzial von KI ungenutzt“, so Zhang. Um diesen Herausforderungen zu begegnen, verstärken führende Cloud-Anbieter ihre Investitionen in KI-optimierte Infrastrukturen, erklärt Canalys. Hyperscaler wie AWS, Azure und Google Cloud hätten allesamt proprietäre Chips und TPUs sowie speziell entwickelte Instanzfamilien eingeführt, die darauf abzielen, die Inferenzleistung zu verbessern und die Gesamtkosten für KI zu senken. Als Beispiel verweisen die Auguren auf AWS. Die Amazon-Tochter habe im März ihre Preise angepasst, um die Einführung ihrer Trainium-KI-Chips gegenüber teureren, NVIDIA-basierten Lösungen zu fördern. Dabei wurde der Preis-Leistungs-Vorteil von Trainium 2 in Höhe von 30 bis 40 Prozent hervorgehoben. Auch Wettbewerber Microsoft Azure fokussiere sich darauf, die Kosten für die KI-Einführung zu senken, berichtet Canalys. So sei es mithilfe von alternativen Lösungen möglich, die KI-Leistung bei konstantem Stromverbrauch um fast 30 Prozent zu steigern, während die Kosten pro Token um über 50 Prozent sinken. AWS vor Microsoft Azure und Google Cloud Im globalen Vergleich behauptete AWS im ersten Quartal 2025 souverän seine Führungsposition im Markt für Cloud-Infrastrukturdienste: Laut Canalys steigerte der Anbieter seinen Umsatz um 17 Prozent und erreichte einen Marktanteil von 32 Prozent. Microsoft Azure folgte mit 23 Prozent Marktanteil und einem kräftigen Wachstum von 33 Prozent. Google Cloud lag mit zehn Prozent auf Platz drei und verzeichnete ein Plus von 31 Prozent. Gemeinsam vereinten die drei Hyperscaler 65 Prozent der weltweiten Cloud-Ausgaben auf sich – ein Zuwachs von 24 Prozent im Vergleich zum Vorjahr. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?quality=50&strip=all 900w, https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”900″ height=”506″ sizes=”(max-width: 900px) 100vw, 900px”>Die drei führenden Hyperscaler verzeichnen dank KI weiterhin kräftige Wachstumsraten. Canalys 

Angst vor hohen Betriebskosten bremst KI-Einführung​ Beim KI-Training noch tragbar, können anhaltend hohe Inferenzkosten das Potenzial von KI-Projekte deutlich reduzieren. Andrey_Popov – Shutterstock

Die zunehmende Nutzung von KI in Unternehmen wird durch die schwer kalkulierbaren Inferenzkosten gebremst – viele Unternehmen befürchten unerwartet hohe Rechnungen für entsprechende Cloud-Dienste.

Zu diesem Ergebnis kommen die Marktforscher von Canalys in einem aktuellen Bericht. Demnach beliefen sich die weltweiten Ausgaben für Cloud-Infrastrukturdienste den Schätzungen der Analysten zufolge im ersten Quartal 2025 auf 90,9 Milliarden Dollar. Das entspricht einem Anstieg von 21 Prozent gegenüber dem Vorjahr.

KI treibt Cloud-Migration  

Die Unternehmen hätten erkannt, dass die Bereitstellung von KI-Anwendungen einen erneuten Fokus auf die Cloud-Migration erfordert, so die Marktforscher. Sie gehen davon aus, dass umfangreiche Investitionen in Cloud- und KI-Infrastruktur das ganze Jahr über ein bestimmendes Marktthema sein werden.

Allerdings beobachten die Auguren, dass die mangelnde Transparenz bei den laufenden, wiederkehrenden Inferenzkosten bei den Unternehmen für Verunsicherung sorgt.

„Im Gegensatz zum Training, das eine einmalige Investition darstellt, verursacht die Inferenz wiederkehrende Betriebskosten, was sie zu einem entscheidenden Hindernis auf dem Weg zur Kommerzialisierung der KI macht“, erklärt Rachel Brindley, Senior Director bei Canalys. Da KI zunehmend von der Forschung in den großflächigen Einsatz übergehe, würden Unternehmen ihr Augenmerk verstärkt auf die Kosteneffizienz der Inferenz legen und dabei Modelle, Cloud-Plattformen und Hardware-Architekturen wie GPUs mit speziell entwickelten Beschleunigern vergleichen.

„Viele KI-Dienste folgen heute nutzungsbasierten Preismodellen – in der Regel werden Token oder API-Aufrufe abgerechnet –, was die Kostenprognose mit steigender Nutzung zunehmend erschwert“, fügt Yi Zhang, ebenfalls Analystin bei Canalys, hinzu.

Sind die Inferenzkosten volatil oder übermäßig hoch, seien Unternehmen gezwungen, die Nutzung einzuschränken, die Komplexität der Modelle zu reduzieren oder den Einsatz auf hochwertige Szenarien zu beschränken. „Als Konsequenz bleibt das breitere Potenzial von KI ungenutzt“, so Zhang.

Um diesen Herausforderungen zu begegnen, verstärken führende Cloud-Anbieter ihre Investitionen in KI-optimierte Infrastrukturen, erklärt Canalys. Hyperscaler wie AWS, Azure und Google Cloud hätten allesamt proprietäre Chips und TPUs sowie speziell entwickelte Instanzfamilien eingeführt, die darauf abzielen, die Inferenzleistung zu verbessern und die Gesamtkosten für KI zu senken.

Als Beispiel verweisen die Auguren auf AWS. Die Amazon-Tochter habe im März ihre Preise angepasst, um die Einführung ihrer Trainium-KI-Chips gegenüber teureren, NVIDIA-basierten Lösungen zu fördern. Dabei wurde der Preis-Leistungs-Vorteil von Trainium 2 in Höhe von 30 bis 40 Prozent hervorgehoben.

Auch Wettbewerber Microsoft Azure fokussiere sich darauf, die Kosten für die KI-Einführung zu senken, berichtet Canalys. So sei es mithilfe von alternativen Lösungen möglich, die KI-Leistung bei konstantem Stromverbrauch um fast 30 Prozent zu steigern, während die Kosten pro Token um über 50 Prozent sinken.

AWS vor Microsoft Azure und Google Cloud

Im globalen Vergleich behauptete AWS im ersten Quartal 2025 souverän seine Führungsposition im Markt für Cloud-Infrastrukturdienste: Laut Canalys steigerte der Anbieter seinen Umsatz um 17 Prozent und erreichte einen Marktanteil von 32 Prozent. Microsoft Azure folgte mit 23 Prozent Marktanteil und einem kräftigen Wachstum von 33 Prozent. Google Cloud lag mit zehn Prozent auf Platz drei und verzeichnete ein Plus von 31 Prozent. Gemeinsam vereinten die drei Hyperscaler 65 Prozent der weltweiten Cloud-Ausgaben auf sich – ein Zuwachs von 24 Prozent im Vergleich zum Vorjahr.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?quality=50&strip=all 900w, https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/jatKncCTrxdB0xpsHzm6rROpcphflQb.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”900″ height=”506″ sizes=”(max-width: 900px) 100vw, 900px”>Die drei führenden Hyperscaler verzeichnen dank KI weiterhin kräftige Wachstumsraten. Canalys

Angst vor hohen Betriebskosten bremst KI-Einführung​ Weiterlesen »

Zweifel an US-Abhängigkeit der IT wächst​

Allgemein

Eine wachsende Zahl von Unternehmen bereitet den Exit aus der Cloud vor und suchen nach europäischen Cloud-Alternativen.  Claudio Divizia – shutterstock.com Immer mehr deutsche Unternehmen zweifeln daran, dass sich auch in Zukunft gut mit US-amerikanischen Tech-Unternehmen zusammenarbeiten lassen wird. Deshalb denkt eine wachsende Zahl der hierzulande ansässigen Firmen insbesondere im Cloud-Bereich über eine Neuorientierung nach. Zu diesem Ergebnis kommt eine aktuelle Umfrage von TechConsult im Auftrag von eperi. Europäische Alternativen rücken in den Fokus So gaben 26 Prozent der Befragten auf Nachfrage an, dass sie sich eine Exit-Strategie aus der US-Cloud vorstellen können. Zusätzlich wollen sie die Situation in den USA weiterhin im Auge behalten. 22 Prozent sind sogar schon einen Schritt weiter: Sie suchen bereits aktiv nach europäischen Alternativen. Damit befindet sich fast die Hälfte der Teilnehmenden in einer Phase der Neuorientierung. Diese Überlegung tritt besonders häufig im öffentlichen Sektor (65 Prozent) sowie im Gesundheits- und Sozialwesen (33 Prozent) auf. Insgesamt gaben mehr als elf Prozent an, sie würden sich bereits aktiv aus der US-Cloud zurückziehen, weitere knapp vier Prozent haben dies bereits getan. Für knapp 34 Prozent der befragten Unternehmen ist ein vollständiger Exit aus US-Clouds dagegen nicht vorstellbar. Mittelstand beim Ausstieg zurückhaltend Interessanterweise haben bereits ein Viertel der Unternehmen mit 2.000 bis 4.999 Mitarbeitern den Exit vollzogen oder planen ihn aktiv. Bei den Unternehmen mit 99 bis 1.999 Mitarbeitern sind dies fast 20 Prozent. Wie die Studienmacher außerdem herausfanden, gibt es einen weiteren Unterschied: Mit über 13 Prozent planen IT-Entscheider den Exit wesentlich häufiger als Business-Entscheider mit knapp zehn  Prozent. Handel vertraut weiterhin auf US-Cloud Allerdings gab auch ein Drittel der Befragten an, immer noch Vertrauen in US-Cloud-Anbieter zu haben und deren Produkte zu nutzen. Insbesondere im Handel haben mit fast 42 Prozent überdurchschnittlich viele Unternehmen noch Vertrauen in die US-Amerikaner. Zugleich gaben fast ein Fünftel der Teilnehmenden an, dass sie zwar weiterhin auf US-Cloud-Anbieter setzen werden, ihnen aber weniger vertrauen. Die Studienmacher merken allerdings an, dass diese Einschätzung möglicherweise nur ein „Pfeifen im Walde” ist. Denn auch wenn der Vertrauensverlust spürbar ist, setzen immer noch vier von fünf der befragten deutschen Unternehmen auf die US-amerikanische Cloud. Hintergrund könnte laut den Studienmachern der Mangel an Alternativen sein. 

Zweifel an US-Abhängigkeit der IT wächst​ Eine wachsende Zahl von Unternehmen bereitet den Exit aus der Cloud vor und suchen nach europäischen Cloud-Alternativen. 
Claudio Divizia – shutterstock.com

Immer mehr deutsche Unternehmen zweifeln daran, dass sich auch in Zukunft gut mit US-amerikanischen Tech-Unternehmen zusammenarbeiten lassen wird. Deshalb denkt eine wachsende Zahl der hierzulande ansässigen Firmen insbesondere im Cloud-Bereich über eine Neuorientierung nach. Zu diesem Ergebnis kommt eine aktuelle Umfrage von TechConsult im Auftrag von eperi.

Europäische Alternativen rücken in den Fokus

So gaben 26 Prozent der Befragten auf Nachfrage an, dass sie sich eine Exit-Strategie aus der US-Cloud vorstellen können. Zusätzlich wollen sie die Situation in den USA weiterhin im Auge behalten. 22 Prozent sind sogar schon einen Schritt weiter: Sie suchen bereits aktiv nach europäischen Alternativen.

Damit befindet sich fast die Hälfte der Teilnehmenden in einer Phase der Neuorientierung. Diese Überlegung tritt besonders häufig im öffentlichen Sektor (65 Prozent) sowie im Gesundheits- und Sozialwesen (33 Prozent) auf.

Insgesamt gaben mehr als elf Prozent an, sie würden sich bereits aktiv aus der US-Cloud zurückziehen, weitere knapp vier Prozent haben dies bereits getan. Für knapp 34 Prozent der befragten Unternehmen ist ein vollständiger Exit aus US-Clouds dagegen nicht vorstellbar.

Mittelstand beim Ausstieg zurückhaltend

Interessanterweise haben bereits ein Viertel der Unternehmen mit 2.000 bis 4.999 Mitarbeitern den Exit vollzogen oder planen ihn aktiv. Bei den Unternehmen mit 99 bis 1.999 Mitarbeitern sind dies fast 20 Prozent.

Wie die Studienmacher außerdem herausfanden, gibt es einen weiteren Unterschied: Mit über 13 Prozent planen IT-Entscheider den Exit wesentlich häufiger als Business-Entscheider mit knapp zehn  Prozent.

Handel vertraut weiterhin auf US-Cloud

Allerdings gab auch ein Drittel der Befragten an, immer noch Vertrauen in US-Cloud-Anbieter zu haben und deren Produkte zu nutzen. Insbesondere im Handel haben mit fast 42 Prozent überdurchschnittlich viele Unternehmen noch Vertrauen in die US-Amerikaner.

Zugleich gaben fast ein Fünftel der Teilnehmenden an, dass sie zwar weiterhin auf US-Cloud-Anbieter setzen werden, ihnen aber weniger vertrauen. Die Studienmacher merken allerdings an, dass diese Einschätzung möglicherweise nur ein „Pfeifen im Walde” ist.

Denn auch wenn der Vertrauensverlust spürbar ist, setzen immer noch vier von fünf der befragten deutschen Unternehmen auf die US-amerikanische Cloud. Hintergrund könnte laut den Studienmachern der Mangel an Alternativen sein.

Zweifel an US-Abhängigkeit der IT wächst​ Weiterlesen »

Work-Life-Balance: Deutschland top, USA flop​

Allgemein

Der Remote-Studie zufolge gehört Deutschland in Sachen Work-Life-Balance (immer noch) zu den führenden Ländern.LightField Studios – Shutterstock.com Angesichts der angespannten wirtschaftlichen Lage holen immer mehr deutsche Unternehmen ihre Mitarbeiter zurück ins Büro, gleichzeitig ist von der 4-Tage-Woche kaum noch die Rede. Stattdessen fordert Bundeskanzler Friedrich Merz, die Deutschen müssten “wieder mehr und vor allem effizienter” arbeiten. Trotz solcher Beeinträchtigungen steht es hierzulande um die Work-Life-Balance (noch) sehr gut. Wie der „Global Life-Work Balance Index 2025“ der HR-Plattform Remote ergab, konnte sich Deutschland in diesem Jahr sogar um zwei Positionen im weltweiten Ranking verbessern und rückte auf Platz 4 vor. Work smarter, not harder Zwar würden Pünktlichkeit und Professionalität traditionell als „deutsche Werte“ gelten, so die Juroren. Es werde aber auch großer Wert darauf gelegt, intelligenter statt härter zu arbeiten. Dies sei möglicherweise einer der Gründe, warum Deutschland als eines der Länder mit der besten Work-Life-Balance in Europa gilt, hieß es. Konkret war laut Remote das erhöhte Krankengeld, insbesondere für Eltern, ein wesentlicher Faktor für den Aufstieg. Zudem sei die allgemeine Zufriedenheit der Bevölkerung leicht gestiegen und die Arbeitszeiten pro Woche wurden gesenkt. Auch die LGBTQ+-Inklusion habe sich weiter verbessert, so Remote. Mit einem Wert von 74,65 liegt Deutschland aber mehr als zehn Punkte hinter dem Spitzenreiter Neuseeland (86,87 von 100 möglichen Punkten). Der Inselstaat konnte sich im Vergleich zum Vorjahr um über sechs Punkte verbessern und trumpft besonders mit seinem großzügigen gesetzlichen Jahresurlaub, der hohen öffentlichen Zufriedenheit und seiner niedrigen Kriminalitätsrate auf. Außerdem hat Neuseeland den zweithöchsten Mindestlohn der untersuchten Länder. Das bestplatzierte europäische Land in Bezug auf die Work-Life-Balance ist 2025 erneut Irland. Ihren zweiten Platz im Ranking verdanken die Iren insbesondere dem hohen Mindestlohn und einer großzügigen Elternzeitregelung (26 Wochen mit 70 Prozent des Einkommens). Außerdem fördere die Arbeitskultur in Irland eine ausgewogene Mischung aus harter Arbeit und einem starken Gemeinschaftsgefühl, heißt es in der Bewertung. Deutlich schlechter schneiden die Vereinigten Staaten ab. Obwohl dort die Philosophie „Work hard, play hard“ geprägt wurde, scheint es unter der Fassade nicht weit her mit einer gesunden Work-Life-Balance: Nachdem sie im letzten Jahr noch auf Platz 55 und 2023 auf Platz 53 lagen, fallen die USA nun mit 31,17 Punkten auf Platz 59 von 60 zurück. Der weitere Abstieg auf den zweitschlechtesten Work-Life-Balance-Score im Ranking ist dabei laut Remote auf die abnehmende öffentliche Sicherheit und die sinkende Inklusion zurückzuführen. „Wir glauben daran, dass sich Arbeit dem Leben anpassen sollte – nicht umgekehrt“, kommentiert Barbara Matthews, Chief People Officer bei Remote, die Ergebnisse. „Die Studie spiegelt unseren Grundsatz wider, dass Menschen ihre beste Leistung erbringen, wenn sie das Vertrauen bekommen, ihr Leben außerhalb der Arbeit genauso voll zu leben wie in der Arbeit.“ Global Life Work Balance Index 2025: Top 10 & Bottom 5 RangLandPunkte (max. 100)1.Neuseeland86,872.Irland81,173.Belgien75,914.Deutschland74,655.Norwegen74,206.Dänemark73,767.Kanada73,468.Australien72,109.Spanien71,9410.Finnland70,86…  56.Äthopien37,6157.Bangladesch36,9158.Ägypten35,7759.USA31,1760.Nigeria26,67 Methodik Um herauszufinden, welcher globale Akteur seinen Mitarbeitenden die beste Work-Life-Balance bietet, bewertete Remote die 60 weltweit größten Volkswirtschaften. Dabei wurden folgende Indikatoren berücksichtigt: Gesetzlicher Jahresurlaub (Gesamttage bezahlter Urlaub, einschließlich Feiertage); Mindestgesetzliches Krankengeld (Prozentsatz des Gehalts oder ein fester Betrag); Gesetzlicher Mutterschaftsurlaub (Wochen bezahlt); Zahlungssatz für den Mutterschaftsurlaub (Prozentsatz des Gehalts); Mindestlohn (in USD pro Stunde); Gesundheitsstatus; Glücksindex (1-10); Durchschnittliche Arbeitsstunden pro Woche und Beschäftigtem; LGBTQ+-Inklusion (0-100); Sicherheit: Global Peace Index (1-4). width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1zIzX2zyDVyU2gw07GJUO8?utm_source=oembed”> 

Work-Life-Balance: Deutschland top, USA flop​ Der Remote-Studie zufolge gehört Deutschland in Sachen Work-Life-Balance (immer noch) zu den führenden Ländern.LightField Studios – Shutterstock.com

Angesichts der angespannten wirtschaftlichen Lage holen immer mehr deutsche Unternehmen ihre Mitarbeiter zurück ins Büro, gleichzeitig ist von der 4-Tage-Woche kaum noch die Rede. Stattdessen fordert Bundeskanzler Friedrich Merz, die Deutschen müssten “wieder mehr und vor allem effizienter” arbeiten.

Trotz solcher Beeinträchtigungen steht es hierzulande um die Work-Life-Balance (noch) sehr gut. Wie der „Global Life-Work Balance Index 2025“ der HR-Plattform Remote ergab, konnte sich Deutschland in diesem Jahr sogar um zwei Positionen im weltweiten Ranking verbessern und rückte auf Platz 4 vor.

Work smarter, not harder

Zwar würden Pünktlichkeit und Professionalität traditionell als „deutsche Werte“ gelten, so die Juroren. Es werde aber auch großer Wert darauf gelegt, intelligenter statt härter zu arbeiten. Dies sei möglicherweise einer der Gründe, warum Deutschland als eines der Länder mit der besten Work-Life-Balance in Europa gilt, hieß es.

Konkret war laut Remote das erhöhte Krankengeld, insbesondere für Eltern, ein wesentlicher Faktor für den Aufstieg. Zudem sei die allgemeine Zufriedenheit der Bevölkerung leicht gestiegen und die Arbeitszeiten pro Woche wurden gesenkt. Auch die LGBTQ+-Inklusion habe sich weiter verbessert, so Remote.

Mit einem Wert von 74,65 liegt Deutschland aber mehr als zehn Punkte hinter dem Spitzenreiter Neuseeland (86,87 von 100 möglichen Punkten). Der Inselstaat konnte sich im Vergleich zum Vorjahr um über sechs Punkte verbessern und trumpft besonders mit seinem großzügigen gesetzlichen Jahresurlaub, der hohen öffentlichen Zufriedenheit und seiner niedrigen Kriminalitätsrate auf. Außerdem hat Neuseeland den zweithöchsten Mindestlohn der untersuchten Länder.

Das bestplatzierte europäische Land in Bezug auf die Work-Life-Balance ist 2025 erneut Irland. Ihren zweiten Platz im Ranking verdanken die Iren insbesondere dem hohen Mindestlohn und einer großzügigen Elternzeitregelung (26 Wochen mit 70 Prozent des Einkommens). Außerdem fördere die Arbeitskultur in Irland eine ausgewogene Mischung aus harter Arbeit und einem starken Gemeinschaftsgefühl, heißt es in der Bewertung.

Deutlich schlechter schneiden die Vereinigten Staaten ab. Obwohl dort die Philosophie „Work hard, play hard“ geprägt wurde, scheint es unter der Fassade nicht weit her mit einer gesunden Work-Life-Balance: Nachdem sie im letzten Jahr noch auf Platz 55 und 2023 auf Platz 53 lagen, fallen die USA nun mit 31,17 Punkten auf Platz 59 von 60 zurück. Der weitere Abstieg auf den zweitschlechtesten Work-Life-Balance-Score im Ranking ist dabei laut Remote auf die abnehmende öffentliche Sicherheit und die sinkende Inklusion zurückzuführen.

„Wir glauben daran, dass sich Arbeit dem Leben anpassen sollte – nicht umgekehrt“, kommentiert Barbara Matthews, Chief People Officer bei Remote, die Ergebnisse. „Die Studie spiegelt unseren Grundsatz wider, dass Menschen ihre beste Leistung erbringen, wenn sie das Vertrauen bekommen, ihr Leben außerhalb der Arbeit genauso voll zu leben wie in der Arbeit.“

Global Life Work Balance Index 2025: Top 10 & Bottom 5

RangLandPunkte (max. 100)1.Neuseeland86,872.Irland81,173.Belgien75,914.Deutschland74,655.Norwegen74,206.Dänemark73,767.Kanada73,468.Australien72,109.Spanien71,9410.Finnland70,86…  56.Äthopien37,6157.Bangladesch36,9158.Ägypten35,7759.USA31,1760.Nigeria26,67

Methodik

Um herauszufinden, welcher globale Akteur seinen Mitarbeitenden die beste Work-Life-Balance bietet, bewertete Remote die 60 weltweit größten Volkswirtschaften. Dabei wurden folgende Indikatoren berücksichtigt:

Gesetzlicher Jahresurlaub (Gesamttage bezahlter Urlaub, einschließlich Feiertage);

Mindestgesetzliches Krankengeld (Prozentsatz des Gehalts oder ein fester Betrag);

Gesetzlicher Mutterschaftsurlaub (Wochen bezahlt);

Zahlungssatz für den Mutterschaftsurlaub (Prozentsatz des Gehalts);

Mindestlohn (in USD pro Stunde);

Gesundheitsstatus;

Glücksindex (1-10);

Durchschnittliche Arbeitsstunden pro Woche und Beschäftigtem;

LGBTQ+-Inklusion (0-100);

Sicherheit: Global Peace Index (1-4).

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1zIzX2zyDVyU2gw07GJUO8?utm_source=oembed”>

Work-Life-Balance: Deutschland top, USA flop​ Weiterlesen »

Metas neuer “Acquihiring”-KI-Coup​

Allgemein

Meta übernimmt investiert in Scale AI.Koshiro K | shutterstock.com Nach tagelangen Spekulationen folgte die offizielle Bestätigung: Meta hat Alexandr Wang, Gründer und CEO des KI-Startups Scale AI verpflichtet. Der Manager soll künftig die KI-Ambitionen des Social-Media-Riesen voranbringen. Im Gegenzug will der Konzern hinter Facebook, WhatsApp und Instagram 14,3 Milliarden Dollar in Scale AI investieren – und sichert sich parallel 49 Prozent der Anteile des auf Data Labeling und Model Evaluation spezialisierten Startups. Neben CEO Wang sollen weitere wichtige Mitarbeiter von Scale zu Meta wechseln, der bisherige CSO Jason Droege als Interim-CEO fungieren. Mit diesem Schritt unterstreicht Meta seine Bemühungen um die sogenannte “Superintelligence” – den nächsten logischen Schritt nach Artificial General Intelligence (AGI). Davon abgesehen spiegelt die Vereinbarung zwischen Meta und Scale AI einen wachsenden Trend unter Big-Tech-Unternehmen wieder, Nämlich kleinere, spezialisierte Unternehmen zu kaufen, ohne sie wirklich zu kaufen – auch bezeichnet als “Acquihiring”. Dabei werden die Schlüsselpersonen der betroffenen Firma abgeworben, seine Technologie lizenziert und seine Produkte vertrieben – während das Unternehmen selbst als Entität erhalten bleibt. Meta invests $15bn in Scale AI, doubling start-up’s valuation https://t.co/gOogBb8Wrk— Financial Times (@FT) June 13, 2025 “Getarnt als strategische Investition” “Im Grunde handelt es sich hier um eine massive ‘Acquihiring’-Maßnahme, getarnt als strategische Investition”, ordnet Wyatt Mayham, leitender KI-Berater bei Northwest AI Consulting, ein. Meta erhalte zwar die Dateninfrastruktur von Scale, der eigentliche Gewinn aber sei die Verpflichtung von CEO Wang, der bei Meta die Geschicke des neuen Superintelligence-Labors leiten soll, so der Berater. Er fügt hinzu: “Mit 14,3 Milliarden Dollar könnte die Verpflichtung von Wang die teuerste Einzelakquisition in der Geschichte der Tech-Branche darstellen.” Die dürfte sich auch darin begründen, dass Meta Mühe hat, mit OpenAI, Anthropic und anderen Wettbewerbern im KI-Wettlauf Schritt zu halten. So musste der Social-Media-Gigant vor kurzem die Einführung seines neuen Flaggschiff-KI-Modells “Behemoth” verschieben – auch, weil es intern Bedenken bezüglich dessen Performance gab. Darüber hinaus haben mehrere KI-Spitzenforscher das Unternehmen verlassen. “Es ist längst kein Geheimnis mehr, dass die Llama-4-Modelle von Meta erhebliche Leistungsprobleme aufweisen”, konstatiert Mayham. Zuckerberg setze deshalb darauf, dass Wang mit seiner Erfolgsbilanz beim Aufbau von KI-Infrastrukturen die Probleme von Meta in Bezug auf die Ausrichtung und die Modellqualität schneller lösen könne als es die bisherigen, internen Entwicklungsbemühungen in Aussicht stellten. Laut dem Berater seien die menschlichen Feedback-Loops, die Scale AI einsetze, genau das, was Meta brauche, um seine Llama-Modelle auf Augenhöhe mit ChatGPT und Claude zu bringen.   “Acquihiring” sticht Übernahme? Obwohl er gerade erst unterzeichnet wurde, sorgt der viel beachtete Deal bereits für Skepsis: Schließlich ermöglichen Investitionsvereinbarungen dieser Art den großen Tech-Unternehmen, Top-Talente und Schlüsseltechnologien über Umwege einzukaufen – und so die Meldepflicht gegenüber den Aufsichtsbehörden zu umgehen. So verlangt die US-Börsenaufsicht FTC, dass Fusionen und Übernahmen vorab gemeldet werden müssen, wenn ihr Gesamtwert die Summe von 126 Millionen US-Dollar übersteigt. Lizenzvereinbarungen oder massive Abwerbeinitiativen von Mitarbeitern sind davon jedoch nicht betroffen, was Schlupflöcher für Tech-Riesen schafft. So können sie wesentlich schneller handeln und sich langwierige, regulatorische Prüfungsverfahren sparen. Entsprechend macht der “Acquihiring”-Ansatz Schule: Microsoft überwies im März 2024 rund 650 Millionen US-Dollar an Lizenzgebühren an Inflection AI – und verpflichtete große Teile des Führungsteams, darunter Mitbegründer Mustafa Suleyman (jetzt CEO von Microsoft AI) und Karén Simonyan (jetzt Chief Scientist von Microsoft AI). In ähnlicher Weise stellte Amazon 2024 mehr als 50 Prozent der wichtigsten Mitarbeiter von Adept AI ein, um seine AGI-Bemühungen voranzutreiben. Google unterzeichnete ebenfalls eine umfassende Lizenzvereinbarung mit dem Startup Character AI und warb einen Großteil seiner Führungskräfte und Forscher ab. Den Regulatoren bleibt dieser neue Ansatz natürlich nicht verborgen: Die US-Börsenaufsicht untersucht derzeit bereits die Deals von Microsoft und Amazon, das US-Justizministerium befasst sich indes eingehend mit Googles “Acquihire”-Deal. Dass Meta sich dazu entschieden hat, den Deal mit Scale AI trotz bestehender, regulatorischer Unsicherheiten durchzuziehen, lässt tief blicken – meint zumindest Chefberater Mayham. Die 49-prozentige Beteiligung scheine zwar darauf ausgelegt zu sein, automatische Schwellenwerte nicht auszulösen – aber US-Aufsichtsbehörden könnten auch Minderheitsbeteiligungen überprüfen, wenn sie diese als wettbewerbsgefährdend erachten, so der KI-Experte: “Dabei spielt jedoch auch eine wichtige Rolle, dass Meta in Sachen AGI nicht als führend gilt. Die Regulatoren könnten die Vereinbarung deshalb als nicht kritisch einstufen.” Insgesamt zeige der Deal zwischen Meta und Scale AI, dass der Social-Media-Riese erkannt habe, dass sich der Fokus des KI-Wettlaufs verlagert hat, so Mayham: “Zuckerberg setzt vor allem darauf, dass Talente und Dateninfrastruktur wichtiger sind als Rechenleistung.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Metas neuer “Acquihiring”-KI-Coup​ Meta übernimmt investiert in Scale AI.Koshiro K | shutterstock.com

Nach tagelangen Spekulationen folgte die offizielle Bestätigung: Meta hat Alexandr Wang, Gründer und CEO des KI-Startups Scale AI verpflichtet. Der Manager soll künftig die KI-Ambitionen des Social-Media-Riesen voranbringen. Im Gegenzug will der Konzern hinter Facebook, WhatsApp und Instagram 14,3 Milliarden Dollar in Scale AI investieren – und sichert sich parallel 49 Prozent der Anteile des auf Data Labeling und Model Evaluation spezialisierten Startups.

Neben CEO Wang sollen weitere wichtige Mitarbeiter von Scale zu Meta wechseln, der bisherige CSO Jason Droege als Interim-CEO fungieren. Mit diesem Schritt unterstreicht Meta seine Bemühungen um die sogenannte “Superintelligence” – den nächsten logischen Schritt nach Artificial General Intelligence (AGI).

Davon abgesehen spiegelt die Vereinbarung zwischen Meta und Scale AI einen wachsenden Trend unter Big-Tech-Unternehmen wieder, Nämlich kleinere, spezialisierte Unternehmen zu kaufen, ohne sie wirklich zu kaufen – auch bezeichnet als “Acquihiring”. Dabei werden die Schlüsselpersonen der betroffenen Firma abgeworben, seine Technologie lizenziert und seine Produkte vertrieben – während das Unternehmen selbst als Entität erhalten bleibt.

Meta invests $15bn in Scale AI, doubling start-up’s valuation https://t.co/gOogBb8Wrk— Financial Times (@FT) June 13, 2025

“Getarnt als strategische Investition”

“Im Grunde handelt es sich hier um eine massive ‘Acquihiring’-Maßnahme, getarnt als strategische Investition”, ordnet Wyatt Mayham, leitender KI-Berater bei Northwest AI Consulting, ein. Meta erhalte zwar die Dateninfrastruktur von Scale, der eigentliche Gewinn aber sei die Verpflichtung von CEO Wang, der bei Meta die Geschicke des neuen Superintelligence-Labors leiten soll, so der Berater. Er fügt hinzu: “Mit 14,3 Milliarden Dollar könnte die Verpflichtung von Wang die teuerste Einzelakquisition in der Geschichte der Tech-Branche darstellen.”

Die dürfte sich auch darin begründen, dass Meta Mühe hat, mit OpenAI, Anthropic und anderen Wettbewerbern im KI-Wettlauf Schritt zu halten. So musste der Social-Media-Gigant vor kurzem die Einführung seines neuen Flaggschiff-KI-Modells “Behemoth” verschieben – auch, weil es intern Bedenken bezüglich dessen Performance gab. Darüber hinaus haben mehrere KI-Spitzenforscher das Unternehmen verlassen.

“Es ist längst kein Geheimnis mehr, dass die Llama-4-Modelle von Meta erhebliche Leistungsprobleme aufweisen”, konstatiert Mayham. Zuckerberg setze deshalb darauf, dass Wang mit seiner Erfolgsbilanz beim Aufbau von KI-Infrastrukturen die Probleme von Meta in Bezug auf die Ausrichtung und die Modellqualität schneller lösen könne als es die bisherigen, internen Entwicklungsbemühungen in Aussicht stellten. Laut dem Berater seien die menschlichen Feedback-Loops, die Scale AI einsetze, genau das, was Meta brauche, um seine Llama-Modelle auf Augenhöhe mit ChatGPT und Claude zu bringen.  

“Acquihiring” sticht Übernahme?

Obwohl er gerade erst unterzeichnet wurde, sorgt der viel beachtete Deal bereits für Skepsis: Schließlich ermöglichen Investitionsvereinbarungen dieser Art den großen Tech-Unternehmen, Top-Talente und Schlüsseltechnologien über Umwege einzukaufen – und so die Meldepflicht gegenüber den Aufsichtsbehörden zu umgehen. So verlangt die US-Börsenaufsicht FTC, dass Fusionen und Übernahmen vorab gemeldet werden müssen, wenn ihr Gesamtwert die Summe von 126 Millionen US-Dollar übersteigt. Lizenzvereinbarungen oder massive Abwerbeinitiativen von Mitarbeitern sind davon jedoch nicht betroffen, was Schlupflöcher für Tech-Riesen schafft. So können sie wesentlich schneller handeln und sich langwierige, regulatorische Prüfungsverfahren sparen. Entsprechend macht der “Acquihiring”-Ansatz Schule:

Microsoft überwies im März 2024 rund 650 Millionen US-Dollar an Lizenzgebühren an Inflection AI – und verpflichtete große Teile des Führungsteams, darunter Mitbegründer Mustafa Suleyman (jetzt CEO von Microsoft AI) und Karén Simonyan (jetzt Chief Scientist von Microsoft AI).

In ähnlicher Weise stellte Amazon 2024 mehr als 50 Prozent der wichtigsten Mitarbeiter von Adept AI ein, um seine AGI-Bemühungen voranzutreiben.

Google unterzeichnete ebenfalls eine umfassende Lizenzvereinbarung mit dem Startup Character AI und warb einen Großteil seiner Führungskräfte und Forscher ab.

Den Regulatoren bleibt dieser neue Ansatz natürlich nicht verborgen: Die US-Börsenaufsicht untersucht derzeit bereits die Deals von Microsoft und Amazon, das US-Justizministerium befasst sich indes eingehend mit Googles “Acquihire”-Deal.

Dass Meta sich dazu entschieden hat, den Deal mit Scale AI trotz bestehender, regulatorischer Unsicherheiten durchzuziehen, lässt tief blicken – meint zumindest Chefberater Mayham. Die 49-prozentige Beteiligung scheine zwar darauf ausgelegt zu sein, automatische Schwellenwerte nicht auszulösen – aber US-Aufsichtsbehörden könnten auch Minderheitsbeteiligungen überprüfen, wenn sie diese als wettbewerbsgefährdend erachten, so der KI-Experte: “Dabei spielt jedoch auch eine wichtige Rolle, dass Meta in Sachen AGI nicht als führend gilt. Die Regulatoren könnten die Vereinbarung deshalb als nicht kritisch einstufen.”

Insgesamt zeige der Deal zwischen Meta und Scale AI, dass der Social-Media-Riese erkannt habe, dass sich der Fokus des KI-Wettlaufs verlagert hat, so Mayham: “Zuckerberg setzt vor allem darauf, dass Talente und Dateninfrastruktur wichtiger sind als Rechenleistung.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Metas neuer “Acquihiring”-KI-Coup​ Weiterlesen »

Was ist Systemische Beratung?​

Allgemein

Der Weg zur Lösung eines Problems scheint oft nicht sichtbar. Systemische Beratung bringt Sie mit System voran. Foto: solarseven – shutterstock.comWeder der Markt noch die Konkurrenz oder die Mitarbeiter bremsen die meisten Unternehmen aus, sondern ein immer gleicher Blickwinkel auf die Dinge. Die Bedeutung eines Strategiewechsels für den Erfolg erkannte bereits Albert Einstein: “Wenn du immer wieder das tust, was du immer schon getan hast, dann wirst du immer wieder das bekommen, was du immer schon bekommen hast. Wenn du etwas anderes haben willst, musst du etwas anderes tun”. Systemische Beratung hilft Herausforderungen anders anzugehen.Systemische Beratung – DefinitionDie Systemische Beratung bezeichnet die Beratung von einzelnen Personen, Gruppen oder gar Organisationen, indem auf den jeweiligen Kontext eingegangen wird. Man geht davon aus, dass alle einzelnen Elemente eines Systems (zum Beispiel Team, Abteilung, Unternehmen) zusammenhängen und daher auch in Zusammenhang betrachtet werden müssen. Das Verhalten eines Menschen lässt sich demnach nicht isoliert betrachten, sondern erklärt sich durch die Beziehungen und Interaktionen mit anderen und mit der Systemumwelt. Die Wurzeln der Systemischen Beratung reichen zurück bis in der Familientherapie der 50er-Jahre. Die damals innovative Idee, eine ganze Familie zu therapieren statt nur eine einzelne Person, legte das Fundament. Über die Zeit hinweg entwickelten zahlreiche Vertreter den Ansatz weiter. Darunter finden sich Niklas Luhmann, Salvador Minuchin, Steve de Shazer, Friedemann Schulz von Thun und Paul Watzlawick.Die Einflüsse kommen vor allem aus den Bereichen Systemtheorie, Kommunikationstheorien, Kybernetik und auch dem Konstruktivismus. So gibt es keine einheitliche systemische Theorie, sondern vielmehr eine Verflechtung systemtheoretischer Ansätze aus unterschiedlichen Disziplinen, die sich ergänzen.Systemische Beratung – Methoden und ZieleÜberlebensfähige Systeme sind Systeme, die sich weiterentwickeln. Eingefahrene Strukturen und einschränkende Sichtweisen oder Regeln können sie daran hindern. Systemische Beratung hilft, Zusammenhänge sichtbar zu machen, hinderliche Faktoren zu identifizieren und sie aus dem Weg zu räumen. Sie unterstützt Menschen, Teams als auch Organisationen, Veränderungen zu initiieren und durchzuführen. Doch Systemische Beratung hat auch Grenzen. Unklare Zielsetzungen zwingen diesen Ansatz in die Knie. Ihre Stärke ist der Umgang mit komplexen Themen. Doch ohne eine klare Zieldefinition läuft man Gefahr, sich in einem Irrgarten aus Zusammenhängen, Wechselwirkungen und Hypothesen zu verlaufen. Somit eignet sich dieser Ansatz nicht, um sich auf die Suche nach Optimierungsmöglichkeiten zu machen.Insbesondere im Wirtschaftskontext kann es hilfreich sein, wenn der Berater über zusätzliches Fachwissen verfügt. Zwar fällt die Systemische Beratung in die Kategorie der Prozessberatung, doch in der Praxis verschwimmen die Grenzen zur Fachberatung. Abhängig von der Thematik kann ein fachlich kompetenter Sparringspartner für das Management vorteilhaft sein. Systemische Beratung – im Business-UmfeldEin Problem zu lösen, indem man statt eines einzelnen Elementes das ganze System unter die Lupe nimmt, ist eine Herangehensweise, die auch in der Wirtschaft Anklang findet. Großes Interesse findet der systemische Ansatz vor allem in den Bereichen:Organisationsentwicklung,Change Management,Teamentwicklung,Gesprächsführung undProzessoptimierung. Das Ziel Systemischer Teamberatung ist es, die Kommunikations- und Arbeitsprozesse zu optimieren. So kann sie dabei helfen, Prozesse effizienter zu gestalten, den Kommunikationsfluss bei abteilungsübergreifenden Projekten zu verbessern, die Produktivität zu erhöhen und die Selbstorganisation von Teams zu fördern. Weit verbreitet ist auch die Systemische Organisationsberatung. Der Grund dafür ist einfach: Veränderung ist für Organisationen ein Dauerthema. Doch nur wer ein System versteht, kann es ändern. Systemische Organisationsberatung hilft ein System zu verstehen, Veränderungen zu initiieren und zu begleiten. Zunehmender Beliebtheit erfreuen sich auch die Methoden der systemischen Gesprächsführung. Mit ihnen gelingt ein lösungsorientierter Austausch mit Geschäftspartnern, Kunden und Mitarbeitern. Eines der wichtigsten Instrumente sind dabei systemische Fragen. Auf den ersten Blick können diese Fragen irritierend oder provozierend wirken, wie beispielsweise: Wodurch könnten Sie das Projekt endgültig zum Scheitern bringen? Doch genau diese Reaktion ist beabsichtigt, um Denkräume für neue Lösungsideen zu öffnen.Systemische Beratung ist ein Oberbegriff für verschiedene systemische Beratungsformate. Systemisches Coaching ist eines dieser Formate für die Wirtschaft. In der Praxis sind die Begriffe keinesfalls trennscharf. Ein Systemischer Coach greift auf Methoden der Systemischen Beratung zurück. Viele Systemische Berater sind auch Coaches. Eine weitere Unschärfe kommt hinzu durch die inflationäre Nutzung der Begriffe “systemisch” und “Coaching”. Entscheidend für den Erfolg ist daher weniger die Frage, ob Coaching oder Beratung, sondern vielmehr die Wahl des Experten.Lesetipp: Change-Management-Beratung 8 Mythen vom Business-WandelEin Beispiel aus der PraxisNehmen wir an, ein Kundenprojekt steht kurz vor dem Aus, obwohl jede Menge hochkompetenter Mitarbeiter im Team sind. Dem Team fällt es schwer, Entscheidungen zu treffen und voranzukommen, obwohl sich die Teammitglieder persönlich gut verstehen. Hinzu kommen zunehmend unzufriedenere Kunden. Im Team breitet sich Frust aus und beim Projektleiter Ratlosigkeit. Er schaltet einen Systemischen Coach ein. Das Vorgehen des Coaches orientiert sich an der Systemischen Schleife, ein häufig genutztes Prozessmodell in der systemischen Arbeit. Es gliedert den Beratungsprozess in vier Schritte:1. Informationen sammeln: In dieser Phase macht sich der Systemische Coach ein Bild von der Situation. Er beobachtet und sammelt Informationen beispielsweise durch Interviews.2. Hypothesen bilden: Auf Basis der gesammelten Informationen bildet der Systemische Coach Hypothesen über Wirkungszusammenhänge: Wo tragen die Beteiligten selbst zum Problem bei? Welche Faktoren halten das Problem aufrecht? Welche Muster sind erkennbar?Hypothesen sind Annahme. Diese können zutreffend sein oder auch nicht. Das Team entscheidet, welche Hypothesen hilfreich sind und in Phase 3 genommen werden.3. Interventionen planen: In dieser Phase werden konkrete Interventionen geplant. Die zentrale Frage in dieser Phase lautet: “Wie können alte destruktive Denk- und Verhaltensmuster unterbrochen und neue förderliche Muster initiiert werden, um das Projekt zu retten?” Der Systemische Coach unterstützt das Team eine Antwort zu finden durch ein breites Repertoire an systemischen Methoden.4. Interventionen setzen: In der Phase 4 wird zur Tat geschritten und die Maßnahmen umgesetzt.Mit dem Abschluss der Phase 4 schließt sich der Kreis und verwandelt sich in eine Schleife, indem die Wirkungen der Maßnahmen beobachtet werden (Phase 1). Der Prozess kann dann so oft durchlaufen werden, bis das gewünschte Endergebnis erzielt wird.Die Systemische Schleife ähnelt dem iterativen Vorgehen in der Software- und Produktentwicklung. Ständiges Feedback und neue Informationen treiben auch dort die kontinuierliche Verbesserung voran. Welcher Erfolg damit erzielt werden kann, wird sichtbar, wenn man sein jetziges Smartphone mit dem vor fünf Jahren vergleicht. Systemische Ansätze machen diese technische Erfolgsgeschichte auch für soziale Systeme möglich, wie für das Team aus unserem Beispiel.Systemische Schleife (in Anlehnung an Königswieser & Exner 2019) Foto: Stefanie KraussSystemischer Berater werden – Aus- und WeiterbildungDer Begriff des Systemischen Beraters ist kein geschützter Beruf, ähnlich wie der eines Coaches. Selbstredend gibt es auch verschiedene Möglichkeiten, sich dahingehend weiterzubilden. Es gibt verschiedene Institutionen, die Ausbildungsstandards setzen, wie beispielsweise die DGSF (Deutsche Gesellschaft für Systemische Therapie, Beratung und Familientherapie) und die SG (Systemische Gesellschaft).Dieser klassische Weg zum Berater führt über eine mindestens zweijährige Ausbildung. Diese kann auch als Basis genutzt werden für eine anschließende Spezialisierung auf Systemisches Coaching oder Systemische Organisationsberatung. Ein psychologischer Hintergrund ist dabei prinzipiell von Vorteil, jedoch keine Voraussetzung. Entscheidend für den Erfolg eines Systemischen Beraters ist neben der Methodik somit auch das jeweilige Profil. Systemische Beratung ist also nicht immer Systemische Beratung. Komplexe Herausforderungen fokussiert und lösungsorientiert zu meistern, kann mit Systemischer Beratung gelingen. Die Methoden können zum Teil recht ungewöhnlich erscheinen. Doch wie Albert Einstein schon erkannte, ist es oft genau das, was uns wirklich weiterbringt. (bw) 

Was ist Systemische Beratung?​ Der Weg zur Lösung eines Problems scheint oft nicht sichtbar. Systemische Beratung bringt Sie mit System voran.
Foto: solarseven – shutterstock.comWeder der Markt noch die Konkurrenz oder die Mitarbeiter bremsen die meisten Unternehmen aus, sondern ein immer gleicher Blickwinkel auf die Dinge. Die Bedeutung eines Strategiewechsels für den Erfolg erkannte bereits Albert Einstein: “Wenn du immer wieder das tust, was du immer schon getan hast, dann wirst du immer wieder das bekommen, was du immer schon bekommen hast. Wenn du etwas anderes haben willst, musst du etwas anderes tun”. Systemische Beratung hilft Herausforderungen anders anzugehen.Systemische Beratung – DefinitionDie Systemische Beratung bezeichnet die Beratung von einzelnen Personen, Gruppen oder gar Organisationen, indem auf den jeweiligen Kontext eingegangen wird. Man geht davon aus, dass alle einzelnen Elemente eines Systems (zum Beispiel Team, Abteilung, Unternehmen) zusammenhängen und daher auch in Zusammenhang betrachtet werden müssen. Das Verhalten eines Menschen lässt sich demnach nicht isoliert betrachten, sondern erklärt sich durch die Beziehungen und Interaktionen mit anderen und mit der Systemumwelt. Die Wurzeln der Systemischen Beratung reichen zurück bis in der Familientherapie der 50er-Jahre. Die damals innovative Idee, eine ganze Familie zu therapieren statt nur eine einzelne Person, legte das Fundament. Über die Zeit hinweg entwickelten zahlreiche Vertreter den Ansatz weiter. Darunter finden sich Niklas Luhmann, Salvador Minuchin, Steve de Shazer, Friedemann Schulz von Thun und Paul Watzlawick.Die Einflüsse kommen vor allem aus den Bereichen Systemtheorie, Kommunikationstheorien, Kybernetik und auch dem Konstruktivismus. So gibt es keine einheitliche systemische Theorie, sondern vielmehr eine Verflechtung systemtheoretischer Ansätze aus unterschiedlichen Disziplinen, die sich ergänzen.Systemische Beratung – Methoden und ZieleÜberlebensfähige Systeme sind Systeme, die sich weiterentwickeln. Eingefahrene Strukturen und einschränkende Sichtweisen oder Regeln können sie daran hindern. Systemische Beratung hilft, Zusammenhänge sichtbar zu machen, hinderliche Faktoren zu identifizieren und sie aus dem Weg zu räumen. Sie unterstützt Menschen, Teams als auch Organisationen, Veränderungen zu initiieren und durchzuführen. Doch Systemische Beratung hat auch Grenzen. Unklare Zielsetzungen zwingen diesen Ansatz in die Knie. Ihre Stärke ist der Umgang mit komplexen Themen. Doch ohne eine klare Zieldefinition läuft man Gefahr, sich in einem Irrgarten aus Zusammenhängen, Wechselwirkungen und Hypothesen zu verlaufen. Somit eignet sich dieser Ansatz nicht, um sich auf die Suche nach Optimierungsmöglichkeiten zu machen.Insbesondere im Wirtschaftskontext kann es hilfreich sein, wenn der Berater über zusätzliches Fachwissen verfügt. Zwar fällt die Systemische Beratung in die Kategorie der Prozessberatung, doch in der Praxis verschwimmen die Grenzen zur Fachberatung. Abhängig von der Thematik kann ein fachlich kompetenter Sparringspartner für das Management vorteilhaft sein.

Systemische Beratung – im Business-UmfeldEin Problem zu lösen, indem man statt eines einzelnen Elementes das ganze System unter die Lupe nimmt, ist eine Herangehensweise, die auch in der Wirtschaft Anklang findet. Großes Interesse findet der systemische Ansatz vor allem in den Bereichen:Organisationsentwicklung,Change Management,Teamentwicklung,Gesprächsführung undProzessoptimierung. Das Ziel Systemischer Teamberatung ist es, die Kommunikations- und Arbeitsprozesse zu optimieren. So kann sie dabei helfen, Prozesse effizienter zu gestalten, den Kommunikationsfluss bei abteilungsübergreifenden Projekten zu verbessern, die Produktivität zu erhöhen und die Selbstorganisation von Teams zu fördern. Weit verbreitet ist auch die Systemische Organisationsberatung. Der Grund dafür ist einfach: Veränderung ist für Organisationen ein Dauerthema. Doch nur wer ein System versteht, kann es ändern. Systemische Organisationsberatung hilft ein System zu verstehen, Veränderungen zu initiieren und zu begleiten. Zunehmender Beliebtheit erfreuen sich auch die Methoden der systemischen Gesprächsführung. Mit ihnen gelingt ein lösungsorientierter Austausch mit Geschäftspartnern, Kunden und Mitarbeitern. Eines der wichtigsten Instrumente sind dabei systemische Fragen. Auf den ersten Blick können diese Fragen irritierend oder provozierend wirken, wie beispielsweise: Wodurch könnten Sie das Projekt endgültig zum Scheitern bringen? Doch genau diese Reaktion ist beabsichtigt, um Denkräume für neue Lösungsideen zu öffnen.Systemische Beratung ist ein Oberbegriff für verschiedene systemische Beratungsformate. Systemisches Coaching ist eines dieser Formate für die Wirtschaft. In der Praxis sind die Begriffe keinesfalls trennscharf. Ein Systemischer Coach greift auf Methoden der Systemischen Beratung zurück. Viele Systemische Berater sind auch Coaches. Eine weitere Unschärfe kommt hinzu durch die inflationäre Nutzung der Begriffe “systemisch” und “Coaching”. Entscheidend für den Erfolg ist daher weniger die Frage, ob Coaching oder Beratung, sondern vielmehr die Wahl des Experten.Lesetipp: Change-Management-Beratung 8 Mythen vom Business-WandelEin Beispiel aus der PraxisNehmen wir an, ein Kundenprojekt steht kurz vor dem Aus, obwohl jede Menge hochkompetenter Mitarbeiter im Team sind. Dem Team fällt es schwer, Entscheidungen zu treffen und voranzukommen, obwohl sich die Teammitglieder persönlich gut verstehen. Hinzu kommen zunehmend unzufriedenere Kunden. Im Team breitet sich Frust aus und beim Projektleiter Ratlosigkeit. Er schaltet einen Systemischen Coach ein. Das Vorgehen des Coaches orientiert sich an der Systemischen Schleife, ein häufig genutztes Prozessmodell in der systemischen Arbeit. Es gliedert den Beratungsprozess in vier Schritte:1. Informationen sammeln: In dieser Phase macht sich der Systemische Coach ein Bild von der Situation. Er beobachtet und sammelt Informationen beispielsweise durch Interviews.2. Hypothesen bilden: Auf Basis der gesammelten Informationen bildet der Systemische Coach Hypothesen über Wirkungszusammenhänge: Wo tragen die Beteiligten selbst zum Problem bei? Welche Faktoren halten das Problem aufrecht? Welche Muster sind erkennbar?Hypothesen sind Annahme. Diese können zutreffend sein oder auch nicht. Das Team entscheidet, welche Hypothesen hilfreich sind und in Phase 3 genommen werden.3. Interventionen planen: In dieser Phase werden konkrete Interventionen geplant. Die zentrale Frage in dieser Phase lautet: “Wie können alte destruktive Denk- und Verhaltensmuster unterbrochen und neue förderliche Muster initiiert werden, um das Projekt zu retten?” Der Systemische Coach unterstützt das Team eine Antwort zu finden durch ein breites Repertoire an systemischen Methoden.4. Interventionen setzen: In der Phase 4 wird zur Tat geschritten und die Maßnahmen umgesetzt.Mit dem Abschluss der Phase 4 schließt sich der Kreis und verwandelt sich in eine Schleife, indem die Wirkungen der Maßnahmen beobachtet werden (Phase 1). Der Prozess kann dann so oft durchlaufen werden, bis das gewünschte Endergebnis erzielt wird.Die Systemische Schleife ähnelt dem iterativen Vorgehen in der Software- und Produktentwicklung. Ständiges Feedback und neue Informationen treiben auch dort die kontinuierliche Verbesserung voran. Welcher Erfolg damit erzielt werden kann, wird sichtbar, wenn man sein jetziges Smartphone mit dem vor fünf Jahren vergleicht. Systemische Ansätze machen diese technische Erfolgsgeschichte auch für soziale Systeme möglich, wie für das Team aus unserem Beispiel.Systemische Schleife (in Anlehnung an Königswieser & Exner 2019)
Foto: Stefanie KraussSystemischer Berater werden – Aus- und WeiterbildungDer Begriff des Systemischen Beraters ist kein geschützter Beruf, ähnlich wie der eines Coaches. Selbstredend gibt es auch verschiedene Möglichkeiten, sich dahingehend weiterzubilden. Es gibt verschiedene Institutionen, die Ausbildungsstandards setzen, wie beispielsweise die DGSF (Deutsche Gesellschaft für Systemische Therapie, Beratung und Familientherapie) und die SG (Systemische Gesellschaft).Dieser klassische Weg zum Berater führt über eine mindestens zweijährige Ausbildung. Diese kann auch als Basis genutzt werden für eine anschließende Spezialisierung auf Systemisches Coaching oder Systemische Organisationsberatung. Ein psychologischer Hintergrund ist dabei prinzipiell von Vorteil, jedoch keine Voraussetzung. Entscheidend für den Erfolg eines Systemischen Beraters ist neben der Methodik somit auch das jeweilige Profil. Systemische Beratung ist also nicht immer Systemische Beratung. Komplexe Herausforderungen fokussiert und lösungsorientiert zu meistern, kann mit Systemischer Beratung gelingen. Die Methoden können zum Teil recht ungewöhnlich erscheinen. Doch wie Albert Einstein schon erkannte, ist es oft genau das, was uns wirklich weiterbringt. (bw)

Was ist Systemische Beratung?​ Weiterlesen »

Was ist Markdown?​

Allgemein

Mit Markdown verlieren HTML-Formatierungen ihren “Schrecken”.  Yellowj | shutterstock.com Die allgemeine Benutzerfreundlichkeit und simple Natur des Markdown-Textformats haben zu einer breiten Akzeptanz in diversen Bereichen geführt: Blogger waren die ersten frühen Anwender, die es nutzten, um Beiträge zu verfassen und Links einzubetten – ohne dazu einen WYSIWYG-Editor zu benötigen. Heute nutzen unter anderem viele Developer Markdown (oder eine seiner Varianten), um ihre Dokumentationen zu schreiben. Das liegt auch an der denkbar niedrigen Zugangsbarriere: Für den Einstieg ist lediglich ein Texteditor nötig. In diesem Artikel lesen Sie: wie sich Markdown definiert, wie die Markup-Sprache sich entwickelt hat, welche Grundelemente ihre Syntax auszeichnen, welche weiteren Anwendungsfälle es gibt, und welche Varianten von Markdown existieren. Markdown – Definition Markdown ist eine vereinfachte Auszeichnungssprache, die ihren Fokus auf die Lesbarkeit von Texten legt. Sie erleichtert es, Texte problemfrei in HTML (oder ein anderes Rich-Format) zu konvertieren. Das Besondere an Markdown ist dabei, dass es zu Formatierungszwecken auf eine reine Textsyntax setzt. So ist auf den ersten Blick erkennbar, wie in Markdown formatierter Text am Ende aussehen wird. Markdown – Historie Entwickelt wurde Markdown von den Softwareexperten John Gruber und Aaron Swartz. Erstmals veröffentlicht wurde die Auszeichnungssprache Ende 2004. In dieser Web-Ära wiesen E-Mails und Usenet-Beiträge, die in reinem Text geschrieben waren, schon länger eine Art “Ad-Hoc-Formatierungskultur” auf. *Sternchen* oder _Unterstriche_ sind nur zwei Beispiele für die damals übliche Art und Weise, bestimmte Textstellen hervorzuheben. Diese textuellen Hinweise wurden jedoch nicht als HTML gerendert, sondern stellten lediglich eine Andeutung dar, wie das Markup aussehen könnte. Gruber und Swartz nutzten diese Form von Plaintext-Markup schließlich, um formatierte Outputs zu generieren. Für ihr Projekt ließen sich die Softwareexperten außerdem unter anderem auch von reStructuredText (RST) inspirieren, einer anderen Auszeichnungssprache, die im Jahr 2002 veröffentlicht worden war. Die erste Version von Markdown war schließlich ein in Perl geschriebenes Skript, das entweder Standalone verwendet oder in andere Software integriert werden konnte – beispielsweise in die Publishing-Pipeline eines Blogs oder in Form eines Textfilters für Message Boards wie BBEdit. Heute existiert Markdown weiterhin als Perl-Skript – mittlerweile existieren jedoch auch Markdown-Bibliotheken für unzählige Programmiersprachen. Die Markdown-Syntax Markdown-Dokumente sind im Wesentlichen reine Textdateien und können sowohl in ASCII– als auch in UTF-8-Kodierung vorliegen – alle wichtigen Formatierungen erfolgen in erstgenanntem. Um formatierten Output zu generieren, “verfüttern” Sie das Markdown-Dokument lediglich an ein Verarbeitungsskript – etwa das bereits angesprochene Perl-Skript. Plain Text wird dabei unverändert wiedergegeben, während bestimmte Zeichenfolgen bewirken, dass Text entweder als Block- oder Inline-Element formatiert wird. Das ist Plain Text. Einzelne Zeilenumbrüche werden als normaler Weißraum behandelt, doppelte Zeilenumbrüche markieren hingegen den Beginn eines neuen Absatzes: Diese beiden Zeilen würden einen Absatz bilden.Diese durch einen doppelten Zeilenumbruch abgetrennte Sektion wäre ein eigener Absatz. Um Text hervorzuheben, kommen Sternchen, Unterstriche und weitere Symbole zum Einsatz: Kursivschrift: *Italics* Fettschrift: **Bold** Durchgestrichen: ~~Strikethrough~~ (nicht durchgängig unterstützt) Überschriften in einem Dokument (in HTML gesprochen H1 bis H5) können über ein Hash-Symbol, beziehungsweise eine Raute am Anfang einer Zeile dargestellt werden: # Main headingText## SubheadingMehr text Das würde in folgendem HTML-Code resultieren: Main headingTextSubheadingMehr text Weitere Grundlagen: Um eine horizontale Linie zu erstellen, beginnen Sie eine neue Zeile einfach mit — oder ===. Inline-Links nutzen eine []()-Konstruktion, um den Text des Links von seiner URL zu trennen, zum Beispiel: [die Computerwoche-Homepage](https://www.computerwoche.de). Viele Markdown-Varianten unterstützen auch ein URL-Format mit spitzen Klammern, etwa , allerdings ohne separat formatiertes Text-Label. Ein Bild einzufügen, funktioniert über einen Link, dem ein Ausrufezeichen vorangestellt ist – also zum Beispiel ![optionale Bildbeschreibung](https://img.url/thing.jpg). Stattdessen einfach nur das Bild ohne Metadaten einzufügen, funktioniert mit ![](https://img.url/thing.jpg). Für eingerückte Blöcke oder Zitate im Blockformat setzen Sie ein > an den Anfang eines Absatzes: Regulärer text> Eingerückter block>> Doppelt eingerückter BlockMehr regulärer text Code-formatierter Text wird durch Blöcke mit drei Backquotes abgegrenzt: “` test “` Ungeordnete Listen nutzen *, + oder – am Zeilenanfang, wobei Ebenen über Einrückungen angegeben werden: * Key concept * Sub-concept * weiteres sub-concept* Weiteres key concept. Zu Nummerierungszwecken können beliebige Ziffern gefolgt von einem Punkt genutzt werden – der Markdown-Renderer nummeriert alles automatisch neu: 0. Erstes item0. Zweites item0. Drittes item Zu guter Letzt können Sie HTML bei Bedarf auch manuell einfügen. Allerdings kann es vorkommen, dass der Markdown-Renderer einen Bereich mit manuell eingegebenem HTML als von seiner eigenen Darstellung ausgenommen betrachtet. Ein Beispiel: This may *not* render as intended. Einige Markdown-Renderer versuchen hier möglicherweise, die Markdown-Formatierung zwischen HTML-Tags anzuwenden. In diesen Fällen würde die obige Quelle dann kursiv dargestellt, in anderen würden Sie Sternchen sehen. Markdown-Anwendungsfälle Der ursprüngliche Anwendungsfall für Markdown waren Blogs und Message Boards. Dabei war die Auszeichnungssprache eine Alternative für die Nutzer, die zwar Rich Text rendern, aber kein HTML (manuell) schreiben oder einen WYSIWYG-Editor nutzen wollten, um Markup zu erstellen. Dieser Use Case ist nach wie vor aktuell: Heute nutzen etwa Plattformen wie Discord oder Slack Markdown (in leicht modifizierter Form), um ihren Benutzern zu ermöglichen, Posts abzusetzen und dort Links oder Bilder zu integrieren. Ein weiterer häufiger Anwendungsfall für Markdown ist die Projektdokumentation. So lässt sich mit der Auszeichnungssprache im Handumdrehen eine simple README.md erstellen. Und obwohl es mit Blick auf die Skalierbarkeit von Markdown Kritik gibt, eignet es sich auch für umfangreichere und komplexere Dokumentationsaufgaben. Viele Tools in diesem Bereich (etwa Mkdocs) verwenden Markdown als Kernformat. Darüber hinaus erweitern verschiedene Markdown-Varianten (dazu gleich mehr) den Standard um benutzerdefinierte Funktionen. Davon abgesehen ist Markdown ist auch ein geeignetes Basisformat für ein Wiki. Denn die Wiki-Formatierung folgt im Allgemeinen derselben Philosophie: Es handelt sich um ein Plain-Text-Format mit Anmerkungen, die visuell geparst werden können. Die meisten Wiki-Implementierungen von Markdown erweitern den Standard ebenfalls – beispielsweise, um Dokumente zu transkludieren. Markdown – Einschränkungen Der Kernstandard von Markdown (der lange Zeit nur ein De-facto-Standard war) unterstützt lediglich eine Handvoll von Formatierungsoptionen, die die ursprünglichen Anwendungsfälle widerspiegeln. Schließlich war Markdown nicht als 1:1-Tool gedacht, um HTML zu generieren – sondern als Werkzeug, um schnell Texte zu generieren, die die gängigsten HTML-Elemente verwenden. Entsprechend gibt es einige Dinge, die Sie mit dem Markdown-Kernstandard nicht rendern können: Tabellen: Verschiedene Erweiterungen für Markdown unterstützen die Tabellenformatierung – üblicherweise nutzen sie das Pipe-Symbol (|), um Tabellenspalten zu definieren. Die Implementierungen sind jedoch nicht konsistent, die Markdown-Kernimplementierung verfügt nicht über Tabellensyntax. Fußnoten: Selbst auf einer einfachen Webseite kann es sehr nützlich sein, Fußnoten im Text automatisiert definieren zu können. Auch dafür bietet Markdown keine native Möglichkeit. Metadaten oder Variablen: Die Auszeichnungssprache verfügt außerdem nicht über einen nativen Mechanismus, um Metadaten auf Dokumentebene oder gar der von Inline-Kommentaren zu definieren. Ein manuell eingefügter HTML-Kommentarblock könnte Daten enthalten, aber Markdown selbst kann damit nichts anfangen und konvertiert es einfach mit. Kontrolle über CSS-Klassen oder -Stile: Wenn Sie einen Stil auf einen Textblock anwenden möchten, geht das nur, indem Sie diesen in HTML-Tags einschließen, beispielsweise: … . Markdown selbst sieht für diese Art der Formatierung keine Syntax vor. Markdown-Varianten Der Minimalismus von Markdown ist auch der Grund, warum sich im Laufe der Jahre Varianten entwickelt haben. Diese wollten Markdown nicht verdrängen oder ersetzen, sondern ergänzen. Entsprechend bieten die folgenden Markdowen-Varianten eine Syntax, die auf der von Markdown aufbaut und sie um einige nützliche Features erweitert: CommonMark ist als “stark definierte, hochkompatible Spezifikation von Markdown” konzipiert. Sie übernimmt die Kernsyntax von Markdown und formalisiert sie, um eine Spezifikation, Referenzimplementierungen, eine Testsuite und eine Reihe weiterer Tools zu erstellen. Es definiert keine Erweiterungen für den Standard, sondern beschreibt diesen eindeutig und bietet Möglichkeiten, um Standard-konforme Tools zu erstellen. Eine weit verbreitete Variante ist GitHub-flavored Markdown, das sowohl von GitHub entwickelt wurde als auch viele Anwendungsfälle auf der Plattform ergänzt. Die Spezifikation erweitert CommonMark um Tabellen, Aufgabenlisten und einen Mechanismus, um problematische Raw-HTML-Tags (wie ) zu deaktivieren. Auf ähnliche Weise erweitert das MultiMarkdown-Projekt die grundlegende Markdown-Syntax um Funktionen, die häufig in Dokumenten wie wissenschaftlichen Artikeln oder Büchern verwendet werden – etwa Tabellen, Fußnoten, Zitate, Querverweise oder Mathematikformeln im LaTeX-Format. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Markdown?​ Mit Markdown verlieren HTML-Formatierungen ihren “Schrecken”.  Yellowj | shutterstock.com

Die allgemeine Benutzerfreundlichkeit und simple Natur des Markdown-Textformats haben zu einer breiten Akzeptanz in diversen Bereichen geführt: Blogger waren die ersten frühen Anwender, die es nutzten, um Beiträge zu verfassen und Links einzubetten – ohne dazu einen WYSIWYG-Editor zu benötigen. Heute nutzen unter anderem viele Developer Markdown (oder eine seiner Varianten), um ihre Dokumentationen zu schreiben. Das liegt auch an der denkbar niedrigen Zugangsbarriere: Für den Einstieg ist lediglich ein Texteditor nötig.

In diesem Artikel lesen Sie:

wie sich Markdown definiert,

wie die Markup-Sprache sich entwickelt hat,

welche Grundelemente ihre Syntax auszeichnen,

welche weiteren Anwendungsfälle es gibt, und

welche Varianten von Markdown existieren.

Markdown – Definition

Markdown ist eine vereinfachte Auszeichnungssprache, die ihren Fokus auf die Lesbarkeit von Texten legt. Sie erleichtert es, Texte problemfrei in HTML (oder ein anderes Rich-Format) zu konvertieren.

Das Besondere an Markdown ist dabei, dass es zu Formatierungszwecken auf eine reine Textsyntax setzt. So ist auf den ersten Blick erkennbar, wie in Markdown formatierter Text am Ende aussehen wird.

Markdown – Historie

Entwickelt wurde Markdown von den Softwareexperten John Gruber und Aaron Swartz. Erstmals veröffentlicht wurde die Auszeichnungssprache Ende 2004.

In dieser Web-Ära wiesen E-Mails und Usenet-Beiträge, die in reinem Text geschrieben waren, schon länger eine Art “Ad-Hoc-Formatierungskultur” auf. *Sternchen* oder _Unterstriche_ sind nur zwei Beispiele für die damals übliche Art und Weise, bestimmte Textstellen hervorzuheben. Diese textuellen Hinweise wurden jedoch nicht als HTML gerendert, sondern stellten lediglich eine Andeutung dar, wie das Markup aussehen könnte. Gruber und Swartz nutzten diese Form von Plaintext-Markup schließlich, um formatierte Outputs zu generieren. Für ihr Projekt ließen sich die Softwareexperten außerdem unter anderem auch von reStructuredText (RST) inspirieren, einer anderen Auszeichnungssprache, die im Jahr 2002 veröffentlicht worden war.

Die erste Version von Markdown war schließlich ein in Perl geschriebenes Skript, das entweder Standalone verwendet oder in andere Software integriert werden konnte – beispielsweise in die Publishing-Pipeline eines Blogs oder in Form eines Textfilters für Message Boards wie BBEdit. Heute existiert Markdown weiterhin als Perl-Skript – mittlerweile existieren jedoch auch Markdown-Bibliotheken für unzählige Programmiersprachen.

Die Markdown-Syntax

Markdown-Dokumente sind im Wesentlichen reine Textdateien und können sowohl in ASCII– als auch in UTF-8-Kodierung vorliegen – alle wichtigen Formatierungen erfolgen in erstgenanntem. Um formatierten Output zu generieren, “verfüttern” Sie das Markdown-Dokument lediglich an ein Verarbeitungsskript – etwa das bereits angesprochene Perl-Skript. Plain Text wird dabei unverändert wiedergegeben, während bestimmte Zeichenfolgen bewirken, dass Text entweder als Block- oder Inline-Element formatiert wird.

Das ist Plain Text.

Einzelne Zeilenumbrüche werden als normaler Weißraum behandelt, doppelte Zeilenumbrüche markieren hingegen den Beginn eines neuen Absatzes:

Diese beiden Zeilen würden einen Absatz bilden.Diese durch einen doppelten Zeilenumbruch abgetrennte Sektion wäre ein eigener Absatz.

Um Text hervorzuheben, kommen Sternchen, Unterstriche und weitere Symbole zum Einsatz:

Kursivschrift: *Italics*

Fettschrift: **Bold**

Durchgestrichen: ~~Strikethrough~~ (nicht durchgängig unterstützt)

Überschriften in einem Dokument (in HTML gesprochen H1 bis H5) können über ein Hash-Symbol, beziehungsweise eine Raute am Anfang einer Zeile dargestellt werden:

# Main headingText## SubheadingMehr text

Das würde in folgendem HTML-Code resultieren:

Main headingTextSubheadingMehr text

Weitere Grundlagen:

Um eine horizontale Linie zu erstellen, beginnen Sie eine neue Zeile einfach mit — oder ===.

Inline-Links nutzen eine []()-Konstruktion, um den Text des Links von seiner URL zu trennen, zum Beispiel: [die Computerwoche-Homepage](https://www.computerwoche.de).

Viele Markdown-Varianten unterstützen auch ein URL-Format mit spitzen Klammern, etwa , allerdings ohne separat formatiertes Text-Label.

Ein Bild einzufügen, funktioniert über einen Link, dem ein Ausrufezeichen vorangestellt ist – also zum Beispiel ![optionale Bildbeschreibung](https://img.url/thing.jpg). Stattdessen einfach nur das Bild ohne Metadaten einzufügen, funktioniert mit ![](https://img.url/thing.jpg).

Für eingerückte Blöcke oder Zitate im Blockformat setzen Sie ein > an den Anfang eines Absatzes:

Regulärer text> Eingerückter block>> Doppelt eingerückter BlockMehr regulärer text

Code-formatierter Text wird durch Blöcke mit drei Backquotes abgegrenzt:

“`
test
“`

Ungeordnete Listen nutzen *, + oder – am Zeilenanfang, wobei Ebenen über Einrückungen angegeben werden:

* Key concept * Sub-concept * weiteres sub-concept* Weiteres key concept.

Zu Nummerierungszwecken können beliebige Ziffern gefolgt von einem Punkt genutzt werden – der Markdown-Renderer nummeriert alles automatisch neu:

0. Erstes item0. Zweites item0. Drittes item

Zu guter Letzt können Sie HTML bei Bedarf auch manuell einfügen. Allerdings kann es vorkommen, dass der Markdown-Renderer einen Bereich mit manuell eingegebenem HTML als von seiner eigenen Darstellung ausgenommen betrachtet. Ein Beispiel:

This may *not* render as intended.

Einige Markdown-Renderer versuchen hier möglicherweise, die Markdown-Formatierung zwischen HTML-Tags anzuwenden. In diesen Fällen würde die obige Quelle dann kursiv dargestellt, in anderen würden Sie Sternchen sehen.

Markdown-Anwendungsfälle

Der ursprüngliche Anwendungsfall für Markdown waren Blogs und Message Boards. Dabei war die Auszeichnungssprache eine Alternative für die Nutzer, die zwar Rich Text rendern, aber kein HTML (manuell) schreiben oder einen WYSIWYG-Editor nutzen wollten, um Markup zu erstellen. Dieser Use Case ist nach wie vor aktuell: Heute nutzen etwa Plattformen wie Discord oder Slack Markdown (in leicht modifizierter Form), um ihren Benutzern zu ermöglichen, Posts abzusetzen und dort Links oder Bilder zu integrieren.

Ein weiterer häufiger Anwendungsfall für Markdown ist die Projektdokumentation. So lässt sich mit der Auszeichnungssprache im Handumdrehen eine simple README.md erstellen. Und obwohl es mit Blick auf die Skalierbarkeit von Markdown Kritik gibt, eignet es sich auch für umfangreichere und komplexere Dokumentationsaufgaben. Viele Tools in diesem Bereich (etwa Mkdocs) verwenden Markdown als Kernformat. Darüber hinaus erweitern verschiedene Markdown-Varianten (dazu gleich mehr) den Standard um benutzerdefinierte Funktionen.

Davon abgesehen ist Markdown ist auch ein geeignetes Basisformat für ein Wiki. Denn die Wiki-Formatierung folgt im Allgemeinen derselben Philosophie: Es handelt sich um ein Plain-Text-Format mit Anmerkungen, die visuell geparst werden können. Die meisten Wiki-Implementierungen von Markdown erweitern den Standard ebenfalls – beispielsweise, um Dokumente zu transkludieren.

Markdown – Einschränkungen

Der Kernstandard von Markdown (der lange Zeit nur ein De-facto-Standard war) unterstützt lediglich eine Handvoll von Formatierungsoptionen, die die ursprünglichen Anwendungsfälle widerspiegeln. Schließlich war Markdown nicht als 1:1-Tool gedacht, um HTML zu generieren – sondern als Werkzeug, um schnell Texte zu generieren, die die gängigsten HTML-Elemente verwenden.

Entsprechend gibt es einige Dinge, die Sie mit dem Markdown-Kernstandard nicht rendern können:

Tabellen: Verschiedene Erweiterungen für Markdown unterstützen die Tabellenformatierung – üblicherweise nutzen sie das Pipe-Symbol (|), um Tabellenspalten zu definieren. Die Implementierungen sind jedoch nicht konsistent, die Markdown-Kernimplementierung verfügt nicht über Tabellensyntax.

Fußnoten: Selbst auf einer einfachen Webseite kann es sehr nützlich sein, Fußnoten im Text automatisiert definieren zu können. Auch dafür bietet Markdown keine native Möglichkeit.

Metadaten oder Variablen: Die Auszeichnungssprache verfügt außerdem nicht über einen nativen Mechanismus, um Metadaten auf Dokumentebene oder gar der von Inline-Kommentaren zu definieren. Ein manuell eingefügter HTML-Kommentarblock könnte Daten enthalten, aber Markdown selbst kann damit nichts anfangen und konvertiert es einfach mit.

Kontrolle über CSS-Klassen oder -Stile: Wenn Sie einen Stil auf einen Textblock anwenden möchten, geht das nur, indem Sie diesen in HTML-Tags einschließen, beispielsweise: … . Markdown selbst sieht für diese Art der Formatierung keine Syntax vor.

Markdown-Varianten

Der Minimalismus von Markdown ist auch der Grund, warum sich im Laufe der Jahre Varianten entwickelt haben. Diese wollten Markdown nicht verdrängen oder ersetzen, sondern ergänzen. Entsprechend bieten die folgenden Markdowen-Varianten eine Syntax, die auf der von Markdown aufbaut und sie um einige nützliche Features erweitert:

CommonMark ist als “stark definierte, hochkompatible Spezifikation von Markdown” konzipiert. Sie übernimmt die Kernsyntax von Markdown und formalisiert sie, um eine Spezifikation, Referenzimplementierungen, eine Testsuite und eine Reihe weiterer Tools zu erstellen. Es definiert keine Erweiterungen für den Standard, sondern beschreibt diesen eindeutig und bietet Möglichkeiten, um Standard-konforme Tools zu erstellen.

Eine weit verbreitete Variante ist GitHub-flavored Markdown, das sowohl von GitHub entwickelt wurde als auch viele Anwendungsfälle auf der Plattform ergänzt. Die Spezifikation erweitert CommonMark um Tabellen, Aufgabenlisten und einen Mechanismus, um problematische Raw-HTML-Tags (wie ) zu deaktivieren.

Auf ähnliche Weise erweitert das MultiMarkdown-Projekt die grundlegende Markdown-Syntax um Funktionen, die häufig in Dokumenten wie wissenschaftlichen Artikeln oder Büchern verwendet werden – etwa Tabellen, Fußnoten, Zitate, Querverweise oder Mathematikformeln im LaTeX-Format.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Markdown?​ Weiterlesen »

Streamlit-Tutorial: Webbasierte Python-Daten-Apps leicht gemacht​

Allgemein

Schleusen auf für datenfokussierte Python-Anwendungen: Streamlit befähigt Entwickler, Apps dieser Art ganz ohne Frontend-Erfahrung in nur wenigen Minuten zu erstellen und zu teilen. Foto: isabel kendzior | shutterstock.com Ein gängiges Problem mit Python-Apps ist, sie mit anderen Menschen zu teilen. Bislang verlassen sich Developer zu diesem Zweck vor allem auf Web Interfaces, die die Funktionalitäten der Anwendung über eine Benutzeroberfläche abbilden. Das funktioniert allerdings nur wirklich gut, wenn das User Interface der App für Web-Komponenten ausgelegt ist. Leisten können das beispielsweise Data-Exploration-Anwendungen. Diese erfordern aber auch Frontend-Komponenten, die im Sinne der Interaktivität idealerweise in JavaScript geschrieben sind. Die quelloffene Python-Bibliothek Streamlit zielt darauf ab, die meisten dieser Problemstellungen aufzulösen: Sie ermöglicht es Entwicklern, Python-Apps mit webbasierten Frontends zu entwickeln und dafür auf eine reichhaltige Sammlung interaktiver Komponenten zurückzugreifen. Resultierende Anwendungen können überall dort gehostet werden, wo auch Python-Web-Apps “leben”. Das Beste ist jedoch, dass weder HTML- noch JavaScript- oder CSS-Skills nötig sind, um überzeugende Ergebnisse zu erzielen. Stattdessen genügt Python-Code, der die Methoden und Klassen von Streamlit nutzt. Streamlit-Beispiele Streamlit-Programme werden in einem deklarativen Stil geschrieben. Die Objekte werden auf der Webseite in der Reihenfolge angezeigt, in der sie innerhalb des Codes deklariert sind. Jede Interaktion mit den Komponenten führt dazu, dass das Programm “top down” neu ausgeführt und die Web Page neu geladen wird, um die vorgenommenen Änderungen widerzuspiegeln. Ein simples Streamlit-Beispiel Zunächst ein simples Beispiel für eine Streamlit-Anwendung: import streamlit as st st.title(“Take input from the user”) user_input = st.text_input(“Say something:”) if user_input: st.write(“You said:”, user_input) Wenn Sie diesen Code mit Streamlit ausführen (streamlit run), spielt sich folgendes ab: Eine Webseite mit dem Titel “Take input from the user” erscheint. Darunter ist ein mit “Say something:” befülltes Textfeld zu sehen. Wenn ein User etwas in das Textfeld eingibt und abschickt, erscheint der User Input unter dem Textfeld “You said:“. Diese HTML-Widgets (und wie sie sich verhalten) werden von Streamlit automatisch generiert und gemanagt. Das beinhaltet auch den State der Anwendung: Das if-Statement sorgt beispielsweise dafür, dass die user_input-Textbox nur bei einer entsprechenden Eingabe anspringt. Streamlit bietet viele weitere HTML-Komponenten. Zu den nativ verfügbaren Komponenten gehören zum Beispiel: LaTeX-formattierter Text, Bokeh-Charts und Camera Input. Ein komplexes Streamlit-Beispiel Ein gutes Beispiel für eine komplexere Streamlit-Anwendung hält die offizielle Dokumentation des Tools bereit. Das Beispiel demonstriert dabei eindrücklich, was Streamlit an diversen Fronten leisten kann. Zu diesem Zweck wird ein gängiges Datenset eingesetzt (Uber-Fahrtantritte und -Abschlüsse in Manhattan, kategorisiert nach Stunden). Die entsprechenden Zeiten werden in einem Balkendiagramm, die jeweiligen Standorte über eine interaktive Karte visualisiert. Das gesamte Programm besteht dabei aus nur etwa 30 Code-Zeilen. Das ist kompakt genug, um es im Copy-Paste-Verfahren in eine Datei einzufügen und zu experimentieren. Daten in Streamlit-Anwendungen Streamlit bietet auch diverse native Wege, um mit Datenquellen umzugehen. Dataframes dienen dabei als primäres Format, um Daten zu laden und mit ihnen zu arbeiten. Sie können jedoch auch Daten aus jeder anderen Quelle laden, die sie auch in anderen Python-Apps nutzen würden. Um diesen Prozess zu unterstützen, bietet Streamlit weitere Annehmlichkeiten: Die Datenvisualisierungs-Anwendung aus dem vorhergehenden Abschnitt nutzt etwa Pandas, um eine .CSV-Datei über eine Remote-URL zu laden und in einen Dataframe zu transformieren. Das ist zwar komfortabel, wenn es darum geht, Daten zu laden und zu formatieren, kann aber auch viel Zeit kosten – insbesondere, wenn dazu eine Netzwerkverbindung genutzt wird. Darüber hinaus muss das Programm auch nach jeder User-Aktion neu laden. Um dieses Problem zu umgehen, bietet Streamlit den Decorator @st.cache_data, der genutzt wird, um die load_data()-Funktion zu wrappen. Zudem werden Daten über @st.cache_data über mehrere Reloads hinweg zwischengespeichert, so dass diese nur einmal nach jedem App-Start geladen werden. State Management mit Streamlit Weil das Design von Streamlit Applikationen nach jeder User-Interaktion zum Reload zwingt, ist es nicht unbedingt selbsterklärend, wie man eine Anwendung in einem Persistent State hält. Eingangs haben wir betrachtet, wie Daten in einem Textfeld den State zwischen den Runs händeln. Wollen Sie nun den State unabhängig von einzelnen Kontrollelementen erstellen und managen, müssen Sie auf das in Streamlit integrierte session_state-Objekt zurückgreifen. Bei streamlit.session_state handelt es sich um einen Key-Value-Store (im Wesentlichen ein Dictionary), der über mehrere Durchläufe hinweg persistent bleibt. Wenn ein Streamlit-Programm zum ersten Mal gestartet wird, ist dieser Store leer. Sie müssen also überprüfen ob Keys vorhanden sind, bevor sie versuchen auf diese zuzugreifen. import streamlit as st # create the key “sayings” if it doesn’t exist if ‘sayings’ not in st.session_state: st.session_state[‘sayings’] = [] # for convenience, make a reference sayings = st.session_state[‘sayings’] st.title(“Take input from the user”) user_input = st.text_input(“Say something:”) if sayings: # display “sayings” if it has inputs from previous runs st.write(“You previously said:”, sayings) if user_input: # add to “sayings” if we get an input sayings.append(user_input) st.write(“You said:”, user_input) Dabei sollten Sie beachten, dass alle Daten, die in session_state gespeichert werden, nur über die Lebensdauer des Streamlit-Servers, auf dem die Anwendung läuft, bestehen bleiben. Ist der Server weg, gehen auch die Daten verloren. Wenn Sie eine aggressivere Datenpersistenz wünschen, müssen Sie mögicherweise auf eine Datenbank-Lösung oder einen In-Memory-Cache wie Redis zurückgreifen. Data Widgets für Streamlit-Applikationen Streamlit-Steuerelemente um Interaktionen von oder mit Daten anzuzeigen, sind bereits von Grund auf darauf konzipiert, Informationen für die gängigsten Use Cases zu zu rendern. Streamlit Web Widgets können beispielsweise Dataframes als Quelle nutzen und diese automatisiert mit den richtigen Spaltenbeschriftung bestücken, so dass es Ihnen erspart bleibt, das manuell zu erledigen. Standardmäßig enthält Streamlit eine breite Palette gängiger Daten-Widgets. Weitere solcher Komponenten stehen zudem über die Community zur Verfügung und sind nur einen pip install-Befehl entfernt. Streamlit-Apps bereitstellen Weil es sich bei Streamlit-Anwendungen im Kern um Python-Web-Apps handelt, können sie auf die gleiche Weise bereitgestellt werden wie jede andere, vernetzte Python-Anwendung. Die Anwendung auf einem bestimmten Rechner auszuführen und über den zugewiesenen Port Zugriff darauf zu gewähren, wäre diesbezüglich die Quick-and-Dirty-Strategie. Doch auch fortschrittlichere Deployments folgen dem Muster anderer Python-Webanwendungen – und lassen sich etwa mit Docker, Kubernetes oder anderen gängigen Cloud Services stemmen. Auch Snowflake-Anwender können Streamlit-Apps über AWS und Azure bereitstellen – unterstützt durch den entsprechenden Data Store. Last, but not least gibt es auch noch einen eigenen Community-Cloud-Hosting-Service von Streamlit, der für die zugehörigen Applikationen jedoch nicht obligatorisch ist. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Streamlit-Tutorial: Webbasierte Python-Daten-Apps leicht gemacht​ Schleusen auf für datenfokussierte Python-Anwendungen: Streamlit befähigt Entwickler, Apps dieser Art ganz ohne Frontend-Erfahrung in nur wenigen Minuten zu erstellen und zu teilen.
Foto: isabel kendzior | shutterstock.com

Ein gängiges Problem mit Python-Apps ist, sie mit anderen Menschen zu teilen. Bislang verlassen sich Developer zu diesem Zweck vor allem auf Web Interfaces, die die Funktionalitäten der Anwendung über eine Benutzeroberfläche abbilden. Das funktioniert allerdings nur wirklich gut, wenn das User Interface der App für Web-Komponenten ausgelegt ist. Leisten können das beispielsweise Data-Exploration-Anwendungen. Diese erfordern aber auch Frontend-Komponenten, die im Sinne der Interaktivität idealerweise in JavaScript geschrieben sind.

Die quelloffene Python-Bibliothek Streamlit zielt darauf ab, die meisten dieser Problemstellungen aufzulösen: Sie ermöglicht es Entwicklern, Python-Apps mit webbasierten Frontends zu entwickeln und dafür auf eine reichhaltige Sammlung interaktiver Komponenten zurückzugreifen. Resultierende Anwendungen können überall dort gehostet werden, wo auch Python-Web-Apps “leben”. Das Beste ist jedoch, dass weder HTML- noch JavaScript- oder CSS-Skills nötig sind, um überzeugende Ergebnisse zu erzielen. Stattdessen genügt Python-Code, der die Methoden und Klassen von Streamlit nutzt.

Streamlit-Beispiele

Streamlit-Programme werden in einem deklarativen Stil geschrieben. Die Objekte werden auf der Webseite in der Reihenfolge angezeigt, in der sie innerhalb des Codes deklariert sind. Jede Interaktion mit den Komponenten führt dazu, dass das Programm “top down” neu ausgeführt und die Web Page neu geladen wird, um die vorgenommenen Änderungen widerzuspiegeln.

Ein simples Streamlit-Beispiel

Zunächst ein simples Beispiel für eine Streamlit-Anwendung:

import streamlit as st

st.title(“Take input from the user”)

user_input = st.text_input(“Say something:”)

if user_input:

st.write(“You said:”, user_input)

Wenn Sie diesen Code mit Streamlit ausführen (streamlit run), spielt sich folgendes ab:

Eine Webseite mit dem Titel “Take input from the user” erscheint.

Darunter ist ein mit “Say something:” befülltes Textfeld zu sehen.

Wenn ein User etwas in das Textfeld eingibt und abschickt, erscheint der User Input unter dem Textfeld “You said:“.

Diese HTML-Widgets (und wie sie sich verhalten) werden von Streamlit automatisch generiert und gemanagt. Das beinhaltet auch den State der Anwendung: Das if-Statement sorgt beispielsweise dafür, dass die user_input-Textbox nur bei einer entsprechenden Eingabe anspringt.

Streamlit bietet viele weitere HTML-Komponenten. Zu den nativ verfügbaren Komponenten gehören zum Beispiel:

LaTeX-formattierter Text,

Bokeh-Charts und

Camera Input.

Ein komplexes Streamlit-Beispiel

Ein gutes Beispiel für eine komplexere Streamlit-Anwendung hält die offizielle Dokumentation des Tools bereit. Das Beispiel demonstriert dabei eindrücklich, was Streamlit an diversen Fronten leisten kann. Zu diesem Zweck wird ein gängiges Datenset eingesetzt (Uber-Fahrtantritte und -Abschlüsse in Manhattan, kategorisiert nach Stunden). Die entsprechenden Zeiten werden in einem Balkendiagramm, die jeweiligen Standorte über eine interaktive Karte visualisiert.

Das gesamte Programm besteht dabei aus nur etwa 30 Code-Zeilen. Das ist kompakt genug, um es im Copy-Paste-Verfahren in eine Datei einzufügen und zu experimentieren.

Daten in Streamlit-Anwendungen

Streamlit bietet auch diverse native Wege, um mit Datenquellen umzugehen. Dataframes dienen dabei als primäres Format, um Daten zu laden und mit ihnen zu arbeiten.

Sie können jedoch auch Daten aus jeder anderen Quelle laden, die sie auch in anderen Python-Apps nutzen würden. Um diesen Prozess zu unterstützen, bietet Streamlit weitere Annehmlichkeiten: Die Datenvisualisierungs-Anwendung aus dem vorhergehenden Abschnitt nutzt etwa Pandas, um eine .CSV-Datei über eine Remote-URL zu laden und in einen Dataframe zu transformieren. Das ist zwar komfortabel, wenn es darum geht, Daten zu laden und zu formatieren, kann aber auch viel Zeit kosten – insbesondere, wenn dazu eine Netzwerkverbindung genutzt wird. Darüber hinaus muss das Programm auch nach jeder User-Aktion neu laden.

Um dieses Problem zu umgehen, bietet Streamlit den Decorator @st.cache_data, der genutzt wird, um die load_data()-Funktion zu wrappen. Zudem werden Daten über @st.cache_data über mehrere Reloads hinweg zwischengespeichert, so dass diese nur einmal nach jedem App-Start geladen werden.

State Management mit Streamlit

Weil das Design von Streamlit Applikationen nach jeder User-Interaktion zum Reload zwingt, ist es nicht unbedingt selbsterklärend, wie man eine Anwendung in einem Persistent State hält. Eingangs haben wir betrachtet, wie Daten in einem Textfeld den State zwischen den Runs händeln. Wollen Sie nun den State unabhängig von einzelnen Kontrollelementen erstellen und managen, müssen Sie auf das in Streamlit integrierte session_state-Objekt zurückgreifen.

Bei streamlit.session_state handelt es sich um einen Key-Value-Store (im Wesentlichen ein Dictionary), der über mehrere Durchläufe hinweg persistent bleibt. Wenn ein Streamlit-Programm zum ersten Mal gestartet wird, ist dieser Store leer. Sie müssen also überprüfen ob Keys vorhanden sind, bevor sie versuchen auf diese zuzugreifen.

import streamlit as st

# create the key “sayings” if it doesn’t exist

if ‘sayings’ not in st.session_state:

st.session_state[‘sayings’] = []

# for convenience, make a reference

sayings = st.session_state[‘sayings’]

st.title(“Take input from the user”)

user_input = st.text_input(“Say something:”)

if sayings:

# display “sayings” if it has inputs from previous runs

st.write(“You previously said:”, sayings)

if user_input:

# add to “sayings” if we get an input

sayings.append(user_input)

st.write(“You said:”, user_input)

Dabei sollten Sie beachten, dass alle Daten, die in session_state gespeichert werden, nur über die Lebensdauer des Streamlit-Servers, auf dem die Anwendung läuft, bestehen bleiben. Ist der Server weg, gehen auch die Daten verloren. Wenn Sie eine aggressivere Datenpersistenz wünschen, müssen Sie mögicherweise auf eine Datenbank-Lösung oder einen In-Memory-Cache wie Redis zurückgreifen.

Data Widgets für Streamlit-Applikationen

Streamlit-Steuerelemente um Interaktionen von oder mit Daten anzuzeigen, sind bereits von Grund auf darauf konzipiert, Informationen für die gängigsten Use Cases zu zu rendern. Streamlit Web Widgets können beispielsweise Dataframes als Quelle nutzen und diese automatisiert mit den richtigen Spaltenbeschriftung bestücken, so dass es Ihnen erspart bleibt, das manuell zu erledigen.

Standardmäßig enthält Streamlit eine breite Palette gängiger Daten-Widgets. Weitere solcher Komponenten stehen zudem über die Community zur Verfügung und sind nur einen pip install-Befehl entfernt.

Streamlit-Apps bereitstellen

Weil es sich bei Streamlit-Anwendungen im Kern um Python-Web-Apps handelt, können sie auf die gleiche Weise bereitgestellt werden wie jede andere, vernetzte Python-Anwendung. Die Anwendung auf einem bestimmten Rechner auszuführen und über den zugewiesenen Port Zugriff darauf zu gewähren, wäre diesbezüglich die Quick-and-Dirty-Strategie.

Doch auch fortschrittlichere Deployments folgen dem Muster anderer Python-Webanwendungen – und lassen sich etwa mit Docker, Kubernetes oder anderen gängigen Cloud Services stemmen. Auch Snowflake-Anwender können Streamlit-Apps über AWS und Azure bereitstellen – unterstützt durch den entsprechenden Data Store. Last, but not least gibt es auch noch einen eigenen Community-Cloud-Hosting-Service von Streamlit, der für die zugehörigen Applikationen jedoch nicht obligatorisch ist. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Streamlit-Tutorial: Webbasierte Python-Daten-Apps leicht gemacht​ Weiterlesen »

KI lokal auf dem PC nutzen: So geht´s mit Ollama ganz einfach​

Allgemein

IDG Als Alternative zu den großen KI-Anbietern wie OpenAI haben sich Entwickler aus dem akademischen Bereich und aus der Open-Source-Szene um freie KI-Modelle gekümmert. Mittlerweile sind viele Large Language Models für Aufgabenbereiche wie natürliche Sprache und Programmierung kostenlos verfügbar und auf leistungsfähigen Rechnern lokal installierbar. Die Übertragung eventuell vertraulicher Daten zu einem Clouddienst entfällt damit und für eine API auf dem gleichen Rechner oder im LAN fallen keine Gebühren an. Die potenziell sehr mächtige und effiziente LLM Deep Seek aus China läuft auf den Servern des Anbieters nur mit eingeschalteter Zensur, die KI-Abfragen zu politisch unliebsamen Themen blockiert. Wird Deep Seek hingegen mit Ollama lokal ausgeführt, so ist die Zensur dabei einfach abgeschaltet und die LLM kann ihr volles Potenzial ausspielen. Die Installation von LLMs ist unter Linux vergleichsweise einfach, weil die benötigten Python- und anderen Programmbibliotheken von Haus aus vorliegen. Beim Testen und Wechseln mehrerer LLMs ist ein Verwaltungstool wie Ollama aber trotzdem von Vorteil. Denn damit ist ein Modell aus einem Onlineverzeichnis schnell mal installiert und auch wieder flott entfernt. LLMs sind üblicherweise mehrere Gigabyte groß und auf Rechnern mit kleineren NVME-Laufwerken sind hin und wieder Aufräumarbeiten nach Tests von KI-Modellen nötig. Ollama: Voraussetzungen und Modelle Die KI-Verwaltung Ollama ist zunächst ein reines Kommandozeilenprogramm. Es läuft als Systemd-Dienst im Hintergrund und stellt lokal einen Webserver für Anfragen per schlichtem Eingabeprompt bereit. Als Erweiterung gibt es aber zusätzlich eine nettere Weboberfläche, die separat installiert wird. Modelle holen und ausführen: Ollama ist ein Kommandozeilentool und verwaltet je nach Platzangebot auf dem Datenträger beliebig viele LLMs aus seinem Onlineverzeichnis.IDG Falls eine geeignete Nvidia-Grafikkarte ab 8 GB Video-RAM und die Cuda-Runtime Nvidias (Download für Linux) vorhanden sind, spannt Ollama automatisch diesen KI-Beschleuniger ein. Dies verspricht einen ordentlichen Performanceschub, bleibt aber erfreulicherweise optional. Ollama und die verfügbaren Modelle laufen auch nur mit der CPU, wenn auch langsamer. Arbeitsspeicher verlangen die Modelle aber alle in rauen Mengen. Es gibt zwar einige abgespeckte Modelle für Testzwecke, die schon mit 4 GB RAM zufrieden sind, doch ein sinnvolles Minimum sind eher 8 bis 16 GB. Und je nach Modell und gewünschter Anzahl sind natürlich etliche Gigabyte Platz auf dem Datenträger im Home-Verzeichnis vonnöten. Mit kleinen Modellen kann Ollama aber auch auf einem Raspberry Pi 4/5 laufen. Die Zahl der verfügbaren Modelle (LLMs) ist in den letzten Wochen stark angewachsen: Rund 240 Modelle kann Ollama inzwischen aus seinem Onlineverzeichnis beziehen. Einige Modelle gibt es in verschiedenen Größen und auch abgespeckt, und zu den Highlights gehören neben dem eingangs erwähnten Deep Seek das neue Deep Seek 2.5 als Programmierhilfe, das französische Mistral in mehreren Varianten und die Llama-Modelle von Meta/Facebook, Phi von Microsoft, Gemma3 von Google und Gwen3 von Alibaba. Speziell für die Arbeit mit natürlichen Sprachen aus dem europäischen Sprachraum sowie Deutsch steht Stablelm2 in einer kleinen Variante (1,6 GB) und in vollem Umfang (12 GB) bereit. Eine durchsuchbare Übersicht findet sich auf ollama.com/search. Installation: Rahmenwerk und LLMs Die Einrichtung des Ollama-Rahmenwerks gelingt mit einem vorbereiteten Installations-Script, das mit dem Kommando wget https://ollama.com/install.sh ins aktuelle Verzeichnis heruntergeladen wird. Das Script verlangt als Voraussetzung nur das Downloadtool curl, das über das gleichnamige Paket bei Bedarf in allen Linux-Distributionen schnell nachinstalliert ist. Der Aufruf sh install.sh startet dann die Einrichtung von Ollama. Das Script fragt das sudo-Passwort ab und startet dann einen Systemd-Dienst für Ollama sowie einen lokalen, integrierten Webserver, der auf Port 11434 startet. Der Webserver ist daher auf dem lokalen System im Browser über die Adresse localhost:11434 aufrufbar. Browseroberfläche für Ollama: Open-Web-UI ist als Python-Programm oder auch in einem Docker-Container flott eingerichtet und liefert eine Bedienoberfläche nach.IDG Dort steht erst mal nur „Ollama is running“, denn es fehlen noch LLMs. Auf Wunsch gibt es auch eine hübschere Weboberfläche. Zunächst geht es also wieder in das Terminal, um mit „ollama pull [Modell]“ ein Modell lokal herunterzuladen, also beispielsweise mit dem Kommando ollama pull llama3 das rund 4,7 GB große LLM „llama3“. Anschließend führt der Befehl ollama run llama3 dieses Modell aus. Auf diese Weise sind mehrere Modelle installierbar und der Befehl „ollama list“ zeigt eine Liste der lokal installierten LLMs an. Das Kommando ollama rm llama3 würde das Modell „llama3“ später wieder komplett entfernen. Nun aber erst mal an die Arbeit mit dem gerade ausgeführten LLM: Im Terminal zeigt sich nach dem Run-Befehl aus dem vorherigen Schritt ein Eingabeprompt, das eine Frage im Stil eines Chatbots erwartet. Je nach Modell kann die Eingabe in Englisch oder auch in Deutsch erfolgen und auch die Antwort erfolgt dann im Terminal darunter. Open-Web-UI: Schönere Oberfläche Ein KI-Chat im Terminal ist erst mal nicht sehr komfortabel. Der schon gestartete interne Webserver des Ollama tut erst mal nicht viel, sondern stellt anderen Programmen lediglich eine API per HTTP bereit. An diese kann sich nun die extern verfügbare Open-Web-UI klemmen und eine Verwaltungs- und Chatbot-Oberfläche bereitstellen. Zur Installation von Open-Web-UI gibt es mehrere Wege, etwa auch als Container mit Docker oder dem neueren Podman. Es handelt sich dabei um ein Python-Projekt, das auch ohne Container-Runtimes direkt mit Python funktioniert. Auch für Open-Web-UI gibt es ein Bash-Installations-Script, welches der Befehl wget https://astral.sh/uv/install.sh herunterlädt und die nachfolgende Eingabe sh install.sh ausführt. Danach ist eine Abmeldung und Neuanmeldung am System nötig, damit der neu angelegte Ordner im Home-Verzeichnis „/.local/bin/“ in der Pfad-Variable verfügbar ist. Danach schließt die weitere Eingabe von DATA_DIR=~/.open-webui uvx –python 3.11 open-webui@latest serve im Terminal die Installation ab, wobei das Installations-Script nochmal rund 2,4 GB Daten herunterladen muss. Diese Weboberfläche läuft dann auch mit einem internen, automatisch gestarteten Webserver, allerdings auf dem Port 8080, welcher in der Adresszeile eines Browsers dann über http://localhost:8080 erreichbar ist. Es ist nach einem Neustart immer nötig, den Webserver neu zu starten, doch ein erneuter Download der Dateien entfällt. Beim Besuch der lokalen Seite ist es pro forma zuerst nötig, einen Benutzeraccount (Administrator) zu erstellen. Diese Daten verlassen den lokalen Computer jedoch nicht. Danach ist über die Menüleiste links oben eines der installierten Modelle wählbar und im Hauptfenster kann das KI-Modell mit Fragen gefüttert werden. (PC-Welt) 

KI lokal auf dem PC nutzen: So geht´s mit Ollama ganz einfach​ IDG

Als Alternative zu den großen KI-Anbietern wie OpenAI haben sich Entwickler aus dem akademischen Bereich und aus der Open-Source-Szene um freie KI-Modelle gekümmert. Mittlerweile sind viele Large Language Models für Aufgabenbereiche wie natürliche Sprache und Programmierung kostenlos verfügbar und auf leistungsfähigen Rechnern lokal installierbar.

Die Übertragung eventuell vertraulicher Daten zu einem Clouddienst entfällt damit und für eine API auf dem gleichen Rechner oder im LAN fallen keine Gebühren an.

Die potenziell sehr mächtige und effiziente LLM Deep Seek aus China läuft auf den Servern des Anbieters nur mit eingeschalteter Zensur, die KI-Abfragen zu politisch unliebsamen Themen blockiert. Wird Deep Seek hingegen mit Ollama lokal ausgeführt, so ist die Zensur dabei einfach abgeschaltet und die LLM kann ihr volles Potenzial ausspielen.

Die Installation von LLMs ist unter Linux vergleichsweise einfach, weil die benötigten Python- und anderen Programmbibliotheken von Haus aus vorliegen. Beim Testen und Wechseln mehrerer LLMs ist ein Verwaltungstool wie Ollama aber trotzdem von Vorteil.

Denn damit ist ein Modell aus einem Onlineverzeichnis schnell mal installiert und auch wieder flott entfernt. LLMs sind üblicherweise mehrere Gigabyte groß und auf Rechnern mit kleineren NVME-Laufwerken sind hin und wieder Aufräumarbeiten nach Tests von KI-Modellen nötig.

Ollama: Voraussetzungen und Modelle

Die KI-Verwaltung Ollama ist zunächst ein reines Kommandozeilenprogramm. Es läuft als Systemd-Dienst im Hintergrund und stellt lokal einen Webserver für Anfragen per schlichtem Eingabeprompt bereit.

Als Erweiterung gibt es aber zusätzlich eine nettere Weboberfläche, die separat installiert wird.

Modelle holen und ausführen: Ollama ist ein Kommandozeilentool und verwaltet je nach Platzangebot auf dem Datenträger beliebig viele LLMs aus seinem Onlineverzeichnis.IDG

Falls eine geeignete Nvidia-Grafikkarte ab 8 GB Video-RAM und die Cuda-Runtime Nvidias (Download für Linux) vorhanden sind, spannt Ollama automatisch diesen KI-Beschleuniger ein.

Dies verspricht einen ordentlichen Performanceschub, bleibt aber erfreulicherweise optional. Ollama und die verfügbaren Modelle laufen auch nur mit der CPU, wenn auch langsamer.

Arbeitsspeicher verlangen die Modelle aber alle in rauen Mengen. Es gibt zwar einige abgespeckte Modelle für Testzwecke, die schon mit 4 GB RAM zufrieden sind, doch ein sinnvolles Minimum sind eher 8 bis 16 GB.

Und je nach Modell und gewünschter Anzahl sind natürlich etliche Gigabyte Platz auf dem Datenträger im Home-Verzeichnis vonnöten.

Mit kleinen Modellen kann Ollama aber auch auf einem Raspberry Pi 4/5 laufen. Die Zahl der verfügbaren Modelle (LLMs) ist in den letzten Wochen stark angewachsen: Rund 240 Modelle kann Ollama inzwischen aus seinem Onlineverzeichnis beziehen.

Einige Modelle gibt es in verschiedenen Größen und auch abgespeckt, und zu den Highlights gehören neben dem eingangs erwähnten Deep Seek das neue Deep Seek 2.5 als Programmierhilfe, das französische Mistral in mehreren Varianten und die Llama-Modelle von Meta/Facebook, Phi von Microsoft, Gemma3 von Google und Gwen3 von Alibaba.

Speziell für die Arbeit mit natürlichen Sprachen aus dem europäischen Sprachraum sowie Deutsch steht Stablelm2 in einer kleinen Variante (1,6 GB) und in vollem Umfang (12 GB) bereit.

Eine durchsuchbare Übersicht findet sich auf ollama.com/search.

Installation: Rahmenwerk und LLMs

Die Einrichtung des Ollama-Rahmenwerks gelingt mit einem vorbereiteten Installations-Script, das mit dem Kommando

wget https://ollama.com/install.sh

ins aktuelle Verzeichnis heruntergeladen wird. Das Script verlangt als Voraussetzung nur das Downloadtool curl, das über das gleichnamige Paket bei Bedarf in allen Linux-Distributionen schnell nachinstalliert ist. Der Aufruf

sh install.sh

startet dann die Einrichtung von Ollama. Das Script fragt das sudo-Passwort ab und startet dann einen Systemd-Dienst für Ollama sowie einen lokalen, integrierten Webserver, der auf Port 11434 startet. Der Webserver ist daher auf dem lokalen System im Browser über die Adresse

localhost:11434

aufrufbar.

Browseroberfläche für Ollama: Open-Web-UI ist als Python-Programm oder auch in einem Docker-Container flott eingerichtet und liefert eine Bedienoberfläche nach.IDG

Dort steht erst mal nur „Ollama is running“, denn es fehlen noch LLMs. Auf Wunsch gibt es auch eine hübschere Weboberfläche.

Zunächst geht es also wieder in das Terminal, um mit „ollama pull [Modell]“ ein Modell lokal herunterzuladen, also beispielsweise mit dem Kommando

ollama pull llama3

das rund 4,7 GB große LLM „llama3“. Anschließend führt der Befehl

ollama run llama3

dieses Modell aus. Auf diese Weise sind mehrere Modelle installierbar und der Befehl „ollama list“ zeigt eine Liste der lokal installierten LLMs an. Das Kommando

ollama rm llama3

würde das Modell „llama3“ später wieder komplett entfernen.

Nun aber erst mal an die Arbeit mit dem gerade ausgeführten LLM: Im Terminal zeigt sich nach dem Run-Befehl aus dem vorherigen Schritt ein Eingabeprompt, das eine Frage im Stil eines Chatbots erwartet.

Je nach Modell kann die Eingabe in Englisch oder auch in Deutsch erfolgen und auch die Antwort erfolgt dann im Terminal darunter.

Open-Web-UI: Schönere Oberfläche

Ein KI-Chat im Terminal ist erst mal nicht sehr komfortabel. Der schon gestartete interne Webserver des Ollama tut erst mal nicht viel, sondern stellt anderen Programmen lediglich eine API per HTTP bereit.

An diese kann sich nun die extern verfügbare Open-Web-UI klemmen und eine Verwaltungs- und Chatbot-Oberfläche bereitstellen.

Zur Installation von Open-Web-UI gibt es mehrere Wege, etwa auch als Container mit Docker oder dem neueren Podman. Es handelt sich dabei um ein Python-Projekt, das auch ohne Container-Runtimes direkt mit Python funktioniert.

Auch für Open-Web-UI gibt es ein Bash-Installations-Script, welches der Befehl

wget https://astral.sh/uv/install.sh

herunterlädt und die nachfolgende Eingabe

sh install.sh

ausführt. Danach ist eine Abmeldung und Neuanmeldung am System nötig, damit der neu angelegte Ordner im Home-Verzeichnis „/.local/bin/“ in der Pfad-Variable verfügbar ist. Danach schließt die weitere Eingabe von

DATA_DIR=~/.open-webui uvx –python 3.11 open-webui@latest serve

im Terminal die Installation ab, wobei das Installations-Script nochmal rund 2,4 GB Daten herunterladen muss.

Diese Weboberfläche läuft dann auch mit einem internen, automatisch gestarteten Webserver, allerdings auf dem Port 8080, welcher in der Adresszeile eines Browsers dann über

http://localhost:8080

erreichbar ist. Es ist nach einem Neustart immer nötig, den Webserver neu zu starten, doch ein erneuter Download der Dateien entfällt.

Beim Besuch der lokalen Seite ist es pro forma zuerst nötig, einen Benutzeraccount (Administrator) zu erstellen. Diese Daten verlassen den lokalen Computer jedoch nicht.

Danach ist über die Menüleiste links oben eines der installierten Modelle wählbar und im Hauptfenster kann das KI-Modell mit Fragen gefüttert werden.

(PC-Welt)

KI lokal auf dem PC nutzen: So geht´s mit Ollama ganz einfach​ Weiterlesen »

9 nervige Zeitfresser, die ChatGPT sekundenschnell für Sie erledigt​

Allgemein

aileenchik / Shutterstock.com ChatGPT ist dabei, die Welt zu verändern. Dieser Prozess ist längst im Gange und er wird sich nur noch beschleunigen, wenn die Technologie verbessert wird, mehr Menschen Zugang dazu erhalten und lernen, sie zu nutzen. Es ist schockierend, wie viele Aufgaben ChatGPT bereits für Sie erledigen kann. Während die Pessimisten das Potenzial von KI-Assistenten immer noch geringschätzen, habe ich es genutzt, um alle möglichen “niederen” Aufgaben für mich zu erledigen. Hier sind meine Lieblingsbeispiele. 1. E-Mails für Sie schreiben Foundry Wir alle standen schon einmal vor der schwierigen Aufgabe, eine E-Mail zu schreiben – sei es privat oder beruflich – und wussten nicht so recht, wie wir sie formulieren sollten. ChatGPT kann diese schwere Arbeit für Sie übernehmen und die (hoffentlich) perfekte E-Mail auf Grundlage der von Ihnen eingegebenen Informationen verfassen. Nehmen wir an, die E-Mail, die Sie schreiben müssen, ist beruflicher Natur, und eine schlechte Formulierung könnte sich negativ auf Ihre Karriere auswirken. Indem Sie ChatGPT anweisen, die E-Mail mit einer bestimmten Struktur, einem bestimmten Inhalt und einem bestimmten Tonfall zu schreiben, verschaffen Sie sich einen großen Vorsprung. Ein guter Tipp ist, niemals den ersten Versuch von ChatGPT zu akzeptieren. Lesen Sie ihn immer durch und suchen Sie nach Verbesserungsmöglichkeiten und fordern Sie dann Änderungen an, um sicherzustellen, dass Sie die bestmögliche E-Mail erhalten. Sie können (und sollten) die E-Mail auch in Ihrer eigenen Sprache umschreiben. 2. Reiserouten und Zeitpläne erstellen Foundry Wenn Sie auf Reisen gehen, aber zu den Menschen gehören, die es hassen, Reisen zu planen, dann sollten Sie die Möglichkeit von ChatGPT nutzen, Reiserouten zu erstellen. Die Ergebnisse können bis ins kleinste Detail angepasst werden, je nachdem, wie viele Details und Anweisungen Sie bereit sind zu geben. Als jemand, der mindestens einmal im Jahr verreisen möchte, aber auch das Beste aus jeder Reise machen will, ist es für mich unerlässlich, ChatGPT für eine Reiseroute zu nutzen. Ich gebe den Ort und die Dinge an, die ich sehen und unternehmen möchte, und überlasse den Rest dem Programm. Anstatt tagelang alles selbst zu recherchieren, erledigt ChatGPT 80 Prozent davon für mich. Wie bei all diesen Aufgaben müssen Sie nicht den ersten Versuch von ChatGPT akzeptieren. Verwenden Sie verschiedene Eingabeaufforderungen, um den KI-Chatbot zu zwingen, die Reiseroute Ihren Wünschen entsprechend zu gestalten. Sie werden überrascht sein, auf wie viele tolle Ideen Sie auf diese Weise stoßen werden. Verwerfen Sie einfach die, die Ihnen nicht gefallen. 3. Schwierige Konzepte aufschlüsseln Foundry Eine der besten Aufgaben, die Sie ChatGPT zuweisen können, ist die Erklärung schwieriger Konzepte. Bitten Sie ChatGPT, Ihnen jedes erdenkliche Konzept zu erklären, und es wird Ihnen in den meisten Fällen gerecht. Sie können den Grad der Erklärung selbst bestimmen und sogar visuelle Elemente einbeziehen. Nehmen wir zum Beispiel an, dass ein Vorgesetzter bei der Arbeit regelmäßig Vorträge über die Bedeutung von Networking hält. Aber vielleicht geht er nie ins Detail, was er meint, sondern drängt nur ständig auf das Warum, ohne das Was zu erklären. Fragen Sie doch einfach ChatGPT, wie man Networking erklärt! Okay, die meisten von uns wissen, was “Networking” ist, und das Konzept ist nicht sehr schwer zu begreifen. Aber Sie können das mit allem machen. Bitten Sie ChatGPT, Ihnen Augmented Reality, Multi-Thread-Verarbeitung, Blockchain, große Sprachmodelle und vieles mehr zu erklären. Es wird Ihnen eine klare und einfache Aufschlüsselung liefern, vielleicht sogar mit Analogien und Bildern. 4. Probleme analysieren und schwierige Entscheidungen treffen Foundry Wir alle stehen hin und wieder vor schwierigen Entscheidungen. Wenn Sie das nächste Mal vor einer besonders schweren Entscheidung stehen und sich einfach nicht entscheiden können, fragen Sie ChatGPT um Rat. Es mag seltsam klingen, künstlicher Intelligenz irgendeine Entscheidung anzuvertrauen, ganz zu schweigen von einer wichtigen Entscheidung, bei der Sie ratlos sind. Aber es macht tatsächlich sehr viel Sinn. Während das menschliche Urteilsvermögen durch Emotionen getrübt werden kann, kann die KI so etwas beiseiteschieben und der Logik den Vorrang geben. Es versteht sich von selbst: Sie müssen die Antworten von ChatGPT nicht akzeptieren. Nutzen Sie die KI, um das Für und Wider abzuwägen, um zu verstehen, was für Sie am wichtigsten ist, und um eine Richtung vorzuschlagen. Und wer weiß? Wenn Ihnen die gegebene Antwort nicht gefällt, könnte Ihnen das schon klar machen, was Sie eigentlich wollen und was die richtige Antwort für Sie ist. Das ist die Art von Dingen, mit denen ChatGPT Ihr Leben verbessern kann. 5. Komplexe Projekte und Strategien planen Foundry Die meisten Berufe sind mit einem gewissen Maß an Projektplanung und -management verbunden. Und gerade Freiberufler müssen gut planen, um Projekte rechtzeitig fertig zu stellen. Genau hier kann ChatGPT von unschätzbarem Wert sein, denn es zerlegt Projekte in kleinere, besser zu verwaltende Teile. ChatGPT benötigt Informationen über die Art des Projekts, das Endziel, eventuelle Einschränkungen und was Sie bisher getan haben. Mit diesen Informationen kann es dann das Projekt mit einem Schritt-für-Schritt-Plan aufbrechen und weiter in Phasen untergliedern (falls erforderlich). Wenn ChatGPT Ihr Projekt zunächst nicht so aufteilt, wie Sie es wünschen, versuchen Sie es noch einmal. Ändern Sie die Eingabeaufforderungen und sorgen Sie dafür, dass sich der KI-Chatbot genau auf das einstellt, wonach Sie suchen. Das erfordert ein wenig Hin und Her, aber es kann Ihre Planungszeit von Stunden auf wenige Minuten verkürzen. 6. Recherchenotizen zusammenstellen Foundry Wenn Sie zu einem bestimmten Thema recherchieren müssen, kann ChatGPT Ihnen die Mühe ersparen, diese Recherchen zusammenzustellen. Als ich zum Beispiel vor einer Reise nach Kroatien mehr über den kroatischen Unabhängigkeitskrieg wissen wollte, bat ich ChatGPT, mir eine kurze Zusammenfassung des Konflikts mit Aufzählungspunkten zur Verfügung zu stellen, um zu verstehen, wie es dazu kam. Nachdem ich all diese Informationen aufgenommen hatte, bat ich ChatGPT, eine Zeitleiste mit den wichtigsten Ereignissen hinzuzufügen, damit ich den Verlauf des Konflikts noch besser verstehen konnte. ChatGPT bot mir dann an, mir Schlachtkarten und/oder Zusammenfassungen sowie Profile der Hauptakteure zur Verfügung zu stellen. Mit der Deep Research-Funktion von ChatGPT können Sie noch tiefer in die Materie eindringen. Sie ist mittlerweile für kostenlose Nutzer verfügbar, die bis zu fünf Deep Research-Aufgaben pro Monat durchführen können. Mit Deep Research führt ChatGPT mehrstufige Recherchen durch, um umfassende Berichte (mit Zitaten!) zu erstellen, die auf großen Mengen von Informationen aus dem Internet basieren. Eine Deep Research-Aufgabe kann bis zu 30 Minuten in Anspruch nehmen, spart Ihnen aber Stunden oder sogar Tage. Beachten Sie hierbei aber, dass ChatGPT zwar besser darin geworden ist, Informationen und Fakten aus verschiedenen Quellen zusammenzutragen. Es kann aber immer noch vorkommen, dass Details teilweise nicht stimmen oder verdreht sind. Wenn Sie es also ganz genau wissen wollen, sollten Sie wichtige Daten noch einmal durch zuverlässige Quellen überprüfen. 7. Artikel, Meetings und mehr zusammenfassen Foundry Der Tag hat nur eine begrenzte Anzahl von Stunden, aber es werden täglich so viele neue Artikel im Internet veröffentlicht. Wenn Sie auf besonders lange Artikel stoßen, kann es hilfreich sein, diese in ChatGPT zu lesen, um eine schnelle Zusammenfassung zu erhalten. Wenn die Zusammenfassung in irgendeiner Weise unzureichend ist, können Sie dann zurückgehen und den Artikel selbst durchackern. Ich habe zum Beispiel ein paar PC-Welt-Artikel durch ChatGPT laufen lassen, damit die KI mir eine kurze Zusammenfassung der wichtigsten Argumente liefert und aufschlüsselt. Interessanterweise hat sie dabei auch Elemente aus anderen Artikeln übernommen. Wenn Sie das nicht möchten, können Sie ChatGPT anweisen, seine Zusammenfassung auf den Inhalt des Links zu beschränken. Dies ist ein großartiger Trick für andere lange, textlastige Inhalte, für die Sie einfach keine Zeit haben. Denken Sie an Abschriften von Interviews, Vorlesungen, Videos und Zoom-Meetings. Die einzige Einschränkung ist, dass Sie niemals private Details mit ChatGPT teilen sollten, wie etwa unternehmensspezifische Daten, die durch NDAs oder Ähnliches geschützt sind. 8. Q&A-Karteikarten zum Lernen erstellen Foundry Karteikarten können sehr nützlich sein, wenn Sie viele Informationen in Ihr Gehirn einprägen möchten, zum Beispiel beim Lernen für eine Prüfung, bei der Einarbeitung in eine neue Rolle oder bei der Vorbereitung auf ein Vorstellungsgespräch. Und mit ChatGPT müssen Sie diese Karteikarten nicht mehr mühsam selbst erstellen. Sie müssen der KI nur mitteilen, was Sie gerade lernen. Sie können das Format (z. B. Fragen und Antworten oder Multiple Choice) sowie verschiedene andere Elemente festlegen. Dabei können Sie auch wählen, ob Sie den Stoff allgemein halten oder sich auf bestimmte Unterthemen oder Konzepte konzentrieren möchten. Sie können sogar Ihre eigenen Notizen hochladen, damit ChatGPT darauf verweisen kann. 9. Vorstellungsgespräche üben Foundry Ganz gleich, ob Sie zum ersten Mal eine Stelle suchen oder bereits über viel Erfahrung verfügen: Es ist immer eine gute Idee, für Ihre Vorstellungsgespräche zu üben, wenn Sie sich beruflich verändern wollen. Vor Jahren mussten Sie vielleicht einen Freund oder ein Familienmitglied bitten, ein Vorstellungsgespräch zu simulieren. Heutzutage kann ChatGPT diese Aufgabe für Sie übernehmen, und das viel effektiver. Teilen Sie ChatGPT die Stellenbezeichnung, die Branche und die Ebene mit, für die Sie sich bewerben, die Art des Vorstellungsgesprächs (z.B. technisches Assessment, Gruppe/Panel, Einzelgespräch mit dem CEO) und alles, was Sie sonst noch berücksichtigen möchten. ChatGPT führt dann ein Scheininterview mit Ihnen durch und gibt Ihnen währenddessen Feedback. Als ich das selbst ausprobiert habe, war ich schockiert, wie gut ChatGPT in diesem Zusammenhang vorgeben kann, ein Mensch zu sein. Und das Feedback, das es zu jeder Ihrer Antworten gibt, ist von unschätzbarem Wert, um Ihre Ecken und Kanten zu beseitigen und Ihre Erfolgschancen zu verbessern, wenn Sie von einem echten Personalchef interviewt werden. (PC-Welt) > > 

9 nervige Zeitfresser, die ChatGPT sekundenschnell für Sie erledigt​ aileenchik / Shutterstock.com

ChatGPT ist dabei, die Welt zu verändern. Dieser Prozess ist längst im Gange und er wird sich nur noch beschleunigen, wenn die Technologie verbessert wird, mehr Menschen Zugang dazu erhalten und lernen, sie zu nutzen.

Es ist schockierend, wie viele Aufgaben ChatGPT bereits für Sie erledigen kann. Während die Pessimisten das Potenzial von KI-Assistenten immer noch geringschätzen, habe ich es genutzt, um alle möglichen “niederen” Aufgaben für mich zu erledigen. Hier sind meine Lieblingsbeispiele.

1. E-Mails für Sie schreiben

Foundry

Wir alle standen schon einmal vor der schwierigen Aufgabe, eine E-Mail zu schreiben – sei es privat oder beruflich – und wussten nicht so recht, wie wir sie formulieren sollten. ChatGPT kann diese schwere Arbeit für Sie übernehmen und die (hoffentlich) perfekte E-Mail auf Grundlage der von Ihnen eingegebenen Informationen verfassen.

Nehmen wir an, die E-Mail, die Sie schreiben müssen, ist beruflicher Natur, und eine schlechte Formulierung könnte sich negativ auf Ihre Karriere auswirken. Indem Sie ChatGPT anweisen, die E-Mail mit einer bestimmten Struktur, einem bestimmten Inhalt und einem bestimmten Tonfall zu schreiben, verschaffen Sie sich einen großen Vorsprung.

Ein guter Tipp ist, niemals den ersten Versuch von ChatGPT zu akzeptieren. Lesen Sie ihn immer durch und suchen Sie nach Verbesserungsmöglichkeiten und fordern Sie dann Änderungen an, um sicherzustellen, dass Sie die bestmögliche E-Mail erhalten. Sie können (und sollten) die E-Mail auch in Ihrer eigenen Sprache umschreiben.

2. Reiserouten und Zeitpläne erstellen

Foundry

Wenn Sie auf Reisen gehen, aber zu den Menschen gehören, die es hassen, Reisen zu planen, dann sollten Sie die Möglichkeit von ChatGPT nutzen, Reiserouten zu erstellen. Die Ergebnisse können bis ins kleinste Detail angepasst werden, je nachdem, wie viele Details und Anweisungen Sie bereit sind zu geben.

Als jemand, der mindestens einmal im Jahr verreisen möchte, aber auch das Beste aus jeder Reise machen will, ist es für mich unerlässlich, ChatGPT für eine Reiseroute zu nutzen. Ich gebe den Ort und die Dinge an, die ich sehen und unternehmen möchte, und überlasse den Rest dem Programm. Anstatt tagelang alles selbst zu recherchieren, erledigt ChatGPT 80 Prozent davon für mich.

Wie bei all diesen Aufgaben müssen Sie nicht den ersten Versuch von ChatGPT akzeptieren. Verwenden Sie verschiedene Eingabeaufforderungen, um den KI-Chatbot zu zwingen, die Reiseroute Ihren Wünschen entsprechend zu gestalten. Sie werden überrascht sein, auf wie viele tolle Ideen Sie auf diese Weise stoßen werden. Verwerfen Sie einfach die, die Ihnen nicht gefallen.

3. Schwierige Konzepte aufschlüsseln

Foundry

Eine der besten Aufgaben, die Sie ChatGPT zuweisen können, ist die Erklärung schwieriger Konzepte. Bitten Sie ChatGPT, Ihnen jedes erdenkliche Konzept zu erklären, und es wird Ihnen in den meisten Fällen gerecht. Sie können den Grad der Erklärung selbst bestimmen und sogar visuelle Elemente einbeziehen.

Nehmen wir zum Beispiel an, dass ein Vorgesetzter bei der Arbeit regelmäßig Vorträge über die Bedeutung von Networking hält. Aber vielleicht geht er nie ins Detail, was er meint, sondern drängt nur ständig auf das Warum, ohne das Was zu erklären. Fragen Sie doch einfach ChatGPT, wie man Networking erklärt!

Okay, die meisten von uns wissen, was “Networking” ist, und das Konzept ist nicht sehr schwer zu begreifen. Aber Sie können das mit allem machen. Bitten Sie ChatGPT, Ihnen Augmented Reality, Multi-Thread-Verarbeitung, Blockchain, große Sprachmodelle und vieles mehr zu erklären. Es wird Ihnen eine klare und einfache Aufschlüsselung liefern, vielleicht sogar mit Analogien und Bildern.

4. Probleme analysieren und schwierige Entscheidungen treffen

Foundry

Wir alle stehen hin und wieder vor schwierigen Entscheidungen. Wenn Sie das nächste Mal vor einer besonders schweren Entscheidung stehen und sich einfach nicht entscheiden können, fragen Sie ChatGPT um Rat.

Es mag seltsam klingen, künstlicher Intelligenz irgendeine Entscheidung anzuvertrauen, ganz zu schweigen von einer wichtigen Entscheidung, bei der Sie ratlos sind. Aber es macht tatsächlich sehr viel Sinn. Während das menschliche Urteilsvermögen durch Emotionen getrübt werden kann, kann die KI so etwas beiseiteschieben und der Logik den Vorrang geben.

Es versteht sich von selbst: Sie müssen die Antworten von ChatGPT nicht akzeptieren. Nutzen Sie die KI, um das Für und Wider abzuwägen, um zu verstehen, was für Sie am wichtigsten ist, und um eine Richtung vorzuschlagen. Und wer weiß? Wenn Ihnen die gegebene Antwort nicht gefällt, könnte Ihnen das schon klar machen, was Sie eigentlich wollen und was die richtige Antwort für Sie ist. Das ist die Art von Dingen, mit denen ChatGPT Ihr Leben verbessern kann.

5. Komplexe Projekte und Strategien planen

Foundry

Die meisten Berufe sind mit einem gewissen Maß an Projektplanung und -management verbunden. Und gerade Freiberufler müssen gut planen, um Projekte rechtzeitig fertig zu stellen. Genau hier kann ChatGPT von unschätzbarem Wert sein, denn es zerlegt Projekte in kleinere, besser zu verwaltende Teile.

ChatGPT benötigt Informationen über die Art des Projekts, das Endziel, eventuelle Einschränkungen und was Sie bisher getan haben. Mit diesen Informationen kann es dann das Projekt mit einem Schritt-für-Schritt-Plan aufbrechen und weiter in Phasen untergliedern (falls erforderlich).

Wenn ChatGPT Ihr Projekt zunächst nicht so aufteilt, wie Sie es wünschen, versuchen Sie es noch einmal. Ändern Sie die Eingabeaufforderungen und sorgen Sie dafür, dass sich der KI-Chatbot genau auf das einstellt, wonach Sie suchen. Das erfordert ein wenig Hin und Her, aber es kann Ihre Planungszeit von Stunden auf wenige Minuten verkürzen.

6. Recherchenotizen zusammenstellen

Foundry

Wenn Sie zu einem bestimmten Thema recherchieren müssen, kann ChatGPT Ihnen die Mühe ersparen, diese Recherchen zusammenzustellen. Als ich zum Beispiel vor einer Reise nach Kroatien mehr über den kroatischen Unabhängigkeitskrieg wissen wollte, bat ich ChatGPT, mir eine kurze Zusammenfassung des Konflikts mit Aufzählungspunkten zur Verfügung zu stellen, um zu verstehen, wie es dazu kam.

Nachdem ich all diese Informationen aufgenommen hatte, bat ich ChatGPT, eine Zeitleiste mit den wichtigsten Ereignissen hinzuzufügen, damit ich den Verlauf des Konflikts noch besser verstehen konnte. ChatGPT bot mir dann an, mir Schlachtkarten und/oder Zusammenfassungen sowie Profile der Hauptakteure zur Verfügung zu stellen.

Mit der Deep Research-Funktion von ChatGPT können Sie noch tiefer in die Materie eindringen. Sie ist mittlerweile für kostenlose Nutzer verfügbar, die bis zu fünf Deep Research-Aufgaben pro Monat durchführen können. Mit Deep Research führt ChatGPT mehrstufige Recherchen durch, um umfassende Berichte (mit Zitaten!) zu erstellen, die auf großen Mengen von Informationen aus dem Internet basieren. Eine Deep Research-Aufgabe kann bis zu 30 Minuten in Anspruch nehmen, spart Ihnen aber Stunden oder sogar Tage.

Beachten Sie hierbei aber, dass ChatGPT zwar besser darin geworden ist, Informationen und Fakten aus verschiedenen Quellen zusammenzutragen. Es kann aber immer noch vorkommen, dass Details teilweise nicht stimmen oder verdreht sind. Wenn Sie es also ganz genau wissen wollen, sollten Sie wichtige Daten noch einmal durch zuverlässige Quellen überprüfen.

7. Artikel, Meetings und mehr zusammenfassen

Foundry

Der Tag hat nur eine begrenzte Anzahl von Stunden, aber es werden täglich so viele neue Artikel im Internet veröffentlicht. Wenn Sie auf besonders lange Artikel stoßen, kann es hilfreich sein, diese in ChatGPT zu lesen, um eine schnelle Zusammenfassung zu erhalten. Wenn die Zusammenfassung in irgendeiner Weise unzureichend ist, können Sie dann zurückgehen und den Artikel selbst durchackern.

Ich habe zum Beispiel ein paar PC-Welt-Artikel durch ChatGPT laufen lassen, damit die KI mir eine kurze Zusammenfassung der wichtigsten Argumente liefert und aufschlüsselt. Interessanterweise hat sie dabei auch Elemente aus anderen Artikeln übernommen. Wenn Sie das nicht möchten, können Sie ChatGPT anweisen, seine Zusammenfassung auf den Inhalt des Links zu beschränken.

Dies ist ein großartiger Trick für andere lange, textlastige Inhalte, für die Sie einfach keine Zeit haben. Denken Sie an Abschriften von Interviews, Vorlesungen, Videos und Zoom-Meetings. Die einzige Einschränkung ist, dass Sie niemals private Details mit ChatGPT teilen sollten, wie etwa unternehmensspezifische Daten, die durch NDAs oder Ähnliches geschützt sind.

8. Q&A-Karteikarten zum Lernen erstellen

Foundry

Karteikarten können sehr nützlich sein, wenn Sie viele Informationen in Ihr Gehirn einprägen möchten, zum Beispiel beim Lernen für eine Prüfung, bei der Einarbeitung in eine neue Rolle oder bei der Vorbereitung auf ein Vorstellungsgespräch. Und mit ChatGPT müssen Sie diese Karteikarten nicht mehr mühsam selbst erstellen. Sie müssen der KI nur mitteilen, was Sie gerade lernen.

Sie können das Format (z. B. Fragen und Antworten oder Multiple Choice) sowie verschiedene andere Elemente festlegen. Dabei können Sie auch wählen, ob Sie den Stoff allgemein halten oder sich auf bestimmte Unterthemen oder Konzepte konzentrieren möchten. Sie können sogar Ihre eigenen Notizen hochladen, damit ChatGPT darauf verweisen kann.

9. Vorstellungsgespräche üben

Foundry

Ganz gleich, ob Sie zum ersten Mal eine Stelle suchen oder bereits über viel Erfahrung verfügen: Es ist immer eine gute Idee, für Ihre Vorstellungsgespräche zu üben, wenn Sie sich beruflich verändern wollen. Vor Jahren mussten Sie vielleicht einen Freund oder ein Familienmitglied bitten, ein Vorstellungsgespräch zu simulieren. Heutzutage kann ChatGPT diese Aufgabe für Sie übernehmen, und das viel effektiver.

Teilen Sie ChatGPT die Stellenbezeichnung, die Branche und die Ebene mit, für die Sie sich bewerben, die Art des Vorstellungsgesprächs (z.B. technisches Assessment, Gruppe/Panel, Einzelgespräch mit dem CEO) und alles, was Sie sonst noch berücksichtigen möchten. ChatGPT führt dann ein Scheininterview mit Ihnen durch und gibt Ihnen währenddessen Feedback.

Als ich das selbst ausprobiert habe, war ich schockiert, wie gut ChatGPT in diesem Zusammenhang vorgeben kann, ein Mensch zu sein. Und das Feedback, das es zu jeder Ihrer Antworten gibt, ist von unschätzbarem Wert, um Ihre Ecken und Kanten zu beseitigen und Ihre Erfolgschancen zu verbessern, wenn Sie von einem echten Personalchef interviewt werden.

(PC-Welt)

>

>

9 nervige Zeitfresser, die ChatGPT sekundenschnell für Sie erledigt​ Weiterlesen »

16 Google-Lens-Tipps​

Allgemein

Google Lens spart Zeit – und manchmal Nerven. Foto: Poetra.RH – shutterstock.com Google Lens läuft schon seit Jahren auf Android Smartphones und wird heimlich, still und leise immer leistungsfähiger. Google macht seltsamerweise auch keine große Sache aus der App, die enorme Zeitersparnisse generieren kann, wenn sie richtig eingesetzt wird. Dazu muss man aber erst einmal bemerkt haben, dass sie existiert. Im Kern ist Google Lens eine Suchmaschine für die reale Welt: Die App nutzt künstliche Intelligenz (KI), um Text und Objekte sowohl auf Bildern als auch in der Live-Ansicht der Handykamera zu erkennen – und ermöglicht, mit den Inhalten zu interagieren. Dabei sind es jedoch die eher banal anmutenden Produktivitätsfunktionen von Google Lens, die das Potenzial haben, Ihnen den Arbeitsalltag zu erleichtern. Google Lens: 16 Tipps, um Zeit zu sparen Wenn Sie es also nicht schon längst erledigt haben, sollten Sie sich jetzt Ihr Android-Smartphone schnappen und die (kostenlose) Google-Lens-App installieren. Anschließend dürfen Sie sich mental darauf vorbereiten, sich und Ihrem Telefon einige spektakuläre neue Tricks beizubringen. 1. Bildschirm-Deepdive Lens bietet zuvorderst die Möglichkeit, alle Bildschirminhalte zu analysieren und im Anschluss hilfreiche Zusatzinformationen dazu zu liefern. Diese Funktion kann auch über den Google Assistant aufgerufen werden. Falls die Option auf Ihrem Android-Device verfügbar ist, sehen Sie eine antippbare Schaltfläche “Bildschirm durchsuchen”, sobald Sie den Assistant aufrufen. Wenn Sie in diesem Zusammenhang ein lästiges Déjà-vu-Gefühl verspüren: Google hat diese aktuelle Version der On-Demand-Bildschirmsuche erstmals im Februar 2023 angekündigt. 2. Real-World-Texte kopieren Einer der größten Vorzüge von Google Lens ist die Möglichkeit, Text aus physischen Dokumenten (etwa einem Whiteboard oder einem Buch) in die Zwischenablage Ihres Smartphones zu kopieren. Anschließend können Sie diesen ganz einfach einem Google-Dokument, einer Notiz, einer E-Mail oder jedem anderen erdenklichen Zweck zuführen. Der Befehl “Text kopieren” in der Leiste am unteren Bildschirmrand befördert den Inhalt in die Zwischenablage Ihres Android-Telefons zur weiteren Verarbeitung. Foto: JR Raphael / Foundry Dazu öffnen Sie einfach die Google-Lens-App und tippen auf den Bereich “Mit der Kamera suchen” am oberen Rand des Bildschirms. Richten Sie Ihre Kamera dann auf einen beliebigen Text in der Umgebung und tippen Sie auf den Sucher – schon können Sie den gewünschten Textabschnitt auswählen, als würde er in digitaler Form vorliegen. 3. Real-World-Texte teilen Wenn Sie einen Text aus physischen Medien nicht auf Ihrem Smartphone, sondern zum Beispiel dem Arbeits-PC benötigen, ist das mit Google Lens ebenfalls kein Problem. Die Schritte zur Lösung sind identisch zu Tipp 2 – lediglich im letzten Schritt wählen Sie hierzu die Option “Auf Computer kopieren”. Die Option “Auf Computer kopieren” sollte zur Verfügung stehen, wenn Sie mit demselben Google-Konto auf einem Rechner (egal ob Windows, Mac, Linux oder ChromeOS) bei Chrome angemeldet sind. Foto: JR Raphael / Foundry Ein Fingertipp zeigt alle verfügbaren Zielgeräte. Wählen Sie das Gewünschte aus und fügen Sie anschließend den Text wie gewohnt per Tastenkombination an der gewünschten Stelle beziehungsweise in der gewünschten Applikation ein. 4. Real-World-Texte vorlesen lassen Wenn Sie – aus welchem Grund auch immer – keine Lust haben, einen langen Text selbst zu lesen, können Sie sich den auch von Google Lens vorlesen lassen. Dazu richten Sie Ihre Smartphone-Kamera einfach auf den entsprechenden Text und wählen anschließend im Menü die Option “Anhören” am unteren Bildschirmrand aus. 5. Mit Text in Bildern interagieren Zusätzlich zu den eben angeführten Live-Funktionen kann Lens auch Text aus statischen Bildern ziehen beziehungsweise verarbeiten. Das gilt sowohl für Fotos als auch für Screenshots. Insbesondere Letzteres eröffnet interessante Möglichkeiten. Das weitere Vorgehen dürfte sich inzwischen eingeübt haben: Suchen Sie den entsprechenden Inhalt auf dem Lens-Startbildschirm, tippen Sie Ihn an und wählen Sie dann die Option “Text” am unteren Bildschirmrand. Nun können Sie den Text kopieren oder an einen Computer senden. 6. Texte in Real-World-Medien durchsuchen Nachdem Sie einen beliebigen Text in der Google-Lens-App ausgewählt haben, streichen Sie mit dem Finger nach links über die Optionsleiste am unteren Bildschirmrand. Dort verstecken sich nämlich noch mehr Optionen. Eine davon ist die einfache, aber äußerst nützliche “Suche”. Sie ermöglicht Ihnen, schnell und einfach Zusatzinformationen zu Texten aus physischen Dokumenten oder Bildern aufzurufen. 7. Ähnliches Bildmaterial suchen Lens kann darüber hinaus auch im Internet nach weiterem Bildmaterial suchen, das mit dem Objekt auf Ihrem Foto oder Screenshot übereinstimmt. So lassen sich nicht nur ähnliche Bilder finden, sondern auch bestimmte Produkte identifizieren. Die Visual-Search-Funktion von Google Lens ist praktisch. Foto: JR Raphael / Foundry Dazu tippen Sie lediglich auf die Option “Suchen” in der scrollbaren Optionsleiste am unteren Bildschirmrand, sobald sich ein Bild im Sucher befindet. 8. Kalenderereignis erstellen Wenn Sie das nächste Mal auf etwas stoßen, das ein Datum enthält – einen Flyer, ein Plakat oder ein Terminkärtchen – dürfen Sie sich die Mühe sparen, die Daten in Ihren digitalen Kalender zu übertragen. Stattdessen öffnen Sie einfach Google Lens, richten die Kamera Ihres Smartphones auf das entsprechende Objekt und tippen anschließend auf das Datum. Nun sollte Lens die Option “Kalenderereignis erstellen” anbieten. Die Informationen werden so direkt in Ihre bevorzugte Kalender-App übertragen. 9. Kontaktinformationen abspeichern Dasselbe Prinzip, das Sie eben mit Kalenderereignissen vollzogen haben, können Sie auch auf Visitenkarten anwenden. Öffnen Sie Lens, richten Sie die Kamera auf die Informationen und tippen Sie anschließend auf den Namen der Person. Die Google-Lens-App sollte die Art der Informationen erkennen und Ihnen anbieten, einen Kontakt hinzuzufügen. 10. Lens als Aktionshub nutzen Egal welche Informationen Ihnen in der realen Welt vorliegen, mit Lens können Sie sie mit der jeweils sinnvollsten Aktion mit Ihrem Smartphone verarbeiten. Richten Sie dazu den Sucher der App auf die Informationen und tippen Sie auf den Text. Alternativ können Sie auch ein Foto der Informationen machen. Sobald Lens den Text erfasst hat, bietet es Ihnen Optionen an, die Sinn ergeben. So können Sie etwa mit nur einem Fingertipp E-Mail-Adressen in E-Mail-Entwürfe verwandeln, Telefonnummern auf Ladentüren direkt anfunken oder URLs aufrufen – ganz ohne Tippen. 11. Real-World-Texte übersetzen Bei Geschäftsreisen in Länder, deren Sprache Sie nicht beherrschen, kann Google Lens Sie dank einer integrierten Übersetzungsfunktion auch an dieser Stelle unterstützen – beispielsweise, wenn es darum geht, Beschilderungen zu lesen. Richten Sie den Lens-Sucher dazu auf den betreffenden Inhalt und wählen Sie die Option “Übersetzen”. Es dürfte Sie überraschen, wie schnell und effektiv Google Lens die Inhalte in die von Ihnen gewählte Sprache übersetzt. 12. On-Demand-Taschenrechner Wenn Sie das nächste Mal vor einer numerischen Herausforderung stehen, gönnen Sie Ihrem Hirn eine Pause und lassen Sie Lens die Lösung finden. Dazu richten Sie die Handy-Kamera auf eine Gleichung oder Rechnung und wählen anschließend die Option “Hausaufgaben”. Lens löst so gut wie Alles für Sie, von einfachen mathematischen Aufgaben, bis hin zu chemischen, physischen oder biologischen Formeln. 13. Dermatologische Beruhigung Lens kann verdächtige Muttermale auf Ihrer Haut analysieren. Die Ergebnisse sind natürlich nicht wissenschaftlich – die App gleicht Ihre Informationen mit dem Internet ab. Das kann unter Umständen in der Zeit bis zum ersehnten Termin beim Dermatologen beruhigen. Mehr aber auch nicht. 14. Codes scannen Es gab eine Zeit, in der Code-Scanner-Apps der letzte Schrei waren – viele schlummern heute noch auf zahllosen Telefonen. Wenn Sie Google Lens installiert haben, können Sie auf die getrost verzichten. Der Lens-Sucher “frisst” nämlich nicht nur QR-, sondern beispielsweise auch Barcodes 15. Tipp-Verlagerung Shortcut-Liebhaber aufgepasst: Alle bisher genannten Tipps können Sie nicht nur über die Google-Lens-App selbst, sondern auch über andere Google-Apps initieren: Google Bildersuche: Wenn Sie sich ein Bild auf images.google.com im Browser Ihres Handys ansehen, halten Sie Ausschau nach dem Lens-Symbol in der unteren linken Ecke des geöffneten Bildes. Wenn Sie darauf tippen, wird Lens aktiviert und Sie erhalten alle relevanten Informationen über das angezeigte Bild. Google Fotos: Auch hier sollten Sie nach dem Lens-Symbol am am unteren Bildschirmrand Ausschau halten. Hierüber können Sie Lens direkt aktivieren und Texte oder Links kopieren sowie Zusatzinformationen aufrufen. Smartphone-Kamera: Bei einigen Android-Devices – etwa Googles Pixel-Smartphones – ist Lens direkt in die Standard-Kamera-App integriert. 16. Lens in kontaktlos Zum Abschluss noch ein kleiner “Meta-Tipp”: Wenn Sie Google Lens noch schneller öffnen wollen, sagen Sie einfach: “Hey, Google: Öffne Google Lens.” Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

16 Google-Lens-Tipps​ Google Lens spart Zeit – und manchmal Nerven.
Foto: Poetra.RH – shutterstock.com

Google Lens läuft schon seit Jahren auf Android Smartphones und wird heimlich, still und leise immer leistungsfähiger. Google macht seltsamerweise auch keine große Sache aus der App, die enorme Zeitersparnisse generieren kann, wenn sie richtig eingesetzt wird. Dazu muss man aber erst einmal bemerkt haben, dass sie existiert.

Im Kern ist Google Lens eine Suchmaschine für die reale Welt: Die App nutzt künstliche Intelligenz (KI), um Text und Objekte sowohl auf Bildern als auch in der Live-Ansicht der Handykamera zu erkennen – und ermöglicht, mit den Inhalten zu interagieren. Dabei sind es jedoch die eher banal anmutenden Produktivitätsfunktionen von Google Lens, die das Potenzial haben, Ihnen den Arbeitsalltag zu erleichtern.

Google Lens: 16 Tipps, um Zeit zu sparen

Wenn Sie es also nicht schon längst erledigt haben, sollten Sie sich jetzt Ihr Android-Smartphone schnappen und die (kostenlose) Google-Lens-App installieren. Anschließend dürfen Sie sich mental darauf vorbereiten, sich und Ihrem Telefon einige spektakuläre neue Tricks beizubringen.

1. Bildschirm-Deepdive

Lens bietet zuvorderst die Möglichkeit, alle Bildschirminhalte zu analysieren und im Anschluss hilfreiche Zusatzinformationen dazu zu liefern. Diese Funktion kann auch über den Google Assistant aufgerufen werden. Falls die Option auf Ihrem Android-Device verfügbar ist, sehen Sie eine antippbare Schaltfläche “Bildschirm durchsuchen”, sobald Sie den Assistant aufrufen.

Wenn Sie in diesem Zusammenhang ein lästiges Déjà-vu-Gefühl verspüren: Google hat diese aktuelle Version der On-Demand-Bildschirmsuche erstmals im Februar 2023 angekündigt.

2. Real-World-Texte kopieren

Einer der größten Vorzüge von Google Lens ist die Möglichkeit, Text aus physischen Dokumenten (etwa einem Whiteboard oder einem Buch) in die Zwischenablage Ihres Smartphones zu kopieren. Anschließend können Sie diesen ganz einfach einem Google-Dokument, einer Notiz, einer E-Mail oder jedem anderen erdenklichen Zweck zuführen.

Der Befehl “Text kopieren” in der Leiste am unteren Bildschirmrand befördert den Inhalt in die Zwischenablage Ihres Android-Telefons zur weiteren Verarbeitung.
Foto: JR Raphael / Foundry

Dazu öffnen Sie einfach die Google-Lens-App und tippen auf den Bereich “Mit der Kamera suchen” am oberen Rand des Bildschirms. Richten Sie Ihre Kamera dann auf einen beliebigen Text in der Umgebung und tippen Sie auf den Sucher – schon können Sie den gewünschten Textabschnitt auswählen, als würde er in digitaler Form vorliegen.

3. Real-World-Texte teilen

Wenn Sie einen Text aus physischen Medien nicht auf Ihrem Smartphone, sondern zum Beispiel dem Arbeits-PC benötigen, ist das mit Google Lens ebenfalls kein Problem. Die Schritte zur Lösung sind identisch zu Tipp 2 – lediglich im letzten Schritt wählen Sie hierzu die Option “Auf Computer kopieren”.

Die Option “Auf Computer kopieren” sollte zur Verfügung stehen, wenn Sie mit demselben Google-Konto auf einem Rechner (egal ob Windows, Mac, Linux oder ChromeOS) bei Chrome angemeldet sind.
Foto: JR Raphael / Foundry

Ein Fingertipp zeigt alle verfügbaren Zielgeräte. Wählen Sie das Gewünschte aus und fügen Sie anschließend den Text wie gewohnt per Tastenkombination an der gewünschten Stelle beziehungsweise in der gewünschten Applikation ein.

4. Real-World-Texte vorlesen lassen

Wenn Sie – aus welchem Grund auch immer – keine Lust haben, einen langen Text selbst zu lesen, können Sie sich den auch von Google Lens vorlesen lassen. Dazu richten Sie Ihre Smartphone-Kamera einfach auf den entsprechenden Text und wählen anschließend im Menü die Option “Anhören” am unteren Bildschirmrand aus.

5. Mit Text in Bildern interagieren

Zusätzlich zu den eben angeführten Live-Funktionen kann Lens auch Text aus statischen Bildern ziehen beziehungsweise verarbeiten. Das gilt sowohl für Fotos als auch für Screenshots. Insbesondere Letzteres eröffnet interessante Möglichkeiten.

Das weitere Vorgehen dürfte sich inzwischen eingeübt haben: Suchen Sie den entsprechenden Inhalt auf dem Lens-Startbildschirm, tippen Sie Ihn an und wählen Sie dann die Option “Text” am unteren Bildschirmrand. Nun können Sie den Text kopieren oder an einen Computer senden.

6. Texte in Real-World-Medien durchsuchen

Nachdem Sie einen beliebigen Text in der Google-Lens-App ausgewählt haben, streichen Sie mit dem Finger nach links über die Optionsleiste am unteren Bildschirmrand. Dort verstecken sich nämlich noch mehr Optionen.

Eine davon ist die einfache, aber äußerst nützliche “Suche”. Sie ermöglicht Ihnen, schnell und einfach Zusatzinformationen zu Texten aus physischen Dokumenten oder Bildern aufzurufen.

7. Ähnliches Bildmaterial suchen

Lens kann darüber hinaus auch im Internet nach weiterem Bildmaterial suchen, das mit dem Objekt auf Ihrem Foto oder Screenshot übereinstimmt. So lassen sich nicht nur ähnliche Bilder finden, sondern auch bestimmte Produkte identifizieren.

Die Visual-Search-Funktion von Google Lens ist praktisch.
Foto: JR Raphael / Foundry

Dazu tippen Sie lediglich auf die Option “Suchen” in der scrollbaren Optionsleiste am unteren Bildschirmrand, sobald sich ein Bild im Sucher befindet.

8. Kalenderereignis erstellen

Wenn Sie das nächste Mal auf etwas stoßen, das ein Datum enthält – einen Flyer, ein Plakat oder ein Terminkärtchen – dürfen Sie sich die Mühe sparen, die Daten in Ihren digitalen Kalender zu übertragen. Stattdessen öffnen Sie einfach Google Lens, richten die Kamera Ihres Smartphones auf das entsprechende Objekt und tippen anschließend auf das Datum. Nun sollte Lens die Option “Kalenderereignis erstellen” anbieten. Die Informationen werden so direkt in Ihre bevorzugte Kalender-App übertragen.

9. Kontaktinformationen abspeichern

Dasselbe Prinzip, das Sie eben mit Kalenderereignissen vollzogen haben, können Sie auch auf Visitenkarten anwenden.

Öffnen Sie Lens, richten Sie die Kamera auf die Informationen und tippen Sie anschließend auf den Namen der Person. Die Google-Lens-App sollte die Art der Informationen erkennen und Ihnen anbieten, einen Kontakt hinzuzufügen.

10. Lens als Aktionshub nutzen

Egal welche Informationen Ihnen in der realen Welt vorliegen, mit Lens können Sie sie mit der jeweils sinnvollsten Aktion mit Ihrem Smartphone verarbeiten. Richten Sie dazu den Sucher der App auf die Informationen und tippen Sie auf den Text. Alternativ können Sie auch ein Foto der Informationen machen.

Sobald Lens den Text erfasst hat, bietet es Ihnen Optionen an, die Sinn ergeben. So können Sie etwa mit nur einem Fingertipp E-Mail-Adressen in E-Mail-Entwürfe verwandeln, Telefonnummern auf Ladentüren direkt anfunken oder URLs aufrufen – ganz ohne Tippen.

11. Real-World-Texte übersetzen

Bei Geschäftsreisen in Länder, deren Sprache Sie nicht beherrschen, kann Google Lens Sie dank einer integrierten Übersetzungsfunktion auch an dieser Stelle unterstützen – beispielsweise, wenn es darum geht, Beschilderungen zu lesen. Richten Sie den Lens-Sucher dazu auf den betreffenden Inhalt und wählen Sie die Option “Übersetzen”.

Es dürfte Sie überraschen, wie schnell und effektiv Google Lens die Inhalte in die von Ihnen gewählte Sprache übersetzt.

12. On-Demand-Taschenrechner

Wenn Sie das nächste Mal vor einer numerischen Herausforderung stehen, gönnen Sie Ihrem Hirn eine Pause und lassen Sie Lens die Lösung finden.

Dazu richten Sie die Handy-Kamera auf eine Gleichung oder Rechnung und wählen anschließend die Option “Hausaufgaben”. Lens löst so gut wie Alles für Sie, von einfachen mathematischen Aufgaben, bis hin zu chemischen, physischen oder biologischen Formeln.

13. Dermatologische Beruhigung

Lens kann verdächtige Muttermale auf Ihrer Haut analysieren. Die Ergebnisse sind natürlich nicht wissenschaftlich – die App gleicht Ihre Informationen mit dem Internet ab. Das kann unter Umständen in der Zeit bis zum ersehnten Termin beim Dermatologen beruhigen. Mehr aber auch nicht.

14. Codes scannen

Es gab eine Zeit, in der Code-Scanner-Apps der letzte Schrei waren – viele schlummern heute noch auf zahllosen Telefonen. Wenn Sie Google Lens installiert haben, können Sie auf die getrost verzichten. Der Lens-Sucher “frisst” nämlich nicht nur QR-, sondern beispielsweise auch Barcodes

15. Tipp-Verlagerung

Shortcut-Liebhaber aufgepasst: Alle bisher genannten Tipps können Sie nicht nur über die Google-Lens-App selbst, sondern auch über andere Google-Apps initieren:

Google Bildersuche: Wenn Sie sich ein Bild auf images.google.com im Browser Ihres Handys ansehen, halten Sie Ausschau nach dem Lens-Symbol in der unteren linken Ecke des geöffneten Bildes. Wenn Sie darauf tippen, wird Lens aktiviert und Sie erhalten alle relevanten Informationen über das angezeigte Bild.

Google Fotos: Auch hier sollten Sie nach dem Lens-Symbol am am unteren Bildschirmrand Ausschau halten. Hierüber können Sie Lens direkt aktivieren und Texte oder Links kopieren sowie Zusatzinformationen aufrufen.

Smartphone-Kamera: Bei einigen Android-Devices – etwa Googles Pixel-Smartphones – ist Lens direkt in die Standard-Kamera-App integriert.

16. Lens in kontaktlos

Zum Abschluss noch ein kleiner “Meta-Tipp”: Wenn Sie Google Lens noch schneller öffnen wollen, sagen Sie einfach: “Hey, Google: Öffne Google Lens.”

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

16 Google-Lens-Tipps​ Weiterlesen »

Surface Pro (2025) im Test: Microsoft verbessert seinen 2-in-1-Laptop an den richtigen Stellen​

Allgemein

Mattias Inghe Auf einen Blick Pro Kompakt und gut konstruiert Gute Leistung im Büro Alle Funktionen von Copilot Plus verfügbar Gute Akkulaufzeit Kontra Schmaler Bildschirm zum Arbeiten Keine HDR-Unterstützung Kein Ladegerät enthalten Fazit Das neue kleine Surface Pro schafft den Spagat zwischen tragbarem Tablet und vollwertigem, aber besonders kompaktem Windows-Laptop mit optionaler Tastatur. Das erinnert an das alte und wenig überzeugende Surface Go, tatsächlich ist das Surface Pro aber in jeder Hinsicht besser. Das gilt für die Rechenleistung, die Akku-Laufzeit, die brauchbare KI-Unterstützung und das kompakte Design. Zur Perfektion fehlt aus meiner Sicht lediglich ein OLED-Bildschirm mit HDR. Microsoft förderte lange Zeit Tablets als die Zukunft von Windows. Doch das Konzept fand weder bei PC-Herstellern noch bei Nutzern Anklang. Daher kehrte Microsoft zur klassischen Oberfläche zurück und brachte eigene Laptops auf den Markt. Das Unternehmen setzt weiterhin auf die Entwicklung neuer Surface-Modelle. Design & Ausstattung Getestet haben wir das Microsoft Surface Pro. Es wird häufig als Surface Pro 12 oder Surface Pro 2025 bezeichnet, um es von älteren Modellen zu unterscheiden. Es ist ein kompaktes Tablet mit einem Snapdragon X Plus, das vor allem für gelegentliches Surfen und Büroarbeiten gedacht ist. Es bietet keine absolute Spitzenleistung, aber ein gutes Basisniveau, das ein Windows-Tablet bisher nicht ohne einen Lüfter erreichen konnte. Das Tablet zeichnet sich durch einen 12-Zoll-Bildschirm und ein Seitenverhältnis von 3:2 aus, was ihm eine kompakte und schmale Erscheinung verleiht. Die abgerundeten Ecken und Kanten sowie die matte Aluminiumrückseite, die zu 100 Prozent aus recyceltem Aluminium besteht, sorgen für eine gute Griffigkeit. Die klappbare Rückenstütze bietet Stabilität. Das Surface Pro kann als digitaler Bilderrahmen oder als Filmleinwand verwendet werden, wobei seine Hauptfunktion jedoch die eines Windows-Computers ist. Für eine optimale Nutzung sind eine Tastatur und eine Maus erforderlich. Zudem wird ein Stift benötigt, um den Touchscreen vollständig zu nutzen. Die Kühlung ist geräuschlos und das Tablet wird nur leicht warm, aber nicht unangenehm. Es reduziert die Grafikleistung bei längerer Nutzung von 3D-Grafiken. Doch wer kauft schon ein Surface zum Spielen? Schnell genug, aber nicht superschnell.Mattias Inghe Der Preis beträgt 979 Euro für das Surface Pro mit 256-GB-SSD und 1.099 Euro für das Surface Pro mit der 512 GB großen SSD. 120 Euro sind ein bisschen viel für nur 256 GB mehr Speicherplatz, aber ich habe schon schlechtere Angebote gesehen. Sie erhalten 16 GB Arbeitsspeicher. Das ist gerade ausreichend für Ihre normale Büroarbeit, Medien-Streaming, grundlegende Fotobearbeitung und Kommunikation. Die meisten Multitasking-Aufgaben, die ich durchführe, verlaufen reibungslos. Während einer Teams-Videokonferenz mit dem Redaktionsteam recherchiere ich parallel Informationen über einen Browser und habe gleichzeitig Artikel in Word geöffnet. Zudem synchronisiere ich eine große Videodatei zur Online-Freigabe. All diese Tätigkeiten lassen sich simultan durchführen, ohne dass es zu Überschneidungen kommt. Die Verbindung mit WiFi 7 und WiFi 6 ist stabil und schnell. Es gibt keine 5G- oder LTE-Version dieses Tablets. Um diese Funktionen zu erhalten, müssen Sie ein größeres und teureres Modell wählen. Angenehmer und scharfer Bildschirm, aber ohne die besten Farben und Dynamik.Mattias Inghe Scharfer, aber beengter Bildschirm Die kleine Bildschirmfläche von 12 Zoll erschwert produktives Arbeiten mit mehreren Geräten. Trotz hoher Auflösung wird es schnell unübersichtlich bei vielen Fenstern und Registerkarten. Daher sollten Sie sich auf ein oder zwei sichtbare Fenster beschränken und die anderen im Hintergrund aktiv halten – oder alternativ einen externen Monitor anschließen. Der Bildschirm verfügt über ein IPS-Panel mit mittlerer Helligkeit, einer Auflösung von 2.196 ×  1.464 Pixeln und einer Bildwiederholfrequenz von wahlweise 60 oder 90 Hz, die Sie manuell einstellen müssen, da Microsoft keine dynamischen Frequenzen nicht unterstützt werden. Hinsichtlich der Farbqualität erreicht der Bildschirm nicht den vollen professionellen Standard, da die Farbskala nur geringfügig über das sRGB-Niveau hinausgeht. Die Vorkalibrierung durch Microsoft gewährleistet jedoch eine hohe Farbgenauigkeit innerhalb der sRGB-Skala. Die Kombination aus relativ hohem Schwarzwert, hohem Kontrast und weiten Betrachtungswinkeln verbessert die Bildqualität. Das macht das Ansehen von Filmen angenehm, auch ohne HDR-Unterstützung. Ein solides Lautsprechersystem sorgt für detaillierten und satten Klang bei Musik, Sprache und Filmen. Allerdings kann es bei maximaler Lautstärke zu Verzerrungen kommen. Die Webcam über dem Bildschirm liefert ein akzeptables 1080p-Bild ohne Rauschen und mit gleichmäßigen, neutralen Farben. Der Kontrast ist etwas blass und die Details sind leicht unscharf, was den Gesamteindruck mindert. In Videomeetings können Sie jedoch dank der guten Mikrofone und des KI-gestützten Rauschfilters eine professionelle Präsenz bewahren. Das Bild könnte jedoch schärfer und kräftiger sein. Surface und das mitgelieferte Zubehör. Ein Ladegerät ist nicht dabei.Mattias Inghe Auf der Rückseite ist eine 10-Megapixel-Kamera installiert, die unter Tageslichtbedingungen zufriedenstellende Bilder aufnimmt. Allerdings kann der Autofokus insbesondere bei Videoaufnahmen und Augmented-Reality-Anwendungen Probleme verursachen. Alles sehr übersichtlich.Mattias Inghe Microsoft bietet eine hochwertige Tastatur mit Hintergrundbeleuchtung und integriertem Mauspad zum Preis von 179,99 Euro an. Der dazu passende Slim Pen kann separat oder im Paket mit der Tastatur für insgesamt 299,99 Euro erworben werden. Dieser Stift ist speziell für das Surface Pro konzipiert, welches einen Schlitz auf der Rückseite besitzt, in den der Stift mittels Magneten sicher eingelegt und auch aufgeladen werden kann. Mit dem Stift haben Sie eine gute Kontrolle.Mattias Inghe Alles wird eingesteckt und funktioniert sofort. Man muss sich nicht um die manuelle Kopplung oder Kalibrierung kümmern. Die Präzision ist von Anfang an sehr gut. Auch die Qualität der Tastatur ist gut. Trotz der geringen Breite hat man nicht das Gefühl, dass die Tasten zusammengepresst sind. Wenn Sie Ihre eigene Maus und Tastatur sowie möglicherweise einen größeren Bildschirm anschließen möchten, können Sie ein geeignetes USB-C-Dock verwenden. Ein Ladegerät ist nicht im Lieferumfang enthalten; es kostet als Extra mit 45 Watt Leistung rund 60 Euro. Microsoft gibt keine spezifischen Informationen über die Akkukapazität bekannt, jedoch ist die Akkulaufzeit beeindruckend: zwischen 3 und 10 Stunden aktiver Nutzung bei maximaler Bildschirmhelligkeit und bis zu 21 Stunden bei äußerst sparsamer Nutzung. Bei der Verwendung generativer KI, sei es durch Microsofts eigene Copilot-Plus-Suite oder durch Drittanbieter-Software, sowie beim intensiven Einsatz des Grafikchips Intel Arc 130V für 3D-Rendering, erreicht die Akkulaufzeit das untere Ende dieser Bandbreite. Fazit Für Aufgaben wie Surfen, E-Mails schreiben und einfache Excel-Berechnungen bietet das Surface Pro eine zufriedenstellende Leistung. Es ist für diese Zwecke vergleichbar mit kleinen, ultraleichten Laptops, auch wenn das 2-in-1-Gerät möglicherweise nicht ganz so schnell ist. Dennoch ist die Geschwindigkeit in der Regel ausreichend. Mit dem richtigen Zubehör belaufen sich die Gesamtkosten auf rund 1.400 Euro. Dieses Gerät bietet sowohl die Funktionen eines Laptops im Miniformat als auch einen Touchscreen, eine Stiftsteuerung und die Möglichkeit, Filme im Tablet-Modus zu streamen. Ob dies ausreicht, um dem Windows-Tablet-Konzept neuen Schwung zu verleihen, bleibt abzuwarten. Für diejenigen, die dieses Konzept bereits bevorzugen, stellt es jedoch ein attraktive Verbesserung dar. Test-Ergebnisse Cinebench 2024, Multi-Core-CPU: 550 Punkte Cinebench 2024: Single-Core-CPU: 107 Punkte Geekbench 6, Mehrkern-CPU: 11.241 Punkte Geekbench 6, Einzelkern-CPU: 2.403 Punkte Geekbench 6, GPU: 13,834 Punkte SSD, Lesen: bis zu 3.870,85 MB/s SSD, Schreiben: bis zu 3.413,79 MB/s Technische Daten Produktname: Surface Pro 2025, 12-ZollGetestet: Mai 2025Hersteller: MicrosoftProzessor: Qualcomm Snapdragon X Plus, 8 Oryon 3,4 GHzNPU: Hexagon, 45 SpitzenGrafik: Intel Arc 130VArbeitsspeicher: 16 GB lpddr5xSpeicher: 256 GB / 512 GB ssdMonitore: 12 Zoll Hochglanz ips, 2196 x 1464 Pixel, 90 Hz, ca. 400 cd/m2Webcam: 10 Megapixel hinten, 1080p-Webcam mit Ir vorneAnschlüsse: 2 x usb-c 3 gen 2 mit Display-Port, Tastatur-DockingDrahtlos: Wifi 7, bluetooth 5.4Betriebssystem: Windows 11 HomeSonstiges: Optionale Tastatur, Stift und LadegerätGeräuschpegel: LüfterlosAkku: 1 Std. 45 Min. (hohe Last, volle Helligkeit, 90 Hz) bis ca. 19 Std. (geringe Last, geringe Helligkeit, 60 Hz)Größe: 27,4 x 19 x 0,78 cmGewicht: 686 Gramm (PC-Welt) 

Surface Pro (2025) im Test: Microsoft verbessert seinen 2-in-1-Laptop an den richtigen Stellen​ Mattias Inghe

Auf einen Blick

Pro

Kompakt und gut konstruiert

Gute Leistung im Büro

Alle Funktionen von Copilot Plus verfügbar

Gute Akkulaufzeit

Kontra

Schmaler Bildschirm zum Arbeiten

Keine HDR-Unterstützung

Kein Ladegerät enthalten

Fazit

Das neue kleine Surface Pro schafft den Spagat zwischen tragbarem Tablet und vollwertigem, aber besonders kompaktem Windows-Laptop mit optionaler Tastatur. Das erinnert an das alte und wenig überzeugende Surface Go, tatsächlich ist das Surface Pro aber in jeder Hinsicht besser. Das gilt für die Rechenleistung, die Akku-Laufzeit, die brauchbare KI-Unterstützung und das kompakte Design. Zur Perfektion fehlt aus meiner Sicht lediglich ein OLED-Bildschirm mit HDR.

Microsoft förderte lange Zeit Tablets als die Zukunft von Windows. Doch das Konzept fand weder bei PC-Herstellern noch bei Nutzern Anklang. Daher kehrte Microsoft zur klassischen Oberfläche zurück und brachte eigene Laptops auf den Markt. Das Unternehmen setzt weiterhin auf die Entwicklung neuer Surface-Modelle.

Design & Ausstattung

Getestet haben wir das Microsoft Surface Pro. Es wird häufig als Surface Pro 12 oder Surface Pro 2025 bezeichnet, um es von älteren Modellen zu unterscheiden. Es ist ein kompaktes Tablet mit einem Snapdragon X Plus, das vor allem für gelegentliches Surfen und Büroarbeiten gedacht ist. Es bietet keine absolute Spitzenleistung, aber ein gutes Basisniveau, das ein Windows-Tablet bisher nicht ohne einen Lüfter erreichen konnte.

Das Tablet zeichnet sich durch einen 12-Zoll-Bildschirm und ein Seitenverhältnis von 3:2 aus, was ihm eine kompakte und schmale Erscheinung verleiht. Die abgerundeten Ecken und Kanten sowie die matte Aluminiumrückseite, die zu 100 Prozent aus recyceltem Aluminium besteht, sorgen für eine gute Griffigkeit. Die klappbare Rückenstütze bietet Stabilität.

Das Surface Pro kann als digitaler Bilderrahmen oder als Filmleinwand verwendet werden, wobei seine Hauptfunktion jedoch die eines Windows-Computers ist. Für eine optimale Nutzung sind eine Tastatur und eine Maus erforderlich. Zudem wird ein Stift benötigt, um den Touchscreen vollständig zu nutzen.

Die Kühlung ist geräuschlos und das Tablet wird nur leicht warm, aber nicht unangenehm. Es reduziert die Grafikleistung bei längerer Nutzung von 3D-Grafiken. Doch wer kauft schon ein Surface zum Spielen?

Schnell genug, aber nicht superschnell.Mattias Inghe

Der Preis beträgt 979 Euro für das Surface Pro mit 256-GB-SSD und 1.099 Euro für das Surface Pro mit der 512 GB großen SSD. 120 Euro sind ein bisschen viel für nur 256 GB mehr Speicherplatz, aber ich habe schon schlechtere Angebote gesehen. Sie erhalten 16 GB Arbeitsspeicher. Das ist gerade ausreichend für Ihre normale Büroarbeit, Medien-Streaming, grundlegende Fotobearbeitung und Kommunikation.

Die meisten Multitasking-Aufgaben, die ich durchführe, verlaufen reibungslos. Während einer Teams-Videokonferenz mit dem Redaktionsteam recherchiere ich parallel Informationen über einen Browser und habe gleichzeitig Artikel in Word geöffnet. Zudem synchronisiere ich eine große Videodatei zur Online-Freigabe. All diese Tätigkeiten lassen sich simultan durchführen, ohne dass es zu Überschneidungen kommt.

Die Verbindung mit WiFi 7 und WiFi 6 ist stabil und schnell. Es gibt keine 5G- oder LTE-Version dieses Tablets. Um diese Funktionen zu erhalten, müssen Sie ein größeres und teureres Modell wählen.

Angenehmer und scharfer Bildschirm, aber ohne die besten Farben und Dynamik.Mattias Inghe

Scharfer, aber beengter Bildschirm

Die kleine Bildschirmfläche von 12 Zoll erschwert produktives Arbeiten mit mehreren Geräten. Trotz hoher Auflösung wird es schnell unübersichtlich bei vielen Fenstern und Registerkarten. Daher sollten Sie sich auf ein oder zwei sichtbare Fenster beschränken und die anderen im Hintergrund aktiv halten – oder alternativ einen externen Monitor anschließen.

Der Bildschirm verfügt über ein IPS-Panel mit mittlerer Helligkeit, einer Auflösung von 2.196 ×  1.464 Pixeln und einer Bildwiederholfrequenz von wahlweise 60 oder 90 Hz, die Sie manuell einstellen müssen, da Microsoft keine dynamischen Frequenzen nicht unterstützt werden. Hinsichtlich der Farbqualität erreicht der Bildschirm nicht den vollen professionellen Standard, da die Farbskala nur geringfügig über das sRGB-Niveau hinausgeht. Die Vorkalibrierung durch Microsoft gewährleistet jedoch eine hohe Farbgenauigkeit innerhalb der sRGB-Skala.

Die Kombination aus relativ hohem Schwarzwert, hohem Kontrast und weiten Betrachtungswinkeln verbessert die Bildqualität. Das macht das Ansehen von Filmen angenehm, auch ohne HDR-Unterstützung. Ein solides Lautsprechersystem sorgt für detaillierten und satten Klang bei Musik, Sprache und Filmen. Allerdings kann es bei maximaler Lautstärke zu Verzerrungen kommen.

Die Webcam über dem Bildschirm liefert ein akzeptables 1080p-Bild ohne Rauschen und mit gleichmäßigen, neutralen Farben. Der Kontrast ist etwas blass und die Details sind leicht unscharf, was den Gesamteindruck mindert. In Videomeetings können Sie jedoch dank der guten Mikrofone und des KI-gestützten Rauschfilters eine professionelle Präsenz bewahren. Das Bild könnte jedoch schärfer und kräftiger sein.

Surface und das mitgelieferte Zubehör. Ein Ladegerät ist nicht dabei.Mattias Inghe

Auf der Rückseite ist eine 10-Megapixel-Kamera installiert, die unter Tageslichtbedingungen zufriedenstellende Bilder aufnimmt. Allerdings kann der Autofokus insbesondere bei Videoaufnahmen und Augmented-Reality-Anwendungen Probleme verursachen.

Alles sehr übersichtlich.Mattias Inghe

Microsoft bietet eine hochwertige Tastatur mit Hintergrundbeleuchtung und integriertem Mauspad zum Preis von 179,99 Euro an. Der dazu passende Slim Pen kann separat oder im Paket mit der Tastatur für insgesamt 299,99 Euro erworben werden. Dieser Stift ist speziell für das Surface Pro konzipiert, welches einen Schlitz auf der Rückseite besitzt, in den der Stift mittels Magneten sicher eingelegt und auch aufgeladen werden kann.

Mit dem Stift haben Sie eine gute Kontrolle.Mattias Inghe

Alles wird eingesteckt und funktioniert sofort. Man muss sich nicht um die manuelle Kopplung oder Kalibrierung kümmern. Die Präzision ist von Anfang an sehr gut. Auch die Qualität der Tastatur ist gut. Trotz der geringen Breite hat man nicht das Gefühl, dass die Tasten zusammengepresst sind.

Wenn Sie Ihre eigene Maus und Tastatur sowie möglicherweise einen größeren Bildschirm anschließen möchten, können Sie ein geeignetes USB-C-Dock verwenden. Ein Ladegerät ist nicht im Lieferumfang enthalten; es kostet als Extra mit 45 Watt Leistung rund 60 Euro.

Microsoft gibt keine spezifischen Informationen über die Akkukapazität bekannt, jedoch ist die Akkulaufzeit beeindruckend: zwischen 3 und 10 Stunden aktiver Nutzung bei maximaler Bildschirmhelligkeit und bis zu 21 Stunden bei äußerst sparsamer Nutzung. Bei der Verwendung generativer KI, sei es durch Microsofts eigene Copilot-Plus-Suite oder durch Drittanbieter-Software, sowie beim intensiven Einsatz des Grafikchips Intel Arc 130V für 3D-Rendering, erreicht die Akkulaufzeit das untere Ende dieser Bandbreite.

Fazit

Für Aufgaben wie Surfen, E-Mails schreiben und einfache Excel-Berechnungen bietet das Surface Pro eine zufriedenstellende Leistung. Es ist für diese Zwecke vergleichbar mit kleinen, ultraleichten Laptops, auch wenn das 2-in-1-Gerät möglicherweise nicht ganz so schnell ist. Dennoch ist die Geschwindigkeit in der Regel ausreichend.

Mit dem richtigen Zubehör belaufen sich die Gesamtkosten auf rund 1.400 Euro. Dieses Gerät bietet sowohl die Funktionen eines Laptops im Miniformat als auch einen Touchscreen, eine Stiftsteuerung und die Möglichkeit, Filme im Tablet-Modus zu streamen. Ob dies ausreicht, um dem Windows-Tablet-Konzept neuen Schwung zu verleihen, bleibt abzuwarten. Für diejenigen, die dieses Konzept bereits bevorzugen, stellt es jedoch ein attraktive Verbesserung dar.

Test-Ergebnisse

Cinebench 2024, Multi-Core-CPU: 550 Punkte

Cinebench 2024: Single-Core-CPU: 107 Punkte

Geekbench 6, Mehrkern-CPU: 11.241 Punkte

Geekbench 6, Einzelkern-CPU: 2.403 Punkte

Geekbench 6, GPU: 13,834 Punkte

SSD, Lesen: bis zu 3.870,85 MB/s

SSD, Schreiben: bis zu 3.413,79 MB/s

Technische Daten

Produktname: Surface Pro 2025, 12-ZollGetestet: Mai 2025Hersteller: MicrosoftProzessor: Qualcomm Snapdragon X Plus, 8 Oryon 3,4 GHzNPU: Hexagon, 45 SpitzenGrafik: Intel Arc 130VArbeitsspeicher: 16 GB lpddr5xSpeicher: 256 GB / 512 GB ssdMonitore: 12 Zoll Hochglanz ips, 2196 x 1464 Pixel, 90 Hz, ca. 400 cd/m2Webcam: 10 Megapixel hinten, 1080p-Webcam mit Ir vorneAnschlüsse: 2 x usb-c 3 gen 2 mit Display-Port, Tastatur-DockingDrahtlos: Wifi 7, bluetooth 5.4Betriebssystem: Windows 11 HomeSonstiges: Optionale Tastatur, Stift und LadegerätGeräuschpegel: LüfterlosAkku: 1 Std. 45 Min. (hohe Last, volle Helligkeit, 90 Hz) bis ca. 19 Std. (geringe Last, geringe Helligkeit, 60 Hz)Größe: 27,4 x 19 x 0,78 cmGewicht: 686 Gramm

(PC-Welt)

Surface Pro (2025) im Test: Microsoft verbessert seinen 2-in-1-Laptop an den richtigen Stellen​ Weiterlesen »

Nach oben scrollen
×