Computerhaus Quickborn

April 2025

Windows-11 auf nicht-kompatiblen PCs nutzen – dank VM​

Allgemein

Melnikov Dmitriy / Shutterstock.com Die wohl größte Hürde bei der Installation von Windows 11 sind die strikten Hardwareanforderungen des Betriebssystems. Microsoft hat die Mindestsystemanforderungen zuletzt weiter erhöht. Viele der derzeit verwendeten Desktop-PCs und Notebooks erfüllen die Systemvoraussetzungen von Windows 11 nicht, insbesondere in Hinblick auf den erforderlichen TPM-2.0- Chip (Trusted Platform Module), Secure-Boot und die Prozessoranforderungen. Als betroffener Nutzer sind Sie daher gezwungen, entweder neue Hardware zu kaufen oder weiterhin mit Windows 10 zu arbeiten. Das wiederum bringt Sicherheitsprobleme und Einschränkungen bei der Nutzung neuer Funktionen mit sich – keine gute Idee. Mit Virtualbox umgehen Sie die Hürden und installieren das aktuelle Windows 11 24H2 auch auf einem älteren PC. Spartipp: Windows 11 Pro legal für nur 70 Euro statt 259 Euro UVP kaufen UEFI, Secure Boot und TPM 2.0 Windows 11 prüft während der Installation, ob der Rechner, auf dem Sie das Betriebssystem installieren wollen, mit einer Unified Extensible Firmware Interface (UEFI) ausgestattet ist. Der BIOS-Nachfolger ist Voraussetzung für eine Reihe von Sicherheitsfunktionen, darunter Secure Boot. Secure Boot ist ein von UEFI unterstützter Sicherheitsstandard, der sicherstellt, dass der PC nur ein vertrauenswürdiges Betriebssystem startet. Diese Funktion gibt den Start von Windows nur dann frei, wenn der Bootloader nicht durch Schadsoftware wie Viren oder Ransomware verändert wurde. Ein TPM-Chip in der Version 2.0 auf der Hauptplatine des Rechners ist die Hardware-Basis für die Secure-Boot-Funktion. IDG TPM-2.0-Hürde umgehen Es gibt zwei grundsätzliche Möglichkeiten, die strengen Systemanforderungen von Windows 11 zu umgehen: Entweder man verändert die Installationsroutine in der Form, dass UEFI, Secure Boot und TPM nicht mehr überprüft werden. Wie das funktioniert, erfahren Sie im Kasten am Ende des Artikels. Oder – und diese Möglichkeit bietet Virtualbox – die relevanten Komponenten werden emuliert. Virtualbox kann Kernkomponenten, die Microsoft für die Installation und Nutzung von Windows 11 voraussetzt, originalgetreu nachbilden. Das bedeutet, dass die Virtualisierungssoftware einer virtuellen Maschine das TPM rein softwareseitig ohne eigenen TPM-Chip zur Verfügung stellt, Stichwort „virtual Trusted Platform Module“, kurz „vTPM“. Für Windows sieht es dann so aus, als ob die virtuelle Maschine mit einem echten TPM ausgestattet wäre. Auch die weiteren von Microsoft geforderten Voraussetzungen für die Installation von Windows 11 – Secure Boot und UEFI-Firmware – bietet Virtualbox als vollwertige Emulation an. Oracle, das Unternehmen hinter Virtualbox, hat die Virtualisierungssoftware so optimiert, dass TPM 2.0, Secure Boot und UEFI standardmäßig aktiviert werden, wenn Sie eine neue virtuelle Maschine erstellen, als Typ „Microsoft Windows“ und als Version „Windows 11 (64-bit)“ auswählen. Siehe auch: Windows 11 auf jeder Hardware installieren – so geht´s VM umkonfigurieren Die Umstellung von BIOS auf UEFI, Secure Boot und TPM 2.0 können Sie in Virtualbox auch nachträglich durchführen. Dies kann notwendig sein, wenn Sie eine ältere virtuelle Maschine auf Windows 11 aktualisieren möchten oder die Einstellungen beim Erstellen der VM ausgelassen haben. Stellen Sie sicher, dass die virtuelle Maschine heruntergefahren ist. Klicken Sie im Hauptfenster von Virtualbox mit der rechten Maustaste auf den Namen der VM und wählen Sie „Ändern“. Klicken Sie auf der linken Seite auf „System“. In der Ausklappliste „TPM“ stellen Sie „v2.0“ ein. Weiter unten finden sich die Optionen „EFI aktivieren (nur spezielle Gäste)“ und „Secure Boot aktivieren“. Setzen Sie ein Häkchen vor „EFI aktivieren …“. Nachdem Sie diese Option aktiviert haben, können Sie auch ein Häkchen vor „Secure Boot aktivieren“ setzen. Übernehmen Sie Ihre Änderungen mit einem Klick auf den „OK“-Button. Wichtig: Es reicht nicht aus, UEFI, Secure Boot und TPM 2.0 nur temporär für die Installation von oder das Upgrade auf Windows 11 zu aktivieren. Windows 11 überprüft die Systemvoraussetzungen von Zeit zu Zeit, zum Beispiel im Rahmen von Online-Updates. Lassen die entsprechenden Optionen daher dauerhaft aktiviert. Vorteile für vTPM „vTPM ermöglicht den Nachweis durch Messung der gesamten Startkette der VM (UEFI, Betriebssystem, System und Treiber),“ lobt Microsoft die generellen Vorteile einer TPM-Emulation, wenn auch im Zusammenhang mit der eigenen Business-Virtualisierungsplattform Azure. Positiv für Sie als Anwender: Windows 11 kann die softwarebasierte Ausführung des physischen TPM-Kryptoprozessors im laufenden Betrieb jederzeit überprüfen, ohne dass es zu Funktionseinschränkungen kommt. Anders bei der im Kasten unten beschriebenen Umgehung der Sicherheitsfunktionen durch Rufus: Hier besteht die Gefahr, dass Windows die Modifikation erkennt und Updates verweigert. TPM 2.0 mit Rufus umgehen Der Bootgenerator Rufus modifiziert die Installationsdateien von Windows 11 so, dass Sie das Betriebssystem auch auf älterer Hardware oder in einer virtuellen Maschine ohne TPM 2.0, UEFI und Secure Boot installieren können. Für Windows 11 24H2 ist mindestens Rufus 4.5 erforderlich, ein Inplace Upgrade von Windows 11 unterstützt erst Rufus ab Version 4.6. Neben Rufus benötigen Sie die ISO-Datei von Windows 11 und einen USB-Stick, auf den das Tool die modifizierten Installationsdateien des Betriebssystems schreibt. IDG Installieren Sie Rufus, und starten Sie das Programm. Schließen Sie den USB-Stick an den Rechner an. Wählen Sie oben im Ausklappfeld das Laufwerk mit Ihrem USB-Stick aus. Achtung: Eventuell auf dem Stick vorhanden Dateien werden überschrieben! Klicken Sie dann hinter „Laufwerk oder ISO-lmage (Bitte wählen Sie ein Image)“ auf den Button „Auswahl“, und wählen Sie die ISO-Datei von Windows 11 aus. Klicken Sie auf „Start“. Rufus zeigt ein Menü an, in dem Sie die Installation von Windows 11anpassen können. Standardmäßig sind „Anforderung für 4GB+ RAM, Secure Boot und TPM 2.0 entfernen“ und „Anforderung für Online Microsoft Konto entfernen“ aktiviert. Wenn Sie möchten, können Sie noch „Datenerfassung deaktivieren (Fragen zum Datenschutz überspringen)“ aktivieren, um Ihre Privatsphäre zu schützen. Bestätigen Sie mit „OK“ und „OK“. Rufus erstellt nun den USB-Stick. Um vom USB-Stick booten zu können, muss das Extension Pack in Virtualbox installiert sein. Erstellen Sie eine neue VM ohne unbeaufsichtigte Installation. Öffnen Sie vor dem ersten Start die Einstellungen der VM. Klicken Sie links auf „USB“ und rechts auf das grüne Pluszeichen. Wählen Sie Ihren Stick aus der Geräteliste aus. Speichern Sie die Änderungen mit „OK“, und starten Sie die VM. (PC-Welt) 

Windows-11 auf nicht-kompatiblen PCs nutzen – dank VM​ Melnikov Dmitriy / Shutterstock.com

Die wohl größte Hürde bei der Installation von Windows 11 sind die strikten Hardwareanforderungen des Betriebssystems. Microsoft hat die Mindestsystemanforderungen zuletzt weiter erhöht.

Viele der derzeit verwendeten Desktop-PCs und Notebooks erfüllen die Systemvoraussetzungen von Windows 11 nicht, insbesondere in Hinblick auf den erforderlichen TPM-2.0- Chip (Trusted Platform Module), Secure-Boot und die Prozessoranforderungen.

Als betroffener Nutzer sind Sie daher gezwungen, entweder neue Hardware zu kaufen oder weiterhin mit Windows 10 zu arbeiten. Das wiederum bringt Sicherheitsprobleme und Einschränkungen bei der Nutzung neuer Funktionen mit sich – keine gute Idee.

Mit Virtualbox umgehen Sie die Hürden und installieren das aktuelle Windows 11 24H2 auch auf einem älteren PC.

Spartipp: Windows 11 Pro legal für nur 70 Euro statt 259 Euro UVP kaufen

UEFI, Secure Boot und TPM 2.0

Windows 11 prüft während der Installation, ob der Rechner, auf dem Sie das Betriebssystem installieren wollen, mit einer Unified Extensible Firmware Interface (UEFI) ausgestattet ist.

Der BIOS-Nachfolger ist Voraussetzung für eine Reihe von Sicherheitsfunktionen, darunter Secure Boot.

Secure Boot ist ein von UEFI unterstützter Sicherheitsstandard, der sicherstellt, dass der PC nur ein vertrauenswürdiges Betriebssystem startet. Diese Funktion gibt den Start von Windows nur dann frei, wenn der Bootloader nicht durch Schadsoftware wie Viren oder Ransomware verändert wurde.

Ein TPM-Chip in der Version 2.0 auf der Hauptplatine des Rechners ist die Hardware-Basis für die Secure-Boot-Funktion.

IDG

TPM-2.0-Hürde umgehen

Es gibt zwei grundsätzliche Möglichkeiten, die strengen Systemanforderungen von Windows 11 zu umgehen:

Entweder man verändert die Installationsroutine in der Form, dass UEFI, Secure Boot und TPM nicht mehr überprüft werden. Wie das funktioniert, erfahren Sie im Kasten am Ende des Artikels.

Oder – und diese Möglichkeit bietet Virtualbox – die relevanten Komponenten werden emuliert.

Virtualbox kann Kernkomponenten, die Microsoft für die Installation und Nutzung von Windows 11 voraussetzt, originalgetreu nachbilden. Das bedeutet, dass die Virtualisierungssoftware einer virtuellen Maschine das TPM rein softwareseitig ohne eigenen TPM-Chip zur Verfügung stellt, Stichwort „virtual Trusted Platform Module“, kurz „vTPM“.

Für Windows sieht es dann so aus, als ob die virtuelle Maschine mit einem echten TPM ausgestattet wäre. Auch die weiteren von Microsoft geforderten Voraussetzungen für die Installation von Windows 11 – Secure Boot und UEFI-Firmware – bietet Virtualbox als vollwertige Emulation an.

Oracle, das Unternehmen hinter Virtualbox, hat die Virtualisierungssoftware so optimiert, dass TPM 2.0, Secure Boot und UEFI standardmäßig aktiviert werden, wenn Sie eine neue virtuelle Maschine erstellen, als Typ „Microsoft Windows“ und als Version „Windows 11 (64-bit)“ auswählen.

Siehe auch: Windows 11 auf jeder Hardware installieren – so geht´s

VM umkonfigurieren

Die Umstellung von BIOS auf UEFI, Secure Boot und TPM 2.0 können Sie in Virtualbox auch nachträglich durchführen. Dies kann notwendig sein, wenn Sie eine ältere virtuelle Maschine auf Windows 11 aktualisieren möchten oder die Einstellungen beim Erstellen der VM ausgelassen haben.

Stellen Sie sicher, dass die virtuelle Maschine heruntergefahren ist. Klicken Sie im Hauptfenster von Virtualbox mit der rechten Maustaste auf den Namen der VM und wählen Sie „Ändern“. Klicken Sie auf der linken Seite auf „System“. In der Ausklappliste „TPM“ stellen Sie „v2.0“ ein.

Weiter unten finden sich die Optionen „EFI aktivieren (nur spezielle Gäste)“ und „Secure Boot aktivieren“. Setzen Sie ein Häkchen vor „EFI aktivieren …“. Nachdem Sie diese Option aktiviert haben, können Sie auch ein Häkchen vor „Secure Boot aktivieren“ setzen. Übernehmen Sie Ihre Änderungen mit einem Klick auf den „OK“-Button.

Wichtig: Es reicht nicht aus, UEFI, Secure Boot und TPM 2.0 nur temporär für die Installation von oder das Upgrade auf Windows 11 zu aktivieren. Windows 11 überprüft die Systemvoraussetzungen von Zeit zu Zeit, zum Beispiel im Rahmen von Online-Updates. Lassen die entsprechenden Optionen daher dauerhaft aktiviert.

Vorteile für vTPM

„vTPM ermöglicht den Nachweis durch Messung der gesamten Startkette der VM (UEFI, Betriebssystem, System und Treiber),“ lobt Microsoft die generellen Vorteile einer TPM-Emulation, wenn auch im Zusammenhang mit der eigenen Business-Virtualisierungsplattform Azure.

Positiv für Sie als Anwender: Windows 11 kann die softwarebasierte Ausführung des physischen TPM-Kryptoprozessors im laufenden Betrieb jederzeit überprüfen, ohne dass es zu Funktionseinschränkungen kommt.

Anders bei der im Kasten unten beschriebenen Umgehung der Sicherheitsfunktionen durch Rufus: Hier besteht die Gefahr, dass Windows die Modifikation erkennt und Updates verweigert.

TPM 2.0 mit Rufus umgehen

Der Bootgenerator Rufus modifiziert die Installationsdateien von Windows 11 so, dass Sie das Betriebssystem auch auf älterer Hardware oder in einer virtuellen Maschine ohne TPM 2.0, UEFI und Secure Boot installieren können.

Für Windows 11 24H2 ist mindestens Rufus 4.5 erforderlich, ein Inplace Upgrade von Windows 11 unterstützt erst Rufus ab Version 4.6.

Neben Rufus benötigen Sie die ISO-Datei von Windows 11 und einen USB-Stick, auf den das Tool die modifizierten Installationsdateien des Betriebssystems schreibt.

IDG

Installieren Sie Rufus, und starten Sie das Programm. Schließen Sie den USB-Stick an den Rechner an. Wählen Sie oben im Ausklappfeld das Laufwerk mit Ihrem USB-Stick aus.

Achtung: Eventuell auf dem Stick vorhanden Dateien werden überschrieben! Klicken Sie dann hinter „Laufwerk oder ISO-lmage (Bitte wählen Sie ein Image)“ auf den Button „Auswahl“, und wählen Sie die ISO-Datei von Windows 11 aus.

Klicken Sie auf „Start“. Rufus zeigt ein Menü an, in dem Sie die Installation von Windows 11anpassen können. Standardmäßig sind „Anforderung für 4GB+ RAM, Secure Boot und TPM 2.0 entfernen“ und „Anforderung für Online Microsoft Konto entfernen“ aktiviert.

Wenn Sie möchten, können Sie noch „Datenerfassung deaktivieren (Fragen zum Datenschutz überspringen)“ aktivieren, um Ihre Privatsphäre zu schützen. Bestätigen Sie mit „OK“ und „OK“. Rufus erstellt nun den USB-Stick.

Um vom USB-Stick booten zu können, muss das Extension Pack in Virtualbox installiert sein.

Erstellen Sie eine neue VM ohne unbeaufsichtigte Installation. Öffnen Sie vor dem ersten Start die Einstellungen der VM. Klicken Sie links auf „USB“ und rechts auf das grüne Pluszeichen. Wählen Sie Ihren Stick aus der Geräteliste aus. Speichern Sie die Änderungen mit „OK“, und starten Sie die VM.

(PC-Welt)

Windows-11 auf nicht-kompatiblen PCs nutzen – dank VM​ Weiterlesen »

Spionageabwehr: Darum reicht Webcam abkleben nicht aus​

Allgemein

Mattias Inghe Viele Menschen kleben ihre Webcam am Computer ab, um sich sicher zu fühlen. Aber das reicht noch nicht aus, um jemanden davon abzuhalten, Sie auszuspionieren. Wenn Sie Ihre Privatsphäre auf einem Laptop vollständig schützen wollen, müssen Sie mehr tun. Malware, die in der Lage ist, das Bild Ihrer Kamera aufzuzeichnen, kann ebenso leicht Ihren eingehenden Ton mitschneiden, wie der Antivirus-Hersteller Kaspersky schreibt. Doch auch dagegen können Sie etwas tun: Blockieren Sie das Mikrofon. Eine einfache Methode besteht darin, ein Headset (Kopfhörer mit eingebautem oder angeschlossenem Mikrofon) mit Stummschalttaste zu verwenden. Schließen Sie das Headset an, schalten Sie es stumm und überprüfen Sie dann in den Soundeinstellungen von Windows, ob es sich um das aktive Mikrofon handelt (Soundeinstellungen > Eingabe). Normalerweise sollte es automatisch umschalten. Sie können in den Soundeinstellungen auch testen, ob Ihr Mikrofon stummgeschaltet ist. In Windows 11 klicken Sie auf das Mikrofon und suchen dann die Option Mikrofontest. In Windows 10 können Sie den Test über den Hauptbildschirm Soundeinstellungen durchführen. Windows 11 Soundeinstellungen: Scrollen Sie im Abschnitt Eingabe (Input) zu MikrofonHCD Die effektivste Methode ist nicht viel schwieriger, Sie müssen aber jedes Mal die Einstellung rückgängig machen, wenn Sie das Mikrofon wieder verwenden möchten. Öffnen Sie unter Windows 11 die Soundeinstellungen und gehen Sie dann zu Eingabe. Klicken Sie auf das Mikrofon. Klicken Sie unter Audio auf die Schaltfläche Nicht zulassen. Windows 11 Soundeinstellungen für ein bestimmtes MikrofonHCD Unter Windows 10 gehen Sie zu den Soundeinstellungen, klicken Sie unter Eingabe unter dem Mikrofon auf Geräteeigenschaften und markieren dann das Kästchen Deaktivieren. Es verschwindet dann aus der Liste der Eingabeoptionen. Diese Option eignet sich vordergründig, wenn Sie das eingebaute Mikrofon Ihres Laptops oder sogar das Mikrofon Ihres Headsets oder Ihrer Ohrhörer selten (oder nie) verwenden. Um das Mikrofon in Windows 11 wieder zu aktivieren, gehen Sie zurück zu Soundeinstellungen > [Ihr Gerät] > Audio und klicken Sie dann auf die Schaltfläche Zulassen. Unter Windows 10 gehen Sie zu Soundeinstellungen > Eingabe und wählen dann Soundgeräte verwalten. Suchen Sie Ihr Gerät unter Eingabe > Deaktiviert. Klicken Sie es an und dann auf die Schaltfläche Aktivieren. Zusätzliche Audiogeräte: Wenn Sie mehrere Geräte mit Mikrofonen haben, können Sie die Geräte, die Sie nicht verwenden, selektiv deaktivieren. Laptop-Nutzer müssen eher befürchten, dass man sie ausspioniert. Die meisten Desktop-PCs haben keine eingebauten Mikrofone. Sicherheitshalber können Sie trotzdem in den Soundeinstellungen nachsehen, ob Sie ein aktives Mikrofon haben. Der beste Weg, Spionageaktivitäten auf Ihrem PC zu verhindern, ist die Verwendung eines Antivirus-Programms. Halten Sie die Software auf dem neuesten Stand und seien Sie vorsichtig bei Websites, die Sie besuchen, und bei Downloads, die Sie freiwillig nutzen. Kompromittierte oder bösartige Websites können zu Drive-by-Downloads führen, und alle “Linux-Distributionen”, die über Torrents verbreitet werden, können unerwünschte Extras enthalten. Einen weiteren Schutz können Sie mit der Einschränkung der Audio- und Videonutzung Ihres Laptops erreichen. Dadurch können Sie beispielsweise bei einer unternehmensweiten Zoom-Konferenz verhindern, dass versehentlich eine Nebenunterhaltung mit übertragen wird. (PC-Welt) 

Spionageabwehr: Darum reicht Webcam abkleben nicht aus​ Mattias Inghe

Viele Menschen kleben ihre Webcam am Computer ab, um sich sicher zu fühlen. Aber das reicht noch nicht aus, um jemanden davon abzuhalten, Sie auszuspionieren. Wenn Sie Ihre Privatsphäre auf einem Laptop vollständig schützen wollen, müssen Sie mehr tun.

Malware, die in der Lage ist, das Bild Ihrer Kamera aufzuzeichnen, kann ebenso leicht Ihren eingehenden Ton mitschneiden, wie der Antivirus-Hersteller Kaspersky schreibt. Doch auch dagegen können Sie etwas tun: Blockieren Sie das Mikrofon.

Eine einfache Methode besteht darin, ein Headset (Kopfhörer mit eingebautem oder angeschlossenem Mikrofon) mit Stummschalttaste zu verwenden. Schließen Sie das Headset an, schalten Sie es stumm und überprüfen Sie dann in den Soundeinstellungen von Windows, ob es sich um das aktive Mikrofon handelt (Soundeinstellungen > Eingabe). Normalerweise sollte es automatisch umschalten.

Sie können in den Soundeinstellungen auch testen, ob Ihr Mikrofon stummgeschaltet ist. In Windows 11 klicken Sie auf das Mikrofon und suchen dann die Option Mikrofontest. In Windows 10 können Sie den Test über den Hauptbildschirm Soundeinstellungen durchführen.

Windows 11 Soundeinstellungen: Scrollen Sie im Abschnitt Eingabe (Input) zu MikrofonHCD

Die effektivste Methode ist nicht viel schwieriger, Sie müssen aber jedes Mal die Einstellung rückgängig machen, wenn Sie das Mikrofon wieder verwenden möchten. Öffnen Sie unter Windows 11 die Soundeinstellungen und gehen Sie dann zu Eingabe. Klicken Sie auf das Mikrofon. Klicken Sie unter Audio auf die Schaltfläche Nicht zulassen.

Windows 11 Soundeinstellungen für ein bestimmtes MikrofonHCD

Unter Windows 10 gehen Sie zu den Soundeinstellungen, klicken Sie unter Eingabe unter dem Mikrofon auf Geräteeigenschaften und markieren dann das Kästchen Deaktivieren. Es verschwindet dann aus der Liste der Eingabeoptionen.

Diese Option eignet sich vordergründig, wenn Sie das eingebaute Mikrofon Ihres Laptops oder sogar das Mikrofon Ihres Headsets oder Ihrer Ohrhörer selten (oder nie) verwenden.

Um das Mikrofon in Windows 11 wieder zu aktivieren, gehen Sie zurück zu Soundeinstellungen > [Ihr Gerät] > Audio und klicken Sie dann auf die Schaltfläche Zulassen. Unter Windows 10 gehen Sie zu Soundeinstellungen > Eingabe und wählen dann Soundgeräte verwalten. Suchen Sie Ihr Gerät unter Eingabe > Deaktiviert. Klicken Sie es an und dann auf die Schaltfläche Aktivieren.

Zusätzliche Audiogeräte: Wenn Sie mehrere Geräte mit Mikrofonen haben, können Sie die Geräte, die Sie nicht verwenden, selektiv deaktivieren.

Laptop-Nutzer müssen eher befürchten, dass man sie ausspioniert. Die meisten Desktop-PCs haben keine eingebauten Mikrofone. Sicherheitshalber können Sie trotzdem in den Soundeinstellungen nachsehen, ob Sie ein aktives Mikrofon haben.

Der beste Weg, Spionageaktivitäten auf Ihrem PC zu verhindern, ist die Verwendung eines Antivirus-Programms. Halten Sie die Software auf dem neuesten Stand und seien Sie vorsichtig bei Websites, die Sie besuchen, und bei Downloads, die Sie freiwillig nutzen. Kompromittierte oder bösartige Websites können zu Drive-by-Downloads führen, und alle “Linux-Distributionen”, die über Torrents verbreitet werden, können unerwünschte Extras enthalten.

Einen weiteren Schutz können Sie mit der Einschränkung der Audio- und Videonutzung Ihres Laptops erreichen. Dadurch können Sie beispielsweise bei einer unternehmensweiten Zoom-Konferenz verhindern, dass versehentlich eine Nebenunterhaltung mit übertragen wird.

(PC-Welt)

Spionageabwehr: Darum reicht Webcam abkleben nicht aus​ Weiterlesen »

Rezepte gegen Tratsch: Plaudertaschen den Stecker ziehen​

Allgemein

Kollegen, die Gerüchte verbreiten und sich über andere auslassen, gab es immer und wird es immer geben. Foto: pathdoc – shutterstock.com“Seht her, was ich alles weiß, ich bin wichtig!” – wer kennt sie nicht, die Kolleginnen und Kollegen, die einen schier unerschöpflichen Wissensfundus mitbringen – auch über Dinge, die sie gar nichts angehen. Ihnen geht es nicht um Inhalte und Wahrheiten, sondern um ihren (erhofften) eigenen Bedeutungszuwachs. Meist agieren sie in einem Netzwerk von Menschen, die ähnlich ticken. Sind sie Intriganten? Nur dann, wenn sie andere Menschen denunzieren. Tatsächlich agieren diese Akteure meist nicht böswillig, sie wollen sich eher durch Tratsch und ihren vermeintlichen Wissensvorsprung wichtig machen. Und was, bitteschön, lässt sich gegen das Weitertragen von Informationen – ein im Übrigen zutiefst menschlicher Zug – einwenden? Davon lebt der berühmte Flurfunk, der zur Kultur und dem sozialen Zusammenhalt von Organisationen mehr beiträgt als schöngefärbte Leitbilder.Indiskretion ist nicht tolerabelTrotzdem sollten Führungskräfte im Umgang mit solchen Kolleginnen und Kollegen vorsichtig sein und im Kopf behalten, dass hier die Diskretion schnell auf der Strecke bleibt. Wer mit solchen – nennen wir sie Informanten – im Team zusammenarbeitet, sollte bedenken, dass Dinge nicht vertraulich behandelt, sondern weitergegeben werden, oft noch mit einer hinzugedichteten Volte. Es ist besser, diese Mitarbeiter nicht in sensible oder gar private Belange einzubeziehen, etwa in einen Streit mit anderen Kollegen.Mein Tipp: Arbeiten Sie mit solchen Leuten nur bezogen auf gemeinsamen Projekte und Aufgaben zusammen. Und hüten Sie sich davor, in Gegenwart dieser Plaudertaschen Urteile über Dritte auszusprechen oder den Sinn und Unsinn der Jahresplanung Ihrer Organisation zu diskutieren. Solche Mitarbeitende ins Vertrauen zu ziehen, ist ein No-go. Klingt banal? Nicht, wenn man bedenkt, dass es genau diese Mitarbeiter sind, die alle Tricks anwenden, um andere ins Vertrauen zu ziehen. Chef muss aktiv eingreifenSind Sie die Führungskraft, dann greifen Sie aktiv ein, wenn Informanten der Teamstruktur oder Ihrer eigenen Stellung schaden. Stellen Sie dann – idealerweise vor dem gesamten Team – Dinge klar und räumen Sie Gerüchte vom Tisch. Nur wenn Sie mit hundertprozentiger Sicherheit wissen, wer die zweifelhaften Themen verbreitet, sprechen Sie klar und direkt mit dieser Person. Zeigen Sie auf, welche Verhaltensweisen und Werte Sie von Ihren Teammitgliedern erwarten. Sicher, das wird nur bedingt Aussicht auf Erfolg haben, aber Sie erreichen, dass der Informant fortan vorsichtiger agieren muss.Ansonsten rate ich zu Gelassenheit: nicht nur, weil Menschen ohnehin recht schnell spüren, ob ihr Gegenüber integer ist oder nicht, sondern auch, weil Informanten es in aller Regel schwer haben, in der Hierarchie aufzusteigen – trotz ihres Wunsches nach maximalem Einfluss. Daher hält sich der Schaden, den diese Kollegen durch das indiskrete Streuen von Gerüchten und Informationen anrichten, meist in Grenzen. Mit klarer Kommunikation lässt sich das einfangen. Und je mehr den Mitarbeitenden klar wird, wie Tratschende vorgehen, desto weniger werden sie ihnen erzählen. Irgendwann geht den Plappermäulern dann der Saft aus. Sie haben einen Nörgler im Team? Lesen Sie hier, wie man solche Kollegen ausbremst! 

Rezepte gegen Tratsch: Plaudertaschen den Stecker ziehen​ Kollegen, die Gerüchte verbreiten und sich über andere auslassen, gab es immer und wird es immer geben.
Foto: pathdoc – shutterstock.com“Seht her, was ich alles weiß, ich bin wichtig!” – wer kennt sie nicht, die Kolleginnen und Kollegen, die einen schier unerschöpflichen Wissensfundus mitbringen – auch über Dinge, die sie gar nichts angehen. Ihnen geht es nicht um Inhalte und Wahrheiten, sondern um ihren (erhofften) eigenen Bedeutungszuwachs. Meist agieren sie in einem Netzwerk von Menschen, die ähnlich ticken. Sind sie Intriganten? Nur dann, wenn sie andere Menschen denunzieren. Tatsächlich agieren diese Akteure meist nicht böswillig, sie wollen sich eher durch Tratsch und ihren vermeintlichen Wissensvorsprung wichtig machen. Und was, bitteschön, lässt sich gegen das Weitertragen von Informationen – ein im Übrigen zutiefst menschlicher Zug – einwenden? Davon lebt der berühmte Flurfunk, der zur Kultur und dem sozialen Zusammenhalt von Organisationen mehr beiträgt als schöngefärbte Leitbilder.Indiskretion ist nicht tolerabelTrotzdem sollten Führungskräfte im Umgang mit solchen Kolleginnen und Kollegen vorsichtig sein und im Kopf behalten, dass hier die Diskretion schnell auf der Strecke bleibt. Wer mit solchen – nennen wir sie Informanten – im Team zusammenarbeitet, sollte bedenken, dass Dinge nicht vertraulich behandelt, sondern weitergegeben werden, oft noch mit einer hinzugedichteten Volte. Es ist besser, diese Mitarbeiter nicht in sensible oder gar private Belange einzubeziehen, etwa in einen Streit mit anderen Kollegen.Mein Tipp: Arbeiten Sie mit solchen Leuten nur bezogen auf gemeinsamen Projekte und Aufgaben zusammen. Und hüten Sie sich davor, in Gegenwart dieser Plaudertaschen Urteile über Dritte auszusprechen oder den Sinn und Unsinn der Jahresplanung Ihrer Organisation zu diskutieren. Solche Mitarbeitende ins Vertrauen zu ziehen, ist ein No-go. Klingt banal? Nicht, wenn man bedenkt, dass es genau diese Mitarbeiter sind, die alle Tricks anwenden, um andere ins Vertrauen zu ziehen. Chef muss aktiv eingreifenSind Sie die Führungskraft, dann greifen Sie aktiv ein, wenn Informanten der Teamstruktur oder Ihrer eigenen Stellung schaden. Stellen Sie dann – idealerweise vor dem gesamten Team – Dinge klar und räumen Sie Gerüchte vom Tisch. Nur wenn Sie mit hundertprozentiger Sicherheit wissen, wer die zweifelhaften Themen verbreitet, sprechen Sie klar und direkt mit dieser Person. Zeigen Sie auf, welche Verhaltensweisen und Werte Sie von Ihren Teammitgliedern erwarten. Sicher, das wird nur bedingt Aussicht auf Erfolg haben, aber Sie erreichen, dass der Informant fortan vorsichtiger agieren muss.Ansonsten rate ich zu Gelassenheit: nicht nur, weil Menschen ohnehin recht schnell spüren, ob ihr Gegenüber integer ist oder nicht, sondern auch, weil Informanten es in aller Regel schwer haben, in der Hierarchie aufzusteigen – trotz ihres Wunsches nach maximalem Einfluss. Daher hält sich der Schaden, den diese Kollegen durch das indiskrete Streuen von Gerüchten und Informationen anrichten, meist in Grenzen. Mit klarer Kommunikation lässt sich das einfangen. Und je mehr den Mitarbeitenden klar wird, wie Tratschende vorgehen, desto weniger werden sie ihnen erzählen. Irgendwann geht den Plappermäulern dann der Saft aus.

Sie haben einen Nörgler im Team? Lesen Sie hier, wie man solche Kollegen ausbremst!

Rezepte gegen Tratsch: Plaudertaschen den Stecker ziehen​ Weiterlesen »

Microsoft-Betriebssysteme: Die Windows-Geschichte von 1.0 bis 11​

Allgemein

Microsoft bringt Windows 1.0 am 20. November 1985 auf den Markt. Knapp 40 Jahre später blicken wir zurück auf die Erfolgsgeschichte des Windows-Betriebssystems.Microsoft Am 20. November 1985 veröffentlicht die damals noch kleine Softwarefirma Microsoft mit Windows 1.0 die erste grafische Benutzeroberfläche für ihr Betriebssystem MS-DOS. Zunächst nur als Erweiterung des Betriebssystems programmiert, legt Windows 1.0 den Grundstein für eine beispiellose Erfolgsgeschichte. Anwendungen auf MS-DOS-Rechnern lassen sich nun endlich mit der Maus bedienen und machen die grauen Kisten somit auch für den Consumer-Markt attraktiv. Die Anfänge von Windows Um die erste grafische Oberfläche für die Benutzung von PCs entbrennt vor 30 Jahren allerdings zunächst ein Wettlauf gegen die Zeit. Personal Computer werden zu dieser Zeit in der Regel in Unternehmen eingesetzt. Bill Gates wird schnell klar, dass eine grafische Oberfläche (Graphical User Interface, GUI) notwendig sein würde, damit der Computer eines Tages auf jedem Schreibtisch seinen Platz findet. Unter Microsofts erstem Betriebssystem MS-DOS müssen Anwender schon über ein gewisses technisches Know-how verfügen, um den Rechner bedienen zu können. Grundkenntnisse in der Programmiersprache Basic sind damals von Vorteil. Die erste Version von Windows hat allerdings noch recht wenig Ähnlichkeit mit den grafischen Oberflächen, wie man sie heute kennt. Die Software ist sperrig, langsam und wird nur von wenigen Anwendungen überhaupt unterstützt. Will man ein kleines Programm wie den Taschenrechner starten, muss die dafür erforderliche Datei (calc.exe) erst in den Tiefen des Betriebssystems gesucht und anschließend über die Kommandozeile gestartet werden. Xerox, Apple und der Kampf um das GUI Die anfangs rudimentäre grafische Oberfläche ist damals revolutionär – von Microsoft stammt die Idee allerdings nicht. Bereits zwei Jahre zuvor – 1983 – bringt Apple-Gründer Steve Jobs mit der Lisa einen der ersten Computer mit grafischer Oberfläche auf den Markt. Das Gerät ist jedoch teuer und spricht schon deshalb nur einen kleinen Kreis von Computer-Enthusiasten an. Doch die Richtung ist vorgegeben, der Wettlauf beginnt. Jobs und die Programmierer bei Apple lassen sich bei ihrer Entwicklung der GUI von der Arbeit am legendären kalifornischen Forschungszentrum Xerox PARC inspirieren. Dort wird die Idee der grafischen Benutzeroberfläche für PCs geboren. Bereits in den 1970er Jahren entsteht dort der Xerox Alto für Forschungszwecke. Nachdem 1981 der Xerox Star als erster kommerzieller Rechner floppt, gibt das Unternehmen sein Vorhaben auf. Microsoft, Apple und das Urheberrecht Durch Apple unter Zugzwang geraten, kündigt Bill Gates im November 1983 auf der Computermesse Comdex in Las Vegas sein Windows 1.0 an – lange bevor die Software überhaupt fertig ist. Als Anekdote ist überliefert, dass Gates’ Vater bei seinem Vortrag am Diaprojektor stand. Fast zwei Jahre braucht Microsoft anschließend, bis die erste Windows-Version auf den Markt kommt. In der Zwischenzeit stellt auch Apple seinen ersten PC auf die Beine: den Macintosh. Gates nimmt sich für Windows relativ unverhohlen die Oberfläche des Jobs und die Programmierer bei Apple lassen sich bei ihrer Entwicklung der GUI von der Arbeit am legendären kalifornischen Forschungszentrum zum Vorbild. Die Anwälte der Apfel-Company kann er sich nur vom Hals halten, weil er für Apple dringend benötigte Mac-Anwendungen liefert. Als Microsoft aber Anfang 1988 mit dem nächsten größeren Versionssprung, Windows 2.03, auf den Markt stößt, reicht Apple wegen Verstoßes gegen das Urheberrecht Klage gegen seinen Rivalen ein. Den über Jahre erbittert geführten Rechtsstreit verliert Apple letztendlich im Jahr 1994 – auch deshalb, weil es sich in den 1980er Jahren selbst bei Xerox bedient hatte. Erst im Sommer 1997 normalisiert sich die Beziehung zwischen Apple und Microsoft langsam wieder, als der zu Apple zurückgekehrte Steve Jobs die Hilfe von Microsoft in Anspruch nimmt, um das in Schwierigkeiten geratene Unternehmen wieder profitabel zu machen. Nichtsdestotrotz nimmt Apple seinen “Lieblings”-Kontrahenten und dessen “Kopierleidenschaft” auch Jahre später noch aufs Korn – mit Vorliebe in Form ironischer Werbespots. Durchbruch und Millenium-Fluch Zum Start von Windows 1.0 gibt es weltweit eine Basis von “lediglich” sechs Millionen Personal Computer. Erst rund fünf Jahre später, im Jahr 1990, gelingt der Software-Schmiede aus Redmond mit Windows 3.0 ein erster Erfolg. Den endgültigen Durchbruch beschert dem Unternehmen dann weitere fünf Jahre später der Release von Windows 95. Unter Windows 95 lassen sich Peripheriegeräte wie Drucker deutlich einfacher anschließen und in Betrieb nehmen. Ohne umständliche Installation von Treibersoftware kommen die Nutzer dennoch nur selten aus. Erstmals kommt Windows 1995 auch mit einem virtuellen Papierkorb auf der Schreibtischoberfläche daher – ein Icon, das Macintosh-Nutzer der ersten Stunde zu dieser Zeit längst kennen. Auch eine Verbindung zum Internet können Nutzer mit Windows 95 erstmals herstellen: mit dem Internet Explorer. Das 1998 erschienene Windows 98 wird im Vergleich zu seinem Vorgänger nur in Details weiterentwickelt. Bei diesen Details handelt es sich konkret um die standardmäßige Einbindung des Internet Explorers in das Windows-Betriebssystem, sowie die Einführung der Schnellstartleiste und die Unterstützung der damals neuen USB-Schnittstelle. Mit der im Jahr 2000 erschienenen Windows Millenium Edition (ME) kann Microsoft bei PC-Nutzern dagegen nicht punkten. Das auf Multimedia-Support optimierte Betriebssystem soll Windows-User mit mehr Benutzerfreundlichkeit verwöhnen, in der Praxis “besticht” es vor allem mit Instabilität und mangelhafter Performance. Windows ME gilt als einer der größten OS-Flops aus Redmond. Foto: Microsoft XP-Kult und Vista-Fehlschlag Mit Windows XP erneuert Microsoft im Jahr 2001 die optische Präsentation von Windows. Und auch technisch halten viele Neuerungen Einzug. Insbesondere auf Notebooks macht Windows nun eine deutlich bessere Figur. Das weiß auch die schreibende Gilde zu schätzen: Pünktlich zum Release erhält Windows XP auch von der Presse gute Noten. Anwender schätzen insbesondere die Navigation über das Startmenü. Windows XP gibt es auch als Tablet PC Edition – aus gutem Grund: Im Jahr 2002 startet Microsoft in Kooperation mit einigen OEMs eine große Tablet-Offensive. Die Windows-Tablets können sich jedoch nur in vertikalen Märkten wie dem Gesundheitswesen etablieren. Der Support von Windows XP endet im Jahr 2014 nach 13 Jahren. Dennoch können sich viele Unternehmen, Institutionen und Privatpersonen nur schwer vom äußerst beliebten Windows-Betriebssystem trennen. Für Microsoft ist Windows XP in diesen Jahren eines der meistverkauften Produkte. Der XP-Nachfolger Windows Vista wird dagegen von vielen Experten nicht gerade als Erfolgskapitel der Windows-Geschichte angesehen. Das Windows-OS soll zunächst bereits 2003 auf den Markt kommen, fertiggestellt wird das Projekt mit dem Codenamen “Longhorn” allerdings erst Ende 2006. Mit der umfangreichen, visuellen Neugestaltung von Windows Vista will Microsoft auch ein Zeichen setzen: Apples Betriebssystem Mac OS X macht zu diesem Zeitpunkt einen deutlich frischeren, moderneren Eindruck als Windows XP. Die neue “Aero”-Oberfläche, ein neu designtes Startmenü und zeitgemäß inszenierte Icons sowie viele technische Neuerungen zeichnen Windows Vista aus. Trotzdem kommt diese Windows-Version bei vielen Kunden nicht an – Stabilität und Performance können mit den Erwartungen vieler User nicht mithalten. So landet Vista oft nur bei Endkunden, die es mit neuen Systemen erwerben. Insbesondere im Unternehmensumfeld bleibt XP das Maß der Dinge. Windows 7 und die Solidarität mit dem Start-Button Windows 7 gilt entsprechend als der eigentlich legitime Nachfolger von Windows XP. Gegenüber Vista kann Windows 7 in Sachen Stabilität, Performance und Nutzerfreundlichkeit bei den Nutzern schnell punkten. Auch kurz vor dem Erscheinen von Windows 10 verzeichnet Windows 7 immer noch die höchsten Marktanteile unter den Windows-Betriebssystemen. Mit Windows 8 ändert sich die Bedienung des Betriebssystems grundlegend: Die neue Kacheloberfläche lässt sich auf touch-fähigen Geräten zwar gut bedienen, stößt aber viele Desktop-Anwender vor den Kopf, die die Änderung der Benutzerführung oft als zu radikal empfinden. Drittanbieter-Tools die die beliebte Windows-Leiste mit Start-Button zurückbringen, haben zu diesem Zeitpunkt Hochkonjunktur. Nur ein Jahr später muss Microsoft reagieren und renoviert Windows 8 grundlegend. Das Ergebnis nennt man kurzerhand Windows 8.1. Der Startbildschirm ist unter Windows 8.1 nun flexibler konfigurierbar, auf Wunsch ist nun auch wieder die klassische Windows-Desktop-Ansicht verfügbar – inklusive Startknopf. Abseits der Diskussionen um das Für und Wider der Kachel-Oberfläche geht oft unter, dass Windows 8 – und insbesondere auch Windows 8.1 – einige spannende Neuerungen an Bord haben, wie etwa Speicherpools oder Arbeitsordner. Windows 10 und das “neue” Microsoft Mit Windows 10 veröffentlichte Microsoft Ende Juli 2015 nicht nur einfach eine neue Windows-Version. Das aktuelle Windows-OS verkörpert die neue “One-Platform”-Strategie des Redmonder IT-Konzerns, der mit Windows 10 und Windows 10 Mobile künftig eine geräteklassenübergreifende Plattform etablieren will. Windows 10 läuft also nicht nur auf PCs, sondern auch auf Tablet-PCs, Notebooks, Windows Phones, der Spielkonsole Xbox One und dem kommenden AR-Device Hololens. Weitergeführt werden soll diese Strategie von plattformübergreifenden “Universal”-Apps. Doch auch sonst ändert sich Einiges: Windows 10 wurde als erstes OS der Windows-Geschichte allen Nutzern von Windows 7, 8 und 8.1 als kostenloses Upgrade zur Verfügung gestellt und wird kontinuierlich über Software-Updates erweitert. Das heißt bei Microsoft “Windows-as-a-Service” – und sorgt dafür, dass der traditionelle Patch-Day endgültig Geschichte ist. Dass Microsoft mit Windows 10 neue Wege beschreitet, zeigte sich bereits während des Entwicklungsprozesses: Über das “Insider Program” waren beziehungsweise sind Millionen von Anwender mit ihrem Feedback in die Entwicklung des Betriebssystems involviert. Mit Windows 10 beschreitet Microsoft auch beim Thema Open Source neue Wege und öffnet sich der Community. So soll das Win 10 Anniversary Update auch mit integriertem Ubuntu Bash kommen, während Windows Server 2016 weitergehende Linux-Virtualisierungen erlaubt. Doch nicht nur Linux, auch andere Open-Source-Projekte werden künftig unterstützt: Sowohl das .NET-Framework, als auch die Entwicklungsumgebung Visual Studio stellt Microsoft für Entwickler kostenlos zur Verfügung. Windows 10 Creators Update Ende Oktober 2016 kündigt Microsoft das nächste umfassende Update für sein Betriebssystem an. Das Creators Update soll im Frühjahr 2017 gewichtige Neuerungen auf alle Windows-10-Geräte bringen – insbesondere was die Bereiche Mixed- und Virtual-Reality angeht. Geht es nach den Redmondern, soll künftig jeder Windows 10 User ganz einfach und schnell eigene 3D-Inhalte erstellen und bearbeiten können. Das soll in erster Linie über eine Erweiterung von Paint funktionieren, das künftig Paint 3D heißt. Auch beliebige, abfotografierte Objekte sollen künftig per App auf Knopfdruck in 3D-Modelle verwandelt werden können. Konsumiert werden sollen die MR- und VR-Inhalte zum einen über Microsofts Hololens, zum anderen auch über VR-Brillen diverser Partnerhersteller, etwa Lenovo, Dell und HP. Auch die Windows 10 Community soll künftig noch stärker zusammenwachsen, wenn es nach Microsoft geht. Deswegen stellen die Redmonder im Rahmen des Creators Update auch eine Schnittstelle zur Verfügung, die zahlreiche Kommunikationstools miteinander vereinen soll. Windows 10 S und Creators Update, Part 2 Anfang Mai 2017 stellte Microsoft mit dem Surface Laptop nicht nur ein weiteres Gerät der Surface-Reihe vor, sondern enthüllte auch soll im Frühjahr 2017 gewichtige Neuerungen auf alle Windows-10-Geräte bringen – insbesondere was die Bereiche Mixed- und Virtual-Reality angeht. Geht es nach den Redmondern, soll künftig jeder Windows 10 User ganz einfach und schnell eigene 3D-Inhalte erstellen und bearbeiten können. Das soll in erster Linie über eine Erweiterung von Paint funktionieren, das künftig Paint 3D heißt. Auch beliebige, abfotografierte Objekte sollen künftig per App auf Knopfdruck in 3D-Modelle verwandelt werden können. Konsumiert werden sollen die MR- und VR-Inhalte zum einen über. Die cloudbasierte Version von Windows 10 läuft ausschließlich mit Apps aus dem Windows Store, ist jedoch upgrade-fähig. Die abgespeckte Windows-Version ist mit dem eingestellten RT vergleichbar und richtet sich in erster Linie an Bildungseinrichtungen. Schließlich will Microsoft dieses Feld nicht alleine den , zum anderen auch über VR-Brillen diverser Partnerhersteller, etwa Lenovo, Dell und HP. Auch die Windows 10 Community soll künftig noch stärker zusammenwachsen, wenn es nach Microsoft geht. Deswegen stellen die Redmonder im Rahmen des Creators Update auch eine Schnittstelle zur Verfügung, die zahlreiche Kommunikationstools miteinander vereinen soll. überlassen. Auf der Entwicklerkonferenz Build 2017 kündigte Microsoft den Nachfolger zum Creators Update an: das Fall Creators Update. Unsere US-Kollegin Melissa Riofrio klärt Sie über die besten, neuen Features auf: Seit April 2018 verzichtete Microsoft auf besondere Nomenklatur bei Windows 10 Updates, verbessert sein Betriebssystem aber konsequent weiter und liefert dazu im Regelfall zwei große Updates pro Jahr. Die aktuelle Version (20H2) wurde im Okotober 2020 veröffentlicht. Aufmerksame Leser werden bemerkt haben, dass in diesem Text nicht auf jede Windows-Version eingegangen wird. Natürlich haben wir auch Windows NT, 2000 und wie sie alle heißen nicht vergessen – in unserer Bildergalerie bekommen Sie einen umfassenden Überblick über die wichtigsten Windows-Versionen. Windows 11 21H2 Es begann mit einer überraschenden Ankündigung von Microsoft-CEO Satya Nadella auf der Entwicklerkonferenz Build 2021: “Wir werden bald eines der bedeutendsten Updates für Windows des letzten Jahrzehnts vorstellen. Ich selbst habe es in den letzten Monaten schon ausprobiert und bin unglaublich aufgeregt, was die nächste Generation von Windows betrifft.” Damit befeuerte der Manager eine regelrechte Flut an Spekulationen rund um ein neues Windows. Am 24. Juni lösten sich dann alle bis dahin noch bestehenden Rätsel. Microsoft stellte mit Windows 11 offiziell eine neue Generation seines Betriebssystems vor und erklärte, damit eine neue Ära einläuten zu wollen. Die Idee, ein neues Windows zu bauen, entstand wohl in der Corona-Pandemie. Die vergangenen 18 Monate hätten die Art und Weise, wie Menschen den PC nutzen, komplett verändert, konstatierte Panos Panay, Chief Product Officer für den Bereich Windows und Devices bei Microsoft. Der PC habe das Leben in der Krise maßgeblich mitbestimmt. Man habe Windows 11 darauf ausgelegt, auf verschiedenen Gerätetypen zu laufen und unterschiedliche Bedienmodi zu unterstützen, hieß es von Seiten Microsofts. Beispielsweise sei der Abstand zwischen den Icons in der Taskleiste vergrößert worden, um eine Touch-Bedienung auf Tablets zu erleichtern. Auch die Erkennung von Spracheingaben sei Microsoft zufolge verbessert worden. Alle aktuell im Handel verkauften PCs und Notebooks sollen Windows-11-tauglich sein, hieß es. Wie schon beim Umstieg auf Windows 10 will Microsoft Anwendern mit der PC Health Check App ein Tool anbieten, um zu prüfen, ob ihr Rechner für das neue Windows-System geeignet ist. Microsoft hat bei Windows 11 vor allem Design und Bedienerführung vereinfacht. Mithilfe neuer Tools wie “Snap Layouts”, “Snap Groups” und “Desktops” sollen Nutzer ihren Arbeitsplatz besser organisieren können, verspricht der Softwarehersteller. So ließen sich beispielsweise mehrere separate Arbeitsoberflächen einrichten und mit Apps und Tools bestücken – etwa für die Arbeit, den Privatbereich oder die Schule. Darüber hinaus verzahnt Microsoft Windows 11 enger mit dem in der Pandemie so erfolgreichen Communication- und Collaboration-Tool Teams. Wieder zurück in Windows 11 sind die aus der Version 7 bekannten Widgets. Damit können Nutzer personalisierte Feeds mit beispielsweise Nachrichten oder Wetterinformationen einrichten. Der Redmonder Konzern bewirbt sein neues Betriebssystem darüber hinaus als besonders sicher. Die Architektur sei als Zero Trust angelegt, zudem sei das System Secure by Design. Wichtige Sicherheits-Features wie zum Beispiel Verschlüsselung seien von Haus aus aktiviert. Überarbeitet hat Microsoft auch den Windows-Appstore, der laut Panay nun übersichtlicher und auch einfacher zu nutzen sein soll. Darüber hinaus ließen sich künftig auch Android-Apps über den Amazon Appstore in Windows herunterladen. App-Entwicklern winken mit Windows 11 laut Panay mehr Freiheiten. Sie könnten beliebige App-Frameworks für ihre Entwicklungen nutzen. Apps ließen sich beispielsweise als Win32-, Progressive-Web-App (PWA) oder Universal-Windows-App (UWA) in den Store einstellen. Um mehr Entwickler auf die Windows-Plattform zu locken, hat Microsoft auch seine Abrechnungsmodalitäten angepasst: Bringt ein Entwickler seine eigene Abrechnungs-Engine mit in den Windows-Store, will der Konzern keine Gebühren verlangen. Wird die im Windows-Store von Microsoft angebotene Commerce-Service genutzt, werden 15 Prozent vom Umsatz fällig. Die erste Version von Windows 11 – 21H2 – wurde im Oktober 2021 veröffentlicht. Windows 11 22 H2 Im September 2022 erfolgte schließlich mit der Version 22H2 das erste große Update des neuen Microsoft-Betriebssystems, das zahlreiche Überarbeitungen beziehungsweise Optimierungen beinhaltete, sowohl auf Design- als auch auf Funktionsebene. Hervorzuheben ist dabei vor allem die von den Nutzern lange herbeigesehnte Möglichkeit, innerhalb des Windows Datei-Explorers Registerkarten zu öffnen. Unsere Kollegen von der PC-Welt haben das erste Windows-Update, beziehungsweise dessen Betaversion, ausgiebig getestet und erklärt. Windows 11 23H2 Ende Oktober 2023 veröffentlichte Microsoft schließlich die Version 23H2. Diese zeichnet sich in erster Linie durch die Integration generativer KI-Funktionen auf GPT-4-Basis aus – Stichwort Copilot. Das wirkt sich vielfältig auf diverse Bereiche des Windows-Ökosystems aus, wie eine Microsoft-Expertin in diesem Videobeitrag ausführlich erklärt. Windows 11 24H2 Seit Oktober 2024 ist das 2024er-Update von Windows 11 allgemein verfügbar. Mit 24H2 halten zahlreiche Neuerungen in Windows 11 Einzug – insbesondere neue KI-Features (bei Copilot+-PCs). Darüber hinaus verspricht 24H2 auch WiFi-7-Support, einen optimierten Datei-Explorer sowie verbesserte Konnektivität. In der Praxis hat sich dieses Windows-Update leider vor allem dadurch ausgezeichnet, dass es bei der Nutzerbasis für umfassende (teilweise nur manuell zu lösende) Probleme gesorgt hat. Knapp vier Jahre nach seiner Veröffentlichung ist der Erfolg von Windows 11 mit Blick auf die Nutzerakzeptanz noch ausbaufähig: Der weltweite Marktanteil des Betriebssystem liegt aktuell (Stand: Februar 2025) bei 38 Prozent. Der Vorgänger Windows 10 dominiert indes immer noch die Versionslandschaft mit 59 Prozent. (dpa/tc/mje/fm/ba) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Microsoft-Betriebssysteme: Die Windows-Geschichte von 1.0 bis 11​ Microsoft bringt Windows 1.0 am 20. November 1985 auf den Markt. Knapp 40 Jahre später blicken wir zurück auf die Erfolgsgeschichte des Windows-Betriebssystems.Microsoft

Am 20. November 1985 veröffentlicht die damals noch kleine Softwarefirma Microsoft mit Windows 1.0 die erste grafische Benutzeroberfläche für ihr Betriebssystem MS-DOS. Zunächst nur als Erweiterung des Betriebssystems programmiert, legt Windows 1.0 den Grundstein für eine beispiellose Erfolgsgeschichte. Anwendungen auf MS-DOS-Rechnern lassen sich nun endlich mit der Maus bedienen und machen die grauen Kisten somit auch für den Consumer-Markt attraktiv.

Die Anfänge von Windows

Um die erste grafische Oberfläche für die Benutzung von PCs entbrennt vor 30 Jahren allerdings zunächst ein Wettlauf gegen die Zeit. Personal Computer werden zu dieser Zeit in der Regel in Unternehmen eingesetzt. Bill Gates wird schnell klar, dass eine grafische Oberfläche (Graphical User Interface, GUI) notwendig sein würde, damit der Computer eines Tages auf jedem Schreibtisch seinen Platz findet.

Unter Microsofts erstem Betriebssystem MS-DOS müssen Anwender schon über ein gewisses technisches Know-how verfügen, um den Rechner bedienen zu können. Grundkenntnisse in der Programmiersprache Basic sind damals von Vorteil. Die erste Version von Windows hat allerdings noch recht wenig Ähnlichkeit mit den grafischen Oberflächen, wie man sie heute kennt. Die Software ist sperrig, langsam und wird nur von wenigen Anwendungen überhaupt unterstützt. Will man ein kleines Programm wie den Taschenrechner starten, muss die dafür erforderliche Datei (calc.exe) erst in den Tiefen des Betriebssystems gesucht und anschließend über die Kommandozeile gestartet werden.

Xerox, Apple und der Kampf um das GUI

Die anfangs rudimentäre grafische Oberfläche ist damals revolutionär – von Microsoft stammt die Idee allerdings nicht. Bereits zwei Jahre zuvor – 1983 – bringt Apple-Gründer Steve Jobs mit der Lisa einen der ersten Computer mit grafischer Oberfläche auf den Markt. Das Gerät ist jedoch teuer und spricht schon deshalb nur einen kleinen Kreis von Computer-Enthusiasten an. Doch die Richtung ist vorgegeben, der Wettlauf beginnt.

Jobs und die Programmierer bei Apple lassen sich bei ihrer Entwicklung der GUI von der Arbeit am legendären kalifornischen Forschungszentrum Xerox PARC inspirieren. Dort wird die Idee der grafischen Benutzeroberfläche für PCs geboren. Bereits in den 1970er Jahren entsteht dort der Xerox Alto für Forschungszwecke. Nachdem 1981 der Xerox Star als erster kommerzieller Rechner floppt, gibt das Unternehmen sein Vorhaben auf.

Microsoft, Apple und das Urheberrecht

Durch Apple unter Zugzwang geraten, kündigt Bill Gates im November 1983 auf der Computermesse Comdex in Las Vegas sein Windows 1.0 an – lange bevor die Software überhaupt fertig ist. Als Anekdote ist überliefert, dass Gates’ Vater bei seinem Vortrag am Diaprojektor stand. Fast zwei Jahre braucht Microsoft anschließend, bis die erste Windows-Version auf den Markt kommt. In der Zwischenzeit stellt auch Apple seinen ersten PC auf die Beine: den Macintosh.

Gates nimmt sich für Windows relativ unverhohlen die Oberfläche des Jobs und die Programmierer bei Apple lassen sich bei ihrer Entwicklung der GUI von der Arbeit am legendären kalifornischen Forschungszentrum zum Vorbild. Die Anwälte der Apfel-Company kann er sich nur vom Hals halten, weil er für Apple dringend benötigte Mac-Anwendungen liefert. Als Microsoft aber Anfang 1988 mit dem nächsten größeren Versionssprung, Windows 2.03, auf den Markt stößt, reicht Apple wegen Verstoßes gegen das Urheberrecht Klage gegen seinen Rivalen ein. Den über Jahre erbittert geführten Rechtsstreit verliert Apple letztendlich im Jahr 1994 – auch deshalb, weil es sich in den 1980er Jahren selbst bei Xerox bedient hatte.

Erst im Sommer 1997 normalisiert sich die Beziehung zwischen Apple und Microsoft langsam wieder, als der zu Apple zurückgekehrte Steve Jobs die Hilfe von Microsoft in Anspruch nimmt, um das in Schwierigkeiten geratene Unternehmen wieder profitabel zu machen. Nichtsdestotrotz nimmt Apple seinen “Lieblings”-Kontrahenten und dessen “Kopierleidenschaft” auch Jahre später noch aufs Korn – mit Vorliebe in Form ironischer Werbespots.

Durchbruch und Millenium-Fluch

Zum Start von Windows 1.0 gibt es weltweit eine Basis von “lediglich” sechs Millionen Personal Computer. Erst rund fünf Jahre später, im Jahr 1990, gelingt der Software-Schmiede aus Redmond mit Windows 3.0 ein erster Erfolg. Den endgültigen Durchbruch beschert dem Unternehmen dann weitere fünf Jahre später der Release von Windows 95. Unter Windows 95 lassen sich Peripheriegeräte wie Drucker deutlich einfacher anschließen und in Betrieb nehmen. Ohne umständliche Installation von Treibersoftware kommen die Nutzer dennoch nur selten aus. Erstmals kommt Windows 1995 auch mit einem virtuellen Papierkorb auf der Schreibtischoberfläche daher – ein Icon, das Macintosh-Nutzer der ersten Stunde zu dieser Zeit längst kennen. Auch eine Verbindung zum Internet können Nutzer mit Windows 95 erstmals herstellen: mit dem Internet Explorer.

Das 1998 erschienene Windows 98 wird im Vergleich zu seinem Vorgänger nur in Details weiterentwickelt. Bei diesen Details handelt es sich konkret um die standardmäßige Einbindung des Internet Explorers in das Windows-Betriebssystem, sowie die Einführung der Schnellstartleiste und die Unterstützung der damals neuen USB-Schnittstelle. Mit der im Jahr 2000 erschienenen Windows Millenium Edition (ME) kann Microsoft bei PC-Nutzern dagegen nicht punkten. Das auf Multimedia-Support optimierte Betriebssystem soll Windows-User mit mehr Benutzerfreundlichkeit verwöhnen, in der Praxis “besticht” es vor allem mit Instabilität und mangelhafter Performance.

Windows ME gilt als einer der größten OS-Flops aus Redmond.
Foto: Microsoft

XP-Kult und Vista-Fehlschlag

Mit Windows XP erneuert Microsoft im Jahr 2001 die optische Präsentation von Windows. Und auch technisch halten viele Neuerungen Einzug. Insbesondere auf Notebooks macht Windows nun eine deutlich bessere Figur. Das weiß auch die schreibende Gilde zu schätzen: Pünktlich zum Release erhält Windows XP auch von der Presse gute Noten. Anwender schätzen insbesondere die Navigation über das Startmenü. Windows XP gibt es auch als Tablet PC Edition – aus gutem Grund: Im Jahr 2002 startet Microsoft in Kooperation mit einigen OEMs eine große Tablet-Offensive. Die Windows-Tablets können sich jedoch nur in vertikalen Märkten wie dem Gesundheitswesen etablieren. Der Support von Windows XP endet im Jahr 2014 nach 13 Jahren. Dennoch können sich viele Unternehmen, Institutionen und Privatpersonen nur schwer vom äußerst beliebten Windows-Betriebssystem trennen. Für Microsoft ist Windows XP in diesen Jahren eines der meistverkauften Produkte. Der XP-Nachfolger Windows Vista wird dagegen von vielen Experten nicht gerade als Erfolgskapitel der Windows-Geschichte angesehen. Das Windows-OS soll zunächst bereits 2003 auf den Markt kommen, fertiggestellt wird das Projekt mit dem Codenamen “Longhorn” allerdings erst Ende 2006. Mit der umfangreichen, visuellen Neugestaltung von Windows Vista will Microsoft auch ein Zeichen setzen: Apples Betriebssystem Mac OS X macht zu diesem Zeitpunkt einen deutlich frischeren, moderneren Eindruck als Windows XP. Die neue “Aero”-Oberfläche, ein neu designtes Startmenü und zeitgemäß inszenierte Icons sowie viele technische Neuerungen zeichnen Windows Vista aus. Trotzdem kommt diese Windows-Version bei vielen Kunden nicht an – Stabilität und Performance können mit den Erwartungen vieler User nicht mithalten. So landet Vista oft nur bei Endkunden, die es mit neuen Systemen erwerben. Insbesondere im Unternehmensumfeld bleibt XP das Maß der Dinge.

Windows 7 und die Solidarität mit dem Start-Button

Windows 7 gilt entsprechend als der eigentlich legitime Nachfolger von Windows XP. Gegenüber Vista kann Windows 7 in Sachen Stabilität, Performance und Nutzerfreundlichkeit bei den Nutzern schnell punkten. Auch kurz vor dem Erscheinen von Windows 10 verzeichnet Windows 7 immer noch die höchsten Marktanteile unter den Windows-Betriebssystemen.

Mit Windows 8 ändert sich die Bedienung des Betriebssystems grundlegend: Die neue Kacheloberfläche lässt sich auf touch-fähigen Geräten zwar gut bedienen, stößt aber viele Desktop-Anwender vor den Kopf, die die Änderung der Benutzerführung oft als zu radikal empfinden. Drittanbieter-Tools die die beliebte Windows-Leiste mit Start-Button zurückbringen, haben zu diesem Zeitpunkt Hochkonjunktur. Nur ein Jahr später muss Microsoft reagieren und renoviert Windows 8 grundlegend. Das Ergebnis nennt man kurzerhand Windows 8.1. Der Startbildschirm ist unter Windows 8.1 nun flexibler konfigurierbar, auf Wunsch ist nun auch wieder die klassische Windows-Desktop-Ansicht verfügbar – inklusive Startknopf. Abseits der Diskussionen um das Für und Wider der Kachel-Oberfläche geht oft unter, dass Windows 8 – und insbesondere auch Windows 8.1 – einige spannende Neuerungen an Bord haben, wie etwa Speicherpools oder Arbeitsordner.

Windows 10 und das “neue” Microsoft

Mit Windows 10 veröffentlichte Microsoft Ende Juli 2015 nicht nur einfach eine neue Windows-Version. Das aktuelle Windows-OS verkörpert die neue “One-Platform”-Strategie des Redmonder IT-Konzerns, der mit Windows 10 und Windows 10 Mobile künftig eine geräteklassenübergreifende Plattform etablieren will. Windows 10 läuft also nicht nur auf PCs, sondern auch auf Tablet-PCs, Notebooks, Windows Phones, der Spielkonsole Xbox One und dem kommenden AR-Device Hololens. Weitergeführt werden soll diese Strategie von plattformübergreifenden “Universal”-Apps. Doch auch sonst ändert sich Einiges: Windows 10 wurde als erstes OS der Windows-Geschichte allen Nutzern von Windows 7, 8 und 8.1 als kostenloses Upgrade zur Verfügung gestellt und wird kontinuierlich über Software-Updates erweitert. Das heißt bei Microsoft “Windows-as-a-Service” – und sorgt dafür, dass der traditionelle Patch-Day endgültig Geschichte ist. Dass Microsoft mit Windows 10 neue Wege beschreitet, zeigte sich bereits während des Entwicklungsprozesses: Über das “Insider Program” waren beziehungsweise sind Millionen von Anwender mit ihrem Feedback in die Entwicklung des Betriebssystems involviert.

Mit Windows 10 beschreitet Microsoft auch beim Thema Open Source neue Wege und öffnet sich der Community. So soll das Win 10 Anniversary Update auch mit integriertem Ubuntu Bash kommen, während Windows Server 2016 weitergehende Linux-Virtualisierungen erlaubt. Doch nicht nur Linux, auch andere Open-Source-Projekte werden künftig unterstützt: Sowohl das .NET-Framework, als auch die Entwicklungsumgebung Visual Studio stellt Microsoft für Entwickler kostenlos zur Verfügung.

Windows 10 Creators Update

Ende Oktober 2016 kündigt Microsoft das nächste umfassende Update für sein Betriebssystem an. Das Creators Update soll im Frühjahr 2017 gewichtige Neuerungen auf alle Windows-10-Geräte bringen – insbesondere was die Bereiche Mixed- und Virtual-Reality angeht. Geht es nach den Redmondern, soll künftig jeder Windows 10 User ganz einfach und schnell eigene 3D-Inhalte erstellen und bearbeiten können. Das soll in erster Linie über eine Erweiterung von Paint funktionieren, das künftig Paint 3D heißt. Auch beliebige, abfotografierte Objekte sollen künftig per App auf Knopfdruck in 3D-Modelle verwandelt werden können. Konsumiert werden sollen die MR- und VR-Inhalte zum einen über Microsofts Hololens, zum anderen auch über VR-Brillen diverser Partnerhersteller, etwa Lenovo, Dell und HP. Auch die Windows 10 Community soll künftig noch stärker zusammenwachsen, wenn es nach Microsoft geht. Deswegen stellen die Redmonder im Rahmen des Creators Update auch eine Schnittstelle zur Verfügung, die zahlreiche Kommunikationstools miteinander vereinen soll.

Windows 10 S und Creators Update, Part 2

Anfang Mai 2017 stellte Microsoft mit dem Surface Laptop nicht nur ein weiteres Gerät der Surface-Reihe vor, sondern enthüllte auch soll im Frühjahr 2017 gewichtige Neuerungen auf alle Windows-10-Geräte bringen – insbesondere was die Bereiche Mixed- und Virtual-Reality angeht. Geht es nach den Redmondern, soll künftig jeder Windows 10 User ganz einfach und schnell eigene 3D-Inhalte erstellen und bearbeiten können. Das soll in erster Linie über eine Erweiterung von Paint funktionieren, das künftig Paint 3D heißt. Auch beliebige, abfotografierte Objekte sollen künftig per App auf Knopfdruck in 3D-Modelle verwandelt werden können. Konsumiert werden sollen die MR- und VR-Inhalte zum einen über. Die cloudbasierte Version von Windows 10 läuft ausschließlich mit Apps aus dem Windows Store, ist jedoch upgrade-fähig. Die abgespeckte Windows-Version ist mit dem eingestellten RT vergleichbar und richtet sich in erster Linie an Bildungseinrichtungen. Schließlich will Microsoft dieses Feld nicht alleine den , zum anderen auch über VR-Brillen diverser Partnerhersteller, etwa Lenovo, Dell und HP. Auch die Windows 10 Community soll künftig noch stärker zusammenwachsen, wenn es nach Microsoft geht. Deswegen stellen die Redmonder im Rahmen des Creators Update auch eine Schnittstelle zur Verfügung, die zahlreiche Kommunikationstools miteinander vereinen soll. überlassen.

Auf der Entwicklerkonferenz Build 2017 kündigte Microsoft den Nachfolger zum Creators Update an: das Fall Creators Update. Unsere US-Kollegin Melissa Riofrio klärt Sie über die besten, neuen Features auf:

Seit April 2018 verzichtete Microsoft auf besondere Nomenklatur bei Windows 10 Updates, verbessert sein Betriebssystem aber konsequent weiter und liefert dazu im Regelfall zwei große Updates pro Jahr. Die aktuelle Version (20H2) wurde im Okotober 2020 veröffentlicht.

Aufmerksame Leser werden bemerkt haben, dass in diesem Text nicht auf jede Windows-Version eingegangen wird. Natürlich haben wir auch Windows NT, 2000 und wie sie alle heißen nicht vergessen – in unserer Bildergalerie bekommen Sie einen umfassenden Überblick über die wichtigsten Windows-Versionen.

Windows 11 21H2

Es begann mit einer überraschenden Ankündigung von Microsoft-CEO Satya Nadella auf der Entwicklerkonferenz Build 2021: “Wir werden bald eines der bedeutendsten Updates für Windows des letzten Jahrzehnts vorstellen. Ich selbst habe es in den letzten Monaten schon ausprobiert und bin unglaublich aufgeregt, was die nächste Generation von Windows betrifft.” Damit befeuerte der Manager eine regelrechte Flut an Spekulationen rund um ein neues Windows. Am 24. Juni lösten sich dann alle bis dahin noch bestehenden Rätsel. Microsoft stellte mit Windows 11 offiziell eine neue Generation seines Betriebssystems vor und erklärte, damit eine neue Ära einläuten zu wollen.

Die Idee, ein neues Windows zu bauen, entstand wohl in der Corona-Pandemie. Die vergangenen 18 Monate hätten die Art und Weise, wie Menschen den PC nutzen, komplett verändert, konstatierte Panos Panay, Chief Product Officer für den Bereich Windows und Devices bei Microsoft. Der PC habe das Leben in der Krise maßgeblich mitbestimmt. Man habe Windows 11 darauf ausgelegt, auf verschiedenen Gerätetypen zu laufen und unterschiedliche Bedienmodi zu unterstützen, hieß es von Seiten Microsofts. Beispielsweise sei der Abstand zwischen den Icons in der Taskleiste vergrößert worden, um eine Touch-Bedienung auf Tablets zu erleichtern. Auch die Erkennung von Spracheingaben sei Microsoft zufolge verbessert worden. Alle aktuell im Handel verkauften PCs und Notebooks sollen Windows-11-tauglich sein, hieß es. Wie schon beim Umstieg auf Windows 10 will Microsoft Anwendern mit der PC Health Check App ein Tool anbieten, um zu prüfen, ob ihr Rechner für das neue Windows-System geeignet ist.

Microsoft hat bei Windows 11 vor allem Design und Bedienerführung vereinfacht. Mithilfe neuer Tools wie “Snap Layouts”, “Snap Groups” und “Desktops” sollen Nutzer ihren Arbeitsplatz besser organisieren können, verspricht der Softwarehersteller. So ließen sich beispielsweise mehrere separate Arbeitsoberflächen einrichten und mit Apps und Tools bestücken – etwa für die Arbeit, den Privatbereich oder die Schule. Darüber hinaus verzahnt Microsoft Windows 11 enger mit dem in der Pandemie so erfolgreichen Communication- und Collaboration-Tool Teams.

Wieder zurück in Windows 11 sind die aus der Version 7 bekannten Widgets. Damit können Nutzer personalisierte Feeds mit beispielsweise Nachrichten oder Wetterinformationen einrichten. Der Redmonder Konzern bewirbt sein neues Betriebssystem darüber hinaus als besonders sicher. Die Architektur sei als Zero Trust angelegt, zudem sei das System Secure by Design. Wichtige Sicherheits-Features wie zum Beispiel Verschlüsselung seien von Haus aus aktiviert.

Überarbeitet hat Microsoft auch den Windows-Appstore, der laut Panay nun übersichtlicher und auch einfacher zu nutzen sein soll. Darüber hinaus ließen sich künftig auch Android-Apps über den Amazon Appstore in Windows herunterladen. App-Entwicklern winken mit Windows 11 laut Panay mehr Freiheiten. Sie könnten beliebige App-Frameworks für ihre Entwicklungen nutzen. Apps ließen sich beispielsweise als Win32-, Progressive-Web-App (PWA) oder Universal-Windows-App (UWA) in den Store einstellen.

Um mehr Entwickler auf die Windows-Plattform zu locken, hat Microsoft auch seine Abrechnungsmodalitäten angepasst: Bringt ein Entwickler seine eigene Abrechnungs-Engine mit in den Windows-Store, will der Konzern keine Gebühren verlangen. Wird die im Windows-Store von Microsoft angebotene Commerce-Service genutzt, werden 15 Prozent vom Umsatz fällig. Die erste Version von Windows 11 – 21H2 – wurde im Oktober 2021 veröffentlicht.

Windows 11 22 H2

Im September 2022 erfolgte schließlich mit der Version 22H2 das erste große Update des neuen Microsoft-Betriebssystems, das zahlreiche Überarbeitungen beziehungsweise Optimierungen beinhaltete, sowohl auf Design- als auch auf Funktionsebene. Hervorzuheben ist dabei vor allem die von den Nutzern lange herbeigesehnte Möglichkeit, innerhalb des Windows Datei-Explorers Registerkarten zu öffnen. Unsere Kollegen von der PC-Welt haben das erste Windows-Update, beziehungsweise dessen Betaversion, ausgiebig getestet und erklärt.

Windows 11 23H2

Ende Oktober 2023 veröffentlichte Microsoft schließlich die Version 23H2. Diese zeichnet sich in erster Linie durch die Integration generativer KI-Funktionen auf GPT-4-Basis aus – Stichwort Copilot. Das wirkt sich vielfältig auf diverse Bereiche des Windows-Ökosystems aus, wie eine Microsoft-Expertin in diesem Videobeitrag ausführlich erklärt.

Windows 11 24H2

Seit Oktober 2024 ist das 2024er-Update von Windows 11 allgemein verfügbar. Mit 24H2 halten zahlreiche Neuerungen in Windows 11 Einzug – insbesondere neue KI-Features (bei Copilot+-PCs). Darüber hinaus verspricht 24H2 auch WiFi-7-Support, einen optimierten Datei-Explorer sowie verbesserte Konnektivität. In der Praxis hat sich dieses Windows-Update leider vor allem dadurch ausgezeichnet, dass es bei der Nutzerbasis für umfassende (teilweise nur manuell zu lösende) Probleme gesorgt hat.

Knapp vier Jahre nach seiner Veröffentlichung ist der Erfolg von Windows 11 mit Blick auf die Nutzerakzeptanz noch ausbaufähig: Der weltweite Marktanteil des Betriebssystem liegt aktuell (Stand: Februar 2025) bei 38 Prozent. Der Vorgänger Windows 10 dominiert indes immer noch die Versionslandschaft mit 59 Prozent. (dpa/tc/mje/fm/ba)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Microsoft-Betriebssysteme: Die Windows-Geschichte von 1.0 bis 11​ Weiterlesen »

Google Pixel 9a vs. Samsung Galaxy A56: Welches Smartphone soll ich kaufen?​

Allgemein

Google/Foundry Die Pixel A-Serie von Google und die Galaxy A5-Serie von Samsung sind seit Jahren Rivalen im Bereich der Mittelklasse-Smartphones. Beide Hersteller wollen Flaggschiff-Features zu einem Bruchteil des Preises bieten. In diesem Jahr haben potenzielle Käufer die Qual der Wahl zwischen dem Google Pixel 9a und dem Samsung Galaxy A56. Beide Smartphones versprechen ein gutes Preis-Leistungs-Verhältnis, gehen dabei aber unterschiedliche Wege. Das Pixel 9a konzentriert sich darauf, ein ähnliches Erlebnis wie das Pixel 9 zu einem günstigeren Preis zu bieten, mit den KI-Funktionen von Google und hervorragenden Kameras. Das Galaxy A56 hingegen folgt der Samsung-Formel: hochwertiges Design, solide Hardware und ein bisschen Galaxy AI. Während Galaxy A56 bei Amazon bereits ab 479 Euro erhältlich ist, ist das Pixel 9a mit 549 Euro ein wenig teurer. Um Ihnen die Kaufentscheidung zu erleichtern, vergleichen wir die beiden Smartphones im Folgenden direkt miteinander. Das Galaxy A56 konnte ich bereits testen, die Informationen zum Pixel 9a basieren auf Infos von Google. Design & Display Sowohl das Pixel 9a als auch das Galaxy A56 orientieren sich am Design ihrer Flaggschiff-Geschwister, verfolgen aber jeweils einen etwas anderen Ansatz, um dem Mittelklasse-Anspruch gerecht zu werden. Das Pixel 9a wurde im Vergleich zum Pixel 8a deutlich überarbeitet. Es tauscht die für Google typische Kameraleiste gegen ein dezenteres, ovales Modul auf der Rückseite aus. Dieser aufgeräumte Look wird durch eine matte Rückseite aus Verbundmaterial und einen flachen Aluminiumrahmen ergänzt. Er verleiht dem Gerät ein leichtes und dennoch hochwertiges Aussehen. Es ist in vier Farben erhältlich: Obsidian, Porcelain, Peony und das brandneue Iris. Mit einer Größe von 6,3 Zoll bietet das Smartphone ein ausgewogenes Verhältnis zwischen Handlichkeit und Bildschirmgröße. Google Mit dem Galaxy A56 bleibt Samsung hingegen beim Vorgänger-Design, auch wenn es subtile Verbesserungen gibt. Es verwendet sowohl auf der Vorder- als auch auf der Rückseite Gorilla Glass Victus, gepaart mit einem flachen Aluminiumrahmen. Die rückwärtigen Kameras befinden sich jetzt in einem einheitlichen Kamerabuckel, und es gibt eine neue “Tasteninsel” für die Power und Lautstärke. Mit einem 6,7-Zoll-Bildschirm ist es etwas größer und schwerer, aber mit einer Dicke von nur 7,4 Millimetern beeindruckend schlank. Sie können es in den Farben Pink, Olive, Lightgrey und Graphite kaufen. Samsung Google Was die Display-Qualität betrifft, so sind beide Smartphones starke Konkurrenten. Das Pixel 9a verfügt über ein helles 6,3 Zoll großes Actua-OLED-Display mit Full-HD-Auflösung und einer Bildwiederholfrequenz von 120 Hertz. Es erreicht eine beeindruckende Spitzenhelligkeit von 2.700 Nits, was eine hervorragende Sichtbarkeit im Freien verspricht. Das Samsung Galaxy A56 hat die gleiche Bildwiederholfrequenz mit einem 6,7-Zoll-Super AMOLED-Display und erreicht eine etwas geringere Spitzenhelligkeit von 1.900 Nits. Die Farben sind bei beiden Modellen leuchtend und die Blickwinkel dürften hervorragend sein. Die höhere Helligkeit des Pixels gibt ihm jedoch den Vorzug, zumal es auch eine bessere Farbwiedergabe verspricht. Akkulaufzeit & Aufladen Die Akkulaufzeit ist ein häufiger Punkt, an dem sich Mittelklasse-Handys unterscheiden. Auch das Pixel 9a und das Galaxy A56 verfolgen hier unterschiedliche Ansätze. Das Pixel 9a verfügt über einen 5.100-Milliamperestunden-Akku, der sogar größer ist als der des Pixel 9. Google behauptet, dass er bei regelmäßiger Nutzung über 30 Stunden hält. Mit dem Modus “Extreme Battery Saver” können Sie diese Zeit theoretisch auf 100 Stunden verlängern. In der Praxis sollte er bequem ein bis zwei Tage durchhalten. Die Ladegeschwindigkeiten sind mit 18 Watt kabelgebundenem und standardmäßigem kabellosem Qi-Laden nicht bahnbrechend, aber die Ausdauer des Akkus macht diesen Minuspunkt wieder wett. Das Galaxy A56 hat einen etwas kleineren Akku mit 5.000 Milliamperestunden. Auch hier können Sie eine ganztägige Akkulaufzeit erwarten, wobei der energieeffiziente Exynos 1580 Chipsatz von Samsung seinen Teil dazu beiträgt. Der Clou sind die Ladegeschwindigkeiten. Das kabelgebundene Aufladen erreicht eine Höchstleistung von 45 Watt und ist damit doppelt so schnell wie beim Pixel 9a. Allerdings wird kein kabelloses Laden angeboten, was in dieser Preisklasse ein Manko ist. Beide Smartphones bieten eine zuverlässige Akkulaufzeit. Wenn Sie schneller aufladen möchten, ist das Galaxy A56 im Vorteil. Software-Updates Bei der Softwareunterstützung können beide Smartphones überzeugen. Das Pixel 9a läuft ab Werk mit Android 15 und wird mit dem Versprechen von Google geliefert, sieben Jahre lang die wichtigsten Android-Versionen, Pixel Feature Drops und Sicherheitsupdates zu erhalten. Das ist der längste Support-Zeitraum, den es im Moment für Android gibt und entspricht dem Engagement, das auch die Flaggschiffe von Google bieten. Google Samsung Samsung ist nicht weit davon entfernt. Das Galaxy A56 wird mit Android 14 und One UI 7 ausgeliefert und erhält sechs Jahre lang Software-Support – sowohl für Android-Versions-Updates als auch für Sicherheitspatches. Samsungs One UI ist eine der raffiniertesten Android-Oberflächen, die es gibt, und bietet eine breite Palette an Funktionen und Anpassungsmöglichkeiten. Das A56 verzichtet jedoch auf viele der Galaxy AI-Tools, die Sie in Samsungs Flaggschiff Galaxy S25-Serie finden. Wenn Sie die längste Software-Unterstützung suchen, hat das Pixel 9a die Nase vorn. Aber beide Smartphones sind eine ausgezeichnete Wahl, wenn Sie Ihr Gerät langfristig behalten möchten. Kameras Die Kameraleistung ist ein weiterer entscheidender Faktor. Der 48-Megapixel-Hauptsensor des Pixel 9a verspricht in Kombination mit der Bildverarbeitung von Google unter den meisten Bedingungen hervorragende Fotos. Erwarten Sie, dass “Night Sight” bei schlechten Lichtverhältnissen Wunder wirkt, und mit den Magic Editor-Tools, die wir bei anderen Pixels getestet haben, können Sie Ihre Fotos ganz einfach nachbearbeiten. Sie erhalten außerdem eine 13-Megapixel-Ultraweit-Kamera und eine 13-Megapixel-Selfie-Kamera, die beide 4K-Videos aufnehmen können. Google Samsung Das Samsung Galaxy A56 hat eine 50-Megapixel-Hauptkamera, eine 12-Megapixel-Ultraweit-Kamera und eine 5-Megapixel-Makrolinse. Der Hauptsensor macht bei Tageslicht ordentliche Aufnahmen, hat aber bei schlechten Lichtverhältnissen etwas mehr zu kämpfen. Wir erwarten, dass das Pixel hier besser abschneidet. Die 12-Megapixel-Frontkamera eignet sich gut für Selfies und Videotelefonate, bietet aber keine 4K-Videos. Weitere Unterschiede Sie können von beiden Geräten eine solide Leistung erwarten, aber es gibt einige wichtige Unterschiede, die Sie beachten sollten. Das Pixel 9a wird von Googles Tensor G4 Chipsatz angetrieben, gepaart mit 8 Gigabyte RAM. Er ist nicht der schnellste Chip auf dem Markt, aber er ist auf KI-Aufgaben abgestimmt und eng in Android integriert, was eine reibungslose Nutzung im Alltag gewährleistet. Wir haben ihn auf dem Pixel 9 verwendet und waren beeindruckt. Sie erhalten außerdem Zugang zu Googles kompletter Suite von Gemini AI-Funktionen, einschließlich Circle to Search, Gemini Live und Pixel Studio. Das Galaxy A56 verwendet Samsungs Exynos 1580 Chip, ebenfalls gepaart mit 8 Gigabyte RAM. Er liefert eine respektable Leistung für alltägliche Aufgaben und gelegentliche Games, ist aber bei GPU-intensiven Aufgaben einen Schritt zurück. Die KI-Funktionen sind im Vergleich zum Pixel begrenzt, und Samsung behält seine besten Tools für die Galaxy-S-Reihe vor. Das Pixel 9a ist außerdem nach IP68 zertifiziert und bietet damit eine bessere Wasser- und Staubresistenz als das Galaxy A56 (IP67). Keines der beiden Smartphones verfügt über einen microSD-Kartenslot. Beide sind mit 128 oder 256 Gigabyte Speicher erhältlich. Preis & Verfügbarkeit Das Pixel 9a kostet bei Google mit 128 Gigabyte Speicher 549 Euro kosten, die Version mit 256 Gigabyte schlägt mit 649 Euro zu Buche. Als Farboptionen stehen Iris, Peony, Porcelain und Obsidian zur Auswahl. Das Smartphone kommt offiziell Anfang April auf den Markt. Das Galaxy A56 kostet in der Version mit 128 Gigabyte Speicher 479 Euro. Zum gleichen Preis steht aktuell auch die 256-Gigabyte-Ausführung zur Verfügung. Bei den Farben können Sie zwischen Pink, Olive, Lightgrey und Graphite wählen. Da sich die Preise nur um etwa 70 Euro unterscheiden, hängt die Kaufentscheidung davon ab, welches Ökosystem Sie bevorzugen und welche Funktionen Ihnen wichtiger sind. Fazit Das Pixel 9a und das Galaxy A56 bieten beide ein beeindruckendes Preis-Leistungs-Verhältnis, aber sie sprechen unterschiedliche Nutzer an. Das Pixel 9a verspricht ein besseres Kameraerlebnis, längeren Software-Support und ein helleres Display in einem kompakteren Formfaktor. Es ist eine gute Wahl, wenn Sie Wert auf Fotografie, KI-Funktionen und lange Software-Unterstützung legen. Das Galaxy A56 bietet ein größeres Display, schnelleres kabelgebundenes Laden und ein Design, das sich eng an die Premium Galaxy S-Serie von Samsung anlehnt. Es ist ideal für Nutzer, die Samsungs One UI bevorzugen und ein größeres Smartphone wollen, ohne für ein Flaggschiff zu bezahlen. Für die meisten Nutzer ist das Pixel 9a mit seiner Kombination aus Kamera und langlebiger Software die bessere Wahl. Aber wenn Sie Wert auf ein größeres Display und schnellere Ladezeiten legen, ist das A56 immer noch eine solide Wahl. (PC-Welt) 

Google Pixel 9a vs. Samsung Galaxy A56: Welches Smartphone soll ich kaufen?​ Google/Foundry

Die Pixel A-Serie von Google und die Galaxy A5-Serie von Samsung sind seit Jahren Rivalen im Bereich der Mittelklasse-Smartphones. Beide Hersteller wollen Flaggschiff-Features zu einem Bruchteil des Preises bieten.

In diesem Jahr haben potenzielle Käufer die Qual der Wahl zwischen dem Google Pixel 9a und dem Samsung Galaxy A56. Beide Smartphones versprechen ein gutes Preis-Leistungs-Verhältnis, gehen dabei aber unterschiedliche Wege.

Das Pixel 9a konzentriert sich darauf, ein ähnliches Erlebnis wie das Pixel 9 zu einem günstigeren Preis zu bieten, mit den KI-Funktionen von Google und hervorragenden Kameras. Das Galaxy A56 hingegen folgt der Samsung-Formel: hochwertiges Design, solide Hardware und ein bisschen Galaxy AI.

Während Galaxy A56 bei Amazon bereits ab 479 Euro erhältlich ist, ist das Pixel 9a mit 549 Euro ein wenig teurer. Um Ihnen die Kaufentscheidung zu erleichtern, vergleichen wir die beiden Smartphones im Folgenden direkt miteinander.

Das Galaxy A56 konnte ich bereits testen, die Informationen zum Pixel 9a basieren auf Infos von Google.

Design & Display

Sowohl das Pixel 9a als auch das Galaxy A56 orientieren sich am Design ihrer Flaggschiff-Geschwister, verfolgen aber jeweils einen etwas anderen Ansatz, um dem Mittelklasse-Anspruch gerecht zu werden.

Das Pixel 9a wurde im Vergleich zum Pixel 8a deutlich überarbeitet. Es tauscht die für Google typische Kameraleiste gegen ein dezenteres, ovales Modul auf der Rückseite aus. Dieser aufgeräumte Look wird durch eine matte Rückseite aus Verbundmaterial und einen flachen Aluminiumrahmen ergänzt.

Er verleiht dem Gerät ein leichtes und dennoch hochwertiges Aussehen. Es ist in vier Farben erhältlich: Obsidian, Porcelain, Peony und das brandneue Iris. Mit einer Größe von 6,3 Zoll bietet das Smartphone ein ausgewogenes Verhältnis zwischen Handlichkeit und Bildschirmgröße.

Google

Mit dem Galaxy A56 bleibt Samsung hingegen beim Vorgänger-Design, auch wenn es subtile Verbesserungen gibt. Es verwendet sowohl auf der Vorder- als auch auf der Rückseite Gorilla Glass Victus, gepaart mit einem flachen Aluminiumrahmen.

Die rückwärtigen Kameras befinden sich jetzt in einem einheitlichen Kamerabuckel, und es gibt eine neue “Tasteninsel” für die Power und Lautstärke. Mit einem 6,7-Zoll-Bildschirm ist es etwas größer und schwerer, aber mit einer Dicke von nur 7,4 Millimetern beeindruckend schlank. Sie können es in den Farben Pink, Olive, Lightgrey und Graphite kaufen.

Samsung

Google

Was die Display-Qualität betrifft, so sind beide Smartphones starke Konkurrenten. Das Pixel 9a verfügt über ein helles 6,3 Zoll großes Actua-OLED-Display mit Full-HD-Auflösung und einer Bildwiederholfrequenz von 120 Hertz. Es erreicht eine beeindruckende Spitzenhelligkeit von 2.700 Nits, was eine hervorragende Sichtbarkeit im Freien verspricht.

Das Samsung Galaxy A56 hat die gleiche Bildwiederholfrequenz mit einem 6,7-Zoll-Super AMOLED-Display und erreicht eine etwas geringere Spitzenhelligkeit von 1.900 Nits.

Die Farben sind bei beiden Modellen leuchtend und die Blickwinkel dürften hervorragend sein. Die höhere Helligkeit des Pixels gibt ihm jedoch den Vorzug, zumal es auch eine bessere Farbwiedergabe verspricht.

Akkulaufzeit & Aufladen

Die Akkulaufzeit ist ein häufiger Punkt, an dem sich Mittelklasse-Handys unterscheiden. Auch das Pixel 9a und das Galaxy A56 verfolgen hier unterschiedliche Ansätze.

Das Pixel 9a verfügt über einen 5.100-Milliamperestunden-Akku, der sogar größer ist als der des Pixel 9. Google behauptet, dass er bei regelmäßiger Nutzung über 30 Stunden hält. Mit dem Modus “Extreme Battery Saver” können Sie diese Zeit theoretisch auf 100 Stunden verlängern.

In der Praxis sollte er bequem ein bis zwei Tage durchhalten. Die Ladegeschwindigkeiten sind mit 18 Watt kabelgebundenem und standardmäßigem kabellosem Qi-Laden nicht bahnbrechend, aber die Ausdauer des Akkus macht diesen Minuspunkt wieder wett.

Das Galaxy A56 hat einen etwas kleineren Akku mit 5.000 Milliamperestunden. Auch hier können Sie eine ganztägige Akkulaufzeit erwarten, wobei der energieeffiziente Exynos 1580 Chipsatz von Samsung seinen Teil dazu beiträgt. Der Clou sind die Ladegeschwindigkeiten. Das kabelgebundene Aufladen erreicht eine Höchstleistung von 45 Watt und ist damit doppelt so schnell wie beim Pixel 9a. Allerdings wird kein kabelloses Laden angeboten, was in dieser Preisklasse ein Manko ist.

Beide Smartphones bieten eine zuverlässige Akkulaufzeit. Wenn Sie schneller aufladen möchten, ist das Galaxy A56 im Vorteil.

Software-Updates

Bei der Softwareunterstützung können beide Smartphones überzeugen.

Das Pixel 9a läuft ab Werk mit Android 15 und wird mit dem Versprechen von Google geliefert, sieben Jahre lang die wichtigsten Android-Versionen, Pixel Feature Drops und Sicherheitsupdates zu erhalten. Das ist der längste Support-Zeitraum, den es im Moment für Android gibt und entspricht dem Engagement, das auch die Flaggschiffe von Google bieten.

Google

Samsung

Samsung ist nicht weit davon entfernt. Das Galaxy A56 wird mit Android 14 und One UI 7 ausgeliefert und erhält sechs Jahre lang Software-Support – sowohl für Android-Versions-Updates als auch für Sicherheitspatches.

Samsungs One UI ist eine der raffiniertesten Android-Oberflächen, die es gibt, und bietet eine breite Palette an Funktionen und Anpassungsmöglichkeiten. Das A56 verzichtet jedoch auf viele der Galaxy AI-Tools, die Sie in Samsungs Flaggschiff Galaxy S25-Serie finden.

Wenn Sie die längste Software-Unterstützung suchen, hat das Pixel 9a die Nase vorn. Aber beide Smartphones sind eine ausgezeichnete Wahl, wenn Sie Ihr Gerät langfristig behalten möchten.

Kameras

Die Kameraleistung ist ein weiterer entscheidender Faktor. Der 48-Megapixel-Hauptsensor des Pixel 9a verspricht in Kombination mit der Bildverarbeitung von Google unter den meisten Bedingungen hervorragende Fotos.

Erwarten Sie, dass “Night Sight” bei schlechten Lichtverhältnissen Wunder wirkt, und mit den Magic Editor-Tools, die wir bei anderen Pixels getestet haben, können Sie Ihre Fotos ganz einfach nachbearbeiten. Sie erhalten außerdem eine 13-Megapixel-Ultraweit-Kamera und eine 13-Megapixel-Selfie-Kamera, die beide 4K-Videos aufnehmen können.

Google

Samsung

Das Samsung Galaxy A56 hat eine 50-Megapixel-Hauptkamera, eine 12-Megapixel-Ultraweit-Kamera und eine 5-Megapixel-Makrolinse. Der Hauptsensor macht bei Tageslicht ordentliche Aufnahmen, hat aber bei schlechten Lichtverhältnissen etwas mehr zu kämpfen.

Wir erwarten, dass das Pixel hier besser abschneidet. Die 12-Megapixel-Frontkamera eignet sich gut für Selfies und Videotelefonate, bietet aber keine 4K-Videos.

Weitere Unterschiede

Sie können von beiden Geräten eine solide Leistung erwarten, aber es gibt einige wichtige Unterschiede, die Sie beachten sollten.

Das Pixel 9a wird von Googles Tensor G4 Chipsatz angetrieben, gepaart mit 8 Gigabyte RAM. Er ist nicht der schnellste Chip auf dem Markt, aber er ist auf KI-Aufgaben abgestimmt und eng in Android integriert, was eine reibungslose Nutzung im Alltag gewährleistet.

Wir haben ihn auf dem Pixel 9 verwendet und waren beeindruckt. Sie erhalten außerdem Zugang zu Googles kompletter Suite von Gemini AI-Funktionen, einschließlich Circle to Search, Gemini Live und Pixel Studio.

Das Galaxy A56 verwendet Samsungs Exynos 1580 Chip, ebenfalls gepaart mit 8 Gigabyte RAM. Er liefert eine respektable Leistung für alltägliche Aufgaben und gelegentliche Games, ist aber bei GPU-intensiven Aufgaben einen Schritt zurück. Die KI-Funktionen sind im Vergleich zum Pixel begrenzt, und Samsung behält seine besten Tools für die Galaxy-S-Reihe vor.

Das Pixel 9a ist außerdem nach IP68 zertifiziert und bietet damit eine bessere Wasser- und Staubresistenz als das Galaxy A56 (IP67). Keines der beiden Smartphones verfügt über einen microSD-Kartenslot. Beide sind mit 128 oder 256 Gigabyte Speicher erhältlich.

Preis & Verfügbarkeit

Das Pixel 9a kostet bei Google mit 128 Gigabyte Speicher 549 Euro kosten, die Version mit 256 Gigabyte schlägt mit 649 Euro zu Buche. Als Farboptionen stehen Iris, Peony, Porcelain und Obsidian zur Auswahl. Das Smartphone kommt offiziell Anfang April auf den Markt.

Das Galaxy A56 kostet in der Version mit 128 Gigabyte Speicher 479 Euro. Zum gleichen Preis steht aktuell auch die 256-Gigabyte-Ausführung zur Verfügung. Bei den Farben können Sie zwischen Pink, Olive, Lightgrey und Graphite wählen.

Da sich die Preise nur um etwa 70 Euro unterscheiden, hängt die Kaufentscheidung davon ab, welches Ökosystem Sie bevorzugen und welche Funktionen Ihnen wichtiger sind.

Fazit

Das Pixel 9a und das Galaxy A56 bieten beide ein beeindruckendes Preis-Leistungs-Verhältnis, aber sie sprechen unterschiedliche Nutzer an.

Das Pixel 9a verspricht ein besseres Kameraerlebnis, längeren Software-Support und ein helleres Display in einem kompakteren Formfaktor. Es ist eine gute Wahl, wenn Sie Wert auf Fotografie, KI-Funktionen und lange Software-Unterstützung legen.

Das Galaxy A56 bietet ein größeres Display, schnelleres kabelgebundenes Laden und ein Design, das sich eng an die Premium Galaxy S-Serie von Samsung anlehnt. Es ist ideal für Nutzer, die Samsungs One UI bevorzugen und ein größeres Smartphone wollen, ohne für ein Flaggschiff zu bezahlen.

Für die meisten Nutzer ist das Pixel 9a mit seiner Kombination aus Kamera und langlebiger Software die bessere Wahl. Aber wenn Sie Wert auf ein größeres Display und schnellere Ladezeiten legen, ist das A56 immer noch eine solide Wahl.

(PC-Welt)

Google Pixel 9a vs. Samsung Galaxy A56: Welches Smartphone soll ich kaufen?​ Weiterlesen »

Xiaomi 15 Ultra im Test: Die Meisterklasse der Smartphone-Fotografie​

Allgemein

Dominik Tomaszewski / Foundry Auf einen Blick Pro Unglaubliche Kameraleistung Ausgezeichneter Bildschirm Solide Akkulaufzeit & schnelles Aufladen Flotte Leistung Kontra Einige Rückschritte beim Design Nicht die beste Android-Oberfläche Mittelmäßige KI-Funktionen Fazit Das Xiaomi 15 Ultra ist ein erstklassiges Flaggschiff-Smartphone, das mit zahlreichen Upgrades gegenüber seinem Vorgänger punktet. Besonders die Kamera hebt es von Konkurrenten wie Samsung, Apple und Google ab. In Kombination mit dem Photography Kit setzt es neue Maßstäbe und gilt derzeit als das beste Kamera-Smartphone auf dem Markt. Allerdings trüben einige fragwürdige Designänderungen und vorinstallierte Bloatware das Gesamtbild. Xiaomi will mit seinem 15 Ultra erneut den Titel des besten Foto-Smartphones für sich beanspruchen. Nach dem exzellenten Xiaomi 14 Ultra und der starken Konkurrenz durch das Samsung Galaxy S25 Ultra und das Apple iPhone 16 Pro Max muss sich das Gerät anstrengen, diesem Titel gerecht zu werden. Wie bei vielen anderen Flaggschiff-Smartphones in diesem Jahr gibt es im Vergleich zum Vorgänger keine bahnbrechenden Neuerungen. Das Xiaomi 15 Ultra ist aber dennoch eines der besten Smartphones, die Sie aktuell kaufen können. Und das gilt nicht nur in Bezug auf seine Foto-Features. Mit einer UVP in Höhe von 1.499,90 Euro ist das Xiaomi 15 Ultra kein Schnäppchen. Es bietet jedoch standardmäßig doppelt so viel Speicherplatz wie die wichtigsten Konkurrenten. Wie sich das Smartphone in unserem Test schlägt, lesen Sie in den folgenden Zeilen. Design & Verarbeitung Neue Farben Ein wahres Leistungsmonster Optionales Fotografie-Kit Im Großen und Ganzen sieht das Xiaomi 15 Ultra aus wie sein Vorgänger und fühlt sich auch so an. Wie bei vielen Konkurrenten handelt es sich eher um kleine Optimierungen als um eine große Designüberarbeitung. Wie schon beim Vorgänger ist das riesige runde “Vulkan”-Kameramodul auf der Rückseite auch beim 15 Ultra der Hingucker. Im Allgemeinen würde ich einen kleineren Kamerabuckel bevorzugen. Da es sich beim 15 Ultra jedoch um ein Kamera-Smartphone handelt, bekommt es in diesem Bereich von mir einen Freifahrtschein. Dominik Tomaszewski / Foundry Der Kamerabuckel selbst ist nicht nur groß, sondern besteht auch aus einem Stück Gorilla Glass 7i, umgeben von einem Rahmen mit Nanotextur und einem roten Ring. Das ist zumindest bei meinem schwarzen Modell der Fall. Die weiße Variante und das neue zweifarbige Silver-Chrome-Modell haben keinen roten Ring. Ich bevorzuge die trapezförmige Anordnung der Linsen auf dem 14 Ultra, aber das ist nur ein kleiner Kritikpunkt. Auch von der Rückseite bin ich nicht wirklich begeistert. Die neue Glasoberfläche der schwarzen Variante ist extrem rutschig. Dominik Tomaszewski / Foundry Abgesehen davon fühlt sich das 15 Ultra sehr hochwertig an. Ich mag die schraffierte Einschalttaste, den Aluminiumrahmen und die abgeschrägten Kanten, die dem Trend zu vollkommen flachen Seiten entgegenwirken. Das 15 Ultra hat im Vergleich zum iPhone 16 leider keine eigene Kamerataste. Dafür bietet Xiaomi jedoch wieder ein Fotografie-Kit an (dazu später mehr). Sie erhalten Xiaomi Shield Glass 2.0 auf der Vorderseite und eine IP68-Zertifizierung gegen Staub und Wasser. Insgesamt fühlt sich das Smartphone gut verarbeitet und sehr robust an. Eine transparente Silikonhülle ist in der Verpackung enthalten. Allerdings ist es mit 226 Gramm (oder 229 Gramm bei der Silver-Chrome-Ausführung) ziemlich schwer. Bildschirm & Lautsprecher 6,73-Zoll-AMOLED 1 – 120 Hertz Bildwiederholfrequenz All Around Liquid Display Stereo-Lautsprecher Das Display des Xiaomi 15 Ultra ist mit dem des Vorgängers identisch. Sie erhalten ein großes 6,73-Zoll-AMOLED-Panel mit einer Auflösung von 3.200 × 1.400 Pixeln (522 Pixel pro Zoll) und einer dynamischen Bildwiederholfrequenz von 1 bis 120 Hertz. Ein kleines Upgrade in diesem Jahr ist die höhere Spitzenhelligkeit von 3.200 Nits. Beim 14 Ultra waren es 3.000 Nits. Dominik Tomaszewski / Foundry Es ist keine Überraschung, dass Xiaomi dieses hervorragende Display beibehält. Ich liebe nach wie vor das All Around Liquid Design, was im Wesentlichen bedeutet, dass das Glas auf der Vorderseite an den Rändern gewölbt ist, während das Panel darunter flach ist. Das Display ist gestochen scharf, hat kräftige Farben, einen ausgezeichneten Kontrast und eine enorme Helligkeit. Das Display des Xiaomi 15 ist mit seinen 6,36 Zoll jedoch ein wenig handlicher. Eine wichtige Neuerung ist der Ultraschall-Fingerabdrucksensor. Ich fand den des 14 Ultra bereits sehr gut, aber die neue Version ist zweifelsohne superschnell und zuverlässig. Wie beim 14 Ultra sind die Stereolautsprecher beeindruckend und bieten eine hervorragende Klarheit. Sie gehören zu den besten Lautsprechern, die ich je bei einem Handy getestet habe. Das 15 Ultra bietet außerdem Hi-Res und Hi-Res Audio Wireless Zertifizierungen. Spezifikationen & Leistung Snapdragon 8 Elite 16 GB RAM 512 GB Speicher neueste Konnektivitätsfeatures Es ist keine Überraschung, dass das Xiaomi 15 Ultra mit einem Qualcomm Snapdragon 8 Elite Chipsatz ausgestattet ist. Sie erhalten 16 Gigabyte Arbeitsspeicher und wahlweise 512 Gigabyte internen UFS 4.1-Speicher. Die Leistung ist erstklassig, und das 15 Ultra bewältigt alltägliche Aufgaben ohne Probleme. Alles läuft seidenweich und blitzschnell. Das Smartphone verfügt über eine RAM-Erweiterungsfunktion, mit der Sie theoretisch zusätzliche 6 Gigabyte hinzufügen können. Dabei wird ein Teil des internen Speicherplatzes als “virtueller RAM” genutzt. Diese Funktion war bei meinem Testgerät standardmäßig aktiviert. Dominik Tomaszewski / Foundry Natürlich liegt der Schwerpunkt auf den Kamerafähigkeiten, aber mit dem exzellenten Display und dem leistungsstarken Chipsatz ist das 15 Ultra auch ein ausgezeichnetes Gaming-Smartphone. Der größte Nachteil in dieser Hinsicht ist der Kamerabuckel, der im Weg ist, wenn Sie es im Hochformat halten. Das 3D-Dual-Channel-IceLoop-Kühlsystem leistet gute Arbeit und verhindert, dass das Handy bei anspruchsvollen Aufgaben zu heiß wird. Die übrigen Kernspezifikationen sind stark, angefangen bei Wi-Fi 7 sowie einem Upgrade auf Bluetooth 6.0 und Dual-SIM, das jetzt auch eSIM umfasst. Sie erhalten auch wieder einen IR-Blaster, den ich persönlich sehr mag. Xiaomi 15 Ultra Benchmarks Kameras Vier Kameras auf der Rückseite Neues 200-MP-Periskop-Teleobjektiv 32-MP-Frontkamera Separat erhältliches Fotografie-Kit Das Xiaomi 15 Ultra will mit seinen fünf Kameras, von denen sich vier auf der Rückseite befinden, an der Spitze der mobilen Fotografie stehen. Auch beim 15 Ultra wurden die Kameras wieder in Zusammenarbeit mit Leica entwickelt. Die wichtigste Neuerung ist das 200-Megapixel-Periskop-Teleobjektiv. Es hat einen kürzeren 4,3-fachen Zoom als das fünffache des 14 Ultra. Dafür bietet es einen größeren Sensor, eine höhere Auflösung und eine schnellere Blendenöffnung. Xiaomi behauptet, dass das Gesamtergebnis besser ist, insbesondere bei schlechten Lichtverhältnissen. Die anderen drei rückwärtigen Kameras bleiben bei 50 Megapixeln und bieten eine Kombination aus Hauptkamera, Ultraweitwinkelkamera und einer Floating-Telekamera. Die Spezifikationen sind mit denen des 14 Ultra nahezu identisch. Die variable Blende der Hauptkamera wurde jedoch mit einer festen f/1,63 Blende ersetzt. Die Idee dahinter ist, ein DSLR-ähnliches Erlebnis zu bieten, bei dem mehrere Brennweiten (oder Objektive) zur Verfügung stehen, ohne dass man die gesamte Ausrüstung mitschleppen und die Objektive für verschiedene Aufnahmen austauschen muss. Dominik Tomaszewski / Foundry Xiaomi hat auch bei der Kamera-App wieder gute Arbeit geleistet. Sie bietet sowohl eine einfach zu bedienende Reihe von Schaltflächen und Werkzeugen als auch einen Pro-Modus. Sie müssen kein Fotoexperte sein, um mit dem 15 Ultra großartige Aufnahmen zu machen. Probieren Sie einfach, je nach Motiv, die unterschiedlichen Brennweiten aus. Bis zu einem gewissen Grad wählt das 15 Ultra die richtige Kamera für Sie aus. Es schaltet etwa automatisch in den Makromodus, wenn Sie nah an ein Motiv herangehen. Sie müssen also nicht unbedingt wissen, was eine 23- oder 35-Millimeter-Brennweite ist. Genau wie bei der 14 Ultra sind die Ergebnisse wirklich sehr beeindruckend. Xiaomi und Leica haben bei der Konsistenz der vier Kameras besonders gute Arbeit geleistet. Besonders die Farbgenauigkeit kann sich sehen lassen. Ein Problem, mit dem viele Smartphones seit Jahren zu kämpfen haben. Sie können mit jeder Kamera knipsen und sicher sein, dass Sie ein detailliertes, gut belichtetes Bild mit einem ausgezeichneten Dynamikumfang erhalten. Sie haben außerdem die Wahl aus den Farbmodi Leica Authentic und Vibrant. Ich würde sagen, dass das Ultrawide-Objektiv das schwächste der vier ist. Das ist nicht überraschend, denn diese Linse ist die einzige ohne optische Bildstabilisierung (OIS). Sie weist außerdem schwächere Spezifikationen auf. Sie ist keineswegs schlecht, aber die anderen sind beeindruckender und werden wahrscheinlich ohnehin häufiger verwendet. Ich habe die Hauptkamera und das dreifache Teleobjektiv am meisten benutzt. Allerdings finde ich es schade, dass die variable Blende des Hauptobjektivs weggefallen ist. Die feste Blende f/1,63 sorgt für eine extrem geringe Schärfentiefe, was in vielen Situationen zu viel sein kann. Für Porträts ist die Kamera jedoch ausgezeichnet geeignet. Im Porträt-Modus können Sie zudem zwischen Master Portrait und Leica Portrait mit verschiedenen Einstellungen wählen. Wie bereits erwähnt, ist das neue 200-Megapixel-Periskop-Teleobjektiv die wichtigste Neuerung in diesem Jahr. Obwohl es nur einen 4,3-fachen statt eines fünffachen Zooms bietet, habe ich das nicht als Problem empfunden. Der Detailreichtum ist potenziell fantastisch (wenn man die Kamera ruhig genug halten kann). Die Brennweite entspricht 100 Millimetern, und Sie können bei Bedarf digital noch viel weiter zoomen und dabei brauchbare Ergebnisse erzielen. Die Leistung bei schlechten Lichtverhältnissen ist ausgezeichnet. Auch die Frontkamera ist solide und bietet viele Details, einen automatischen Bildausschnitt je nach Anzahl der Personen auf dem Foto, einen einstellbaren Porträtmodus und vieles mehr. Auch bei den Videos ist das Smartphone nicht zu schlagen: Sie können mit bis zu 8K bei 30 Bildern pro Sekunde aufnehmen und haben verschiedene Einstellungen zur Verfügung. Meine Testaufnahmen waren unglaublich flüssig, detailliert und farbenfroh. Eine Anmerkung zum Fotografie-Kit, das ich kurz getestet habe und demnächst separat vorstellen werde: In diesem Jahr heißt es “Legend Edition”. Es ist im Wesentlichen dasselbe wie beim 14 Ultra und kostet 199,90 Euro. Das Kit funktioniert wie eine Smartphone-Hülle und wird mit dem USB-C-Anschluss des Smartphones verbunden. Damit können Sie das 15 Ultra wie eine echte Kamera halten und bekommen zusätzliche Bedienelemente wie einen Zoom, einen zweistufigen Auslöser, ein Einstellrad und eine Videoaufnahmetaste. Außerdem gibt es eine Auswahl an abnehmbaren Ringen und einen abnehmbaren Daumengriff, zwei verschiedene optionale Auslöser und einen integrierten Akku mit 2.000 Milliamperestunden. Bei den ersten Tests hatte ich einige kleine Probleme, wie die wackelige Zoomsteuerung (die beim Vorgänger zuverlässiger war). Dennoch ist es ein herausragendes Zubehör, das das 15 Ultra in eine richtige Kamera verwandelt. Akkulaufzeit & Aufladen 5.410 mAh Akku 90 Watt kabelgebundenes Laden 80 Watt kabelloses Laden Die Ladegeschwindigkeiten von 90 und 80 Watt für kabelgebundenes und kabelloses Laden sind identisch mit denen des 14 Ultra aus dem letzten Jahr. Der Akku selbst ist mit 5.410 Milliamperestunden (statt 5.000) größer. Im PCMark-Akkutest hielt das 15 Ultra beeindruckende 17 Stunden durch. Das sind über viereinhalb Stunden mehr als beim Vorgänger. Es wäre natürlich schön, wenn Xiaomi mehr Siliziumkarbid (SiC)-Technologie einsetzen würde, um die Kapazität noch weiter zu steigern – wie beim OnePlus 13. Die Ausdauer ist jedoch sehr solide. Ich kann das Smartphone problemlos zwei Tage lang nutzen, wenn ich es nicht übermäßig für anspruchsvolle Aufgaben einsetze. Dominik Tomaszewski / Foundry Es ist verständlich, dass Xiaomi die Ladegeschwindigkeiten beibehalten hat. Es gibt zwar schnellere Handys für kabelgebundenes Laden, aber 90 Watt sind für die meisten Menschen ausreichend schnell und liegen weit vor denen von Apple und Google. Bei meinen Tests mit dem 90W HyperCharge-Adapter von Xiaomi ging es in nur 15 Minuten von null auf 42 Prozent und in 30 Minuten auf 72 Prozent. Das ist nicht so beeindruckend wie beim 14 Ultra, das Smartphone hat jedoch auch einen kleineren Akku. Beim 15 Ultra ist kein Ladegerät in der Verpackung enthalten, zumindest nicht bei meinem Exemplar. Ein offizielles 120-Watt-Ladegerät kostet bei Xiaomi 59,99 Euro. Der Wireless Charging Stand mit 80 Watt schlägt mit 99,99 Euro zu Buche. Bedenken Sie, dass es durch den Kamerabuckel beim kabellosen Laden zu Problemen kommen kann, wenn Sie ein Dritthersteller-Ladegerät verwenden. Software & Apps HyperOS 2 Android 15 Vier Betriebssystem-Updates Mit dem Xiaomi 15 Ultra erhalten Sie die neue Xiaomi-Benutzeroberfläche HyperOS 2.0. Sie ist mit HyperOS 1.0 nahezu identisch. Sie ist übersichtlich, sehr schnell und ist meist intuitiv. Dominik Tomaszewski / Foundry Wenn Sie neu in dieser Benutzeroberfläche sind, müssen Sie sich erst einmal an Dinge wie die geteilten Benachrichtigungs- und Schnelleinstellungsfenster gewöhnen, die sich wie bei iPhones auf beiden Seiten der Selfie-Kamera befinden. Die Ansicht der letzten Apps ist ebenfalls alternativ, mit einem Raster und Apps, die zum Schließen seitlich und nicht nach oben geschoben werden müssen. Xiaomi fügt immer noch eine ganze Menge vorinstallierte Bloatware hinzu, mit Apps wie Spotify, Facebook, AliExpress, LinkedIn und TikTok. Xiaomi hat auch viele eigene Apps, von denen viele die Google-Suite duplizieren und daher überflüssig erscheinen. Wie nicht anders zu erwarten, ist KI hier die große Neuheit, mit einer langen Liste von Funktionen wie Schreibhilfe, Übersetzung, Bildbearbeitung und mehr. Mein Hauptproblem mit diesen Funktionen ist, herauszufinden, wie sie funktionieren, oder überhaupt zu wissen, dass es sie gibt. Es gibt kaum Hinweise in der Software und vielleicht sehen Sie nicht einmal den Abschnitt HyperAI im Einstellungsmenü. Aber zum Glück sind Google Gemini und Funktionen wie “Circle to Search” integriert, sodass ich diese Funktionen weitaus häufiger genutzt habe. In Anbetracht des auf die Kamera ausgerichteten Designs sind die KI-Tools im Galerie-Editor für mich die nützlichsten. Ärgerlicherweise müssen Sie Plug-ins herunterladen, um sie nutzen zu können, und sich mit einem Xiaomi-Konto anmelden. Sobald das erledigt ist, können Sie Funktionen wie Verbessern, Erweitern oder Löschen. Dominik Tomaszewski / Foundry Was die Benutzerfreundlichkeit und die Ergebnisse angeht, ist das Ergebnis gemischt. Das “Löschen”-Plugin zum Beispiel ließ sich zunächst nicht richtig initialisieren. Die Option “Erweitern” enthält typische KI-Fehler, wenn Sie genau hinsehen, während das Ändern des Himmels (mit vielen verschiedenen Optionen) in meinen Tests einwandfrei funktioniert hat. Ich kann mir vorstellen, dass die meisten Nutzer einfach die Option “Verbessern” verwenden, um mit einem Tastendruck dafür zu sorgen, dass die Schnappschüsse hübscher aussehen. Aber wie bei der Gemini-Ausgabe hat Google bereits bessere und raffiniertere KI-Bildbearbeitungstools zur Verfügung, ganz zu schweigen von der Fülle der Fotobearbeitungs-Apps, die es gibt. Bei der Softwareunterstützung bleibt es bei vier Jahren Betriebssystem-Updates und sechs Jahren Sicherheitsupdates. Das ist etwas weniger als bei Samsung, Google und Apple. Wenn das für Sie wichtig ist, sollten Sie die Konkurrenten in Betracht ziehen. Preis und Verfügbarkeit Im Vergleich zum Vorgänger hat sich beim Preis des Xiaomi 15 Ultra nichts geändert. Im Online-Shop des Herstellers ist das Smartphone in drei Farbversionen für 1.499,90 Euro erhältlich. Das Fotografie-Kit ist als Zubehör erhältlich und kostet 199,90 Euro. Amazon hat das 15 Ultra ebenfalls für 1.499 Euro im Angebot. Wenn Sie das Xiaomi 15 Ultra mit dem Samsung Galaxy S25 Ultra vergleichen, ist es ein wenig teurer, aber das günstigste S25 Ultra für 1.449 Euro hat nur 256 Gigabyte Speicher. Das Modell mit 512 Gigabyte kostet derzeit ebenfalls nur 1.449 Euro. Xiaomi bietet hier also ein gutes Preis-Leistungs-Verhältnis. Das günstigste iPhone 16 Pro Max kostet 1.449 Euro, aber auch hier bekommen Sie nur 256 Gigabyte Speicher. Für 512 Gigabyte zahlen Sie bei Apple 1.699 Euro. Dominik Tomaszewski / Foundry Sollten Sie das Xiaomi 15 Ultra kaufen? Im Großen und Ganzen ist das Xiaomi 15 Ultra ein weiteres hervorragendes Flaggschiff-Smartphone, das mit einer Reihe von Upgrades aufwarten kann. Im Vergleich zum 14 Ultra ist es eine Wiederholung, aber das ist ein Trend bei den Flaggschiffen des Jahres 2025. Das 15 Ultra ist eine weitere Meisterklasse der Smartphone-Fotografie und verfügt jetzt über eine 200-Megapixel-Periskop-Telekamera sowie drei weitere hervorragende Rückkameras – auch wenn es schade ist, dass die Hauptkamera ihre variable Blendenfunktion verloren hat. Einmal mehr ist das optionale Fotografie-Kit die Geheimwaffe des Ultra. Es fühlt sich wirklich wie eine DSLR an und liefert Ergebnisse auf ähnlich hohem Niveau. Ansonsten bietet das 15 Ultra so ziemlich alles, was man sich von einem Flaggschiff wünschen kann. Der Bildschirm ist hervorragend, die Akkulaufzeit wurde verbessert, der Ladevorgang ist immer noch schnell und die Leistung ist seidenweich. Kleinere Details wie ein IR-Blaster und die neueste Konnektivität sowie Hi-Res-Audio sind ebenfalls an Bord. HyperOS ist nicht die beste Android-Oberfläche, und Xiaomi bietet nicht so lange Unterstützung wie Samsung und Google. Das sollten Sie beim Kauf bedenken. Es ist auch schade, dass es nur eine Farbvariante mit veganer Lederrückseite gibt. Dennoch ist das 15 Ultra ein beeindruckendes Flaggschiff. In Anbetracht der Ähnlichkeit der beiden Modelle würde ich mir überlegen, das 14 Ultra zum niedrigeren Preis zu kaufen. Spezifikationen Android 15 mit HyperOS 2.0 6,73 Zoll WQHD AMOLED-Display mit 1 – 120 Hz, 300 Hz Touch-Sampling, Dolby Vision, HDR10 Ultraschall-Fingerabdrucksensor im Display Xiaomi Shield 2.0 Glasfront Qualcomm Snapdragon 8 Elite 16 GB RAM LPDDR5X 512 GB UFS 4.1 nicht erweiterbarer Speicher 50 MP, f/1,63 Hauptkamera mit OIS 50 MP, f/2,2 Ultraweitwinkel-Kamera 50 MP, f/1,8 Teleobjektiv, 3x Kamera mit OIS 200 MP, f/2,6 Periskop 4,3x Kameras mit OIS 32 MP, f/2,0 Frontkamera Stereo-Lautsprecher mit Dolby Atmos Hi-Res & Hi-Res Audio Drahtlos-Zertifizierung 5G WiFi 7 Bluetooth 6.0 USB-C-Anschluss IR-Blaster NFC Dual-SIM (inkl. eSIM) 5.410 mAh Akku 90 W Schnellladung 80 W kabelloses Laden 10 W kabellose Rückwärtsaufladung IP68 161,3 × 75,3 × 9,35 mm 236 g Farben: Schwarz, Weiß, Silber Chrom (PC-Welt) 

Xiaomi 15 Ultra im Test: Die Meisterklasse der Smartphone-Fotografie​ Dominik Tomaszewski / Foundry

Auf einen Blick

Pro

Unglaubliche Kameraleistung

Ausgezeichneter Bildschirm

Solide Akkulaufzeit & schnelles Aufladen

Flotte Leistung

Kontra

Einige Rückschritte beim Design

Nicht die beste Android-Oberfläche

Mittelmäßige KI-Funktionen

Fazit

Das Xiaomi 15 Ultra ist ein erstklassiges Flaggschiff-Smartphone, das mit zahlreichen Upgrades gegenüber seinem Vorgänger punktet. Besonders die Kamera hebt es von Konkurrenten wie Samsung, Apple und Google ab. In Kombination mit dem Photography Kit setzt es neue Maßstäbe und gilt derzeit als das beste Kamera-Smartphone auf dem Markt. Allerdings trüben einige fragwürdige Designänderungen und vorinstallierte Bloatware das Gesamtbild.

Xiaomi will mit seinem 15 Ultra erneut den Titel des besten Foto-Smartphones für sich beanspruchen. Nach dem exzellenten Xiaomi 14 Ultra und der starken Konkurrenz durch das Samsung Galaxy S25 Ultra und das Apple iPhone 16 Pro Max muss sich das Gerät anstrengen, diesem Titel gerecht zu werden.

Wie bei vielen anderen Flaggschiff-Smartphones in diesem Jahr gibt es im Vergleich zum Vorgänger keine bahnbrechenden Neuerungen. Das Xiaomi 15 Ultra ist aber dennoch eines der besten Smartphones, die Sie aktuell kaufen können. Und das gilt nicht nur in Bezug auf seine Foto-Features.

Mit einer UVP in Höhe von 1.499,90 Euro ist das Xiaomi 15 Ultra kein Schnäppchen. Es bietet jedoch standardmäßig doppelt so viel Speicherplatz wie die wichtigsten Konkurrenten. Wie sich das Smartphone in unserem Test schlägt, lesen Sie in den folgenden Zeilen.

Design & Verarbeitung

Neue Farben

Ein wahres Leistungsmonster

Optionales Fotografie-Kit

Im Großen und Ganzen sieht das Xiaomi 15 Ultra aus wie sein Vorgänger und fühlt sich auch so an. Wie bei vielen Konkurrenten handelt es sich eher um kleine Optimierungen als um eine große Designüberarbeitung. Wie schon beim Vorgänger ist das riesige runde “Vulkan”-Kameramodul auf der Rückseite auch beim 15 Ultra der Hingucker. Im Allgemeinen würde ich einen kleineren Kamerabuckel bevorzugen. Da es sich beim 15 Ultra jedoch um ein Kamera-Smartphone handelt, bekommt es in diesem Bereich von mir einen Freifahrtschein.

Dominik Tomaszewski / Foundry

Der Kamerabuckel selbst ist nicht nur groß, sondern besteht auch aus einem Stück Gorilla Glass 7i, umgeben von einem Rahmen mit Nanotextur und einem roten Ring. Das ist zumindest bei meinem schwarzen Modell der Fall. Die weiße Variante und das neue zweifarbige Silver-Chrome-Modell haben keinen roten Ring.

Ich bevorzuge die trapezförmige Anordnung der Linsen auf dem 14 Ultra, aber das ist nur ein kleiner Kritikpunkt. Auch von der Rückseite bin ich nicht wirklich begeistert. Die neue Glasoberfläche der schwarzen Variante ist extrem rutschig.

Dominik Tomaszewski / Foundry

Abgesehen davon fühlt sich das 15 Ultra sehr hochwertig an. Ich mag die schraffierte Einschalttaste, den Aluminiumrahmen und die abgeschrägten Kanten, die dem Trend zu vollkommen flachen Seiten entgegenwirken. Das 15 Ultra hat im Vergleich zum iPhone 16 leider keine eigene Kamerataste. Dafür bietet Xiaomi jedoch wieder ein Fotografie-Kit an (dazu später mehr).

Sie erhalten Xiaomi Shield Glass 2.0 auf der Vorderseite und eine IP68-Zertifizierung gegen Staub und Wasser. Insgesamt fühlt sich das Smartphone gut verarbeitet und sehr robust an. Eine transparente Silikonhülle ist in der Verpackung enthalten. Allerdings ist es mit 226 Gramm (oder 229 Gramm bei der Silver-Chrome-Ausführung) ziemlich schwer.

Bildschirm & Lautsprecher

6,73-Zoll-AMOLED

1 – 120 Hertz Bildwiederholfrequenz

All Around Liquid Display

Stereo-Lautsprecher

Das Display des Xiaomi 15 Ultra ist mit dem des Vorgängers identisch. Sie erhalten ein großes 6,73-Zoll-AMOLED-Panel mit einer Auflösung von 3.200 × 1.400 Pixeln (522 Pixel pro Zoll) und einer dynamischen Bildwiederholfrequenz von 1 bis 120 Hertz. Ein kleines Upgrade in diesem Jahr ist die höhere Spitzenhelligkeit von 3.200 Nits. Beim 14 Ultra waren es 3.000 Nits.

Dominik Tomaszewski / Foundry

Es ist keine Überraschung, dass Xiaomi dieses hervorragende Display beibehält. Ich liebe nach wie vor das All Around Liquid Design, was im Wesentlichen bedeutet, dass das Glas auf der Vorderseite an den Rändern gewölbt ist, während das Panel darunter flach ist.

Das Display ist gestochen scharf, hat kräftige Farben, einen ausgezeichneten Kontrast und eine enorme Helligkeit. Das Display des Xiaomi 15 ist mit seinen 6,36 Zoll jedoch ein wenig handlicher.

Eine wichtige Neuerung ist der Ultraschall-Fingerabdrucksensor. Ich fand den des 14 Ultra bereits sehr gut, aber die neue Version ist zweifelsohne superschnell und zuverlässig.

Wie beim 14 Ultra sind die Stereolautsprecher beeindruckend und bieten eine hervorragende Klarheit. Sie gehören zu den besten Lautsprechern, die ich je bei einem Handy getestet habe. Das 15 Ultra bietet außerdem Hi-Res und Hi-Res Audio Wireless Zertifizierungen.

Spezifikationen & Leistung

Snapdragon 8 Elite

16 GB RAM

512 GB Speicher

neueste Konnektivitätsfeatures

Es ist keine Überraschung, dass das Xiaomi 15 Ultra mit einem Qualcomm Snapdragon 8 Elite Chipsatz ausgestattet ist. Sie erhalten 16 Gigabyte Arbeitsspeicher und wahlweise 512 Gigabyte internen UFS 4.1-Speicher.

Die Leistung ist erstklassig, und das 15 Ultra bewältigt alltägliche Aufgaben ohne Probleme. Alles läuft seidenweich und blitzschnell. Das Smartphone verfügt über eine RAM-Erweiterungsfunktion, mit der Sie theoretisch zusätzliche 6 Gigabyte hinzufügen können. Dabei wird ein Teil des internen Speicherplatzes als “virtueller RAM” genutzt. Diese Funktion war bei meinem Testgerät standardmäßig aktiviert.

Dominik Tomaszewski / Foundry

Natürlich liegt der Schwerpunkt auf den Kamerafähigkeiten, aber mit dem exzellenten Display und dem leistungsstarken Chipsatz ist das 15 Ultra auch ein ausgezeichnetes Gaming-Smartphone. Der größte Nachteil in dieser Hinsicht ist der Kamerabuckel, der im Weg ist, wenn Sie es im Hochformat halten.

Das 3D-Dual-Channel-IceLoop-Kühlsystem leistet gute Arbeit und verhindert, dass das Handy bei anspruchsvollen Aufgaben zu heiß wird. Die übrigen Kernspezifikationen sind stark, angefangen bei Wi-Fi 7 sowie einem Upgrade auf Bluetooth 6.0 und Dual-SIM, das jetzt auch eSIM umfasst. Sie erhalten auch wieder einen IR-Blaster, den ich persönlich sehr mag.

Xiaomi 15 Ultra Benchmarks

Kameras

Vier Kameras auf der Rückseite

Neues 200-MP-Periskop-Teleobjektiv

32-MP-Frontkamera

Separat erhältliches Fotografie-Kit

Das Xiaomi 15 Ultra will mit seinen fünf Kameras, von denen sich vier auf der Rückseite befinden, an der Spitze der mobilen Fotografie stehen. Auch beim 15 Ultra wurden die Kameras wieder in Zusammenarbeit mit Leica entwickelt.

Die wichtigste Neuerung ist das 200-Megapixel-Periskop-Teleobjektiv. Es hat einen kürzeren 4,3-fachen Zoom als das fünffache des 14 Ultra. Dafür bietet es einen größeren Sensor, eine höhere Auflösung und eine schnellere Blendenöffnung. Xiaomi behauptet, dass das Gesamtergebnis besser ist, insbesondere bei schlechten Lichtverhältnissen.

Die anderen drei rückwärtigen Kameras bleiben bei 50 Megapixeln und bieten eine Kombination aus Hauptkamera, Ultraweitwinkelkamera und einer Floating-Telekamera. Die Spezifikationen sind mit denen des 14 Ultra nahezu identisch. Die variable Blende der Hauptkamera wurde jedoch mit einer festen f/1,63 Blende ersetzt.

Die Idee dahinter ist, ein DSLR-ähnliches Erlebnis zu bieten, bei dem mehrere Brennweiten (oder Objektive) zur Verfügung stehen, ohne dass man die gesamte Ausrüstung mitschleppen und die Objektive für verschiedene Aufnahmen austauschen muss.

Dominik Tomaszewski / Foundry

Xiaomi hat auch bei der Kamera-App wieder gute Arbeit geleistet. Sie bietet sowohl eine einfach zu bedienende Reihe von Schaltflächen und Werkzeugen als auch einen Pro-Modus. Sie müssen kein Fotoexperte sein, um mit dem 15 Ultra großartige Aufnahmen zu machen. Probieren Sie einfach, je nach Motiv, die unterschiedlichen Brennweiten aus.

Bis zu einem gewissen Grad wählt das 15 Ultra die richtige Kamera für Sie aus. Es schaltet etwa automatisch in den Makromodus, wenn Sie nah an ein Motiv herangehen. Sie müssen also nicht unbedingt wissen, was eine 23- oder 35-Millimeter-Brennweite ist.

Genau wie bei der 14 Ultra sind die Ergebnisse wirklich sehr beeindruckend. Xiaomi und Leica haben bei der Konsistenz der vier Kameras besonders gute Arbeit geleistet. Besonders die Farbgenauigkeit kann sich sehen lassen. Ein Problem, mit dem viele Smartphones seit Jahren zu kämpfen haben.

Sie können mit jeder Kamera knipsen und sicher sein, dass Sie ein detailliertes, gut belichtetes Bild mit einem ausgezeichneten Dynamikumfang erhalten. Sie haben außerdem die Wahl aus den Farbmodi Leica Authentic und Vibrant.

Ich würde sagen, dass das Ultrawide-Objektiv das schwächste der vier ist. Das ist nicht überraschend, denn diese Linse ist die einzige ohne optische Bildstabilisierung (OIS). Sie weist außerdem schwächere Spezifikationen auf. Sie ist keineswegs schlecht, aber die anderen sind beeindruckender und werden wahrscheinlich ohnehin häufiger verwendet.

Ich habe die Hauptkamera und das dreifache Teleobjektiv am meisten benutzt. Allerdings finde ich es schade, dass die variable Blende des Hauptobjektivs weggefallen ist. Die feste Blende f/1,63 sorgt für eine extrem geringe Schärfentiefe, was in vielen Situationen zu viel sein kann. Für Porträts ist die Kamera jedoch ausgezeichnet geeignet. Im Porträt-Modus können Sie zudem zwischen Master Portrait und Leica Portrait mit verschiedenen Einstellungen wählen.

Wie bereits erwähnt, ist das neue 200-Megapixel-Periskop-Teleobjektiv die wichtigste Neuerung in diesem Jahr. Obwohl es nur einen 4,3-fachen statt eines fünffachen Zooms bietet, habe ich das nicht als Problem empfunden. Der Detailreichtum ist potenziell fantastisch (wenn man die Kamera ruhig genug halten kann).

Die Brennweite entspricht 100 Millimetern, und Sie können bei Bedarf digital noch viel weiter zoomen und dabei brauchbare Ergebnisse erzielen. Die Leistung bei schlechten Lichtverhältnissen ist ausgezeichnet.

Auch die Frontkamera ist solide und bietet viele Details, einen automatischen Bildausschnitt je nach Anzahl der Personen auf dem Foto, einen einstellbaren Porträtmodus und vieles mehr. Auch bei den Videos ist das Smartphone nicht zu schlagen: Sie können mit bis zu 8K bei 30 Bildern pro Sekunde aufnehmen und haben verschiedene Einstellungen zur Verfügung. Meine Testaufnahmen waren unglaublich flüssig, detailliert und farbenfroh.

Eine Anmerkung zum Fotografie-Kit, das ich kurz getestet habe und demnächst separat vorstellen werde: In diesem Jahr heißt es “Legend Edition”. Es ist im Wesentlichen dasselbe wie beim 14 Ultra und kostet 199,90 Euro.

Das Kit funktioniert wie eine Smartphone-Hülle und wird mit dem USB-C-Anschluss des Smartphones verbunden. Damit können Sie das 15 Ultra wie eine echte Kamera halten und bekommen zusätzliche Bedienelemente wie einen Zoom, einen zweistufigen Auslöser, ein Einstellrad und eine Videoaufnahmetaste.

Außerdem gibt es eine Auswahl an abnehmbaren Ringen und einen abnehmbaren Daumengriff, zwei verschiedene optionale Auslöser und einen integrierten Akku mit 2.000 Milliamperestunden.

Bei den ersten Tests hatte ich einige kleine Probleme, wie die wackelige Zoomsteuerung (die beim Vorgänger zuverlässiger war). Dennoch ist es ein herausragendes Zubehör, das das 15 Ultra in eine richtige Kamera verwandelt.

Akkulaufzeit & Aufladen

5.410 mAh Akku

90 Watt kabelgebundenes Laden

80 Watt kabelloses Laden

Die Ladegeschwindigkeiten von 90 und 80 Watt für kabelgebundenes und kabelloses Laden sind identisch mit denen des 14 Ultra aus dem letzten Jahr. Der Akku selbst ist mit 5.410 Milliamperestunden (statt 5.000) größer. Im PCMark-Akkutest hielt das 15 Ultra beeindruckende 17 Stunden durch. Das sind über viereinhalb Stunden mehr als beim Vorgänger.

Es wäre natürlich schön, wenn Xiaomi mehr Siliziumkarbid (SiC)-Technologie einsetzen würde, um die Kapazität noch weiter zu steigern – wie beim OnePlus 13. Die Ausdauer ist jedoch sehr solide. Ich kann das Smartphone problemlos zwei Tage lang nutzen, wenn ich es nicht übermäßig für anspruchsvolle Aufgaben einsetze.

Dominik Tomaszewski / Foundry

Es ist verständlich, dass Xiaomi die Ladegeschwindigkeiten beibehalten hat. Es gibt zwar schnellere Handys für kabelgebundenes Laden, aber 90 Watt sind für die meisten Menschen ausreichend schnell und liegen weit vor denen von Apple und Google.

Bei meinen Tests mit dem 90W HyperCharge-Adapter von Xiaomi ging es in nur 15 Minuten von null auf 42 Prozent und in 30 Minuten auf 72 Prozent. Das ist nicht so beeindruckend wie beim 14 Ultra, das Smartphone hat jedoch auch einen kleineren Akku.

Beim 15 Ultra ist kein Ladegerät in der Verpackung enthalten, zumindest nicht bei meinem Exemplar. Ein offizielles 120-Watt-Ladegerät kostet bei Xiaomi 59,99 Euro. Der Wireless Charging Stand mit 80 Watt schlägt mit 99,99 Euro zu Buche. Bedenken Sie, dass es durch den Kamerabuckel beim kabellosen Laden zu Problemen kommen kann, wenn Sie ein Dritthersteller-Ladegerät verwenden.

Software & Apps

HyperOS 2

Android 15

Vier Betriebssystem-Updates

Mit dem Xiaomi 15 Ultra erhalten Sie die neue Xiaomi-Benutzeroberfläche HyperOS 2.0. Sie ist mit HyperOS 1.0 nahezu identisch. Sie ist übersichtlich, sehr schnell und ist meist intuitiv.

Dominik Tomaszewski / Foundry

Wenn Sie neu in dieser Benutzeroberfläche sind, müssen Sie sich erst einmal an Dinge wie die geteilten Benachrichtigungs- und Schnelleinstellungsfenster gewöhnen, die sich wie bei iPhones auf beiden Seiten der Selfie-Kamera befinden.

Die Ansicht der letzten Apps ist ebenfalls alternativ, mit einem Raster und Apps, die zum Schließen seitlich und nicht nach oben geschoben werden müssen. Xiaomi fügt immer noch eine ganze Menge vorinstallierte Bloatware hinzu, mit Apps wie Spotify, Facebook, AliExpress, LinkedIn und TikTok. Xiaomi hat auch viele eigene Apps, von denen viele die Google-Suite duplizieren und daher überflüssig erscheinen.

Wie nicht anders zu erwarten, ist KI hier die große Neuheit, mit einer langen Liste von Funktionen wie Schreibhilfe, Übersetzung, Bildbearbeitung und mehr. Mein Hauptproblem mit diesen Funktionen ist, herauszufinden, wie sie funktionieren, oder überhaupt zu wissen, dass es sie gibt.

Es gibt kaum Hinweise in der Software und vielleicht sehen Sie nicht einmal den Abschnitt HyperAI im Einstellungsmenü. Aber zum Glück sind Google Gemini und Funktionen wie “Circle to Search” integriert, sodass ich diese Funktionen weitaus häufiger genutzt habe.

In Anbetracht des auf die Kamera ausgerichteten Designs sind die KI-Tools im Galerie-Editor für mich die nützlichsten. Ärgerlicherweise müssen Sie Plug-ins herunterladen, um sie nutzen zu können, und sich mit einem Xiaomi-Konto anmelden. Sobald das erledigt ist, können Sie Funktionen wie Verbessern, Erweitern oder Löschen.

Dominik Tomaszewski / Foundry

Was die Benutzerfreundlichkeit und die Ergebnisse angeht, ist das Ergebnis gemischt. Das “Löschen”-Plugin zum Beispiel ließ sich zunächst nicht richtig initialisieren. Die Option “Erweitern” enthält typische KI-Fehler, wenn Sie genau hinsehen, während das Ändern des Himmels (mit vielen verschiedenen Optionen) in meinen Tests einwandfrei funktioniert hat.

Ich kann mir vorstellen, dass die meisten Nutzer einfach die Option “Verbessern” verwenden, um mit einem Tastendruck dafür zu sorgen, dass die Schnappschüsse hübscher aussehen. Aber wie bei der Gemini-Ausgabe hat Google bereits bessere und raffiniertere KI-Bildbearbeitungstools zur Verfügung, ganz zu schweigen von der Fülle der Fotobearbeitungs-Apps, die es gibt.

Bei der Softwareunterstützung bleibt es bei vier Jahren Betriebssystem-Updates und sechs Jahren Sicherheitsupdates. Das ist etwas weniger als bei Samsung, Google und Apple. Wenn das für Sie wichtig ist, sollten Sie die Konkurrenten in Betracht ziehen.

Preis und Verfügbarkeit

Im Vergleich zum Vorgänger hat sich beim Preis des Xiaomi 15 Ultra nichts geändert. Im Online-Shop des Herstellers ist das Smartphone in drei Farbversionen für 1.499,90 Euro erhältlich. Das Fotografie-Kit ist als Zubehör erhältlich und kostet 199,90 Euro. Amazon hat das 15 Ultra ebenfalls für 1.499 Euro im Angebot.

Wenn Sie das Xiaomi 15 Ultra mit dem Samsung Galaxy S25 Ultra vergleichen, ist es ein wenig teurer, aber das günstigste S25 Ultra für 1.449 Euro hat nur 256 Gigabyte Speicher. Das Modell mit 512 Gigabyte kostet derzeit ebenfalls nur 1.449 Euro. Xiaomi bietet hier also ein gutes Preis-Leistungs-Verhältnis.

Das günstigste iPhone 16 Pro Max kostet 1.449 Euro, aber auch hier bekommen Sie nur 256 Gigabyte Speicher. Für 512 Gigabyte zahlen Sie bei Apple 1.699 Euro.

Dominik Tomaszewski / Foundry

Sollten Sie das Xiaomi 15 Ultra kaufen?

Im Großen und Ganzen ist das Xiaomi 15 Ultra ein weiteres hervorragendes Flaggschiff-Smartphone, das mit einer Reihe von Upgrades aufwarten kann. Im Vergleich zum 14 Ultra ist es eine Wiederholung, aber das ist ein Trend bei den Flaggschiffen des Jahres 2025.

Das 15 Ultra ist eine weitere Meisterklasse der Smartphone-Fotografie und verfügt jetzt über eine 200-Megapixel-Periskop-Telekamera sowie drei weitere hervorragende Rückkameras – auch wenn es schade ist, dass die Hauptkamera ihre variable Blendenfunktion verloren hat. Einmal mehr ist das optionale Fotografie-Kit die Geheimwaffe des Ultra. Es fühlt sich wirklich wie eine DSLR an und liefert Ergebnisse auf ähnlich hohem Niveau.

Ansonsten bietet das 15 Ultra so ziemlich alles, was man sich von einem Flaggschiff wünschen kann. Der Bildschirm ist hervorragend, die Akkulaufzeit wurde verbessert, der Ladevorgang ist immer noch schnell und die Leistung ist seidenweich. Kleinere Details wie ein IR-Blaster und die neueste Konnektivität sowie Hi-Res-Audio sind ebenfalls an Bord.

HyperOS ist nicht die beste Android-Oberfläche, und Xiaomi bietet nicht so lange Unterstützung wie Samsung und Google. Das sollten Sie beim Kauf bedenken. Es ist auch schade, dass es nur eine Farbvariante mit veganer Lederrückseite gibt.

Dennoch ist das 15 Ultra ein beeindruckendes Flaggschiff. In Anbetracht der Ähnlichkeit der beiden Modelle würde ich mir überlegen, das 14 Ultra zum niedrigeren Preis zu kaufen.

Spezifikationen

Android 15 mit HyperOS 2.0

6,73 Zoll WQHD AMOLED-Display mit 1 – 120 Hz, 300 Hz Touch-Sampling, Dolby Vision, HDR10

Ultraschall-Fingerabdrucksensor im Display

Xiaomi Shield 2.0 Glasfront

Qualcomm Snapdragon 8 Elite

16 GB RAM LPDDR5X

512 GB UFS 4.1 nicht erweiterbarer Speicher

50 MP, f/1,63 Hauptkamera mit OIS

50 MP, f/2,2 Ultraweitwinkel-Kamera

50 MP, f/1,8 Teleobjektiv, 3x Kamera mit OIS

200 MP, f/2,6 Periskop 4,3x Kameras mit OIS

32 MP, f/2,0 Frontkamera

Stereo-Lautsprecher mit Dolby Atmos

Hi-Res & Hi-Res Audio Drahtlos-Zertifizierung

5G

WiFi 7

Bluetooth 6.0

USB-C-Anschluss

IR-Blaster

NFC

Dual-SIM (inkl. eSIM)

5.410 mAh Akku

90 W Schnellladung

80 W kabelloses Laden

10 W kabellose Rückwärtsaufladung

IP68

161,3 × 75,3 × 9,35 mm

236 g

Farben: Schwarz, Weiß, Silber Chrom

(PC-Welt)

Xiaomi 15 Ultra im Test: Die Meisterklasse der Smartphone-Fotografie​ Weiterlesen »

Honor Pad V9 im Hands-On: Das perfekte Tablet für Filme und TV?​

Allgemein

Anyron Copeman / Foundry Wenn die meisten Menschen an ein Tablet denken, denken sie an das iPad. Die Tablets von Apple sind das Synonym für diese Gerätekategorie geworden, aber sie haben ein großes Problem: den Preis. Das günstigste Modell, das Apple derzeit anbietet, ist das betagte 10,9-Zoll-Modell aus dem Jahr 2022, das bei 399 Euro für nur 128 Gigabyte Speicherplatz beginnt. Wenn Sie sich stattdessen 256 Gigabyte wünschen, kostet Sie das Gerät schon 529 Euro. Sollten Sie hingegen nur ein Gerät suchen, um Netflix oder YouTube zu schauen, lohnt sich das einfach nicht. Und was ist mit Android-Tablets? Oberflächlich betrachtet gibt es auch hier nicht viele großartige Optionen. Samsung ist zwar marktführend, aber sein Galaxy Tab S10 und S10 Ultra sind zu teuer, während die preisgünstigen Tab A9 und A9+ eher für den allgemeinen Gebrauch als für den Konsum filmischer Inhalte geeignet sind. Es sieht jedoch so aus, als gäbe es eine Lösung von Honor. Das neue Pad V9 Tablet kostet mit 256 Gigabyte Speicherplatz 449,90 Euro und bietet dafür ein überraschend gutes audiovisuelles Erlebnis. Ein 11,5-Zoll-LC-Display mit einer Auflösung von 2.800 × 1.840 Pixeln klingt vielleicht nicht besonders beeindruckend, aber ich habe das Pad V9 in meiner alltäglichen Routine sehr gerne benutzt. Anyron Copeman / Foundry Das Honor Pad V9 liefert die satten, lebendigen Farben und tiefen Schwarztöne, die ich normalerweise mit OLED-Panels in Verbindung bringe. Dazu kommen eine hervorragende Detailtreue und eine hohe Bildwiederholrate von 144 Hertz. Das Gerät kann auch beeindruckend hell werden, sodass ich mir selbst bei direktem Sonnenlicht keine Sorgen um die Sichtbarkeit machen muss. Natürlich ist das Display nur ein Aspekt eines großartigen Tablets für Filme und Serien. Auch die Lautsprecher spielen eine große Rolle, und das Honor Pad V9 hat nicht weniger als acht davon! Sie befinden sich an beiden Enden des Geräts und liefern einen Klang, der mit dem eines Flaggschiff-Tablets mithalten kann. Der Sound ist durchweg klar und bietet einen schönen Bass. Anyron Copeman / Foundry Gleichzeitig können die Lautsprecher aber auch beeindruckend laut werden, ohne hörbare Verzerrungen zu verursachen. Ob Sie nun Musik, Dialoge oder effektreiche Blockbuster genießen, ein großartiges Hörerlebnis ist nahezu garantiert. Wenn Sie jedoch lieber Kopfhörer oder Lautsprecher anschließen möchten, haben Sie die Wahl zwischen Bluetooth 5.2 und einer 3,5-Millimeter-Buchse. Letztere unterstützt 24-Bit-Hi-Res-Audio und ist für eine kinoähnliche IMAX Enhanced Qualität zertifiziert. Entscheidend ist außerdem, dass der MediaTek Dimensity 8350 Chipsatz des Honor Pad V9 eine hohe Leistung bei allen Alltagsaufgaben bietet. In Kombination mit der Bildwiederholfrequenz von 144 Hertz erhalten Sie ein beeindruckendes Premium-Gefühl. Anyron Copeman / Foundry Und da das Honor Pad V9 bereits auf Android 15 setzt, haben Sie vollen Zugriff auf alle Ihre Lieblings-Apps und Streaming-Dienste. Bei der Software versteckt sich jedoch auch der größte Nachteil des Pad V9. Die MagicOS 9-Oberfläche von Honor unterscheidet sich deutlich von der, die Sie auf einem Galaxy- oder Pixel-Tablet vorfinden. Das wirkt für die meisten Menschen anfangs etwas ungewohnt. Das Ergebnis wirkt sehr unübersichtlich, mit Dutzenden zusätzlichen vorinstallierten Apps und häufigen Pop-ups. Es gibt einige wirklich nützliche Funktionen, aber selbst als erfahrener Honor-Nutzer fand ich es schwierig, diese zu finden und mich umzugewöhnen. Anyron Copeman / Foundry All das spielt keine Rolle, wenn Sie einfach nur ein Gerät zum Filme und Serien schauen suchen. Aber es gibt ein paar Dinge, über die wir noch nichts wissen, die aber wichtig sein könnten.Das erste ist die Akkulaufzeit. Das Pad V9 hat einen anständigen 10.100 Milliamperestunden-Akku, aber wie lange werden Sie damit tatsächlich Filme schauen können? Und wie schnell können Sie das Gerät mit der 66-Watt-Schnellladefunktion wieder voll aufladen? Auch die Dauer der Softwareunterstützung bleibt ungeklärt. Damit sich der Kauf lohnt, möchten Sie wahrscheinlich vier Jahre lang garantierten Sicherheits-Support haben, wobei neue Funktionen in größeren Betriebssystem-Updates weniger wichtig sind. Wenn diese beiden Fragen geklärt sind, könnte das Honor Pad V9 ein preiswertes Tablet für Film- und Fernsehfans werden. Im Online-Shop von Honor wird das Pad V9 nur in einer Version mit 8 Gigabyte RAM und 256 Gigabyte Speicher angeboten. Der Preis dafür liegt eigentlich bei 499 Euro, Honor bietet aktuell jedoch einen Rabatt an, der den Preis auf 449,90 reduziert. Die Software verhindert jedoch, dass das Honor Pad V9 ein perfektes Tablet für die Produktivität werden könnte. Wenn Ihre Priorität auf diesem Teilbereich liegt, dann finden Sie bessere Optionen in unserem Ratgeber zu den besten Tablets. (PC-Welt) 

Honor Pad V9 im Hands-On: Das perfekte Tablet für Filme und TV?​ Anyron Copeman / Foundry

Wenn die meisten Menschen an ein Tablet denken, denken sie an das iPad. Die Tablets von Apple sind das Synonym für diese Gerätekategorie geworden, aber sie haben ein großes Problem: den Preis.

Das günstigste Modell, das Apple derzeit anbietet, ist das betagte 10,9-Zoll-Modell aus dem Jahr 2022, das bei 399 Euro für nur 128 Gigabyte Speicherplatz beginnt. Wenn Sie sich stattdessen 256 Gigabyte wünschen, kostet Sie das Gerät schon 529 Euro.

Sollten Sie hingegen nur ein Gerät suchen, um Netflix oder YouTube zu schauen, lohnt sich das einfach nicht. Und was ist mit Android-Tablets?

Oberflächlich betrachtet gibt es auch hier nicht viele großartige Optionen. Samsung ist zwar marktführend, aber sein Galaxy Tab S10 und S10 Ultra sind zu teuer, während die preisgünstigen Tab A9 und A9+ eher für den allgemeinen Gebrauch als für den Konsum filmischer Inhalte geeignet sind.

Es sieht jedoch so aus, als gäbe es eine Lösung von Honor. Das neue Pad V9 Tablet kostet mit 256 Gigabyte Speicherplatz 449,90 Euro und bietet dafür ein überraschend gutes audiovisuelles Erlebnis.

Ein 11,5-Zoll-LC-Display mit einer Auflösung von 2.800 × 1.840 Pixeln klingt vielleicht nicht besonders beeindruckend, aber ich habe das Pad V9 in meiner alltäglichen Routine sehr gerne benutzt.

Anyron Copeman / Foundry

Das Honor Pad V9 liefert die satten, lebendigen Farben und tiefen Schwarztöne, die ich normalerweise mit OLED-Panels in Verbindung bringe. Dazu kommen eine hervorragende Detailtreue und eine hohe Bildwiederholrate von 144 Hertz. Das Gerät kann auch beeindruckend hell werden, sodass ich mir selbst bei direktem Sonnenlicht keine Sorgen um die Sichtbarkeit machen muss.

Natürlich ist das Display nur ein Aspekt eines großartigen Tablets für Filme und Serien. Auch die Lautsprecher spielen eine große Rolle, und das Honor Pad V9 hat nicht weniger als acht davon!

Sie befinden sich an beiden Enden des Geräts und liefern einen Klang, der mit dem eines Flaggschiff-Tablets mithalten kann. Der Sound ist durchweg klar und bietet einen schönen Bass.

Anyron Copeman / Foundry

Gleichzeitig können die Lautsprecher aber auch beeindruckend laut werden, ohne hörbare Verzerrungen zu verursachen. Ob Sie nun Musik, Dialoge oder effektreiche Blockbuster genießen, ein großartiges Hörerlebnis ist nahezu garantiert.

Wenn Sie jedoch lieber Kopfhörer oder Lautsprecher anschließen möchten, haben Sie die Wahl zwischen Bluetooth 5.2 und einer 3,5-Millimeter-Buchse. Letztere unterstützt 24-Bit-Hi-Res-Audio und ist für eine kinoähnliche IMAX Enhanced Qualität zertifiziert.

Entscheidend ist außerdem, dass der MediaTek Dimensity 8350 Chipsatz des Honor Pad V9 eine hohe Leistung bei allen Alltagsaufgaben bietet. In Kombination mit der Bildwiederholfrequenz von 144 Hertz erhalten Sie ein beeindruckendes Premium-Gefühl.

Anyron Copeman / Foundry

Und da das Honor Pad V9 bereits auf Android 15 setzt, haben Sie vollen Zugriff auf alle Ihre Lieblings-Apps und Streaming-Dienste.

Bei der Software versteckt sich jedoch auch der größte Nachteil des Pad V9. Die MagicOS 9-Oberfläche von Honor unterscheidet sich deutlich von der, die Sie auf einem Galaxy- oder Pixel-Tablet vorfinden. Das wirkt für die meisten Menschen anfangs etwas ungewohnt.

Das Ergebnis wirkt sehr unübersichtlich, mit Dutzenden zusätzlichen vorinstallierten Apps und häufigen Pop-ups. Es gibt einige wirklich nützliche Funktionen, aber selbst als erfahrener Honor-Nutzer fand ich es schwierig, diese zu finden und mich umzugewöhnen.

Anyron Copeman / Foundry

All das spielt keine Rolle, wenn Sie einfach nur ein Gerät zum Filme und Serien schauen suchen. Aber es gibt ein paar Dinge, über die wir noch nichts wissen, die aber wichtig sein könnten.Das erste ist die Akkulaufzeit. Das Pad V9 hat einen anständigen 10.100 Milliamperestunden-Akku, aber wie lange werden Sie damit tatsächlich Filme schauen können? Und wie schnell können Sie das Gerät mit der 66-Watt-Schnellladefunktion wieder voll aufladen?

Auch die Dauer der Softwareunterstützung bleibt ungeklärt. Damit sich der Kauf lohnt, möchten Sie wahrscheinlich vier Jahre lang garantierten Sicherheits-Support haben, wobei neue Funktionen in größeren Betriebssystem-Updates weniger wichtig sind.

Wenn diese beiden Fragen geklärt sind, könnte das Honor Pad V9 ein preiswertes Tablet für Film- und Fernsehfans werden.

Im Online-Shop von Honor wird das Pad V9 nur in einer Version mit 8 Gigabyte RAM und 256 Gigabyte Speicher angeboten. Der Preis dafür liegt eigentlich bei 499 Euro, Honor bietet aktuell jedoch einen Rabatt an, der den Preis auf 449,90 reduziert.

Die Software verhindert jedoch, dass das Honor Pad V9 ein perfektes Tablet für die Produktivität werden könnte. Wenn Ihre Priorität auf diesem Teilbereich liegt, dann finden Sie bessere Optionen in unserem Ratgeber zu den besten Tablets.

(PC-Welt)

Honor Pad V9 im Hands-On: Das perfekte Tablet für Filme und TV?​ Weiterlesen »

13 Ratschläge: Der kleine Knigge für Video-Calls​

Allgemein

Auch virtuelle Kommunikation braucht Regeln: Wir haben die 13 wichtigsten für Sie zusammengefasst. Foto: Stockbakery – shutterstock.comMicrosoft Teams, Zoom, Skype, Google Meet, Bluejeans, Teamviewer, Webex – wir kennen sie alle. Jedes dieser Progrämmchen hat in den vergangenen Monaten Spuren hinterlassen, auf unseren Rechnern und in unseren Köpfen. Das ganze Netz ist gut gefüllt mit wohlmeinenden Ratgebern, aber manchmal entsteht der Eindruck, hier wird gesendet ohne Empfänger. Deshalb hier nochmal das Wichtigste zur Erinnerung.Zeigen Sie Gesicht! Schalten Sie ihre Kamera ein, solange die Übertragungsqualität nicht leidet! Nichts ist für Ihre Gesprächspartner demotivierender und ermüdender, als eine dunkle Kachel anzustarren. Menschen im Bewegtbild zu sehen, gibt der virtuellen Konferenz einen Human Touch. Es schafft Verbindung unter den Teilnehmern und hilft übrigens auch dem Organisator schnell zu erkennen, wer gerade spricht.Wenn Ihnen die Vorstellung zuwider ist, dass andere mitbekommen könnten, wie Sie in der Nase bohren oder Fingernägel knabbern, dann können sie den Hintergrund vernebeln (Blur-Effekt) oder die Kamera doch ausschalten. Dann allerdings wäre es gut, wenn Sie wenigstens mit einem netten Foto zu sehen wären, nicht mit Ihren nackten Versalien.Ist das Hintergrundbild okay?Videokonferenz-Dienste bieten oft eine Auswahl an Hintergrundbildern an oder die Möglichkeit, sich ein eigenes Hintergrundbild hochzuladen. Wer von dieser Möglichkeit Gebrauch machen (und die miesere Bildqualität in Kauf nehmen) möchte, sollte sich für ein seriöses Motiv entscheiden, gerne für ein Bild oder Logo des eigenen Unternehmens.Warum? Private Motive senden oft ungewollt Signale aus. Das Urlaubsbild sagt: Warum nur muss ich jetzt hier sein und dieses Gespräch führen? Das Bild von der eigenen Yacht oder dem neuen Tesla wirkt protzig, die Radtour in Funktionskleidung spießig und die Bücherwand gewollt belesen. Auch wenn sie gut gemeint sind: Solche Bilder lenken ab und setzen das Kopfkino der Gesprächspartner in Gang. Privat bleibt privat!Wer sich gegen ein statisches Hintergrundbild und für eine Live-Aufnahme aus seiner Arbeitsumgebung entscheidet, sollte sich erst einmal gründlich im eigenen Zimmer umschauen, bevor die Konferenz losgeht. Vielleicht findet es zum Beispiel der Kunde aus dem Mormonenstaat Utah nicht so lustig, wenn im Hintergrund gewagte Partybilder die Wand zieren, Karl Marx’ gesammelte Werke ins Auge stechen, oder das ungemachte Doppelbett auftaucht.Achten Sie auf die Lichtverhältnisse!Am besten sind Lichtquellen, die den Raum gleichmäßig und nicht zu hell ausleuchten. Dann kann die (hoffentlich halbwegs hochwertige!) Kamera Farben und Kontraste optimal darstellen. Zudem empfiehlt es sich, direkte Sonneneinstrahlung zu vermeiden, die Folge wäre ein unnatürlich dunkles Gesicht. Eine Videokonferenz muss auch nicht zwangsläufig mit dem grobkarierten Sofa im Hintergrund stattfinden, da solche unruhigen Muster zu einer gestörten Wahrnehmung führen können.Was soll ich bloß anziehen?Die ewige Frage “Was soll ich bloß anziehen” stellt sich im Homeoffice neu – wie sich seit Corona gezeigt habt, allerdings nicht jedem. Muscle-Shirts, uralte Hoodies, Trainingsjacken, sogar der nackte Oberkörper – was haben wir nicht schon alles zu sehen bekommen. Warum zeigen sich Menschen, die noch vor zwei Jahren im schicken Top oder Sakko bei der Arbeit aufkreuzten, im Video plötzlich in einer Worst-of-Kleiderschrank-Edition? Lassen Sie sich nicht gehen! Kleiden und schminken Sie sich wie in der Arbeit! Kleiner Trost: Ihre Hausschuhe können Sie anbehalten.Kinder und Haustiere sind süß, aber…Die Kolleginnen und Kollegen sind wahrscheinlich nicht so fasziniert und gerührt, wie Sie es gerne hätten. Natürlich: Jeder hat Verständnis dafür, dass Haustiere, Kinder, Schwiegermütter etc. in der Nähe srein können. Aber Dienst ist Dienst: Wenn es möglich ist, sollten private Dinge auch im Homeoffice von beruflichen getrennt werden. Vermeiden Sie Ablenkungen für die Menschen in Ihrer virtuellen Konferenz, es sei denn Sie treffen sich außer der Reihe zu einem Social Event – etwa zum Feierabendbier, wo Sie ohnehin eher Privates besprechen.Schon wieder “gemutet”In Video-Calls machen sich viele Kolleginnen und Kollegen nicht nur unsichtbar, sondern schalten sich auch stumm. “Herr X, Sie sind gemutet!” – den Satz hat jede/r schon vielfach gehört – mal sehen, wann “to mute oneself” vom Duden aufgenommen wird. Stellt sich die Frage, warum die Leute eigentlich ihren Ton ausstellen. Lärmt eine Baustelle im Hintergrund? Schreiende Kinder? Musik? Schnupfen? Wenn all das nicht der Fall ist, kann das Mikrofon getrost offenbleiben. Andererseits: In manch einem Meeting ist es auch ganz schön, den Kollegen X mal nicht zu hören…Nicht erlaubt: der Chat nebenbei Im Meeting nebenbei E-Mails zu beantworten, zu chatten oder eine WhatsApp-Nachricht zu schreiben, ist grob unhöflich, vor allem, wenn es die anderen registrieren. Solange Bild und Ton ausgeschaltet sind, ist es allerdings auch wieder egal. Dann schlägt die eine Unhöflichkeit die andere. Entscheiden Sie selbst, was Sie Ihren Gesprächspartnern zumuten wollen.Laden Sie nicht jede/n ein!Nie war es so einfach zu meeten, wie in diesen digitalen Zeiten. Nicht wenige redselige GesellInnen animiert dieser Umstand dazu, ein digitales Treffen nach dem anderen anzuberaumen. Eingeladen wird großzügig, denn je größer der Adressatenkreis, desto wichtiger der Initiator. Mal ehrlich: Halten Sie die Teilnehmergruppe so klein wie möglich! Und sorgen Sie für eine kurze, klare, vorab zugängliche Agenda. Keine schlechte Idee ist es auch, die Dauer der Veranstaltung von vornherein zu begrenzen. Pünktlichkeit ist die Tugend der KönigeNichts ist ärgerlicher und peinlicher, als wenn ausgerechnet der Initiator eines Meetings zu spät kommt. Nein – es ist definitiv nicht so, dass Spätankömmlinge als besonders wichtig wahrgenommen werden. Vielmehr fühlen sich die Teilnehmer nicht respektiert und wundern sich spätestens beim zweiten Mal über das schlechte Zeitmanagement und Benehmen des Kollegen. Wer ein Terminproblem hat, kann das den anderen auch noch kurzfristig vorher mitteilen und das Meeting verschieben. Wozu haben wir denn alle unsere schicken Smartphones in den Taschen?Suchen Sie AugenkontaktZugegeben, das ist nicht ganz einfach. Wenn vor ihnen zehn KollegInnen auf dem Bildschirm zu sehen sind und die Diskussion in vollem Gange ist, dann fällt es schwer, die Augen nicht auf die Sprecher, sondern auf einen ganz anderen Punkt, nämlich die Kamera, zu richten. Aber man kann es versuchen, und das richtige Arrangement des Equipments hilft dabei. Die Kamera sollte stets auf Augenhöhe oder leicht darüber angebracht sein. Für Notebook-Nutzer heißt das, zwei oder drei Bücher unter das Gerät zu legen. Und wenn Sie zwei Bildschirme nutzen: Lassen Sie die Konferenz auf dem Screen laufen, über dem die Kamera angebracht ist.Erst aufzeigen, dann reden!Wenn Sie in einer größeren Gruppe einen Wortbeitrag einbringen wollen, dann geben Sie ein digitales Handzeichen. So einfach wie es scheint, ist das allerdings nicht: Wir kennen all die Meetings, in denen fünf Kollegen etwas sagen wollen und jede Kontrolle über die Reihenfolge verlorengeht. Dennoch sorgt dieses Verfahren in der Regel dafür, dass auch die Schweigsameren (irgendwann) zu Wort kommen. In kleineren Calls ist das nicht nötig, da nimmt die Diskussion sogar eher Fahrt auf, wenn sich alle so verhalten, wie in einem realen Meeting.Peinlichkeiten im LivestreamDer Worst Case kommt zum Schluss: Sie streiten in Ihrem Büro mit einem Mitarbeiter oder dem Chef und vergessen dabei, dass die Videokonferenz noch läuft und Sie aktiv zu sehen und zu hören sind. In diesem Falle – können wir Ihnen auch nicht mehr helfen. 

13 Ratschläge: Der kleine Knigge für Video-Calls​ Auch virtuelle Kommunikation braucht Regeln: Wir haben die 13 wichtigsten für Sie zusammengefasst.
Foto: Stockbakery – shutterstock.comMicrosoft Teams, Zoom, Skype, Google Meet, Bluejeans, Teamviewer, Webex – wir kennen sie alle. Jedes dieser Progrämmchen hat in den vergangenen Monaten Spuren hinterlassen, auf unseren Rechnern und in unseren Köpfen. Das ganze Netz ist gut gefüllt mit wohlmeinenden Ratgebern, aber manchmal entsteht der Eindruck, hier wird gesendet ohne Empfänger. Deshalb hier nochmal das Wichtigste zur Erinnerung.Zeigen Sie Gesicht! Schalten Sie ihre Kamera ein, solange die Übertragungsqualität nicht leidet! Nichts ist für Ihre Gesprächspartner demotivierender und ermüdender, als eine dunkle Kachel anzustarren. Menschen im Bewegtbild zu sehen, gibt der virtuellen Konferenz einen Human Touch. Es schafft Verbindung unter den Teilnehmern und hilft übrigens auch dem Organisator schnell zu erkennen, wer gerade spricht.Wenn Ihnen die Vorstellung zuwider ist, dass andere mitbekommen könnten, wie Sie in der Nase bohren oder Fingernägel knabbern, dann können sie den Hintergrund vernebeln (Blur-Effekt) oder die Kamera doch ausschalten. Dann allerdings wäre es gut, wenn Sie wenigstens mit einem netten Foto zu sehen wären, nicht mit Ihren nackten Versalien.Ist das Hintergrundbild okay?Videokonferenz-Dienste bieten oft eine Auswahl an Hintergrundbildern an oder die Möglichkeit, sich ein eigenes Hintergrundbild hochzuladen. Wer von dieser Möglichkeit Gebrauch machen (und die miesere Bildqualität in Kauf nehmen) möchte, sollte sich für ein seriöses Motiv entscheiden, gerne für ein Bild oder Logo des eigenen Unternehmens.Warum? Private Motive senden oft ungewollt Signale aus. Das Urlaubsbild sagt: Warum nur muss ich jetzt hier sein und dieses Gespräch führen? Das Bild von der eigenen Yacht oder dem neuen Tesla wirkt protzig, die Radtour in Funktionskleidung spießig und die Bücherwand gewollt belesen. Auch wenn sie gut gemeint sind: Solche Bilder lenken ab und setzen das Kopfkino der Gesprächspartner in Gang. Privat bleibt privat!Wer sich gegen ein statisches Hintergrundbild und für eine Live-Aufnahme aus seiner Arbeitsumgebung entscheidet, sollte sich erst einmal gründlich im eigenen Zimmer umschauen, bevor die Konferenz losgeht. Vielleicht findet es zum Beispiel der Kunde aus dem Mormonenstaat Utah nicht so lustig, wenn im Hintergrund gewagte Partybilder die Wand zieren, Karl Marx’ gesammelte Werke ins Auge stechen, oder das ungemachte Doppelbett auftaucht.Achten Sie auf die Lichtverhältnisse!Am besten sind Lichtquellen, die den Raum gleichmäßig und nicht zu hell ausleuchten. Dann kann die (hoffentlich halbwegs hochwertige!) Kamera Farben und Kontraste optimal darstellen. Zudem empfiehlt es sich, direkte Sonneneinstrahlung zu vermeiden, die Folge wäre ein unnatürlich dunkles Gesicht. Eine Videokonferenz muss auch nicht zwangsläufig mit dem grobkarierten Sofa im Hintergrund stattfinden, da solche unruhigen Muster zu einer gestörten Wahrnehmung führen können.Was soll ich bloß anziehen?Die ewige Frage “Was soll ich bloß anziehen” stellt sich im Homeoffice neu – wie sich seit Corona gezeigt habt, allerdings nicht jedem. Muscle-Shirts, uralte Hoodies, Trainingsjacken, sogar der nackte Oberkörper – was haben wir nicht schon alles zu sehen bekommen. Warum zeigen sich Menschen, die noch vor zwei Jahren im schicken Top oder Sakko bei der Arbeit aufkreuzten, im Video plötzlich in einer Worst-of-Kleiderschrank-Edition? Lassen Sie sich nicht gehen! Kleiden und schminken Sie sich wie in der Arbeit! Kleiner Trost: Ihre Hausschuhe können Sie anbehalten.Kinder und Haustiere sind süß, aber…Die Kolleginnen und Kollegen sind wahrscheinlich nicht so fasziniert und gerührt, wie Sie es gerne hätten. Natürlich: Jeder hat Verständnis dafür, dass Haustiere, Kinder, Schwiegermütter etc. in der Nähe srein können. Aber Dienst ist Dienst: Wenn es möglich ist, sollten private Dinge auch im Homeoffice von beruflichen getrennt werden. Vermeiden Sie Ablenkungen für die Menschen in Ihrer virtuellen Konferenz, es sei denn Sie treffen sich außer der Reihe zu einem Social Event – etwa zum Feierabendbier, wo Sie ohnehin eher Privates besprechen.Schon wieder “gemutet”In Video-Calls machen sich viele Kolleginnen und Kollegen nicht nur unsichtbar, sondern schalten sich auch stumm. “Herr X, Sie sind gemutet!” – den Satz hat jede/r schon vielfach gehört – mal sehen, wann “to mute oneself” vom Duden aufgenommen wird. Stellt sich die Frage, warum die Leute eigentlich ihren Ton ausstellen. Lärmt eine Baustelle im Hintergrund? Schreiende Kinder? Musik? Schnupfen? Wenn all das nicht der Fall ist, kann das Mikrofon getrost offenbleiben. Andererseits: In manch einem Meeting ist es auch ganz schön, den Kollegen X mal nicht zu hören…Nicht erlaubt: der Chat nebenbei Im Meeting nebenbei E-Mails zu beantworten, zu chatten oder eine WhatsApp-Nachricht zu schreiben, ist grob unhöflich, vor allem, wenn es die anderen registrieren. Solange Bild und Ton ausgeschaltet sind, ist es allerdings auch wieder egal. Dann schlägt die eine Unhöflichkeit die andere. Entscheiden Sie selbst, was Sie Ihren Gesprächspartnern zumuten wollen.Laden Sie nicht jede/n ein!Nie war es so einfach zu meeten, wie in diesen digitalen Zeiten. Nicht wenige redselige GesellInnen animiert dieser Umstand dazu, ein digitales Treffen nach dem anderen anzuberaumen. Eingeladen wird großzügig, denn je größer der Adressatenkreis, desto wichtiger der Initiator. Mal ehrlich: Halten Sie die Teilnehmergruppe so klein wie möglich! Und sorgen Sie für eine kurze, klare, vorab zugängliche Agenda. Keine schlechte Idee ist es auch, die Dauer der Veranstaltung von vornherein zu begrenzen.

Pünktlichkeit ist die Tugend der KönigeNichts ist ärgerlicher und peinlicher, als wenn ausgerechnet der Initiator eines Meetings zu spät kommt. Nein – es ist definitiv nicht so, dass Spätankömmlinge als besonders wichtig wahrgenommen werden. Vielmehr fühlen sich die Teilnehmer nicht respektiert und wundern sich spätestens beim zweiten Mal über das schlechte Zeitmanagement und Benehmen des Kollegen. Wer ein Terminproblem hat, kann das den anderen auch noch kurzfristig vorher mitteilen und das Meeting verschieben. Wozu haben wir denn alle unsere schicken Smartphones in den Taschen?Suchen Sie AugenkontaktZugegeben, das ist nicht ganz einfach. Wenn vor ihnen zehn KollegInnen auf dem Bildschirm zu sehen sind und die Diskussion in vollem Gange ist, dann fällt es schwer, die Augen nicht auf die Sprecher, sondern auf einen ganz anderen Punkt, nämlich die Kamera, zu richten. Aber man kann es versuchen, und das richtige Arrangement des Equipments hilft dabei. Die Kamera sollte stets auf Augenhöhe oder leicht darüber angebracht sein. Für Notebook-Nutzer heißt das, zwei oder drei Bücher unter das Gerät zu legen. Und wenn Sie zwei Bildschirme nutzen: Lassen Sie die Konferenz auf dem Screen laufen, über dem die Kamera angebracht ist.Erst aufzeigen, dann reden!Wenn Sie in einer größeren Gruppe einen Wortbeitrag einbringen wollen, dann geben Sie ein digitales Handzeichen. So einfach wie es scheint, ist das allerdings nicht: Wir kennen all die Meetings, in denen fünf Kollegen etwas sagen wollen und jede Kontrolle über die Reihenfolge verlorengeht. Dennoch sorgt dieses Verfahren in der Regel dafür, dass auch die Schweigsameren (irgendwann) zu Wort kommen. In kleineren Calls ist das nicht nötig, da nimmt die Diskussion sogar eher Fahrt auf, wenn sich alle so verhalten, wie in einem realen Meeting.Peinlichkeiten im LivestreamDer Worst Case kommt zum Schluss: Sie streiten in Ihrem Büro mit einem Mitarbeiter oder dem Chef und vergessen dabei, dass die Videokonferenz noch läuft und Sie aktiv zu sehen und zu hören sind. In diesem Falle – können wir Ihnen auch nicht mehr helfen.

13 Ratschläge: Der kleine Knigge für Video-Calls​ Weiterlesen »

Sicher und anonym surfen: So werden Sie (fast) unsichtbar im Netz​

Allgemein

Anonym im Netz? Bleibt ein schöner Traum. Dennoch können Sie Maßnahmen ergreifen, um Ihre Privatsphäre zu schützen – so gut es eben geht. Foto: frankies – shutterstock.com Im Unternehmensumfeld sorgt ein Erhalt der Mitarbeiter-Privatsphäre dafür, Risiken von Social-Engineering-Angriffen oder Erpressung zu reduzieren. Denn je mehr kriminell motivierte Angreifer über die Schlüsselpersonen innerhalb einer Organisation in Erfahrung bringen können, desto zielgerichteter und effektiver fallen ihre Attacken aus. Deswegen sollten die Aufklärung und Schulung der Mitarbeiter darüber, wie diese ihre Privatsphäre bestmöglich schützen, grundlegender Bestandteil jedes Security-Awareness-Programms sein. Dabei können Sie konkrete, spezifische Maßnahmen und Vorkehrungen treffen, um Ihre Privatsphäre – und die Ihrer Mitarbeiter – zu schützen. Das kostet Sie Energie und Zeit – und erfordert darüber hinaus auch ein wenig technisches Knowhow. Wir sagen Ihnen, wie Sie sich in acht Schritten (fast) anonym und sicher durch das weltweite Netz bewegen. Dabei noch ein Hinweis: Privatsphäre und Anonymität sind nicht synonym. Machen Sie sich keine Illusionen – einhundertprozentige Anonymität im Netz gibt es in der digitalisierten Welt nicht. Alles was Sie tun können ist, Ihre Privatsphäre so gut wie möglich zu schützen. Signal Signal ist eine Messaging App für verschlüsselte Kommunikation. Text- und Sprachnachrichten können hiermit genauso gesendet und empfangen werden wie Video- und Audioanrufe. Dabei fühlt sich Signal genauso an wie jede andere Messaging App – nutzt aber Verschlüsselung, die (zumindest nach aktuellem Stand) nicht einmal die NSA knacken kann. Was die Metadaten angeht: Jeder Widersacher auf Netzwerk-Ebene kann sehen, dass Sie Signal nutzen. Wenn es sich bei diesen Widersachern um Geheimdienste handelt, können diese sehr wahrscheinlich auch ermitteln, mit wem, wann und wie lange sie kommunizieren. Die Macher von Signal sind sich dieser technischen Limitationen durchaus bewusst und forschen an Mitteln und Wegen, um das Problem zu lösen. Bislang bleibt eine Metadaten-resistente Kommunikation allerdings ein schöner Traum. Nichtsdestotrotz ist Signal die sicherste und benutzerfreundlichste Messaging App, die derzeit zur Verfügung steht und bietet deutlich mehr Privatsphäre als jedes ihrer populäreren Pendants. Anonym kommunizieren Sie jedoch auch mit Signal nicht – wobei das, wie bereits erwähnt, heutzutage generell kaum möglich ist. Tor Das größte und effektivste Metadaten-resistente Softwareprojekt ist immer noch Tor. Doch auch hier bestehen technische Limitationen, die bislang trotz ausufernder Security-Forschung noch nicht beseitigt werden konnten. Tor ist für Webbrowsing mit niedriger Latenz optimiert und unterstützt lediglich TCP. Beim Versuch, diverse bekannte Webseiten aufzurufen, wird Tor zudem nicht funktionieren, da die meisten dieser Seiten den Zugang via Tor grundsätzlich blockieren. Zwar garantiert auch Tor keine hundertprozentige Anonymität beim Surfen im Netz – aber es ist in dieser Hinsicht das beste verfügbare Werkzeug. Wie so viele Dinge im Leben ist auch das Tor-Projekt ein zweischneidiges Schwert: Einerseits wird es von Journalisten und Bloggern genutzt, um anonym zu recherchieren oder zu publizieren, andererseits wird es auch von kriminellen Hackern für diverse böswillige Zwecke eingesetzt. Sollten Sie mal wieder jemandem begegnen, der sich über das “böse Darkweb” beschwert, gegen das endlich jemand etwas unternehmen sollte – erinnern sie diesen Jemand gerne daran, dass Bankräuber nach getaner “Arbeit” auch vom Tatort flüchten, jedoch niemand auf die Idee kommt, Autos und Straßen verbieten zu wollen. Vor allem für die mobile Nutzung sollten Sie auf den Tor-Browser setzen. Es gibt eine offizielle App für Android-Geräte und eine vom Tor-Projekt autorisierte, aber inoffizielle App für iOS. VPNs Virtual Private Networks bieten keine Anonymität. Weil aber jeder VPNs in einem Artikel wie diesem erwartet, räumen wir an dieser Stelle direkt mit diesem Mythos auf. Alles, was ein VPN tut, ist, den Traffic von Ihrem Internetanbieter – oder, falls Sie unterwegs sind, dem Hotel- oder Flughafen-WiFi – über einen verschlüsselten Tunnel umzuleiten. Es gibt viele legitime Gründe, VPNs zu nutzen – Anonymität gehört nicht dazu. Nicht einmal ansatzweise. Im Gegensatz zu Tor – das Ihren Traffic über drei verschiedene, im weltweiten Netz verteilte Knotenpunkte leitet und es potenziellen Widersachern dadurch schwer (wenn auch nicht unmöglich) macht, zu sehen was Sie da tun – leitet ein Virtual Private Network einfach um. Der VPN-Provider ist also in der Lage, ihre Aktivitäten jederzeit nachzuvollziehen. Das bedeutet auf der anderen Seite, dass böswillige oder staatliche Akteure, die sich Zugang zu den VPN-Servern verschaffen – sei es per Hack oder Gerichtsbeschluss – das ebenso gut können. Damit wir uns richtig verstehen: VPNs sind eine gute Sache. Nutzen Sie sie, wann immer Sie können. Erwarten Sie aber keine Anonymität. Zero Knowledge Services Google kann jede E-Mail, die Sie schreiben und erhalten, einsehen. Office 365 scannt jede Zeile, die Sie verfassen. DropBox analysiert jeden Ihrer Uploads. Jedes dieser Unternehmen – und viele andere – sind PRISM Provider, kooperieren im Rahmen von Massenüberwachungsprogrammen mit staatlichen Akteuren. Wenn Sie die Services dieser Unternehmen nutzen, fällt Privatsphäre also grundsätzlich aus. Gegensteuern könnten Sie natürlich, indem Sie Ihre Daten vor dem Upload verschlüsseln. Dazu könnten Sie sich zum Beispiel Kenntnisse im Umgang mit PGP aneignen. Oder Sie entscheiden sich für Provider, die sich dem Zero-Knowledge-Prinzip verpflichten. Dabei können Sie sich allerdings auch nie sicher sein, dass entsprechende staatliche Akteure auch in diesen Fällen über entsprechende Hintertürchen verfügen. Mögliche Alternativen bieten beispielsweise Firmen wie SpiderOak in den USA, die Zero Knowledge File Storage anbieten oder der Schweizer Anbieter Protonmail, der damit wirbt, dass es für Dritte rein mathematisch unmöglich sei, die Inhalte Ihrer E-Mails einzusehen. Wir wollen Ihnen keinen der genannten Services empfehlen – es handelt sich lediglich um Beispiele für Zero-Knowledge-Anbieter und entbindet Sie nicht von der Pflicht, vor der Nutzung solcher Services entsprechende Hintergrundrecherchen über die Anbieter zu betreiben. Social Media Online-Privatsphäre heißt auch, dass Sie selbst darüber entscheiden, was Sie mit der Welt teilen wollen und was nicht. Wenn sich in Ihrem (Arbeits-)Leben Dinge abspielen, die nicht dazu geeignet sind, mit einer breiten Öffentlichkeit geteilt zu werden, sollten Sie folglich auch vermeiden, diese über Social-Media-Plattformen zu verbreiten. Dieser Themenkomplex ist ohne Zweifel auch eine Generationenfrage: Während ältere Menschen im Regelfall beim Gedanken daran erschaudern, ihr Privatleben auf Social-Media-Kanälen mit der Welt zu teilen, hält das Gros der Generation Smartphone es für völlig normal, jeden Aspekt ihres Lebens “share-bar” zu machen. Sie sollten vor jedem Posting auf sozialen Kanälen das große Ganze im Auge behalten: Ein einzelner Post mag unbedeutend erscheinen – aber tut er das in Kombination mit den übrigen verfügbaren Informationen über Ihr Leben immer noch? Überlegen Sie sich vor dem Klick auf den Button ganz genau, welches Gesamtbild Ihr Beitrag erzeugen könnte. App-Berechtigungen Mobile Apps – egal ob auf Android– oder iOS-Geräten – tendieren generell dazu, weit mehr Berechtigungen als nötig “einzufordern”. Die Folge ist, dass persönliche Daten ganz regelmäßig extrahiert und an den App-Hersteller übertragen werden. Braucht jede App wirklich Zugriff auf das Mikrofon Ihres Smartphones, Ihren Aufenthaltsort oder Ihr Adressbuch? Auch wenn es sowohl unter Android als auch unter iOS etwas umständlich und kompliziert ist: Wühlen Sie sich durch die entsprechenden Einstellungen und schalten Sie unnötige App-Berechtigungen ganz konsequent ab. Dabei gilt: Lieber eine Berechtigung zu viel als zu wenig verwehren. Ad Blocker Heutiges Online Advertising ist mit dem der frühen Online-Jahre nicht mehr zu vergleichen: Statt einer Anzeige für alle Nutzer, überwachen heutige Advertising-Netzwerke Ihr Nutzungsverhalten und liefern gezielt auf Ihre Interessen zugeschnittene Werbeanzeigen aus. Das ist das maßgebliche Geschäftsmodell der Silicon-Valley-Giganten. Google und Facebook etwa verfolgen jeder Ihrer Schritte im World Wide Web – auch wenn Sie keinen Account dort haben beziehungsweise nicht eingeloggt sind. Die Installation eines AdBlockers ist dagegen zwar auch kein Allheilmittel – aber ein Holzschwert ist immer noch besser, als gar keine Waffe zur Verteidigung am Start zu haben. Es gibt einige Webbrowser, die Werbeanzeigen und Tracker standardmäßig blockieren – auch Browser-Erweiterungen stehen zu diesem Zweck zur Verfügung. Eine andere Möglichkeit: Sie nehmen den DNS-Requests der Werbenetzwerke bereits auf lokalem Router-Level den Wind aus den Segeln. Home Assistants Wenn Sie Wert auf Privatsphäre und ein möglichst hohes Level an Online-Anonymität legen, sollten Sie dafür Sorge tragen, dass smarte Lautsprecher keinen Platz in Ihrem Zuhause finden. Amazon Echo, Google Home und Konsorten sind permanent online und wirken absolut toxisch in Sachen Privatsphäre – noch dazu gibt es keinen Weg, diese Devices so zu konfigurieren, dass sie weniger invasiv wirken. Dass solche Gerätschaften inzwischen quasi allgegenwärtig sind, macht die Sache nicht besser: Um Ihre Privatsphäre über den Jordan zu schicken, reicht unter Umständen bereits aus, dass Ihre Nachbarn sich an einem smarten Lautsprecher “erfreuen”. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Sicher und anonym surfen: So werden Sie (fast) unsichtbar im Netz​ Anonym im Netz? Bleibt ein schöner Traum. Dennoch können Sie Maßnahmen ergreifen, um Ihre Privatsphäre zu schützen – so gut es eben geht.
Foto: frankies – shutterstock.com

Im Unternehmensumfeld sorgt ein Erhalt der Mitarbeiter-Privatsphäre dafür, Risiken von Social-Engineering-Angriffen oder Erpressung zu reduzieren. Denn je mehr kriminell motivierte Angreifer über die Schlüsselpersonen innerhalb einer Organisation in Erfahrung bringen können, desto zielgerichteter und effektiver fallen ihre Attacken aus.

Deswegen sollten die Aufklärung und Schulung der Mitarbeiter darüber, wie diese ihre Privatsphäre bestmöglich schützen, grundlegender Bestandteil jedes Security-Awareness-Programms sein. Dabei können Sie konkrete, spezifische Maßnahmen und Vorkehrungen treffen, um Ihre Privatsphäre – und die Ihrer Mitarbeiter – zu schützen. Das kostet Sie Energie und Zeit – und erfordert darüber hinaus auch ein wenig technisches Knowhow.

Wir sagen Ihnen, wie Sie sich in acht Schritten (fast) anonym und sicher durch das weltweite Netz bewegen. Dabei noch ein Hinweis: Privatsphäre und Anonymität sind nicht synonym. Machen Sie sich keine Illusionen – einhundertprozentige Anonymität im Netz gibt es in der digitalisierten Welt nicht. Alles was Sie tun können ist, Ihre Privatsphäre so gut wie möglich zu schützen.

Signal

Signal ist eine Messaging App für verschlüsselte Kommunikation. Text- und Sprachnachrichten können hiermit genauso gesendet und empfangen werden wie Video- und Audioanrufe. Dabei fühlt sich Signal genauso an wie jede andere Messaging App – nutzt aber Verschlüsselung, die (zumindest nach aktuellem Stand) nicht einmal die NSA knacken kann. Was die Metadaten angeht: Jeder Widersacher auf Netzwerk-Ebene kann sehen, dass Sie Signal nutzen. Wenn es sich bei diesen Widersachern um Geheimdienste handelt, können diese sehr wahrscheinlich auch ermitteln, mit wem, wann und wie lange sie kommunizieren.

Die Macher von Signal sind sich dieser technischen Limitationen durchaus bewusst und forschen an Mitteln und Wegen, um das Problem zu lösen. Bislang bleibt eine Metadaten-resistente Kommunikation allerdings ein schöner Traum. Nichtsdestotrotz ist Signal die sicherste und benutzerfreundlichste Messaging App, die derzeit zur Verfügung steht und bietet deutlich mehr Privatsphäre als jedes ihrer populäreren Pendants. Anonym kommunizieren Sie jedoch auch mit Signal nicht – wobei das, wie bereits erwähnt, heutzutage generell kaum möglich ist.

Tor

Das größte und effektivste Metadaten-resistente Softwareprojekt ist immer noch Tor. Doch auch hier bestehen technische Limitationen, die bislang trotz ausufernder Security-Forschung noch nicht beseitigt werden konnten. Tor ist für Webbrowsing mit niedriger Latenz optimiert und unterstützt lediglich TCP. Beim Versuch, diverse bekannte Webseiten aufzurufen, wird Tor zudem nicht funktionieren, da die meisten dieser Seiten den Zugang via Tor grundsätzlich blockieren.

Zwar garantiert auch Tor keine hundertprozentige Anonymität beim Surfen im Netz – aber es ist in dieser Hinsicht das beste verfügbare Werkzeug. Wie so viele Dinge im Leben ist auch das Tor-Projekt ein zweischneidiges Schwert: Einerseits wird es von Journalisten und Bloggern genutzt, um anonym zu recherchieren oder zu publizieren, andererseits wird es auch von kriminellen Hackern für diverse böswillige Zwecke eingesetzt.

Sollten Sie mal wieder jemandem begegnen, der sich über das “böse Darkweb” beschwert, gegen das endlich jemand etwas unternehmen sollte – erinnern sie diesen Jemand gerne daran, dass Bankräuber nach getaner “Arbeit” auch vom Tatort flüchten, jedoch niemand auf die Idee kommt, Autos und Straßen verbieten zu wollen. Vor allem für die mobile Nutzung sollten Sie auf den Tor-Browser setzen. Es gibt eine offizielle App für Android-Geräte und eine vom Tor-Projekt autorisierte, aber inoffizielle App für iOS.

VPNs

Virtual Private Networks bieten keine Anonymität. Weil aber jeder VPNs in einem Artikel wie diesem erwartet, räumen wir an dieser Stelle direkt mit diesem Mythos auf. Alles, was ein VPN tut, ist, den Traffic von Ihrem Internetanbieter – oder, falls Sie unterwegs sind, dem Hotel- oder Flughafen-WiFi – über einen verschlüsselten Tunnel umzuleiten. Es gibt viele legitime Gründe, VPNs zu nutzen – Anonymität gehört nicht dazu. Nicht einmal ansatzweise.

Im Gegensatz zu Tor – das Ihren Traffic über drei verschiedene, im weltweiten Netz verteilte Knotenpunkte leitet und es potenziellen Widersachern dadurch schwer (wenn auch nicht unmöglich) macht, zu sehen was Sie da tun – leitet ein Virtual Private Network einfach um. Der VPN-Provider ist also in der Lage, ihre Aktivitäten jederzeit nachzuvollziehen. Das bedeutet auf der anderen Seite, dass böswillige oder staatliche Akteure, die sich Zugang zu den VPN-Servern verschaffen – sei es per Hack oder Gerichtsbeschluss – das ebenso gut können.

Damit wir uns richtig verstehen: VPNs sind eine gute Sache. Nutzen Sie sie, wann immer Sie können. Erwarten Sie aber keine Anonymität.

Zero Knowledge Services

Google kann jede E-Mail, die Sie schreiben und erhalten, einsehen. Office 365 scannt jede Zeile, die Sie verfassen. DropBox analysiert jeden Ihrer Uploads. Jedes dieser Unternehmen – und viele andere – sind PRISM Provider, kooperieren im Rahmen von Massenüberwachungsprogrammen mit staatlichen Akteuren. Wenn Sie die Services dieser Unternehmen nutzen, fällt Privatsphäre also grundsätzlich aus.

Gegensteuern könnten Sie natürlich, indem Sie Ihre Daten vor dem Upload verschlüsseln. Dazu könnten Sie sich zum Beispiel Kenntnisse im Umgang mit PGP aneignen. Oder Sie entscheiden sich für Provider, die sich dem Zero-Knowledge-Prinzip verpflichten. Dabei können Sie sich allerdings auch nie sicher sein, dass entsprechende staatliche Akteure auch in diesen Fällen über entsprechende Hintertürchen verfügen.

Mögliche Alternativen bieten beispielsweise Firmen wie SpiderOak in den USA, die Zero Knowledge File Storage anbieten oder der Schweizer Anbieter Protonmail, der damit wirbt, dass es für Dritte rein mathematisch unmöglich sei, die Inhalte Ihrer E-Mails einzusehen. Wir wollen Ihnen keinen der genannten Services empfehlen – es handelt sich lediglich um Beispiele für Zero-Knowledge-Anbieter und entbindet Sie nicht von der Pflicht, vor der Nutzung solcher Services entsprechende Hintergrundrecherchen über die Anbieter zu betreiben.

Social Media

Online-Privatsphäre heißt auch, dass Sie selbst darüber entscheiden, was Sie mit der Welt teilen wollen und was nicht. Wenn sich in Ihrem (Arbeits-)Leben Dinge abspielen, die nicht dazu geeignet sind, mit einer breiten Öffentlichkeit geteilt zu werden, sollten Sie folglich auch vermeiden, diese über Social-Media-Plattformen zu verbreiten.

Dieser Themenkomplex ist ohne Zweifel auch eine Generationenfrage: Während ältere Menschen im Regelfall beim Gedanken daran erschaudern, ihr Privatleben auf Social-Media-Kanälen mit der Welt zu teilen, hält das Gros der Generation Smartphone es für völlig normal, jeden Aspekt ihres Lebens “share-bar” zu machen.

Sie sollten vor jedem Posting auf sozialen Kanälen das große Ganze im Auge behalten: Ein einzelner Post mag unbedeutend erscheinen – aber tut er das in Kombination mit den übrigen verfügbaren Informationen über Ihr Leben immer noch? Überlegen Sie sich vor dem Klick auf den Button ganz genau, welches Gesamtbild Ihr Beitrag erzeugen könnte.

App-Berechtigungen

Mobile Apps – egal ob auf Android– oder iOS-Geräten – tendieren generell dazu, weit mehr Berechtigungen als nötig “einzufordern”. Die Folge ist, dass persönliche Daten ganz regelmäßig extrahiert und an den App-Hersteller übertragen werden. Braucht jede App wirklich Zugriff auf das Mikrofon Ihres Smartphones, Ihren Aufenthaltsort oder Ihr Adressbuch?

Auch wenn es sowohl unter Android als auch unter iOS etwas umständlich und kompliziert ist: Wühlen Sie sich durch die entsprechenden Einstellungen und schalten Sie unnötige App-Berechtigungen ganz konsequent ab. Dabei gilt: Lieber eine Berechtigung zu viel als zu wenig verwehren.

Ad Blocker

Heutiges Online Advertising ist mit dem der frühen Online-Jahre nicht mehr zu vergleichen: Statt einer Anzeige für alle Nutzer, überwachen heutige Advertising-Netzwerke Ihr Nutzungsverhalten und liefern gezielt auf Ihre Interessen zugeschnittene Werbeanzeigen aus. Das ist das maßgebliche Geschäftsmodell der Silicon-Valley-Giganten. Google und Facebook etwa verfolgen jeder Ihrer Schritte im World Wide Web – auch wenn Sie keinen Account dort haben beziehungsweise nicht eingeloggt sind.

Die Installation eines AdBlockers ist dagegen zwar auch kein Allheilmittel – aber ein Holzschwert ist immer noch besser, als gar keine Waffe zur Verteidigung am Start zu haben. Es gibt einige Webbrowser, die Werbeanzeigen und Tracker standardmäßig blockieren – auch Browser-Erweiterungen stehen zu diesem Zweck zur Verfügung. Eine andere Möglichkeit: Sie nehmen den DNS-Requests der Werbenetzwerke bereits auf lokalem Router-Level den Wind aus den Segeln.

Home Assistants

Wenn Sie Wert auf Privatsphäre und ein möglichst hohes Level an Online-Anonymität legen, sollten Sie dafür Sorge tragen, dass smarte Lautsprecher keinen Platz in Ihrem Zuhause finden. Amazon Echo, Google Home und Konsorten sind permanent online und wirken absolut toxisch in Sachen Privatsphäre – noch dazu gibt es keinen Weg, diese Devices so zu konfigurieren, dass sie weniger invasiv wirken.

Dass solche Gerätschaften inzwischen quasi allgegenwärtig sind, macht die Sache nicht besser: Um Ihre Privatsphäre über den Jordan zu schicken, reicht unter Umständen bereits aus, dass Ihre Nachbarn sich an einem smarten Lautsprecher “erfreuen”. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Sicher und anonym surfen: So werden Sie (fast) unsichtbar im Netz​ Weiterlesen »

8 rettende Sätze in heiklen Mitarbeitergesprächen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Einstudierte Formulierungen tragen als „kommunikative Werkzeuge“ dazu bei, in herausfordernden Gesprächssituationen flexibel zu reagieren und sicher aufzutreten.PeopleImages.com – Yuri A – Shutterstock 2548727679 Führungskräfte müssen in ihrem Arbeitsalltag oft schwierige Gespräche führen. So zum Beispiel, wenn es gilt, einer Person eine kritische Rückmeldung zu geben oder einen Konflikt im Team zu lösen. Auch in Verhandlungen mit Kunden kann es zu heiklen Situationen kommen.   All diese Aufgaben stellen für die Betroffenen stets auch eine emotionale Herausforderung dar. Denn in solchen Momenten schaltet das Gehirn oft in den „Kampf-“ oder „Flucht-Modus“. Der Mensch neigt also wie in einer Bedrohungssituation dazu, entweder zu fliehen oder anzugreifen. Das heißt wiederum:   Rationale Gedanken und Überlegungen rücken in den Hintergrund und  wir sind aufgrund unserer emotionalen Anspannung nicht mehr wie gewohnt so flexibel im Formulieren guter, der Situation angemessener Fragen und Antworten.     In heiklen Gesprächssituationen nicht den Kopf verlieren Aber wie gelingt es in solchen Stresssituationen, in die wir – mal vorsehbar, mal unverhofft – geraten, die innere Ruhe zu bewahren und die Dynamik weiterhin positiv zu beeinflussen? Unter anderem, indem wir im Gespräch der Situation angemessene Formulierungen verwenden. Deshalb ist es vorteilhaft, für solche Situationen passende Sätze parat beziehungsweise verinnerlicht zu haben.  Als Coach und Trainerin werde ich oft gefragt: „Gibt es ein Rezept für schwierige Gespräche?“ Ein Patentrezept gibt es zumindest nicht, denn sowohl die an solchen Gesprächen beteiligten Personen als auch die jeweiligen Situationen und Konstellationen sind sehr verschieden. Trotzdem erhoffen sich viele Menschen erprobte Ansätze, die ihnen Sicherheit geben und weiterhelfen.     Wie sage ich das bloß? Acht Sätze, die weiterhelfen Deshalb habe ich nachfolgend acht Sätze aufgelistet, die sich im Führungs- und Arbeitsalltag bewährt haben, unter anderem, weil sie auf eine partnerschaftliche Lösung abzielen. Deshalb werden sie auch als empathisch empfunden und sind vielseitig einsetzbar.   Satz 1: „Was wäre für Sie in dieser Situation eine akzeptable Lösung?“  Situation: Der Gesprächspartner blockiert oder zeigt Widerstand.  Weshalb der Satz hilft: Oft neigen wir dazu, andere Menschen von unserer Lösung überzeugen zu wollen und diese sozusagen als „alternativlos“ zu präsentieren. Doch Druck bewirkt meist Gegendruck und erzeugt häufig Widerstand. Dieser Satz zeigt, dass Sie bereit sind, die Perspektive des anderen zu berücksichtigen und signalisiert Offenheit. Indem Sie Ihren Gesprächspartner in die Lösung einbinden, fördern Sie eine konstruktive Zusammenarbeit und Sie schaffen den Raum für gemeinsame (neue) Ideen.   Satz 2: „Lassen Sie uns kurz innehalten: Mir ist es wichtig, dass wir gemeinsam eine konstruktive, tragfähige Lösung finden.“  Situation: Ein Gespräch droht zu eskalieren oder wird hitzig.  Weshalb der Satz hilft: Dieser Satz wirkt wie ein „Stoppsignal“ für eine eskalierende Dynamik. Er lenkt den Fokus auf das Ziel des Gesprächs und hilft, die Situation zu beruhigen. Zugleich vermittelt er den Wunsch nach Zusammenarbeit.  Satz 3: „Ich schätze Sie und Ihre Arbeit sehr. Deshalb möchte ich folgenden Punkt offen ansprechen.“  Situation: Wenn heikle Themen angesprochen werden müssen, die zur Belastung der Beziehung führen könnten.  Weshalb der Satz hilft: Dieser Satz zeigt, dass Ihre kritische Rückmeldung nicht auf einer mangelnden Wertschätzung Ihres Gegenübers basiert. Indem Sie zunächst Ihre Anerkennung ausdrücken, schaffen Sie die Grundlage für ein offenes, zielführendes Gespräch, bei dem Ihr Gesprächspartner sich nicht angegriffen fühlt.  Satz 4: „Ich habe das Gefühl, dass etwas Wichtiges noch unausgesprochen ist. Ist das so und möchten Sie hierüber sprechen?“   Situation: Wenn Sie spüren, dass Ihr Gesprächspartner zögert oder sich unwohl fühlt.  Weshalb der Satz hilft: Dieser Satz schafft Raum für eine ehrliche Kommunikation. Er zeigt, dass Sie auch die nonverbale beziehungsweise emotionale Gesprächsebene wahrnehmen und bereit sind, zum Beispiel auch über solche persönlichen Dinge wie (diffuse) Ängste und Befürchtungen, Hoffnungen und Erwartungen zu sprechen. Das löst oft Spannungen und Blockaden und führt zu einem tiefergehenden Dialog.  Satz 5: „Ich möchte gerne sicherstellen, dass wir beide vom Gleichen sprechen und dasselbe meinen. Wie sehen Sie das?“  Situation: Wenn es um wichtige Entscheidungen oder potenzielle Missverständnisse und divergierende Interessen geht.  Weshalb der Satz hilft: Dieser Satz signalisiert ein aktives Zuhören und sorgt für Klarheit. Eventuelle Missverständnisse – zum Beispiel aufgrund der unterschiedlichen Position/Funktion – können erkannt und aus dem Weg geräumt werden, bevor sie zu größeren Problemen führen.  Satz 6: „Lassen Sie uns eine kurze Pause machen, um unsere Gedanken zu sortieren, und danach ruhig, mit einem klaren Kopf weitersprechen.“  Situation: Ein Gespräch wird zu emotional oder ist festgefahren.  Weshalb der Satz hilft: Eine Pause schafft Raum, um sich zu sammeln und die Emotionen zu beruhigen. Beide Seiten können anschließend mit neuer Energie und einem klaren Fokus weitermachen.   Satz 7: „Was wäre für Sie in dieser Situation der ideale nächste Schritt?“  Situation: Wenn jemand Verantwortung übernehmen soll und Sie die Eigeninitiative Ihres Gesprächspartners fördern möchten.  Weshalb der Satz hilft: Dieser Satz fordert Ihren Gesprächspartner auf, aktiv mitzudenken und Vorschläge zu machen. Das Wort „Schritt“ ist dabei besonders hilfreich, da es ein Aktiv-werden sowie zielorientiertes in Bewegung-kommen signalisiert. Es regt dazu an, handlungsorientiert zu denken statt sich in abstrakten, diffusen Konzepten zu verlieren. Das fördert die Eigenverantwortung und -initiative und klärt die Erwartungen auf eine umsetzbare Art und Weise.  Satz 8: „Ich verstehe, dass das im Moment schwierig ist. Was können wir tun, um es für Sie einfacher zu machen?“  Situation: Wenn der Gesprächspartner mit einer Herausforderung zu kämpfen hat.  Weshalb der Satz hilft: Empathie gepaart mit einer gezeigten, konkreten Hilfsbereitschaft senkt den Druck, der auf Ihrem Gesprächspartner lastet, ohne ihn aus der Verantwortung zu entlassen. Das Wörtchen „Wir“ in dem Satz impliziert, dass die Situation nicht einseitig bearbeitet wird. Es zeigt, dass Sie die Herausforderung als solche wahrnehmen und deshalb aktiv Unterstützung anbieten. Zugleich bindet es den Partner in den Prozess ein und fordert ihn auf, (Mit-)Verantwortung zu übernehmen und nach praktikablen Lösungen zu suchen.    So setzen Sie die Rettungssätze erfolgreich ein Tipp 1: Passen Sie die vorgenannten exemplarischen Formulierungen Ihrem Stil und der jeweiligen Situation an. Authentizität zählt!  Tipp 2: Kombinieren Sie die Sätze mit aktiven Zuhörtechniken, um den Dialog weiter zu stärken.  Tipp 3: Übung macht den Meister; überlegen Sie, in welchen Situationen beziehungsweise Gesprächen Sie einen dieser Sätze ausprobieren könnten.  Das Lernen hilfreicher Satzformulierungen ähnelt dem Erlernen von Schlüsselsätzen in einer neuen Sprache. Anfangs fühlt es sich oft ungewohnt an, doch je häufiger Sie die Sätze benutzen, desto natürlicher werden sie für Sie. So wie beim Sprachenlernen ermöglichen Ihnen diese „kommunikativen Werkzeuge“, in herausfordernden Situationen flexibel zu reagieren und sicher aufzutreten. Und ebenso wie beim Erlernen einer neuen Sprache gilt: Übung und Wiederholung sind der Schlüssel zum Erfolg.  

8 rettende Sätze in heiklen Mitarbeitergesprächen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Einstudierte Formulierungen tragen als „kommunikative Werkzeuge“ dazu bei, in herausfordernden Gesprächssituationen flexibel zu reagieren und sicher aufzutreten.PeopleImages.com – Yuri A – Shutterstock 2548727679

Führungskräfte müssen in ihrem Arbeitsalltag oft schwierige Gespräche führen. So zum Beispiel, wenn es gilt, einer Person eine kritische Rückmeldung zu geben oder einen Konflikt im Team zu lösen. Auch in Verhandlungen mit Kunden kann es zu heiklen Situationen kommen.  

All diese Aufgaben stellen für die Betroffenen stets auch eine emotionale Herausforderung dar. Denn in solchen Momenten schaltet das Gehirn oft in den „Kampf-“ oder „Flucht-Modus“. Der Mensch neigt also wie in einer Bedrohungssituation dazu, entweder zu fliehen oder anzugreifen. Das heißt wiederum:  

Rationale Gedanken und Überlegungen rücken in den Hintergrund und 

wir sind aufgrund unserer emotionalen Anspannung nicht mehr wie gewohnt so flexibel im Formulieren guter, der Situation angemessener Fragen und Antworten. 

  

In heiklen Gesprächssituationen nicht den Kopf verlieren

Aber wie gelingt es in solchen Stresssituationen, in die wir – mal vorsehbar, mal unverhofft – geraten, die innere Ruhe zu bewahren und die Dynamik weiterhin positiv zu beeinflussen? Unter anderem, indem wir im Gespräch der Situation angemessene Formulierungen verwenden. Deshalb ist es vorteilhaft, für solche Situationen passende Sätze parat beziehungsweise verinnerlicht zu haben. 

Als Coach und Trainerin werde ich oft gefragt: „Gibt es ein Rezept für schwierige Gespräche?“ Ein Patentrezept gibt es zumindest nicht, denn sowohl die an solchen Gesprächen beteiligten Personen als auch die jeweiligen Situationen und Konstellationen sind sehr verschieden. Trotzdem erhoffen sich viele Menschen erprobte Ansätze, die ihnen Sicherheit geben und weiterhelfen.  

 

Wie sage ich das bloß? Acht Sätze, die weiterhelfen

Deshalb habe ich nachfolgend acht Sätze aufgelistet, die sich im Führungs- und Arbeitsalltag bewährt haben, unter anderem, weil sie auf eine partnerschaftliche Lösung abzielen. Deshalb werden sie auch als empathisch empfunden und sind vielseitig einsetzbar.  

Satz 1: „Was wäre für Sie in dieser Situation eine akzeptable Lösung?“ 

Situation: Der Gesprächspartner blockiert oder zeigt Widerstand. 

Weshalb der Satz hilft: Oft neigen wir dazu, andere Menschen von unserer Lösung überzeugen zu wollen und diese sozusagen als „alternativlos“ zu präsentieren. Doch Druck bewirkt meist Gegendruck und erzeugt häufig Widerstand. Dieser Satz zeigt, dass Sie bereit sind, die Perspektive des anderen zu berücksichtigen und signalisiert Offenheit. Indem Sie Ihren Gesprächspartner in die Lösung einbinden, fördern Sie eine konstruktive Zusammenarbeit und Sie schaffen den Raum für gemeinsame (neue) Ideen.  

Satz 2: „Lassen Sie uns kurz innehalten: Mir ist es wichtig, dass wir gemeinsam eine konstruktive, tragfähige Lösung finden.“ 

Situation: Ein Gespräch droht zu eskalieren oder wird hitzig. 

Weshalb der Satz hilft: Dieser Satz wirkt wie ein „Stoppsignal“ für eine eskalierende Dynamik. Er lenkt den Fokus auf das Ziel des Gesprächs und hilft, die Situation zu beruhigen. Zugleich vermittelt er den Wunsch nach Zusammenarbeit. 

Satz 3: „Ich schätze Sie und Ihre Arbeit sehr. Deshalb möchte ich folgenden Punkt offen ansprechen.“ 

Situation: Wenn heikle Themen angesprochen werden müssen, die zur Belastung der Beziehung führen könnten. 

Weshalb der Satz hilft: Dieser Satz zeigt, dass Ihre kritische Rückmeldung nicht auf einer mangelnden Wertschätzung Ihres Gegenübers basiert. Indem Sie zunächst Ihre Anerkennung ausdrücken, schaffen Sie die Grundlage für ein offenes, zielführendes Gespräch, bei dem Ihr Gesprächspartner sich nicht angegriffen fühlt. 

Satz 4: „Ich habe das Gefühl, dass etwas Wichtiges noch unausgesprochen ist. Ist das so und möchten Sie hierüber sprechen?“  

Situation: Wenn Sie spüren, dass Ihr Gesprächspartner zögert oder sich unwohl fühlt. 

Weshalb der Satz hilft: Dieser Satz schafft Raum für eine ehrliche Kommunikation. Er zeigt, dass Sie auch die nonverbale beziehungsweise emotionale Gesprächsebene wahrnehmen und bereit sind, zum Beispiel auch über solche persönlichen Dinge wie (diffuse) Ängste und Befürchtungen, Hoffnungen und Erwartungen zu sprechen. Das löst oft Spannungen und Blockaden und führt zu einem tiefergehenden Dialog. 

Satz 5: „Ich möchte gerne sicherstellen, dass wir beide vom Gleichen sprechen und dasselbe meinen. Wie sehen Sie das?“ 

Situation: Wenn es um wichtige Entscheidungen oder potenzielle Missverständnisse und divergierende Interessen geht. 

Weshalb der Satz hilft: Dieser Satz signalisiert ein aktives Zuhören und sorgt für Klarheit. Eventuelle Missverständnisse – zum Beispiel aufgrund der unterschiedlichen Position/Funktion – können erkannt und aus dem Weg geräumt werden, bevor sie zu größeren Problemen führen. 

Satz 6: „Lassen Sie uns eine kurze Pause machen, um unsere Gedanken zu sortieren, und danach ruhig, mit einem klaren Kopf weitersprechen.“ 

Situation: Ein Gespräch wird zu emotional oder ist festgefahren. 

Weshalb der Satz hilft: Eine Pause schafft Raum, um sich zu sammeln und die Emotionen zu beruhigen. Beide Seiten können anschließend mit neuer Energie und einem klaren Fokus weitermachen.  

Satz 7: „Was wäre für Sie in dieser Situation der ideale nächste Schritt?“ 

Situation: Wenn jemand Verantwortung übernehmen soll und Sie die Eigeninitiative Ihres Gesprächspartners fördern möchten. 

Weshalb der Satz hilft: Dieser Satz fordert Ihren Gesprächspartner auf, aktiv mitzudenken und Vorschläge zu machen. Das Wort „Schritt“ ist dabei besonders hilfreich, da es ein Aktiv-werden sowie zielorientiertes in Bewegung-kommen signalisiert. Es regt dazu an, handlungsorientiert zu denken statt sich in abstrakten, diffusen Konzepten zu verlieren. Das fördert die Eigenverantwortung und -initiative und klärt die Erwartungen auf eine umsetzbare Art und Weise. 

Satz 8: „Ich verstehe, dass das im Moment schwierig ist. Was können wir tun, um es für Sie einfacher zu machen?“ 

Situation: Wenn der Gesprächspartner mit einer Herausforderung zu kämpfen hat. 

Weshalb der Satz hilft: Empathie gepaart mit einer gezeigten, konkreten Hilfsbereitschaft senkt den Druck, der auf Ihrem Gesprächspartner lastet, ohne ihn aus der Verantwortung zu entlassen. Das Wörtchen „Wir“ in dem Satz impliziert, dass die Situation nicht einseitig bearbeitet wird. Es zeigt, dass Sie die Herausforderung als solche wahrnehmen und deshalb aktiv Unterstützung anbieten. Zugleich bindet es den Partner in den Prozess ein und fordert ihn auf, (Mit-)Verantwortung zu übernehmen und nach praktikablen Lösungen zu suchen. 

 

So setzen Sie die Rettungssätze erfolgreich ein

Tipp 1: Passen Sie die vorgenannten exemplarischen Formulierungen Ihrem Stil und der jeweiligen Situation an. Authentizität zählt! 

Tipp 2: Kombinieren Sie die Sätze mit aktiven Zuhörtechniken, um den Dialog weiter zu stärken. 

Tipp 3: Übung macht den Meister; überlegen Sie, in welchen Situationen beziehungsweise Gesprächen Sie einen dieser Sätze ausprobieren könnten. 

Das Lernen hilfreicher Satzformulierungen ähnelt dem Erlernen von Schlüsselsätzen in einer neuen Sprache. Anfangs fühlt es sich oft ungewohnt an, doch je häufiger Sie die Sätze benutzen, desto natürlicher werden sie für Sie. So wie beim Sprachenlernen ermöglichen Ihnen diese „kommunikativen Werkzeuge“, in herausfordernden Situationen flexibel zu reagieren und sicher aufzutreten. Und ebenso wie beim Erlernen einer neuen Sprache gilt: Übung und Wiederholung sind der Schlüssel zum Erfolg. 

8 rettende Sätze in heiklen Mitarbeitergesprächen​ Weiterlesen »

JavaScript-Tutorial: Mit Promises asynchron programmieren​

Allgemein

Promises sind ein wichtiger und nützlicher Aspekt von JavaScript, der bei zahlreichen asynchronen Programmier-Tasks unterstützen kann. Foto: CobraCZ | shutterstock.com Promises stellen in JavaScript einen zentralen Mechanismus dar, um asynchronen Code zu händeln. Sie sind Bestandteil diverser Bibliotheken und Frameworks und werden genutzt, um die Resultate einer Aktion zu managen. Die fetch()-API ist ein Beispiel für Promises im Praxiseinsatz. Selbst wenn Sie als Entwickler nicht damit vertraut sind, Promises außerhalb eines bestehenden Produkts zu erstellen und zu nutzen, gestaltet es sich überraschend simpel, das zu erlernen. Das trägt nicht nur zu einem besseren Verständnis darüber bei, wie Promises von Bibliotheken genutzt werden, sondern gibt Ihnen auch das richtige Tool für asynchrone Programmieraufgaben an die Hand. Die in diesem Tutorial behandelten Elemente sind ausschließlich High-Level-Komponenten. Asynchron programmieren mit JavaScript Promises Im folgenden Beispiel nutzen wir ein Promise, um die Ergebnisse einer Netzwerkoperation zu verarbeiten. Statt eines Netzwerk-Calls verwenden wir einfach einen Timeout: function fetchData() { return new Promise((resolve, reject) => { setTimeout(() => { const data = “This is the fetched data!”; resolve(data); }, 2000); }); } const promise = fetchData(); promise.then((data) => { console.log(“This will print second:”, data); }); console.log(“This will print first.”); In diesem Beispiel definieren wir eine Funktion fetchData(), die ein Promise zurückgibt. Wir callen die Methode und speichern das Promise in der entsprechenden Variable. Anschließend werden die Resultate mit der Promise.then()-Methode verarbeitet. Die Essenz dieses Beispiels: Der fetchData()-Call erfolgt unmittelbar im Code-Fluss – der an then() übergebene Callback hingegen erst, wenn die asynchrone Operation abgeschlossen ist. Beim Blick auf fetchData() wird klar, dass es ein Promise-Objekt definiert. Dieses Objekt nimmt eine Funktion mit zwei Argumenten an: resolve und reject. Ein erfolgreiches Promise wird resolve aufrufen – falls es ein Problem gibt, geht der Call an reject. In unserem Beispiel simulieren wir das Ergebnis eines Netzwerk-Calls, indem wir resolve aufrufen und einen String zurückgeben. In vielen Fällen wird ein Promise aufgerufen und direkt verarbeitet. Zum Bespiel folgendermaßen: fetchData().then((data) => { console.log(“This will print second:”, data); }); Wir betrachten nun den Fehler als Aspekt. In unserem Beispiel können wir eine Fehlerbedingung simulieren: function fetchData() { return new Promise((resolve, reject) => { setTimeout(() => { if (Math.random() reject(“An error occurred while fetching data!”); } else { const data = “This is the fetched data!”; resolve(data); } }, 2000); }); } In etwa der Hälfte der Fälle wird das Promise in diesem Code in Form eines reject()-Calls fehlschlagen. In der Praxis könnte es dazu kommen, wenn der Netzwerk-Call fehlschlägt oder der Server einen Fehler zurückgibt. Um Fehler beim Aufruf von fetchData() zu händeln, nutzen wir catch(): fetchData().then((data) => { console.log(“That was a good one:”, data); }).catch((error) => { console.log(“That was an error:”, error) }); Wenn Sie diesen Code mehrere Male ausführen, erhalten Sie einen Mix aus Fehlern und Erfolgen. Alles in allem ein simpler Weg, um asynchrones Verhalten zu beschreiben und zu konsumieren. Promise Chains in JavaScript Ein wesentlicher Benefit von Promises in JavaScript: Sie lassen sich zu einer Kette verknüpfen. Das hilft dabei, verschachtelte Callbacks zu verhindern und vereinfacht asycnhrones Error Handling. Wir bleiben bei unserem fetchData()-Funktionsbeispiel – und ergänzen dieses um eine processData()-Funktion. Die hängt wiederum von den Resultaten der fetchData()-Funktion ab. Wir könnten nun die Verarbeitungslogik innerhalb des Return Calls von fetchData() einbetten. Allerdings erlauben Promises ein deutlich saubereres Vorgehen: function processData(data) { return new Promise((resolve, reject) => { setTimeout(() => { const processedData = data + ” – Processed”; resolve(processedData); }, 1000); }); } fetchData() .then((data) => { console.log(“Fetched data:”, data); return processData(data); }) .then((processedData) => { console.log(“Processed data:”, processedData); }) .catch((error) => { console.error(“Error:”, error); }); Wenn Sie diesen Code mehrmals ausführen, werden Sie feststellen, dass fetchData() im Erfolgsfall beide then()-Methoden korrekt aufruft. Schlägt die Funktion hingegen fehl, wird die gesamte Promise Chain “kurzgeschlossen” – und das abschließende catch() aufgerufen. Das funktioniert ganz ähnlich wie try/catch-Blöcke. Würden Sie catch() bereits nach dem ersten then() einfügen, wäre ersteres nur für fetchData()-Fehler zuständig. In unserem Beispiel wird catch() sowohl die fetchData()– als auch die processData()-Fehler behandeln. Der Schlüssel hierzu: Der then()-Handler von fetchData() gibt das Promise von processData(data) zurück. Dadurch können sie miteinander verkettet werden. 5 Wege, JavaScript Promises zu nutzen Promise.finally() Ebenso wie try/catch ein finally() erzeugt, wird Promise.finally() unabhängig davon ausgeführt, was in der Promise Chain vonstattengeht: fetchData() .then((data) => { console.log(“Fetched data:”, data); return processData(data); }) .then((processedData) => { console.log(“Processed data:”, processedData); }) .catch((error) => { console.error(“Error:”, error); }) .finally(() => { console.log(“Cleaning up.”); }) Das ist vor allem dann nützlich, wenn Sie etwas zwingend erledigen müssen, etwa eine Connection schließen. Promise.all() Im nächsten Szenario nehmen wir an, mehrere Calls parallel tätigen zu müssen. Genauer gesagt handelt es sich um zwei Network Requests, deren Ergebnisse benötigt werden. Wenn eine der beiden Anfragen fehlschlägt, scheitert auch die gesamte Operation. Für diesen Fall könnte der obige Promise-Chain-Ansatz zum Einsatz kommen. Das ist allerdings nicht ideal, da das voraussetzt, dass ein Request abgeschlossen wird, bevor der nächste beginnt. Deshalb nutzen wir stattdessen Promise.all(): Promise.all([fetchData(), fetchOtherData()]) .then((data) => { // data is an array console.log(“Fetched all data:”, data); }) .catch((error) => { console.error(“An error occurred with Promise.all:”, error); }); Weil JavaScript mit einem einzigen Thread arbeitet, laufen diese Operationen zwar nicht wirklich parallel ab – kommen dem aber sehr nahe: Die JavaScript-Engine ist in der Lage, einen Request zu initiieren und währenddessen einen weiteren zu starten. Wenn eines der an Promise.all() übergebenen Promises fehlschlägt, wird die gesamte Execution gestoppt und zum bereitgestellten catch() weitergeleitet. In dieser Hinsicht könnte man Promise.all() das Attribut “fail fast” zuschreiben. Darüber hinaus können Sie finally() auch in Kombination mit Promise.all() verwenden. Das wird sich erwartungsgemäß verhalten und in jedem Fall ausgeführt, egal wie das Promises-Set ausfällt. Mit der then()-Methode erhalten Sie ein Array, bei dem jedes Element dem übergebenen Promise entspricht. Das sieht in etwa folgendermaßen aus: Promise.all([fetchData(), fetchData2()]) .then((data) => { console.log(“FetchData() = ” + data[0] + ” fetchMoreData() = ” + data[1] ); }) Promise.race() Es kann vorkommen, dass Sie es mit mehreren asynchronen Tasks zu tun bekommen – aber nur der erste erfolgreich sein muss. Etwa, wenn zwei redundante Services existieren und Sie den schnelleren von beiden verwenden wollen. Für das nachfolgende Beispiel nehmen wir an, dass fetchData() und fetchSameData() zwei Möglichkeiten darstellen, identische Informationen anzufordern – und beide geben Promises zurück. An dieser Stelle können Sie race() einsetzen, um das zu managen: Promise.race([fetchData(), fetchSameData()]) .then((data) => { console.log(“First data received:”, data); }); Das führt in der Konsequenz dazu, dass der then()-Callback nur einen Rückgabewert für Daten erhält – und zwar den des “siegreichen” (schnellsten) Promise. Fehler werden bei race() leicht nuanciert: Wenn das zurückgewiesene Promise als erstes auftritt, endet das “race” und es folgt ein Call an catch(). Wenn das zurückgewiesene Promise auftritt, nachdem ein anderes aufgelöst wurde, wird der Fehler ignoriert. Promise.allSettled() Wenn Sie warten möchten, bis eine Collection asynchroner Operationen abgeschlossen ist, (unabhängig davon, ob sie fehlschlagen oder erfolgreich sind) können Sie dazu allSettled() verwenden. Zum Beispiel wie folgt: Promise.allSettled([fetchData(), fetchMoreData()]).then((results) => results.forEach((result) => console.log(result.status)), ); Das results-Argument, das an den then()-Handler übergeben wird, enthält ein Array, das die Ergebnisse der Operationen beschreibt: [0: {status: ‘fulfilled’, value: “This is the fetched data!”}, 1: {status: ‘rejected’, reason: undefined}] Sie erhalten also ein Statusfeld, das entweder fulfilled (resolved) oder rejected wird. In erstgenanntem Fall enthält der Wert das von resolve() aufgerufene Argument. Im Fall abgelehnter Promises wird das reason-Feld mit der Fehlerursache befüllt (insofern eine solche angegeben wurde). Promise.withResolvers() Die Spezifikationen zu ECMAScript 2024 enthalten eine statische Promise-Methode namens withResolvers(). Diese wird bereits von den meisten Webbrowsern und Server-seitigen Umgebungen unterstützt. Die neue Methode erlaubt es, ein Promise zusammen mit den resolve– und reject-Funktionen als unabhängige Variablen zu deklarieren und sie dabei im selben Scope zu halten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

JavaScript-Tutorial: Mit Promises asynchron programmieren​ Promises sind ein wichtiger und nützlicher Aspekt von JavaScript, der bei zahlreichen asynchronen Programmier-Tasks unterstützen kann.
Foto: CobraCZ | shutterstock.com

Promises stellen in JavaScript einen zentralen Mechanismus dar, um asynchronen Code zu händeln. Sie sind Bestandteil diverser Bibliotheken und Frameworks und werden genutzt, um die Resultate einer Aktion zu managen. Die fetch()-API ist ein Beispiel für Promises im Praxiseinsatz.

Selbst wenn Sie als Entwickler nicht damit vertraut sind, Promises außerhalb eines bestehenden Produkts zu erstellen und zu nutzen, gestaltet es sich überraschend simpel, das zu erlernen. Das trägt nicht nur zu einem besseren Verständnis darüber bei, wie Promises von Bibliotheken genutzt werden, sondern gibt Ihnen auch das richtige Tool für asynchrone Programmieraufgaben an die Hand. Die in diesem Tutorial behandelten Elemente sind ausschließlich High-Level-Komponenten.

Asynchron programmieren mit JavaScript Promises

Im folgenden Beispiel nutzen wir ein Promise, um die Ergebnisse einer Netzwerkoperation zu verarbeiten. Statt eines Netzwerk-Calls verwenden wir einfach einen Timeout:

function fetchData() {

return new Promise((resolve, reject) => {

setTimeout(() => {

const data = “This is the fetched data!”;

resolve(data);

}, 2000);

});

}

const promise = fetchData();

promise.then((data) => {

console.log(“This will print second:”, data);

});

console.log(“This will print first.”);

In diesem Beispiel definieren wir eine Funktion fetchData(), die ein Promise zurückgibt. Wir callen die Methode und speichern das Promise in der entsprechenden Variable. Anschließend werden die Resultate mit der Promise.then()-Methode verarbeitet. Die Essenz dieses Beispiels: Der fetchData()-Call erfolgt unmittelbar im Code-Fluss – der an then() übergebene Callback hingegen erst, wenn die asynchrone Operation abgeschlossen ist.

Beim Blick auf fetchData() wird klar, dass es ein Promise-Objekt definiert. Dieses Objekt nimmt eine Funktion mit zwei Argumenten an: resolve und reject. Ein erfolgreiches Promise wird resolve aufrufen – falls es ein Problem gibt, geht der Call an reject. In unserem Beispiel simulieren wir das Ergebnis eines Netzwerk-Calls, indem wir resolve aufrufen und einen String zurückgeben.

In vielen Fällen wird ein Promise aufgerufen und direkt verarbeitet. Zum Bespiel folgendermaßen:

fetchData().then((data) => {

console.log(“This will print second:”, data);

});

Wir betrachten nun den Fehler als Aspekt. In unserem Beispiel können wir eine Fehlerbedingung simulieren:

function fetchData() {

return new Promise((resolve, reject) => {

setTimeout(() => {

if (Math.random()

reject(“An error occurred while fetching data!”);

} else {

const data = “This is the fetched data!”;

resolve(data);

}

}, 2000);

});

}

In etwa der Hälfte der Fälle wird das Promise in diesem Code in Form eines reject()-Calls fehlschlagen. In der Praxis könnte es dazu kommen, wenn der Netzwerk-Call fehlschlägt oder der Server einen Fehler zurückgibt. Um Fehler beim Aufruf von fetchData() zu händeln, nutzen wir catch():

fetchData().then((data) => {

console.log(“That was a good one:”, data);

}).catch((error) => {

console.log(“That was an error:”, error)

});

Wenn Sie diesen Code mehrere Male ausführen, erhalten Sie einen Mix aus Fehlern und Erfolgen. Alles in allem ein simpler Weg, um asynchrones Verhalten zu beschreiben und zu konsumieren.

Promise Chains in JavaScript

Ein wesentlicher Benefit von Promises in JavaScript: Sie lassen sich zu einer Kette verknüpfen. Das hilft dabei, verschachtelte Callbacks zu verhindern und vereinfacht asycnhrones Error Handling.

Wir bleiben bei unserem fetchData()-Funktionsbeispiel – und ergänzen dieses um eine processData()-Funktion. Die hängt wiederum von den Resultaten der fetchData()-Funktion ab. Wir könnten nun die Verarbeitungslogik innerhalb des Return Calls von fetchData() einbetten. Allerdings erlauben Promises ein deutlich saubereres Vorgehen:

function processData(data) {

return new Promise((resolve, reject) => {

setTimeout(() => {

const processedData = data + ” – Processed”;

resolve(processedData);

}, 1000);

});

}

fetchData()

.then((data) => {

console.log(“Fetched data:”, data);

return processData(data);

})

.then((processedData) => {

console.log(“Processed data:”, processedData);

})

.catch((error) => {

console.error(“Error:”, error);

});

Wenn Sie diesen Code mehrmals ausführen, werden Sie feststellen, dass fetchData() im Erfolgsfall beide then()-Methoden korrekt aufruft. Schlägt die Funktion hingegen fehl, wird die gesamte Promise Chain “kurzgeschlossen” – und das abschließende catch() aufgerufen. Das funktioniert ganz ähnlich wie try/catch-Blöcke.

Würden Sie catch() bereits nach dem ersten then() einfügen, wäre ersteres nur für fetchData()-Fehler zuständig. In unserem Beispiel wird catch() sowohl die fetchData()– als auch die processData()-Fehler behandeln. Der Schlüssel hierzu: Der then()-Handler von fetchData() gibt das Promise von processData(data) zurück. Dadurch können sie miteinander verkettet werden.

5 Wege, JavaScript Promises zu nutzen

Promise.finally()

Ebenso wie try/catch ein finally() erzeugt, wird Promise.finally() unabhängig davon ausgeführt, was in der Promise Chain vonstattengeht:

fetchData()

.then((data) => {

console.log(“Fetched data:”, data);

return processData(data);

})

.then((processedData) => {

console.log(“Processed data:”, processedData);

})

.catch((error) => {

console.error(“Error:”, error);

})

.finally(() => {

console.log(“Cleaning up.”);

})

Das ist vor allem dann nützlich, wenn Sie etwas zwingend erledigen müssen, etwa eine Connection schließen.

Promise.all()

Im nächsten Szenario nehmen wir an, mehrere Calls parallel tätigen zu müssen. Genauer gesagt handelt es sich um zwei Network Requests, deren Ergebnisse benötigt werden. Wenn eine der beiden Anfragen fehlschlägt, scheitert auch die gesamte Operation. Für diesen Fall könnte der obige Promise-Chain-Ansatz zum Einsatz kommen. Das ist allerdings nicht ideal, da das voraussetzt, dass ein Request abgeschlossen wird, bevor der nächste beginnt. Deshalb nutzen wir stattdessen Promise.all():

Promise.all([fetchData(), fetchOtherData()])

.then((data) => { // data is an array

console.log(“Fetched all data:”, data);

})

.catch((error) => {

console.error(“An error occurred with Promise.all:”, error);

});

Weil JavaScript mit einem einzigen Thread arbeitet, laufen diese Operationen zwar nicht wirklich parallel ab – kommen dem aber sehr nahe: Die JavaScript-Engine ist in der Lage, einen Request zu initiieren und währenddessen einen weiteren zu starten.

Wenn eines der an Promise.all() übergebenen Promises fehlschlägt, wird die gesamte Execution gestoppt und zum bereitgestellten catch() weitergeleitet. In dieser Hinsicht könnte man Promise.all() das Attribut “fail fast” zuschreiben. Darüber hinaus können Sie finally() auch in Kombination mit Promise.all() verwenden. Das wird sich erwartungsgemäß verhalten und in jedem Fall ausgeführt, egal wie das Promises-Set ausfällt.

Mit der then()-Methode erhalten Sie ein Array, bei dem jedes Element dem übergebenen Promise entspricht. Das sieht in etwa folgendermaßen aus:

Promise.all([fetchData(), fetchData2()])

.then((data) => {

console.log(“FetchData() = ” + data[0] + ” fetchMoreData() = ” + data[1] );

})

Promise.race()

Es kann vorkommen, dass Sie es mit mehreren asynchronen Tasks zu tun bekommen – aber nur der erste erfolgreich sein muss. Etwa, wenn zwei redundante Services existieren und Sie den schnelleren von beiden verwenden wollen.

Für das nachfolgende Beispiel nehmen wir an, dass fetchData() und fetchSameData() zwei Möglichkeiten darstellen, identische Informationen anzufordern – und beide geben Promises zurück. An dieser Stelle können Sie race() einsetzen, um das zu managen:

Promise.race([fetchData(), fetchSameData()])

.then((data) => {

console.log(“First data received:”, data);

});

Das führt in der Konsequenz dazu, dass der then()-Callback nur einen Rückgabewert für Daten erhält – und zwar den des “siegreichen” (schnellsten) Promise.

Fehler werden bei race() leicht nuanciert: Wenn das zurückgewiesene Promise als erstes auftritt, endet das “race” und es folgt ein Call an catch(). Wenn das zurückgewiesene Promise auftritt, nachdem ein anderes aufgelöst wurde, wird der Fehler ignoriert.

Promise.allSettled()

Wenn Sie warten möchten, bis eine Collection asynchroner Operationen abgeschlossen ist, (unabhängig davon, ob sie fehlschlagen oder erfolgreich sind) können Sie dazu allSettled() verwenden. Zum Beispiel wie folgt:

Promise.allSettled([fetchData(), fetchMoreData()]).then((results) =>

results.forEach((result) => console.log(result.status)),

);

Das results-Argument, das an den then()-Handler übergeben wird, enthält ein Array, das die Ergebnisse der Operationen beschreibt:

[0: {status: ‘fulfilled’, value: “This is the fetched data!”},

1: {status: ‘rejected’, reason: undefined}]

Sie erhalten also ein Statusfeld, das entweder fulfilled (resolved) oder rejected wird. In erstgenanntem Fall enthält der Wert das von resolve() aufgerufene Argument. Im Fall abgelehnter Promises wird das reason-Feld mit der Fehlerursache befüllt (insofern eine solche angegeben wurde).

Promise.withResolvers()

Die Spezifikationen zu ECMAScript 2024 enthalten eine statische Promise-Methode namens withResolvers(). Diese wird bereits von den meisten Webbrowsern und Server-seitigen Umgebungen unterstützt. Die neue Methode erlaubt es, ein Promise zusammen mit den resolve– und reject-Funktionen als unabhängige Variablen zu deklarieren und sie dabei im selben Scope zu halten. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

JavaScript-Tutorial: Mit Promises asynchron programmieren​ Weiterlesen »

Vorsicht vor „agentenähnlicher“ KI​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Nicht genug damit, dass die aktuellen Tools noch keine ‚echten KI-Agenten‘ sind – es lauern auch zahlreiche Gefahren bei der Einführung.fewerton – shutterstock.com In den vergangenen Monaten gab es eine explosionsartige Zunahme neuer „agentenähnlicher“ KI-Tools, die Arbeitsabläufe in Produktivitätsanwendungen automatisieren können. Analysten empfehlen Unternehmen jedoch, die Risiken einer Einführung im Vorfeld sorgfältig abzuwägen.  Etikettenschwindel bei KI-Agenten  „Unternehmensleiter müssen eine Strategie entwickeln, wie sie Agentic AI im eigentlichen Sinne bewerten und zugleich eine Governance für diese Lösungen festlegen“, erklärt JP Gownder, Vice President und Principal Analyst im Future of Work-Team von Forrester.  Gownder betont, dass diese Tools noch keine ‚echten KI-Agenten‘ seien, sondern vielmehr ‚agentenähnliche‘ Tools, wie Forrester sie bezeichnet. „Agentenähnliche Lösungen können punktuelle Probleme lösen, sind aber nicht die ‘digitalen Mitarbeiter’, von denen die Anbieter sprechen – zumindest noch nicht“, so Gownder.  KI-Agenten, die Mitarbeiter bei ihrer Arbeit unterstützen sollen, indem sie bestimmte Aufgaben (fast) automatisch erledigen, liegen aktuell im Trend. Google und Microsoft haben KI-Plugins für ihre Produktivitätssuiten entwickelt, während Drittanbieter eigene anbieten.  Auf seiner Cloud-Next-Konferenz stellte Google kürzlich neue KI-Tools für seine Workspace-Suite vor, mit denen sich die Arbeit in verschiedenen Produktivitätsanwendungen automatisieren lässt. So kann Workspace Flows eine Reihe von Aufgaben automatisieren, die bei der Überprüfung von Dokumenten, Anfragen im Kunden-Support oder Produktanalysen anfallen. Die neue „Help me analyze“-Funktion in Google Sheets wiederum kann Informationen aus Tabellen auslesen und sofort Analysen und Einblicke liefern.   Auch die Roadmap von Microsoft 365 listet zahlreiche künftige Copilot-Funktionen auf, darunter Tools, um Word-Dokumente, Lernassistenten und HR-Tools automatisiert zu erstellen.  Kürzlich stellte auch Anthropic eine Integration seines Claude-KI-Modells für Gmail, Google Kalender und Google Docs vor. Damit sollen Nutzer laut Unternehmensangaben per E-Mail „einen tieferen Einblick in den Arbeitskontext“ erhalten – etwa, indem sie E-Mails durchsuchen, Dokumente überprüfen und Kalendereinträge scannen.  „Ob bei Projektmanagement, Reiseplanung oder privaten Aufgaben – Claude versteht nun den vollständigen Kontext und kann besser unterstützen. Aktivieren Sie dazu die Google Workspace-Beta in den Einstellungen“, teilte Anthropic mit.  Auch Adobe arbeitet an einem Adobe Express AI Agent für Microsoft 365, der via Copilot multimediale Inhalte und Präsentationen erstellen kann.  Vorsicht beim Ausrollen dieser KI-Plugins  Analysten dämpfen jedoch die Begeisterung an dem Produktfeuerwerk der Anbieter. Sie warnen, dass ein sicheres Deployment dieser spezifischen KI-Plugins in Produktivitätsanwendungen Jahre an Feinabstimmung und Implementierung erfordert. Die Unternehmen müssten zunächst verstehen, was die Tools leisten, welche potenziellen Sicherheitsprobleme existierten, um dann entsprechende Rahmenbedingungen zu definieren.  Die technische Einführung von KI-Systemen und -Agenten bedeutet aus ihrer Sicht nicht, dass Unternehmen damit automatisch den richtigen Weg einschlagen – möglicherweise bewegen sie sich sogar zu schnell.  „Wir stehen noch ganz am Anfang der Entwicklung hin zu agentenbasierter KI, aber Anbieter verwenden gerne den Begriff ‘Agent‘, obwohl diese noch längst nicht die Autonomie und Handlungsfähigkeit besitzen, die sie eines Tages haben werden“, erklärt Gownder. Microsoft Copilot-Agenten eigneten sich etwa, um gezielt auf bestimmte Datenquelle – wie etwa SharePoint – zuzugreifen, so der Forrester-Analyst. „Das ist hilfreich, wenn es um ein RAG-Modell für die Datenverarbeitung geht. Aber das sind keine komplexen Agenten.“  Laut Jack Gold, Principal Analyst bei J. Gold Associates, könnten Agenten kaskadierend arbeiten, indem ein Agent einen anderen aufruft, um eine spezielle Aufgabe zu übernehmen — ein Prozess also, der mehrere Agenten einbezieht, bevor dem Nutzer ein Ergebnis präsentiert wird.  Wie bei jeder neuen Technologie müssten Unternehmen jedoch lernen, wie sie diese KI-Agenten am besten einsetzen, meint Gold. Dazu gehöre auch, die richtigen Fragen in der richtigen Reihenfolge zu stellen, damit der Agent produktiv arbeiten kann. „Wichtig ist außerdem, dass die Fragen präzise gestellt werden – Agenten neigen dazu, ‚abzudriften‘, wenn man ihnen keine konkreten Vorgaben macht“, so der Analyst.  Das notwendige „User Training“ werde oft ein Trial-and-Error-Prozess sein, der mal schnell, mal langwierig ausfalle, abhängig von Rolle und Komplexität. „Die größte Herausforderung wird sein: Kann man den Ergebnissen der Agenten vertrauen?“, konstatiert Gold.  Der Analyst weist darauf hin, dass – wie bei allen Systemen auf Enterprise-Niveau – auch der CISO einbezogen werden müsse, um potenzielle Schwachstellen zu identifizieren. Und auch HR- und Legal-Teams sollten bei Rollouts, die Unternehmensdaten betreffen, mitwirken.  „Durch KI verstärkt sich diese Problematik allerdings, weil diese Systeme in der Lage sind, aus bestehenden Informationen neue Erkenntnisse abzuleiten. Das wirft andere Anforderungen auf“, so Gold.  Warnung vor Endlosschleifen Ein besonders hohes Risiko ist laut Jason Wong, Vice President und Analyst im App-Design- und Entwicklungsteam bei Gartner, eine drohende „Agenten-Anarchie“. Darunter versteht man das Risiko, dass Tausende schlecht orchestrierte Agenten kollidieren und Endlosschleifen automatisierter Interaktionen verursachen. „Ohne gründliche Planung und Überwachung stellt Agenten-Anarchie eine kurzfristige und ernsthafte Bedrohung für die Stabilität von Unternehmensanwendungen dar“, so Wong.  Aber auch Mitarbeitende, die Zugriff auf GenAI-Tool-Builder wie Copilot Studio Agent Builder oder Google AI Studio haben, könnten in Kombination mit anderen Agenten aus Anwendungen heraus Probleme verursachen.  Laut Wong dauert es im Schnitt mindestens drei Monate, um tief verankertes Nutzerverhalten bei GenAI-Tools zu verändern. „Systemadministratoren müssen sich weiterentwickeln und von reinen Betriebsverwaltern zu Enablern für den Aufbau und das Management von Agenten werden“, resümiert der Garter-Experte.  

Vorsicht vor „agentenähnlicher“ KI​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Nicht genug damit, dass die aktuellen Tools noch keine ‚echten KI-Agenten‘ sind – es lauern auch zahlreiche Gefahren bei der Einführung.fewerton – shutterstock.com

In den vergangenen Monaten gab es eine explosionsartige Zunahme neuer „agentenähnlicher“ KI-Tools, die Arbeitsabläufe in Produktivitätsanwendungen automatisieren können. Analysten empfehlen Unternehmen jedoch, die Risiken einer Einführung im Vorfeld sorgfältig abzuwägen. 

Etikettenschwindel bei KI-Agenten 

„Unternehmensleiter müssen eine Strategie entwickeln, wie sie Agentic AI im eigentlichen Sinne bewerten und zugleich eine Governance für diese Lösungen festlegen“, erklärt JP Gownder, Vice President und Principal Analyst im Future of Work-Team von Forrester. 

Gownder betont, dass diese Tools noch keine ‚echten KI-Agenten‘ seien, sondern vielmehr ‚agentenähnliche‘ Tools, wie Forrester sie bezeichnet. „Agentenähnliche Lösungen können punktuelle Probleme lösen, sind aber nicht die ‘digitalen Mitarbeiter’, von denen die Anbieter sprechen – zumindest noch nicht“, so Gownder. 

KI-Agenten, die Mitarbeiter bei ihrer Arbeit unterstützen sollen, indem sie bestimmte Aufgaben (fast) automatisch erledigen, liegen aktuell im Trend. Google und Microsoft haben KI-Plugins für ihre Produktivitätssuiten entwickelt, während Drittanbieter eigene anbieten. 

Auf seiner Cloud-Next-Konferenz stellte Google kürzlich neue KI-Tools für seine Workspace-Suite vor, mit denen sich die Arbeit in verschiedenen Produktivitätsanwendungen automatisieren lässt. So kann Workspace Flows eine Reihe von Aufgaben automatisieren, die bei der Überprüfung von Dokumenten, Anfragen im Kunden-Support oder Produktanalysen anfallen. Die neue „Help me analyze“-Funktion in Google Sheets wiederum kann Informationen aus Tabellen auslesen und sofort Analysen und Einblicke liefern.  

Auch die Roadmap von Microsoft 365 listet zahlreiche künftige Copilot-Funktionen auf, darunter Tools, um Word-Dokumente, Lernassistenten und HR-Tools automatisiert zu erstellen. 

Kürzlich stellte auch Anthropic eine Integration seines Claude-KI-Modells für Gmail, Google Kalender und Google Docs vor. Damit sollen Nutzer laut Unternehmensangaben per E-Mail „einen tieferen Einblick in den Arbeitskontext“ erhalten – etwa, indem sie E-Mails durchsuchen, Dokumente überprüfen und Kalendereinträge scannen. 

„Ob bei Projektmanagement, Reiseplanung oder privaten Aufgaben – Claude versteht nun den vollständigen Kontext und kann besser unterstützen. Aktivieren Sie dazu die Google Workspace-Beta in den Einstellungen“, teilte Anthropic mit. 

Auch Adobe arbeitet an einem Adobe Express AI Agent für Microsoft 365, der via Copilot multimediale Inhalte und Präsentationen erstellen kann. 

Vorsicht beim Ausrollen dieser KI-Plugins 

Analysten dämpfen jedoch die Begeisterung an dem Produktfeuerwerk der Anbieter. Sie warnen, dass ein sicheres Deployment dieser spezifischen KI-Plugins in Produktivitätsanwendungen Jahre an Feinabstimmung und Implementierung erfordert. Die Unternehmen müssten zunächst verstehen, was die Tools leisten, welche potenziellen Sicherheitsprobleme existierten, um dann entsprechende Rahmenbedingungen zu definieren. 

Die technische Einführung von KI-Systemen und -Agenten bedeutet aus ihrer Sicht nicht, dass Unternehmen damit automatisch den richtigen Weg einschlagen – möglicherweise bewegen sie sich sogar zu schnell. 

„Wir stehen noch ganz am Anfang der Entwicklung hin zu agentenbasierter KI, aber Anbieter verwenden gerne den Begriff ‘Agent‘, obwohl diese noch längst nicht die Autonomie und Handlungsfähigkeit besitzen, die sie eines Tages haben werden“, erklärt Gownder. Microsoft Copilot-Agenten eigneten sich etwa, um gezielt auf bestimmte Datenquelle – wie etwa SharePoint – zuzugreifen, so der Forrester-Analyst. „Das ist hilfreich, wenn es um ein RAG-Modell für die Datenverarbeitung geht. Aber das sind keine komplexen Agenten.“ 

Laut Jack Gold, Principal Analyst bei J. Gold Associates, könnten Agenten kaskadierend arbeiten, indem ein Agent einen anderen aufruft, um eine spezielle Aufgabe zu übernehmen — ein Prozess also, der mehrere Agenten einbezieht, bevor dem Nutzer ein Ergebnis präsentiert wird. 

Wie bei jeder neuen Technologie müssten Unternehmen jedoch lernen, wie sie diese KI-Agenten am besten einsetzen, meint Gold. Dazu gehöre auch, die richtigen Fragen in der richtigen Reihenfolge zu stellen, damit der Agent produktiv arbeiten kann. „Wichtig ist außerdem, dass die Fragen präzise gestellt werden – Agenten neigen dazu, ‚abzudriften‘, wenn man ihnen keine konkreten Vorgaben macht“, so der Analyst. 

Das notwendige „User Training“ werde oft ein Trial-and-Error-Prozess sein, der mal schnell, mal langwierig ausfalle, abhängig von Rolle und Komplexität. „Die größte Herausforderung wird sein: Kann man den Ergebnissen der Agenten vertrauen?“, konstatiert Gold. 

Der Analyst weist darauf hin, dass – wie bei allen Systemen auf Enterprise-Niveau – auch der CISO einbezogen werden müsse, um potenzielle Schwachstellen zu identifizieren. Und auch HR- und Legal-Teams sollten bei Rollouts, die Unternehmensdaten betreffen, mitwirken. 

„Durch KI verstärkt sich diese Problematik allerdings, weil diese Systeme in der Lage sind, aus bestehenden Informationen neue Erkenntnisse abzuleiten. Das wirft andere Anforderungen auf“, so Gold. 

Warnung vor Endlosschleifen

Ein besonders hohes Risiko ist laut Jason Wong, Vice President und Analyst im App-Design- und Entwicklungsteam bei Gartner, eine drohende „Agenten-Anarchie“. Darunter versteht man das Risiko, dass Tausende schlecht orchestrierte Agenten kollidieren und Endlosschleifen automatisierter Interaktionen verursachen. „Ohne gründliche Planung und Überwachung stellt Agenten-Anarchie eine kurzfristige und ernsthafte Bedrohung für die Stabilität von Unternehmensanwendungen dar“, so Wong. 

Aber auch Mitarbeitende, die Zugriff auf GenAI-Tool-Builder wie Copilot Studio Agent Builder oder Google AI Studio haben, könnten in Kombination mit anderen Agenten aus Anwendungen heraus Probleme verursachen. 

Laut Wong dauert es im Schnitt mindestens drei Monate, um tief verankertes Nutzerverhalten bei GenAI-Tools zu verändern. „Systemadministratoren müssen sich weiterentwickeln und von reinen Betriebsverwaltern zu Enablern für den Aufbau und das Management von Agenten werden“, resümiert der Garter-Experte. 

Vorsicht vor „agentenähnlicher“ KI​ Weiterlesen »

OpenAIs KI denkt mit Bildern​

Allgemein

OpenAI bringt zwei neue agentenorientierte Modelle, die auch visuelle Informationen verarbeiten. Marciobnws – shutterstock.com Eine KI, die Whiteboards, Diagramme oder Skizzen analysiert und in ihre Antworten einbezieht? Genau dies verspricht OpenAI mit den neuen Modellen o3 und o4 mini. Laut OpenAI sind das die beiden ersten KI-Modelle des Unternehmens, die mit Bildern „denken“ können. Oder anders formuliert: Im Vergleich zu früheren Modellen sieht die KI die Bilder nicht nur, sondern kann die visuellen Informationen direkt in die Argumentationskette integrieren. KI versteht Bilder Dabei verstehe die KI visuelle Informationen selbst dann, wenn diese unscharf sind oder nur in geringer Qualität vorliegen. Ferner könne die KI Werkzeuge nutzen, um Bilder in Echtzeit anzupassen – etwa durch Drehen oder Zoomen – und diese Anpassungen in ihren „Denkprozess“ einbeziehen. Bei o3 und o4-mini handelt es sich um die neuesten Modelle der o-Serie. Sie sind darauf ausgelegt, länger und intensiver „nachzudenken“, bevor sie antworten. Darüber hinaus sind die Reasoning-Modelle zum ersten Mal in der Lage, alle ChatGPT-Tools eigenständig nutzen – also etwa Web-Browsing, Python, Bildverständnis und Bildgenerierung. Dabei entscheiden die Modelle laut OpenAI selbst, wann und wie welche Tools eingesetzt werden müssen. Agentenorientiertes ChatGPT OpenAI sieht darin einen Schritt in Richtung eines agentenorientierteren ChatGPT, das Aufgaben selbstständig für ausführen kann. Dadurch könnten vielschichtige Fragen effektiver bearbeitet werden. Zudem führe die kombinierte Leistungsfähigkeit moderner Schlussfolgerungsalgorithmen und der uneingeschränkte Zugriff auf alle Tools zu einer deutlich höheren Performance bei akademischen Benchmarks und realen Aufgaben. Was dies konkret in der Praxis bedeutet, veranschaulicht OpenAI an einem Beispiel. So könnte ein User fragen, wie wird der Energieverbrauch in Spanien im Sommer im Vergleich zum letzten Jahr aussehen? Das Modell kann nun das Internet nach Daten von Versorgungsunternehmen durchsuchen, Python-Code schreiben, um eine Prognose zu erstellen, ein Diagramm oder ein Bild generieren und die wichtigsten Faktoren für die Vorhersage erklären, wobei mehrere Tool-Aufrufe miteinander verknüpft werden. Zugriff auf aktuelle Informationen Durch das Schlussfolgern können die Modelle auf die ihnen vorliegenden Informationen reagieren und sich bei Bedarf anpassen. Sie sind beispielsweise in der Lage, mit Hilfe von Suchmaschinen mehrmals im Internet zu suchen, die Ergebnisse anzusehen und neue Suchanfragen zu starten, wenn sie weitere Informationen benötigen. Letztlich ist es den Modellen damit möglich, Aufgaben zu bewältigen, die Zugriff auf aktuelle Informationen erfordern, die über das integrierte Wissen des Modells hinausgehen. Ferner sind so erweiterte Schlussfolgerungen, Synthesen und die Generierung von Ergebnissen über verschiedene Modalitäten hinweg umsetzbar. Verfügbarkeit OpenAI o3, o4-mini und o4-mini-high sind für Plus-, Pro- und Team-User ab sofort verfügbar. Sie ersetzen o1, o3-mini und o3-mini-high. Sie sind auch über die API nutzbar. 

OpenAIs KI denkt mit Bildern​ OpenAI bringt zwei neue agentenorientierte Modelle, die auch visuelle Informationen verarbeiten.
Marciobnws – shutterstock.com

Eine KI, die Whiteboards, Diagramme oder Skizzen analysiert und in ihre Antworten einbezieht? Genau dies verspricht OpenAI mit den neuen Modellen o3 und o4 mini.

Laut OpenAI sind das die beiden ersten KI-Modelle des Unternehmens, die mit Bildern „denken“ können. Oder anders formuliert: Im Vergleich zu früheren Modellen sieht die KI die Bilder nicht nur, sondern kann die visuellen Informationen direkt in die Argumentationskette integrieren.

KI versteht Bilder

Dabei verstehe die KI visuelle Informationen selbst dann, wenn diese unscharf sind oder nur in geringer Qualität vorliegen. Ferner könne die KI Werkzeuge nutzen, um Bilder in Echtzeit anzupassen – etwa durch Drehen oder Zoomen – und diese Anpassungen in ihren „Denkprozess“ einbeziehen.

Bei o3 und o4-mini handelt es sich um die neuesten Modelle der o-Serie. Sie sind darauf ausgelegt, länger und intensiver „nachzudenken“, bevor sie antworten. Darüber hinaus sind die Reasoning-Modelle zum ersten Mal in der Lage, alle ChatGPT-Tools eigenständig nutzen – also etwa Web-Browsing, Python, Bildverständnis und Bildgenerierung. Dabei entscheiden die Modelle laut OpenAI selbst, wann und wie welche Tools eingesetzt werden müssen.

Agentenorientiertes ChatGPT

OpenAI sieht darin einen Schritt in Richtung eines agentenorientierteren ChatGPT, das Aufgaben selbstständig für ausführen kann. Dadurch könnten vielschichtige Fragen effektiver bearbeitet werden. Zudem führe die kombinierte Leistungsfähigkeit moderner Schlussfolgerungsalgorithmen und der uneingeschränkte Zugriff auf alle Tools zu einer deutlich höheren Performance bei akademischen Benchmarks und realen Aufgaben.

Was dies konkret in der Praxis bedeutet, veranschaulicht OpenAI an einem Beispiel. So könnte ein User fragen, wie wird der Energieverbrauch in Spanien im Sommer im Vergleich zum letzten Jahr aussehen? Das Modell kann nun das Internet nach Daten von Versorgungsunternehmen durchsuchen, Python-Code schreiben, um eine Prognose zu erstellen, ein Diagramm oder ein Bild generieren und die wichtigsten Faktoren für die Vorhersage erklären, wobei mehrere Tool-Aufrufe miteinander verknüpft werden.

Zugriff auf aktuelle Informationen

Durch das Schlussfolgern können die Modelle auf die ihnen vorliegenden Informationen reagieren und sich bei Bedarf anpassen. Sie sind beispielsweise in der Lage, mit Hilfe von Suchmaschinen mehrmals im Internet zu suchen, die Ergebnisse anzusehen und neue Suchanfragen zu starten, wenn sie weitere Informationen benötigen.

Letztlich ist es den Modellen damit möglich, Aufgaben zu bewältigen, die Zugriff auf aktuelle Informationen erfordern, die über das integrierte Wissen des Modells hinausgehen. Ferner sind so erweiterte Schlussfolgerungen, Synthesen und die Generierung von Ergebnissen über verschiedene Modalitäten hinweg umsetzbar.

Verfügbarkeit

OpenAI o3, o4-mini und o4-mini-high sind für Plus-, Pro- und Team-User ab sofort verfügbar. Sie ersetzen o1, o3-mini und o3-mini-high. Sie sind auch über die API nutzbar.

OpenAIs KI denkt mit Bildern​ Weiterlesen »

KI-Agenten: Die nächste Evolutionsstufe der Unternehmens-KI​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?quality=50&strip=all 4123w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Um zuverlässig und kosteneffizient zu sein, müssen KI-Agenten sorgfältig konzipiert, getestet, implementiert und überwacht werden.Shutterstock – inni Die erste Welle von GenAI-Lösungen hat bereits beachtliche Erfolge in Unternehmen erzielt – besonders im Bereich der Coding-Assistenten und bei der Effizienzsteigerung bestehender SaaS-Produkte. Diese Anwendungen zeigen jedoch nur einen kleinen Ausschnitt dessen, was mit Large Language Models (LLMs) möglich ist. Die eigentliche Stärke dieser Technologie entfaltet sich jetzt in der zweiten Generation KI-gestützter Anwendungen: agentenbasierten Systeme, die auf dem soliden Fundament der LLMs aufbauen und deren Fähigkeiten auf eine neue Stufe heben.  Anders als herkömmliche KI-Chatbots oder einfache Copiloten für SaaS-Produkte nutzen KI-Agenten die volle Bandbreite der LLM-Fähigkeiten. Sie können nicht nur Text generieren, sondern (nahezu) eigenständig komplexe Probleme lösen. Ein KI-Agent ist dabei ein LLM-gestütztes System, das innerhalb definierter Autonomiegrenzen und unter Nutzung verschiedener Tools bestimmte Ziele verfolgt.  Ein Beispiel verdeutlicht die Möglichkeiten: Stellen Sie sich vor, ein LLM erhält die Dokumentation einer API, die aktuelle Aktienkurse abrufen kann. Mit dieser Information kann das LLM eigenständig ein Skript erstellen, das diese API für einen bestimmten Aktienkurs aufruft. Darf das System dieses Skript ausführen, wird es zu einem Werkzeug für Endnutzer, um beliebige Aktienkurse abzurufen.  Ein Agent kommt selten allein  Wäre es also möglich, eine einzige, allumfassende Anwendung zu entwickeln, die sämtliche Probleme im Unternehmen lösen kann? Die kurze Antwort lautet: nein. Obwohl LLMs zur Generalisierung fähig sind, erfordern die Einschränkungen des Unternehmensumfelds einen relativ engen Anwendungsbereich für jede einzelne Applikation. Nur so ist das Unternehmen in der Lage, konstant gute Leistung zu gewährleisten und den Zugriff auf Daten und Tools zu kontrollieren.  Diese imaginäre “Super-Anwendung” klingt zwar bequem, würde aber vollen Zugriff auf sämtliche Unternehmensdaten und -werkzeuge benötigen, von den banalsten bis hin zu den sensibelsten. Ähnlich wie ein Mitarbeiter nur Zugang zu den Daten und Tools haben sollte, die für seine Arbeit notwendig sind, muss auch der Zugriff einer agentenbasierten Anwendung auf das beschränkt sein, was sie zur Erfüllung ihrer Funktion braucht.  Wie viele solcher KI-Agenten könnte ein Großunternehmen benötigen? Eine Überschlagsrechnung: Ein Großunternehmen mit zehn Abteilungen und jeweils fünf Kernfunktionen könnte pro Funktion von fünf spezialisierten Anwendungen profitieren. Beispielsweise könnte die Vertriebsabteilung im Bereich Sales Operations jeweils einen Agenten einsetzen, um:  Zielkunden zu recherchieren;  die Einhaltung des Verkaufsprozesses zu überprüfen;  die Vertriebspipeline zu analysieren;  Kundengespräche zusammenzufassen; und   Nachfassaktionen zu unterstützen.  In Summe ergäben sich so 250 Anwendungen – eine realistische Prognose für Großorganisationen.  Make or Buy: Die Kunst der richtigen Entscheidung  Angesichts mehrerer hundert neuartiger Anwendungen stehen Unternehmen vor der Entscheidung “Make-or-Buy”. So bringen Softwareanbieter bereits entsprechende Anwendungen auf den Markt. Gleichzeitig entwickeln fortgeschrittene Organisationen ihre ersten produktionsreifen agentenbasierten Anwendungen selbst.  Fertige KI-Agenten bringen entscheidende Vorteile mit sich: Einmal implementiert, bieten sie schlüsselfertige Leistung, werden von professionellen Softwareentwicklern betreut und ermöglichen eine rasche Einführung. Die Schattenseite solcher KI-Agenten von der Stange sind Herausforderungen wie die oft komplexe Integration in bestehende Unternehmenssysteme, Governance-Probleme bei der Nachverfolgung der eingesetzten Modelle und nicht zuletzt der Umstand, dass Wettbewerber mit identischen Lösungen die gleiche Leistung erzielen können.  Auf der anderen Seite lassen sich selbstentwickelte, maßgeschneiderte KI-Agenten präzise an den spezifischen Geschäftskontext anpassen und bieten damit das Potenzial für echte Differenzierung am Markt. Unternehmen behalten die volle Kontrolle und Transparenz über ihre Anwendungen und gewinnen Unabhängigkeit von externen Software-, KI- und Cloud-Anbietern. Allerdings stehen diese Vorteile eigenen Herausforderungen gegenüber: Die erforderlichen Entwicklungsfähigkeiten sind in vielen Organisationen nicht ausreichend vorhanden, und mit steigender Anzahl selbstentwickelter Anwendungen wächst die Komplexität von Überwachung und Wartung erheblich.  Die meisten Unternehmen werden daher einige Anwendungen kaufen und andere selbst entwickeln. Dabei ist zu beachten: KI-Agenten können zwar die Effizienz der betrieblichen Abläufe verbessern, aber wenn diese Effizienzsteigerungen im Gleichschritt mit denen der Wettbewerber erfolgen, verbessert sich die Wettbewerbsposition nicht.  Die Entwicklung maßgeschneiderter, agentenbasierter Anwendungen ermöglicht es einem Unternehmen hingegen, Fähigkeiten zu schaffen, die seine Wettbewerber nicht besitzen. Angesichts der Kosten und Komplexität werden Unternehmen ihre internen Entwicklungsbemühungen auf die Teile ihres Geschäfts konzentrieren, die am meisten von einer starken Wettbewerbsdifferenzierung profitieren – in der Regel ihr Kerngeschäft.  Die Komplexitätsschwelle überwinden  Jede Organisation hat eine maximale Anzahl von Anwendungen, die sie mit ihren aktuellen Praktiken entwickeln, überwachen und warten kann. Dies ist die “Komplexitätsschwelle” der Organisation.  Wenn das Unternehmen mehr und mehr agentenbasierte Anwendungen entwickelt, steigt die Komplexität ihrer Überwachung und Wartung, bis irgendwann die maximale Komplexität erreicht ist und keine weiteren Anwendungen mehr entwickelt werden können – selbst, wenn dies dem Geschäft zugutekommen würde.  Um mehr Anwendungen entwickeln zu können, muss das Unternehmen einen Weg finden, seine Komplexitätsschwelle zu erhöhen. Dazu ist es erforderlich, die Entwicklung dieser Anwendungen zu standardisieren und strukturieren.  Ein neues Architekturparadigma für agentenbasierte Anwendungen  Im Laufe der Jahre haben Organisationen verschiedene Architekturparadigmen genutzt – von monolithischen Anwendungen über serviceorientierte Architekturen bis hin zu Microservices. Heutige Infrastrukturen für den Aufbau agentenbasierter Anwendungen sind meist monolithisch und nutzen Frameworks wie LangChain. Dieser Ansatz eignet sich zwar für die Entwicklung der ersten Prototypen, spiegelt aber die relative Unreife des Designs agentenbasierter Anwendungen im Unternehmensumfeld wider.  Um viele agentenbasierte Anwendungen zu erstellen und zu warten, ist daher ein neues Architekturparadigma erforderlich. Eine Umsetzung ist etwa eine Netzarchitektur (Mesh) für LLMs und die zugehörigen Komponenten, die für die Erstellung von Agenten im Unternehmen erforderlich sind. Sie bietet Abstraktionsebenen, die verschiedene Komponenten in einheitlichen Objekttypen gruppieren.  Eine solche Mehrschichtarchitektur könnte folgende Komponenten umfassen:  Basismodelle: Die trainierten KI-Modelle mit ihren mathematischen Grundgewichten. Datenschicht: Unterteilt in unstrukturierte und strukturierte Daten. Service-Schicht: Umfasst die für den Modellbetrieb nötigen Dienste sowie Datenzugriffsdienste. Orchestrierungs-Schicht: Hier werden Prompts, Agenten und Tools zusammengeführt. Anwendungs-Schicht: Die nutzbaren Applikationen mit ihren Benutzeroberflächen. Der entscheidende Vorteil einer solchen Architektur liegt in der Abstraktion: Sie schafft standardisierte Schnittstellen zwischen den verschiedenen Schichten, wodurch ein einzelner Dienst ausgetauscht werden kann, ohne dass Anpassungen an anderen Komponenten notwendig werden. Diese Entkopplung ermöglicht es Unternehmen, ihre Komplexitätsschwelle zu erhöhen. (mb)  

KI-Agenten: Die nächste Evolutionsstufe der Unternehmens-KI​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?quality=50&strip=all 4123w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Um zuverlässig und kosteneffizient zu sein, müssen KI-Agenten sorgfältig konzipiert, getestet, implementiert und überwacht werden.Shutterstock – inni

Die erste Welle von GenAI-Lösungen hat bereits beachtliche Erfolge in Unternehmen erzielt – besonders im Bereich der Coding-Assistenten und bei der Effizienzsteigerung bestehender SaaS-Produkte. Diese Anwendungen zeigen jedoch nur einen kleinen Ausschnitt dessen, was mit Large Language Models (LLMs) möglich ist. Die eigentliche Stärke dieser Technologie entfaltet sich jetzt in der zweiten Generation KI-gestützter Anwendungen: agentenbasierten Systeme, die auf dem soliden Fundament der LLMs aufbauen und deren Fähigkeiten auf eine neue Stufe heben. 

Anders als herkömmliche KI-Chatbots oder einfache Copiloten für SaaS-Produkte nutzen KI-Agenten die volle Bandbreite der LLM-Fähigkeiten. Sie können nicht nur Text generieren, sondern (nahezu) eigenständig komplexe Probleme lösen. Ein KI-Agent ist dabei ein LLM-gestütztes System, das innerhalb definierter Autonomiegrenzen und unter Nutzung verschiedener Tools bestimmte Ziele verfolgt. 

Ein Beispiel verdeutlicht die Möglichkeiten: Stellen Sie sich vor, ein LLM erhält die Dokumentation einer API, die aktuelle Aktienkurse abrufen kann. Mit dieser Information kann das LLM eigenständig ein Skript erstellen, das diese API für einen bestimmten Aktienkurs aufruft. Darf das System dieses Skript ausführen, wird es zu einem Werkzeug für Endnutzer, um beliebige Aktienkurse abzurufen. 

Ein Agent kommt selten allein 

Wäre es also möglich, eine einzige, allumfassende Anwendung zu entwickeln, die sämtliche Probleme im Unternehmen lösen kann? Die kurze Antwort lautet: nein. Obwohl LLMs zur Generalisierung fähig sind, erfordern die Einschränkungen des Unternehmensumfelds einen relativ engen Anwendungsbereich für jede einzelne Applikation. Nur so ist das Unternehmen in der Lage, konstant gute Leistung zu gewährleisten und den Zugriff auf Daten und Tools zu kontrollieren. 

Diese imaginäre “Super-Anwendung” klingt zwar bequem, würde aber vollen Zugriff auf sämtliche Unternehmensdaten und -werkzeuge benötigen, von den banalsten bis hin zu den sensibelsten. Ähnlich wie ein Mitarbeiter nur Zugang zu den Daten und Tools haben sollte, die für seine Arbeit notwendig sind, muss auch der Zugriff einer agentenbasierten Anwendung auf das beschränkt sein, was sie zur Erfüllung ihrer Funktion braucht. 

Wie viele solcher KI-Agenten könnte ein Großunternehmen benötigen? Eine Überschlagsrechnung: Ein Großunternehmen mit zehn Abteilungen und jeweils fünf Kernfunktionen könnte pro Funktion von fünf spezialisierten Anwendungen profitieren. Beispielsweise könnte die Vertriebsabteilung im Bereich Sales Operations jeweils einen Agenten einsetzen, um: 

Zielkunden zu recherchieren; 

die Einhaltung des Verkaufsprozesses zu überprüfen; 

die Vertriebspipeline zu analysieren; 

Kundengespräche zusammenzufassen; und  

Nachfassaktionen zu unterstützen. 

In Summe ergäben sich so 250 Anwendungen – eine realistische Prognose für Großorganisationen. 

Make or Buy: Die Kunst der richtigen Entscheidung 

Angesichts mehrerer hundert neuartiger Anwendungen stehen Unternehmen vor der Entscheidung “Make-or-Buy”. So bringen Softwareanbieter bereits entsprechende Anwendungen auf den Markt. Gleichzeitig entwickeln fortgeschrittene Organisationen ihre ersten produktionsreifen agentenbasierten Anwendungen selbst. 

Fertige KI-Agenten bringen entscheidende Vorteile mit sich: Einmal implementiert, bieten sie schlüsselfertige Leistung, werden von professionellen Softwareentwicklern betreut und ermöglichen eine rasche Einführung. Die Schattenseite solcher KI-Agenten von der Stange sind Herausforderungen wie die oft komplexe Integration in bestehende Unternehmenssysteme, Governance-Probleme bei der Nachverfolgung der eingesetzten Modelle und nicht zuletzt der Umstand, dass Wettbewerber mit identischen Lösungen die gleiche Leistung erzielen können. 

Auf der anderen Seite lassen sich selbstentwickelte, maßgeschneiderte KI-Agenten präzise an den spezifischen Geschäftskontext anpassen und bieten damit das Potenzial für echte Differenzierung am Markt. Unternehmen behalten die volle Kontrolle und Transparenz über ihre Anwendungen und gewinnen Unabhängigkeit von externen Software-, KI- und Cloud-Anbietern. Allerdings stehen diese Vorteile eigenen Herausforderungen gegenüber: Die erforderlichen Entwicklungsfähigkeiten sind in vielen Organisationen nicht ausreichend vorhanden, und mit steigender Anzahl selbstentwickelter Anwendungen wächst die Komplexität von Überwachung und Wartung erheblich. 

Die meisten Unternehmen werden daher einige Anwendungen kaufen und andere selbst entwickeln. Dabei ist zu beachten: KI-Agenten können zwar die Effizienz der betrieblichen Abläufe verbessern, aber wenn diese Effizienzsteigerungen im Gleichschritt mit denen der Wettbewerber erfolgen, verbessert sich die Wettbewerbsposition nicht. 

Die Entwicklung maßgeschneiderter, agentenbasierter Anwendungen ermöglicht es einem Unternehmen hingegen, Fähigkeiten zu schaffen, die seine Wettbewerber nicht besitzen. Angesichts der Kosten und Komplexität werden Unternehmen ihre internen Entwicklungsbemühungen auf die Teile ihres Geschäfts konzentrieren, die am meisten von einer starken Wettbewerbsdifferenzierung profitieren – in der Regel ihr Kerngeschäft. 

Die Komplexitätsschwelle überwinden 

Jede Organisation hat eine maximale Anzahl von Anwendungen, die sie mit ihren aktuellen Praktiken entwickeln, überwachen und warten kann. Dies ist die “Komplexitätsschwelle” der Organisation. 

Wenn das Unternehmen mehr und mehr agentenbasierte Anwendungen entwickelt, steigt die Komplexität ihrer Überwachung und Wartung, bis irgendwann die maximale Komplexität erreicht ist und keine weiteren Anwendungen mehr entwickelt werden können – selbst, wenn dies dem Geschäft zugutekommen würde. 

Um mehr Anwendungen entwickeln zu können, muss das Unternehmen einen Weg finden, seine Komplexitätsschwelle zu erhöhen. Dazu ist es erforderlich, die Entwicklung dieser Anwendungen zu standardisieren und strukturieren. 

Ein neues Architekturparadigma für agentenbasierte Anwendungen 

Im Laufe der Jahre haben Organisationen verschiedene Architekturparadigmen genutzt – von monolithischen Anwendungen über serviceorientierte Architekturen bis hin zu Microservices. Heutige Infrastrukturen für den Aufbau agentenbasierter Anwendungen sind meist monolithisch und nutzen Frameworks wie LangChain. Dieser Ansatz eignet sich zwar für die Entwicklung der ersten Prototypen, spiegelt aber die relative Unreife des Designs agentenbasierter Anwendungen im Unternehmensumfeld wider. 

Um viele agentenbasierte Anwendungen zu erstellen und zu warten, ist daher ein neues Architekturparadigma erforderlich. Eine Umsetzung ist etwa eine Netzarchitektur (Mesh) für LLMs und die zugehörigen Komponenten, die für die Erstellung von Agenten im Unternehmen erforderlich sind. Sie bietet Abstraktionsebenen, die verschiedene Komponenten in einheitlichen Objekttypen gruppieren. 

Eine solche Mehrschichtarchitektur könnte folgende Komponenten umfassen: 

Basismodelle: Die trainierten KI-Modelle mit ihren mathematischen Grundgewichten.

Datenschicht: Unterteilt in unstrukturierte und strukturierte Daten.

Service-Schicht: Umfasst die für den Modellbetrieb nötigen Dienste sowie Datenzugriffsdienste.

Orchestrierungs-Schicht: Hier werden Prompts, Agenten und Tools zusammengeführt.

Anwendungs-Schicht: Die nutzbaren Applikationen mit ihren Benutzeroberflächen.

Der entscheidende Vorteil einer solchen Architektur liegt in der Abstraktion: Sie schafft standardisierte Schnittstellen zwischen den verschiedenen Schichten, wodurch ein einzelner Dienst ausgetauscht werden kann, ohne dass Anpassungen an anderen Komponenten notwendig werden. Diese Entkopplung ermöglicht es Unternehmen, ihre Komplexitätsschwelle zu erhöhen. (mb) 

KI-Agenten: Die nächste Evolutionsstufe der Unternehmens-KI​ Weiterlesen »

Open Source Intelligence: Die besten OSINT Tools​

Allgemein

Open Source Intelligence Tools finden frei verfügbare Informationen. Die können kriminelle Hacker für ihre Zwecke nutzen – es sei denn, Sie kommen ihnen zuvor. Foto: GaudiLab – shutterstock.com In den 1980er Jahren vollzog sich im Bereich der Militär- und Geheimdienste ein Paradigmenwechsel. Klassische Aktivitäten wie das Abfangen von Briefen und Abhören von Telefongesprächen wurden von einem neuen Trend zur Geheimnisausspähung abgelöst: Dabei konzentrierten sich Agenten darauf, frei verfügbare oder offiziell veröffentlichte Informationen für ihre Zwecke zu nutzen. Es war eine andere Welt, die ohne Social Media auskommen musste. Stattdessen waren Zeitungen und öffentlich verfügbare Datenbanken die Hauptquellen für interessante und/oder nützliche Informationen. OSINT – Definition Das hört sich simpel an, erforderte in der Praxis allerdings ein Höchstmaß an Kombinationsfähigkeit, um relevante Informationen zuverlässig miteinander zu verknüpfen und daraus ein Lagebild zu erstellen. Diese Art der Spionage bezeichnete man als Open Source Intelligence (OSINT). Die OSINT-Taktik kann heute auch auf das Gebiet der Cybersecurity angewandt werden. Denn die meisten Unternehmen und Organisationen verfügen über eine ausgedehnte, in weiten Teilen öffentlich zugängliche Infrastruktur, die diverse Netzwerke, Technologien, Hosting Services und Namespaces umfasst. Informationen beziehungsweise Daten können sich dabei auf diversen Geräten befinden – den Rechnern von Mitarbeitern, On-Premises Servern, privaten Devices von Mitarbeitern (im Sinne von “Bring your own Device”), Cloud-Instanzen oder auch dem Quellcode von aktiven Applikationen. Tatsächlich weiß die IT-Abteilung in Großunternehmen in der Praxis so gut wie nie über alle Assets im Unternehmen Bescheid – ob öffentlich zugänglich oder nicht. Dazu gesellt sich der Umstand, dass die meisten Unternehmen auch verschiedene zusätzliche Assets indirekt verwalten – etwa ihre Social Media Accounts. Gerade in diesem Bereich werden oft Informationen vorgehalten, die gefährlich werden könnten, falls sie in falsche Hände geraten. An dieser Stelle kommt die aktuelle Generation der Open Source Intelligence Tools ins Spiel. Die OSINT-Werkzeuge übernehmen im Wesentlichen drei Funktionen: Öffentlich zugängliche Assets aufspüren: Die gängigste Funktion von OSINT Tools ist es, IT-Teams dabei zu unterstützen, öffentlich zugängliche Assets und die darin enthaltenen Informationen zu ermitteln. Dabei geht es insbesondere um Daten, die potenziell zur Erschließung von Angriffsvektoren beitragen könnten. Damit ist jedoch nicht die Ermittlung von Sicherheitslücken oder Penetration Testing gemeint – es geht ausschließlich um Informationen, die ohne den Einsatz von Hacking-Methoden zugänglich sind. Relevante Informationen außerhalb der Organisation finden: Eine weitere Funktion von Open Source Intelligence Tools liegt darin, Informationen aufzuspüren, die sich außerhalb der eigenen Organisation befinden – also etwa auf Social-Media-Plattformen oder Domains. Dieses Feature dürfte insbesondere für Großunternehmen interessant sein, die im Rahmen von Firmenübernahmen neue IT Assets integrieren. Angesichts des extremen Wachstums von Social-Media-Plattformen ist die Überprüfung auf sensible Informationen außerhalb der Unternehmensgrenzen für jede Organisation sinnvoll. Ermittelte Informationen verwertbar zusammenstellen: Einige OSINT Tools sind in der Lage, gesammelte Informationen und Daten in verwertbarer Form zusammenzufassen. Ein OSINT Scan kann im Fall eines Großunternehmens hunderttausende von Ergebnissen aufwerfen – insbesondere, wenn sowohl interne als auch externe Quellen miteinfließen. Die Daten zu strukturieren und die drängendsten Probleme zuerst anzugehen, ist nicht nur in solchen Fällen hilfreich. Open Source Intelligence – die besten Tools Indem sie Informationen über Ihr Unternehmen, Ihre Mitarbeiter, Ihre IT Assets oder andere sensible Daten zu Tage fördern, die von böswilligen Angreifern ausgenutzt werden könnten, können geeignete Open Source Intelligence Tools dazu beitragen, Ihr IT-Security-Niveau zu erhöhen: Wenn Sie solche Informationen vor den Angreifern finden, können Sie die Gefahr böswilliger Aktivitäten – von Phishing– bis hin zu Denial-of-Service-Attacken – deutlich reduzieren. Im Folgenden stellen wir Ihnen einige der besten Open Source Intelligence Tools sowie deren individuelle Stärken vor. Maltego Dieses OSINT Tool ist darauf ausgelegt, Beziehungsgeflechte zwischen Menschen, Unternehmen, Domains und öffentlich zugänglichen Informationen im World Wide Web offenzulegen. Die Ergebnisse visualisiert Maltego in Form ansprechender Grafiken und Diagramme, in die bis zu 10.000 Datenpunkte einfließen können. Maltego durchsucht auf Knopfdruck automatisiert verschiedene öffentliche Datenquellen. Dazu gehören etwa DNS-Abfragen, Suchmaschinen und soziale Netzwerke. Kompatibel ist das Tool mit nahezu jeder Datenquelle, die ein öffentlich zugängliches Interface aufweist. Ist die Informationssammlung abgeschlossen, verknüpft das OSINT Tool die Daten und gibt Auskunft über die verborgenen Relationen zwischen Namen, E-Mail-Adressen, Unternehmen, Webseiten und anderen Informationen. Weil Maltego auf Java-Basis entstanden ist, läuft es zuverlässig auf Windows-, Mac- und Linux-Plattformen. Für Privatpersonen und kleine Teams steht Maltego wahlweise in der CE- oder Pro-Edition zur Verfügung. Während erstere kostenlos ist (und eingeschränkte Funktionen aufweist), kostet die Pro-Version jährlich 1.099 Euro. Unternehmen haben die Wahl zwischen der OSINT- und CTI-Version. Eine entsprechende Demo-Version und Infos zum Preisgefüge gibt’s auf Anfrage. Recon-ng Softwareentwickler die mit Python arbeiten, steht mit Recon-ng ein vielschichtiges OSINT Tool zur Verfügung. Das Interface ähnelt Metasploit, was die Lernkurve für erfahrene Nutzer des populären Frameworks deutlich absenkt. Dank einer interaktiven Hilfefunktion (was vielen Python-Modulen fehlt) können Developer quasi direkt mit der Arbeit loslegen. Die beinhaltet im Fall von Recon-ng die automatisierte Abarbeitung zeitintensiver und repetitiver OSINT Tasks (etwa Copy-und-Paste-Marathons). Das schafft mehr Zeit für die Dinge, die manuell erledigt werden müssen. Damit auch Python-Anfänger mit Recon-ng zurechtkommen, verfügt das OSINT Tool über ein modulares Framework mit zahlreichen integrierten Funktionalitäten. Dazu gehören beispielsweise gängige Aufgaben wie die Standardisierung von Output, die Interaktion mit Datenbanken, das Anstoßen von Web Requests oder API Key Management. Statt Recon-ng aufwändig zu programmieren, suchen sich die Entwickler einfach die Funktionen aus, die sie benötigen und stellen so in nur wenigen Minuten ein automatisiertes Modul zusammen. Bei Recon-ng handelt es sich um kostenlose, quelloffene Software. theHarvester In Sachen Nutzung ist theHarvester eines der simpelsten OSINT Tools in dieser Übersicht. Das Werkzeug ist darauf ausgelegt, Informationen außerhalb des eigenen Netzwerks von Organisationen und Unternehmen aufzuspüren. Zwar kann theHarvester auch eingesetzt werden, um interne Netzwerke auf Informationen zu durchsuchen, der Schwerpunkt liegt jedoch auf externen Daten. Zu den Quellen die das OSINT Tool heranzieht, gehören sowohl populäre Suchmaschinen wie Google und Bing, als auch weniger bekannte wie dogpile, DNSDumpster und die Exalead Metadaten-Engine. Sogar Shodan kann eingebunden werden, um offene Ports auf entdeckten Hosts zu ermitteln. Ganz generell erfasst theHarvester Emails, Namen, Subdomains, IPs und URLs. TheHarvester kann auf die meisten öffentlich zugänglichen Quellen ohne spezielle Maßnahmen zugreifen. Allerdings können einige wenige Quellen einen API Key erfordern – und Python muss mindestens in Version 3.6 vorliegen. Das Tool steht auf GitHub zur freien Verfügung. Shodan Bei Shodan handelt es sich um eine dedizierte Suchmaschine, die Informationen über Geräte liefert – beispielsweise die bereits millionenfach im Einsatz befindlichen IoT Devices. Das OSINT Tool kann auch dazu genutzt werden, offene Ports oder Schwachstellen auf bestimmten Systemen zu finden. Einige andere Open Source Intelligence Tools nutzen Shodan als Datenquelle – eine tiefgehende Interaktion erfordert allerdings einen kostenpflichtigen Account. Die Einsatzmöglichkeiten von Shodan sind dabei ziemlich beeindruckend: Es ist eines der wenigen Tools, das bei seinen Analysen auch Operational Technology (OT) mit einbeziehen, wie sie etwa in industriellen Kontrollsystemen von Kraftwerken oder Fabriken zum Einsatz kommt. Jede OSINT-Initiative wäre in einer Branche, in der IT und OT Hand in Hand gehen, also mit erheblichen Lücken behaftet wenn sie nicht auf Shodan basiert. Darüber hinaus ist es mit dem OSINT Tool auch möglich, Datenbanken zu untersuchen: Unter Umständen sind hier Informationen über Umwege öffentlich aufrufbar. Eine Freelancer-Lizenz (69 Dollar monatlich) für Shodan ermöglicht den Scan von bis zu 5.120 IP-Adressen pro Monat – mit bis zu einer Million Ergebnissen. Die Corporate-Lizenz verspricht unbegrenzte Ergebnisse und ermöglicht den Scan von monatlich 327.680 IP-Adressen – für 1.099 Dollar pro Monat, dann aber inklusive Schwachstellen-Suchfilter und Premium Support. Kleine(re) Unternehmen greifen auf den Small-Business-Preisplan für 359 Dollar monatlich zurück. Metagoofil Auch Metagoofil ist über die GitHub-Plattform frei verfügbar. Dieses Tool ist darauf ausgelegt, Metadaten aus öffentlichen Dokumenten zu extrahieren. Geht es um die Art des Dokuments, setzt das OSINT Tools keine Grenzen, egal ob .pdf-, .doc-, .ppt-, oder .xls-Datei. Die Menge an interessanten Daten, die Metagoofil dabei aufwirft, ist beeindruckend. So können entweder im Handumdrehen die mit bestimmten Dokumenten verknüpften Usernamen ermittelt werden. Dabei gibt das OSINT Tool auch Aufschluss über den genauen Pfad, der zu den Informationen führt. Daraus lassen sich wiederum leicht Rückschlüsse über Servernamen, geteilte Ressourcen und Verzeichnisstrukturen des betreffenden Unternehmens ziehen. So gut wie alle Informationen die Metagoofil liefert, wären für einen kriminellen Hacker nützlich. Organisationen und Unternehmen können das Open Source Intelligence Tool hingegen nutzen, um genau diese Informationen vor potenziellen Übeltätern aufzuspüren und sie entsprechend abzusichern oder zu verbergen. searchcode Wenn Sie wirklich tief in die OSINT-Materie eintauchen wollen, steht Ihnen mit searchcode eine hochspezialisierte Suchmaschine zur Verfügung, die Quellcode nach interessanten Daten durchforstet. Softwareentwickler können so Probleme aufdecken und beheben, bevor die betreffende Software ausgerollt wird. Natürlich verlangt jedes Tool, das mit Quellcode arbeitet, ein wenig mehr Knowhow als eine einfache Google-Suche – der Macher von searchcode hat aber alles darangesetzt, das Interface seines OSINT Tools so einfach wie nur möglich zu gestalten. Der Benutzer gibt seine Suchanfrage ein und searchcode liefert die Ergebnisse in Form von entsprechenden Markierungen innerhalb des Source Codes. So können etwa Usernamen, Security-Schwachstellen, ungewollte aktive Funktionen (wie re-compile) oder auch Sonderzeichen, die für Code-Injection-Angriffe verwendet werden können, ermittelt werden. Die Ergebnisse von Searchcode sind dabei selbsterklärend – dennoch liefert das OSINT Tool auch weiterführende Informationen oder relevante Probleme, die mit den Ergebnissen in Zusammenhang stehen. Babel Street Insights Relevante Informationen müssen nicht unbedingt auf Englisch oder Deutsch vorliegen – die Informationen, die Sie benötigen, könnten auch in Chinesisch oder Spanisch verfasst sein. An dieser Stelle kommt Babel Street Insights ins Spiel: Das multilinguale OSINT Tool durchsucht das öffentliche Web inklusive Blogs, Social-Media-Plattformen und Message Boards genauso, wie das Dark- und Deepweb. Das Tool kann die Quelle der gefundenen Informationen auch örtlich lokalisieren und KI-basierte Textanalysen fahren, um relevante Ergebnisse zu Tage zu fördern. Derzeit unterstützt Babel rund 200 verschiedenen Sprachen. Die Einsatzszenarien für ein multilinguales OSINT Tool sind zahlreich: Kommt es etwa zu weltumspannenden Ransomware-Attacken, könnten schnell Trends zur Zielerfassung ermittelt werden. Babel Street Insights könnte auch Aufschluss darüber geben, ob das geistige Eigentum eines Unternehmens auf fremden Webseiten zum Verkauf angeboten wird. Die OSINT-Plattform ist im Wesentlichen Cloud-basiert und ermöglicht seinen Benutzern auch, eigene Datenquellen hinzuzufügen. Mit Babel Box steht auch eine On-Premises-Version zur Verfügung, die allerdings einige Features (wie die Deepweb-Suche) vermissen lässt. Die kostengünstigste Version ist Babel Channels – die eine kuratierte Auswahl von Datenquellen zur Verfügung stellt. Eine Mobile App gibt es für sämtliche Versionen. Mitaka Dieses Tool steht als Chrome Extension oder Firefox Add-On zur Verfügung und bietet Ihnen eine browserbasierte Suche nach IP-Adressen, Domains, URLs, Hashes, ASNs, Bitcoin-Wallet-Adressen und zahlreichen anderen “Indicators of Compromise”. Dabei werden sechs verschiedene Suchmaschinen einbezogen. Praktischerweise dient Mitaka auch als Shortcut zu zahlreichen Online-Datenbanken, die mit einem Klick durchsucht werden können. Für alle die etwas weniger Umfang bevorzugen, steht die alternative Extension Sputnik zur Verfügung. BuiltWith Wie der Name nahelegt, können Sie mit BuiltWith herausfinden, auf welcher Basis populäre Webseiten erstellt wurden (WordPress, Joomla, Drupal, etc.) und weitergehende Details sichtbar machen. Dazu gehört zum Beispiel eine Liste der JavaScript/CSS Bibliotheken, die eine Website nutzt. Darüber hinaus können auch Plugins, Frameworks, Server-, Analytics- und Tracking-Informationen gewonnen werden. Wenn Sie lediglich Informationen über das Tech Stack hinter einer Webseite einsehen wollen, fahren Sie mit Wappalyzer unter Umständen besser, da es ein schlankeres OSINT Tool ist. Grep.app Wie durchsucht man eine halbe Million Git Repositories? Am besten und effizientesten mit Grep.app. Das OSINT Tool kam kürzlich bei Twitter-Usern und Journalisten zum Einsatz, um nachzuvollziehen, wie viele Repositories den Codecov Bash Uploader genutzt haben. Grep.app kann auch hilfreich sein, wenn Sie nach Strings in Zusammenhang mit IOCs, Schadcode oder Malware suchen wollen. Ergänzende Liste von OSINT-Werkzeugen Auf PCWDLD findet sich eine weiterführende Liste mit nützlichen OSINT-Tools. OSINT Framework Neben diesen Tools stehen eine Menge weiterer zur Verfügung, um an OSINT-Daten zu gelangen. Einen guten Anlaufpunkt, diese zu erkunden, bildet das OSINT Framework. Das webbasierte Interface bringt Sie zu den Tools die Sie brauchen, um an die benötigten Informationen zu gelangen. Sämtliche Tools die hier zu finden sind, sind kostenfrei – einige erfordern allerdings eine Registrierung oder bieten in der Bezahlversion bessere Features. Mit OSINT Lücken schließen! Nicht jeder Hackerangriff muss ein Advanced Persistent Threat sein oder unter Anwendung besonders raffinierter Methoden ablaufen. Auch kriminelle Hacker gehen am liebsten den Weg des geringsten Widerstandes. Schließlich wäre es unsinnig, Monate damit zu verschwenden, Systeme zu kompromittieren, wenn alle notwendigen Informationen in öffentlich zugänglichen Kanälen vorliegen. OSINT Tools können Unternehmen dabei unterstützen, herauszufinden, welche Informationen über ihre Netzwerke, Daten und Nutzer öffentlich zugänglich sind. Dabei kommt es vor allem darauf an, diese Daten möglichst schnell zu finden, bevor sie ausgenutzt werden können. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Open Source Intelligence: Die besten OSINT Tools​ Open Source Intelligence Tools finden frei verfügbare Informationen. Die können kriminelle Hacker für ihre Zwecke nutzen – es sei denn, Sie kommen ihnen zuvor.
Foto: GaudiLab – shutterstock.com

In den 1980er Jahren vollzog sich im Bereich der Militär- und Geheimdienste ein Paradigmenwechsel. Klassische Aktivitäten wie das Abfangen von Briefen und Abhören von Telefongesprächen wurden von einem neuen Trend zur Geheimnisausspähung abgelöst: Dabei konzentrierten sich Agenten darauf, frei verfügbare oder offiziell veröffentlichte Informationen für ihre Zwecke zu nutzen. Es war eine andere Welt, die ohne Social Media auskommen musste. Stattdessen waren Zeitungen und öffentlich verfügbare Datenbanken die Hauptquellen für interessante und/oder nützliche Informationen.

OSINT – Definition

Das hört sich simpel an, erforderte in der Praxis allerdings ein Höchstmaß an Kombinationsfähigkeit, um relevante Informationen zuverlässig miteinander zu verknüpfen und daraus ein Lagebild zu erstellen. Diese Art der Spionage bezeichnete man als Open Source Intelligence (OSINT).

Die OSINT-Taktik kann heute auch auf das Gebiet der Cybersecurity angewandt werden. Denn die meisten Unternehmen und Organisationen verfügen über eine ausgedehnte, in weiten Teilen öffentlich zugängliche Infrastruktur, die diverse Netzwerke, Technologien, Hosting Services und Namespaces umfasst. Informationen beziehungsweise Daten können sich dabei auf diversen Geräten befinden – den Rechnern von Mitarbeitern, On-Premises Servern, privaten Devices von Mitarbeitern (im Sinne von “Bring your own Device”), Cloud-Instanzen oder auch dem Quellcode von aktiven Applikationen.

Tatsächlich weiß die IT-Abteilung in Großunternehmen in der Praxis so gut wie nie über alle Assets im Unternehmen Bescheid – ob öffentlich zugänglich oder nicht. Dazu gesellt sich der Umstand, dass die meisten Unternehmen auch verschiedene zusätzliche Assets indirekt verwalten – etwa ihre Social Media Accounts. Gerade in diesem Bereich werden oft Informationen vorgehalten, die gefährlich werden könnten, falls sie in falsche Hände geraten.

An dieser Stelle kommt die aktuelle Generation der Open Source Intelligence Tools ins Spiel. Die OSINT-Werkzeuge übernehmen im Wesentlichen drei Funktionen:

Öffentlich zugängliche Assets aufspüren: Die gängigste Funktion von OSINT Tools ist es, IT-Teams dabei zu unterstützen, öffentlich zugängliche Assets und die darin enthaltenen Informationen zu ermitteln. Dabei geht es insbesondere um Daten, die potenziell zur Erschließung von Angriffsvektoren beitragen könnten. Damit ist jedoch nicht die Ermittlung von Sicherheitslücken oder Penetration Testing gemeint – es geht ausschließlich um Informationen, die ohne den Einsatz von Hacking-Methoden zugänglich sind.

Relevante Informationen außerhalb der Organisation finden: Eine weitere Funktion von Open Source Intelligence Tools liegt darin, Informationen aufzuspüren, die sich außerhalb der eigenen Organisation befinden – also etwa auf Social-Media-Plattformen oder Domains. Dieses Feature dürfte insbesondere für Großunternehmen interessant sein, die im Rahmen von Firmenübernahmen neue IT Assets integrieren. Angesichts des extremen Wachstums von Social-Media-Plattformen ist die Überprüfung auf sensible Informationen außerhalb der Unternehmensgrenzen für jede Organisation sinnvoll.

Ermittelte Informationen verwertbar zusammenstellen: Einige OSINT Tools sind in der Lage, gesammelte Informationen und Daten in verwertbarer Form zusammenzufassen. Ein OSINT Scan kann im Fall eines Großunternehmens hunderttausende von Ergebnissen aufwerfen – insbesondere, wenn sowohl interne als auch externe Quellen miteinfließen. Die Daten zu strukturieren und die drängendsten Probleme zuerst anzugehen, ist nicht nur in solchen Fällen hilfreich.

Open Source Intelligence – die besten Tools

Indem sie Informationen über Ihr Unternehmen, Ihre Mitarbeiter, Ihre IT Assets oder andere sensible Daten zu Tage fördern, die von böswilligen Angreifern ausgenutzt werden könnten, können geeignete Open Source Intelligence Tools dazu beitragen, Ihr IT-Security-Niveau zu erhöhen: Wenn Sie solche Informationen vor den Angreifern finden, können Sie die Gefahr böswilliger Aktivitäten – von Phishing– bis hin zu Denial-of-Service-Attacken – deutlich reduzieren. Im Folgenden stellen wir Ihnen einige der besten Open Source Intelligence Tools sowie deren individuelle Stärken vor.

Maltego

Dieses OSINT Tool ist darauf ausgelegt, Beziehungsgeflechte zwischen Menschen, Unternehmen, Domains und öffentlich zugänglichen Informationen im World Wide Web offenzulegen. Die Ergebnisse visualisiert Maltego in Form ansprechender Grafiken und Diagramme, in die bis zu 10.000 Datenpunkte einfließen können. Maltego durchsucht auf Knopfdruck automatisiert verschiedene öffentliche Datenquellen. Dazu gehören etwa DNS-Abfragen, Suchmaschinen und soziale Netzwerke. Kompatibel ist das Tool mit nahezu jeder Datenquelle, die ein öffentlich zugängliches Interface aufweist.

Ist die Informationssammlung abgeschlossen, verknüpft das OSINT Tool die Daten und gibt Auskunft über die verborgenen Relationen zwischen Namen, E-Mail-Adressen, Unternehmen, Webseiten und anderen Informationen. Weil Maltego auf Java-Basis entstanden ist, läuft es zuverlässig auf Windows-, Mac- und Linux-Plattformen.

Für Privatpersonen und kleine Teams steht Maltego wahlweise in der CE- oder Pro-Edition zur Verfügung. Während erstere kostenlos ist (und eingeschränkte Funktionen aufweist), kostet die Pro-Version jährlich 1.099 Euro. Unternehmen haben die Wahl zwischen der OSINT- und CTI-Version. Eine entsprechende Demo-Version und Infos zum Preisgefüge gibt’s auf Anfrage.

Recon-ng

Softwareentwickler die mit Python arbeiten, steht mit Recon-ng ein vielschichtiges OSINT Tool zur Verfügung. Das Interface ähnelt Metasploit, was die Lernkurve für erfahrene Nutzer des populären Frameworks deutlich absenkt. Dank einer interaktiven Hilfefunktion (was vielen Python-Modulen fehlt) können Developer quasi direkt mit der Arbeit loslegen.

Die beinhaltet im Fall von Recon-ng die automatisierte Abarbeitung zeitintensiver und repetitiver OSINT Tasks (etwa Copy-und-Paste-Marathons). Das schafft mehr Zeit für die Dinge, die manuell erledigt werden müssen. Damit auch Python-Anfänger mit Recon-ng zurechtkommen, verfügt das OSINT Tool über ein modulares Framework mit zahlreichen integrierten Funktionalitäten. Dazu gehören beispielsweise gängige Aufgaben wie die Standardisierung von Output, die Interaktion mit Datenbanken, das Anstoßen von Web Requests oder API Key Management. Statt Recon-ng aufwändig zu programmieren, suchen sich die Entwickler einfach die Funktionen aus, die sie benötigen und stellen so in nur wenigen Minuten ein automatisiertes Modul zusammen.

Bei Recon-ng handelt es sich um kostenlose, quelloffene Software.

theHarvester

In Sachen Nutzung ist theHarvester eines der simpelsten OSINT Tools in dieser Übersicht. Das Werkzeug ist darauf ausgelegt, Informationen außerhalb des eigenen Netzwerks von Organisationen und Unternehmen aufzuspüren. Zwar kann theHarvester auch eingesetzt werden, um interne Netzwerke auf Informationen zu durchsuchen, der Schwerpunkt liegt jedoch auf externen Daten.

Zu den Quellen die das OSINT Tool heranzieht, gehören sowohl populäre Suchmaschinen wie Google und Bing, als auch weniger bekannte wie dogpile, DNSDumpster und die Exalead Metadaten-Engine. Sogar Shodan kann eingebunden werden, um offene Ports auf entdeckten Hosts zu ermitteln. Ganz generell erfasst theHarvester Emails, Namen, Subdomains, IPs und URLs.

TheHarvester kann auf die meisten öffentlich zugänglichen Quellen ohne spezielle Maßnahmen zugreifen. Allerdings können einige wenige Quellen einen API Key erfordern – und Python muss mindestens in Version 3.6 vorliegen. Das Tool steht auf GitHub zur freien Verfügung.

Shodan

Bei Shodan handelt es sich um eine dedizierte Suchmaschine, die Informationen über Geräte liefert – beispielsweise die bereits millionenfach im Einsatz befindlichen IoT Devices. Das OSINT Tool kann auch dazu genutzt werden, offene Ports oder Schwachstellen auf bestimmten Systemen zu finden. Einige andere Open Source Intelligence Tools nutzen Shodan als Datenquelle – eine tiefgehende Interaktion erfordert allerdings einen kostenpflichtigen Account.

Die Einsatzmöglichkeiten von Shodan sind dabei ziemlich beeindruckend: Es ist eines der wenigen Tools, das bei seinen Analysen auch Operational Technology (OT) mit einbeziehen, wie sie etwa in industriellen Kontrollsystemen von Kraftwerken oder Fabriken zum Einsatz kommt. Jede OSINT-Initiative wäre in einer Branche, in der IT und OT Hand in Hand gehen, also mit erheblichen Lücken behaftet wenn sie nicht auf Shodan basiert. Darüber hinaus ist es mit dem OSINT Tool auch möglich, Datenbanken zu untersuchen: Unter Umständen sind hier Informationen über Umwege öffentlich aufrufbar.

Eine Freelancer-Lizenz (69 Dollar monatlich) für Shodan ermöglicht den Scan von bis zu 5.120 IP-Adressen pro Monat – mit bis zu einer Million Ergebnissen. Die Corporate-Lizenz verspricht unbegrenzte Ergebnisse und ermöglicht den Scan von monatlich 327.680 IP-Adressen – für 1.099 Dollar pro Monat, dann aber inklusive Schwachstellen-Suchfilter und Premium Support. Kleine(re) Unternehmen greifen auf den Small-Business-Preisplan für 359 Dollar monatlich zurück.

Metagoofil

Auch Metagoofil ist über die GitHub-Plattform frei verfügbar. Dieses Tool ist darauf ausgelegt, Metadaten aus öffentlichen Dokumenten zu extrahieren. Geht es um die Art des Dokuments, setzt das OSINT Tools keine Grenzen, egal ob .pdf-, .doc-, .ppt-, oder .xls-Datei.

Die Menge an interessanten Daten, die Metagoofil dabei aufwirft, ist beeindruckend. So können entweder im Handumdrehen die mit bestimmten Dokumenten verknüpften Usernamen ermittelt werden. Dabei gibt das OSINT Tool auch Aufschluss über den genauen Pfad, der zu den Informationen führt. Daraus lassen sich wiederum leicht Rückschlüsse über Servernamen, geteilte Ressourcen und Verzeichnisstrukturen des betreffenden Unternehmens ziehen.

So gut wie alle Informationen die Metagoofil liefert, wären für einen kriminellen Hacker nützlich. Organisationen und Unternehmen können das Open Source Intelligence Tool hingegen nutzen, um genau diese Informationen vor potenziellen Übeltätern aufzuspüren und sie entsprechend abzusichern oder zu verbergen.

searchcode

Wenn Sie wirklich tief in die OSINT-Materie eintauchen wollen, steht Ihnen mit searchcode eine hochspezialisierte Suchmaschine zur Verfügung, die Quellcode nach interessanten Daten durchforstet. Softwareentwickler können so Probleme aufdecken und beheben, bevor die betreffende Software ausgerollt wird.

Natürlich verlangt jedes Tool, das mit Quellcode arbeitet, ein wenig mehr Knowhow als eine einfache Google-Suche – der Macher von searchcode hat aber alles darangesetzt, das Interface seines OSINT Tools so einfach wie nur möglich zu gestalten. Der Benutzer gibt seine Suchanfrage ein und searchcode liefert die Ergebnisse in Form von entsprechenden Markierungen innerhalb des Source Codes. So können etwa Usernamen, Security-Schwachstellen, ungewollte aktive Funktionen (wie re-compile) oder auch Sonderzeichen, die für Code-Injection-Angriffe verwendet werden können, ermittelt werden.

Die Ergebnisse von Searchcode sind dabei selbsterklärend – dennoch liefert das OSINT Tool auch weiterführende Informationen oder relevante Probleme, die mit den Ergebnissen in Zusammenhang stehen.

Babel Street Insights

Relevante Informationen müssen nicht unbedingt auf Englisch oder Deutsch vorliegen – die Informationen, die Sie benötigen, könnten auch in Chinesisch oder Spanisch verfasst sein. An dieser Stelle kommt Babel Street Insights ins Spiel: Das multilinguale OSINT Tool durchsucht das öffentliche Web inklusive Blogs, Social-Media-Plattformen und Message Boards genauso, wie das Dark- und Deepweb. Das Tool kann die Quelle der gefundenen Informationen auch örtlich lokalisieren und KI-basierte Textanalysen fahren, um relevante Ergebnisse zu Tage zu fördern. Derzeit unterstützt Babel rund 200 verschiedenen Sprachen.

Die Einsatzszenarien für ein multilinguales OSINT Tool sind zahlreich: Kommt es etwa zu weltumspannenden Ransomware-Attacken, könnten schnell Trends zur Zielerfassung ermittelt werden. Babel Street Insights könnte auch Aufschluss darüber geben, ob das geistige Eigentum eines Unternehmens auf fremden Webseiten zum Verkauf angeboten wird.

Die OSINT-Plattform ist im Wesentlichen Cloud-basiert und ermöglicht seinen Benutzern auch, eigene Datenquellen hinzuzufügen. Mit Babel Box steht auch eine On-Premises-Version zur Verfügung, die allerdings einige Features (wie die Deepweb-Suche) vermissen lässt. Die kostengünstigste Version ist Babel Channels – die eine kuratierte Auswahl von Datenquellen zur Verfügung stellt. Eine Mobile App gibt es für sämtliche Versionen.

Mitaka

Dieses Tool steht als Chrome Extension oder Firefox Add-On zur Verfügung und bietet Ihnen eine browserbasierte Suche nach IP-Adressen, Domains, URLs, Hashes, ASNs, Bitcoin-Wallet-Adressen und zahlreichen anderen “Indicators of Compromise”. Dabei werden sechs verschiedene Suchmaschinen einbezogen.

Praktischerweise dient Mitaka auch als Shortcut zu zahlreichen Online-Datenbanken, die mit einem Klick durchsucht werden können. Für alle die etwas weniger Umfang bevorzugen, steht die alternative Extension Sputnik zur Verfügung.

BuiltWith

Wie der Name nahelegt, können Sie mit BuiltWith herausfinden, auf welcher Basis populäre Webseiten erstellt wurden (WordPress, Joomla, Drupal, etc.) und weitergehende Details sichtbar machen. Dazu gehört zum Beispiel eine Liste der JavaScript/CSS Bibliotheken, die eine Website nutzt. Darüber hinaus können auch Plugins, Frameworks, Server-, Analytics- und Tracking-Informationen gewonnen werden.

Wenn Sie lediglich Informationen über das Tech Stack hinter einer Webseite einsehen wollen, fahren Sie mit Wappalyzer unter Umständen besser, da es ein schlankeres OSINT Tool ist.

Grep.app

Wie durchsucht man eine halbe Million Git Repositories? Am besten und effizientesten mit Grep.app. Das OSINT Tool kam kürzlich bei Twitter-Usern und Journalisten zum Einsatz, um nachzuvollziehen, wie viele Repositories den Codecov Bash Uploader genutzt haben.

Grep.app kann auch hilfreich sein, wenn Sie nach Strings in Zusammenhang mit IOCs, Schadcode oder Malware suchen wollen.

Ergänzende Liste von OSINT-Werkzeugen

Auf PCWDLD findet sich eine weiterführende Liste mit nützlichen OSINT-Tools.

OSINT Framework

Neben diesen Tools stehen eine Menge weiterer zur Verfügung, um an OSINT-Daten zu gelangen. Einen guten Anlaufpunkt, diese zu erkunden, bildet das OSINT Framework. Das webbasierte Interface bringt Sie zu den Tools die Sie brauchen, um an die benötigten Informationen zu gelangen. Sämtliche Tools die hier zu finden sind, sind kostenfrei – einige erfordern allerdings eine Registrierung oder bieten in der Bezahlversion bessere Features.

Mit OSINT Lücken schließen!

Nicht jeder Hackerangriff muss ein Advanced Persistent Threat sein oder unter Anwendung besonders raffinierter Methoden ablaufen. Auch kriminelle Hacker gehen am liebsten den Weg des geringsten Widerstandes. Schließlich wäre es unsinnig, Monate damit zu verschwenden, Systeme zu kompromittieren, wenn alle notwendigen Informationen in öffentlich zugänglichen Kanälen vorliegen.

OSINT Tools können Unternehmen dabei unterstützen, herauszufinden, welche Informationen über ihre Netzwerke, Daten und Nutzer öffentlich zugänglich sind. Dabei kommt es vor allem darauf an, diese Daten möglichst schnell zu finden, bevor sie ausgenutzt werden können.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Open Source Intelligence: Die besten OSINT Tools​ Weiterlesen »

So nutzen Betrüger KI​

Allgemein

Betrugsversuche mit KI-Unterstützung haben enorm zugenommen – besonders beliebt: gefakte Webshops. Who is Danny – shutterstock.com Betrugsversuche im Wert von 4 Milliarden Dollar abgewehrt, 49.000 betrügerische Partnerregistrierungen abgelehnt, stündlich etwa 1,6 Millionen Bot-Anmeldeversuche blockiert – das sind nur ein paar Zahlen, die Microsoft in seinem Bericht „Cyber Signals“ für das vergangene Jahr (April 2024 – April 2025) zu Betrugs- und Missbrauchsversuchen nennt. Zahlen, die gleichzeitig untermauern, wie die rasante KI-Entwicklung die Landschaft der Cyberkriminalität verändert. Deutschland besonders betroffen Laut dem Microsoft Anti-Fraud Team ereignen sich KI-gesteuerte Betrugsangriffe weltweit. Dabei stammt ein Großteil der Aktivitäten aus China und Europa, insbesondere Deutschland. Dies liegt zum Teil, so Microsoft, an Deutschlands Status als einer der größten E-Commerce- und Online-Dienstleistungsmärkte in der EU. Dabei senkt KI nicht nur die technischen Einstiegshürden für die Betrüger, sondern eröffnet ihnen auch ein breites Spektrum an Werkzeugen für die Erstellung überzeugender Inhalte für Angriffe. Mit Hilfe von KI-Werkzeugen wird etwa das Internet nach Unternehmensinformationen durchsucht, um detaillierte Profile von Mitarbeitern oder anderen Zielpersonen zu erstellen. Diese Informationen dienen dann als Basis für hochgradig überzeugende Social-Engineering-Köder. Die Betrugsmaschen Oder Kriminelle nutzen KI, um gefälschte, KI-gestützte Produktbewertungen und KI-generierte Online-Shops zu erstellen. Auf diese erstellen die Betrüger ganze Websites und E-Commerce-Marken mit gefälschten Unternehmensgeschichten und Kundenreferenzen. So locken sie ihre Opfer in immer komplexere Betrugsschemata. Um sich einen legitimen Anstrich zu geben, kommen Deepfakes, Voice-Cloning, Phishing-E-Mails und authentisch aussehende gefälschte Websites zum Einsatz. Solche Taktiken und Werkzeuge eröffnen ein weites Feld an Betrugsmöglichkeiten. Microsoft zufolge kristallisieren sich aber vor allem drei Arten heraus: E-Commerce-Betrug, Job- und Arbeitsplatzbetrug, Tech-Support-Betrug. E-Commerce-Betrug Betrügerische E-Commerce-Websites können mithilfe von KI und anderen Tools mit minimalen technischen Kenntnissen in Minutenschnelle eingerichtet werden. Früher benötigten die Kriminellen noch Tage oder Wochen, um überzeugende Websites zu erstellen. Diese betrügerischen Websites ähneln oft legitimen Seiten. Dies erschwert es, sie als Fälschungen zu erkennen. Dabei täuschen KI-generierte Produktbeschreibungen, Bilder und Kundenbewertungen die potenziellen Kunden. Zudem wird häufig das Vertrauen der Verbraucher in bekannte Marken ausgenutzt. So glauben die Opfer, mit einem echten Händler zu interagieren. KI-gestützte Kundenservice-Chatbots stellen eine weitere Ebene der Täuschung dar, indem sie überzeugend mit Kunden interagieren. Diese Bots können Rückbuchungen verzögern, indem sie Kunden mit vorgefertigten Ausreden hinhalten und Beschwerden mit KI-generierten Antworten manipulieren, die betrügerische Websites professionell erscheinen lassen. Job- und Beschäftigungsbetrug GenAI erleichtert es Betrügern zudem, gefälschte Stellenangebote auf verschiedenen Jobplattformen zu generieren. Ziel dieser Betrugsmasche ist es, persönliche Informationen wie Lebensläufe oder sogar Bankkontodaten unter dem Vorwand der Überprüfung der Bewerberdaten zu erlangen. Um Jobsuchende zu phishen, nutzen die Kriminellen gefälschte Profile mit gestohlenen Anmeldeinformationen, gefälschte Stellenanzeigen mit automatisch generierten Beschreibungen und KI-gesteuerte E-Mail-Kampagnen. . KI-gestützte Vorstellungsgespräche und automatisierte E-Mails erhöhen die Glaubwürdigkeit von Jobbetrügereien und erschweren es Jobsuchenden, betrügerische Angebote zu erkennen. Unaufgeforderte SMS- und E-Mail-Nachrichten mit Stellenangeboten, die hohe Bezahlung für minimale Qualifikationen versprechen, sind typische Anzeichen für Betrug. Andere Methoden sind Stellenangebote, die Zahlungsaufforderungen beinhalten, sowie Angebote, die zu gut erscheinen, um wahr zu sein. Ebenso können unaufgeforderte Angebote oder Interviewanfragen per SMS sowie das Fehlen formaler Kommunikationsplattformen allesamt Anzeichen für Betrug sein. Tech-Support-Betrug Bei dieser Form des Betrugs versuchen die Kriminellen, ihre Opfer zu unnötigen technischen Support-Leistungen zu verleiten, um Geräte- oder Softwareprobleme zu beheben, die nicht existieren. Laut Microsoft spielt KI in diesem Segment noch eine untergeordnete Rolle – das Betrugsrisiko ist dennoch hoch. Gern missbraucht wird dazu die Microsoft Quick Assist Software – eine Methode, die auch ohne KI-Nutzung funktioniert.  Die Angreifer nutzen stattdessen Voice-Phishing (Vishing), um sich als legitime Organisationen auszugeben. So überzeugen sie ihre Opfer, ihnen über Quick Assist Zugriff auf ihre Geräte zu gewähren. Abwehrmaßnahmen Glaubt man Microsoft, so fährt das Unternehmen bereits einen mehrgleisigen Ansatz, KI-gesteuerten Betrug abzuwehren. Einige der Maßnahmen, die der Konzern nennt, sind unter anderem: Microsoft Defender for Cloud, um Azure-Ressourcen zu schützen. Microsoft Edge, hier sollen Deep-Learning-Technologien einen Schutz vor Domain-Impersonation bieten. Ebenso soll der Machine-Learning-basierte Scareware Blocker gegen Betrüger helfen. LinkedIn, KI gestützte Systeme, um gefälschte Stellenangebote zu erkennen. Quick Assist, Warnmeldungen vor potenziellen Tech-Support-Scams, verdächtige Verbindungsversuche werden durch “Digital Fingerprinting” (basierend auf KI und Machine Learning) blockiert. Microsoft Defender SmartScreen, ein Cloud-basierter Sicherheitsdienst zur Analyse von Websites, Dateien und Anwendungen. Tipps für Unternehmen Allerdings können diese Maßnahmen nur einen ersten Schritt darstellen. Um den KI-Betrug wirksam einzudämmen, sind auch Unternehmen und Verbraucher gefordert. Jobplattformen rät der Softwarekonzern, die Arbeitgeberkonten besser zu schützen. Ein Ansatz sei etwa eine stärkere Authentifizierung mittels Multi-Faktor-Authentifizierung (MFA). Ebenso lohne es sich, eine verifizierte ID einzuführen. Dies erschwere es Betrügern, legitime Unternehmensprofile zu übernehmen. Mit Blick auf den Tech-Support Betrug empfiehlt Microsoft Unternehmen, Remote Help anstelle von Quick Assist für den internen technischen Support zu verwenden. Schließlich sei Remote Help so konzipiert, dass es nur innerhalb des Tenants einer Organisation verwendet werden könne. Ratschläge für Consumer Hinter den Betrugsmaschen stecken häufig psychologische Auslöser wie Dringlichkeit, Knappheit oder Vertrauen in die dargestellte Identität. Die User sollten deshalb auf folgende Aspekte achten: Impulskäufe: Betrüger erzeugen mit „zeitlich begrenzten“ Angeboten und Countdown-Timern ein Gefühl der Dringlichkeit. falsches Vertrauen in Fakes: KI generiert gefälschte Bewertungen, Empfehlungen von Influencern etc., falsche Testimonials. Klicken Anzeigen ohne Überprüfung: Viele betrügerische Websites verbreiten sich über KI-optimierte Social-Media-Anzeigen. Verbraucher sollten vor dem Kauf Domainnamen und Bewertungen überprüfen. Zahlungssicherheit: Vermeiden Sie direkte Banküberweisungen oder Zahlungen in Kryptowährungen. Diese bieten keinen Schutz vor Betrug. Warnsignale bei Jobangeboten Mit Blick auf die gefälschten Jobangebote sollten Interessenten die Legitimität des Arbeitgebers überprüfen. Andere Warnsignale für Jobbetrügereien sind etwa Vorauszahlungen für Schulungsmaterialien, Zertifizierungen oder Hintergrundprüfungen. Verdächtig sind auch unrealistische Gehälter oder Stellen im Homeoffice, für die keine Erfahrung erforderlich ist. Skeptisch sollte man auch bei E-Mails von kostenlosen Domains (etwa johndoehr@gmail.com statt hr@company.com) werden. In der Regel ist das ebenfalls ein Hinweis auf betrügerische Aktivitäten. Vorsicht ist auch gegenüber KI-generierten Interviews und Mitteilungen angesagt. Wenn ein Videointerview unnatürlich wirkt, mit lippensynchronen Verzögerungen, roboterhafter Sprache oder seltsamen Gesichtsausdrücken aufwartet, könnte Deepfake-Technologie im Spiel sein. Und last, but not least, sollten einem nicht verifizierten Arbeitgeber Sozialversicherungsnummer, Bankdaten oder Passwörter nicht übermittelt werden. 

So nutzen Betrüger KI​ Betrugsversuche mit KI-Unterstützung haben enorm zugenommen – besonders beliebt: gefakte Webshops.
Who is Danny – shutterstock.com

Betrugsversuche im Wert von 4 Milliarden Dollar abgewehrt, 49.000 betrügerische Partnerregistrierungen abgelehnt, stündlich etwa 1,6 Millionen Bot-Anmeldeversuche blockiert – das sind nur ein paar Zahlen, die Microsoft in seinem Bericht „Cyber Signals“ für das vergangene Jahr (April 2024 – April 2025) zu Betrugs- und Missbrauchsversuchen nennt. Zahlen, die gleichzeitig untermauern, wie die rasante KI-Entwicklung die Landschaft der Cyberkriminalität verändert.

Deutschland besonders betroffen

Laut dem Microsoft Anti-Fraud Team ereignen sich KI-gesteuerte Betrugsangriffe weltweit. Dabei stammt ein Großteil der Aktivitäten aus China und Europa, insbesondere Deutschland. Dies liegt zum Teil, so Microsoft, an Deutschlands Status als einer der größten E-Commerce- und Online-Dienstleistungsmärkte in der EU.

Dabei senkt KI nicht nur die technischen Einstiegshürden für die Betrüger, sondern eröffnet ihnen auch ein breites Spektrum an Werkzeugen für die Erstellung überzeugender Inhalte für Angriffe. Mit Hilfe von KI-Werkzeugen wird etwa das Internet nach Unternehmensinformationen durchsucht, um detaillierte Profile von Mitarbeitern oder anderen Zielpersonen zu erstellen. Diese Informationen dienen dann als Basis für hochgradig überzeugende Social-Engineering-Köder.

Die Betrugsmaschen

Oder Kriminelle nutzen KI, um gefälschte, KI-gestützte Produktbewertungen und KI-generierte Online-Shops zu erstellen. Auf diese erstellen die Betrüger ganze Websites und E-Commerce-Marken mit gefälschten Unternehmensgeschichten und Kundenreferenzen. So locken sie ihre Opfer in immer komplexere Betrugsschemata. Um sich einen legitimen Anstrich zu geben, kommen Deepfakes, Voice-Cloning, Phishing-E-Mails und authentisch aussehende gefälschte Websites zum Einsatz.

Solche Taktiken und Werkzeuge eröffnen ein weites Feld an Betrugsmöglichkeiten. Microsoft zufolge kristallisieren sich aber vor allem drei Arten heraus:

E-Commerce-Betrug,

Job- und Arbeitsplatzbetrug,

Tech-Support-Betrug.

E-Commerce-Betrug

Betrügerische E-Commerce-Websites können mithilfe von KI und anderen Tools mit minimalen technischen Kenntnissen in Minutenschnelle eingerichtet werden. Früher benötigten die Kriminellen noch Tage oder Wochen, um überzeugende Websites zu erstellen. Diese betrügerischen Websites ähneln oft legitimen Seiten. Dies erschwert es, sie als Fälschungen zu erkennen.

Dabei täuschen KI-generierte Produktbeschreibungen, Bilder und Kundenbewertungen die potenziellen Kunden. Zudem wird häufig das Vertrauen der Verbraucher in bekannte Marken ausgenutzt. So glauben die Opfer, mit einem echten Händler zu interagieren.

KI-gestützte Kundenservice-Chatbots stellen eine weitere Ebene der Täuschung dar, indem sie überzeugend mit Kunden interagieren. Diese Bots können Rückbuchungen verzögern, indem sie Kunden mit vorgefertigten Ausreden hinhalten und Beschwerden mit KI-generierten Antworten manipulieren, die betrügerische Websites professionell erscheinen lassen.

Job- und Beschäftigungsbetrug

GenAI erleichtert es Betrügern zudem, gefälschte Stellenangebote auf verschiedenen Jobplattformen zu generieren. Ziel dieser Betrugsmasche ist es, persönliche Informationen wie Lebensläufe oder sogar Bankkontodaten unter dem Vorwand der Überprüfung der Bewerberdaten zu erlangen.

Um Jobsuchende zu phishen, nutzen die Kriminellen gefälschte Profile mit gestohlenen Anmeldeinformationen, gefälschte Stellenanzeigen mit automatisch generierten Beschreibungen und KI-gesteuerte E-Mail-Kampagnen. . KI-gestützte Vorstellungsgespräche und automatisierte E-Mails erhöhen die Glaubwürdigkeit von Jobbetrügereien und erschweren es Jobsuchenden, betrügerische Angebote zu erkennen.

Unaufgeforderte SMS- und E-Mail-Nachrichten mit Stellenangeboten, die hohe Bezahlung für minimale Qualifikationen versprechen, sind typische Anzeichen für Betrug. Andere Methoden sind Stellenangebote, die Zahlungsaufforderungen beinhalten, sowie Angebote, die zu gut erscheinen, um wahr zu sein. Ebenso können unaufgeforderte Angebote oder Interviewanfragen per SMS sowie das Fehlen formaler Kommunikationsplattformen allesamt Anzeichen für Betrug sein.

Tech-Support-Betrug

Bei dieser Form des Betrugs versuchen die Kriminellen, ihre Opfer zu unnötigen technischen Support-Leistungen zu verleiten, um Geräte- oder Softwareprobleme zu beheben, die nicht existieren. Laut Microsoft spielt KI in diesem Segment noch eine untergeordnete Rolle – das Betrugsrisiko ist dennoch hoch.

Gern missbraucht wird dazu die Microsoft Quick Assist Software – eine Methode, die auch ohne KI-Nutzung funktioniert.  Die Angreifer nutzen stattdessen Voice-Phishing (Vishing), um sich als legitime Organisationen auszugeben. So überzeugen sie ihre Opfer, ihnen über Quick Assist Zugriff auf ihre Geräte zu gewähren.

Abwehrmaßnahmen

Glaubt man Microsoft, so fährt das Unternehmen bereits einen mehrgleisigen Ansatz, KI-gesteuerten Betrug abzuwehren. Einige der Maßnahmen, die der Konzern nennt, sind unter anderem:

Microsoft Defender for Cloud,

um Azure-Ressourcen zu schützen.

Microsoft Edge,

hier sollen Deep-Learning-Technologien einen Schutz vor Domain-Impersonation bieten. Ebenso soll der Machine-Learning-basierte Scareware Blocker gegen Betrüger helfen.

LinkedIn,

KI gestützte Systeme, um gefälschte Stellenangebote zu erkennen.

Quick Assist,

Warnmeldungen vor potenziellen Tech-Support-Scams, verdächtige Verbindungsversuche werden durch “Digital Fingerprinting” (basierend auf KI und Machine Learning) blockiert.

Microsoft Defender SmartScreen,

ein Cloud-basierter Sicherheitsdienst zur Analyse von Websites, Dateien und Anwendungen.

Tipps für Unternehmen

Allerdings können diese Maßnahmen nur einen ersten Schritt darstellen. Um den KI-Betrug wirksam einzudämmen, sind auch Unternehmen und Verbraucher gefordert. Jobplattformen rät der Softwarekonzern, die Arbeitgeberkonten besser zu schützen.

Ein Ansatz sei etwa eine stärkere Authentifizierung mittels Multi-Faktor-Authentifizierung (MFA). Ebenso lohne es sich, eine verifizierte ID einzuführen. Dies erschwere es Betrügern, legitime Unternehmensprofile zu übernehmen.

Mit Blick auf den Tech-Support Betrug empfiehlt Microsoft Unternehmen, Remote Help anstelle von Quick Assist für den internen technischen Support zu verwenden. Schließlich sei Remote Help so konzipiert, dass es nur innerhalb des Tenants einer Organisation verwendet werden könne.

Ratschläge für Consumer

Hinter den Betrugsmaschen stecken häufig psychologische Auslöser wie Dringlichkeit, Knappheit oder Vertrauen in die dargestellte Identität. Die User sollten deshalb auf folgende Aspekte achten:

Impulskäufe:

Betrüger erzeugen mit „zeitlich begrenzten“ Angeboten und Countdown-Timern ein Gefühl der Dringlichkeit.

falsches Vertrauen in Fakes:

KI generiert gefälschte Bewertungen, Empfehlungen von Influencern etc., falsche Testimonials.

Klicken Anzeigen ohne Überprüfung:

Viele betrügerische Websites verbreiten sich über KI-optimierte Social-Media-Anzeigen. Verbraucher sollten vor dem Kauf Domainnamen und Bewertungen überprüfen.

Zahlungssicherheit:

Vermeiden Sie direkte Banküberweisungen oder Zahlungen in Kryptowährungen. Diese bieten keinen Schutz vor Betrug.

Warnsignale bei Jobangeboten

Mit Blick auf die gefälschten Jobangebote sollten Interessenten die Legitimität des Arbeitgebers überprüfen. Andere Warnsignale für Jobbetrügereien sind etwa Vorauszahlungen für Schulungsmaterialien, Zertifizierungen oder Hintergrundprüfungen.

Verdächtig sind auch unrealistische Gehälter oder Stellen im Homeoffice, für die keine Erfahrung erforderlich ist. Skeptisch sollte man auch bei E-Mails von kostenlosen Domains (etwa johndoehr@gmail.com statt hr@company.com) werden. In der Regel ist das ebenfalls ein Hinweis auf betrügerische Aktivitäten.

Vorsicht ist auch gegenüber KI-generierten Interviews und Mitteilungen angesagt. Wenn ein Videointerview unnatürlich wirkt, mit lippensynchronen Verzögerungen, roboterhafter Sprache oder seltsamen Gesichtsausdrücken aufwartet, könnte Deepfake-Technologie im Spiel sein.

Und last, but not least, sollten einem nicht verifizierten Arbeitgeber Sozialversicherungsnummer, Bankdaten oder Passwörter nicht übermittelt werden.

So nutzen Betrüger KI​ Weiterlesen »

Wie Terraform die IaC-Evolution treibt​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?quality=50&strip=all 4096w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=300%2C158&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=768%2C405&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=1024%2C540&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=1536%2C810&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=2048%2C1080&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=1240%2C654&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=150%2C79&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=854%2C450&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=640%2C338&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=444%2C234&quality=50&strip=all 444w” width=”1024″ height=”540″ sizes=”(max-width: 1024px) 100vw, 1024px”>Geht’s um IaC, ist Terraform für viele Organisationen und Unternehmen gesetzt – trotz neuer, innovativer Konkurrenten.Quardia / Shutterstock Vor kurzem haben wir in einem ausführlichen Beitrag beleuchtet, wie sich die Terraform-Abspaltung OpenTofu zunehmend zu einer interessanten, quelloffenen Alternative für Unternehmen entwickelt. Doch auch wenn der Terraform-Fork aktuell stark im Kommen ist, gibt es eine Sache zu bedenken: Einzelne Projekte oder Produkte können sich zwar rasant entwickeln – die Branchen-Mühlen mahlen allerdings immer noch langsam.    Und während OpenTofu, Pulumi und andere Terraform-Alternativen sich vor allem auf den Infrastructure-as-Code (IaC)-Markt fokussieren, nimmt HashiCorp inzwischen den wesentlich größeren IT-Management-Markt ins Visier. Und zwar mit einer ganzen Reihe von Services, die sein IaC-Tool Terraform ergänzen und ermöglichen, es mit IBM-Red-Hat-Produkten wie Ansible zu kombinieren. Das langfristige Ziel des Unternehmens besteht darin, zu einem strategischen Anbieter zu werden, der mehr als IaC zu bieten hat. Deshalb konkurriert HashiCorp nicht nur mit den bereits genannten Open-Source-Herausforderern, sondern auch mit Cloud-Schwergewichten wie Amazon Web Services (AWS). Der ganzheitliche IaC-Blick Infrastructure as Code beschreibt Systemressourcen als Code, was es einfacher gestaltet, Portabilität, Wiederholbarkeit und Prüfbarkeit über die gesamte Softwareinfrastruktur hinweg sicherzustellen. Hashicorps Terraform hat sich seit seiner Einführung im Jahr 2014 für sehr viele Unternehmen und Organisationen zu einem unverzichtbaren Tool entwickelt, um IaC zu managen. Insofern hat HashiCorp, respektive Terraform, starken und wachsenden Einfluss auf IaC und sein Konfigurationsmanagement. Auf dem deutlich größeren Markt für IT-Management-Software ist der Fußabdruck hingegen deutlich kleiner. Und das ist auch gut so, denn es gewährleistet ausreichend Raum für Wachstum. Das ist wiederum nötig, um sich den Wettbewerbern zu „erwehren“. Das sind vor allem: OpenTofu mit seiner quelloffenen, Community-basierten und zunehmend innovativen IaC-Variante. Pulumi mit seinem entwicklerzentrierten IaC-Ansatz, der es ermöglicht, die Infrastruktur mit vertrauten Programmiersprachen wie Python, Go und JavaScript zu definieren. AWS mit seiner nativen und eng integrierten IaC-Lösung CloudFormation. Keine dieser Herausforderungen ist für Terraform einfach zu bewältigen. Aber mit Ausnahme von AWS können andere Anbieter nicht mit dem umfassenderen IaC-Ansatz von HashiCorp mithalten. Das hat der Konzern längst erkannt und betont deshalb auch, dass Terraform den gesamten Infrastruktur-Lebenszyklus abdeckt – von der Ersteinrichtung (Day 0) über die Bereitstellung (Day 1), bis hin zu Management und Security (Day 2). Dieser ganzheitliche Ansatz trägt den sich entwickelnden Bedürfnissen von Organisationen Rechnung. Darüber hinaus bietet HashiCorp: mit Terraform Stacks auch Funktionen, um komplexe Multicomponent-Deployments zu managen, Modul-Lebenszyklus-Management, um Upgrades zu optimieren, sowie erweitertes Tagging, um die Organisation und Governance in Terraform zu optimieren. In Kombination mit der engen Integration in andere HashiCorp-Produkte wie Vault (Secrets Management), Consul (Service Discovery und Konnektivität) oder Nomad (Workload-Orchestrierung) erhalten Unternehmen eine umfassendere Lösung, um ihre Cloud-Infrastruktur zu managen und abzusichern als mit Terraform allein – oder einem Konkurrenzangebot. Die ungewisse Terraform-Zukunft Die Übernahme von HashiCorp durch IBM könnte für die Kunden und Anwender eine noch umfassendere und integrierte Plattform schaffen, um immer komplexere Hybrid- und Multi-Cloud-Umgebungen zu managen. Zumindest gäbe es riesiges Synergiepotenzial mit Blick auf Terraform (Infrastruktur-Deployment) und Ansible von IBM Red Hat (Konfigurationsmanagement). IBM könnte mit seiner langen Open-Source-Historie unter Umständen sogar dazu beitragen, dass HashiCorp zur ursprünglichen Open-Source-Lizenz für Terraform zurückkehrt. Unabhängig davon ist aber auch klar: Für Unternehmen, die deutlich mehr Geld als Zeit haben, dürfte es mit Blick auf das Deployment verlockender sein, alles aus einer Hand zu beziehen. Es ist nicht so, dass OpenTofu, Pulumi und andere Open-Source-Optionen keine Bedrohung für Terraform darstellen. Aber HashiCorp hat sich weiterentwickelt, um komplexere Business-Anforderungen zu unterstützen, was es schwermacht, die Vormachtstellung von Terraform auf dem Enterprise-IaC-Markt anzugreifen. HashiCorp hat sich mit seiner strategischen Ausrichtung auf den gesamten Lebenszyklus der Infrastruktur, gepaart mit kontinuierlicher Produktinnovation und einem Engagement für Sicherheit, in eine hervorragende Ausgangsposition gebracht. Ob es diese in Zukunft weiter festigen kann, wird sich zeigen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Wie Terraform die IaC-Evolution treibt​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?quality=50&strip=all 4096w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=300%2C158&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=768%2C405&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=1024%2C540&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=1536%2C810&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=2048%2C1080&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=1240%2C654&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=150%2C79&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=854%2C450&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=640%2C338&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=444%2C234&quality=50&strip=all 444w” width=”1024″ height=”540″ sizes=”(max-width: 1024px) 100vw, 1024px”>Geht’s um IaC, ist Terraform für viele Organisationen und Unternehmen gesetzt – trotz neuer, innovativer Konkurrenten.Quardia / Shutterstock

Vor kurzem haben wir in einem ausführlichen Beitrag beleuchtet, wie sich die Terraform-Abspaltung OpenTofu zunehmend zu einer interessanten, quelloffenen Alternative für Unternehmen entwickelt. Doch auch wenn der Terraform-Fork aktuell stark im Kommen ist, gibt es eine Sache zu bedenken: Einzelne Projekte oder Produkte können sich zwar rasant entwickeln – die Branchen-Mühlen mahlen allerdings immer noch langsam.   

Und während OpenTofu, Pulumi und andere Terraform-Alternativen sich vor allem auf den Infrastructure-as-Code (IaC)-Markt fokussieren, nimmt HashiCorp inzwischen den wesentlich größeren IT-Management-Markt ins Visier. Und zwar mit einer ganzen Reihe von Services, die sein IaC-Tool Terraform ergänzen und ermöglichen, es mit IBM-Red-Hat-Produkten wie Ansible zu kombinieren.

Das langfristige Ziel des Unternehmens besteht darin, zu einem strategischen Anbieter zu werden, der mehr als IaC zu bieten hat. Deshalb konkurriert HashiCorp nicht nur mit den bereits genannten Open-Source-Herausforderern, sondern auch mit Cloud-Schwergewichten wie Amazon Web Services (AWS).

Der ganzheitliche IaC-Blick

Infrastructure as Code beschreibt Systemressourcen als Code, was es einfacher gestaltet, Portabilität, Wiederholbarkeit und Prüfbarkeit über die gesamte Softwareinfrastruktur hinweg sicherzustellen. Hashicorps Terraform hat sich seit seiner Einführung im Jahr 2014 für sehr viele Unternehmen und Organisationen zu einem unverzichtbaren Tool entwickelt, um IaC zu managen.

Insofern hat HashiCorp, respektive Terraform, starken und wachsenden Einfluss auf IaC und sein Konfigurationsmanagement. Auf dem deutlich größeren Markt für IT-Management-Software ist der Fußabdruck hingegen deutlich kleiner. Und das ist auch gut so, denn es gewährleistet ausreichend Raum für Wachstum. Das ist wiederum nötig, um sich den Wettbewerbern zu „erwehren“. Das sind vor allem:

OpenTofu mit seiner quelloffenen, Community-basierten und zunehmend innovativen IaC-Variante.

Pulumi mit seinem entwicklerzentrierten IaC-Ansatz, der es ermöglicht, die Infrastruktur mit vertrauten Programmiersprachen wie Python, Go und JavaScript zu definieren.

AWS mit seiner nativen und eng integrierten IaC-Lösung CloudFormation.

Keine dieser Herausforderungen ist für Terraform einfach zu bewältigen. Aber mit Ausnahme von AWS können andere Anbieter nicht mit dem umfassenderen IaC-Ansatz von HashiCorp mithalten. Das hat der Konzern längst erkannt und betont deshalb auch, dass Terraform den gesamten Infrastruktur-Lebenszyklus abdeckt – von der Ersteinrichtung (Day 0) über die Bereitstellung (Day 1), bis hin zu Management und Security (Day 2). Dieser ganzheitliche Ansatz trägt den sich entwickelnden Bedürfnissen von Organisationen Rechnung.

Darüber hinaus bietet HashiCorp:

mit Terraform Stacks auch Funktionen, um komplexe Multicomponent-Deployments zu managen,

Modul-Lebenszyklus-Management, um Upgrades zu optimieren, sowie

erweitertes Tagging, um die Organisation und Governance in Terraform zu optimieren.

In Kombination mit der engen Integration in andere HashiCorp-Produkte wie Vault (Secrets Management), Consul (Service Discovery und Konnektivität) oder Nomad (Workload-Orchestrierung) erhalten Unternehmen eine umfassendere Lösung, um ihre Cloud-Infrastruktur zu managen und abzusichern als mit Terraform allein – oder einem Konkurrenzangebot.

Die ungewisse Terraform-Zukunft

Die Übernahme von HashiCorp durch IBM könnte für die Kunden und Anwender eine noch umfassendere und integrierte Plattform schaffen, um immer komplexere Hybrid- und Multi-Cloud-Umgebungen zu managen. Zumindest gäbe es riesiges Synergiepotenzial mit Blick auf Terraform (Infrastruktur-Deployment) und Ansible von IBM Red Hat (Konfigurationsmanagement). IBM könnte mit seiner langen Open-Source-Historie unter Umständen sogar dazu beitragen, dass HashiCorp zur ursprünglichen Open-Source-Lizenz für Terraform zurückkehrt. Unabhängig davon ist aber auch klar: Für Unternehmen, die deutlich mehr Geld als Zeit haben, dürfte es mit Blick auf das Deployment verlockender sein, alles aus einer Hand zu beziehen.

Es ist nicht so, dass OpenTofu, Pulumi und andere Open-Source-Optionen keine Bedrohung für Terraform darstellen. Aber HashiCorp hat sich weiterentwickelt, um komplexere Business-Anforderungen zu unterstützen, was es schwermacht, die Vormachtstellung von Terraform auf dem Enterprise-IaC-Markt anzugreifen. HashiCorp hat sich mit seiner strategischen Ausrichtung auf den gesamten Lebenszyklus der Infrastruktur, gepaart mit kontinuierlicher Produktinnovation und einem Engagement für Sicherheit, in eine hervorragende Ausgangsposition gebracht. Ob es diese in Zukunft weiter festigen kann, wird sich zeigen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Wie Terraform die IaC-Evolution treibt​ Weiterlesen »

Tipps & Fakten für Auftraggeber: Die 5 häufigsten Freelancer-Mythen​

Allgemein

Als externen Mitarbeitern schlagen Freelancern oft Vorurteile seitens ihrer Auftraggeber und Projektteams entgegen. Doch diese Vorbehalte sind in der Regel haltlos und es gibt gute Argumente sowie Lösungen dagegen. Foto: fotogestoeber – shutterstock.comAndere Abläufe, neue Tools oder ein Umkrempeln der Hierarchien – Freelancer verändern mitunter die Arbeitsweise, Kultur und Innovationskraft in Unternehmen. Dennoch gelten sie noch immer als zu teuer, kompliziert und umständlich. Grund genug, diese Mythen einmal genauer zu hinterfragen.Mythos 1: Freiberufler:innensind zu teuer“96 Euro in der Stunde? So viel würde ich selbst gern verdienen!” So oder ähnlich sarkastisch mag eine Führungskraft klingen, wenn sie den durchschnittlichen Stundensatz von Solo-Selbstständigen erfährt. Das hört sich erst einmal viel an, allerdings ist ein bloßer Vergleich von Gehalt und Honorar zu kurz gegriffen. Denn Freelancer bringen spezialisierte Fähigkeiten und Erfahrungen mit, die sie fokussierter für einzelne Projekte im Unternehmen einsetzen als Angestellte. Zudem tragen sie die Kosten für Sozialabgaben oder Versicherungsbeiträge selbst. Arbeitet der Freiberufler mit einer eigenen Infrastruktur wie Laptop, Handy oder Büroraum, muss ein Unternehmen außerdem kein Arbeitsumfeld zur Verfügung stellen. Zudem gilt es zu berücksichtigen, dass bei Angestellten zwar die Gehälter stabil sind, der Output jedoch schwanken kann: Krankheits- oder Urlaubstage reduzieren die Arbeitsleistung. Für einen Freelancer gibt es hingegen keine Lohnfortzahlung oder bezahlten Urlaub. Tipp: Worauf Unternehmen dennoch achten sollten, ist, wie hoch die Rechnung am Ende ausfällt. Freelancer-Rechnungen sind nicht wie feste Gehälter kalkulierbar. Eine Möglichkeit, um eine realistische Vorstellung der Kosten zu erhalten, ist die Schätzung des Aufwands im Voraus. Eine monatliche Budgetobergrenze kann zudem sicherstellen, dass die Ausgaben im Rahmen bleiben und nicht außer Kontrolle geraten. Mythos 2: Freelancer verkomplizieren das Projektmanagement Was der Projektmanager nicht kennt, dem steht er skeptisch gegenüber. Dabei gilt es, in der Zusammenarbeit einfach die Bedürfnisse der Freelancer zu verstehen und diese beim Projektmanagement zu berücksichtigen. Je agiler bereits die Arbeitsweise in einem Unternehmen, desto leichter fällt die Transformation. Gerade Freiberufler:innen sind durch ihren Einblick in viele Unternehmen mit New Work und modernsten Projektmanagement-Tools vertraut. Zudem bringen sie viel Erfahrung in ihrem jeweiligen Fachgebiet mit und benötigen weniger Anleitung als Angestellte. Tipp: Für die erfolgreiche Zusammenarbeit mit Freelancern sind eindeutige Briefings und eine feste Ansprechperson wichtig. Die Vereinbarung einer Deadline sorgt für Klarheit auf beiden Seiten. Ein Solo-Selbständiger wird alles dafür tun, diese zu erreichen – schließlich stehen seine Reputation und eine eventuelle Wiederbeauftragung auf dem Spiel. Dafür legen sie auch mal eine Wochenendschicht ein – was Unternehmen von Angestellten nicht verlangen können. Mythos 3: Freie Mitarbeiter:innen sind unzuverlässig Der Stereotyp “unzuverlässiger Freelancer”, der seine Arbeit unabhängig von den Bedürfnissen des Unternehmens verrichtet, hält sich hartnäckig in den Köpfen von Führungskräften. Viele haben den Eindruck, die Arbeitsleistung nicht kontrollieren zu können, wenn die Person sich nicht im Büro befindet. Die Pandemie hat jedoch gezeigt, dass verlässliches Arbeiten unabhängig vom Standort möglich sein kann. Wichtig sind dafür ein regelmäßiger Austausch und eine gute Organisation.Tipp: Unternehmen schaffen die Rahmenbedingungen, die eine zuverlässige Zusammenarbeit mit Freelancern ermöglichen. Nichts spricht dagegen, freie Mitarbeitende um?regelmäßige Updates?zu bitten oder auch?wiederkehrende Status-Meetings festzulegen. Neben den Absprachen sind auch Hinweise in der Mail-Signatur oder ein kurzer Text zu “How to work best with me” im Profil eines Messaging-Dienstes wie Slack oder Microsoft Teams hilfreich für beide Seiten. Wenn klar ist, welche die bevorzugten Kommunikations-Tools und -kanäle sind, schafft das nicht nur Transparenz, sondern schützt auch das mentale Wohlbefinden. Mythos 4: Freelancer gefährden Datenschutz und geistiges EigentumUnsere Erfahrung zeigt, dass sich Firmen noch immer gegen den Einsatz von Freelancern entscheiden, weil sie befürchten, dass nach Ende eines Projektes Wissen aus dem Unternehmen abfließt. Diesen Mythos aus der Welt zu schaffen, ist eine wesentliche Voraussetzung für gegenseitiges Vertrauen. Auftraggeber sind Freiberufler:innen gegenüber zwar nicht weisungsbefugt, dennoch müssen sich auch Solo-Selbstständige an Verträge halten. Dem Risiko, dass vertrauliche Informationen, geistiges Eigentum oder Daten nicht ausreichend geschützt sind, begegnen die meisten Unternehmen längst auf diesem Wege.Tipp: Ein detaillierter Vertrag gibt beiden Seiten Sicherheit: Es können alle gewünschten Aspekte enthalten sein, etwa zu zeitlich begrenzten und umfassenden Nutzungsrechten. Darüber hinaus ist meist eine Geheimhaltungsvereinbarung sinnvoll. Mythos 5: Passende Kandidat:innen sind schwer zu findenUnternehmen suchen nach Freelancern für Projekte, die ein hohes Maß an spezifischem Fachwissen und Erfahrung erfordern. Entgegen dem verbreiteten Mythos haben Firmen aber beste Chancen, unter Freiberufler:innen fündig zu werden – und das schneller als bei der Suche nach qualifizierten Angestellten. Unter dem Strich werden Solo-Selbstständige innerhalb weniger Wochen angeworben, während die Beschaffung von festen Mitarbeitenden oft mehrere Monate andauert. Zudem sind Freiberufler:innen geübt darin, sich schnell auf neue Arbeits- und Kommunikationsweisen einzustellen, um ein Projekt in der vertraglich vereinbarten Zeit erledigen zu können. Der lange und teure Prozess des Recruitings und Onboardings bei festen Mitarbeitenden ist einer der stärksten Gründe dafür, mit Freelancern zu arbeiten.Tipp: Vor der Suche sollten Unternehmen ein genaues Anforderungsprofil mit den notwendigen Skills erstellen. So gestaltet sich die Suche nicht nur einfacher, sondern auch schneller. Für Unternehmen kann es außerdem sinnvoll sein, Recruiter zu engagieren und Projekte auf speziellen Plattformen einzustellen. Auf diesem Wege erhalten Beauftragende direkt Vorschläge für Freelancer mit den passenden Skills und können gleich mehrere Freelancer auf ein Projekt aufmerksam machen.Wie Unternehmen einen Veränderungsprozess anstoßenUnternehmen dürfen den Veränderungsprozess nicht unterschätzen, wenn die Belegschaft noch keine oder erst wenige Berührungspunkte mit der Arbeit in gemischten Teams aus Festangestellten und Freelancern hatte – sogenannter Blended Work. Wichtig ist, dass Firmen die Potenziale an neuen Perspektiven und Arbeitsweisen erkennen, die die Zusammenarbeit mit Freelancern mit sich bringt. Der Schlüssel ist ein offenes Verständnis für die Bedürfnisse aller Beteiligten. Ein Unternehmen sollte transparent kommunizieren, wie die oder der engagierte Freelancer das Team entlasten wird. Die Arbeitsgruppe muss wiederum lernen, die Weichen für eine zuverlässige Zusammenarbeit mit Freelancern zu stellen. (pg) Freelancer – Was bei Arbeitsverträgen zu beachten ist7 Tipps wie Freiberufler Honorarverträge richtig lesen und ausgestalten Foto: ilikeyellow – shutterstock.comHonorarverträge stellen für viele Freiberufler eine Herausforderung dar. Bei der Gestaltung und Umsetzung sollte deshalb große Sorgfalt an den Tag gelegt werden. Folgende sieben Punkte sollten Freelancer bei der Erstellung eines Honorarvertrages unbedingt beachten. 1. Vertragsform regeln Foto: zabanski – shutterstock.comDer Honorarvertrag, auch “Vertrag über die freie Mitarbeit” genannt, kann in Form eines Dienst- oder Werkvertrages ausgestellt werden. Im Falle eines Werkvertrags steht das Arbeitsergebnis beziehungsweise der Arbeitserfolg im Fokus. Bei einem Dienstvertrag ist der freie Mitarbeiter dem Auftraggeber jedoch nur die Arbeitsleistung schuldig. Im Allgemeinen regelt der Honorarvertrag die Höhe der Vergütung eines Freiberuflers und die Vereinbarung in Form von Leistung und Gegenleistung. 2. Scheinselbstständigkeit vermeiden Foto: Zerbor – shutterstock.comDas größte Risiko für Auftraggeber und Auftragnehmer ist die Scheinselbstständigkeit. Sollte eine solche vorliegen, kann dies für beide Vertragsparteien erhebliche finanzielle Konsequenzen zur Folge haben. Der Freiberufler sollte in der Regel in keinem abhängigen Arbeitsverhältnis zu dem Vertragspartner stehen. Allgemeingültige arbeitsrechtliche Bestimmungen wie festgelegte Arbeitszeiten oder Urlaubsanspruch dürfen hier keine Anwendung finden. Wichtig ist bei dieser Vertragsform, dass die zu erbringenden Leistungen im Honorarvertrag detailliert beschrieben sind.3. Honorarordnungen prüfen Foto: 0833379753 – shutterstock.comFür bestimmte Berufsgruppen gibt es gewisse Verordnungsgrundlagen. Beispielsweise regelt die Honorarordnung für Architekten und Ingenieure (HOAI) die Vergütung der Leistungen von Projekten des Bauwesens. Für freie Experten aus den Bereichen Informatik, Maschinen- und Anlagenbau, Verfahrens-, Elektro- und Prozesstechnik gibt es bisher keine verpflichtenden Regelungen. 4. Arbeitslosengeld sichern Foto: Everett Historical – shutterstock.comHonorarkräfte, die als freie Mitarbeiter tätig sind, müssen sich für gewöhnlich selbst um Versicherungen kümmern. So sind Freelancer nicht automatisch vor Arbeitslosigkeit geschützt. Insbesondere im Rahmen der Corona-Pandemie ging es finanziell bei vielen Freiberuflern bergab. Mehrere Hunderttausende Selbstständige mussten aus diesem Grund Leistungen der Grundsicherung vom Staat beantragen. Die Voraussetzung für den Anspruch auf gesetzliches Arbeitslosengeld besteht darin, dass der Antragsteller innerhalb der letzten zwei Jahre mindestens zwölf Monate versicherungspflichtig angestellt war. 5. Einkommenssteuerpflicht beachten Foto: Younes Stiller Kraske – shutterstock.comFür den Freelancer gilt die Einkommensteuerpflicht genauso wie für Festangestellte. Bei freiberuflich Tätigen unterscheidet sich die Umsatzsteuer durch die sogenannte Vorsteuer. Diese besteht aus der Mehrwertsteuer, die Freiberuflern beispielsweise bei dem Erwerb von Lieferungen oder Arbeitsmitteln in Rechnung gestellt wird. Diese Beträge können anschließend vom Finanzamt zurückgefordert werden. Der Restbetrag ergibt die tatsächliche Abgabe der Umsatzsteuer. Viele Freiberufler starten zunächst als Kleinunternehmer und können von der Kleinunternehmerregelung Gebrauch machen. Wenn die Einkünfte sich im vorangegangenen Kalenderjahr maximal auf 22.000 belaufen haben und die Einnahmen im laufenden Jahr nicht die Umsatzgrenze von 50.000 Euro überschreiten (Stand 2021), muss keine Umsatzsteuervoranmeldung abgegeben werden. Sobald Freiberufler diese Grenze überschreiten, verlieren sie den Status als Kleinunternehmer. Wichtig zu wissen ist, dass die Vorteile der Kleinunternehmerregelung nicht in Anspruch genommen werden dürfen, wenn die Vorsteuer bereits zurückerstattet wurde. 6. Honorarvertrag kündigen Foto: pixelnest – shutterstock.comEine Beendigung des Honorarvertrages erfolgt in den meistens Fällen ordentlich. Hierbei kommt es m ersten Schritt auf die Kündigungsfrist an. Das Arbeitsverhältnis endet bei einem befristeten Vertrag nach der vereinbarten Zeitspanne. Ist keine Frist im Vorhinein festgelegt worden, kann eine Kündigung nach Maßgabe der entsprechenden Bestimmungen erfolgen. In der Regel orientiert sich die Kündigungsfrist an der Vergütung. Das heißt je nachdem, ob die Leistung nach Tagen oder Wochen bemessen wird. Unter bestimmten Umständen kann einer der Vertragsparteien den Honorarvertrag jedoch auch außerordentlich aufheben.7. Fachanwalt konsultieren Foto: Amnaj Khetsamtip – shutterstock.comHat ein Freiberufler einen Honorarvertrag selbst aufgesetzt oder bekommt ihn von seinem Auftraggeber vorgelegt, empfiehlt es sich, einen Fachanwalt heranzuziehen. Alternativ kann aber auch auf verschiedenen Webseiten ein Vertragsmuster heruntergeladen werden, das von einem Anwalt erstellt und rechtlich gecheckt wurde. Bei Letzterem sollte der Freiberufler den Vertrag gegebenenfalls auf Anpassungen und Ergänzungen je nach Vertragsbestimmungen prüfen. 

Tipps & Fakten für Auftraggeber: Die 5 häufigsten Freelancer-Mythen​ Als externen Mitarbeitern schlagen Freelancern oft Vorurteile seitens ihrer Auftraggeber und Projektteams entgegen. Doch diese Vorbehalte sind in der Regel haltlos und es gibt gute Argumente sowie Lösungen dagegen.
Foto: fotogestoeber – shutterstock.comAndere Abläufe, neue Tools oder ein Umkrempeln der Hierarchien – Freelancer verändern mitunter die Arbeitsweise, Kultur und Innovationskraft in Unternehmen. Dennoch gelten sie noch immer als zu teuer, kompliziert und umständlich. Grund genug, diese Mythen einmal genauer zu hinterfragen.Mythos 1: Freiberufler:innensind zu teuer“96 Euro in der Stunde? So viel würde ich selbst gern verdienen!” So oder ähnlich sarkastisch mag eine Führungskraft klingen, wenn sie den durchschnittlichen Stundensatz von Solo-Selbstständigen erfährt. Das hört sich erst einmal viel an, allerdings ist ein bloßer Vergleich von Gehalt und Honorar zu kurz gegriffen. Denn Freelancer bringen spezialisierte Fähigkeiten und Erfahrungen mit, die sie fokussierter für einzelne Projekte im Unternehmen einsetzen als Angestellte. Zudem tragen sie die Kosten für Sozialabgaben oder Versicherungsbeiträge selbst. Arbeitet der Freiberufler mit einer eigenen Infrastruktur wie Laptop, Handy oder Büroraum, muss ein Unternehmen außerdem kein Arbeitsumfeld zur Verfügung stellen. Zudem gilt es zu berücksichtigen, dass bei Angestellten zwar die Gehälter stabil sind, der Output jedoch schwanken kann: Krankheits- oder Urlaubstage reduzieren die Arbeitsleistung. Für einen Freelancer gibt es hingegen keine Lohnfortzahlung oder bezahlten Urlaub. Tipp: Worauf Unternehmen dennoch achten sollten, ist, wie hoch die Rechnung am Ende ausfällt. Freelancer-Rechnungen sind nicht wie feste Gehälter kalkulierbar. Eine Möglichkeit, um eine realistische Vorstellung der Kosten zu erhalten, ist die Schätzung des Aufwands im Voraus. Eine monatliche Budgetobergrenze kann zudem sicherstellen, dass die Ausgaben im Rahmen bleiben und nicht außer Kontrolle geraten. Mythos 2: Freelancer verkomplizieren das Projektmanagement Was der Projektmanager nicht kennt, dem steht er skeptisch gegenüber. Dabei gilt es, in der Zusammenarbeit einfach die Bedürfnisse der Freelancer zu verstehen und diese beim Projektmanagement zu berücksichtigen. Je agiler bereits die Arbeitsweise in einem Unternehmen, desto leichter fällt die Transformation. Gerade Freiberufler:innen sind durch ihren Einblick in viele Unternehmen mit New Work und modernsten Projektmanagement-Tools vertraut. Zudem bringen sie viel Erfahrung in ihrem jeweiligen Fachgebiet mit und benötigen weniger Anleitung als Angestellte. Tipp: Für die erfolgreiche Zusammenarbeit mit Freelancern sind eindeutige Briefings und eine feste Ansprechperson wichtig. Die Vereinbarung einer Deadline sorgt für Klarheit auf beiden Seiten. Ein Solo-Selbständiger wird alles dafür tun, diese zu erreichen – schließlich stehen seine Reputation und eine eventuelle Wiederbeauftragung auf dem Spiel. Dafür legen sie auch mal eine Wochenendschicht ein – was Unternehmen von Angestellten nicht verlangen können. Mythos 3: Freie Mitarbeiter:innen sind unzuverlässig Der Stereotyp “unzuverlässiger Freelancer”, der seine Arbeit unabhängig von den Bedürfnissen des Unternehmens verrichtet, hält sich hartnäckig in den Köpfen von Führungskräften. Viele haben den Eindruck, die Arbeitsleistung nicht kontrollieren zu können, wenn die Person sich nicht im Büro befindet. Die Pandemie hat jedoch gezeigt, dass verlässliches Arbeiten unabhängig vom Standort möglich sein kann. Wichtig sind dafür ein regelmäßiger Austausch und eine gute Organisation.Tipp: Unternehmen schaffen die Rahmenbedingungen, die eine zuverlässige Zusammenarbeit mit Freelancern ermöglichen. Nichts spricht dagegen, freie Mitarbeitende um?regelmäßige Updates?zu bitten oder auch?wiederkehrende Status-Meetings festzulegen. Neben den Absprachen sind auch Hinweise in der Mail-Signatur oder ein kurzer Text zu “How to work best with me” im Profil eines Messaging-Dienstes wie Slack oder Microsoft Teams hilfreich für beide Seiten. Wenn klar ist, welche die bevorzugten Kommunikations-Tools und -kanäle sind, schafft das nicht nur Transparenz, sondern schützt auch das mentale Wohlbefinden. Mythos 4: Freelancer gefährden Datenschutz und geistiges EigentumUnsere Erfahrung zeigt, dass sich Firmen noch immer gegen den Einsatz von Freelancern entscheiden, weil sie befürchten, dass nach Ende eines Projektes Wissen aus dem Unternehmen abfließt. Diesen Mythos aus der Welt zu schaffen, ist eine wesentliche Voraussetzung für gegenseitiges Vertrauen. Auftraggeber sind Freiberufler:innen gegenüber zwar nicht weisungsbefugt, dennoch müssen sich auch Solo-Selbstständige an Verträge halten. Dem Risiko, dass vertrauliche Informationen, geistiges Eigentum oder Daten nicht ausreichend geschützt sind, begegnen die meisten Unternehmen längst auf diesem Wege.Tipp: Ein detaillierter Vertrag gibt beiden Seiten Sicherheit: Es können alle gewünschten Aspekte enthalten sein, etwa zu zeitlich begrenzten und umfassenden Nutzungsrechten. Darüber hinaus ist meist eine Geheimhaltungsvereinbarung sinnvoll. Mythos 5: Passende Kandidat:innen sind schwer zu findenUnternehmen suchen nach Freelancern für Projekte, die ein hohes Maß an spezifischem Fachwissen und Erfahrung erfordern. Entgegen dem verbreiteten Mythos haben Firmen aber beste Chancen, unter Freiberufler:innen fündig zu werden – und das schneller als bei der Suche nach qualifizierten Angestellten. Unter dem Strich werden Solo-Selbstständige innerhalb weniger Wochen angeworben, während die Beschaffung von festen Mitarbeitenden oft mehrere Monate andauert. Zudem sind Freiberufler:innen geübt darin, sich schnell auf neue Arbeits- und Kommunikationsweisen einzustellen, um ein Projekt in der vertraglich vereinbarten Zeit erledigen zu können. Der lange und teure Prozess des Recruitings und Onboardings bei festen Mitarbeitenden ist einer der stärksten Gründe dafür, mit Freelancern zu arbeiten.Tipp: Vor der Suche sollten Unternehmen ein genaues Anforderungsprofil mit den notwendigen Skills erstellen. So gestaltet sich die Suche nicht nur einfacher, sondern auch schneller. Für Unternehmen kann es außerdem sinnvoll sein, Recruiter zu engagieren und Projekte auf speziellen Plattformen einzustellen. Auf diesem Wege erhalten Beauftragende direkt Vorschläge für Freelancer mit den passenden Skills und können gleich mehrere Freelancer auf ein Projekt aufmerksam machen.Wie Unternehmen einen Veränderungsprozess anstoßenUnternehmen dürfen den Veränderungsprozess nicht unterschätzen, wenn die Belegschaft noch keine oder erst wenige Berührungspunkte mit der Arbeit in gemischten Teams aus Festangestellten und Freelancern hatte – sogenannter Blended Work. Wichtig ist, dass Firmen die Potenziale an neuen Perspektiven und Arbeitsweisen erkennen, die die Zusammenarbeit mit Freelancern mit sich bringt. Der Schlüssel ist ein offenes Verständnis für die Bedürfnisse aller Beteiligten. Ein Unternehmen sollte transparent kommunizieren, wie die oder der engagierte Freelancer das Team entlasten wird. Die Arbeitsgruppe muss wiederum lernen, die Weichen für eine zuverlässige Zusammenarbeit mit Freelancern zu stellen. (pg) Freelancer – Was bei Arbeitsverträgen zu beachten ist7 Tipps wie Freiberufler Honorarverträge richtig lesen und ausgestalten
Foto: ilikeyellow – shutterstock.comHonorarverträge stellen für viele Freiberufler eine Herausforderung dar. Bei der Gestaltung und Umsetzung sollte deshalb große Sorgfalt an den Tag gelegt werden. Folgende sieben Punkte sollten Freelancer bei der Erstellung eines Honorarvertrages unbedingt beachten. 1. Vertragsform regeln
Foto: zabanski – shutterstock.comDer Honorarvertrag, auch “Vertrag über die freie Mitarbeit” genannt, kann in Form eines Dienst- oder Werkvertrages ausgestellt werden. Im Falle eines Werkvertrags steht das Arbeitsergebnis beziehungsweise der Arbeitserfolg im Fokus. Bei einem Dienstvertrag ist der freie Mitarbeiter dem Auftraggeber jedoch nur die Arbeitsleistung schuldig. Im Allgemeinen regelt der Honorarvertrag die Höhe der Vergütung eines Freiberuflers und die Vereinbarung in Form von Leistung und Gegenleistung. 2. Scheinselbstständigkeit vermeiden
Foto: Zerbor – shutterstock.comDas größte Risiko für Auftraggeber und Auftragnehmer ist die Scheinselbstständigkeit. Sollte eine solche vorliegen, kann dies für beide Vertragsparteien erhebliche finanzielle Konsequenzen zur Folge haben. Der Freiberufler sollte in der Regel in keinem abhängigen Arbeitsverhältnis zu dem Vertragspartner stehen. Allgemeingültige arbeitsrechtliche Bestimmungen wie festgelegte Arbeitszeiten oder Urlaubsanspruch dürfen hier keine Anwendung finden. Wichtig ist bei dieser Vertragsform, dass die zu erbringenden Leistungen im Honorarvertrag detailliert beschrieben sind.3. Honorarordnungen prüfen
Foto: 0833379753 – shutterstock.comFür bestimmte Berufsgruppen gibt es gewisse Verordnungsgrundlagen. Beispielsweise regelt die Honorarordnung für Architekten und Ingenieure (HOAI) die Vergütung der Leistungen von Projekten des Bauwesens. Für freie Experten aus den Bereichen Informatik, Maschinen- und Anlagenbau, Verfahrens-, Elektro- und Prozesstechnik gibt es bisher keine verpflichtenden Regelungen. 4. Arbeitslosengeld sichern
Foto: Everett Historical – shutterstock.comHonorarkräfte, die als freie Mitarbeiter tätig sind, müssen sich für gewöhnlich selbst um Versicherungen kümmern. So sind Freelancer nicht automatisch vor Arbeitslosigkeit geschützt. Insbesondere im Rahmen der Corona-Pandemie ging es finanziell bei vielen Freiberuflern bergab. Mehrere Hunderttausende Selbstständige mussten aus diesem Grund Leistungen der Grundsicherung vom Staat beantragen. Die Voraussetzung für den Anspruch auf gesetzliches Arbeitslosengeld besteht darin, dass der Antragsteller innerhalb der letzten zwei Jahre mindestens zwölf Monate versicherungspflichtig angestellt war. 5. Einkommenssteuerpflicht beachten
Foto: Younes Stiller Kraske – shutterstock.comFür den Freelancer gilt die Einkommensteuerpflicht genauso wie für Festangestellte. Bei freiberuflich Tätigen unterscheidet sich die Umsatzsteuer durch die sogenannte Vorsteuer. Diese besteht aus der Mehrwertsteuer, die Freiberuflern beispielsweise bei dem Erwerb von Lieferungen oder Arbeitsmitteln in Rechnung gestellt wird. Diese Beträge können anschließend vom Finanzamt zurückgefordert werden. Der Restbetrag ergibt die tatsächliche Abgabe der Umsatzsteuer. Viele Freiberufler starten zunächst als Kleinunternehmer und können von der Kleinunternehmerregelung Gebrauch machen. Wenn die Einkünfte sich im vorangegangenen Kalenderjahr maximal auf 22.000 belaufen haben und die Einnahmen im laufenden Jahr nicht die Umsatzgrenze von 50.000 Euro überschreiten (Stand 2021), muss keine Umsatzsteuervoranmeldung abgegeben werden. Sobald Freiberufler diese Grenze überschreiten, verlieren sie den Status als Kleinunternehmer. Wichtig zu wissen ist, dass die Vorteile der Kleinunternehmerregelung nicht in Anspruch genommen werden dürfen, wenn die Vorsteuer bereits zurückerstattet wurde. 6. Honorarvertrag kündigen
Foto: pixelnest – shutterstock.comEine Beendigung des Honorarvertrages erfolgt in den meistens Fällen ordentlich. Hierbei kommt es m ersten Schritt auf die Kündigungsfrist an. Das Arbeitsverhältnis endet bei einem befristeten Vertrag nach der vereinbarten Zeitspanne. Ist keine Frist im Vorhinein festgelegt worden, kann eine Kündigung nach Maßgabe der entsprechenden Bestimmungen erfolgen. In der Regel orientiert sich die Kündigungsfrist an der Vergütung. Das heißt je nachdem, ob die Leistung nach Tagen oder Wochen bemessen wird. Unter bestimmten Umständen kann einer der Vertragsparteien den Honorarvertrag jedoch auch außerordentlich aufheben.7. Fachanwalt konsultieren
Foto: Amnaj Khetsamtip – shutterstock.comHat ein Freiberufler einen Honorarvertrag selbst aufgesetzt oder bekommt ihn von seinem Auftraggeber vorgelegt, empfiehlt es sich, einen Fachanwalt heranzuziehen. Alternativ kann aber auch auf verschiedenen Webseiten ein Vertragsmuster heruntergeladen werden, das von einem Anwalt erstellt und rechtlich gecheckt wurde. Bei Letzterem sollte der Freiberufler den Vertrag gegebenenfalls auf Anpassungen und Ergänzungen je nach Vertragsbestimmungen prüfen.

Tipps & Fakten für Auftraggeber: Die 5 häufigsten Freelancer-Mythen​ Weiterlesen »

Was machen Projektmanager?​

Allgemein

Projektmanager sind in der glücklichen Lage, in so gut wie allen Branchen gesucht und gebraucht zu werden. Foto: Gorodenkoff – shutterstock.com Dieser Artikel liefert Ihnen einen Überblick über die Rolle des Projektmanagers, ihre Aufgaben, ihr Skillset, relevante Zertifizierungen und Anhaltspunkte zu den zu erwartenden Gehältern sowie Tipps, wie man letztere steigert. Was ist ein Projektmanager? Projektmanager (PMs) spielen die entscheidende Rolle, wenn es darum geht, Projekte: zu planen, umzusetzen, zu überwachen und abzuschließen. Sie sind verantwortlich für den gesamten Projektumfang, das Projektteam und die Ressourcen, das Projektbudget sowie den Erfolg oder Misserfolg des Projekts. Um in ihrer Rolle erfolgreich zu sein, müssen Projektmanager in der Lage sein: Ressourcen zu koordinieren, Budgets zu verwalten, den Projektfortschritt zu messen und zu verfolgen sowie mit Teammitgliedern und Interessengruppen zu kommunizieren. Darüber hinaus bewerten Projektmanager auch Risiken und lösen Probleme, die während des gesamten Projektlebenszyklus auftreten. Dabei müssen sie oft schwierige Entscheidungen in Bezug auf komplexe und konkurrierende Prioritäten treffen, um die gewünschten Projektergebnisse zu erzielen. Was macht ein Projektmanager? Ein Projektmanager (beziehungsweise das PM-Team) ist mit einer Vielzahl von Aufgaben betraut, die sich über die fünf Phasen des Projektlebenszyklus erstrecken, die im Folgenden beschrieben werden. In jeder Phase liegt der Schwerpunkt auf einer anderen Mischung aus Projektmanagement-Skills und -Knowhow. Initiierungsphase: In der Anfangsphase eines Projekts sind die Projektmanager dafür verantwortlich, die Projektcharta zu entwickeln und die relevanten Stakeholder zu ermitteln. Planungsphase: Bei der Entwicklung eines Projektmanagementplans müssen die Projektmanager den Projektumfang definieren, einen Projektstrukturplan (PSP) erstellen und die Anforderungen erfassen. Außerdem gilt es, Zeitpläne und Aktivitäten zu planen, zu definieren und zu entwickeln sowie die für den Abschluss des Projekts erforderlichen Ressourcen und den zeitlichen Aufwand für jede Aktivität zu definieren. Auf dieser Grundlage können anschließend Kosten geplant und Budgets festgelegt, Personalbedarf ermittelt sowie Kommunikations- und Qualitätsmanagementpläne aufgestellt werden. Darüber hinaus müssen PMs in dieser Phase potenzielle Risiken ermitteln, eine qualitative und quantitative Risikoanalyse durchführen und Strategien zur Risikominderung entwickeln, während sie gleichzeitig die erforderlichen Beschaffungen ermitteln und die Erwartungen der Stakeholder festlegen. Ausführungsphase: In dieser Phase sind die Projektmanager dafür verantwortlich, die gesamte Projektarbeit zu managen. Dazu gehört beispielsweise, das Projektteam auszuwählen, die Kommunikation und Beschaffung sowie Qualität und Erwartungen zu managen. Überwachungs- und Kontrollphase: Sobald die Arbeit an einem Projekt begonnen hat, müssen die Projektmanager die Abläufe überwachen und notwendige Änderungen einleiten, während sie den Projektumfang, die Kosten und die Qualität der Ergebnisse im Blick behalten. Abschlussphase: Um ein Projekt abzuschließen, müssen PMs alle Phasen abschließen, Budgets abrechnen, die Ergebnisse übergeben, Projektnachprüfungen und -Reportings erstellen sowie Personal in den Ressourcenpool zurückführen. Was müssen Projektmanager können? Effektive Projektmanager brauchen mehr als nur technisches Knowhow. Die Rolle erfordert (neben anderen gefragten Schlüsselqualifikationen) auch: ein Business-Mindset, Teambuilding- und Konfliktlösungs-Skills, sowie Knowhow im Bereich Change Management. Grundsätzlich sollten Projektmanager in der Lage sein, Teammitglieder zu motivieren, zu kommunizieren, Prioritäten zu setzen und Probleme zu lösen. Anpassungsfähigkeit ist eine weiterer wichtiger Soft Skill für erfolgreiche Projektmanager. Hocheffektiv sind Projektmanager allerdings erst dann, wenn sie zum strategischen Business-Partner werden, der sich vollumfänglich für den Unternehmenserfolg einsetzt. Welche zehn Eigenschaften dafür entscheidend sind, lesen Sie hier. Was verdient ein Projektmanager? Auch als Projektmanager gilt: Mit steigender Berufserfahrung klettern die Gehälter. Laut dem Karriereportal Stepstone: verdienen Junior-Projektmanager hierzulande im Schnitt 40.000 Euro jährlich. Die Gehaltsspanne reicht dabei von 34.500 Euro bis 47.100 Euro. steigt die durchschnittliche Vergütung als Projektmanager auf durchschnittlich 54.500 Euro pro Jahr. Die Gehaltsspanne reicht dabei von 47.300 Euro bis 65.800 Euro. bekommen Senior-Projektmanager in Deutschland ein Mediangehalt von 68.200 Euro – die Spanne reicht hier von 60.700 Euro bis 81.400 Euro. Dabei bestehen regionale Unterschiede: In Hessen verdienen Projektmanager derzeit am besten – in Thüringen am schlechtesten. Zudem nimmt auch die Unternehmensgröße Einfluss auf die Höhe des Gehalts. Je größer die Belegschaft, desto besser fällt dabei im Regelfall auch das Gehalt für Projektmanager aus. Wie verdienen Projektmanager mehr? Eine Zertifizierung im Bereich Projektmanagement kann PMs die Tür zu mehr Geld und weiteren Karrieremöglichkeiten öffnen. Diverse Bildungseinrichtungen bieten entsprechende Möglichkeiten mit unterschiedlichen Spezialisierungen. Eine der wichtigsten Institutionen, die international anerkannte Zertifizierungen im Bereich Projektmanagement anbietet, ist das Project Management Institute (PMI). Zu den wichtigsten allgemeinen Zertifizierungen im Bereich Projektmanagement zählen unter anderem: Project Management Professional (PMP) Certified Associate in Project Managfement (CAPM) Darüber hinaus können PMs ihrer Karriere unter Umständen auch mit einer Agile-Zertifizierung auf die Sprünge helfen, etwa in Form von: Agile Certified Practitioner (PMI-ACP) oder Certified ScrumMaster (CSM). Einen umfassenden Deep Dive zum Thema Project-Management-Zertifizierungen finden Sie hier. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was machen Projektmanager?​ Projektmanager sind in der glücklichen Lage, in so gut wie allen Branchen gesucht und gebraucht zu werden.
Foto: Gorodenkoff – shutterstock.com

Dieser Artikel liefert Ihnen einen Überblick über die Rolle des Projektmanagers, ihre Aufgaben, ihr Skillset, relevante Zertifizierungen und Anhaltspunkte zu den zu erwartenden Gehältern sowie Tipps, wie man letztere steigert.

Was ist ein Projektmanager?

Projektmanager (PMs) spielen die entscheidende Rolle, wenn es darum geht, Projekte:

zu planen,

umzusetzen,

zu überwachen und

abzuschließen.

Sie sind verantwortlich für den gesamten Projektumfang, das Projektteam und die Ressourcen, das Projektbudget sowie den Erfolg oder Misserfolg des Projekts. Um in ihrer Rolle erfolgreich zu sein, müssen Projektmanager in der Lage sein:

Ressourcen zu koordinieren,

Budgets zu verwalten,

den Projektfortschritt zu messen und zu verfolgen sowie

mit Teammitgliedern und Interessengruppen zu kommunizieren.

Darüber hinaus bewerten Projektmanager auch Risiken und lösen Probleme, die während des gesamten Projektlebenszyklus auftreten. Dabei müssen sie oft schwierige Entscheidungen in Bezug auf komplexe und konkurrierende Prioritäten treffen, um die gewünschten Projektergebnisse zu erzielen.

Was macht ein Projektmanager?

Ein Projektmanager (beziehungsweise das PM-Team) ist mit einer Vielzahl von Aufgaben betraut, die sich über die fünf Phasen des Projektlebenszyklus erstrecken, die im Folgenden beschrieben werden. In jeder Phase liegt der Schwerpunkt auf einer anderen Mischung aus Projektmanagement-Skills und -Knowhow.

Initiierungsphase: In der Anfangsphase eines Projekts sind die Projektmanager dafür verantwortlich, die Projektcharta zu entwickeln und die relevanten Stakeholder zu ermitteln.

Planungsphase: Bei der Entwicklung eines Projektmanagementplans müssen die Projektmanager den Projektumfang definieren, einen Projektstrukturplan (PSP) erstellen und die Anforderungen erfassen. Außerdem gilt es, Zeitpläne und Aktivitäten zu planen, zu definieren und zu entwickeln sowie die für den Abschluss des Projekts erforderlichen Ressourcen und den zeitlichen Aufwand für jede Aktivität zu definieren. Auf dieser Grundlage können anschließend Kosten geplant und Budgets festgelegt, Personalbedarf ermittelt sowie Kommunikations- und Qualitätsmanagementpläne aufgestellt werden. Darüber hinaus müssen PMs in dieser Phase potenzielle Risiken ermitteln, eine qualitative und quantitative Risikoanalyse durchführen und Strategien zur Risikominderung entwickeln, während sie gleichzeitig die erforderlichen Beschaffungen ermitteln und die Erwartungen der Stakeholder festlegen.

Ausführungsphase: In dieser Phase sind die Projektmanager dafür verantwortlich, die gesamte Projektarbeit zu managen. Dazu gehört beispielsweise, das Projektteam auszuwählen, die Kommunikation und Beschaffung sowie Qualität und Erwartungen zu managen.

Überwachungs- und Kontrollphase: Sobald die Arbeit an einem Projekt begonnen hat, müssen die Projektmanager die Abläufe überwachen und notwendige Änderungen einleiten, während sie den Projektumfang, die Kosten und die Qualität der Ergebnisse im Blick behalten.

Abschlussphase: Um ein Projekt abzuschließen, müssen PMs alle Phasen abschließen, Budgets abrechnen, die Ergebnisse übergeben, Projektnachprüfungen und -Reportings erstellen sowie Personal in den Ressourcenpool zurückführen.

Was müssen Projektmanager können?

Effektive Projektmanager brauchen mehr als nur technisches Knowhow. Die Rolle erfordert (neben anderen gefragten Schlüsselqualifikationen) auch:

ein Business-Mindset,

Teambuilding- und Konfliktlösungs-Skills,

sowie Knowhow im Bereich Change Management.

Grundsätzlich sollten Projektmanager in der Lage sein, Teammitglieder zu motivieren, zu kommunizieren, Prioritäten zu setzen und Probleme zu lösen. Anpassungsfähigkeit ist eine weiterer wichtiger Soft Skill für erfolgreiche Projektmanager.

Hocheffektiv sind Projektmanager allerdings erst dann, wenn sie zum strategischen Business-Partner werden, der sich vollumfänglich für den Unternehmenserfolg einsetzt. Welche zehn Eigenschaften dafür entscheidend sind, lesen Sie hier.

Was verdient ein Projektmanager?

Auch als Projektmanager gilt: Mit steigender Berufserfahrung klettern die Gehälter. Laut dem Karriereportal Stepstone:

verdienen Junior-Projektmanager hierzulande im Schnitt 40.000 Euro jährlich. Die Gehaltsspanne reicht dabei von 34.500 Euro bis 47.100 Euro.

steigt die durchschnittliche Vergütung als Projektmanager auf durchschnittlich 54.500 Euro pro Jahr. Die Gehaltsspanne reicht dabei von 47.300 Euro bis 65.800 Euro.

bekommen Senior-Projektmanager in Deutschland ein Mediangehalt von 68.200 Euro – die Spanne reicht hier von 60.700 Euro bis 81.400 Euro.

Dabei bestehen regionale Unterschiede: In Hessen verdienen Projektmanager derzeit am besten – in Thüringen am schlechtesten. Zudem nimmt auch die Unternehmensgröße Einfluss auf die Höhe des Gehalts. Je größer die Belegschaft, desto besser fällt dabei im Regelfall auch das Gehalt für Projektmanager aus.

Wie verdienen Projektmanager mehr?

Eine Zertifizierung im Bereich Projektmanagement kann PMs die Tür zu mehr Geld und weiteren Karrieremöglichkeiten öffnen. Diverse Bildungseinrichtungen bieten entsprechende Möglichkeiten mit unterschiedlichen Spezialisierungen. Eine der wichtigsten Institutionen, die international anerkannte Zertifizierungen im Bereich Projektmanagement anbietet, ist das Project Management Institute (PMI).

Zu den wichtigsten allgemeinen Zertifizierungen im Bereich Projektmanagement zählen unter anderem:

Project Management Professional (PMP)

Certified Associate in Project Managfement (CAPM)

Darüber hinaus können PMs ihrer Karriere unter Umständen auch mit einer Agile-Zertifizierung auf die Sprünge helfen, etwa in Form von:

Agile Certified Practitioner (PMI-ACP) oder

Certified ScrumMaster (CSM).

Einen umfassenden Deep Dive zum Thema Project-Management-Zertifizierungen finden Sie hier. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was machen Projektmanager?​ Weiterlesen »

LLMs auf dem Smartphone für alle​

Allgemein

Quantisierung von LLMs in Minuten statt Tagen – ganz ohne Spezialhardware. Alexander Supertramp – shutterstock Große Sprachmodelle wie DeepSeek R1 waren bislang nur mit hohem Rechenaufwand auf leistungsstarker Hardware nutzbar. Sie auf mobilen Endgeräten oder Laptops einzusetzen, erforderte teure Server und viel Zeit für den Quantifizierungsprozess. Dank neuer Methoden soll dieser Prozess nun in wenigen Minuten direkt auf Laptops oder Smartphones durchführbar sein – ohne spezielle Hardware. Damit wird der Zugang zu LLMs deutlich einfacher und günstiger, so die Forscherinnen und Forscher von Yandex Research. Gemeinsam mit Forschenden des Massachusetts Institute of Technology (MIT), des Institute of Science and Technology Austria (ISTA) und der King Abdullah University of Science and Technology (KAUST) hat das Forschungsteam von Yandex Research eine Methode entwickelt, mit der große Sprachmodelle (LLM) ohne nennenswerte Qualitätseinbußen schnell komprimiert werden können. Komprimierung ohne Qualitätsverlust Wie die Wissenschaftler in einem Research Paper ausführen, senkt ihre HIGGS (Hadamard Incoherence with Gaussian MSE-optimal GridS)-Technologie damit die Einstiegshürde für den Einsatz großer Sprachmodelle auf Geräten wie PCs und Smartphones. Diese Methode könne beispielsweise verwendet werden, um LLMs wie DeepSeek R1 mit 671B-Parametern und Llama 4 Maverick mit 400B-Parametern zu komprimieren, die zuvor nur mit einem erheblichen Qualitätsverlust quantisiert (komprimiert) werden konnten. Die Quantisierungstechnik eröffne damit neue Möglichkeiten für den Einsatz von LLMs in verschiedenen Bereichen, insbesondere in ressourcenbeschränkten Umgebungen. Die Wissenschaftler haben nach eigenen Angaben HIGGS bereits an den Modellen der LLaMA 3.1- und 3.2-Familie sowie an Modellen der Qwen-Familie getestet. Dabei hätten Experimente gezeigt, dass HIGGS andere datenfreie Quantisierungsmethoden, einschließlich NF4 (4-Bit NormalFloat) und HQQ (Halbquadratische Quantisierung), in Bezug auf das Verhältnis von Qualität zu Größe übertrifft. Ressourcenschonende KI für alle Insbesondere Start-ups, unabhängigen Entwicklern und ressourcenbeschränkten Umgebungen soll dies zugutekommen. Yandex Research selbst nutzt HIGGS bereits zur schnelleren Prototyp-Entwicklung und Ideentests. Entwickler und Forscher können bereits auf Hugging Face auf HIGGS zugreifen oder das Forschungspapier erkunden, das auf arXiv verfügbar ist. 

LLMs auf dem Smartphone für alle​ Quantisierung von LLMs in Minuten statt Tagen – ganz ohne Spezialhardware.
Alexander Supertramp – shutterstock

Große Sprachmodelle wie DeepSeek R1 waren bislang nur mit hohem Rechenaufwand auf leistungsstarker Hardware nutzbar. Sie auf mobilen Endgeräten oder Laptops einzusetzen, erforderte teure Server und viel Zeit für den Quantifizierungsprozess. Dank neuer Methoden soll dieser Prozess nun in wenigen Minuten direkt auf Laptops oder Smartphones durchführbar sein – ohne spezielle Hardware. Damit wird der Zugang zu LLMs deutlich einfacher und günstiger, so die Forscherinnen und Forscher von Yandex Research.

Gemeinsam mit Forschenden des Massachusetts Institute of Technology (MIT), des Institute of Science and Technology Austria (ISTA) und der King Abdullah University of Science and Technology (KAUST) hat das Forschungsteam von Yandex Research eine Methode entwickelt, mit der große Sprachmodelle (LLM) ohne nennenswerte Qualitätseinbußen schnell komprimiert werden können.

Komprimierung ohne Qualitätsverlust

Wie die Wissenschaftler in einem Research Paper ausführen, senkt ihre HIGGS (Hadamard Incoherence with Gaussian MSE-optimal GridS)-Technologie damit die Einstiegshürde für den Einsatz großer Sprachmodelle auf Geräten wie PCs und Smartphones.

Diese Methode könne beispielsweise verwendet werden, um LLMs wie DeepSeek R1 mit 671B-Parametern und Llama 4 Maverick mit 400B-Parametern zu komprimieren, die zuvor nur mit einem erheblichen Qualitätsverlust quantisiert (komprimiert) werden konnten. Die Quantisierungstechnik eröffne damit neue Möglichkeiten für den Einsatz von LLMs in verschiedenen Bereichen, insbesondere in ressourcenbeschränkten Umgebungen.

Die Wissenschaftler haben nach eigenen Angaben HIGGS bereits an den Modellen der LLaMA 3.1- und 3.2-Familie sowie an Modellen der Qwen-Familie getestet. Dabei hätten Experimente gezeigt, dass HIGGS andere datenfreie Quantisierungsmethoden, einschließlich NF4 (4-Bit NormalFloat) und HQQ (Halbquadratische Quantisierung), in Bezug auf das Verhältnis von Qualität zu Größe übertrifft.

Ressourcenschonende KI für alle

Insbesondere Start-ups, unabhängigen Entwicklern und ressourcenbeschränkten Umgebungen soll dies zugutekommen. Yandex Research selbst nutzt HIGGS bereits zur schnelleren Prototyp-Entwicklung und Ideentests.

Entwickler und Forscher können bereits auf Hugging Face auf HIGGS zugreifen oder das Forschungspapier erkunden, das auf arXiv verfügbar ist.

LLMs auf dem Smartphone für alle​ Weiterlesen »

Nach oben scrollen
×