Computerhaus Quickborn

Allgemein

Google Pixel 9a vs. Samsung Galaxy A56: Welches Smartphone soll ich kaufen?​

Allgemein

Google/Foundry Die Pixel A-Serie von Google und die Galaxy A5-Serie von Samsung sind seit Jahren Rivalen im Bereich der Mittelklasse-Smartphones. Beide Hersteller wollen Flaggschiff-Features zu einem Bruchteil des Preises bieten. In diesem Jahr haben potenzielle Käufer die Qual der Wahl zwischen dem Google Pixel 9a und dem Samsung Galaxy A56. Beide Smartphones versprechen ein gutes Preis-Leistungs-Verhältnis, gehen dabei aber unterschiedliche Wege. Das Pixel 9a konzentriert sich darauf, ein ähnliches Erlebnis wie das Pixel 9 zu einem günstigeren Preis zu bieten, mit den KI-Funktionen von Google und hervorragenden Kameras. Das Galaxy A56 hingegen folgt der Samsung-Formel: hochwertiges Design, solide Hardware und ein bisschen Galaxy AI. Während Galaxy A56 bei Amazon bereits ab 479 Euro erhältlich ist, ist das Pixel 9a mit 549 Euro ein wenig teurer. Um Ihnen die Kaufentscheidung zu erleichtern, vergleichen wir die beiden Smartphones im Folgenden direkt miteinander. Das Galaxy A56 konnte ich bereits testen, die Informationen zum Pixel 9a basieren auf Infos von Google. Design & Display Sowohl das Pixel 9a als auch das Galaxy A56 orientieren sich am Design ihrer Flaggschiff-Geschwister, verfolgen aber jeweils einen etwas anderen Ansatz, um dem Mittelklasse-Anspruch gerecht zu werden. Das Pixel 9a wurde im Vergleich zum Pixel 8a deutlich überarbeitet. Es tauscht die für Google typische Kameraleiste gegen ein dezenteres, ovales Modul auf der Rückseite aus. Dieser aufgeräumte Look wird durch eine matte Rückseite aus Verbundmaterial und einen flachen Aluminiumrahmen ergänzt. Er verleiht dem Gerät ein leichtes und dennoch hochwertiges Aussehen. Es ist in vier Farben erhältlich: Obsidian, Porcelain, Peony und das brandneue Iris. Mit einer Größe von 6,3 Zoll bietet das Smartphone ein ausgewogenes Verhältnis zwischen Handlichkeit und Bildschirmgröße. Google Mit dem Galaxy A56 bleibt Samsung hingegen beim Vorgänger-Design, auch wenn es subtile Verbesserungen gibt. Es verwendet sowohl auf der Vorder- als auch auf der Rückseite Gorilla Glass Victus, gepaart mit einem flachen Aluminiumrahmen. Die rückwärtigen Kameras befinden sich jetzt in einem einheitlichen Kamerabuckel, und es gibt eine neue “Tasteninsel” für die Power und Lautstärke. Mit einem 6,7-Zoll-Bildschirm ist es etwas größer und schwerer, aber mit einer Dicke von nur 7,4 Millimetern beeindruckend schlank. Sie können es in den Farben Pink, Olive, Lightgrey und Graphite kaufen. Samsung Google Was die Display-Qualität betrifft, so sind beide Smartphones starke Konkurrenten. Das Pixel 9a verfügt über ein helles 6,3 Zoll großes Actua-OLED-Display mit Full-HD-Auflösung und einer Bildwiederholfrequenz von 120 Hertz. Es erreicht eine beeindruckende Spitzenhelligkeit von 2.700 Nits, was eine hervorragende Sichtbarkeit im Freien verspricht. Das Samsung Galaxy A56 hat die gleiche Bildwiederholfrequenz mit einem 6,7-Zoll-Super AMOLED-Display und erreicht eine etwas geringere Spitzenhelligkeit von 1.900 Nits. Die Farben sind bei beiden Modellen leuchtend und die Blickwinkel dürften hervorragend sein. Die höhere Helligkeit des Pixels gibt ihm jedoch den Vorzug, zumal es auch eine bessere Farbwiedergabe verspricht. Akkulaufzeit & Aufladen Die Akkulaufzeit ist ein häufiger Punkt, an dem sich Mittelklasse-Handys unterscheiden. Auch das Pixel 9a und das Galaxy A56 verfolgen hier unterschiedliche Ansätze. Das Pixel 9a verfügt über einen 5.100-Milliamperestunden-Akku, der sogar größer ist als der des Pixel 9. Google behauptet, dass er bei regelmäßiger Nutzung über 30 Stunden hält. Mit dem Modus “Extreme Battery Saver” können Sie diese Zeit theoretisch auf 100 Stunden verlängern. In der Praxis sollte er bequem ein bis zwei Tage durchhalten. Die Ladegeschwindigkeiten sind mit 18 Watt kabelgebundenem und standardmäßigem kabellosem Qi-Laden nicht bahnbrechend, aber die Ausdauer des Akkus macht diesen Minuspunkt wieder wett. Das Galaxy A56 hat einen etwas kleineren Akku mit 5.000 Milliamperestunden. Auch hier können Sie eine ganztägige Akkulaufzeit erwarten, wobei der energieeffiziente Exynos 1580 Chipsatz von Samsung seinen Teil dazu beiträgt. Der Clou sind die Ladegeschwindigkeiten. Das kabelgebundene Aufladen erreicht eine Höchstleistung von 45 Watt und ist damit doppelt so schnell wie beim Pixel 9a. Allerdings wird kein kabelloses Laden angeboten, was in dieser Preisklasse ein Manko ist. Beide Smartphones bieten eine zuverlässige Akkulaufzeit. Wenn Sie schneller aufladen möchten, ist das Galaxy A56 im Vorteil. Software-Updates Bei der Softwareunterstützung können beide Smartphones überzeugen. Das Pixel 9a läuft ab Werk mit Android 15 und wird mit dem Versprechen von Google geliefert, sieben Jahre lang die wichtigsten Android-Versionen, Pixel Feature Drops und Sicherheitsupdates zu erhalten. Das ist der längste Support-Zeitraum, den es im Moment für Android gibt und entspricht dem Engagement, das auch die Flaggschiffe von Google bieten. Google Samsung Samsung ist nicht weit davon entfernt. Das Galaxy A56 wird mit Android 14 und One UI 7 ausgeliefert und erhält sechs Jahre lang Software-Support – sowohl für Android-Versions-Updates als auch für Sicherheitspatches. Samsungs One UI ist eine der raffiniertesten Android-Oberflächen, die es gibt, und bietet eine breite Palette an Funktionen und Anpassungsmöglichkeiten. Das A56 verzichtet jedoch auf viele der Galaxy AI-Tools, die Sie in Samsungs Flaggschiff Galaxy S25-Serie finden. Wenn Sie die längste Software-Unterstützung suchen, hat das Pixel 9a die Nase vorn. Aber beide Smartphones sind eine ausgezeichnete Wahl, wenn Sie Ihr Gerät langfristig behalten möchten. Kameras Die Kameraleistung ist ein weiterer entscheidender Faktor. Der 48-Megapixel-Hauptsensor des Pixel 9a verspricht in Kombination mit der Bildverarbeitung von Google unter den meisten Bedingungen hervorragende Fotos. Erwarten Sie, dass “Night Sight” bei schlechten Lichtverhältnissen Wunder wirkt, und mit den Magic Editor-Tools, die wir bei anderen Pixels getestet haben, können Sie Ihre Fotos ganz einfach nachbearbeiten. Sie erhalten außerdem eine 13-Megapixel-Ultraweit-Kamera und eine 13-Megapixel-Selfie-Kamera, die beide 4K-Videos aufnehmen können. Google Samsung Das Samsung Galaxy A56 hat eine 50-Megapixel-Hauptkamera, eine 12-Megapixel-Ultraweit-Kamera und eine 5-Megapixel-Makrolinse. Der Hauptsensor macht bei Tageslicht ordentliche Aufnahmen, hat aber bei schlechten Lichtverhältnissen etwas mehr zu kämpfen. Wir erwarten, dass das Pixel hier besser abschneidet. Die 12-Megapixel-Frontkamera eignet sich gut für Selfies und Videotelefonate, bietet aber keine 4K-Videos. Weitere Unterschiede Sie können von beiden Geräten eine solide Leistung erwarten, aber es gibt einige wichtige Unterschiede, die Sie beachten sollten. Das Pixel 9a wird von Googles Tensor G4 Chipsatz angetrieben, gepaart mit 8 Gigabyte RAM. Er ist nicht der schnellste Chip auf dem Markt, aber er ist auf KI-Aufgaben abgestimmt und eng in Android integriert, was eine reibungslose Nutzung im Alltag gewährleistet. Wir haben ihn auf dem Pixel 9 verwendet und waren beeindruckt. Sie erhalten außerdem Zugang zu Googles kompletter Suite von Gemini AI-Funktionen, einschließlich Circle to Search, Gemini Live und Pixel Studio. Das Galaxy A56 verwendet Samsungs Exynos 1580 Chip, ebenfalls gepaart mit 8 Gigabyte RAM. Er liefert eine respektable Leistung für alltägliche Aufgaben und gelegentliche Games, ist aber bei GPU-intensiven Aufgaben einen Schritt zurück. Die KI-Funktionen sind im Vergleich zum Pixel begrenzt, und Samsung behält seine besten Tools für die Galaxy-S-Reihe vor. Das Pixel 9a ist außerdem nach IP68 zertifiziert und bietet damit eine bessere Wasser- und Staubresistenz als das Galaxy A56 (IP67). Keines der beiden Smartphones verfügt über einen microSD-Kartenslot. Beide sind mit 128 oder 256 Gigabyte Speicher erhältlich. Preis & Verfügbarkeit Das Pixel 9a kostet bei Google mit 128 Gigabyte Speicher 549 Euro kosten, die Version mit 256 Gigabyte schlägt mit 649 Euro zu Buche. Als Farboptionen stehen Iris, Peony, Porcelain und Obsidian zur Auswahl. Das Smartphone kommt offiziell Anfang April auf den Markt. Das Galaxy A56 kostet in der Version mit 128 Gigabyte Speicher 479 Euro. Zum gleichen Preis steht aktuell auch die 256-Gigabyte-Ausführung zur Verfügung. Bei den Farben können Sie zwischen Pink, Olive, Lightgrey und Graphite wählen. Da sich die Preise nur um etwa 70 Euro unterscheiden, hängt die Kaufentscheidung davon ab, welches Ökosystem Sie bevorzugen und welche Funktionen Ihnen wichtiger sind. Fazit Das Pixel 9a und das Galaxy A56 bieten beide ein beeindruckendes Preis-Leistungs-Verhältnis, aber sie sprechen unterschiedliche Nutzer an. Das Pixel 9a verspricht ein besseres Kameraerlebnis, längeren Software-Support und ein helleres Display in einem kompakteren Formfaktor. Es ist eine gute Wahl, wenn Sie Wert auf Fotografie, KI-Funktionen und lange Software-Unterstützung legen. Das Galaxy A56 bietet ein größeres Display, schnelleres kabelgebundenes Laden und ein Design, das sich eng an die Premium Galaxy S-Serie von Samsung anlehnt. Es ist ideal für Nutzer, die Samsungs One UI bevorzugen und ein größeres Smartphone wollen, ohne für ein Flaggschiff zu bezahlen. Für die meisten Nutzer ist das Pixel 9a mit seiner Kombination aus Kamera und langlebiger Software die bessere Wahl. Aber wenn Sie Wert auf ein größeres Display und schnellere Ladezeiten legen, ist das A56 immer noch eine solide Wahl. (PC-Welt) 

Google Pixel 9a vs. Samsung Galaxy A56: Welches Smartphone soll ich kaufen?​ Google/Foundry

Die Pixel A-Serie von Google und die Galaxy A5-Serie von Samsung sind seit Jahren Rivalen im Bereich der Mittelklasse-Smartphones. Beide Hersteller wollen Flaggschiff-Features zu einem Bruchteil des Preises bieten.

In diesem Jahr haben potenzielle Käufer die Qual der Wahl zwischen dem Google Pixel 9a und dem Samsung Galaxy A56. Beide Smartphones versprechen ein gutes Preis-Leistungs-Verhältnis, gehen dabei aber unterschiedliche Wege.

Das Pixel 9a konzentriert sich darauf, ein ähnliches Erlebnis wie das Pixel 9 zu einem günstigeren Preis zu bieten, mit den KI-Funktionen von Google und hervorragenden Kameras. Das Galaxy A56 hingegen folgt der Samsung-Formel: hochwertiges Design, solide Hardware und ein bisschen Galaxy AI.

Während Galaxy A56 bei Amazon bereits ab 479 Euro erhältlich ist, ist das Pixel 9a mit 549 Euro ein wenig teurer. Um Ihnen die Kaufentscheidung zu erleichtern, vergleichen wir die beiden Smartphones im Folgenden direkt miteinander.

Das Galaxy A56 konnte ich bereits testen, die Informationen zum Pixel 9a basieren auf Infos von Google.

Design & Display

Sowohl das Pixel 9a als auch das Galaxy A56 orientieren sich am Design ihrer Flaggschiff-Geschwister, verfolgen aber jeweils einen etwas anderen Ansatz, um dem Mittelklasse-Anspruch gerecht zu werden.

Das Pixel 9a wurde im Vergleich zum Pixel 8a deutlich überarbeitet. Es tauscht die für Google typische Kameraleiste gegen ein dezenteres, ovales Modul auf der Rückseite aus. Dieser aufgeräumte Look wird durch eine matte Rückseite aus Verbundmaterial und einen flachen Aluminiumrahmen ergänzt.

Er verleiht dem Gerät ein leichtes und dennoch hochwertiges Aussehen. Es ist in vier Farben erhältlich: Obsidian, Porcelain, Peony und das brandneue Iris. Mit einer Größe von 6,3 Zoll bietet das Smartphone ein ausgewogenes Verhältnis zwischen Handlichkeit und Bildschirmgröße.

Google

Mit dem Galaxy A56 bleibt Samsung hingegen beim Vorgänger-Design, auch wenn es subtile Verbesserungen gibt. Es verwendet sowohl auf der Vorder- als auch auf der Rückseite Gorilla Glass Victus, gepaart mit einem flachen Aluminiumrahmen.

Die rückwärtigen Kameras befinden sich jetzt in einem einheitlichen Kamerabuckel, und es gibt eine neue “Tasteninsel” für die Power und Lautstärke. Mit einem 6,7-Zoll-Bildschirm ist es etwas größer und schwerer, aber mit einer Dicke von nur 7,4 Millimetern beeindruckend schlank. Sie können es in den Farben Pink, Olive, Lightgrey und Graphite kaufen.

Samsung

Google

Was die Display-Qualität betrifft, so sind beide Smartphones starke Konkurrenten. Das Pixel 9a verfügt über ein helles 6,3 Zoll großes Actua-OLED-Display mit Full-HD-Auflösung und einer Bildwiederholfrequenz von 120 Hertz. Es erreicht eine beeindruckende Spitzenhelligkeit von 2.700 Nits, was eine hervorragende Sichtbarkeit im Freien verspricht.

Das Samsung Galaxy A56 hat die gleiche Bildwiederholfrequenz mit einem 6,7-Zoll-Super AMOLED-Display und erreicht eine etwas geringere Spitzenhelligkeit von 1.900 Nits.

Die Farben sind bei beiden Modellen leuchtend und die Blickwinkel dürften hervorragend sein. Die höhere Helligkeit des Pixels gibt ihm jedoch den Vorzug, zumal es auch eine bessere Farbwiedergabe verspricht.

Akkulaufzeit & Aufladen

Die Akkulaufzeit ist ein häufiger Punkt, an dem sich Mittelklasse-Handys unterscheiden. Auch das Pixel 9a und das Galaxy A56 verfolgen hier unterschiedliche Ansätze.

Das Pixel 9a verfügt über einen 5.100-Milliamperestunden-Akku, der sogar größer ist als der des Pixel 9. Google behauptet, dass er bei regelmäßiger Nutzung über 30 Stunden hält. Mit dem Modus “Extreme Battery Saver” können Sie diese Zeit theoretisch auf 100 Stunden verlängern.

In der Praxis sollte er bequem ein bis zwei Tage durchhalten. Die Ladegeschwindigkeiten sind mit 18 Watt kabelgebundenem und standardmäßigem kabellosem Qi-Laden nicht bahnbrechend, aber die Ausdauer des Akkus macht diesen Minuspunkt wieder wett.

Das Galaxy A56 hat einen etwas kleineren Akku mit 5.000 Milliamperestunden. Auch hier können Sie eine ganztägige Akkulaufzeit erwarten, wobei der energieeffiziente Exynos 1580 Chipsatz von Samsung seinen Teil dazu beiträgt. Der Clou sind die Ladegeschwindigkeiten. Das kabelgebundene Aufladen erreicht eine Höchstleistung von 45 Watt und ist damit doppelt so schnell wie beim Pixel 9a. Allerdings wird kein kabelloses Laden angeboten, was in dieser Preisklasse ein Manko ist.

Beide Smartphones bieten eine zuverlässige Akkulaufzeit. Wenn Sie schneller aufladen möchten, ist das Galaxy A56 im Vorteil.

Software-Updates

Bei der Softwareunterstützung können beide Smartphones überzeugen.

Das Pixel 9a läuft ab Werk mit Android 15 und wird mit dem Versprechen von Google geliefert, sieben Jahre lang die wichtigsten Android-Versionen, Pixel Feature Drops und Sicherheitsupdates zu erhalten. Das ist der längste Support-Zeitraum, den es im Moment für Android gibt und entspricht dem Engagement, das auch die Flaggschiffe von Google bieten.

Google

Samsung

Samsung ist nicht weit davon entfernt. Das Galaxy A56 wird mit Android 14 und One UI 7 ausgeliefert und erhält sechs Jahre lang Software-Support – sowohl für Android-Versions-Updates als auch für Sicherheitspatches.

Samsungs One UI ist eine der raffiniertesten Android-Oberflächen, die es gibt, und bietet eine breite Palette an Funktionen und Anpassungsmöglichkeiten. Das A56 verzichtet jedoch auf viele der Galaxy AI-Tools, die Sie in Samsungs Flaggschiff Galaxy S25-Serie finden.

Wenn Sie die längste Software-Unterstützung suchen, hat das Pixel 9a die Nase vorn. Aber beide Smartphones sind eine ausgezeichnete Wahl, wenn Sie Ihr Gerät langfristig behalten möchten.

Kameras

Die Kameraleistung ist ein weiterer entscheidender Faktor. Der 48-Megapixel-Hauptsensor des Pixel 9a verspricht in Kombination mit der Bildverarbeitung von Google unter den meisten Bedingungen hervorragende Fotos.

Erwarten Sie, dass “Night Sight” bei schlechten Lichtverhältnissen Wunder wirkt, und mit den Magic Editor-Tools, die wir bei anderen Pixels getestet haben, können Sie Ihre Fotos ganz einfach nachbearbeiten. Sie erhalten außerdem eine 13-Megapixel-Ultraweit-Kamera und eine 13-Megapixel-Selfie-Kamera, die beide 4K-Videos aufnehmen können.

Google

Samsung

Das Samsung Galaxy A56 hat eine 50-Megapixel-Hauptkamera, eine 12-Megapixel-Ultraweit-Kamera und eine 5-Megapixel-Makrolinse. Der Hauptsensor macht bei Tageslicht ordentliche Aufnahmen, hat aber bei schlechten Lichtverhältnissen etwas mehr zu kämpfen.

Wir erwarten, dass das Pixel hier besser abschneidet. Die 12-Megapixel-Frontkamera eignet sich gut für Selfies und Videotelefonate, bietet aber keine 4K-Videos.

Weitere Unterschiede

Sie können von beiden Geräten eine solide Leistung erwarten, aber es gibt einige wichtige Unterschiede, die Sie beachten sollten.

Das Pixel 9a wird von Googles Tensor G4 Chipsatz angetrieben, gepaart mit 8 Gigabyte RAM. Er ist nicht der schnellste Chip auf dem Markt, aber er ist auf KI-Aufgaben abgestimmt und eng in Android integriert, was eine reibungslose Nutzung im Alltag gewährleistet.

Wir haben ihn auf dem Pixel 9 verwendet und waren beeindruckt. Sie erhalten außerdem Zugang zu Googles kompletter Suite von Gemini AI-Funktionen, einschließlich Circle to Search, Gemini Live und Pixel Studio.

Das Galaxy A56 verwendet Samsungs Exynos 1580 Chip, ebenfalls gepaart mit 8 Gigabyte RAM. Er liefert eine respektable Leistung für alltägliche Aufgaben und gelegentliche Games, ist aber bei GPU-intensiven Aufgaben einen Schritt zurück. Die KI-Funktionen sind im Vergleich zum Pixel begrenzt, und Samsung behält seine besten Tools für die Galaxy-S-Reihe vor.

Das Pixel 9a ist außerdem nach IP68 zertifiziert und bietet damit eine bessere Wasser- und Staubresistenz als das Galaxy A56 (IP67). Keines der beiden Smartphones verfügt über einen microSD-Kartenslot. Beide sind mit 128 oder 256 Gigabyte Speicher erhältlich.

Preis & Verfügbarkeit

Das Pixel 9a kostet bei Google mit 128 Gigabyte Speicher 549 Euro kosten, die Version mit 256 Gigabyte schlägt mit 649 Euro zu Buche. Als Farboptionen stehen Iris, Peony, Porcelain und Obsidian zur Auswahl. Das Smartphone kommt offiziell Anfang April auf den Markt.

Das Galaxy A56 kostet in der Version mit 128 Gigabyte Speicher 479 Euro. Zum gleichen Preis steht aktuell auch die 256-Gigabyte-Ausführung zur Verfügung. Bei den Farben können Sie zwischen Pink, Olive, Lightgrey und Graphite wählen.

Da sich die Preise nur um etwa 70 Euro unterscheiden, hängt die Kaufentscheidung davon ab, welches Ökosystem Sie bevorzugen und welche Funktionen Ihnen wichtiger sind.

Fazit

Das Pixel 9a und das Galaxy A56 bieten beide ein beeindruckendes Preis-Leistungs-Verhältnis, aber sie sprechen unterschiedliche Nutzer an.

Das Pixel 9a verspricht ein besseres Kameraerlebnis, längeren Software-Support und ein helleres Display in einem kompakteren Formfaktor. Es ist eine gute Wahl, wenn Sie Wert auf Fotografie, KI-Funktionen und lange Software-Unterstützung legen.

Das Galaxy A56 bietet ein größeres Display, schnelleres kabelgebundenes Laden und ein Design, das sich eng an die Premium Galaxy S-Serie von Samsung anlehnt. Es ist ideal für Nutzer, die Samsungs One UI bevorzugen und ein größeres Smartphone wollen, ohne für ein Flaggschiff zu bezahlen.

Für die meisten Nutzer ist das Pixel 9a mit seiner Kombination aus Kamera und langlebiger Software die bessere Wahl. Aber wenn Sie Wert auf ein größeres Display und schnellere Ladezeiten legen, ist das A56 immer noch eine solide Wahl.

(PC-Welt)

Google Pixel 9a vs. Samsung Galaxy A56: Welches Smartphone soll ich kaufen?​ Weiterlesen »

13 Ratschläge: Der kleine Knigge für Video-Calls​

Allgemein

Auch virtuelle Kommunikation braucht Regeln: Wir haben die 13 wichtigsten für Sie zusammengefasst. Foto: Stockbakery – shutterstock.comMicrosoft Teams, Zoom, Skype, Google Meet, Bluejeans, Teamviewer, Webex – wir kennen sie alle. Jedes dieser Progrämmchen hat in den vergangenen Monaten Spuren hinterlassen, auf unseren Rechnern und in unseren Köpfen. Das ganze Netz ist gut gefüllt mit wohlmeinenden Ratgebern, aber manchmal entsteht der Eindruck, hier wird gesendet ohne Empfänger. Deshalb hier nochmal das Wichtigste zur Erinnerung.Zeigen Sie Gesicht! Schalten Sie ihre Kamera ein, solange die Übertragungsqualität nicht leidet! Nichts ist für Ihre Gesprächspartner demotivierender und ermüdender, als eine dunkle Kachel anzustarren. Menschen im Bewegtbild zu sehen, gibt der virtuellen Konferenz einen Human Touch. Es schafft Verbindung unter den Teilnehmern und hilft übrigens auch dem Organisator schnell zu erkennen, wer gerade spricht.Wenn Ihnen die Vorstellung zuwider ist, dass andere mitbekommen könnten, wie Sie in der Nase bohren oder Fingernägel knabbern, dann können sie den Hintergrund vernebeln (Blur-Effekt) oder die Kamera doch ausschalten. Dann allerdings wäre es gut, wenn Sie wenigstens mit einem netten Foto zu sehen wären, nicht mit Ihren nackten Versalien.Ist das Hintergrundbild okay?Videokonferenz-Dienste bieten oft eine Auswahl an Hintergrundbildern an oder die Möglichkeit, sich ein eigenes Hintergrundbild hochzuladen. Wer von dieser Möglichkeit Gebrauch machen (und die miesere Bildqualität in Kauf nehmen) möchte, sollte sich für ein seriöses Motiv entscheiden, gerne für ein Bild oder Logo des eigenen Unternehmens.Warum? Private Motive senden oft ungewollt Signale aus. Das Urlaubsbild sagt: Warum nur muss ich jetzt hier sein und dieses Gespräch führen? Das Bild von der eigenen Yacht oder dem neuen Tesla wirkt protzig, die Radtour in Funktionskleidung spießig und die Bücherwand gewollt belesen. Auch wenn sie gut gemeint sind: Solche Bilder lenken ab und setzen das Kopfkino der Gesprächspartner in Gang. Privat bleibt privat!Wer sich gegen ein statisches Hintergrundbild und für eine Live-Aufnahme aus seiner Arbeitsumgebung entscheidet, sollte sich erst einmal gründlich im eigenen Zimmer umschauen, bevor die Konferenz losgeht. Vielleicht findet es zum Beispiel der Kunde aus dem Mormonenstaat Utah nicht so lustig, wenn im Hintergrund gewagte Partybilder die Wand zieren, Karl Marx’ gesammelte Werke ins Auge stechen, oder das ungemachte Doppelbett auftaucht.Achten Sie auf die Lichtverhältnisse!Am besten sind Lichtquellen, die den Raum gleichmäßig und nicht zu hell ausleuchten. Dann kann die (hoffentlich halbwegs hochwertige!) Kamera Farben und Kontraste optimal darstellen. Zudem empfiehlt es sich, direkte Sonneneinstrahlung zu vermeiden, die Folge wäre ein unnatürlich dunkles Gesicht. Eine Videokonferenz muss auch nicht zwangsläufig mit dem grobkarierten Sofa im Hintergrund stattfinden, da solche unruhigen Muster zu einer gestörten Wahrnehmung führen können.Was soll ich bloß anziehen?Die ewige Frage “Was soll ich bloß anziehen” stellt sich im Homeoffice neu – wie sich seit Corona gezeigt habt, allerdings nicht jedem. Muscle-Shirts, uralte Hoodies, Trainingsjacken, sogar der nackte Oberkörper – was haben wir nicht schon alles zu sehen bekommen. Warum zeigen sich Menschen, die noch vor zwei Jahren im schicken Top oder Sakko bei der Arbeit aufkreuzten, im Video plötzlich in einer Worst-of-Kleiderschrank-Edition? Lassen Sie sich nicht gehen! Kleiden und schminken Sie sich wie in der Arbeit! Kleiner Trost: Ihre Hausschuhe können Sie anbehalten.Kinder und Haustiere sind süß, aber…Die Kolleginnen und Kollegen sind wahrscheinlich nicht so fasziniert und gerührt, wie Sie es gerne hätten. Natürlich: Jeder hat Verständnis dafür, dass Haustiere, Kinder, Schwiegermütter etc. in der Nähe srein können. Aber Dienst ist Dienst: Wenn es möglich ist, sollten private Dinge auch im Homeoffice von beruflichen getrennt werden. Vermeiden Sie Ablenkungen für die Menschen in Ihrer virtuellen Konferenz, es sei denn Sie treffen sich außer der Reihe zu einem Social Event – etwa zum Feierabendbier, wo Sie ohnehin eher Privates besprechen.Schon wieder “gemutet”In Video-Calls machen sich viele Kolleginnen und Kollegen nicht nur unsichtbar, sondern schalten sich auch stumm. “Herr X, Sie sind gemutet!” – den Satz hat jede/r schon vielfach gehört – mal sehen, wann “to mute oneself” vom Duden aufgenommen wird. Stellt sich die Frage, warum die Leute eigentlich ihren Ton ausstellen. Lärmt eine Baustelle im Hintergrund? Schreiende Kinder? Musik? Schnupfen? Wenn all das nicht der Fall ist, kann das Mikrofon getrost offenbleiben. Andererseits: In manch einem Meeting ist es auch ganz schön, den Kollegen X mal nicht zu hören…Nicht erlaubt: der Chat nebenbei Im Meeting nebenbei E-Mails zu beantworten, zu chatten oder eine WhatsApp-Nachricht zu schreiben, ist grob unhöflich, vor allem, wenn es die anderen registrieren. Solange Bild und Ton ausgeschaltet sind, ist es allerdings auch wieder egal. Dann schlägt die eine Unhöflichkeit die andere. Entscheiden Sie selbst, was Sie Ihren Gesprächspartnern zumuten wollen.Laden Sie nicht jede/n ein!Nie war es so einfach zu meeten, wie in diesen digitalen Zeiten. Nicht wenige redselige GesellInnen animiert dieser Umstand dazu, ein digitales Treffen nach dem anderen anzuberaumen. Eingeladen wird großzügig, denn je größer der Adressatenkreis, desto wichtiger der Initiator. Mal ehrlich: Halten Sie die Teilnehmergruppe so klein wie möglich! Und sorgen Sie für eine kurze, klare, vorab zugängliche Agenda. Keine schlechte Idee ist es auch, die Dauer der Veranstaltung von vornherein zu begrenzen. Pünktlichkeit ist die Tugend der KönigeNichts ist ärgerlicher und peinlicher, als wenn ausgerechnet der Initiator eines Meetings zu spät kommt. Nein – es ist definitiv nicht so, dass Spätankömmlinge als besonders wichtig wahrgenommen werden. Vielmehr fühlen sich die Teilnehmer nicht respektiert und wundern sich spätestens beim zweiten Mal über das schlechte Zeitmanagement und Benehmen des Kollegen. Wer ein Terminproblem hat, kann das den anderen auch noch kurzfristig vorher mitteilen und das Meeting verschieben. Wozu haben wir denn alle unsere schicken Smartphones in den Taschen?Suchen Sie AugenkontaktZugegeben, das ist nicht ganz einfach. Wenn vor ihnen zehn KollegInnen auf dem Bildschirm zu sehen sind und die Diskussion in vollem Gange ist, dann fällt es schwer, die Augen nicht auf die Sprecher, sondern auf einen ganz anderen Punkt, nämlich die Kamera, zu richten. Aber man kann es versuchen, und das richtige Arrangement des Equipments hilft dabei. Die Kamera sollte stets auf Augenhöhe oder leicht darüber angebracht sein. Für Notebook-Nutzer heißt das, zwei oder drei Bücher unter das Gerät zu legen. Und wenn Sie zwei Bildschirme nutzen: Lassen Sie die Konferenz auf dem Screen laufen, über dem die Kamera angebracht ist.Erst aufzeigen, dann reden!Wenn Sie in einer größeren Gruppe einen Wortbeitrag einbringen wollen, dann geben Sie ein digitales Handzeichen. So einfach wie es scheint, ist das allerdings nicht: Wir kennen all die Meetings, in denen fünf Kollegen etwas sagen wollen und jede Kontrolle über die Reihenfolge verlorengeht. Dennoch sorgt dieses Verfahren in der Regel dafür, dass auch die Schweigsameren (irgendwann) zu Wort kommen. In kleineren Calls ist das nicht nötig, da nimmt die Diskussion sogar eher Fahrt auf, wenn sich alle so verhalten, wie in einem realen Meeting.Peinlichkeiten im LivestreamDer Worst Case kommt zum Schluss: Sie streiten in Ihrem Büro mit einem Mitarbeiter oder dem Chef und vergessen dabei, dass die Videokonferenz noch läuft und Sie aktiv zu sehen und zu hören sind. In diesem Falle – können wir Ihnen auch nicht mehr helfen. 

13 Ratschläge: Der kleine Knigge für Video-Calls​ Auch virtuelle Kommunikation braucht Regeln: Wir haben die 13 wichtigsten für Sie zusammengefasst.
Foto: Stockbakery – shutterstock.comMicrosoft Teams, Zoom, Skype, Google Meet, Bluejeans, Teamviewer, Webex – wir kennen sie alle. Jedes dieser Progrämmchen hat in den vergangenen Monaten Spuren hinterlassen, auf unseren Rechnern und in unseren Köpfen. Das ganze Netz ist gut gefüllt mit wohlmeinenden Ratgebern, aber manchmal entsteht der Eindruck, hier wird gesendet ohne Empfänger. Deshalb hier nochmal das Wichtigste zur Erinnerung.Zeigen Sie Gesicht! Schalten Sie ihre Kamera ein, solange die Übertragungsqualität nicht leidet! Nichts ist für Ihre Gesprächspartner demotivierender und ermüdender, als eine dunkle Kachel anzustarren. Menschen im Bewegtbild zu sehen, gibt der virtuellen Konferenz einen Human Touch. Es schafft Verbindung unter den Teilnehmern und hilft übrigens auch dem Organisator schnell zu erkennen, wer gerade spricht.Wenn Ihnen die Vorstellung zuwider ist, dass andere mitbekommen könnten, wie Sie in der Nase bohren oder Fingernägel knabbern, dann können sie den Hintergrund vernebeln (Blur-Effekt) oder die Kamera doch ausschalten. Dann allerdings wäre es gut, wenn Sie wenigstens mit einem netten Foto zu sehen wären, nicht mit Ihren nackten Versalien.Ist das Hintergrundbild okay?Videokonferenz-Dienste bieten oft eine Auswahl an Hintergrundbildern an oder die Möglichkeit, sich ein eigenes Hintergrundbild hochzuladen. Wer von dieser Möglichkeit Gebrauch machen (und die miesere Bildqualität in Kauf nehmen) möchte, sollte sich für ein seriöses Motiv entscheiden, gerne für ein Bild oder Logo des eigenen Unternehmens.Warum? Private Motive senden oft ungewollt Signale aus. Das Urlaubsbild sagt: Warum nur muss ich jetzt hier sein und dieses Gespräch führen? Das Bild von der eigenen Yacht oder dem neuen Tesla wirkt protzig, die Radtour in Funktionskleidung spießig und die Bücherwand gewollt belesen. Auch wenn sie gut gemeint sind: Solche Bilder lenken ab und setzen das Kopfkino der Gesprächspartner in Gang. Privat bleibt privat!Wer sich gegen ein statisches Hintergrundbild und für eine Live-Aufnahme aus seiner Arbeitsumgebung entscheidet, sollte sich erst einmal gründlich im eigenen Zimmer umschauen, bevor die Konferenz losgeht. Vielleicht findet es zum Beispiel der Kunde aus dem Mormonenstaat Utah nicht so lustig, wenn im Hintergrund gewagte Partybilder die Wand zieren, Karl Marx’ gesammelte Werke ins Auge stechen, oder das ungemachte Doppelbett auftaucht.Achten Sie auf die Lichtverhältnisse!Am besten sind Lichtquellen, die den Raum gleichmäßig und nicht zu hell ausleuchten. Dann kann die (hoffentlich halbwegs hochwertige!) Kamera Farben und Kontraste optimal darstellen. Zudem empfiehlt es sich, direkte Sonneneinstrahlung zu vermeiden, die Folge wäre ein unnatürlich dunkles Gesicht. Eine Videokonferenz muss auch nicht zwangsläufig mit dem grobkarierten Sofa im Hintergrund stattfinden, da solche unruhigen Muster zu einer gestörten Wahrnehmung führen können.Was soll ich bloß anziehen?Die ewige Frage “Was soll ich bloß anziehen” stellt sich im Homeoffice neu – wie sich seit Corona gezeigt habt, allerdings nicht jedem. Muscle-Shirts, uralte Hoodies, Trainingsjacken, sogar der nackte Oberkörper – was haben wir nicht schon alles zu sehen bekommen. Warum zeigen sich Menschen, die noch vor zwei Jahren im schicken Top oder Sakko bei der Arbeit aufkreuzten, im Video plötzlich in einer Worst-of-Kleiderschrank-Edition? Lassen Sie sich nicht gehen! Kleiden und schminken Sie sich wie in der Arbeit! Kleiner Trost: Ihre Hausschuhe können Sie anbehalten.Kinder und Haustiere sind süß, aber…Die Kolleginnen und Kollegen sind wahrscheinlich nicht so fasziniert und gerührt, wie Sie es gerne hätten. Natürlich: Jeder hat Verständnis dafür, dass Haustiere, Kinder, Schwiegermütter etc. in der Nähe srein können. Aber Dienst ist Dienst: Wenn es möglich ist, sollten private Dinge auch im Homeoffice von beruflichen getrennt werden. Vermeiden Sie Ablenkungen für die Menschen in Ihrer virtuellen Konferenz, es sei denn Sie treffen sich außer der Reihe zu einem Social Event – etwa zum Feierabendbier, wo Sie ohnehin eher Privates besprechen.Schon wieder “gemutet”In Video-Calls machen sich viele Kolleginnen und Kollegen nicht nur unsichtbar, sondern schalten sich auch stumm. “Herr X, Sie sind gemutet!” – den Satz hat jede/r schon vielfach gehört – mal sehen, wann “to mute oneself” vom Duden aufgenommen wird. Stellt sich die Frage, warum die Leute eigentlich ihren Ton ausstellen. Lärmt eine Baustelle im Hintergrund? Schreiende Kinder? Musik? Schnupfen? Wenn all das nicht der Fall ist, kann das Mikrofon getrost offenbleiben. Andererseits: In manch einem Meeting ist es auch ganz schön, den Kollegen X mal nicht zu hören…Nicht erlaubt: der Chat nebenbei Im Meeting nebenbei E-Mails zu beantworten, zu chatten oder eine WhatsApp-Nachricht zu schreiben, ist grob unhöflich, vor allem, wenn es die anderen registrieren. Solange Bild und Ton ausgeschaltet sind, ist es allerdings auch wieder egal. Dann schlägt die eine Unhöflichkeit die andere. Entscheiden Sie selbst, was Sie Ihren Gesprächspartnern zumuten wollen.Laden Sie nicht jede/n ein!Nie war es so einfach zu meeten, wie in diesen digitalen Zeiten. Nicht wenige redselige GesellInnen animiert dieser Umstand dazu, ein digitales Treffen nach dem anderen anzuberaumen. Eingeladen wird großzügig, denn je größer der Adressatenkreis, desto wichtiger der Initiator. Mal ehrlich: Halten Sie die Teilnehmergruppe so klein wie möglich! Und sorgen Sie für eine kurze, klare, vorab zugängliche Agenda. Keine schlechte Idee ist es auch, die Dauer der Veranstaltung von vornherein zu begrenzen.

Pünktlichkeit ist die Tugend der KönigeNichts ist ärgerlicher und peinlicher, als wenn ausgerechnet der Initiator eines Meetings zu spät kommt. Nein – es ist definitiv nicht so, dass Spätankömmlinge als besonders wichtig wahrgenommen werden. Vielmehr fühlen sich die Teilnehmer nicht respektiert und wundern sich spätestens beim zweiten Mal über das schlechte Zeitmanagement und Benehmen des Kollegen. Wer ein Terminproblem hat, kann das den anderen auch noch kurzfristig vorher mitteilen und das Meeting verschieben. Wozu haben wir denn alle unsere schicken Smartphones in den Taschen?Suchen Sie AugenkontaktZugegeben, das ist nicht ganz einfach. Wenn vor ihnen zehn KollegInnen auf dem Bildschirm zu sehen sind und die Diskussion in vollem Gange ist, dann fällt es schwer, die Augen nicht auf die Sprecher, sondern auf einen ganz anderen Punkt, nämlich die Kamera, zu richten. Aber man kann es versuchen, und das richtige Arrangement des Equipments hilft dabei. Die Kamera sollte stets auf Augenhöhe oder leicht darüber angebracht sein. Für Notebook-Nutzer heißt das, zwei oder drei Bücher unter das Gerät zu legen. Und wenn Sie zwei Bildschirme nutzen: Lassen Sie die Konferenz auf dem Screen laufen, über dem die Kamera angebracht ist.Erst aufzeigen, dann reden!Wenn Sie in einer größeren Gruppe einen Wortbeitrag einbringen wollen, dann geben Sie ein digitales Handzeichen. So einfach wie es scheint, ist das allerdings nicht: Wir kennen all die Meetings, in denen fünf Kollegen etwas sagen wollen und jede Kontrolle über die Reihenfolge verlorengeht. Dennoch sorgt dieses Verfahren in der Regel dafür, dass auch die Schweigsameren (irgendwann) zu Wort kommen. In kleineren Calls ist das nicht nötig, da nimmt die Diskussion sogar eher Fahrt auf, wenn sich alle so verhalten, wie in einem realen Meeting.Peinlichkeiten im LivestreamDer Worst Case kommt zum Schluss: Sie streiten in Ihrem Büro mit einem Mitarbeiter oder dem Chef und vergessen dabei, dass die Videokonferenz noch läuft und Sie aktiv zu sehen und zu hören sind. In diesem Falle – können wir Ihnen auch nicht mehr helfen.

13 Ratschläge: Der kleine Knigge für Video-Calls​ Weiterlesen »

Sicher und anonym surfen: So werden Sie (fast) unsichtbar im Netz​

Allgemein

Anonym im Netz? Bleibt ein schöner Traum. Dennoch können Sie Maßnahmen ergreifen, um Ihre Privatsphäre zu schützen – so gut es eben geht. Foto: frankies – shutterstock.com Im Unternehmensumfeld sorgt ein Erhalt der Mitarbeiter-Privatsphäre dafür, Risiken von Social-Engineering-Angriffen oder Erpressung zu reduzieren. Denn je mehr kriminell motivierte Angreifer über die Schlüsselpersonen innerhalb einer Organisation in Erfahrung bringen können, desto zielgerichteter und effektiver fallen ihre Attacken aus. Deswegen sollten die Aufklärung und Schulung der Mitarbeiter darüber, wie diese ihre Privatsphäre bestmöglich schützen, grundlegender Bestandteil jedes Security-Awareness-Programms sein. Dabei können Sie konkrete, spezifische Maßnahmen und Vorkehrungen treffen, um Ihre Privatsphäre – und die Ihrer Mitarbeiter – zu schützen. Das kostet Sie Energie und Zeit – und erfordert darüber hinaus auch ein wenig technisches Knowhow. Wir sagen Ihnen, wie Sie sich in acht Schritten (fast) anonym und sicher durch das weltweite Netz bewegen. Dabei noch ein Hinweis: Privatsphäre und Anonymität sind nicht synonym. Machen Sie sich keine Illusionen – einhundertprozentige Anonymität im Netz gibt es in der digitalisierten Welt nicht. Alles was Sie tun können ist, Ihre Privatsphäre so gut wie möglich zu schützen. Signal Signal ist eine Messaging App für verschlüsselte Kommunikation. Text- und Sprachnachrichten können hiermit genauso gesendet und empfangen werden wie Video- und Audioanrufe. Dabei fühlt sich Signal genauso an wie jede andere Messaging App – nutzt aber Verschlüsselung, die (zumindest nach aktuellem Stand) nicht einmal die NSA knacken kann. Was die Metadaten angeht: Jeder Widersacher auf Netzwerk-Ebene kann sehen, dass Sie Signal nutzen. Wenn es sich bei diesen Widersachern um Geheimdienste handelt, können diese sehr wahrscheinlich auch ermitteln, mit wem, wann und wie lange sie kommunizieren. Die Macher von Signal sind sich dieser technischen Limitationen durchaus bewusst und forschen an Mitteln und Wegen, um das Problem zu lösen. Bislang bleibt eine Metadaten-resistente Kommunikation allerdings ein schöner Traum. Nichtsdestotrotz ist Signal die sicherste und benutzerfreundlichste Messaging App, die derzeit zur Verfügung steht und bietet deutlich mehr Privatsphäre als jedes ihrer populäreren Pendants. Anonym kommunizieren Sie jedoch auch mit Signal nicht – wobei das, wie bereits erwähnt, heutzutage generell kaum möglich ist. Tor Das größte und effektivste Metadaten-resistente Softwareprojekt ist immer noch Tor. Doch auch hier bestehen technische Limitationen, die bislang trotz ausufernder Security-Forschung noch nicht beseitigt werden konnten. Tor ist für Webbrowsing mit niedriger Latenz optimiert und unterstützt lediglich TCP. Beim Versuch, diverse bekannte Webseiten aufzurufen, wird Tor zudem nicht funktionieren, da die meisten dieser Seiten den Zugang via Tor grundsätzlich blockieren. Zwar garantiert auch Tor keine hundertprozentige Anonymität beim Surfen im Netz – aber es ist in dieser Hinsicht das beste verfügbare Werkzeug. Wie so viele Dinge im Leben ist auch das Tor-Projekt ein zweischneidiges Schwert: Einerseits wird es von Journalisten und Bloggern genutzt, um anonym zu recherchieren oder zu publizieren, andererseits wird es auch von kriminellen Hackern für diverse böswillige Zwecke eingesetzt. Sollten Sie mal wieder jemandem begegnen, der sich über das “böse Darkweb” beschwert, gegen das endlich jemand etwas unternehmen sollte – erinnern sie diesen Jemand gerne daran, dass Bankräuber nach getaner “Arbeit” auch vom Tatort flüchten, jedoch niemand auf die Idee kommt, Autos und Straßen verbieten zu wollen. Vor allem für die mobile Nutzung sollten Sie auf den Tor-Browser setzen. Es gibt eine offizielle App für Android-Geräte und eine vom Tor-Projekt autorisierte, aber inoffizielle App für iOS. VPNs Virtual Private Networks bieten keine Anonymität. Weil aber jeder VPNs in einem Artikel wie diesem erwartet, räumen wir an dieser Stelle direkt mit diesem Mythos auf. Alles, was ein VPN tut, ist, den Traffic von Ihrem Internetanbieter – oder, falls Sie unterwegs sind, dem Hotel- oder Flughafen-WiFi – über einen verschlüsselten Tunnel umzuleiten. Es gibt viele legitime Gründe, VPNs zu nutzen – Anonymität gehört nicht dazu. Nicht einmal ansatzweise. Im Gegensatz zu Tor – das Ihren Traffic über drei verschiedene, im weltweiten Netz verteilte Knotenpunkte leitet und es potenziellen Widersachern dadurch schwer (wenn auch nicht unmöglich) macht, zu sehen was Sie da tun – leitet ein Virtual Private Network einfach um. Der VPN-Provider ist also in der Lage, ihre Aktivitäten jederzeit nachzuvollziehen. Das bedeutet auf der anderen Seite, dass böswillige oder staatliche Akteure, die sich Zugang zu den VPN-Servern verschaffen – sei es per Hack oder Gerichtsbeschluss – das ebenso gut können. Damit wir uns richtig verstehen: VPNs sind eine gute Sache. Nutzen Sie sie, wann immer Sie können. Erwarten Sie aber keine Anonymität. Zero Knowledge Services Google kann jede E-Mail, die Sie schreiben und erhalten, einsehen. Office 365 scannt jede Zeile, die Sie verfassen. DropBox analysiert jeden Ihrer Uploads. Jedes dieser Unternehmen – und viele andere – sind PRISM Provider, kooperieren im Rahmen von Massenüberwachungsprogrammen mit staatlichen Akteuren. Wenn Sie die Services dieser Unternehmen nutzen, fällt Privatsphäre also grundsätzlich aus. Gegensteuern könnten Sie natürlich, indem Sie Ihre Daten vor dem Upload verschlüsseln. Dazu könnten Sie sich zum Beispiel Kenntnisse im Umgang mit PGP aneignen. Oder Sie entscheiden sich für Provider, die sich dem Zero-Knowledge-Prinzip verpflichten. Dabei können Sie sich allerdings auch nie sicher sein, dass entsprechende staatliche Akteure auch in diesen Fällen über entsprechende Hintertürchen verfügen. Mögliche Alternativen bieten beispielsweise Firmen wie SpiderOak in den USA, die Zero Knowledge File Storage anbieten oder der Schweizer Anbieter Protonmail, der damit wirbt, dass es für Dritte rein mathematisch unmöglich sei, die Inhalte Ihrer E-Mails einzusehen. Wir wollen Ihnen keinen der genannten Services empfehlen – es handelt sich lediglich um Beispiele für Zero-Knowledge-Anbieter und entbindet Sie nicht von der Pflicht, vor der Nutzung solcher Services entsprechende Hintergrundrecherchen über die Anbieter zu betreiben. Social Media Online-Privatsphäre heißt auch, dass Sie selbst darüber entscheiden, was Sie mit der Welt teilen wollen und was nicht. Wenn sich in Ihrem (Arbeits-)Leben Dinge abspielen, die nicht dazu geeignet sind, mit einer breiten Öffentlichkeit geteilt zu werden, sollten Sie folglich auch vermeiden, diese über Social-Media-Plattformen zu verbreiten. Dieser Themenkomplex ist ohne Zweifel auch eine Generationenfrage: Während ältere Menschen im Regelfall beim Gedanken daran erschaudern, ihr Privatleben auf Social-Media-Kanälen mit der Welt zu teilen, hält das Gros der Generation Smartphone es für völlig normal, jeden Aspekt ihres Lebens “share-bar” zu machen. Sie sollten vor jedem Posting auf sozialen Kanälen das große Ganze im Auge behalten: Ein einzelner Post mag unbedeutend erscheinen – aber tut er das in Kombination mit den übrigen verfügbaren Informationen über Ihr Leben immer noch? Überlegen Sie sich vor dem Klick auf den Button ganz genau, welches Gesamtbild Ihr Beitrag erzeugen könnte. App-Berechtigungen Mobile Apps – egal ob auf Android– oder iOS-Geräten – tendieren generell dazu, weit mehr Berechtigungen als nötig “einzufordern”. Die Folge ist, dass persönliche Daten ganz regelmäßig extrahiert und an den App-Hersteller übertragen werden. Braucht jede App wirklich Zugriff auf das Mikrofon Ihres Smartphones, Ihren Aufenthaltsort oder Ihr Adressbuch? Auch wenn es sowohl unter Android als auch unter iOS etwas umständlich und kompliziert ist: Wühlen Sie sich durch die entsprechenden Einstellungen und schalten Sie unnötige App-Berechtigungen ganz konsequent ab. Dabei gilt: Lieber eine Berechtigung zu viel als zu wenig verwehren. Ad Blocker Heutiges Online Advertising ist mit dem der frühen Online-Jahre nicht mehr zu vergleichen: Statt einer Anzeige für alle Nutzer, überwachen heutige Advertising-Netzwerke Ihr Nutzungsverhalten und liefern gezielt auf Ihre Interessen zugeschnittene Werbeanzeigen aus. Das ist das maßgebliche Geschäftsmodell der Silicon-Valley-Giganten. Google und Facebook etwa verfolgen jeder Ihrer Schritte im World Wide Web – auch wenn Sie keinen Account dort haben beziehungsweise nicht eingeloggt sind. Die Installation eines AdBlockers ist dagegen zwar auch kein Allheilmittel – aber ein Holzschwert ist immer noch besser, als gar keine Waffe zur Verteidigung am Start zu haben. Es gibt einige Webbrowser, die Werbeanzeigen und Tracker standardmäßig blockieren – auch Browser-Erweiterungen stehen zu diesem Zweck zur Verfügung. Eine andere Möglichkeit: Sie nehmen den DNS-Requests der Werbenetzwerke bereits auf lokalem Router-Level den Wind aus den Segeln. Home Assistants Wenn Sie Wert auf Privatsphäre und ein möglichst hohes Level an Online-Anonymität legen, sollten Sie dafür Sorge tragen, dass smarte Lautsprecher keinen Platz in Ihrem Zuhause finden. Amazon Echo, Google Home und Konsorten sind permanent online und wirken absolut toxisch in Sachen Privatsphäre – noch dazu gibt es keinen Weg, diese Devices so zu konfigurieren, dass sie weniger invasiv wirken. Dass solche Gerätschaften inzwischen quasi allgegenwärtig sind, macht die Sache nicht besser: Um Ihre Privatsphäre über den Jordan zu schicken, reicht unter Umständen bereits aus, dass Ihre Nachbarn sich an einem smarten Lautsprecher “erfreuen”. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Sicher und anonym surfen: So werden Sie (fast) unsichtbar im Netz​ Anonym im Netz? Bleibt ein schöner Traum. Dennoch können Sie Maßnahmen ergreifen, um Ihre Privatsphäre zu schützen – so gut es eben geht.
Foto: frankies – shutterstock.com

Im Unternehmensumfeld sorgt ein Erhalt der Mitarbeiter-Privatsphäre dafür, Risiken von Social-Engineering-Angriffen oder Erpressung zu reduzieren. Denn je mehr kriminell motivierte Angreifer über die Schlüsselpersonen innerhalb einer Organisation in Erfahrung bringen können, desto zielgerichteter und effektiver fallen ihre Attacken aus.

Deswegen sollten die Aufklärung und Schulung der Mitarbeiter darüber, wie diese ihre Privatsphäre bestmöglich schützen, grundlegender Bestandteil jedes Security-Awareness-Programms sein. Dabei können Sie konkrete, spezifische Maßnahmen und Vorkehrungen treffen, um Ihre Privatsphäre – und die Ihrer Mitarbeiter – zu schützen. Das kostet Sie Energie und Zeit – und erfordert darüber hinaus auch ein wenig technisches Knowhow.

Wir sagen Ihnen, wie Sie sich in acht Schritten (fast) anonym und sicher durch das weltweite Netz bewegen. Dabei noch ein Hinweis: Privatsphäre und Anonymität sind nicht synonym. Machen Sie sich keine Illusionen – einhundertprozentige Anonymität im Netz gibt es in der digitalisierten Welt nicht. Alles was Sie tun können ist, Ihre Privatsphäre so gut wie möglich zu schützen.

Signal

Signal ist eine Messaging App für verschlüsselte Kommunikation. Text- und Sprachnachrichten können hiermit genauso gesendet und empfangen werden wie Video- und Audioanrufe. Dabei fühlt sich Signal genauso an wie jede andere Messaging App – nutzt aber Verschlüsselung, die (zumindest nach aktuellem Stand) nicht einmal die NSA knacken kann. Was die Metadaten angeht: Jeder Widersacher auf Netzwerk-Ebene kann sehen, dass Sie Signal nutzen. Wenn es sich bei diesen Widersachern um Geheimdienste handelt, können diese sehr wahrscheinlich auch ermitteln, mit wem, wann und wie lange sie kommunizieren.

Die Macher von Signal sind sich dieser technischen Limitationen durchaus bewusst und forschen an Mitteln und Wegen, um das Problem zu lösen. Bislang bleibt eine Metadaten-resistente Kommunikation allerdings ein schöner Traum. Nichtsdestotrotz ist Signal die sicherste und benutzerfreundlichste Messaging App, die derzeit zur Verfügung steht und bietet deutlich mehr Privatsphäre als jedes ihrer populäreren Pendants. Anonym kommunizieren Sie jedoch auch mit Signal nicht – wobei das, wie bereits erwähnt, heutzutage generell kaum möglich ist.

Tor

Das größte und effektivste Metadaten-resistente Softwareprojekt ist immer noch Tor. Doch auch hier bestehen technische Limitationen, die bislang trotz ausufernder Security-Forschung noch nicht beseitigt werden konnten. Tor ist für Webbrowsing mit niedriger Latenz optimiert und unterstützt lediglich TCP. Beim Versuch, diverse bekannte Webseiten aufzurufen, wird Tor zudem nicht funktionieren, da die meisten dieser Seiten den Zugang via Tor grundsätzlich blockieren.

Zwar garantiert auch Tor keine hundertprozentige Anonymität beim Surfen im Netz – aber es ist in dieser Hinsicht das beste verfügbare Werkzeug. Wie so viele Dinge im Leben ist auch das Tor-Projekt ein zweischneidiges Schwert: Einerseits wird es von Journalisten und Bloggern genutzt, um anonym zu recherchieren oder zu publizieren, andererseits wird es auch von kriminellen Hackern für diverse böswillige Zwecke eingesetzt.

Sollten Sie mal wieder jemandem begegnen, der sich über das “böse Darkweb” beschwert, gegen das endlich jemand etwas unternehmen sollte – erinnern sie diesen Jemand gerne daran, dass Bankräuber nach getaner “Arbeit” auch vom Tatort flüchten, jedoch niemand auf die Idee kommt, Autos und Straßen verbieten zu wollen. Vor allem für die mobile Nutzung sollten Sie auf den Tor-Browser setzen. Es gibt eine offizielle App für Android-Geräte und eine vom Tor-Projekt autorisierte, aber inoffizielle App für iOS.

VPNs

Virtual Private Networks bieten keine Anonymität. Weil aber jeder VPNs in einem Artikel wie diesem erwartet, räumen wir an dieser Stelle direkt mit diesem Mythos auf. Alles, was ein VPN tut, ist, den Traffic von Ihrem Internetanbieter – oder, falls Sie unterwegs sind, dem Hotel- oder Flughafen-WiFi – über einen verschlüsselten Tunnel umzuleiten. Es gibt viele legitime Gründe, VPNs zu nutzen – Anonymität gehört nicht dazu. Nicht einmal ansatzweise.

Im Gegensatz zu Tor – das Ihren Traffic über drei verschiedene, im weltweiten Netz verteilte Knotenpunkte leitet und es potenziellen Widersachern dadurch schwer (wenn auch nicht unmöglich) macht, zu sehen was Sie da tun – leitet ein Virtual Private Network einfach um. Der VPN-Provider ist also in der Lage, ihre Aktivitäten jederzeit nachzuvollziehen. Das bedeutet auf der anderen Seite, dass böswillige oder staatliche Akteure, die sich Zugang zu den VPN-Servern verschaffen – sei es per Hack oder Gerichtsbeschluss – das ebenso gut können.

Damit wir uns richtig verstehen: VPNs sind eine gute Sache. Nutzen Sie sie, wann immer Sie können. Erwarten Sie aber keine Anonymität.

Zero Knowledge Services

Google kann jede E-Mail, die Sie schreiben und erhalten, einsehen. Office 365 scannt jede Zeile, die Sie verfassen. DropBox analysiert jeden Ihrer Uploads. Jedes dieser Unternehmen – und viele andere – sind PRISM Provider, kooperieren im Rahmen von Massenüberwachungsprogrammen mit staatlichen Akteuren. Wenn Sie die Services dieser Unternehmen nutzen, fällt Privatsphäre also grundsätzlich aus.

Gegensteuern könnten Sie natürlich, indem Sie Ihre Daten vor dem Upload verschlüsseln. Dazu könnten Sie sich zum Beispiel Kenntnisse im Umgang mit PGP aneignen. Oder Sie entscheiden sich für Provider, die sich dem Zero-Knowledge-Prinzip verpflichten. Dabei können Sie sich allerdings auch nie sicher sein, dass entsprechende staatliche Akteure auch in diesen Fällen über entsprechende Hintertürchen verfügen.

Mögliche Alternativen bieten beispielsweise Firmen wie SpiderOak in den USA, die Zero Knowledge File Storage anbieten oder der Schweizer Anbieter Protonmail, der damit wirbt, dass es für Dritte rein mathematisch unmöglich sei, die Inhalte Ihrer E-Mails einzusehen. Wir wollen Ihnen keinen der genannten Services empfehlen – es handelt sich lediglich um Beispiele für Zero-Knowledge-Anbieter und entbindet Sie nicht von der Pflicht, vor der Nutzung solcher Services entsprechende Hintergrundrecherchen über die Anbieter zu betreiben.

Social Media

Online-Privatsphäre heißt auch, dass Sie selbst darüber entscheiden, was Sie mit der Welt teilen wollen und was nicht. Wenn sich in Ihrem (Arbeits-)Leben Dinge abspielen, die nicht dazu geeignet sind, mit einer breiten Öffentlichkeit geteilt zu werden, sollten Sie folglich auch vermeiden, diese über Social-Media-Plattformen zu verbreiten.

Dieser Themenkomplex ist ohne Zweifel auch eine Generationenfrage: Während ältere Menschen im Regelfall beim Gedanken daran erschaudern, ihr Privatleben auf Social-Media-Kanälen mit der Welt zu teilen, hält das Gros der Generation Smartphone es für völlig normal, jeden Aspekt ihres Lebens “share-bar” zu machen.

Sie sollten vor jedem Posting auf sozialen Kanälen das große Ganze im Auge behalten: Ein einzelner Post mag unbedeutend erscheinen – aber tut er das in Kombination mit den übrigen verfügbaren Informationen über Ihr Leben immer noch? Überlegen Sie sich vor dem Klick auf den Button ganz genau, welches Gesamtbild Ihr Beitrag erzeugen könnte.

App-Berechtigungen

Mobile Apps – egal ob auf Android– oder iOS-Geräten – tendieren generell dazu, weit mehr Berechtigungen als nötig “einzufordern”. Die Folge ist, dass persönliche Daten ganz regelmäßig extrahiert und an den App-Hersteller übertragen werden. Braucht jede App wirklich Zugriff auf das Mikrofon Ihres Smartphones, Ihren Aufenthaltsort oder Ihr Adressbuch?

Auch wenn es sowohl unter Android als auch unter iOS etwas umständlich und kompliziert ist: Wühlen Sie sich durch die entsprechenden Einstellungen und schalten Sie unnötige App-Berechtigungen ganz konsequent ab. Dabei gilt: Lieber eine Berechtigung zu viel als zu wenig verwehren.

Ad Blocker

Heutiges Online Advertising ist mit dem der frühen Online-Jahre nicht mehr zu vergleichen: Statt einer Anzeige für alle Nutzer, überwachen heutige Advertising-Netzwerke Ihr Nutzungsverhalten und liefern gezielt auf Ihre Interessen zugeschnittene Werbeanzeigen aus. Das ist das maßgebliche Geschäftsmodell der Silicon-Valley-Giganten. Google und Facebook etwa verfolgen jeder Ihrer Schritte im World Wide Web – auch wenn Sie keinen Account dort haben beziehungsweise nicht eingeloggt sind.

Die Installation eines AdBlockers ist dagegen zwar auch kein Allheilmittel – aber ein Holzschwert ist immer noch besser, als gar keine Waffe zur Verteidigung am Start zu haben. Es gibt einige Webbrowser, die Werbeanzeigen und Tracker standardmäßig blockieren – auch Browser-Erweiterungen stehen zu diesem Zweck zur Verfügung. Eine andere Möglichkeit: Sie nehmen den DNS-Requests der Werbenetzwerke bereits auf lokalem Router-Level den Wind aus den Segeln.

Home Assistants

Wenn Sie Wert auf Privatsphäre und ein möglichst hohes Level an Online-Anonymität legen, sollten Sie dafür Sorge tragen, dass smarte Lautsprecher keinen Platz in Ihrem Zuhause finden. Amazon Echo, Google Home und Konsorten sind permanent online und wirken absolut toxisch in Sachen Privatsphäre – noch dazu gibt es keinen Weg, diese Devices so zu konfigurieren, dass sie weniger invasiv wirken.

Dass solche Gerätschaften inzwischen quasi allgegenwärtig sind, macht die Sache nicht besser: Um Ihre Privatsphäre über den Jordan zu schicken, reicht unter Umständen bereits aus, dass Ihre Nachbarn sich an einem smarten Lautsprecher “erfreuen”. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Sicher und anonym surfen: So werden Sie (fast) unsichtbar im Netz​ Weiterlesen »

8 rettende Sätze in heiklen Mitarbeitergesprächen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Einstudierte Formulierungen tragen als „kommunikative Werkzeuge“ dazu bei, in herausfordernden Gesprächssituationen flexibel zu reagieren und sicher aufzutreten.PeopleImages.com – Yuri A – Shutterstock 2548727679 Führungskräfte müssen in ihrem Arbeitsalltag oft schwierige Gespräche führen. So zum Beispiel, wenn es gilt, einer Person eine kritische Rückmeldung zu geben oder einen Konflikt im Team zu lösen. Auch in Verhandlungen mit Kunden kann es zu heiklen Situationen kommen.   All diese Aufgaben stellen für die Betroffenen stets auch eine emotionale Herausforderung dar. Denn in solchen Momenten schaltet das Gehirn oft in den „Kampf-“ oder „Flucht-Modus“. Der Mensch neigt also wie in einer Bedrohungssituation dazu, entweder zu fliehen oder anzugreifen. Das heißt wiederum:   Rationale Gedanken und Überlegungen rücken in den Hintergrund und  wir sind aufgrund unserer emotionalen Anspannung nicht mehr wie gewohnt so flexibel im Formulieren guter, der Situation angemessener Fragen und Antworten.     In heiklen Gesprächssituationen nicht den Kopf verlieren Aber wie gelingt es in solchen Stresssituationen, in die wir – mal vorsehbar, mal unverhofft – geraten, die innere Ruhe zu bewahren und die Dynamik weiterhin positiv zu beeinflussen? Unter anderem, indem wir im Gespräch der Situation angemessene Formulierungen verwenden. Deshalb ist es vorteilhaft, für solche Situationen passende Sätze parat beziehungsweise verinnerlicht zu haben.  Als Coach und Trainerin werde ich oft gefragt: „Gibt es ein Rezept für schwierige Gespräche?“ Ein Patentrezept gibt es zumindest nicht, denn sowohl die an solchen Gesprächen beteiligten Personen als auch die jeweiligen Situationen und Konstellationen sind sehr verschieden. Trotzdem erhoffen sich viele Menschen erprobte Ansätze, die ihnen Sicherheit geben und weiterhelfen.     Wie sage ich das bloß? Acht Sätze, die weiterhelfen Deshalb habe ich nachfolgend acht Sätze aufgelistet, die sich im Führungs- und Arbeitsalltag bewährt haben, unter anderem, weil sie auf eine partnerschaftliche Lösung abzielen. Deshalb werden sie auch als empathisch empfunden und sind vielseitig einsetzbar.   Satz 1: „Was wäre für Sie in dieser Situation eine akzeptable Lösung?“  Situation: Der Gesprächspartner blockiert oder zeigt Widerstand.  Weshalb der Satz hilft: Oft neigen wir dazu, andere Menschen von unserer Lösung überzeugen zu wollen und diese sozusagen als „alternativlos“ zu präsentieren. Doch Druck bewirkt meist Gegendruck und erzeugt häufig Widerstand. Dieser Satz zeigt, dass Sie bereit sind, die Perspektive des anderen zu berücksichtigen und signalisiert Offenheit. Indem Sie Ihren Gesprächspartner in die Lösung einbinden, fördern Sie eine konstruktive Zusammenarbeit und Sie schaffen den Raum für gemeinsame (neue) Ideen.   Satz 2: „Lassen Sie uns kurz innehalten: Mir ist es wichtig, dass wir gemeinsam eine konstruktive, tragfähige Lösung finden.“  Situation: Ein Gespräch droht zu eskalieren oder wird hitzig.  Weshalb der Satz hilft: Dieser Satz wirkt wie ein „Stoppsignal“ für eine eskalierende Dynamik. Er lenkt den Fokus auf das Ziel des Gesprächs und hilft, die Situation zu beruhigen. Zugleich vermittelt er den Wunsch nach Zusammenarbeit.  Satz 3: „Ich schätze Sie und Ihre Arbeit sehr. Deshalb möchte ich folgenden Punkt offen ansprechen.“  Situation: Wenn heikle Themen angesprochen werden müssen, die zur Belastung der Beziehung führen könnten.  Weshalb der Satz hilft: Dieser Satz zeigt, dass Ihre kritische Rückmeldung nicht auf einer mangelnden Wertschätzung Ihres Gegenübers basiert. Indem Sie zunächst Ihre Anerkennung ausdrücken, schaffen Sie die Grundlage für ein offenes, zielführendes Gespräch, bei dem Ihr Gesprächspartner sich nicht angegriffen fühlt.  Satz 4: „Ich habe das Gefühl, dass etwas Wichtiges noch unausgesprochen ist. Ist das so und möchten Sie hierüber sprechen?“   Situation: Wenn Sie spüren, dass Ihr Gesprächspartner zögert oder sich unwohl fühlt.  Weshalb der Satz hilft: Dieser Satz schafft Raum für eine ehrliche Kommunikation. Er zeigt, dass Sie auch die nonverbale beziehungsweise emotionale Gesprächsebene wahrnehmen und bereit sind, zum Beispiel auch über solche persönlichen Dinge wie (diffuse) Ängste und Befürchtungen, Hoffnungen und Erwartungen zu sprechen. Das löst oft Spannungen und Blockaden und führt zu einem tiefergehenden Dialog.  Satz 5: „Ich möchte gerne sicherstellen, dass wir beide vom Gleichen sprechen und dasselbe meinen. Wie sehen Sie das?“  Situation: Wenn es um wichtige Entscheidungen oder potenzielle Missverständnisse und divergierende Interessen geht.  Weshalb der Satz hilft: Dieser Satz signalisiert ein aktives Zuhören und sorgt für Klarheit. Eventuelle Missverständnisse – zum Beispiel aufgrund der unterschiedlichen Position/Funktion – können erkannt und aus dem Weg geräumt werden, bevor sie zu größeren Problemen führen.  Satz 6: „Lassen Sie uns eine kurze Pause machen, um unsere Gedanken zu sortieren, und danach ruhig, mit einem klaren Kopf weitersprechen.“  Situation: Ein Gespräch wird zu emotional oder ist festgefahren.  Weshalb der Satz hilft: Eine Pause schafft Raum, um sich zu sammeln und die Emotionen zu beruhigen. Beide Seiten können anschließend mit neuer Energie und einem klaren Fokus weitermachen.   Satz 7: „Was wäre für Sie in dieser Situation der ideale nächste Schritt?“  Situation: Wenn jemand Verantwortung übernehmen soll und Sie die Eigeninitiative Ihres Gesprächspartners fördern möchten.  Weshalb der Satz hilft: Dieser Satz fordert Ihren Gesprächspartner auf, aktiv mitzudenken und Vorschläge zu machen. Das Wort „Schritt“ ist dabei besonders hilfreich, da es ein Aktiv-werden sowie zielorientiertes in Bewegung-kommen signalisiert. Es regt dazu an, handlungsorientiert zu denken statt sich in abstrakten, diffusen Konzepten zu verlieren. Das fördert die Eigenverantwortung und -initiative und klärt die Erwartungen auf eine umsetzbare Art und Weise.  Satz 8: „Ich verstehe, dass das im Moment schwierig ist. Was können wir tun, um es für Sie einfacher zu machen?“  Situation: Wenn der Gesprächspartner mit einer Herausforderung zu kämpfen hat.  Weshalb der Satz hilft: Empathie gepaart mit einer gezeigten, konkreten Hilfsbereitschaft senkt den Druck, der auf Ihrem Gesprächspartner lastet, ohne ihn aus der Verantwortung zu entlassen. Das Wörtchen „Wir“ in dem Satz impliziert, dass die Situation nicht einseitig bearbeitet wird. Es zeigt, dass Sie die Herausforderung als solche wahrnehmen und deshalb aktiv Unterstützung anbieten. Zugleich bindet es den Partner in den Prozess ein und fordert ihn auf, (Mit-)Verantwortung zu übernehmen und nach praktikablen Lösungen zu suchen.    So setzen Sie die Rettungssätze erfolgreich ein Tipp 1: Passen Sie die vorgenannten exemplarischen Formulierungen Ihrem Stil und der jeweiligen Situation an. Authentizität zählt!  Tipp 2: Kombinieren Sie die Sätze mit aktiven Zuhörtechniken, um den Dialog weiter zu stärken.  Tipp 3: Übung macht den Meister; überlegen Sie, in welchen Situationen beziehungsweise Gesprächen Sie einen dieser Sätze ausprobieren könnten.  Das Lernen hilfreicher Satzformulierungen ähnelt dem Erlernen von Schlüsselsätzen in einer neuen Sprache. Anfangs fühlt es sich oft ungewohnt an, doch je häufiger Sie die Sätze benutzen, desto natürlicher werden sie für Sie. So wie beim Sprachenlernen ermöglichen Ihnen diese „kommunikativen Werkzeuge“, in herausfordernden Situationen flexibel zu reagieren und sicher aufzutreten. Und ebenso wie beim Erlernen einer neuen Sprache gilt: Übung und Wiederholung sind der Schlüssel zum Erfolg.  

8 rettende Sätze in heiklen Mitarbeitergesprächen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Mitarbeitergesprach-shutterstock_2548727679.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Einstudierte Formulierungen tragen als „kommunikative Werkzeuge“ dazu bei, in herausfordernden Gesprächssituationen flexibel zu reagieren und sicher aufzutreten.PeopleImages.com – Yuri A – Shutterstock 2548727679

Führungskräfte müssen in ihrem Arbeitsalltag oft schwierige Gespräche führen. So zum Beispiel, wenn es gilt, einer Person eine kritische Rückmeldung zu geben oder einen Konflikt im Team zu lösen. Auch in Verhandlungen mit Kunden kann es zu heiklen Situationen kommen.  

All diese Aufgaben stellen für die Betroffenen stets auch eine emotionale Herausforderung dar. Denn in solchen Momenten schaltet das Gehirn oft in den „Kampf-“ oder „Flucht-Modus“. Der Mensch neigt also wie in einer Bedrohungssituation dazu, entweder zu fliehen oder anzugreifen. Das heißt wiederum:  

Rationale Gedanken und Überlegungen rücken in den Hintergrund und 

wir sind aufgrund unserer emotionalen Anspannung nicht mehr wie gewohnt so flexibel im Formulieren guter, der Situation angemessener Fragen und Antworten. 

  

In heiklen Gesprächssituationen nicht den Kopf verlieren

Aber wie gelingt es in solchen Stresssituationen, in die wir – mal vorsehbar, mal unverhofft – geraten, die innere Ruhe zu bewahren und die Dynamik weiterhin positiv zu beeinflussen? Unter anderem, indem wir im Gespräch der Situation angemessene Formulierungen verwenden. Deshalb ist es vorteilhaft, für solche Situationen passende Sätze parat beziehungsweise verinnerlicht zu haben. 

Als Coach und Trainerin werde ich oft gefragt: „Gibt es ein Rezept für schwierige Gespräche?“ Ein Patentrezept gibt es zumindest nicht, denn sowohl die an solchen Gesprächen beteiligten Personen als auch die jeweiligen Situationen und Konstellationen sind sehr verschieden. Trotzdem erhoffen sich viele Menschen erprobte Ansätze, die ihnen Sicherheit geben und weiterhelfen.  

 

Wie sage ich das bloß? Acht Sätze, die weiterhelfen

Deshalb habe ich nachfolgend acht Sätze aufgelistet, die sich im Führungs- und Arbeitsalltag bewährt haben, unter anderem, weil sie auf eine partnerschaftliche Lösung abzielen. Deshalb werden sie auch als empathisch empfunden und sind vielseitig einsetzbar.  

Satz 1: „Was wäre für Sie in dieser Situation eine akzeptable Lösung?“ 

Situation: Der Gesprächspartner blockiert oder zeigt Widerstand. 

Weshalb der Satz hilft: Oft neigen wir dazu, andere Menschen von unserer Lösung überzeugen zu wollen und diese sozusagen als „alternativlos“ zu präsentieren. Doch Druck bewirkt meist Gegendruck und erzeugt häufig Widerstand. Dieser Satz zeigt, dass Sie bereit sind, die Perspektive des anderen zu berücksichtigen und signalisiert Offenheit. Indem Sie Ihren Gesprächspartner in die Lösung einbinden, fördern Sie eine konstruktive Zusammenarbeit und Sie schaffen den Raum für gemeinsame (neue) Ideen.  

Satz 2: „Lassen Sie uns kurz innehalten: Mir ist es wichtig, dass wir gemeinsam eine konstruktive, tragfähige Lösung finden.“ 

Situation: Ein Gespräch droht zu eskalieren oder wird hitzig. 

Weshalb der Satz hilft: Dieser Satz wirkt wie ein „Stoppsignal“ für eine eskalierende Dynamik. Er lenkt den Fokus auf das Ziel des Gesprächs und hilft, die Situation zu beruhigen. Zugleich vermittelt er den Wunsch nach Zusammenarbeit. 

Satz 3: „Ich schätze Sie und Ihre Arbeit sehr. Deshalb möchte ich folgenden Punkt offen ansprechen.“ 

Situation: Wenn heikle Themen angesprochen werden müssen, die zur Belastung der Beziehung führen könnten. 

Weshalb der Satz hilft: Dieser Satz zeigt, dass Ihre kritische Rückmeldung nicht auf einer mangelnden Wertschätzung Ihres Gegenübers basiert. Indem Sie zunächst Ihre Anerkennung ausdrücken, schaffen Sie die Grundlage für ein offenes, zielführendes Gespräch, bei dem Ihr Gesprächspartner sich nicht angegriffen fühlt. 

Satz 4: „Ich habe das Gefühl, dass etwas Wichtiges noch unausgesprochen ist. Ist das so und möchten Sie hierüber sprechen?“  

Situation: Wenn Sie spüren, dass Ihr Gesprächspartner zögert oder sich unwohl fühlt. 

Weshalb der Satz hilft: Dieser Satz schafft Raum für eine ehrliche Kommunikation. Er zeigt, dass Sie auch die nonverbale beziehungsweise emotionale Gesprächsebene wahrnehmen und bereit sind, zum Beispiel auch über solche persönlichen Dinge wie (diffuse) Ängste und Befürchtungen, Hoffnungen und Erwartungen zu sprechen. Das löst oft Spannungen und Blockaden und führt zu einem tiefergehenden Dialog. 

Satz 5: „Ich möchte gerne sicherstellen, dass wir beide vom Gleichen sprechen und dasselbe meinen. Wie sehen Sie das?“ 

Situation: Wenn es um wichtige Entscheidungen oder potenzielle Missverständnisse und divergierende Interessen geht. 

Weshalb der Satz hilft: Dieser Satz signalisiert ein aktives Zuhören und sorgt für Klarheit. Eventuelle Missverständnisse – zum Beispiel aufgrund der unterschiedlichen Position/Funktion – können erkannt und aus dem Weg geräumt werden, bevor sie zu größeren Problemen führen. 

Satz 6: „Lassen Sie uns eine kurze Pause machen, um unsere Gedanken zu sortieren, und danach ruhig, mit einem klaren Kopf weitersprechen.“ 

Situation: Ein Gespräch wird zu emotional oder ist festgefahren. 

Weshalb der Satz hilft: Eine Pause schafft Raum, um sich zu sammeln und die Emotionen zu beruhigen. Beide Seiten können anschließend mit neuer Energie und einem klaren Fokus weitermachen.  

Satz 7: „Was wäre für Sie in dieser Situation der ideale nächste Schritt?“ 

Situation: Wenn jemand Verantwortung übernehmen soll und Sie die Eigeninitiative Ihres Gesprächspartners fördern möchten. 

Weshalb der Satz hilft: Dieser Satz fordert Ihren Gesprächspartner auf, aktiv mitzudenken und Vorschläge zu machen. Das Wort „Schritt“ ist dabei besonders hilfreich, da es ein Aktiv-werden sowie zielorientiertes in Bewegung-kommen signalisiert. Es regt dazu an, handlungsorientiert zu denken statt sich in abstrakten, diffusen Konzepten zu verlieren. Das fördert die Eigenverantwortung und -initiative und klärt die Erwartungen auf eine umsetzbare Art und Weise. 

Satz 8: „Ich verstehe, dass das im Moment schwierig ist. Was können wir tun, um es für Sie einfacher zu machen?“ 

Situation: Wenn der Gesprächspartner mit einer Herausforderung zu kämpfen hat. 

Weshalb der Satz hilft: Empathie gepaart mit einer gezeigten, konkreten Hilfsbereitschaft senkt den Druck, der auf Ihrem Gesprächspartner lastet, ohne ihn aus der Verantwortung zu entlassen. Das Wörtchen „Wir“ in dem Satz impliziert, dass die Situation nicht einseitig bearbeitet wird. Es zeigt, dass Sie die Herausforderung als solche wahrnehmen und deshalb aktiv Unterstützung anbieten. Zugleich bindet es den Partner in den Prozess ein und fordert ihn auf, (Mit-)Verantwortung zu übernehmen und nach praktikablen Lösungen zu suchen. 

 

So setzen Sie die Rettungssätze erfolgreich ein

Tipp 1: Passen Sie die vorgenannten exemplarischen Formulierungen Ihrem Stil und der jeweiligen Situation an. Authentizität zählt! 

Tipp 2: Kombinieren Sie die Sätze mit aktiven Zuhörtechniken, um den Dialog weiter zu stärken. 

Tipp 3: Übung macht den Meister; überlegen Sie, in welchen Situationen beziehungsweise Gesprächen Sie einen dieser Sätze ausprobieren könnten. 

Das Lernen hilfreicher Satzformulierungen ähnelt dem Erlernen von Schlüsselsätzen in einer neuen Sprache. Anfangs fühlt es sich oft ungewohnt an, doch je häufiger Sie die Sätze benutzen, desto natürlicher werden sie für Sie. So wie beim Sprachenlernen ermöglichen Ihnen diese „kommunikativen Werkzeuge“, in herausfordernden Situationen flexibel zu reagieren und sicher aufzutreten. Und ebenso wie beim Erlernen einer neuen Sprache gilt: Übung und Wiederholung sind der Schlüssel zum Erfolg. 

8 rettende Sätze in heiklen Mitarbeitergesprächen​ Weiterlesen »

JavaScript-Tutorial: Mit Promises asynchron programmieren​

Allgemein

Promises sind ein wichtiger und nützlicher Aspekt von JavaScript, der bei zahlreichen asynchronen Programmier-Tasks unterstützen kann. Foto: CobraCZ | shutterstock.com Promises stellen in JavaScript einen zentralen Mechanismus dar, um asynchronen Code zu händeln. Sie sind Bestandteil diverser Bibliotheken und Frameworks und werden genutzt, um die Resultate einer Aktion zu managen. Die fetch()-API ist ein Beispiel für Promises im Praxiseinsatz. Selbst wenn Sie als Entwickler nicht damit vertraut sind, Promises außerhalb eines bestehenden Produkts zu erstellen und zu nutzen, gestaltet es sich überraschend simpel, das zu erlernen. Das trägt nicht nur zu einem besseren Verständnis darüber bei, wie Promises von Bibliotheken genutzt werden, sondern gibt Ihnen auch das richtige Tool für asynchrone Programmieraufgaben an die Hand. Die in diesem Tutorial behandelten Elemente sind ausschließlich High-Level-Komponenten. Asynchron programmieren mit JavaScript Promises Im folgenden Beispiel nutzen wir ein Promise, um die Ergebnisse einer Netzwerkoperation zu verarbeiten. Statt eines Netzwerk-Calls verwenden wir einfach einen Timeout: function fetchData() { return new Promise((resolve, reject) => { setTimeout(() => { const data = “This is the fetched data!”; resolve(data); }, 2000); }); } const promise = fetchData(); promise.then((data) => { console.log(“This will print second:”, data); }); console.log(“This will print first.”); In diesem Beispiel definieren wir eine Funktion fetchData(), die ein Promise zurückgibt. Wir callen die Methode und speichern das Promise in der entsprechenden Variable. Anschließend werden die Resultate mit der Promise.then()-Methode verarbeitet. Die Essenz dieses Beispiels: Der fetchData()-Call erfolgt unmittelbar im Code-Fluss – der an then() übergebene Callback hingegen erst, wenn die asynchrone Operation abgeschlossen ist. Beim Blick auf fetchData() wird klar, dass es ein Promise-Objekt definiert. Dieses Objekt nimmt eine Funktion mit zwei Argumenten an: resolve und reject. Ein erfolgreiches Promise wird resolve aufrufen – falls es ein Problem gibt, geht der Call an reject. In unserem Beispiel simulieren wir das Ergebnis eines Netzwerk-Calls, indem wir resolve aufrufen und einen String zurückgeben. In vielen Fällen wird ein Promise aufgerufen und direkt verarbeitet. Zum Bespiel folgendermaßen: fetchData().then((data) => { console.log(“This will print second:”, data); }); Wir betrachten nun den Fehler als Aspekt. In unserem Beispiel können wir eine Fehlerbedingung simulieren: function fetchData() { return new Promise((resolve, reject) => { setTimeout(() => { if (Math.random() reject(“An error occurred while fetching data!”); } else { const data = “This is the fetched data!”; resolve(data); } }, 2000); }); } In etwa der Hälfte der Fälle wird das Promise in diesem Code in Form eines reject()-Calls fehlschlagen. In der Praxis könnte es dazu kommen, wenn der Netzwerk-Call fehlschlägt oder der Server einen Fehler zurückgibt. Um Fehler beim Aufruf von fetchData() zu händeln, nutzen wir catch(): fetchData().then((data) => { console.log(“That was a good one:”, data); }).catch((error) => { console.log(“That was an error:”, error) }); Wenn Sie diesen Code mehrere Male ausführen, erhalten Sie einen Mix aus Fehlern und Erfolgen. Alles in allem ein simpler Weg, um asynchrones Verhalten zu beschreiben und zu konsumieren. Promise Chains in JavaScript Ein wesentlicher Benefit von Promises in JavaScript: Sie lassen sich zu einer Kette verknüpfen. Das hilft dabei, verschachtelte Callbacks zu verhindern und vereinfacht asycnhrones Error Handling. Wir bleiben bei unserem fetchData()-Funktionsbeispiel – und ergänzen dieses um eine processData()-Funktion. Die hängt wiederum von den Resultaten der fetchData()-Funktion ab. Wir könnten nun die Verarbeitungslogik innerhalb des Return Calls von fetchData() einbetten. Allerdings erlauben Promises ein deutlich saubereres Vorgehen: function processData(data) { return new Promise((resolve, reject) => { setTimeout(() => { const processedData = data + ” – Processed”; resolve(processedData); }, 1000); }); } fetchData() .then((data) => { console.log(“Fetched data:”, data); return processData(data); }) .then((processedData) => { console.log(“Processed data:”, processedData); }) .catch((error) => { console.error(“Error:”, error); }); Wenn Sie diesen Code mehrmals ausführen, werden Sie feststellen, dass fetchData() im Erfolgsfall beide then()-Methoden korrekt aufruft. Schlägt die Funktion hingegen fehl, wird die gesamte Promise Chain “kurzgeschlossen” – und das abschließende catch() aufgerufen. Das funktioniert ganz ähnlich wie try/catch-Blöcke. Würden Sie catch() bereits nach dem ersten then() einfügen, wäre ersteres nur für fetchData()-Fehler zuständig. In unserem Beispiel wird catch() sowohl die fetchData()– als auch die processData()-Fehler behandeln. Der Schlüssel hierzu: Der then()-Handler von fetchData() gibt das Promise von processData(data) zurück. Dadurch können sie miteinander verkettet werden. 5 Wege, JavaScript Promises zu nutzen Promise.finally() Ebenso wie try/catch ein finally() erzeugt, wird Promise.finally() unabhängig davon ausgeführt, was in der Promise Chain vonstattengeht: fetchData() .then((data) => { console.log(“Fetched data:”, data); return processData(data); }) .then((processedData) => { console.log(“Processed data:”, processedData); }) .catch((error) => { console.error(“Error:”, error); }) .finally(() => { console.log(“Cleaning up.”); }) Das ist vor allem dann nützlich, wenn Sie etwas zwingend erledigen müssen, etwa eine Connection schließen. Promise.all() Im nächsten Szenario nehmen wir an, mehrere Calls parallel tätigen zu müssen. Genauer gesagt handelt es sich um zwei Network Requests, deren Ergebnisse benötigt werden. Wenn eine der beiden Anfragen fehlschlägt, scheitert auch die gesamte Operation. Für diesen Fall könnte der obige Promise-Chain-Ansatz zum Einsatz kommen. Das ist allerdings nicht ideal, da das voraussetzt, dass ein Request abgeschlossen wird, bevor der nächste beginnt. Deshalb nutzen wir stattdessen Promise.all(): Promise.all([fetchData(), fetchOtherData()]) .then((data) => { // data is an array console.log(“Fetched all data:”, data); }) .catch((error) => { console.error(“An error occurred with Promise.all:”, error); }); Weil JavaScript mit einem einzigen Thread arbeitet, laufen diese Operationen zwar nicht wirklich parallel ab – kommen dem aber sehr nahe: Die JavaScript-Engine ist in der Lage, einen Request zu initiieren und währenddessen einen weiteren zu starten. Wenn eines der an Promise.all() übergebenen Promises fehlschlägt, wird die gesamte Execution gestoppt und zum bereitgestellten catch() weitergeleitet. In dieser Hinsicht könnte man Promise.all() das Attribut “fail fast” zuschreiben. Darüber hinaus können Sie finally() auch in Kombination mit Promise.all() verwenden. Das wird sich erwartungsgemäß verhalten und in jedem Fall ausgeführt, egal wie das Promises-Set ausfällt. Mit der then()-Methode erhalten Sie ein Array, bei dem jedes Element dem übergebenen Promise entspricht. Das sieht in etwa folgendermaßen aus: Promise.all([fetchData(), fetchData2()]) .then((data) => { console.log(“FetchData() = ” + data[0] + ” fetchMoreData() = ” + data[1] ); }) Promise.race() Es kann vorkommen, dass Sie es mit mehreren asynchronen Tasks zu tun bekommen – aber nur der erste erfolgreich sein muss. Etwa, wenn zwei redundante Services existieren und Sie den schnelleren von beiden verwenden wollen. Für das nachfolgende Beispiel nehmen wir an, dass fetchData() und fetchSameData() zwei Möglichkeiten darstellen, identische Informationen anzufordern – und beide geben Promises zurück. An dieser Stelle können Sie race() einsetzen, um das zu managen: Promise.race([fetchData(), fetchSameData()]) .then((data) => { console.log(“First data received:”, data); }); Das führt in der Konsequenz dazu, dass der then()-Callback nur einen Rückgabewert für Daten erhält – und zwar den des “siegreichen” (schnellsten) Promise. Fehler werden bei race() leicht nuanciert: Wenn das zurückgewiesene Promise als erstes auftritt, endet das “race” und es folgt ein Call an catch(). Wenn das zurückgewiesene Promise auftritt, nachdem ein anderes aufgelöst wurde, wird der Fehler ignoriert. Promise.allSettled() Wenn Sie warten möchten, bis eine Collection asynchroner Operationen abgeschlossen ist, (unabhängig davon, ob sie fehlschlagen oder erfolgreich sind) können Sie dazu allSettled() verwenden. Zum Beispiel wie folgt: Promise.allSettled([fetchData(), fetchMoreData()]).then((results) => results.forEach((result) => console.log(result.status)), ); Das results-Argument, das an den then()-Handler übergeben wird, enthält ein Array, das die Ergebnisse der Operationen beschreibt: [0: {status: ‘fulfilled’, value: “This is the fetched data!”}, 1: {status: ‘rejected’, reason: undefined}] Sie erhalten also ein Statusfeld, das entweder fulfilled (resolved) oder rejected wird. In erstgenanntem Fall enthält der Wert das von resolve() aufgerufene Argument. Im Fall abgelehnter Promises wird das reason-Feld mit der Fehlerursache befüllt (insofern eine solche angegeben wurde). Promise.withResolvers() Die Spezifikationen zu ECMAScript 2024 enthalten eine statische Promise-Methode namens withResolvers(). Diese wird bereits von den meisten Webbrowsern und Server-seitigen Umgebungen unterstützt. Die neue Methode erlaubt es, ein Promise zusammen mit den resolve– und reject-Funktionen als unabhängige Variablen zu deklarieren und sie dabei im selben Scope zu halten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

JavaScript-Tutorial: Mit Promises asynchron programmieren​ Promises sind ein wichtiger und nützlicher Aspekt von JavaScript, der bei zahlreichen asynchronen Programmier-Tasks unterstützen kann.
Foto: CobraCZ | shutterstock.com

Promises stellen in JavaScript einen zentralen Mechanismus dar, um asynchronen Code zu händeln. Sie sind Bestandteil diverser Bibliotheken und Frameworks und werden genutzt, um die Resultate einer Aktion zu managen. Die fetch()-API ist ein Beispiel für Promises im Praxiseinsatz.

Selbst wenn Sie als Entwickler nicht damit vertraut sind, Promises außerhalb eines bestehenden Produkts zu erstellen und zu nutzen, gestaltet es sich überraschend simpel, das zu erlernen. Das trägt nicht nur zu einem besseren Verständnis darüber bei, wie Promises von Bibliotheken genutzt werden, sondern gibt Ihnen auch das richtige Tool für asynchrone Programmieraufgaben an die Hand. Die in diesem Tutorial behandelten Elemente sind ausschließlich High-Level-Komponenten.

Asynchron programmieren mit JavaScript Promises

Im folgenden Beispiel nutzen wir ein Promise, um die Ergebnisse einer Netzwerkoperation zu verarbeiten. Statt eines Netzwerk-Calls verwenden wir einfach einen Timeout:

function fetchData() {

return new Promise((resolve, reject) => {

setTimeout(() => {

const data = “This is the fetched data!”;

resolve(data);

}, 2000);

});

}

const promise = fetchData();

promise.then((data) => {

console.log(“This will print second:”, data);

});

console.log(“This will print first.”);

In diesem Beispiel definieren wir eine Funktion fetchData(), die ein Promise zurückgibt. Wir callen die Methode und speichern das Promise in der entsprechenden Variable. Anschließend werden die Resultate mit der Promise.then()-Methode verarbeitet. Die Essenz dieses Beispiels: Der fetchData()-Call erfolgt unmittelbar im Code-Fluss – der an then() übergebene Callback hingegen erst, wenn die asynchrone Operation abgeschlossen ist.

Beim Blick auf fetchData() wird klar, dass es ein Promise-Objekt definiert. Dieses Objekt nimmt eine Funktion mit zwei Argumenten an: resolve und reject. Ein erfolgreiches Promise wird resolve aufrufen – falls es ein Problem gibt, geht der Call an reject. In unserem Beispiel simulieren wir das Ergebnis eines Netzwerk-Calls, indem wir resolve aufrufen und einen String zurückgeben.

In vielen Fällen wird ein Promise aufgerufen und direkt verarbeitet. Zum Bespiel folgendermaßen:

fetchData().then((data) => {

console.log(“This will print second:”, data);

});

Wir betrachten nun den Fehler als Aspekt. In unserem Beispiel können wir eine Fehlerbedingung simulieren:

function fetchData() {

return new Promise((resolve, reject) => {

setTimeout(() => {

if (Math.random()

reject(“An error occurred while fetching data!”);

} else {

const data = “This is the fetched data!”;

resolve(data);

}

}, 2000);

});

}

In etwa der Hälfte der Fälle wird das Promise in diesem Code in Form eines reject()-Calls fehlschlagen. In der Praxis könnte es dazu kommen, wenn der Netzwerk-Call fehlschlägt oder der Server einen Fehler zurückgibt. Um Fehler beim Aufruf von fetchData() zu händeln, nutzen wir catch():

fetchData().then((data) => {

console.log(“That was a good one:”, data);

}).catch((error) => {

console.log(“That was an error:”, error)

});

Wenn Sie diesen Code mehrere Male ausführen, erhalten Sie einen Mix aus Fehlern und Erfolgen. Alles in allem ein simpler Weg, um asynchrones Verhalten zu beschreiben und zu konsumieren.

Promise Chains in JavaScript

Ein wesentlicher Benefit von Promises in JavaScript: Sie lassen sich zu einer Kette verknüpfen. Das hilft dabei, verschachtelte Callbacks zu verhindern und vereinfacht asycnhrones Error Handling.

Wir bleiben bei unserem fetchData()-Funktionsbeispiel – und ergänzen dieses um eine processData()-Funktion. Die hängt wiederum von den Resultaten der fetchData()-Funktion ab. Wir könnten nun die Verarbeitungslogik innerhalb des Return Calls von fetchData() einbetten. Allerdings erlauben Promises ein deutlich saubereres Vorgehen:

function processData(data) {

return new Promise((resolve, reject) => {

setTimeout(() => {

const processedData = data + ” – Processed”;

resolve(processedData);

}, 1000);

});

}

fetchData()

.then((data) => {

console.log(“Fetched data:”, data);

return processData(data);

})

.then((processedData) => {

console.log(“Processed data:”, processedData);

})

.catch((error) => {

console.error(“Error:”, error);

});

Wenn Sie diesen Code mehrmals ausführen, werden Sie feststellen, dass fetchData() im Erfolgsfall beide then()-Methoden korrekt aufruft. Schlägt die Funktion hingegen fehl, wird die gesamte Promise Chain “kurzgeschlossen” – und das abschließende catch() aufgerufen. Das funktioniert ganz ähnlich wie try/catch-Blöcke.

Würden Sie catch() bereits nach dem ersten then() einfügen, wäre ersteres nur für fetchData()-Fehler zuständig. In unserem Beispiel wird catch() sowohl die fetchData()– als auch die processData()-Fehler behandeln. Der Schlüssel hierzu: Der then()-Handler von fetchData() gibt das Promise von processData(data) zurück. Dadurch können sie miteinander verkettet werden.

5 Wege, JavaScript Promises zu nutzen

Promise.finally()

Ebenso wie try/catch ein finally() erzeugt, wird Promise.finally() unabhängig davon ausgeführt, was in der Promise Chain vonstattengeht:

fetchData()

.then((data) => {

console.log(“Fetched data:”, data);

return processData(data);

})

.then((processedData) => {

console.log(“Processed data:”, processedData);

})

.catch((error) => {

console.error(“Error:”, error);

})

.finally(() => {

console.log(“Cleaning up.”);

})

Das ist vor allem dann nützlich, wenn Sie etwas zwingend erledigen müssen, etwa eine Connection schließen.

Promise.all()

Im nächsten Szenario nehmen wir an, mehrere Calls parallel tätigen zu müssen. Genauer gesagt handelt es sich um zwei Network Requests, deren Ergebnisse benötigt werden. Wenn eine der beiden Anfragen fehlschlägt, scheitert auch die gesamte Operation. Für diesen Fall könnte der obige Promise-Chain-Ansatz zum Einsatz kommen. Das ist allerdings nicht ideal, da das voraussetzt, dass ein Request abgeschlossen wird, bevor der nächste beginnt. Deshalb nutzen wir stattdessen Promise.all():

Promise.all([fetchData(), fetchOtherData()])

.then((data) => { // data is an array

console.log(“Fetched all data:”, data);

})

.catch((error) => {

console.error(“An error occurred with Promise.all:”, error);

});

Weil JavaScript mit einem einzigen Thread arbeitet, laufen diese Operationen zwar nicht wirklich parallel ab – kommen dem aber sehr nahe: Die JavaScript-Engine ist in der Lage, einen Request zu initiieren und währenddessen einen weiteren zu starten.

Wenn eines der an Promise.all() übergebenen Promises fehlschlägt, wird die gesamte Execution gestoppt und zum bereitgestellten catch() weitergeleitet. In dieser Hinsicht könnte man Promise.all() das Attribut “fail fast” zuschreiben. Darüber hinaus können Sie finally() auch in Kombination mit Promise.all() verwenden. Das wird sich erwartungsgemäß verhalten und in jedem Fall ausgeführt, egal wie das Promises-Set ausfällt.

Mit der then()-Methode erhalten Sie ein Array, bei dem jedes Element dem übergebenen Promise entspricht. Das sieht in etwa folgendermaßen aus:

Promise.all([fetchData(), fetchData2()])

.then((data) => {

console.log(“FetchData() = ” + data[0] + ” fetchMoreData() = ” + data[1] );

})

Promise.race()

Es kann vorkommen, dass Sie es mit mehreren asynchronen Tasks zu tun bekommen – aber nur der erste erfolgreich sein muss. Etwa, wenn zwei redundante Services existieren und Sie den schnelleren von beiden verwenden wollen.

Für das nachfolgende Beispiel nehmen wir an, dass fetchData() und fetchSameData() zwei Möglichkeiten darstellen, identische Informationen anzufordern – und beide geben Promises zurück. An dieser Stelle können Sie race() einsetzen, um das zu managen:

Promise.race([fetchData(), fetchSameData()])

.then((data) => {

console.log(“First data received:”, data);

});

Das führt in der Konsequenz dazu, dass der then()-Callback nur einen Rückgabewert für Daten erhält – und zwar den des “siegreichen” (schnellsten) Promise.

Fehler werden bei race() leicht nuanciert: Wenn das zurückgewiesene Promise als erstes auftritt, endet das “race” und es folgt ein Call an catch(). Wenn das zurückgewiesene Promise auftritt, nachdem ein anderes aufgelöst wurde, wird der Fehler ignoriert.

Promise.allSettled()

Wenn Sie warten möchten, bis eine Collection asynchroner Operationen abgeschlossen ist, (unabhängig davon, ob sie fehlschlagen oder erfolgreich sind) können Sie dazu allSettled() verwenden. Zum Beispiel wie folgt:

Promise.allSettled([fetchData(), fetchMoreData()]).then((results) =>

results.forEach((result) => console.log(result.status)),

);

Das results-Argument, das an den then()-Handler übergeben wird, enthält ein Array, das die Ergebnisse der Operationen beschreibt:

[0: {status: ‘fulfilled’, value: “This is the fetched data!”},

1: {status: ‘rejected’, reason: undefined}]

Sie erhalten also ein Statusfeld, das entweder fulfilled (resolved) oder rejected wird. In erstgenanntem Fall enthält der Wert das von resolve() aufgerufene Argument. Im Fall abgelehnter Promises wird das reason-Feld mit der Fehlerursache befüllt (insofern eine solche angegeben wurde).

Promise.withResolvers()

Die Spezifikationen zu ECMAScript 2024 enthalten eine statische Promise-Methode namens withResolvers(). Diese wird bereits von den meisten Webbrowsern und Server-seitigen Umgebungen unterstützt. Die neue Methode erlaubt es, ein Promise zusammen mit den resolve– und reject-Funktionen als unabhängige Variablen zu deklarieren und sie dabei im selben Scope zu halten. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

JavaScript-Tutorial: Mit Promises asynchron programmieren​ Weiterlesen »

Vorsicht vor „agentenähnlicher“ KI​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Nicht genug damit, dass die aktuellen Tools noch keine ‚echten KI-Agenten‘ sind – es lauern auch zahlreiche Gefahren bei der Einführung.fewerton – shutterstock.com In den vergangenen Monaten gab es eine explosionsartige Zunahme neuer „agentenähnlicher“ KI-Tools, die Arbeitsabläufe in Produktivitätsanwendungen automatisieren können. Analysten empfehlen Unternehmen jedoch, die Risiken einer Einführung im Vorfeld sorgfältig abzuwägen.  Etikettenschwindel bei KI-Agenten  „Unternehmensleiter müssen eine Strategie entwickeln, wie sie Agentic AI im eigentlichen Sinne bewerten und zugleich eine Governance für diese Lösungen festlegen“, erklärt JP Gownder, Vice President und Principal Analyst im Future of Work-Team von Forrester.  Gownder betont, dass diese Tools noch keine ‚echten KI-Agenten‘ seien, sondern vielmehr ‚agentenähnliche‘ Tools, wie Forrester sie bezeichnet. „Agentenähnliche Lösungen können punktuelle Probleme lösen, sind aber nicht die ‘digitalen Mitarbeiter’, von denen die Anbieter sprechen – zumindest noch nicht“, so Gownder.  KI-Agenten, die Mitarbeiter bei ihrer Arbeit unterstützen sollen, indem sie bestimmte Aufgaben (fast) automatisch erledigen, liegen aktuell im Trend. Google und Microsoft haben KI-Plugins für ihre Produktivitätssuiten entwickelt, während Drittanbieter eigene anbieten.  Auf seiner Cloud-Next-Konferenz stellte Google kürzlich neue KI-Tools für seine Workspace-Suite vor, mit denen sich die Arbeit in verschiedenen Produktivitätsanwendungen automatisieren lässt. So kann Workspace Flows eine Reihe von Aufgaben automatisieren, die bei der Überprüfung von Dokumenten, Anfragen im Kunden-Support oder Produktanalysen anfallen. Die neue „Help me analyze“-Funktion in Google Sheets wiederum kann Informationen aus Tabellen auslesen und sofort Analysen und Einblicke liefern.   Auch die Roadmap von Microsoft 365 listet zahlreiche künftige Copilot-Funktionen auf, darunter Tools, um Word-Dokumente, Lernassistenten und HR-Tools automatisiert zu erstellen.  Kürzlich stellte auch Anthropic eine Integration seines Claude-KI-Modells für Gmail, Google Kalender und Google Docs vor. Damit sollen Nutzer laut Unternehmensangaben per E-Mail „einen tieferen Einblick in den Arbeitskontext“ erhalten – etwa, indem sie E-Mails durchsuchen, Dokumente überprüfen und Kalendereinträge scannen.  „Ob bei Projektmanagement, Reiseplanung oder privaten Aufgaben – Claude versteht nun den vollständigen Kontext und kann besser unterstützen. Aktivieren Sie dazu die Google Workspace-Beta in den Einstellungen“, teilte Anthropic mit.  Auch Adobe arbeitet an einem Adobe Express AI Agent für Microsoft 365, der via Copilot multimediale Inhalte und Präsentationen erstellen kann.  Vorsicht beim Ausrollen dieser KI-Plugins  Analysten dämpfen jedoch die Begeisterung an dem Produktfeuerwerk der Anbieter. Sie warnen, dass ein sicheres Deployment dieser spezifischen KI-Plugins in Produktivitätsanwendungen Jahre an Feinabstimmung und Implementierung erfordert. Die Unternehmen müssten zunächst verstehen, was die Tools leisten, welche potenziellen Sicherheitsprobleme existierten, um dann entsprechende Rahmenbedingungen zu definieren.  Die technische Einführung von KI-Systemen und -Agenten bedeutet aus ihrer Sicht nicht, dass Unternehmen damit automatisch den richtigen Weg einschlagen – möglicherweise bewegen sie sich sogar zu schnell.  „Wir stehen noch ganz am Anfang der Entwicklung hin zu agentenbasierter KI, aber Anbieter verwenden gerne den Begriff ‘Agent‘, obwohl diese noch längst nicht die Autonomie und Handlungsfähigkeit besitzen, die sie eines Tages haben werden“, erklärt Gownder. Microsoft Copilot-Agenten eigneten sich etwa, um gezielt auf bestimmte Datenquelle – wie etwa SharePoint – zuzugreifen, so der Forrester-Analyst. „Das ist hilfreich, wenn es um ein RAG-Modell für die Datenverarbeitung geht. Aber das sind keine komplexen Agenten.“  Laut Jack Gold, Principal Analyst bei J. Gold Associates, könnten Agenten kaskadierend arbeiten, indem ein Agent einen anderen aufruft, um eine spezielle Aufgabe zu übernehmen — ein Prozess also, der mehrere Agenten einbezieht, bevor dem Nutzer ein Ergebnis präsentiert wird.  Wie bei jeder neuen Technologie müssten Unternehmen jedoch lernen, wie sie diese KI-Agenten am besten einsetzen, meint Gold. Dazu gehöre auch, die richtigen Fragen in der richtigen Reihenfolge zu stellen, damit der Agent produktiv arbeiten kann. „Wichtig ist außerdem, dass die Fragen präzise gestellt werden – Agenten neigen dazu, ‚abzudriften‘, wenn man ihnen keine konkreten Vorgaben macht“, so der Analyst.  Das notwendige „User Training“ werde oft ein Trial-and-Error-Prozess sein, der mal schnell, mal langwierig ausfalle, abhängig von Rolle und Komplexität. „Die größte Herausforderung wird sein: Kann man den Ergebnissen der Agenten vertrauen?“, konstatiert Gold.  Der Analyst weist darauf hin, dass – wie bei allen Systemen auf Enterprise-Niveau – auch der CISO einbezogen werden müsse, um potenzielle Schwachstellen zu identifizieren. Und auch HR- und Legal-Teams sollten bei Rollouts, die Unternehmensdaten betreffen, mitwirken.  „Durch KI verstärkt sich diese Problematik allerdings, weil diese Systeme in der Lage sind, aus bestehenden Informationen neue Erkenntnisse abzuleiten. Das wirft andere Anforderungen auf“, so Gold.  Warnung vor Endlosschleifen Ein besonders hohes Risiko ist laut Jason Wong, Vice President und Analyst im App-Design- und Entwicklungsteam bei Gartner, eine drohende „Agenten-Anarchie“. Darunter versteht man das Risiko, dass Tausende schlecht orchestrierte Agenten kollidieren und Endlosschleifen automatisierter Interaktionen verursachen. „Ohne gründliche Planung und Überwachung stellt Agenten-Anarchie eine kurzfristige und ernsthafte Bedrohung für die Stabilität von Unternehmensanwendungen dar“, so Wong.  Aber auch Mitarbeitende, die Zugriff auf GenAI-Tool-Builder wie Copilot Studio Agent Builder oder Google AI Studio haben, könnten in Kombination mit anderen Agenten aus Anwendungen heraus Probleme verursachen.  Laut Wong dauert es im Schnitt mindestens drei Monate, um tief verankertes Nutzerverhalten bei GenAI-Tools zu verändern. „Systemadministratoren müssen sich weiterentwickeln und von reinen Betriebsverwaltern zu Enablern für den Aufbau und das Management von Agenten werden“, resümiert der Garter-Experte.  

Vorsicht vor „agentenähnlicher“ KI​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Nicht genug damit, dass die aktuellen Tools noch keine ‚echten KI-Agenten‘ sind – es lauern auch zahlreiche Gefahren bei der Einführung.fewerton – shutterstock.com

In den vergangenen Monaten gab es eine explosionsartige Zunahme neuer „agentenähnlicher“ KI-Tools, die Arbeitsabläufe in Produktivitätsanwendungen automatisieren können. Analysten empfehlen Unternehmen jedoch, die Risiken einer Einführung im Vorfeld sorgfältig abzuwägen. 

Etikettenschwindel bei KI-Agenten 

„Unternehmensleiter müssen eine Strategie entwickeln, wie sie Agentic AI im eigentlichen Sinne bewerten und zugleich eine Governance für diese Lösungen festlegen“, erklärt JP Gownder, Vice President und Principal Analyst im Future of Work-Team von Forrester. 

Gownder betont, dass diese Tools noch keine ‚echten KI-Agenten‘ seien, sondern vielmehr ‚agentenähnliche‘ Tools, wie Forrester sie bezeichnet. „Agentenähnliche Lösungen können punktuelle Probleme lösen, sind aber nicht die ‘digitalen Mitarbeiter’, von denen die Anbieter sprechen – zumindest noch nicht“, so Gownder. 

KI-Agenten, die Mitarbeiter bei ihrer Arbeit unterstützen sollen, indem sie bestimmte Aufgaben (fast) automatisch erledigen, liegen aktuell im Trend. Google und Microsoft haben KI-Plugins für ihre Produktivitätssuiten entwickelt, während Drittanbieter eigene anbieten. 

Auf seiner Cloud-Next-Konferenz stellte Google kürzlich neue KI-Tools für seine Workspace-Suite vor, mit denen sich die Arbeit in verschiedenen Produktivitätsanwendungen automatisieren lässt. So kann Workspace Flows eine Reihe von Aufgaben automatisieren, die bei der Überprüfung von Dokumenten, Anfragen im Kunden-Support oder Produktanalysen anfallen. Die neue „Help me analyze“-Funktion in Google Sheets wiederum kann Informationen aus Tabellen auslesen und sofort Analysen und Einblicke liefern.  

Auch die Roadmap von Microsoft 365 listet zahlreiche künftige Copilot-Funktionen auf, darunter Tools, um Word-Dokumente, Lernassistenten und HR-Tools automatisiert zu erstellen. 

Kürzlich stellte auch Anthropic eine Integration seines Claude-KI-Modells für Gmail, Google Kalender und Google Docs vor. Damit sollen Nutzer laut Unternehmensangaben per E-Mail „einen tieferen Einblick in den Arbeitskontext“ erhalten – etwa, indem sie E-Mails durchsuchen, Dokumente überprüfen und Kalendereinträge scannen. 

„Ob bei Projektmanagement, Reiseplanung oder privaten Aufgaben – Claude versteht nun den vollständigen Kontext und kann besser unterstützen. Aktivieren Sie dazu die Google Workspace-Beta in den Einstellungen“, teilte Anthropic mit. 

Auch Adobe arbeitet an einem Adobe Express AI Agent für Microsoft 365, der via Copilot multimediale Inhalte und Präsentationen erstellen kann. 

Vorsicht beim Ausrollen dieser KI-Plugins 

Analysten dämpfen jedoch die Begeisterung an dem Produktfeuerwerk der Anbieter. Sie warnen, dass ein sicheres Deployment dieser spezifischen KI-Plugins in Produktivitätsanwendungen Jahre an Feinabstimmung und Implementierung erfordert. Die Unternehmen müssten zunächst verstehen, was die Tools leisten, welche potenziellen Sicherheitsprobleme existierten, um dann entsprechende Rahmenbedingungen zu definieren. 

Die technische Einführung von KI-Systemen und -Agenten bedeutet aus ihrer Sicht nicht, dass Unternehmen damit automatisch den richtigen Weg einschlagen – möglicherweise bewegen sie sich sogar zu schnell. 

„Wir stehen noch ganz am Anfang der Entwicklung hin zu agentenbasierter KI, aber Anbieter verwenden gerne den Begriff ‘Agent‘, obwohl diese noch längst nicht die Autonomie und Handlungsfähigkeit besitzen, die sie eines Tages haben werden“, erklärt Gownder. Microsoft Copilot-Agenten eigneten sich etwa, um gezielt auf bestimmte Datenquelle – wie etwa SharePoint – zuzugreifen, so der Forrester-Analyst. „Das ist hilfreich, wenn es um ein RAG-Modell für die Datenverarbeitung geht. Aber das sind keine komplexen Agenten.“ 

Laut Jack Gold, Principal Analyst bei J. Gold Associates, könnten Agenten kaskadierend arbeiten, indem ein Agent einen anderen aufruft, um eine spezielle Aufgabe zu übernehmen — ein Prozess also, der mehrere Agenten einbezieht, bevor dem Nutzer ein Ergebnis präsentiert wird. 

Wie bei jeder neuen Technologie müssten Unternehmen jedoch lernen, wie sie diese KI-Agenten am besten einsetzen, meint Gold. Dazu gehöre auch, die richtigen Fragen in der richtigen Reihenfolge zu stellen, damit der Agent produktiv arbeiten kann. „Wichtig ist außerdem, dass die Fragen präzise gestellt werden – Agenten neigen dazu, ‚abzudriften‘, wenn man ihnen keine konkreten Vorgaben macht“, so der Analyst. 

Das notwendige „User Training“ werde oft ein Trial-and-Error-Prozess sein, der mal schnell, mal langwierig ausfalle, abhängig von Rolle und Komplexität. „Die größte Herausforderung wird sein: Kann man den Ergebnissen der Agenten vertrauen?“, konstatiert Gold. 

Der Analyst weist darauf hin, dass – wie bei allen Systemen auf Enterprise-Niveau – auch der CISO einbezogen werden müsse, um potenzielle Schwachstellen zu identifizieren. Und auch HR- und Legal-Teams sollten bei Rollouts, die Unternehmensdaten betreffen, mitwirken. 

„Durch KI verstärkt sich diese Problematik allerdings, weil diese Systeme in der Lage sind, aus bestehenden Informationen neue Erkenntnisse abzuleiten. Das wirft andere Anforderungen auf“, so Gold. 

Warnung vor Endlosschleifen

Ein besonders hohes Risiko ist laut Jason Wong, Vice President und Analyst im App-Design- und Entwicklungsteam bei Gartner, eine drohende „Agenten-Anarchie“. Darunter versteht man das Risiko, dass Tausende schlecht orchestrierte Agenten kollidieren und Endlosschleifen automatisierter Interaktionen verursachen. „Ohne gründliche Planung und Überwachung stellt Agenten-Anarchie eine kurzfristige und ernsthafte Bedrohung für die Stabilität von Unternehmensanwendungen dar“, so Wong. 

Aber auch Mitarbeitende, die Zugriff auf GenAI-Tool-Builder wie Copilot Studio Agent Builder oder Google AI Studio haben, könnten in Kombination mit anderen Agenten aus Anwendungen heraus Probleme verursachen. 

Laut Wong dauert es im Schnitt mindestens drei Monate, um tief verankertes Nutzerverhalten bei GenAI-Tools zu verändern. „Systemadministratoren müssen sich weiterentwickeln und von reinen Betriebsverwaltern zu Enablern für den Aufbau und das Management von Agenten werden“, resümiert der Garter-Experte. 

Vorsicht vor „agentenähnlicher“ KI​ Weiterlesen »

OpenAIs KI denkt mit Bildern​

Allgemein

OpenAI bringt zwei neue agentenorientierte Modelle, die auch visuelle Informationen verarbeiten. Marciobnws – shutterstock.com Eine KI, die Whiteboards, Diagramme oder Skizzen analysiert und in ihre Antworten einbezieht? Genau dies verspricht OpenAI mit den neuen Modellen o3 und o4 mini. Laut OpenAI sind das die beiden ersten KI-Modelle des Unternehmens, die mit Bildern „denken“ können. Oder anders formuliert: Im Vergleich zu früheren Modellen sieht die KI die Bilder nicht nur, sondern kann die visuellen Informationen direkt in die Argumentationskette integrieren. KI versteht Bilder Dabei verstehe die KI visuelle Informationen selbst dann, wenn diese unscharf sind oder nur in geringer Qualität vorliegen. Ferner könne die KI Werkzeuge nutzen, um Bilder in Echtzeit anzupassen – etwa durch Drehen oder Zoomen – und diese Anpassungen in ihren „Denkprozess“ einbeziehen. Bei o3 und o4-mini handelt es sich um die neuesten Modelle der o-Serie. Sie sind darauf ausgelegt, länger und intensiver „nachzudenken“, bevor sie antworten. Darüber hinaus sind die Reasoning-Modelle zum ersten Mal in der Lage, alle ChatGPT-Tools eigenständig nutzen – also etwa Web-Browsing, Python, Bildverständnis und Bildgenerierung. Dabei entscheiden die Modelle laut OpenAI selbst, wann und wie welche Tools eingesetzt werden müssen. Agentenorientiertes ChatGPT OpenAI sieht darin einen Schritt in Richtung eines agentenorientierteren ChatGPT, das Aufgaben selbstständig für ausführen kann. Dadurch könnten vielschichtige Fragen effektiver bearbeitet werden. Zudem führe die kombinierte Leistungsfähigkeit moderner Schlussfolgerungsalgorithmen und der uneingeschränkte Zugriff auf alle Tools zu einer deutlich höheren Performance bei akademischen Benchmarks und realen Aufgaben. Was dies konkret in der Praxis bedeutet, veranschaulicht OpenAI an einem Beispiel. So könnte ein User fragen, wie wird der Energieverbrauch in Spanien im Sommer im Vergleich zum letzten Jahr aussehen? Das Modell kann nun das Internet nach Daten von Versorgungsunternehmen durchsuchen, Python-Code schreiben, um eine Prognose zu erstellen, ein Diagramm oder ein Bild generieren und die wichtigsten Faktoren für die Vorhersage erklären, wobei mehrere Tool-Aufrufe miteinander verknüpft werden. Zugriff auf aktuelle Informationen Durch das Schlussfolgern können die Modelle auf die ihnen vorliegenden Informationen reagieren und sich bei Bedarf anpassen. Sie sind beispielsweise in der Lage, mit Hilfe von Suchmaschinen mehrmals im Internet zu suchen, die Ergebnisse anzusehen und neue Suchanfragen zu starten, wenn sie weitere Informationen benötigen. Letztlich ist es den Modellen damit möglich, Aufgaben zu bewältigen, die Zugriff auf aktuelle Informationen erfordern, die über das integrierte Wissen des Modells hinausgehen. Ferner sind so erweiterte Schlussfolgerungen, Synthesen und die Generierung von Ergebnissen über verschiedene Modalitäten hinweg umsetzbar. Verfügbarkeit OpenAI o3, o4-mini und o4-mini-high sind für Plus-, Pro- und Team-User ab sofort verfügbar. Sie ersetzen o1, o3-mini und o3-mini-high. Sie sind auch über die API nutzbar. 

OpenAIs KI denkt mit Bildern​ OpenAI bringt zwei neue agentenorientierte Modelle, die auch visuelle Informationen verarbeiten.
Marciobnws – shutterstock.com

Eine KI, die Whiteboards, Diagramme oder Skizzen analysiert und in ihre Antworten einbezieht? Genau dies verspricht OpenAI mit den neuen Modellen o3 und o4 mini.

Laut OpenAI sind das die beiden ersten KI-Modelle des Unternehmens, die mit Bildern „denken“ können. Oder anders formuliert: Im Vergleich zu früheren Modellen sieht die KI die Bilder nicht nur, sondern kann die visuellen Informationen direkt in die Argumentationskette integrieren.

KI versteht Bilder

Dabei verstehe die KI visuelle Informationen selbst dann, wenn diese unscharf sind oder nur in geringer Qualität vorliegen. Ferner könne die KI Werkzeuge nutzen, um Bilder in Echtzeit anzupassen – etwa durch Drehen oder Zoomen – und diese Anpassungen in ihren „Denkprozess“ einbeziehen.

Bei o3 und o4-mini handelt es sich um die neuesten Modelle der o-Serie. Sie sind darauf ausgelegt, länger und intensiver „nachzudenken“, bevor sie antworten. Darüber hinaus sind die Reasoning-Modelle zum ersten Mal in der Lage, alle ChatGPT-Tools eigenständig nutzen – also etwa Web-Browsing, Python, Bildverständnis und Bildgenerierung. Dabei entscheiden die Modelle laut OpenAI selbst, wann und wie welche Tools eingesetzt werden müssen.

Agentenorientiertes ChatGPT

OpenAI sieht darin einen Schritt in Richtung eines agentenorientierteren ChatGPT, das Aufgaben selbstständig für ausführen kann. Dadurch könnten vielschichtige Fragen effektiver bearbeitet werden. Zudem führe die kombinierte Leistungsfähigkeit moderner Schlussfolgerungsalgorithmen und der uneingeschränkte Zugriff auf alle Tools zu einer deutlich höheren Performance bei akademischen Benchmarks und realen Aufgaben.

Was dies konkret in der Praxis bedeutet, veranschaulicht OpenAI an einem Beispiel. So könnte ein User fragen, wie wird der Energieverbrauch in Spanien im Sommer im Vergleich zum letzten Jahr aussehen? Das Modell kann nun das Internet nach Daten von Versorgungsunternehmen durchsuchen, Python-Code schreiben, um eine Prognose zu erstellen, ein Diagramm oder ein Bild generieren und die wichtigsten Faktoren für die Vorhersage erklären, wobei mehrere Tool-Aufrufe miteinander verknüpft werden.

Zugriff auf aktuelle Informationen

Durch das Schlussfolgern können die Modelle auf die ihnen vorliegenden Informationen reagieren und sich bei Bedarf anpassen. Sie sind beispielsweise in der Lage, mit Hilfe von Suchmaschinen mehrmals im Internet zu suchen, die Ergebnisse anzusehen und neue Suchanfragen zu starten, wenn sie weitere Informationen benötigen.

Letztlich ist es den Modellen damit möglich, Aufgaben zu bewältigen, die Zugriff auf aktuelle Informationen erfordern, die über das integrierte Wissen des Modells hinausgehen. Ferner sind so erweiterte Schlussfolgerungen, Synthesen und die Generierung von Ergebnissen über verschiedene Modalitäten hinweg umsetzbar.

Verfügbarkeit

OpenAI o3, o4-mini und o4-mini-high sind für Plus-, Pro- und Team-User ab sofort verfügbar. Sie ersetzen o1, o3-mini und o3-mini-high. Sie sind auch über die API nutzbar.

OpenAIs KI denkt mit Bildern​ Weiterlesen »

KI-Agenten: Die nächste Evolutionsstufe der Unternehmens-KI​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?quality=50&strip=all 4123w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Um zuverlässig und kosteneffizient zu sein, müssen KI-Agenten sorgfältig konzipiert, getestet, implementiert und überwacht werden.Shutterstock – inni Die erste Welle von GenAI-Lösungen hat bereits beachtliche Erfolge in Unternehmen erzielt – besonders im Bereich der Coding-Assistenten und bei der Effizienzsteigerung bestehender SaaS-Produkte. Diese Anwendungen zeigen jedoch nur einen kleinen Ausschnitt dessen, was mit Large Language Models (LLMs) möglich ist. Die eigentliche Stärke dieser Technologie entfaltet sich jetzt in der zweiten Generation KI-gestützter Anwendungen: agentenbasierten Systeme, die auf dem soliden Fundament der LLMs aufbauen und deren Fähigkeiten auf eine neue Stufe heben.  Anders als herkömmliche KI-Chatbots oder einfache Copiloten für SaaS-Produkte nutzen KI-Agenten die volle Bandbreite der LLM-Fähigkeiten. Sie können nicht nur Text generieren, sondern (nahezu) eigenständig komplexe Probleme lösen. Ein KI-Agent ist dabei ein LLM-gestütztes System, das innerhalb definierter Autonomiegrenzen und unter Nutzung verschiedener Tools bestimmte Ziele verfolgt.  Ein Beispiel verdeutlicht die Möglichkeiten: Stellen Sie sich vor, ein LLM erhält die Dokumentation einer API, die aktuelle Aktienkurse abrufen kann. Mit dieser Information kann das LLM eigenständig ein Skript erstellen, das diese API für einen bestimmten Aktienkurs aufruft. Darf das System dieses Skript ausführen, wird es zu einem Werkzeug für Endnutzer, um beliebige Aktienkurse abzurufen.  Ein Agent kommt selten allein  Wäre es also möglich, eine einzige, allumfassende Anwendung zu entwickeln, die sämtliche Probleme im Unternehmen lösen kann? Die kurze Antwort lautet: nein. Obwohl LLMs zur Generalisierung fähig sind, erfordern die Einschränkungen des Unternehmensumfelds einen relativ engen Anwendungsbereich für jede einzelne Applikation. Nur so ist das Unternehmen in der Lage, konstant gute Leistung zu gewährleisten und den Zugriff auf Daten und Tools zu kontrollieren.  Diese imaginäre “Super-Anwendung” klingt zwar bequem, würde aber vollen Zugriff auf sämtliche Unternehmensdaten und -werkzeuge benötigen, von den banalsten bis hin zu den sensibelsten. Ähnlich wie ein Mitarbeiter nur Zugang zu den Daten und Tools haben sollte, die für seine Arbeit notwendig sind, muss auch der Zugriff einer agentenbasierten Anwendung auf das beschränkt sein, was sie zur Erfüllung ihrer Funktion braucht.  Wie viele solcher KI-Agenten könnte ein Großunternehmen benötigen? Eine Überschlagsrechnung: Ein Großunternehmen mit zehn Abteilungen und jeweils fünf Kernfunktionen könnte pro Funktion von fünf spezialisierten Anwendungen profitieren. Beispielsweise könnte die Vertriebsabteilung im Bereich Sales Operations jeweils einen Agenten einsetzen, um:  Zielkunden zu recherchieren;  die Einhaltung des Verkaufsprozesses zu überprüfen;  die Vertriebspipeline zu analysieren;  Kundengespräche zusammenzufassen; und   Nachfassaktionen zu unterstützen.  In Summe ergäben sich so 250 Anwendungen – eine realistische Prognose für Großorganisationen.  Make or Buy: Die Kunst der richtigen Entscheidung  Angesichts mehrerer hundert neuartiger Anwendungen stehen Unternehmen vor der Entscheidung “Make-or-Buy”. So bringen Softwareanbieter bereits entsprechende Anwendungen auf den Markt. Gleichzeitig entwickeln fortgeschrittene Organisationen ihre ersten produktionsreifen agentenbasierten Anwendungen selbst.  Fertige KI-Agenten bringen entscheidende Vorteile mit sich: Einmal implementiert, bieten sie schlüsselfertige Leistung, werden von professionellen Softwareentwicklern betreut und ermöglichen eine rasche Einführung. Die Schattenseite solcher KI-Agenten von der Stange sind Herausforderungen wie die oft komplexe Integration in bestehende Unternehmenssysteme, Governance-Probleme bei der Nachverfolgung der eingesetzten Modelle und nicht zuletzt der Umstand, dass Wettbewerber mit identischen Lösungen die gleiche Leistung erzielen können.  Auf der anderen Seite lassen sich selbstentwickelte, maßgeschneiderte KI-Agenten präzise an den spezifischen Geschäftskontext anpassen und bieten damit das Potenzial für echte Differenzierung am Markt. Unternehmen behalten die volle Kontrolle und Transparenz über ihre Anwendungen und gewinnen Unabhängigkeit von externen Software-, KI- und Cloud-Anbietern. Allerdings stehen diese Vorteile eigenen Herausforderungen gegenüber: Die erforderlichen Entwicklungsfähigkeiten sind in vielen Organisationen nicht ausreichend vorhanden, und mit steigender Anzahl selbstentwickelter Anwendungen wächst die Komplexität von Überwachung und Wartung erheblich.  Die meisten Unternehmen werden daher einige Anwendungen kaufen und andere selbst entwickeln. Dabei ist zu beachten: KI-Agenten können zwar die Effizienz der betrieblichen Abläufe verbessern, aber wenn diese Effizienzsteigerungen im Gleichschritt mit denen der Wettbewerber erfolgen, verbessert sich die Wettbewerbsposition nicht.  Die Entwicklung maßgeschneiderter, agentenbasierter Anwendungen ermöglicht es einem Unternehmen hingegen, Fähigkeiten zu schaffen, die seine Wettbewerber nicht besitzen. Angesichts der Kosten und Komplexität werden Unternehmen ihre internen Entwicklungsbemühungen auf die Teile ihres Geschäfts konzentrieren, die am meisten von einer starken Wettbewerbsdifferenzierung profitieren – in der Regel ihr Kerngeschäft.  Die Komplexitätsschwelle überwinden  Jede Organisation hat eine maximale Anzahl von Anwendungen, die sie mit ihren aktuellen Praktiken entwickeln, überwachen und warten kann. Dies ist die “Komplexitätsschwelle” der Organisation.  Wenn das Unternehmen mehr und mehr agentenbasierte Anwendungen entwickelt, steigt die Komplexität ihrer Überwachung und Wartung, bis irgendwann die maximale Komplexität erreicht ist und keine weiteren Anwendungen mehr entwickelt werden können – selbst, wenn dies dem Geschäft zugutekommen würde.  Um mehr Anwendungen entwickeln zu können, muss das Unternehmen einen Weg finden, seine Komplexitätsschwelle zu erhöhen. Dazu ist es erforderlich, die Entwicklung dieser Anwendungen zu standardisieren und strukturieren.  Ein neues Architekturparadigma für agentenbasierte Anwendungen  Im Laufe der Jahre haben Organisationen verschiedene Architekturparadigmen genutzt – von monolithischen Anwendungen über serviceorientierte Architekturen bis hin zu Microservices. Heutige Infrastrukturen für den Aufbau agentenbasierter Anwendungen sind meist monolithisch und nutzen Frameworks wie LangChain. Dieser Ansatz eignet sich zwar für die Entwicklung der ersten Prototypen, spiegelt aber die relative Unreife des Designs agentenbasierter Anwendungen im Unternehmensumfeld wider.  Um viele agentenbasierte Anwendungen zu erstellen und zu warten, ist daher ein neues Architekturparadigma erforderlich. Eine Umsetzung ist etwa eine Netzarchitektur (Mesh) für LLMs und die zugehörigen Komponenten, die für die Erstellung von Agenten im Unternehmen erforderlich sind. Sie bietet Abstraktionsebenen, die verschiedene Komponenten in einheitlichen Objekttypen gruppieren.  Eine solche Mehrschichtarchitektur könnte folgende Komponenten umfassen:  Basismodelle: Die trainierten KI-Modelle mit ihren mathematischen Grundgewichten. Datenschicht: Unterteilt in unstrukturierte und strukturierte Daten. Service-Schicht: Umfasst die für den Modellbetrieb nötigen Dienste sowie Datenzugriffsdienste. Orchestrierungs-Schicht: Hier werden Prompts, Agenten und Tools zusammengeführt. Anwendungs-Schicht: Die nutzbaren Applikationen mit ihren Benutzeroberflächen. Der entscheidende Vorteil einer solchen Architektur liegt in der Abstraktion: Sie schafft standardisierte Schnittstellen zwischen den verschiedenen Schichten, wodurch ein einzelner Dienst ausgetauscht werden kann, ohne dass Anpassungen an anderen Komponenten notwendig werden. Diese Entkopplung ermöglicht es Unternehmen, ihre Komplexitätsschwelle zu erhöhen. (mb)  

KI-Agenten: Die nächste Evolutionsstufe der Unternehmens-KI​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?quality=50&strip=all 4123w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2562515077_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Um zuverlässig und kosteneffizient zu sein, müssen KI-Agenten sorgfältig konzipiert, getestet, implementiert und überwacht werden.Shutterstock – inni

Die erste Welle von GenAI-Lösungen hat bereits beachtliche Erfolge in Unternehmen erzielt – besonders im Bereich der Coding-Assistenten und bei der Effizienzsteigerung bestehender SaaS-Produkte. Diese Anwendungen zeigen jedoch nur einen kleinen Ausschnitt dessen, was mit Large Language Models (LLMs) möglich ist. Die eigentliche Stärke dieser Technologie entfaltet sich jetzt in der zweiten Generation KI-gestützter Anwendungen: agentenbasierten Systeme, die auf dem soliden Fundament der LLMs aufbauen und deren Fähigkeiten auf eine neue Stufe heben. 

Anders als herkömmliche KI-Chatbots oder einfache Copiloten für SaaS-Produkte nutzen KI-Agenten die volle Bandbreite der LLM-Fähigkeiten. Sie können nicht nur Text generieren, sondern (nahezu) eigenständig komplexe Probleme lösen. Ein KI-Agent ist dabei ein LLM-gestütztes System, das innerhalb definierter Autonomiegrenzen und unter Nutzung verschiedener Tools bestimmte Ziele verfolgt. 

Ein Beispiel verdeutlicht die Möglichkeiten: Stellen Sie sich vor, ein LLM erhält die Dokumentation einer API, die aktuelle Aktienkurse abrufen kann. Mit dieser Information kann das LLM eigenständig ein Skript erstellen, das diese API für einen bestimmten Aktienkurs aufruft. Darf das System dieses Skript ausführen, wird es zu einem Werkzeug für Endnutzer, um beliebige Aktienkurse abzurufen. 

Ein Agent kommt selten allein 

Wäre es also möglich, eine einzige, allumfassende Anwendung zu entwickeln, die sämtliche Probleme im Unternehmen lösen kann? Die kurze Antwort lautet: nein. Obwohl LLMs zur Generalisierung fähig sind, erfordern die Einschränkungen des Unternehmensumfelds einen relativ engen Anwendungsbereich für jede einzelne Applikation. Nur so ist das Unternehmen in der Lage, konstant gute Leistung zu gewährleisten und den Zugriff auf Daten und Tools zu kontrollieren. 

Diese imaginäre “Super-Anwendung” klingt zwar bequem, würde aber vollen Zugriff auf sämtliche Unternehmensdaten und -werkzeuge benötigen, von den banalsten bis hin zu den sensibelsten. Ähnlich wie ein Mitarbeiter nur Zugang zu den Daten und Tools haben sollte, die für seine Arbeit notwendig sind, muss auch der Zugriff einer agentenbasierten Anwendung auf das beschränkt sein, was sie zur Erfüllung ihrer Funktion braucht. 

Wie viele solcher KI-Agenten könnte ein Großunternehmen benötigen? Eine Überschlagsrechnung: Ein Großunternehmen mit zehn Abteilungen und jeweils fünf Kernfunktionen könnte pro Funktion von fünf spezialisierten Anwendungen profitieren. Beispielsweise könnte die Vertriebsabteilung im Bereich Sales Operations jeweils einen Agenten einsetzen, um: 

Zielkunden zu recherchieren; 

die Einhaltung des Verkaufsprozesses zu überprüfen; 

die Vertriebspipeline zu analysieren; 

Kundengespräche zusammenzufassen; und  

Nachfassaktionen zu unterstützen. 

In Summe ergäben sich so 250 Anwendungen – eine realistische Prognose für Großorganisationen. 

Make or Buy: Die Kunst der richtigen Entscheidung 

Angesichts mehrerer hundert neuartiger Anwendungen stehen Unternehmen vor der Entscheidung “Make-or-Buy”. So bringen Softwareanbieter bereits entsprechende Anwendungen auf den Markt. Gleichzeitig entwickeln fortgeschrittene Organisationen ihre ersten produktionsreifen agentenbasierten Anwendungen selbst. 

Fertige KI-Agenten bringen entscheidende Vorteile mit sich: Einmal implementiert, bieten sie schlüsselfertige Leistung, werden von professionellen Softwareentwicklern betreut und ermöglichen eine rasche Einführung. Die Schattenseite solcher KI-Agenten von der Stange sind Herausforderungen wie die oft komplexe Integration in bestehende Unternehmenssysteme, Governance-Probleme bei der Nachverfolgung der eingesetzten Modelle und nicht zuletzt der Umstand, dass Wettbewerber mit identischen Lösungen die gleiche Leistung erzielen können. 

Auf der anderen Seite lassen sich selbstentwickelte, maßgeschneiderte KI-Agenten präzise an den spezifischen Geschäftskontext anpassen und bieten damit das Potenzial für echte Differenzierung am Markt. Unternehmen behalten die volle Kontrolle und Transparenz über ihre Anwendungen und gewinnen Unabhängigkeit von externen Software-, KI- und Cloud-Anbietern. Allerdings stehen diese Vorteile eigenen Herausforderungen gegenüber: Die erforderlichen Entwicklungsfähigkeiten sind in vielen Organisationen nicht ausreichend vorhanden, und mit steigender Anzahl selbstentwickelter Anwendungen wächst die Komplexität von Überwachung und Wartung erheblich. 

Die meisten Unternehmen werden daher einige Anwendungen kaufen und andere selbst entwickeln. Dabei ist zu beachten: KI-Agenten können zwar die Effizienz der betrieblichen Abläufe verbessern, aber wenn diese Effizienzsteigerungen im Gleichschritt mit denen der Wettbewerber erfolgen, verbessert sich die Wettbewerbsposition nicht. 

Die Entwicklung maßgeschneiderter, agentenbasierter Anwendungen ermöglicht es einem Unternehmen hingegen, Fähigkeiten zu schaffen, die seine Wettbewerber nicht besitzen. Angesichts der Kosten und Komplexität werden Unternehmen ihre internen Entwicklungsbemühungen auf die Teile ihres Geschäfts konzentrieren, die am meisten von einer starken Wettbewerbsdifferenzierung profitieren – in der Regel ihr Kerngeschäft. 

Die Komplexitätsschwelle überwinden 

Jede Organisation hat eine maximale Anzahl von Anwendungen, die sie mit ihren aktuellen Praktiken entwickeln, überwachen und warten kann. Dies ist die “Komplexitätsschwelle” der Organisation. 

Wenn das Unternehmen mehr und mehr agentenbasierte Anwendungen entwickelt, steigt die Komplexität ihrer Überwachung und Wartung, bis irgendwann die maximale Komplexität erreicht ist und keine weiteren Anwendungen mehr entwickelt werden können – selbst, wenn dies dem Geschäft zugutekommen würde. 

Um mehr Anwendungen entwickeln zu können, muss das Unternehmen einen Weg finden, seine Komplexitätsschwelle zu erhöhen. Dazu ist es erforderlich, die Entwicklung dieser Anwendungen zu standardisieren und strukturieren. 

Ein neues Architekturparadigma für agentenbasierte Anwendungen 

Im Laufe der Jahre haben Organisationen verschiedene Architekturparadigmen genutzt – von monolithischen Anwendungen über serviceorientierte Architekturen bis hin zu Microservices. Heutige Infrastrukturen für den Aufbau agentenbasierter Anwendungen sind meist monolithisch und nutzen Frameworks wie LangChain. Dieser Ansatz eignet sich zwar für die Entwicklung der ersten Prototypen, spiegelt aber die relative Unreife des Designs agentenbasierter Anwendungen im Unternehmensumfeld wider. 

Um viele agentenbasierte Anwendungen zu erstellen und zu warten, ist daher ein neues Architekturparadigma erforderlich. Eine Umsetzung ist etwa eine Netzarchitektur (Mesh) für LLMs und die zugehörigen Komponenten, die für die Erstellung von Agenten im Unternehmen erforderlich sind. Sie bietet Abstraktionsebenen, die verschiedene Komponenten in einheitlichen Objekttypen gruppieren. 

Eine solche Mehrschichtarchitektur könnte folgende Komponenten umfassen: 

Basismodelle: Die trainierten KI-Modelle mit ihren mathematischen Grundgewichten.

Datenschicht: Unterteilt in unstrukturierte und strukturierte Daten.

Service-Schicht: Umfasst die für den Modellbetrieb nötigen Dienste sowie Datenzugriffsdienste.

Orchestrierungs-Schicht: Hier werden Prompts, Agenten und Tools zusammengeführt.

Anwendungs-Schicht: Die nutzbaren Applikationen mit ihren Benutzeroberflächen.

Der entscheidende Vorteil einer solchen Architektur liegt in der Abstraktion: Sie schafft standardisierte Schnittstellen zwischen den verschiedenen Schichten, wodurch ein einzelner Dienst ausgetauscht werden kann, ohne dass Anpassungen an anderen Komponenten notwendig werden. Diese Entkopplung ermöglicht es Unternehmen, ihre Komplexitätsschwelle zu erhöhen. (mb) 

KI-Agenten: Die nächste Evolutionsstufe der Unternehmens-KI​ Weiterlesen »

Open Source Intelligence: Die besten OSINT Tools​

Allgemein

Open Source Intelligence Tools finden frei verfügbare Informationen. Die können kriminelle Hacker für ihre Zwecke nutzen – es sei denn, Sie kommen ihnen zuvor. Foto: GaudiLab – shutterstock.com In den 1980er Jahren vollzog sich im Bereich der Militär- und Geheimdienste ein Paradigmenwechsel. Klassische Aktivitäten wie das Abfangen von Briefen und Abhören von Telefongesprächen wurden von einem neuen Trend zur Geheimnisausspähung abgelöst: Dabei konzentrierten sich Agenten darauf, frei verfügbare oder offiziell veröffentlichte Informationen für ihre Zwecke zu nutzen. Es war eine andere Welt, die ohne Social Media auskommen musste. Stattdessen waren Zeitungen und öffentlich verfügbare Datenbanken die Hauptquellen für interessante und/oder nützliche Informationen. OSINT – Definition Das hört sich simpel an, erforderte in der Praxis allerdings ein Höchstmaß an Kombinationsfähigkeit, um relevante Informationen zuverlässig miteinander zu verknüpfen und daraus ein Lagebild zu erstellen. Diese Art der Spionage bezeichnete man als Open Source Intelligence (OSINT). Die OSINT-Taktik kann heute auch auf das Gebiet der Cybersecurity angewandt werden. Denn die meisten Unternehmen und Organisationen verfügen über eine ausgedehnte, in weiten Teilen öffentlich zugängliche Infrastruktur, die diverse Netzwerke, Technologien, Hosting Services und Namespaces umfasst. Informationen beziehungsweise Daten können sich dabei auf diversen Geräten befinden – den Rechnern von Mitarbeitern, On-Premises Servern, privaten Devices von Mitarbeitern (im Sinne von “Bring your own Device”), Cloud-Instanzen oder auch dem Quellcode von aktiven Applikationen. Tatsächlich weiß die IT-Abteilung in Großunternehmen in der Praxis so gut wie nie über alle Assets im Unternehmen Bescheid – ob öffentlich zugänglich oder nicht. Dazu gesellt sich der Umstand, dass die meisten Unternehmen auch verschiedene zusätzliche Assets indirekt verwalten – etwa ihre Social Media Accounts. Gerade in diesem Bereich werden oft Informationen vorgehalten, die gefährlich werden könnten, falls sie in falsche Hände geraten. An dieser Stelle kommt die aktuelle Generation der Open Source Intelligence Tools ins Spiel. Die OSINT-Werkzeuge übernehmen im Wesentlichen drei Funktionen: Öffentlich zugängliche Assets aufspüren: Die gängigste Funktion von OSINT Tools ist es, IT-Teams dabei zu unterstützen, öffentlich zugängliche Assets und die darin enthaltenen Informationen zu ermitteln. Dabei geht es insbesondere um Daten, die potenziell zur Erschließung von Angriffsvektoren beitragen könnten. Damit ist jedoch nicht die Ermittlung von Sicherheitslücken oder Penetration Testing gemeint – es geht ausschließlich um Informationen, die ohne den Einsatz von Hacking-Methoden zugänglich sind. Relevante Informationen außerhalb der Organisation finden: Eine weitere Funktion von Open Source Intelligence Tools liegt darin, Informationen aufzuspüren, die sich außerhalb der eigenen Organisation befinden – also etwa auf Social-Media-Plattformen oder Domains. Dieses Feature dürfte insbesondere für Großunternehmen interessant sein, die im Rahmen von Firmenübernahmen neue IT Assets integrieren. Angesichts des extremen Wachstums von Social-Media-Plattformen ist die Überprüfung auf sensible Informationen außerhalb der Unternehmensgrenzen für jede Organisation sinnvoll. Ermittelte Informationen verwertbar zusammenstellen: Einige OSINT Tools sind in der Lage, gesammelte Informationen und Daten in verwertbarer Form zusammenzufassen. Ein OSINT Scan kann im Fall eines Großunternehmens hunderttausende von Ergebnissen aufwerfen – insbesondere, wenn sowohl interne als auch externe Quellen miteinfließen. Die Daten zu strukturieren und die drängendsten Probleme zuerst anzugehen, ist nicht nur in solchen Fällen hilfreich. Open Source Intelligence – die besten Tools Indem sie Informationen über Ihr Unternehmen, Ihre Mitarbeiter, Ihre IT Assets oder andere sensible Daten zu Tage fördern, die von böswilligen Angreifern ausgenutzt werden könnten, können geeignete Open Source Intelligence Tools dazu beitragen, Ihr IT-Security-Niveau zu erhöhen: Wenn Sie solche Informationen vor den Angreifern finden, können Sie die Gefahr böswilliger Aktivitäten – von Phishing– bis hin zu Denial-of-Service-Attacken – deutlich reduzieren. Im Folgenden stellen wir Ihnen einige der besten Open Source Intelligence Tools sowie deren individuelle Stärken vor. Maltego Dieses OSINT Tool ist darauf ausgelegt, Beziehungsgeflechte zwischen Menschen, Unternehmen, Domains und öffentlich zugänglichen Informationen im World Wide Web offenzulegen. Die Ergebnisse visualisiert Maltego in Form ansprechender Grafiken und Diagramme, in die bis zu 10.000 Datenpunkte einfließen können. Maltego durchsucht auf Knopfdruck automatisiert verschiedene öffentliche Datenquellen. Dazu gehören etwa DNS-Abfragen, Suchmaschinen und soziale Netzwerke. Kompatibel ist das Tool mit nahezu jeder Datenquelle, die ein öffentlich zugängliches Interface aufweist. Ist die Informationssammlung abgeschlossen, verknüpft das OSINT Tool die Daten und gibt Auskunft über die verborgenen Relationen zwischen Namen, E-Mail-Adressen, Unternehmen, Webseiten und anderen Informationen. Weil Maltego auf Java-Basis entstanden ist, läuft es zuverlässig auf Windows-, Mac- und Linux-Plattformen. Für Privatpersonen und kleine Teams steht Maltego wahlweise in der CE- oder Pro-Edition zur Verfügung. Während erstere kostenlos ist (und eingeschränkte Funktionen aufweist), kostet die Pro-Version jährlich 1.099 Euro. Unternehmen haben die Wahl zwischen der OSINT- und CTI-Version. Eine entsprechende Demo-Version und Infos zum Preisgefüge gibt’s auf Anfrage. Recon-ng Softwareentwickler die mit Python arbeiten, steht mit Recon-ng ein vielschichtiges OSINT Tool zur Verfügung. Das Interface ähnelt Metasploit, was die Lernkurve für erfahrene Nutzer des populären Frameworks deutlich absenkt. Dank einer interaktiven Hilfefunktion (was vielen Python-Modulen fehlt) können Developer quasi direkt mit der Arbeit loslegen. Die beinhaltet im Fall von Recon-ng die automatisierte Abarbeitung zeitintensiver und repetitiver OSINT Tasks (etwa Copy-und-Paste-Marathons). Das schafft mehr Zeit für die Dinge, die manuell erledigt werden müssen. Damit auch Python-Anfänger mit Recon-ng zurechtkommen, verfügt das OSINT Tool über ein modulares Framework mit zahlreichen integrierten Funktionalitäten. Dazu gehören beispielsweise gängige Aufgaben wie die Standardisierung von Output, die Interaktion mit Datenbanken, das Anstoßen von Web Requests oder API Key Management. Statt Recon-ng aufwändig zu programmieren, suchen sich die Entwickler einfach die Funktionen aus, die sie benötigen und stellen so in nur wenigen Minuten ein automatisiertes Modul zusammen. Bei Recon-ng handelt es sich um kostenlose, quelloffene Software. theHarvester In Sachen Nutzung ist theHarvester eines der simpelsten OSINT Tools in dieser Übersicht. Das Werkzeug ist darauf ausgelegt, Informationen außerhalb des eigenen Netzwerks von Organisationen und Unternehmen aufzuspüren. Zwar kann theHarvester auch eingesetzt werden, um interne Netzwerke auf Informationen zu durchsuchen, der Schwerpunkt liegt jedoch auf externen Daten. Zu den Quellen die das OSINT Tool heranzieht, gehören sowohl populäre Suchmaschinen wie Google und Bing, als auch weniger bekannte wie dogpile, DNSDumpster und die Exalead Metadaten-Engine. Sogar Shodan kann eingebunden werden, um offene Ports auf entdeckten Hosts zu ermitteln. Ganz generell erfasst theHarvester Emails, Namen, Subdomains, IPs und URLs. TheHarvester kann auf die meisten öffentlich zugänglichen Quellen ohne spezielle Maßnahmen zugreifen. Allerdings können einige wenige Quellen einen API Key erfordern – und Python muss mindestens in Version 3.6 vorliegen. Das Tool steht auf GitHub zur freien Verfügung. Shodan Bei Shodan handelt es sich um eine dedizierte Suchmaschine, die Informationen über Geräte liefert – beispielsweise die bereits millionenfach im Einsatz befindlichen IoT Devices. Das OSINT Tool kann auch dazu genutzt werden, offene Ports oder Schwachstellen auf bestimmten Systemen zu finden. Einige andere Open Source Intelligence Tools nutzen Shodan als Datenquelle – eine tiefgehende Interaktion erfordert allerdings einen kostenpflichtigen Account. Die Einsatzmöglichkeiten von Shodan sind dabei ziemlich beeindruckend: Es ist eines der wenigen Tools, das bei seinen Analysen auch Operational Technology (OT) mit einbeziehen, wie sie etwa in industriellen Kontrollsystemen von Kraftwerken oder Fabriken zum Einsatz kommt. Jede OSINT-Initiative wäre in einer Branche, in der IT und OT Hand in Hand gehen, also mit erheblichen Lücken behaftet wenn sie nicht auf Shodan basiert. Darüber hinaus ist es mit dem OSINT Tool auch möglich, Datenbanken zu untersuchen: Unter Umständen sind hier Informationen über Umwege öffentlich aufrufbar. Eine Freelancer-Lizenz (69 Dollar monatlich) für Shodan ermöglicht den Scan von bis zu 5.120 IP-Adressen pro Monat – mit bis zu einer Million Ergebnissen. Die Corporate-Lizenz verspricht unbegrenzte Ergebnisse und ermöglicht den Scan von monatlich 327.680 IP-Adressen – für 1.099 Dollar pro Monat, dann aber inklusive Schwachstellen-Suchfilter und Premium Support. Kleine(re) Unternehmen greifen auf den Small-Business-Preisplan für 359 Dollar monatlich zurück. Metagoofil Auch Metagoofil ist über die GitHub-Plattform frei verfügbar. Dieses Tool ist darauf ausgelegt, Metadaten aus öffentlichen Dokumenten zu extrahieren. Geht es um die Art des Dokuments, setzt das OSINT Tools keine Grenzen, egal ob .pdf-, .doc-, .ppt-, oder .xls-Datei. Die Menge an interessanten Daten, die Metagoofil dabei aufwirft, ist beeindruckend. So können entweder im Handumdrehen die mit bestimmten Dokumenten verknüpften Usernamen ermittelt werden. Dabei gibt das OSINT Tool auch Aufschluss über den genauen Pfad, der zu den Informationen führt. Daraus lassen sich wiederum leicht Rückschlüsse über Servernamen, geteilte Ressourcen und Verzeichnisstrukturen des betreffenden Unternehmens ziehen. So gut wie alle Informationen die Metagoofil liefert, wären für einen kriminellen Hacker nützlich. Organisationen und Unternehmen können das Open Source Intelligence Tool hingegen nutzen, um genau diese Informationen vor potenziellen Übeltätern aufzuspüren und sie entsprechend abzusichern oder zu verbergen. searchcode Wenn Sie wirklich tief in die OSINT-Materie eintauchen wollen, steht Ihnen mit searchcode eine hochspezialisierte Suchmaschine zur Verfügung, die Quellcode nach interessanten Daten durchforstet. Softwareentwickler können so Probleme aufdecken und beheben, bevor die betreffende Software ausgerollt wird. Natürlich verlangt jedes Tool, das mit Quellcode arbeitet, ein wenig mehr Knowhow als eine einfache Google-Suche – der Macher von searchcode hat aber alles darangesetzt, das Interface seines OSINT Tools so einfach wie nur möglich zu gestalten. Der Benutzer gibt seine Suchanfrage ein und searchcode liefert die Ergebnisse in Form von entsprechenden Markierungen innerhalb des Source Codes. So können etwa Usernamen, Security-Schwachstellen, ungewollte aktive Funktionen (wie re-compile) oder auch Sonderzeichen, die für Code-Injection-Angriffe verwendet werden können, ermittelt werden. Die Ergebnisse von Searchcode sind dabei selbsterklärend – dennoch liefert das OSINT Tool auch weiterführende Informationen oder relevante Probleme, die mit den Ergebnissen in Zusammenhang stehen. Babel Street Insights Relevante Informationen müssen nicht unbedingt auf Englisch oder Deutsch vorliegen – die Informationen, die Sie benötigen, könnten auch in Chinesisch oder Spanisch verfasst sein. An dieser Stelle kommt Babel Street Insights ins Spiel: Das multilinguale OSINT Tool durchsucht das öffentliche Web inklusive Blogs, Social-Media-Plattformen und Message Boards genauso, wie das Dark- und Deepweb. Das Tool kann die Quelle der gefundenen Informationen auch örtlich lokalisieren und KI-basierte Textanalysen fahren, um relevante Ergebnisse zu Tage zu fördern. Derzeit unterstützt Babel rund 200 verschiedenen Sprachen. Die Einsatzszenarien für ein multilinguales OSINT Tool sind zahlreich: Kommt es etwa zu weltumspannenden Ransomware-Attacken, könnten schnell Trends zur Zielerfassung ermittelt werden. Babel Street Insights könnte auch Aufschluss darüber geben, ob das geistige Eigentum eines Unternehmens auf fremden Webseiten zum Verkauf angeboten wird. Die OSINT-Plattform ist im Wesentlichen Cloud-basiert und ermöglicht seinen Benutzern auch, eigene Datenquellen hinzuzufügen. Mit Babel Box steht auch eine On-Premises-Version zur Verfügung, die allerdings einige Features (wie die Deepweb-Suche) vermissen lässt. Die kostengünstigste Version ist Babel Channels – die eine kuratierte Auswahl von Datenquellen zur Verfügung stellt. Eine Mobile App gibt es für sämtliche Versionen. Mitaka Dieses Tool steht als Chrome Extension oder Firefox Add-On zur Verfügung und bietet Ihnen eine browserbasierte Suche nach IP-Adressen, Domains, URLs, Hashes, ASNs, Bitcoin-Wallet-Adressen und zahlreichen anderen “Indicators of Compromise”. Dabei werden sechs verschiedene Suchmaschinen einbezogen. Praktischerweise dient Mitaka auch als Shortcut zu zahlreichen Online-Datenbanken, die mit einem Klick durchsucht werden können. Für alle die etwas weniger Umfang bevorzugen, steht die alternative Extension Sputnik zur Verfügung. BuiltWith Wie der Name nahelegt, können Sie mit BuiltWith herausfinden, auf welcher Basis populäre Webseiten erstellt wurden (WordPress, Joomla, Drupal, etc.) und weitergehende Details sichtbar machen. Dazu gehört zum Beispiel eine Liste der JavaScript/CSS Bibliotheken, die eine Website nutzt. Darüber hinaus können auch Plugins, Frameworks, Server-, Analytics- und Tracking-Informationen gewonnen werden. Wenn Sie lediglich Informationen über das Tech Stack hinter einer Webseite einsehen wollen, fahren Sie mit Wappalyzer unter Umständen besser, da es ein schlankeres OSINT Tool ist. Grep.app Wie durchsucht man eine halbe Million Git Repositories? Am besten und effizientesten mit Grep.app. Das OSINT Tool kam kürzlich bei Twitter-Usern und Journalisten zum Einsatz, um nachzuvollziehen, wie viele Repositories den Codecov Bash Uploader genutzt haben. Grep.app kann auch hilfreich sein, wenn Sie nach Strings in Zusammenhang mit IOCs, Schadcode oder Malware suchen wollen. Ergänzende Liste von OSINT-Werkzeugen Auf PCWDLD findet sich eine weiterführende Liste mit nützlichen OSINT-Tools. OSINT Framework Neben diesen Tools stehen eine Menge weiterer zur Verfügung, um an OSINT-Daten zu gelangen. Einen guten Anlaufpunkt, diese zu erkunden, bildet das OSINT Framework. Das webbasierte Interface bringt Sie zu den Tools die Sie brauchen, um an die benötigten Informationen zu gelangen. Sämtliche Tools die hier zu finden sind, sind kostenfrei – einige erfordern allerdings eine Registrierung oder bieten in der Bezahlversion bessere Features. Mit OSINT Lücken schließen! Nicht jeder Hackerangriff muss ein Advanced Persistent Threat sein oder unter Anwendung besonders raffinierter Methoden ablaufen. Auch kriminelle Hacker gehen am liebsten den Weg des geringsten Widerstandes. Schließlich wäre es unsinnig, Monate damit zu verschwenden, Systeme zu kompromittieren, wenn alle notwendigen Informationen in öffentlich zugänglichen Kanälen vorliegen. OSINT Tools können Unternehmen dabei unterstützen, herauszufinden, welche Informationen über ihre Netzwerke, Daten und Nutzer öffentlich zugänglich sind. Dabei kommt es vor allem darauf an, diese Daten möglichst schnell zu finden, bevor sie ausgenutzt werden können. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Open Source Intelligence: Die besten OSINT Tools​ Open Source Intelligence Tools finden frei verfügbare Informationen. Die können kriminelle Hacker für ihre Zwecke nutzen – es sei denn, Sie kommen ihnen zuvor.
Foto: GaudiLab – shutterstock.com

In den 1980er Jahren vollzog sich im Bereich der Militär- und Geheimdienste ein Paradigmenwechsel. Klassische Aktivitäten wie das Abfangen von Briefen und Abhören von Telefongesprächen wurden von einem neuen Trend zur Geheimnisausspähung abgelöst: Dabei konzentrierten sich Agenten darauf, frei verfügbare oder offiziell veröffentlichte Informationen für ihre Zwecke zu nutzen. Es war eine andere Welt, die ohne Social Media auskommen musste. Stattdessen waren Zeitungen und öffentlich verfügbare Datenbanken die Hauptquellen für interessante und/oder nützliche Informationen.

OSINT – Definition

Das hört sich simpel an, erforderte in der Praxis allerdings ein Höchstmaß an Kombinationsfähigkeit, um relevante Informationen zuverlässig miteinander zu verknüpfen und daraus ein Lagebild zu erstellen. Diese Art der Spionage bezeichnete man als Open Source Intelligence (OSINT).

Die OSINT-Taktik kann heute auch auf das Gebiet der Cybersecurity angewandt werden. Denn die meisten Unternehmen und Organisationen verfügen über eine ausgedehnte, in weiten Teilen öffentlich zugängliche Infrastruktur, die diverse Netzwerke, Technologien, Hosting Services und Namespaces umfasst. Informationen beziehungsweise Daten können sich dabei auf diversen Geräten befinden – den Rechnern von Mitarbeitern, On-Premises Servern, privaten Devices von Mitarbeitern (im Sinne von “Bring your own Device”), Cloud-Instanzen oder auch dem Quellcode von aktiven Applikationen.

Tatsächlich weiß die IT-Abteilung in Großunternehmen in der Praxis so gut wie nie über alle Assets im Unternehmen Bescheid – ob öffentlich zugänglich oder nicht. Dazu gesellt sich der Umstand, dass die meisten Unternehmen auch verschiedene zusätzliche Assets indirekt verwalten – etwa ihre Social Media Accounts. Gerade in diesem Bereich werden oft Informationen vorgehalten, die gefährlich werden könnten, falls sie in falsche Hände geraten.

An dieser Stelle kommt die aktuelle Generation der Open Source Intelligence Tools ins Spiel. Die OSINT-Werkzeuge übernehmen im Wesentlichen drei Funktionen:

Öffentlich zugängliche Assets aufspüren: Die gängigste Funktion von OSINT Tools ist es, IT-Teams dabei zu unterstützen, öffentlich zugängliche Assets und die darin enthaltenen Informationen zu ermitteln. Dabei geht es insbesondere um Daten, die potenziell zur Erschließung von Angriffsvektoren beitragen könnten. Damit ist jedoch nicht die Ermittlung von Sicherheitslücken oder Penetration Testing gemeint – es geht ausschließlich um Informationen, die ohne den Einsatz von Hacking-Methoden zugänglich sind.

Relevante Informationen außerhalb der Organisation finden: Eine weitere Funktion von Open Source Intelligence Tools liegt darin, Informationen aufzuspüren, die sich außerhalb der eigenen Organisation befinden – also etwa auf Social-Media-Plattformen oder Domains. Dieses Feature dürfte insbesondere für Großunternehmen interessant sein, die im Rahmen von Firmenübernahmen neue IT Assets integrieren. Angesichts des extremen Wachstums von Social-Media-Plattformen ist die Überprüfung auf sensible Informationen außerhalb der Unternehmensgrenzen für jede Organisation sinnvoll.

Ermittelte Informationen verwertbar zusammenstellen: Einige OSINT Tools sind in der Lage, gesammelte Informationen und Daten in verwertbarer Form zusammenzufassen. Ein OSINT Scan kann im Fall eines Großunternehmens hunderttausende von Ergebnissen aufwerfen – insbesondere, wenn sowohl interne als auch externe Quellen miteinfließen. Die Daten zu strukturieren und die drängendsten Probleme zuerst anzugehen, ist nicht nur in solchen Fällen hilfreich.

Open Source Intelligence – die besten Tools

Indem sie Informationen über Ihr Unternehmen, Ihre Mitarbeiter, Ihre IT Assets oder andere sensible Daten zu Tage fördern, die von böswilligen Angreifern ausgenutzt werden könnten, können geeignete Open Source Intelligence Tools dazu beitragen, Ihr IT-Security-Niveau zu erhöhen: Wenn Sie solche Informationen vor den Angreifern finden, können Sie die Gefahr böswilliger Aktivitäten – von Phishing– bis hin zu Denial-of-Service-Attacken – deutlich reduzieren. Im Folgenden stellen wir Ihnen einige der besten Open Source Intelligence Tools sowie deren individuelle Stärken vor.

Maltego

Dieses OSINT Tool ist darauf ausgelegt, Beziehungsgeflechte zwischen Menschen, Unternehmen, Domains und öffentlich zugänglichen Informationen im World Wide Web offenzulegen. Die Ergebnisse visualisiert Maltego in Form ansprechender Grafiken und Diagramme, in die bis zu 10.000 Datenpunkte einfließen können. Maltego durchsucht auf Knopfdruck automatisiert verschiedene öffentliche Datenquellen. Dazu gehören etwa DNS-Abfragen, Suchmaschinen und soziale Netzwerke. Kompatibel ist das Tool mit nahezu jeder Datenquelle, die ein öffentlich zugängliches Interface aufweist.

Ist die Informationssammlung abgeschlossen, verknüpft das OSINT Tool die Daten und gibt Auskunft über die verborgenen Relationen zwischen Namen, E-Mail-Adressen, Unternehmen, Webseiten und anderen Informationen. Weil Maltego auf Java-Basis entstanden ist, läuft es zuverlässig auf Windows-, Mac- und Linux-Plattformen.

Für Privatpersonen und kleine Teams steht Maltego wahlweise in der CE- oder Pro-Edition zur Verfügung. Während erstere kostenlos ist (und eingeschränkte Funktionen aufweist), kostet die Pro-Version jährlich 1.099 Euro. Unternehmen haben die Wahl zwischen der OSINT- und CTI-Version. Eine entsprechende Demo-Version und Infos zum Preisgefüge gibt’s auf Anfrage.

Recon-ng

Softwareentwickler die mit Python arbeiten, steht mit Recon-ng ein vielschichtiges OSINT Tool zur Verfügung. Das Interface ähnelt Metasploit, was die Lernkurve für erfahrene Nutzer des populären Frameworks deutlich absenkt. Dank einer interaktiven Hilfefunktion (was vielen Python-Modulen fehlt) können Developer quasi direkt mit der Arbeit loslegen.

Die beinhaltet im Fall von Recon-ng die automatisierte Abarbeitung zeitintensiver und repetitiver OSINT Tasks (etwa Copy-und-Paste-Marathons). Das schafft mehr Zeit für die Dinge, die manuell erledigt werden müssen. Damit auch Python-Anfänger mit Recon-ng zurechtkommen, verfügt das OSINT Tool über ein modulares Framework mit zahlreichen integrierten Funktionalitäten. Dazu gehören beispielsweise gängige Aufgaben wie die Standardisierung von Output, die Interaktion mit Datenbanken, das Anstoßen von Web Requests oder API Key Management. Statt Recon-ng aufwändig zu programmieren, suchen sich die Entwickler einfach die Funktionen aus, die sie benötigen und stellen so in nur wenigen Minuten ein automatisiertes Modul zusammen.

Bei Recon-ng handelt es sich um kostenlose, quelloffene Software.

theHarvester

In Sachen Nutzung ist theHarvester eines der simpelsten OSINT Tools in dieser Übersicht. Das Werkzeug ist darauf ausgelegt, Informationen außerhalb des eigenen Netzwerks von Organisationen und Unternehmen aufzuspüren. Zwar kann theHarvester auch eingesetzt werden, um interne Netzwerke auf Informationen zu durchsuchen, der Schwerpunkt liegt jedoch auf externen Daten.

Zu den Quellen die das OSINT Tool heranzieht, gehören sowohl populäre Suchmaschinen wie Google und Bing, als auch weniger bekannte wie dogpile, DNSDumpster und die Exalead Metadaten-Engine. Sogar Shodan kann eingebunden werden, um offene Ports auf entdeckten Hosts zu ermitteln. Ganz generell erfasst theHarvester Emails, Namen, Subdomains, IPs und URLs.

TheHarvester kann auf die meisten öffentlich zugänglichen Quellen ohne spezielle Maßnahmen zugreifen. Allerdings können einige wenige Quellen einen API Key erfordern – und Python muss mindestens in Version 3.6 vorliegen. Das Tool steht auf GitHub zur freien Verfügung.

Shodan

Bei Shodan handelt es sich um eine dedizierte Suchmaschine, die Informationen über Geräte liefert – beispielsweise die bereits millionenfach im Einsatz befindlichen IoT Devices. Das OSINT Tool kann auch dazu genutzt werden, offene Ports oder Schwachstellen auf bestimmten Systemen zu finden. Einige andere Open Source Intelligence Tools nutzen Shodan als Datenquelle – eine tiefgehende Interaktion erfordert allerdings einen kostenpflichtigen Account.

Die Einsatzmöglichkeiten von Shodan sind dabei ziemlich beeindruckend: Es ist eines der wenigen Tools, das bei seinen Analysen auch Operational Technology (OT) mit einbeziehen, wie sie etwa in industriellen Kontrollsystemen von Kraftwerken oder Fabriken zum Einsatz kommt. Jede OSINT-Initiative wäre in einer Branche, in der IT und OT Hand in Hand gehen, also mit erheblichen Lücken behaftet wenn sie nicht auf Shodan basiert. Darüber hinaus ist es mit dem OSINT Tool auch möglich, Datenbanken zu untersuchen: Unter Umständen sind hier Informationen über Umwege öffentlich aufrufbar.

Eine Freelancer-Lizenz (69 Dollar monatlich) für Shodan ermöglicht den Scan von bis zu 5.120 IP-Adressen pro Monat – mit bis zu einer Million Ergebnissen. Die Corporate-Lizenz verspricht unbegrenzte Ergebnisse und ermöglicht den Scan von monatlich 327.680 IP-Adressen – für 1.099 Dollar pro Monat, dann aber inklusive Schwachstellen-Suchfilter und Premium Support. Kleine(re) Unternehmen greifen auf den Small-Business-Preisplan für 359 Dollar monatlich zurück.

Metagoofil

Auch Metagoofil ist über die GitHub-Plattform frei verfügbar. Dieses Tool ist darauf ausgelegt, Metadaten aus öffentlichen Dokumenten zu extrahieren. Geht es um die Art des Dokuments, setzt das OSINT Tools keine Grenzen, egal ob .pdf-, .doc-, .ppt-, oder .xls-Datei.

Die Menge an interessanten Daten, die Metagoofil dabei aufwirft, ist beeindruckend. So können entweder im Handumdrehen die mit bestimmten Dokumenten verknüpften Usernamen ermittelt werden. Dabei gibt das OSINT Tool auch Aufschluss über den genauen Pfad, der zu den Informationen führt. Daraus lassen sich wiederum leicht Rückschlüsse über Servernamen, geteilte Ressourcen und Verzeichnisstrukturen des betreffenden Unternehmens ziehen.

So gut wie alle Informationen die Metagoofil liefert, wären für einen kriminellen Hacker nützlich. Organisationen und Unternehmen können das Open Source Intelligence Tool hingegen nutzen, um genau diese Informationen vor potenziellen Übeltätern aufzuspüren und sie entsprechend abzusichern oder zu verbergen.

searchcode

Wenn Sie wirklich tief in die OSINT-Materie eintauchen wollen, steht Ihnen mit searchcode eine hochspezialisierte Suchmaschine zur Verfügung, die Quellcode nach interessanten Daten durchforstet. Softwareentwickler können so Probleme aufdecken und beheben, bevor die betreffende Software ausgerollt wird.

Natürlich verlangt jedes Tool, das mit Quellcode arbeitet, ein wenig mehr Knowhow als eine einfache Google-Suche – der Macher von searchcode hat aber alles darangesetzt, das Interface seines OSINT Tools so einfach wie nur möglich zu gestalten. Der Benutzer gibt seine Suchanfrage ein und searchcode liefert die Ergebnisse in Form von entsprechenden Markierungen innerhalb des Source Codes. So können etwa Usernamen, Security-Schwachstellen, ungewollte aktive Funktionen (wie re-compile) oder auch Sonderzeichen, die für Code-Injection-Angriffe verwendet werden können, ermittelt werden.

Die Ergebnisse von Searchcode sind dabei selbsterklärend – dennoch liefert das OSINT Tool auch weiterführende Informationen oder relevante Probleme, die mit den Ergebnissen in Zusammenhang stehen.

Babel Street Insights

Relevante Informationen müssen nicht unbedingt auf Englisch oder Deutsch vorliegen – die Informationen, die Sie benötigen, könnten auch in Chinesisch oder Spanisch verfasst sein. An dieser Stelle kommt Babel Street Insights ins Spiel: Das multilinguale OSINT Tool durchsucht das öffentliche Web inklusive Blogs, Social-Media-Plattformen und Message Boards genauso, wie das Dark- und Deepweb. Das Tool kann die Quelle der gefundenen Informationen auch örtlich lokalisieren und KI-basierte Textanalysen fahren, um relevante Ergebnisse zu Tage zu fördern. Derzeit unterstützt Babel rund 200 verschiedenen Sprachen.

Die Einsatzszenarien für ein multilinguales OSINT Tool sind zahlreich: Kommt es etwa zu weltumspannenden Ransomware-Attacken, könnten schnell Trends zur Zielerfassung ermittelt werden. Babel Street Insights könnte auch Aufschluss darüber geben, ob das geistige Eigentum eines Unternehmens auf fremden Webseiten zum Verkauf angeboten wird.

Die OSINT-Plattform ist im Wesentlichen Cloud-basiert und ermöglicht seinen Benutzern auch, eigene Datenquellen hinzuzufügen. Mit Babel Box steht auch eine On-Premises-Version zur Verfügung, die allerdings einige Features (wie die Deepweb-Suche) vermissen lässt. Die kostengünstigste Version ist Babel Channels – die eine kuratierte Auswahl von Datenquellen zur Verfügung stellt. Eine Mobile App gibt es für sämtliche Versionen.

Mitaka

Dieses Tool steht als Chrome Extension oder Firefox Add-On zur Verfügung und bietet Ihnen eine browserbasierte Suche nach IP-Adressen, Domains, URLs, Hashes, ASNs, Bitcoin-Wallet-Adressen und zahlreichen anderen “Indicators of Compromise”. Dabei werden sechs verschiedene Suchmaschinen einbezogen.

Praktischerweise dient Mitaka auch als Shortcut zu zahlreichen Online-Datenbanken, die mit einem Klick durchsucht werden können. Für alle die etwas weniger Umfang bevorzugen, steht die alternative Extension Sputnik zur Verfügung.

BuiltWith

Wie der Name nahelegt, können Sie mit BuiltWith herausfinden, auf welcher Basis populäre Webseiten erstellt wurden (WordPress, Joomla, Drupal, etc.) und weitergehende Details sichtbar machen. Dazu gehört zum Beispiel eine Liste der JavaScript/CSS Bibliotheken, die eine Website nutzt. Darüber hinaus können auch Plugins, Frameworks, Server-, Analytics- und Tracking-Informationen gewonnen werden.

Wenn Sie lediglich Informationen über das Tech Stack hinter einer Webseite einsehen wollen, fahren Sie mit Wappalyzer unter Umständen besser, da es ein schlankeres OSINT Tool ist.

Grep.app

Wie durchsucht man eine halbe Million Git Repositories? Am besten und effizientesten mit Grep.app. Das OSINT Tool kam kürzlich bei Twitter-Usern und Journalisten zum Einsatz, um nachzuvollziehen, wie viele Repositories den Codecov Bash Uploader genutzt haben.

Grep.app kann auch hilfreich sein, wenn Sie nach Strings in Zusammenhang mit IOCs, Schadcode oder Malware suchen wollen.

Ergänzende Liste von OSINT-Werkzeugen

Auf PCWDLD findet sich eine weiterführende Liste mit nützlichen OSINT-Tools.

OSINT Framework

Neben diesen Tools stehen eine Menge weiterer zur Verfügung, um an OSINT-Daten zu gelangen. Einen guten Anlaufpunkt, diese zu erkunden, bildet das OSINT Framework. Das webbasierte Interface bringt Sie zu den Tools die Sie brauchen, um an die benötigten Informationen zu gelangen. Sämtliche Tools die hier zu finden sind, sind kostenfrei – einige erfordern allerdings eine Registrierung oder bieten in der Bezahlversion bessere Features.

Mit OSINT Lücken schließen!

Nicht jeder Hackerangriff muss ein Advanced Persistent Threat sein oder unter Anwendung besonders raffinierter Methoden ablaufen. Auch kriminelle Hacker gehen am liebsten den Weg des geringsten Widerstandes. Schließlich wäre es unsinnig, Monate damit zu verschwenden, Systeme zu kompromittieren, wenn alle notwendigen Informationen in öffentlich zugänglichen Kanälen vorliegen.

OSINT Tools können Unternehmen dabei unterstützen, herauszufinden, welche Informationen über ihre Netzwerke, Daten und Nutzer öffentlich zugänglich sind. Dabei kommt es vor allem darauf an, diese Daten möglichst schnell zu finden, bevor sie ausgenutzt werden können.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Open Source Intelligence: Die besten OSINT Tools​ Weiterlesen »

So nutzen Betrüger KI​

Allgemein

Betrugsversuche mit KI-Unterstützung haben enorm zugenommen – besonders beliebt: gefakte Webshops. Who is Danny – shutterstock.com Betrugsversuche im Wert von 4 Milliarden Dollar abgewehrt, 49.000 betrügerische Partnerregistrierungen abgelehnt, stündlich etwa 1,6 Millionen Bot-Anmeldeversuche blockiert – das sind nur ein paar Zahlen, die Microsoft in seinem Bericht „Cyber Signals“ für das vergangene Jahr (April 2024 – April 2025) zu Betrugs- und Missbrauchsversuchen nennt. Zahlen, die gleichzeitig untermauern, wie die rasante KI-Entwicklung die Landschaft der Cyberkriminalität verändert. Deutschland besonders betroffen Laut dem Microsoft Anti-Fraud Team ereignen sich KI-gesteuerte Betrugsangriffe weltweit. Dabei stammt ein Großteil der Aktivitäten aus China und Europa, insbesondere Deutschland. Dies liegt zum Teil, so Microsoft, an Deutschlands Status als einer der größten E-Commerce- und Online-Dienstleistungsmärkte in der EU. Dabei senkt KI nicht nur die technischen Einstiegshürden für die Betrüger, sondern eröffnet ihnen auch ein breites Spektrum an Werkzeugen für die Erstellung überzeugender Inhalte für Angriffe. Mit Hilfe von KI-Werkzeugen wird etwa das Internet nach Unternehmensinformationen durchsucht, um detaillierte Profile von Mitarbeitern oder anderen Zielpersonen zu erstellen. Diese Informationen dienen dann als Basis für hochgradig überzeugende Social-Engineering-Köder. Die Betrugsmaschen Oder Kriminelle nutzen KI, um gefälschte, KI-gestützte Produktbewertungen und KI-generierte Online-Shops zu erstellen. Auf diese erstellen die Betrüger ganze Websites und E-Commerce-Marken mit gefälschten Unternehmensgeschichten und Kundenreferenzen. So locken sie ihre Opfer in immer komplexere Betrugsschemata. Um sich einen legitimen Anstrich zu geben, kommen Deepfakes, Voice-Cloning, Phishing-E-Mails und authentisch aussehende gefälschte Websites zum Einsatz. Solche Taktiken und Werkzeuge eröffnen ein weites Feld an Betrugsmöglichkeiten. Microsoft zufolge kristallisieren sich aber vor allem drei Arten heraus: E-Commerce-Betrug, Job- und Arbeitsplatzbetrug, Tech-Support-Betrug. E-Commerce-Betrug Betrügerische E-Commerce-Websites können mithilfe von KI und anderen Tools mit minimalen technischen Kenntnissen in Minutenschnelle eingerichtet werden. Früher benötigten die Kriminellen noch Tage oder Wochen, um überzeugende Websites zu erstellen. Diese betrügerischen Websites ähneln oft legitimen Seiten. Dies erschwert es, sie als Fälschungen zu erkennen. Dabei täuschen KI-generierte Produktbeschreibungen, Bilder und Kundenbewertungen die potenziellen Kunden. Zudem wird häufig das Vertrauen der Verbraucher in bekannte Marken ausgenutzt. So glauben die Opfer, mit einem echten Händler zu interagieren. KI-gestützte Kundenservice-Chatbots stellen eine weitere Ebene der Täuschung dar, indem sie überzeugend mit Kunden interagieren. Diese Bots können Rückbuchungen verzögern, indem sie Kunden mit vorgefertigten Ausreden hinhalten und Beschwerden mit KI-generierten Antworten manipulieren, die betrügerische Websites professionell erscheinen lassen. Job- und Beschäftigungsbetrug GenAI erleichtert es Betrügern zudem, gefälschte Stellenangebote auf verschiedenen Jobplattformen zu generieren. Ziel dieser Betrugsmasche ist es, persönliche Informationen wie Lebensläufe oder sogar Bankkontodaten unter dem Vorwand der Überprüfung der Bewerberdaten zu erlangen. Um Jobsuchende zu phishen, nutzen die Kriminellen gefälschte Profile mit gestohlenen Anmeldeinformationen, gefälschte Stellenanzeigen mit automatisch generierten Beschreibungen und KI-gesteuerte E-Mail-Kampagnen. . KI-gestützte Vorstellungsgespräche und automatisierte E-Mails erhöhen die Glaubwürdigkeit von Jobbetrügereien und erschweren es Jobsuchenden, betrügerische Angebote zu erkennen. Unaufgeforderte SMS- und E-Mail-Nachrichten mit Stellenangeboten, die hohe Bezahlung für minimale Qualifikationen versprechen, sind typische Anzeichen für Betrug. Andere Methoden sind Stellenangebote, die Zahlungsaufforderungen beinhalten, sowie Angebote, die zu gut erscheinen, um wahr zu sein. Ebenso können unaufgeforderte Angebote oder Interviewanfragen per SMS sowie das Fehlen formaler Kommunikationsplattformen allesamt Anzeichen für Betrug sein. Tech-Support-Betrug Bei dieser Form des Betrugs versuchen die Kriminellen, ihre Opfer zu unnötigen technischen Support-Leistungen zu verleiten, um Geräte- oder Softwareprobleme zu beheben, die nicht existieren. Laut Microsoft spielt KI in diesem Segment noch eine untergeordnete Rolle – das Betrugsrisiko ist dennoch hoch. Gern missbraucht wird dazu die Microsoft Quick Assist Software – eine Methode, die auch ohne KI-Nutzung funktioniert.  Die Angreifer nutzen stattdessen Voice-Phishing (Vishing), um sich als legitime Organisationen auszugeben. So überzeugen sie ihre Opfer, ihnen über Quick Assist Zugriff auf ihre Geräte zu gewähren. Abwehrmaßnahmen Glaubt man Microsoft, so fährt das Unternehmen bereits einen mehrgleisigen Ansatz, KI-gesteuerten Betrug abzuwehren. Einige der Maßnahmen, die der Konzern nennt, sind unter anderem: Microsoft Defender for Cloud, um Azure-Ressourcen zu schützen. Microsoft Edge, hier sollen Deep-Learning-Technologien einen Schutz vor Domain-Impersonation bieten. Ebenso soll der Machine-Learning-basierte Scareware Blocker gegen Betrüger helfen. LinkedIn, KI gestützte Systeme, um gefälschte Stellenangebote zu erkennen. Quick Assist, Warnmeldungen vor potenziellen Tech-Support-Scams, verdächtige Verbindungsversuche werden durch “Digital Fingerprinting” (basierend auf KI und Machine Learning) blockiert. Microsoft Defender SmartScreen, ein Cloud-basierter Sicherheitsdienst zur Analyse von Websites, Dateien und Anwendungen. Tipps für Unternehmen Allerdings können diese Maßnahmen nur einen ersten Schritt darstellen. Um den KI-Betrug wirksam einzudämmen, sind auch Unternehmen und Verbraucher gefordert. Jobplattformen rät der Softwarekonzern, die Arbeitgeberkonten besser zu schützen. Ein Ansatz sei etwa eine stärkere Authentifizierung mittels Multi-Faktor-Authentifizierung (MFA). Ebenso lohne es sich, eine verifizierte ID einzuführen. Dies erschwere es Betrügern, legitime Unternehmensprofile zu übernehmen. Mit Blick auf den Tech-Support Betrug empfiehlt Microsoft Unternehmen, Remote Help anstelle von Quick Assist für den internen technischen Support zu verwenden. Schließlich sei Remote Help so konzipiert, dass es nur innerhalb des Tenants einer Organisation verwendet werden könne. Ratschläge für Consumer Hinter den Betrugsmaschen stecken häufig psychologische Auslöser wie Dringlichkeit, Knappheit oder Vertrauen in die dargestellte Identität. Die User sollten deshalb auf folgende Aspekte achten: Impulskäufe: Betrüger erzeugen mit „zeitlich begrenzten“ Angeboten und Countdown-Timern ein Gefühl der Dringlichkeit. falsches Vertrauen in Fakes: KI generiert gefälschte Bewertungen, Empfehlungen von Influencern etc., falsche Testimonials. Klicken Anzeigen ohne Überprüfung: Viele betrügerische Websites verbreiten sich über KI-optimierte Social-Media-Anzeigen. Verbraucher sollten vor dem Kauf Domainnamen und Bewertungen überprüfen. Zahlungssicherheit: Vermeiden Sie direkte Banküberweisungen oder Zahlungen in Kryptowährungen. Diese bieten keinen Schutz vor Betrug. Warnsignale bei Jobangeboten Mit Blick auf die gefälschten Jobangebote sollten Interessenten die Legitimität des Arbeitgebers überprüfen. Andere Warnsignale für Jobbetrügereien sind etwa Vorauszahlungen für Schulungsmaterialien, Zertifizierungen oder Hintergrundprüfungen. Verdächtig sind auch unrealistische Gehälter oder Stellen im Homeoffice, für die keine Erfahrung erforderlich ist. Skeptisch sollte man auch bei E-Mails von kostenlosen Domains (etwa johndoehr@gmail.com statt hr@company.com) werden. In der Regel ist das ebenfalls ein Hinweis auf betrügerische Aktivitäten. Vorsicht ist auch gegenüber KI-generierten Interviews und Mitteilungen angesagt. Wenn ein Videointerview unnatürlich wirkt, mit lippensynchronen Verzögerungen, roboterhafter Sprache oder seltsamen Gesichtsausdrücken aufwartet, könnte Deepfake-Technologie im Spiel sein. Und last, but not least, sollten einem nicht verifizierten Arbeitgeber Sozialversicherungsnummer, Bankdaten oder Passwörter nicht übermittelt werden. 

So nutzen Betrüger KI​ Betrugsversuche mit KI-Unterstützung haben enorm zugenommen – besonders beliebt: gefakte Webshops.
Who is Danny – shutterstock.com

Betrugsversuche im Wert von 4 Milliarden Dollar abgewehrt, 49.000 betrügerische Partnerregistrierungen abgelehnt, stündlich etwa 1,6 Millionen Bot-Anmeldeversuche blockiert – das sind nur ein paar Zahlen, die Microsoft in seinem Bericht „Cyber Signals“ für das vergangene Jahr (April 2024 – April 2025) zu Betrugs- und Missbrauchsversuchen nennt. Zahlen, die gleichzeitig untermauern, wie die rasante KI-Entwicklung die Landschaft der Cyberkriminalität verändert.

Deutschland besonders betroffen

Laut dem Microsoft Anti-Fraud Team ereignen sich KI-gesteuerte Betrugsangriffe weltweit. Dabei stammt ein Großteil der Aktivitäten aus China und Europa, insbesondere Deutschland. Dies liegt zum Teil, so Microsoft, an Deutschlands Status als einer der größten E-Commerce- und Online-Dienstleistungsmärkte in der EU.

Dabei senkt KI nicht nur die technischen Einstiegshürden für die Betrüger, sondern eröffnet ihnen auch ein breites Spektrum an Werkzeugen für die Erstellung überzeugender Inhalte für Angriffe. Mit Hilfe von KI-Werkzeugen wird etwa das Internet nach Unternehmensinformationen durchsucht, um detaillierte Profile von Mitarbeitern oder anderen Zielpersonen zu erstellen. Diese Informationen dienen dann als Basis für hochgradig überzeugende Social-Engineering-Köder.

Die Betrugsmaschen

Oder Kriminelle nutzen KI, um gefälschte, KI-gestützte Produktbewertungen und KI-generierte Online-Shops zu erstellen. Auf diese erstellen die Betrüger ganze Websites und E-Commerce-Marken mit gefälschten Unternehmensgeschichten und Kundenreferenzen. So locken sie ihre Opfer in immer komplexere Betrugsschemata. Um sich einen legitimen Anstrich zu geben, kommen Deepfakes, Voice-Cloning, Phishing-E-Mails und authentisch aussehende gefälschte Websites zum Einsatz.

Solche Taktiken und Werkzeuge eröffnen ein weites Feld an Betrugsmöglichkeiten. Microsoft zufolge kristallisieren sich aber vor allem drei Arten heraus:

E-Commerce-Betrug,

Job- und Arbeitsplatzbetrug,

Tech-Support-Betrug.

E-Commerce-Betrug

Betrügerische E-Commerce-Websites können mithilfe von KI und anderen Tools mit minimalen technischen Kenntnissen in Minutenschnelle eingerichtet werden. Früher benötigten die Kriminellen noch Tage oder Wochen, um überzeugende Websites zu erstellen. Diese betrügerischen Websites ähneln oft legitimen Seiten. Dies erschwert es, sie als Fälschungen zu erkennen.

Dabei täuschen KI-generierte Produktbeschreibungen, Bilder und Kundenbewertungen die potenziellen Kunden. Zudem wird häufig das Vertrauen der Verbraucher in bekannte Marken ausgenutzt. So glauben die Opfer, mit einem echten Händler zu interagieren.

KI-gestützte Kundenservice-Chatbots stellen eine weitere Ebene der Täuschung dar, indem sie überzeugend mit Kunden interagieren. Diese Bots können Rückbuchungen verzögern, indem sie Kunden mit vorgefertigten Ausreden hinhalten und Beschwerden mit KI-generierten Antworten manipulieren, die betrügerische Websites professionell erscheinen lassen.

Job- und Beschäftigungsbetrug

GenAI erleichtert es Betrügern zudem, gefälschte Stellenangebote auf verschiedenen Jobplattformen zu generieren. Ziel dieser Betrugsmasche ist es, persönliche Informationen wie Lebensläufe oder sogar Bankkontodaten unter dem Vorwand der Überprüfung der Bewerberdaten zu erlangen.

Um Jobsuchende zu phishen, nutzen die Kriminellen gefälschte Profile mit gestohlenen Anmeldeinformationen, gefälschte Stellenanzeigen mit automatisch generierten Beschreibungen und KI-gesteuerte E-Mail-Kampagnen. . KI-gestützte Vorstellungsgespräche und automatisierte E-Mails erhöhen die Glaubwürdigkeit von Jobbetrügereien und erschweren es Jobsuchenden, betrügerische Angebote zu erkennen.

Unaufgeforderte SMS- und E-Mail-Nachrichten mit Stellenangeboten, die hohe Bezahlung für minimale Qualifikationen versprechen, sind typische Anzeichen für Betrug. Andere Methoden sind Stellenangebote, die Zahlungsaufforderungen beinhalten, sowie Angebote, die zu gut erscheinen, um wahr zu sein. Ebenso können unaufgeforderte Angebote oder Interviewanfragen per SMS sowie das Fehlen formaler Kommunikationsplattformen allesamt Anzeichen für Betrug sein.

Tech-Support-Betrug

Bei dieser Form des Betrugs versuchen die Kriminellen, ihre Opfer zu unnötigen technischen Support-Leistungen zu verleiten, um Geräte- oder Softwareprobleme zu beheben, die nicht existieren. Laut Microsoft spielt KI in diesem Segment noch eine untergeordnete Rolle – das Betrugsrisiko ist dennoch hoch.

Gern missbraucht wird dazu die Microsoft Quick Assist Software – eine Methode, die auch ohne KI-Nutzung funktioniert.  Die Angreifer nutzen stattdessen Voice-Phishing (Vishing), um sich als legitime Organisationen auszugeben. So überzeugen sie ihre Opfer, ihnen über Quick Assist Zugriff auf ihre Geräte zu gewähren.

Abwehrmaßnahmen

Glaubt man Microsoft, so fährt das Unternehmen bereits einen mehrgleisigen Ansatz, KI-gesteuerten Betrug abzuwehren. Einige der Maßnahmen, die der Konzern nennt, sind unter anderem:

Microsoft Defender for Cloud,

um Azure-Ressourcen zu schützen.

Microsoft Edge,

hier sollen Deep-Learning-Technologien einen Schutz vor Domain-Impersonation bieten. Ebenso soll der Machine-Learning-basierte Scareware Blocker gegen Betrüger helfen.

LinkedIn,

KI gestützte Systeme, um gefälschte Stellenangebote zu erkennen.

Quick Assist,

Warnmeldungen vor potenziellen Tech-Support-Scams, verdächtige Verbindungsversuche werden durch “Digital Fingerprinting” (basierend auf KI und Machine Learning) blockiert.

Microsoft Defender SmartScreen,

ein Cloud-basierter Sicherheitsdienst zur Analyse von Websites, Dateien und Anwendungen.

Tipps für Unternehmen

Allerdings können diese Maßnahmen nur einen ersten Schritt darstellen. Um den KI-Betrug wirksam einzudämmen, sind auch Unternehmen und Verbraucher gefordert. Jobplattformen rät der Softwarekonzern, die Arbeitgeberkonten besser zu schützen.

Ein Ansatz sei etwa eine stärkere Authentifizierung mittels Multi-Faktor-Authentifizierung (MFA). Ebenso lohne es sich, eine verifizierte ID einzuführen. Dies erschwere es Betrügern, legitime Unternehmensprofile zu übernehmen.

Mit Blick auf den Tech-Support Betrug empfiehlt Microsoft Unternehmen, Remote Help anstelle von Quick Assist für den internen technischen Support zu verwenden. Schließlich sei Remote Help so konzipiert, dass es nur innerhalb des Tenants einer Organisation verwendet werden könne.

Ratschläge für Consumer

Hinter den Betrugsmaschen stecken häufig psychologische Auslöser wie Dringlichkeit, Knappheit oder Vertrauen in die dargestellte Identität. Die User sollten deshalb auf folgende Aspekte achten:

Impulskäufe:

Betrüger erzeugen mit „zeitlich begrenzten“ Angeboten und Countdown-Timern ein Gefühl der Dringlichkeit.

falsches Vertrauen in Fakes:

KI generiert gefälschte Bewertungen, Empfehlungen von Influencern etc., falsche Testimonials.

Klicken Anzeigen ohne Überprüfung:

Viele betrügerische Websites verbreiten sich über KI-optimierte Social-Media-Anzeigen. Verbraucher sollten vor dem Kauf Domainnamen und Bewertungen überprüfen.

Zahlungssicherheit:

Vermeiden Sie direkte Banküberweisungen oder Zahlungen in Kryptowährungen. Diese bieten keinen Schutz vor Betrug.

Warnsignale bei Jobangeboten

Mit Blick auf die gefälschten Jobangebote sollten Interessenten die Legitimität des Arbeitgebers überprüfen. Andere Warnsignale für Jobbetrügereien sind etwa Vorauszahlungen für Schulungsmaterialien, Zertifizierungen oder Hintergrundprüfungen.

Verdächtig sind auch unrealistische Gehälter oder Stellen im Homeoffice, für die keine Erfahrung erforderlich ist. Skeptisch sollte man auch bei E-Mails von kostenlosen Domains (etwa johndoehr@gmail.com statt hr@company.com) werden. In der Regel ist das ebenfalls ein Hinweis auf betrügerische Aktivitäten.

Vorsicht ist auch gegenüber KI-generierten Interviews und Mitteilungen angesagt. Wenn ein Videointerview unnatürlich wirkt, mit lippensynchronen Verzögerungen, roboterhafter Sprache oder seltsamen Gesichtsausdrücken aufwartet, könnte Deepfake-Technologie im Spiel sein.

Und last, but not least, sollten einem nicht verifizierten Arbeitgeber Sozialversicherungsnummer, Bankdaten oder Passwörter nicht übermittelt werden.

So nutzen Betrüger KI​ Weiterlesen »

Wie Terraform die IaC-Evolution treibt​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?quality=50&strip=all 4096w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=300%2C158&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=768%2C405&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=1024%2C540&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=1536%2C810&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=2048%2C1080&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=1240%2C654&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=150%2C79&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=854%2C450&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=640%2C338&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=444%2C234&quality=50&strip=all 444w” width=”1024″ height=”540″ sizes=”(max-width: 1024px) 100vw, 1024px”>Geht’s um IaC, ist Terraform für viele Organisationen und Unternehmen gesetzt – trotz neuer, innovativer Konkurrenten.Quardia / Shutterstock Vor kurzem haben wir in einem ausführlichen Beitrag beleuchtet, wie sich die Terraform-Abspaltung OpenTofu zunehmend zu einer interessanten, quelloffenen Alternative für Unternehmen entwickelt. Doch auch wenn der Terraform-Fork aktuell stark im Kommen ist, gibt es eine Sache zu bedenken: Einzelne Projekte oder Produkte können sich zwar rasant entwickeln – die Branchen-Mühlen mahlen allerdings immer noch langsam.    Und während OpenTofu, Pulumi und andere Terraform-Alternativen sich vor allem auf den Infrastructure-as-Code (IaC)-Markt fokussieren, nimmt HashiCorp inzwischen den wesentlich größeren IT-Management-Markt ins Visier. Und zwar mit einer ganzen Reihe von Services, die sein IaC-Tool Terraform ergänzen und ermöglichen, es mit IBM-Red-Hat-Produkten wie Ansible zu kombinieren. Das langfristige Ziel des Unternehmens besteht darin, zu einem strategischen Anbieter zu werden, der mehr als IaC zu bieten hat. Deshalb konkurriert HashiCorp nicht nur mit den bereits genannten Open-Source-Herausforderern, sondern auch mit Cloud-Schwergewichten wie Amazon Web Services (AWS). Der ganzheitliche IaC-Blick Infrastructure as Code beschreibt Systemressourcen als Code, was es einfacher gestaltet, Portabilität, Wiederholbarkeit und Prüfbarkeit über die gesamte Softwareinfrastruktur hinweg sicherzustellen. Hashicorps Terraform hat sich seit seiner Einführung im Jahr 2014 für sehr viele Unternehmen und Organisationen zu einem unverzichtbaren Tool entwickelt, um IaC zu managen. Insofern hat HashiCorp, respektive Terraform, starken und wachsenden Einfluss auf IaC und sein Konfigurationsmanagement. Auf dem deutlich größeren Markt für IT-Management-Software ist der Fußabdruck hingegen deutlich kleiner. Und das ist auch gut so, denn es gewährleistet ausreichend Raum für Wachstum. Das ist wiederum nötig, um sich den Wettbewerbern zu „erwehren“. Das sind vor allem: OpenTofu mit seiner quelloffenen, Community-basierten und zunehmend innovativen IaC-Variante. Pulumi mit seinem entwicklerzentrierten IaC-Ansatz, der es ermöglicht, die Infrastruktur mit vertrauten Programmiersprachen wie Python, Go und JavaScript zu definieren. AWS mit seiner nativen und eng integrierten IaC-Lösung CloudFormation. Keine dieser Herausforderungen ist für Terraform einfach zu bewältigen. Aber mit Ausnahme von AWS können andere Anbieter nicht mit dem umfassenderen IaC-Ansatz von HashiCorp mithalten. Das hat der Konzern längst erkannt und betont deshalb auch, dass Terraform den gesamten Infrastruktur-Lebenszyklus abdeckt – von der Ersteinrichtung (Day 0) über die Bereitstellung (Day 1), bis hin zu Management und Security (Day 2). Dieser ganzheitliche Ansatz trägt den sich entwickelnden Bedürfnissen von Organisationen Rechnung. Darüber hinaus bietet HashiCorp: mit Terraform Stacks auch Funktionen, um komplexe Multicomponent-Deployments zu managen, Modul-Lebenszyklus-Management, um Upgrades zu optimieren, sowie erweitertes Tagging, um die Organisation und Governance in Terraform zu optimieren. In Kombination mit der engen Integration in andere HashiCorp-Produkte wie Vault (Secrets Management), Consul (Service Discovery und Konnektivität) oder Nomad (Workload-Orchestrierung) erhalten Unternehmen eine umfassendere Lösung, um ihre Cloud-Infrastruktur zu managen und abzusichern als mit Terraform allein – oder einem Konkurrenzangebot. Die ungewisse Terraform-Zukunft Die Übernahme von HashiCorp durch IBM könnte für die Kunden und Anwender eine noch umfassendere und integrierte Plattform schaffen, um immer komplexere Hybrid- und Multi-Cloud-Umgebungen zu managen. Zumindest gäbe es riesiges Synergiepotenzial mit Blick auf Terraform (Infrastruktur-Deployment) und Ansible von IBM Red Hat (Konfigurationsmanagement). IBM könnte mit seiner langen Open-Source-Historie unter Umständen sogar dazu beitragen, dass HashiCorp zur ursprünglichen Open-Source-Lizenz für Terraform zurückkehrt. Unabhängig davon ist aber auch klar: Für Unternehmen, die deutlich mehr Geld als Zeit haben, dürfte es mit Blick auf das Deployment verlockender sein, alles aus einer Hand zu beziehen. Es ist nicht so, dass OpenTofu, Pulumi und andere Open-Source-Optionen keine Bedrohung für Terraform darstellen. Aber HashiCorp hat sich weiterentwickelt, um komplexere Business-Anforderungen zu unterstützen, was es schwermacht, die Vormachtstellung von Terraform auf dem Enterprise-IaC-Markt anzugreifen. HashiCorp hat sich mit seiner strategischen Ausrichtung auf den gesamten Lebenszyklus der Infrastruktur, gepaart mit kontinuierlicher Produktinnovation und einem Engagement für Sicherheit, in eine hervorragende Ausgangsposition gebracht. Ob es diese in Zukunft weiter festigen kann, wird sich zeigen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Wie Terraform die IaC-Evolution treibt​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?quality=50&strip=all 4096w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=300%2C158&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=768%2C405&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=1024%2C540&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=1536%2C810&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=2048%2C1080&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=1240%2C654&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=150%2C79&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=854%2C450&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=640%2C338&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_1822122971.jpg?resize=444%2C234&quality=50&strip=all 444w” width=”1024″ height=”540″ sizes=”(max-width: 1024px) 100vw, 1024px”>Geht’s um IaC, ist Terraform für viele Organisationen und Unternehmen gesetzt – trotz neuer, innovativer Konkurrenten.Quardia / Shutterstock

Vor kurzem haben wir in einem ausführlichen Beitrag beleuchtet, wie sich die Terraform-Abspaltung OpenTofu zunehmend zu einer interessanten, quelloffenen Alternative für Unternehmen entwickelt. Doch auch wenn der Terraform-Fork aktuell stark im Kommen ist, gibt es eine Sache zu bedenken: Einzelne Projekte oder Produkte können sich zwar rasant entwickeln – die Branchen-Mühlen mahlen allerdings immer noch langsam.   

Und während OpenTofu, Pulumi und andere Terraform-Alternativen sich vor allem auf den Infrastructure-as-Code (IaC)-Markt fokussieren, nimmt HashiCorp inzwischen den wesentlich größeren IT-Management-Markt ins Visier. Und zwar mit einer ganzen Reihe von Services, die sein IaC-Tool Terraform ergänzen und ermöglichen, es mit IBM-Red-Hat-Produkten wie Ansible zu kombinieren.

Das langfristige Ziel des Unternehmens besteht darin, zu einem strategischen Anbieter zu werden, der mehr als IaC zu bieten hat. Deshalb konkurriert HashiCorp nicht nur mit den bereits genannten Open-Source-Herausforderern, sondern auch mit Cloud-Schwergewichten wie Amazon Web Services (AWS).

Der ganzheitliche IaC-Blick

Infrastructure as Code beschreibt Systemressourcen als Code, was es einfacher gestaltet, Portabilität, Wiederholbarkeit und Prüfbarkeit über die gesamte Softwareinfrastruktur hinweg sicherzustellen. Hashicorps Terraform hat sich seit seiner Einführung im Jahr 2014 für sehr viele Unternehmen und Organisationen zu einem unverzichtbaren Tool entwickelt, um IaC zu managen.

Insofern hat HashiCorp, respektive Terraform, starken und wachsenden Einfluss auf IaC und sein Konfigurationsmanagement. Auf dem deutlich größeren Markt für IT-Management-Software ist der Fußabdruck hingegen deutlich kleiner. Und das ist auch gut so, denn es gewährleistet ausreichend Raum für Wachstum. Das ist wiederum nötig, um sich den Wettbewerbern zu „erwehren“. Das sind vor allem:

OpenTofu mit seiner quelloffenen, Community-basierten und zunehmend innovativen IaC-Variante.

Pulumi mit seinem entwicklerzentrierten IaC-Ansatz, der es ermöglicht, die Infrastruktur mit vertrauten Programmiersprachen wie Python, Go und JavaScript zu definieren.

AWS mit seiner nativen und eng integrierten IaC-Lösung CloudFormation.

Keine dieser Herausforderungen ist für Terraform einfach zu bewältigen. Aber mit Ausnahme von AWS können andere Anbieter nicht mit dem umfassenderen IaC-Ansatz von HashiCorp mithalten. Das hat der Konzern längst erkannt und betont deshalb auch, dass Terraform den gesamten Infrastruktur-Lebenszyklus abdeckt – von der Ersteinrichtung (Day 0) über die Bereitstellung (Day 1), bis hin zu Management und Security (Day 2). Dieser ganzheitliche Ansatz trägt den sich entwickelnden Bedürfnissen von Organisationen Rechnung.

Darüber hinaus bietet HashiCorp:

mit Terraform Stacks auch Funktionen, um komplexe Multicomponent-Deployments zu managen,

Modul-Lebenszyklus-Management, um Upgrades zu optimieren, sowie

erweitertes Tagging, um die Organisation und Governance in Terraform zu optimieren.

In Kombination mit der engen Integration in andere HashiCorp-Produkte wie Vault (Secrets Management), Consul (Service Discovery und Konnektivität) oder Nomad (Workload-Orchestrierung) erhalten Unternehmen eine umfassendere Lösung, um ihre Cloud-Infrastruktur zu managen und abzusichern als mit Terraform allein – oder einem Konkurrenzangebot.

Die ungewisse Terraform-Zukunft

Die Übernahme von HashiCorp durch IBM könnte für die Kunden und Anwender eine noch umfassendere und integrierte Plattform schaffen, um immer komplexere Hybrid- und Multi-Cloud-Umgebungen zu managen. Zumindest gäbe es riesiges Synergiepotenzial mit Blick auf Terraform (Infrastruktur-Deployment) und Ansible von IBM Red Hat (Konfigurationsmanagement). IBM könnte mit seiner langen Open-Source-Historie unter Umständen sogar dazu beitragen, dass HashiCorp zur ursprünglichen Open-Source-Lizenz für Terraform zurückkehrt. Unabhängig davon ist aber auch klar: Für Unternehmen, die deutlich mehr Geld als Zeit haben, dürfte es mit Blick auf das Deployment verlockender sein, alles aus einer Hand zu beziehen.

Es ist nicht so, dass OpenTofu, Pulumi und andere Open-Source-Optionen keine Bedrohung für Terraform darstellen. Aber HashiCorp hat sich weiterentwickelt, um komplexere Business-Anforderungen zu unterstützen, was es schwermacht, die Vormachtstellung von Terraform auf dem Enterprise-IaC-Markt anzugreifen. HashiCorp hat sich mit seiner strategischen Ausrichtung auf den gesamten Lebenszyklus der Infrastruktur, gepaart mit kontinuierlicher Produktinnovation und einem Engagement für Sicherheit, in eine hervorragende Ausgangsposition gebracht. Ob es diese in Zukunft weiter festigen kann, wird sich zeigen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Wie Terraform die IaC-Evolution treibt​ Weiterlesen »

Was machen Projektmanager?​

Allgemein

Projektmanager sind in der glücklichen Lage, in so gut wie allen Branchen gesucht und gebraucht zu werden. Foto: Gorodenkoff – shutterstock.com Dieser Artikel liefert Ihnen einen Überblick über die Rolle des Projektmanagers, ihre Aufgaben, ihr Skillset, relevante Zertifizierungen und Anhaltspunkte zu den zu erwartenden Gehältern sowie Tipps, wie man letztere steigert. Was ist ein Projektmanager? Projektmanager (PMs) spielen die entscheidende Rolle, wenn es darum geht, Projekte: zu planen, umzusetzen, zu überwachen und abzuschließen. Sie sind verantwortlich für den gesamten Projektumfang, das Projektteam und die Ressourcen, das Projektbudget sowie den Erfolg oder Misserfolg des Projekts. Um in ihrer Rolle erfolgreich zu sein, müssen Projektmanager in der Lage sein: Ressourcen zu koordinieren, Budgets zu verwalten, den Projektfortschritt zu messen und zu verfolgen sowie mit Teammitgliedern und Interessengruppen zu kommunizieren. Darüber hinaus bewerten Projektmanager auch Risiken und lösen Probleme, die während des gesamten Projektlebenszyklus auftreten. Dabei müssen sie oft schwierige Entscheidungen in Bezug auf komplexe und konkurrierende Prioritäten treffen, um die gewünschten Projektergebnisse zu erzielen. Was macht ein Projektmanager? Ein Projektmanager (beziehungsweise das PM-Team) ist mit einer Vielzahl von Aufgaben betraut, die sich über die fünf Phasen des Projektlebenszyklus erstrecken, die im Folgenden beschrieben werden. In jeder Phase liegt der Schwerpunkt auf einer anderen Mischung aus Projektmanagement-Skills und -Knowhow. Initiierungsphase: In der Anfangsphase eines Projekts sind die Projektmanager dafür verantwortlich, die Projektcharta zu entwickeln und die relevanten Stakeholder zu ermitteln. Planungsphase: Bei der Entwicklung eines Projektmanagementplans müssen die Projektmanager den Projektumfang definieren, einen Projektstrukturplan (PSP) erstellen und die Anforderungen erfassen. Außerdem gilt es, Zeitpläne und Aktivitäten zu planen, zu definieren und zu entwickeln sowie die für den Abschluss des Projekts erforderlichen Ressourcen und den zeitlichen Aufwand für jede Aktivität zu definieren. Auf dieser Grundlage können anschließend Kosten geplant und Budgets festgelegt, Personalbedarf ermittelt sowie Kommunikations- und Qualitätsmanagementpläne aufgestellt werden. Darüber hinaus müssen PMs in dieser Phase potenzielle Risiken ermitteln, eine qualitative und quantitative Risikoanalyse durchführen und Strategien zur Risikominderung entwickeln, während sie gleichzeitig die erforderlichen Beschaffungen ermitteln und die Erwartungen der Stakeholder festlegen. Ausführungsphase: In dieser Phase sind die Projektmanager dafür verantwortlich, die gesamte Projektarbeit zu managen. Dazu gehört beispielsweise, das Projektteam auszuwählen, die Kommunikation und Beschaffung sowie Qualität und Erwartungen zu managen. Überwachungs- und Kontrollphase: Sobald die Arbeit an einem Projekt begonnen hat, müssen die Projektmanager die Abläufe überwachen und notwendige Änderungen einleiten, während sie den Projektumfang, die Kosten und die Qualität der Ergebnisse im Blick behalten. Abschlussphase: Um ein Projekt abzuschließen, müssen PMs alle Phasen abschließen, Budgets abrechnen, die Ergebnisse übergeben, Projektnachprüfungen und -Reportings erstellen sowie Personal in den Ressourcenpool zurückführen. Was müssen Projektmanager können? Effektive Projektmanager brauchen mehr als nur technisches Knowhow. Die Rolle erfordert (neben anderen gefragten Schlüsselqualifikationen) auch: ein Business-Mindset, Teambuilding- und Konfliktlösungs-Skills, sowie Knowhow im Bereich Change Management. Grundsätzlich sollten Projektmanager in der Lage sein, Teammitglieder zu motivieren, zu kommunizieren, Prioritäten zu setzen und Probleme zu lösen. Anpassungsfähigkeit ist eine weiterer wichtiger Soft Skill für erfolgreiche Projektmanager. Hocheffektiv sind Projektmanager allerdings erst dann, wenn sie zum strategischen Business-Partner werden, der sich vollumfänglich für den Unternehmenserfolg einsetzt. Welche zehn Eigenschaften dafür entscheidend sind, lesen Sie hier. Was verdient ein Projektmanager? Auch als Projektmanager gilt: Mit steigender Berufserfahrung klettern die Gehälter. Laut dem Karriereportal Stepstone: verdienen Junior-Projektmanager hierzulande im Schnitt 40.000 Euro jährlich. Die Gehaltsspanne reicht dabei von 34.500 Euro bis 47.100 Euro. steigt die durchschnittliche Vergütung als Projektmanager auf durchschnittlich 54.500 Euro pro Jahr. Die Gehaltsspanne reicht dabei von 47.300 Euro bis 65.800 Euro. bekommen Senior-Projektmanager in Deutschland ein Mediangehalt von 68.200 Euro – die Spanne reicht hier von 60.700 Euro bis 81.400 Euro. Dabei bestehen regionale Unterschiede: In Hessen verdienen Projektmanager derzeit am besten – in Thüringen am schlechtesten. Zudem nimmt auch die Unternehmensgröße Einfluss auf die Höhe des Gehalts. Je größer die Belegschaft, desto besser fällt dabei im Regelfall auch das Gehalt für Projektmanager aus. Wie verdienen Projektmanager mehr? Eine Zertifizierung im Bereich Projektmanagement kann PMs die Tür zu mehr Geld und weiteren Karrieremöglichkeiten öffnen. Diverse Bildungseinrichtungen bieten entsprechende Möglichkeiten mit unterschiedlichen Spezialisierungen. Eine der wichtigsten Institutionen, die international anerkannte Zertifizierungen im Bereich Projektmanagement anbietet, ist das Project Management Institute (PMI). Zu den wichtigsten allgemeinen Zertifizierungen im Bereich Projektmanagement zählen unter anderem: Project Management Professional (PMP) Certified Associate in Project Managfement (CAPM) Darüber hinaus können PMs ihrer Karriere unter Umständen auch mit einer Agile-Zertifizierung auf die Sprünge helfen, etwa in Form von: Agile Certified Practitioner (PMI-ACP) oder Certified ScrumMaster (CSM). Einen umfassenden Deep Dive zum Thema Project-Management-Zertifizierungen finden Sie hier. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was machen Projektmanager?​ Projektmanager sind in der glücklichen Lage, in so gut wie allen Branchen gesucht und gebraucht zu werden.
Foto: Gorodenkoff – shutterstock.com

Dieser Artikel liefert Ihnen einen Überblick über die Rolle des Projektmanagers, ihre Aufgaben, ihr Skillset, relevante Zertifizierungen und Anhaltspunkte zu den zu erwartenden Gehältern sowie Tipps, wie man letztere steigert.

Was ist ein Projektmanager?

Projektmanager (PMs) spielen die entscheidende Rolle, wenn es darum geht, Projekte:

zu planen,

umzusetzen,

zu überwachen und

abzuschließen.

Sie sind verantwortlich für den gesamten Projektumfang, das Projektteam und die Ressourcen, das Projektbudget sowie den Erfolg oder Misserfolg des Projekts. Um in ihrer Rolle erfolgreich zu sein, müssen Projektmanager in der Lage sein:

Ressourcen zu koordinieren,

Budgets zu verwalten,

den Projektfortschritt zu messen und zu verfolgen sowie

mit Teammitgliedern und Interessengruppen zu kommunizieren.

Darüber hinaus bewerten Projektmanager auch Risiken und lösen Probleme, die während des gesamten Projektlebenszyklus auftreten. Dabei müssen sie oft schwierige Entscheidungen in Bezug auf komplexe und konkurrierende Prioritäten treffen, um die gewünschten Projektergebnisse zu erzielen.

Was macht ein Projektmanager?

Ein Projektmanager (beziehungsweise das PM-Team) ist mit einer Vielzahl von Aufgaben betraut, die sich über die fünf Phasen des Projektlebenszyklus erstrecken, die im Folgenden beschrieben werden. In jeder Phase liegt der Schwerpunkt auf einer anderen Mischung aus Projektmanagement-Skills und -Knowhow.

Initiierungsphase: In der Anfangsphase eines Projekts sind die Projektmanager dafür verantwortlich, die Projektcharta zu entwickeln und die relevanten Stakeholder zu ermitteln.

Planungsphase: Bei der Entwicklung eines Projektmanagementplans müssen die Projektmanager den Projektumfang definieren, einen Projektstrukturplan (PSP) erstellen und die Anforderungen erfassen. Außerdem gilt es, Zeitpläne und Aktivitäten zu planen, zu definieren und zu entwickeln sowie die für den Abschluss des Projekts erforderlichen Ressourcen und den zeitlichen Aufwand für jede Aktivität zu definieren. Auf dieser Grundlage können anschließend Kosten geplant und Budgets festgelegt, Personalbedarf ermittelt sowie Kommunikations- und Qualitätsmanagementpläne aufgestellt werden. Darüber hinaus müssen PMs in dieser Phase potenzielle Risiken ermitteln, eine qualitative und quantitative Risikoanalyse durchführen und Strategien zur Risikominderung entwickeln, während sie gleichzeitig die erforderlichen Beschaffungen ermitteln und die Erwartungen der Stakeholder festlegen.

Ausführungsphase: In dieser Phase sind die Projektmanager dafür verantwortlich, die gesamte Projektarbeit zu managen. Dazu gehört beispielsweise, das Projektteam auszuwählen, die Kommunikation und Beschaffung sowie Qualität und Erwartungen zu managen.

Überwachungs- und Kontrollphase: Sobald die Arbeit an einem Projekt begonnen hat, müssen die Projektmanager die Abläufe überwachen und notwendige Änderungen einleiten, während sie den Projektumfang, die Kosten und die Qualität der Ergebnisse im Blick behalten.

Abschlussphase: Um ein Projekt abzuschließen, müssen PMs alle Phasen abschließen, Budgets abrechnen, die Ergebnisse übergeben, Projektnachprüfungen und -Reportings erstellen sowie Personal in den Ressourcenpool zurückführen.

Was müssen Projektmanager können?

Effektive Projektmanager brauchen mehr als nur technisches Knowhow. Die Rolle erfordert (neben anderen gefragten Schlüsselqualifikationen) auch:

ein Business-Mindset,

Teambuilding- und Konfliktlösungs-Skills,

sowie Knowhow im Bereich Change Management.

Grundsätzlich sollten Projektmanager in der Lage sein, Teammitglieder zu motivieren, zu kommunizieren, Prioritäten zu setzen und Probleme zu lösen. Anpassungsfähigkeit ist eine weiterer wichtiger Soft Skill für erfolgreiche Projektmanager.

Hocheffektiv sind Projektmanager allerdings erst dann, wenn sie zum strategischen Business-Partner werden, der sich vollumfänglich für den Unternehmenserfolg einsetzt. Welche zehn Eigenschaften dafür entscheidend sind, lesen Sie hier.

Was verdient ein Projektmanager?

Auch als Projektmanager gilt: Mit steigender Berufserfahrung klettern die Gehälter. Laut dem Karriereportal Stepstone:

verdienen Junior-Projektmanager hierzulande im Schnitt 40.000 Euro jährlich. Die Gehaltsspanne reicht dabei von 34.500 Euro bis 47.100 Euro.

steigt die durchschnittliche Vergütung als Projektmanager auf durchschnittlich 54.500 Euro pro Jahr. Die Gehaltsspanne reicht dabei von 47.300 Euro bis 65.800 Euro.

bekommen Senior-Projektmanager in Deutschland ein Mediangehalt von 68.200 Euro – die Spanne reicht hier von 60.700 Euro bis 81.400 Euro.

Dabei bestehen regionale Unterschiede: In Hessen verdienen Projektmanager derzeit am besten – in Thüringen am schlechtesten. Zudem nimmt auch die Unternehmensgröße Einfluss auf die Höhe des Gehalts. Je größer die Belegschaft, desto besser fällt dabei im Regelfall auch das Gehalt für Projektmanager aus.

Wie verdienen Projektmanager mehr?

Eine Zertifizierung im Bereich Projektmanagement kann PMs die Tür zu mehr Geld und weiteren Karrieremöglichkeiten öffnen. Diverse Bildungseinrichtungen bieten entsprechende Möglichkeiten mit unterschiedlichen Spezialisierungen. Eine der wichtigsten Institutionen, die international anerkannte Zertifizierungen im Bereich Projektmanagement anbietet, ist das Project Management Institute (PMI).

Zu den wichtigsten allgemeinen Zertifizierungen im Bereich Projektmanagement zählen unter anderem:

Project Management Professional (PMP)

Certified Associate in Project Managfement (CAPM)

Darüber hinaus können PMs ihrer Karriere unter Umständen auch mit einer Agile-Zertifizierung auf die Sprünge helfen, etwa in Form von:

Agile Certified Practitioner (PMI-ACP) oder

Certified ScrumMaster (CSM).

Einen umfassenden Deep Dive zum Thema Project-Management-Zertifizierungen finden Sie hier. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was machen Projektmanager?​ Weiterlesen »

Tipps & Fakten für Auftraggeber: Die 5 häufigsten Freelancer-Mythen​

Allgemein

Als externen Mitarbeitern schlagen Freelancern oft Vorurteile seitens ihrer Auftraggeber und Projektteams entgegen. Doch diese Vorbehalte sind in der Regel haltlos und es gibt gute Argumente sowie Lösungen dagegen. Foto: fotogestoeber – shutterstock.comAndere Abläufe, neue Tools oder ein Umkrempeln der Hierarchien – Freelancer verändern mitunter die Arbeitsweise, Kultur und Innovationskraft in Unternehmen. Dennoch gelten sie noch immer als zu teuer, kompliziert und umständlich. Grund genug, diese Mythen einmal genauer zu hinterfragen.Mythos 1: Freiberufler:innensind zu teuer“96 Euro in der Stunde? So viel würde ich selbst gern verdienen!” So oder ähnlich sarkastisch mag eine Führungskraft klingen, wenn sie den durchschnittlichen Stundensatz von Solo-Selbstständigen erfährt. Das hört sich erst einmal viel an, allerdings ist ein bloßer Vergleich von Gehalt und Honorar zu kurz gegriffen. Denn Freelancer bringen spezialisierte Fähigkeiten und Erfahrungen mit, die sie fokussierter für einzelne Projekte im Unternehmen einsetzen als Angestellte. Zudem tragen sie die Kosten für Sozialabgaben oder Versicherungsbeiträge selbst. Arbeitet der Freiberufler mit einer eigenen Infrastruktur wie Laptop, Handy oder Büroraum, muss ein Unternehmen außerdem kein Arbeitsumfeld zur Verfügung stellen. Zudem gilt es zu berücksichtigen, dass bei Angestellten zwar die Gehälter stabil sind, der Output jedoch schwanken kann: Krankheits- oder Urlaubstage reduzieren die Arbeitsleistung. Für einen Freelancer gibt es hingegen keine Lohnfortzahlung oder bezahlten Urlaub. Tipp: Worauf Unternehmen dennoch achten sollten, ist, wie hoch die Rechnung am Ende ausfällt. Freelancer-Rechnungen sind nicht wie feste Gehälter kalkulierbar. Eine Möglichkeit, um eine realistische Vorstellung der Kosten zu erhalten, ist die Schätzung des Aufwands im Voraus. Eine monatliche Budgetobergrenze kann zudem sicherstellen, dass die Ausgaben im Rahmen bleiben und nicht außer Kontrolle geraten. Mythos 2: Freelancer verkomplizieren das Projektmanagement Was der Projektmanager nicht kennt, dem steht er skeptisch gegenüber. Dabei gilt es, in der Zusammenarbeit einfach die Bedürfnisse der Freelancer zu verstehen und diese beim Projektmanagement zu berücksichtigen. Je agiler bereits die Arbeitsweise in einem Unternehmen, desto leichter fällt die Transformation. Gerade Freiberufler:innen sind durch ihren Einblick in viele Unternehmen mit New Work und modernsten Projektmanagement-Tools vertraut. Zudem bringen sie viel Erfahrung in ihrem jeweiligen Fachgebiet mit und benötigen weniger Anleitung als Angestellte. Tipp: Für die erfolgreiche Zusammenarbeit mit Freelancern sind eindeutige Briefings und eine feste Ansprechperson wichtig. Die Vereinbarung einer Deadline sorgt für Klarheit auf beiden Seiten. Ein Solo-Selbständiger wird alles dafür tun, diese zu erreichen – schließlich stehen seine Reputation und eine eventuelle Wiederbeauftragung auf dem Spiel. Dafür legen sie auch mal eine Wochenendschicht ein – was Unternehmen von Angestellten nicht verlangen können. Mythos 3: Freie Mitarbeiter:innen sind unzuverlässig Der Stereotyp “unzuverlässiger Freelancer”, der seine Arbeit unabhängig von den Bedürfnissen des Unternehmens verrichtet, hält sich hartnäckig in den Köpfen von Führungskräften. Viele haben den Eindruck, die Arbeitsleistung nicht kontrollieren zu können, wenn die Person sich nicht im Büro befindet. Die Pandemie hat jedoch gezeigt, dass verlässliches Arbeiten unabhängig vom Standort möglich sein kann. Wichtig sind dafür ein regelmäßiger Austausch und eine gute Organisation.Tipp: Unternehmen schaffen die Rahmenbedingungen, die eine zuverlässige Zusammenarbeit mit Freelancern ermöglichen. Nichts spricht dagegen, freie Mitarbeitende um?regelmäßige Updates?zu bitten oder auch?wiederkehrende Status-Meetings festzulegen. Neben den Absprachen sind auch Hinweise in der Mail-Signatur oder ein kurzer Text zu “How to work best with me” im Profil eines Messaging-Dienstes wie Slack oder Microsoft Teams hilfreich für beide Seiten. Wenn klar ist, welche die bevorzugten Kommunikations-Tools und -kanäle sind, schafft das nicht nur Transparenz, sondern schützt auch das mentale Wohlbefinden. Mythos 4: Freelancer gefährden Datenschutz und geistiges EigentumUnsere Erfahrung zeigt, dass sich Firmen noch immer gegen den Einsatz von Freelancern entscheiden, weil sie befürchten, dass nach Ende eines Projektes Wissen aus dem Unternehmen abfließt. Diesen Mythos aus der Welt zu schaffen, ist eine wesentliche Voraussetzung für gegenseitiges Vertrauen. Auftraggeber sind Freiberufler:innen gegenüber zwar nicht weisungsbefugt, dennoch müssen sich auch Solo-Selbstständige an Verträge halten. Dem Risiko, dass vertrauliche Informationen, geistiges Eigentum oder Daten nicht ausreichend geschützt sind, begegnen die meisten Unternehmen längst auf diesem Wege.Tipp: Ein detaillierter Vertrag gibt beiden Seiten Sicherheit: Es können alle gewünschten Aspekte enthalten sein, etwa zu zeitlich begrenzten und umfassenden Nutzungsrechten. Darüber hinaus ist meist eine Geheimhaltungsvereinbarung sinnvoll. Mythos 5: Passende Kandidat:innen sind schwer zu findenUnternehmen suchen nach Freelancern für Projekte, die ein hohes Maß an spezifischem Fachwissen und Erfahrung erfordern. Entgegen dem verbreiteten Mythos haben Firmen aber beste Chancen, unter Freiberufler:innen fündig zu werden – und das schneller als bei der Suche nach qualifizierten Angestellten. Unter dem Strich werden Solo-Selbstständige innerhalb weniger Wochen angeworben, während die Beschaffung von festen Mitarbeitenden oft mehrere Monate andauert. Zudem sind Freiberufler:innen geübt darin, sich schnell auf neue Arbeits- und Kommunikationsweisen einzustellen, um ein Projekt in der vertraglich vereinbarten Zeit erledigen zu können. Der lange und teure Prozess des Recruitings und Onboardings bei festen Mitarbeitenden ist einer der stärksten Gründe dafür, mit Freelancern zu arbeiten.Tipp: Vor der Suche sollten Unternehmen ein genaues Anforderungsprofil mit den notwendigen Skills erstellen. So gestaltet sich die Suche nicht nur einfacher, sondern auch schneller. Für Unternehmen kann es außerdem sinnvoll sein, Recruiter zu engagieren und Projekte auf speziellen Plattformen einzustellen. Auf diesem Wege erhalten Beauftragende direkt Vorschläge für Freelancer mit den passenden Skills und können gleich mehrere Freelancer auf ein Projekt aufmerksam machen.Wie Unternehmen einen Veränderungsprozess anstoßenUnternehmen dürfen den Veränderungsprozess nicht unterschätzen, wenn die Belegschaft noch keine oder erst wenige Berührungspunkte mit der Arbeit in gemischten Teams aus Festangestellten und Freelancern hatte – sogenannter Blended Work. Wichtig ist, dass Firmen die Potenziale an neuen Perspektiven und Arbeitsweisen erkennen, die die Zusammenarbeit mit Freelancern mit sich bringt. Der Schlüssel ist ein offenes Verständnis für die Bedürfnisse aller Beteiligten. Ein Unternehmen sollte transparent kommunizieren, wie die oder der engagierte Freelancer das Team entlasten wird. Die Arbeitsgruppe muss wiederum lernen, die Weichen für eine zuverlässige Zusammenarbeit mit Freelancern zu stellen. (pg) Freelancer – Was bei Arbeitsverträgen zu beachten ist7 Tipps wie Freiberufler Honorarverträge richtig lesen und ausgestalten Foto: ilikeyellow – shutterstock.comHonorarverträge stellen für viele Freiberufler eine Herausforderung dar. Bei der Gestaltung und Umsetzung sollte deshalb große Sorgfalt an den Tag gelegt werden. Folgende sieben Punkte sollten Freelancer bei der Erstellung eines Honorarvertrages unbedingt beachten. 1. Vertragsform regeln Foto: zabanski – shutterstock.comDer Honorarvertrag, auch “Vertrag über die freie Mitarbeit” genannt, kann in Form eines Dienst- oder Werkvertrages ausgestellt werden. Im Falle eines Werkvertrags steht das Arbeitsergebnis beziehungsweise der Arbeitserfolg im Fokus. Bei einem Dienstvertrag ist der freie Mitarbeiter dem Auftraggeber jedoch nur die Arbeitsleistung schuldig. Im Allgemeinen regelt der Honorarvertrag die Höhe der Vergütung eines Freiberuflers und die Vereinbarung in Form von Leistung und Gegenleistung. 2. Scheinselbstständigkeit vermeiden Foto: Zerbor – shutterstock.comDas größte Risiko für Auftraggeber und Auftragnehmer ist die Scheinselbstständigkeit. Sollte eine solche vorliegen, kann dies für beide Vertragsparteien erhebliche finanzielle Konsequenzen zur Folge haben. Der Freiberufler sollte in der Regel in keinem abhängigen Arbeitsverhältnis zu dem Vertragspartner stehen. Allgemeingültige arbeitsrechtliche Bestimmungen wie festgelegte Arbeitszeiten oder Urlaubsanspruch dürfen hier keine Anwendung finden. Wichtig ist bei dieser Vertragsform, dass die zu erbringenden Leistungen im Honorarvertrag detailliert beschrieben sind.3. Honorarordnungen prüfen Foto: 0833379753 – shutterstock.comFür bestimmte Berufsgruppen gibt es gewisse Verordnungsgrundlagen. Beispielsweise regelt die Honorarordnung für Architekten und Ingenieure (HOAI) die Vergütung der Leistungen von Projekten des Bauwesens. Für freie Experten aus den Bereichen Informatik, Maschinen- und Anlagenbau, Verfahrens-, Elektro- und Prozesstechnik gibt es bisher keine verpflichtenden Regelungen. 4. Arbeitslosengeld sichern Foto: Everett Historical – shutterstock.comHonorarkräfte, die als freie Mitarbeiter tätig sind, müssen sich für gewöhnlich selbst um Versicherungen kümmern. So sind Freelancer nicht automatisch vor Arbeitslosigkeit geschützt. Insbesondere im Rahmen der Corona-Pandemie ging es finanziell bei vielen Freiberuflern bergab. Mehrere Hunderttausende Selbstständige mussten aus diesem Grund Leistungen der Grundsicherung vom Staat beantragen. Die Voraussetzung für den Anspruch auf gesetzliches Arbeitslosengeld besteht darin, dass der Antragsteller innerhalb der letzten zwei Jahre mindestens zwölf Monate versicherungspflichtig angestellt war. 5. Einkommenssteuerpflicht beachten Foto: Younes Stiller Kraske – shutterstock.comFür den Freelancer gilt die Einkommensteuerpflicht genauso wie für Festangestellte. Bei freiberuflich Tätigen unterscheidet sich die Umsatzsteuer durch die sogenannte Vorsteuer. Diese besteht aus der Mehrwertsteuer, die Freiberuflern beispielsweise bei dem Erwerb von Lieferungen oder Arbeitsmitteln in Rechnung gestellt wird. Diese Beträge können anschließend vom Finanzamt zurückgefordert werden. Der Restbetrag ergibt die tatsächliche Abgabe der Umsatzsteuer. Viele Freiberufler starten zunächst als Kleinunternehmer und können von der Kleinunternehmerregelung Gebrauch machen. Wenn die Einkünfte sich im vorangegangenen Kalenderjahr maximal auf 22.000 belaufen haben und die Einnahmen im laufenden Jahr nicht die Umsatzgrenze von 50.000 Euro überschreiten (Stand 2021), muss keine Umsatzsteuervoranmeldung abgegeben werden. Sobald Freiberufler diese Grenze überschreiten, verlieren sie den Status als Kleinunternehmer. Wichtig zu wissen ist, dass die Vorteile der Kleinunternehmerregelung nicht in Anspruch genommen werden dürfen, wenn die Vorsteuer bereits zurückerstattet wurde. 6. Honorarvertrag kündigen Foto: pixelnest – shutterstock.comEine Beendigung des Honorarvertrages erfolgt in den meistens Fällen ordentlich. Hierbei kommt es m ersten Schritt auf die Kündigungsfrist an. Das Arbeitsverhältnis endet bei einem befristeten Vertrag nach der vereinbarten Zeitspanne. Ist keine Frist im Vorhinein festgelegt worden, kann eine Kündigung nach Maßgabe der entsprechenden Bestimmungen erfolgen. In der Regel orientiert sich die Kündigungsfrist an der Vergütung. Das heißt je nachdem, ob die Leistung nach Tagen oder Wochen bemessen wird. Unter bestimmten Umständen kann einer der Vertragsparteien den Honorarvertrag jedoch auch außerordentlich aufheben.7. Fachanwalt konsultieren Foto: Amnaj Khetsamtip – shutterstock.comHat ein Freiberufler einen Honorarvertrag selbst aufgesetzt oder bekommt ihn von seinem Auftraggeber vorgelegt, empfiehlt es sich, einen Fachanwalt heranzuziehen. Alternativ kann aber auch auf verschiedenen Webseiten ein Vertragsmuster heruntergeladen werden, das von einem Anwalt erstellt und rechtlich gecheckt wurde. Bei Letzterem sollte der Freiberufler den Vertrag gegebenenfalls auf Anpassungen und Ergänzungen je nach Vertragsbestimmungen prüfen. 

Tipps & Fakten für Auftraggeber: Die 5 häufigsten Freelancer-Mythen​ Als externen Mitarbeitern schlagen Freelancern oft Vorurteile seitens ihrer Auftraggeber und Projektteams entgegen. Doch diese Vorbehalte sind in der Regel haltlos und es gibt gute Argumente sowie Lösungen dagegen.
Foto: fotogestoeber – shutterstock.comAndere Abläufe, neue Tools oder ein Umkrempeln der Hierarchien – Freelancer verändern mitunter die Arbeitsweise, Kultur und Innovationskraft in Unternehmen. Dennoch gelten sie noch immer als zu teuer, kompliziert und umständlich. Grund genug, diese Mythen einmal genauer zu hinterfragen.Mythos 1: Freiberufler:innensind zu teuer“96 Euro in der Stunde? So viel würde ich selbst gern verdienen!” So oder ähnlich sarkastisch mag eine Führungskraft klingen, wenn sie den durchschnittlichen Stundensatz von Solo-Selbstständigen erfährt. Das hört sich erst einmal viel an, allerdings ist ein bloßer Vergleich von Gehalt und Honorar zu kurz gegriffen. Denn Freelancer bringen spezialisierte Fähigkeiten und Erfahrungen mit, die sie fokussierter für einzelne Projekte im Unternehmen einsetzen als Angestellte. Zudem tragen sie die Kosten für Sozialabgaben oder Versicherungsbeiträge selbst. Arbeitet der Freiberufler mit einer eigenen Infrastruktur wie Laptop, Handy oder Büroraum, muss ein Unternehmen außerdem kein Arbeitsumfeld zur Verfügung stellen. Zudem gilt es zu berücksichtigen, dass bei Angestellten zwar die Gehälter stabil sind, der Output jedoch schwanken kann: Krankheits- oder Urlaubstage reduzieren die Arbeitsleistung. Für einen Freelancer gibt es hingegen keine Lohnfortzahlung oder bezahlten Urlaub. Tipp: Worauf Unternehmen dennoch achten sollten, ist, wie hoch die Rechnung am Ende ausfällt. Freelancer-Rechnungen sind nicht wie feste Gehälter kalkulierbar. Eine Möglichkeit, um eine realistische Vorstellung der Kosten zu erhalten, ist die Schätzung des Aufwands im Voraus. Eine monatliche Budgetobergrenze kann zudem sicherstellen, dass die Ausgaben im Rahmen bleiben und nicht außer Kontrolle geraten. Mythos 2: Freelancer verkomplizieren das Projektmanagement Was der Projektmanager nicht kennt, dem steht er skeptisch gegenüber. Dabei gilt es, in der Zusammenarbeit einfach die Bedürfnisse der Freelancer zu verstehen und diese beim Projektmanagement zu berücksichtigen. Je agiler bereits die Arbeitsweise in einem Unternehmen, desto leichter fällt die Transformation. Gerade Freiberufler:innen sind durch ihren Einblick in viele Unternehmen mit New Work und modernsten Projektmanagement-Tools vertraut. Zudem bringen sie viel Erfahrung in ihrem jeweiligen Fachgebiet mit und benötigen weniger Anleitung als Angestellte. Tipp: Für die erfolgreiche Zusammenarbeit mit Freelancern sind eindeutige Briefings und eine feste Ansprechperson wichtig. Die Vereinbarung einer Deadline sorgt für Klarheit auf beiden Seiten. Ein Solo-Selbständiger wird alles dafür tun, diese zu erreichen – schließlich stehen seine Reputation und eine eventuelle Wiederbeauftragung auf dem Spiel. Dafür legen sie auch mal eine Wochenendschicht ein – was Unternehmen von Angestellten nicht verlangen können. Mythos 3: Freie Mitarbeiter:innen sind unzuverlässig Der Stereotyp “unzuverlässiger Freelancer”, der seine Arbeit unabhängig von den Bedürfnissen des Unternehmens verrichtet, hält sich hartnäckig in den Köpfen von Führungskräften. Viele haben den Eindruck, die Arbeitsleistung nicht kontrollieren zu können, wenn die Person sich nicht im Büro befindet. Die Pandemie hat jedoch gezeigt, dass verlässliches Arbeiten unabhängig vom Standort möglich sein kann. Wichtig sind dafür ein regelmäßiger Austausch und eine gute Organisation.Tipp: Unternehmen schaffen die Rahmenbedingungen, die eine zuverlässige Zusammenarbeit mit Freelancern ermöglichen. Nichts spricht dagegen, freie Mitarbeitende um?regelmäßige Updates?zu bitten oder auch?wiederkehrende Status-Meetings festzulegen. Neben den Absprachen sind auch Hinweise in der Mail-Signatur oder ein kurzer Text zu “How to work best with me” im Profil eines Messaging-Dienstes wie Slack oder Microsoft Teams hilfreich für beide Seiten. Wenn klar ist, welche die bevorzugten Kommunikations-Tools und -kanäle sind, schafft das nicht nur Transparenz, sondern schützt auch das mentale Wohlbefinden. Mythos 4: Freelancer gefährden Datenschutz und geistiges EigentumUnsere Erfahrung zeigt, dass sich Firmen noch immer gegen den Einsatz von Freelancern entscheiden, weil sie befürchten, dass nach Ende eines Projektes Wissen aus dem Unternehmen abfließt. Diesen Mythos aus der Welt zu schaffen, ist eine wesentliche Voraussetzung für gegenseitiges Vertrauen. Auftraggeber sind Freiberufler:innen gegenüber zwar nicht weisungsbefugt, dennoch müssen sich auch Solo-Selbstständige an Verträge halten. Dem Risiko, dass vertrauliche Informationen, geistiges Eigentum oder Daten nicht ausreichend geschützt sind, begegnen die meisten Unternehmen längst auf diesem Wege.Tipp: Ein detaillierter Vertrag gibt beiden Seiten Sicherheit: Es können alle gewünschten Aspekte enthalten sein, etwa zu zeitlich begrenzten und umfassenden Nutzungsrechten. Darüber hinaus ist meist eine Geheimhaltungsvereinbarung sinnvoll. Mythos 5: Passende Kandidat:innen sind schwer zu findenUnternehmen suchen nach Freelancern für Projekte, die ein hohes Maß an spezifischem Fachwissen und Erfahrung erfordern. Entgegen dem verbreiteten Mythos haben Firmen aber beste Chancen, unter Freiberufler:innen fündig zu werden – und das schneller als bei der Suche nach qualifizierten Angestellten. Unter dem Strich werden Solo-Selbstständige innerhalb weniger Wochen angeworben, während die Beschaffung von festen Mitarbeitenden oft mehrere Monate andauert. Zudem sind Freiberufler:innen geübt darin, sich schnell auf neue Arbeits- und Kommunikationsweisen einzustellen, um ein Projekt in der vertraglich vereinbarten Zeit erledigen zu können. Der lange und teure Prozess des Recruitings und Onboardings bei festen Mitarbeitenden ist einer der stärksten Gründe dafür, mit Freelancern zu arbeiten.Tipp: Vor der Suche sollten Unternehmen ein genaues Anforderungsprofil mit den notwendigen Skills erstellen. So gestaltet sich die Suche nicht nur einfacher, sondern auch schneller. Für Unternehmen kann es außerdem sinnvoll sein, Recruiter zu engagieren und Projekte auf speziellen Plattformen einzustellen. Auf diesem Wege erhalten Beauftragende direkt Vorschläge für Freelancer mit den passenden Skills und können gleich mehrere Freelancer auf ein Projekt aufmerksam machen.Wie Unternehmen einen Veränderungsprozess anstoßenUnternehmen dürfen den Veränderungsprozess nicht unterschätzen, wenn die Belegschaft noch keine oder erst wenige Berührungspunkte mit der Arbeit in gemischten Teams aus Festangestellten und Freelancern hatte – sogenannter Blended Work. Wichtig ist, dass Firmen die Potenziale an neuen Perspektiven und Arbeitsweisen erkennen, die die Zusammenarbeit mit Freelancern mit sich bringt. Der Schlüssel ist ein offenes Verständnis für die Bedürfnisse aller Beteiligten. Ein Unternehmen sollte transparent kommunizieren, wie die oder der engagierte Freelancer das Team entlasten wird. Die Arbeitsgruppe muss wiederum lernen, die Weichen für eine zuverlässige Zusammenarbeit mit Freelancern zu stellen. (pg) Freelancer – Was bei Arbeitsverträgen zu beachten ist7 Tipps wie Freiberufler Honorarverträge richtig lesen und ausgestalten
Foto: ilikeyellow – shutterstock.comHonorarverträge stellen für viele Freiberufler eine Herausforderung dar. Bei der Gestaltung und Umsetzung sollte deshalb große Sorgfalt an den Tag gelegt werden. Folgende sieben Punkte sollten Freelancer bei der Erstellung eines Honorarvertrages unbedingt beachten. 1. Vertragsform regeln
Foto: zabanski – shutterstock.comDer Honorarvertrag, auch “Vertrag über die freie Mitarbeit” genannt, kann in Form eines Dienst- oder Werkvertrages ausgestellt werden. Im Falle eines Werkvertrags steht das Arbeitsergebnis beziehungsweise der Arbeitserfolg im Fokus. Bei einem Dienstvertrag ist der freie Mitarbeiter dem Auftraggeber jedoch nur die Arbeitsleistung schuldig. Im Allgemeinen regelt der Honorarvertrag die Höhe der Vergütung eines Freiberuflers und die Vereinbarung in Form von Leistung und Gegenleistung. 2. Scheinselbstständigkeit vermeiden
Foto: Zerbor – shutterstock.comDas größte Risiko für Auftraggeber und Auftragnehmer ist die Scheinselbstständigkeit. Sollte eine solche vorliegen, kann dies für beide Vertragsparteien erhebliche finanzielle Konsequenzen zur Folge haben. Der Freiberufler sollte in der Regel in keinem abhängigen Arbeitsverhältnis zu dem Vertragspartner stehen. Allgemeingültige arbeitsrechtliche Bestimmungen wie festgelegte Arbeitszeiten oder Urlaubsanspruch dürfen hier keine Anwendung finden. Wichtig ist bei dieser Vertragsform, dass die zu erbringenden Leistungen im Honorarvertrag detailliert beschrieben sind.3. Honorarordnungen prüfen
Foto: 0833379753 – shutterstock.comFür bestimmte Berufsgruppen gibt es gewisse Verordnungsgrundlagen. Beispielsweise regelt die Honorarordnung für Architekten und Ingenieure (HOAI) die Vergütung der Leistungen von Projekten des Bauwesens. Für freie Experten aus den Bereichen Informatik, Maschinen- und Anlagenbau, Verfahrens-, Elektro- und Prozesstechnik gibt es bisher keine verpflichtenden Regelungen. 4. Arbeitslosengeld sichern
Foto: Everett Historical – shutterstock.comHonorarkräfte, die als freie Mitarbeiter tätig sind, müssen sich für gewöhnlich selbst um Versicherungen kümmern. So sind Freelancer nicht automatisch vor Arbeitslosigkeit geschützt. Insbesondere im Rahmen der Corona-Pandemie ging es finanziell bei vielen Freiberuflern bergab. Mehrere Hunderttausende Selbstständige mussten aus diesem Grund Leistungen der Grundsicherung vom Staat beantragen. Die Voraussetzung für den Anspruch auf gesetzliches Arbeitslosengeld besteht darin, dass der Antragsteller innerhalb der letzten zwei Jahre mindestens zwölf Monate versicherungspflichtig angestellt war. 5. Einkommenssteuerpflicht beachten
Foto: Younes Stiller Kraske – shutterstock.comFür den Freelancer gilt die Einkommensteuerpflicht genauso wie für Festangestellte. Bei freiberuflich Tätigen unterscheidet sich die Umsatzsteuer durch die sogenannte Vorsteuer. Diese besteht aus der Mehrwertsteuer, die Freiberuflern beispielsweise bei dem Erwerb von Lieferungen oder Arbeitsmitteln in Rechnung gestellt wird. Diese Beträge können anschließend vom Finanzamt zurückgefordert werden. Der Restbetrag ergibt die tatsächliche Abgabe der Umsatzsteuer. Viele Freiberufler starten zunächst als Kleinunternehmer und können von der Kleinunternehmerregelung Gebrauch machen. Wenn die Einkünfte sich im vorangegangenen Kalenderjahr maximal auf 22.000 belaufen haben und die Einnahmen im laufenden Jahr nicht die Umsatzgrenze von 50.000 Euro überschreiten (Stand 2021), muss keine Umsatzsteuervoranmeldung abgegeben werden. Sobald Freiberufler diese Grenze überschreiten, verlieren sie den Status als Kleinunternehmer. Wichtig zu wissen ist, dass die Vorteile der Kleinunternehmerregelung nicht in Anspruch genommen werden dürfen, wenn die Vorsteuer bereits zurückerstattet wurde. 6. Honorarvertrag kündigen
Foto: pixelnest – shutterstock.comEine Beendigung des Honorarvertrages erfolgt in den meistens Fällen ordentlich. Hierbei kommt es m ersten Schritt auf die Kündigungsfrist an. Das Arbeitsverhältnis endet bei einem befristeten Vertrag nach der vereinbarten Zeitspanne. Ist keine Frist im Vorhinein festgelegt worden, kann eine Kündigung nach Maßgabe der entsprechenden Bestimmungen erfolgen. In der Regel orientiert sich die Kündigungsfrist an der Vergütung. Das heißt je nachdem, ob die Leistung nach Tagen oder Wochen bemessen wird. Unter bestimmten Umständen kann einer der Vertragsparteien den Honorarvertrag jedoch auch außerordentlich aufheben.7. Fachanwalt konsultieren
Foto: Amnaj Khetsamtip – shutterstock.comHat ein Freiberufler einen Honorarvertrag selbst aufgesetzt oder bekommt ihn von seinem Auftraggeber vorgelegt, empfiehlt es sich, einen Fachanwalt heranzuziehen. Alternativ kann aber auch auf verschiedenen Webseiten ein Vertragsmuster heruntergeladen werden, das von einem Anwalt erstellt und rechtlich gecheckt wurde. Bei Letzterem sollte der Freiberufler den Vertrag gegebenenfalls auf Anpassungen und Ergänzungen je nach Vertragsbestimmungen prüfen.

Tipps & Fakten für Auftraggeber: Die 5 häufigsten Freelancer-Mythen​ Weiterlesen »

LLMs auf dem Smartphone für alle​

Allgemein

Quantisierung von LLMs in Minuten statt Tagen – ganz ohne Spezialhardware. Alexander Supertramp – shutterstock Große Sprachmodelle wie DeepSeek R1 waren bislang nur mit hohem Rechenaufwand auf leistungsstarker Hardware nutzbar. Sie auf mobilen Endgeräten oder Laptops einzusetzen, erforderte teure Server und viel Zeit für den Quantifizierungsprozess. Dank neuer Methoden soll dieser Prozess nun in wenigen Minuten direkt auf Laptops oder Smartphones durchführbar sein – ohne spezielle Hardware. Damit wird der Zugang zu LLMs deutlich einfacher und günstiger, so die Forscherinnen und Forscher von Yandex Research. Gemeinsam mit Forschenden des Massachusetts Institute of Technology (MIT), des Institute of Science and Technology Austria (ISTA) und der King Abdullah University of Science and Technology (KAUST) hat das Forschungsteam von Yandex Research eine Methode entwickelt, mit der große Sprachmodelle (LLM) ohne nennenswerte Qualitätseinbußen schnell komprimiert werden können. Komprimierung ohne Qualitätsverlust Wie die Wissenschaftler in einem Research Paper ausführen, senkt ihre HIGGS (Hadamard Incoherence with Gaussian MSE-optimal GridS)-Technologie damit die Einstiegshürde für den Einsatz großer Sprachmodelle auf Geräten wie PCs und Smartphones. Diese Methode könne beispielsweise verwendet werden, um LLMs wie DeepSeek R1 mit 671B-Parametern und Llama 4 Maverick mit 400B-Parametern zu komprimieren, die zuvor nur mit einem erheblichen Qualitätsverlust quantisiert (komprimiert) werden konnten. Die Quantisierungstechnik eröffne damit neue Möglichkeiten für den Einsatz von LLMs in verschiedenen Bereichen, insbesondere in ressourcenbeschränkten Umgebungen. Die Wissenschaftler haben nach eigenen Angaben HIGGS bereits an den Modellen der LLaMA 3.1- und 3.2-Familie sowie an Modellen der Qwen-Familie getestet. Dabei hätten Experimente gezeigt, dass HIGGS andere datenfreie Quantisierungsmethoden, einschließlich NF4 (4-Bit NormalFloat) und HQQ (Halbquadratische Quantisierung), in Bezug auf das Verhältnis von Qualität zu Größe übertrifft. Ressourcenschonende KI für alle Insbesondere Start-ups, unabhängigen Entwicklern und ressourcenbeschränkten Umgebungen soll dies zugutekommen. Yandex Research selbst nutzt HIGGS bereits zur schnelleren Prototyp-Entwicklung und Ideentests. Entwickler und Forscher können bereits auf Hugging Face auf HIGGS zugreifen oder das Forschungspapier erkunden, das auf arXiv verfügbar ist. 

LLMs auf dem Smartphone für alle​ Quantisierung von LLMs in Minuten statt Tagen – ganz ohne Spezialhardware.
Alexander Supertramp – shutterstock

Große Sprachmodelle wie DeepSeek R1 waren bislang nur mit hohem Rechenaufwand auf leistungsstarker Hardware nutzbar. Sie auf mobilen Endgeräten oder Laptops einzusetzen, erforderte teure Server und viel Zeit für den Quantifizierungsprozess. Dank neuer Methoden soll dieser Prozess nun in wenigen Minuten direkt auf Laptops oder Smartphones durchführbar sein – ohne spezielle Hardware. Damit wird der Zugang zu LLMs deutlich einfacher und günstiger, so die Forscherinnen und Forscher von Yandex Research.

Gemeinsam mit Forschenden des Massachusetts Institute of Technology (MIT), des Institute of Science and Technology Austria (ISTA) und der King Abdullah University of Science and Technology (KAUST) hat das Forschungsteam von Yandex Research eine Methode entwickelt, mit der große Sprachmodelle (LLM) ohne nennenswerte Qualitätseinbußen schnell komprimiert werden können.

Komprimierung ohne Qualitätsverlust

Wie die Wissenschaftler in einem Research Paper ausführen, senkt ihre HIGGS (Hadamard Incoherence with Gaussian MSE-optimal GridS)-Technologie damit die Einstiegshürde für den Einsatz großer Sprachmodelle auf Geräten wie PCs und Smartphones.

Diese Methode könne beispielsweise verwendet werden, um LLMs wie DeepSeek R1 mit 671B-Parametern und Llama 4 Maverick mit 400B-Parametern zu komprimieren, die zuvor nur mit einem erheblichen Qualitätsverlust quantisiert (komprimiert) werden konnten. Die Quantisierungstechnik eröffne damit neue Möglichkeiten für den Einsatz von LLMs in verschiedenen Bereichen, insbesondere in ressourcenbeschränkten Umgebungen.

Die Wissenschaftler haben nach eigenen Angaben HIGGS bereits an den Modellen der LLaMA 3.1- und 3.2-Familie sowie an Modellen der Qwen-Familie getestet. Dabei hätten Experimente gezeigt, dass HIGGS andere datenfreie Quantisierungsmethoden, einschließlich NF4 (4-Bit NormalFloat) und HQQ (Halbquadratische Quantisierung), in Bezug auf das Verhältnis von Qualität zu Größe übertrifft.

Ressourcenschonende KI für alle

Insbesondere Start-ups, unabhängigen Entwicklern und ressourcenbeschränkten Umgebungen soll dies zugutekommen. Yandex Research selbst nutzt HIGGS bereits zur schnelleren Prototyp-Entwicklung und Ideentests.

Entwickler und Forscher können bereits auf Hugging Face auf HIGGS zugreifen oder das Forschungspapier erkunden, das auf arXiv verfügbar ist.

LLMs auf dem Smartphone für alle​ Weiterlesen »

Digitalisierung treibt Nachfrage nach Managed Services an​

Allgemein

width=”2455″ height=”1381″ sizes=”(max-width: 2455px) 100vw, 2455px”>Angesichts des Drucks zu einer stärkeren Digitalisierung spielen Managed Services in deutschen Unternehmen eine zunehmend wichtige Rolle.metamorworks – shutterstock.com Obwohl fast alle deutschen Unternehmen (96 Prozent) die digitale Transformation als wichtigste Herausforderung sehen, kommen sie damit nicht so recht voran. In einer Umfrage von Lünendonk berichteten 36 Prozent der befragten Führungskräfte aus Großunternehmen und Konzernen, dass sich ihre bisherigen Digitalisierungsmaßnahmen nicht wie erhofft auszahlten.   Gleichzeitig zeigte sich bei den Gesprächen, dass intern oft die nötigen Fachkräfte fehlen, um Innovationen konsequent voranzutreiben und Prozesse nachhaltig zu transformieren. 57 Prozent der Befragten beklagten, dass sich die Mitarbeitenden in ihren Unternehmen noch zu stark mit nicht-wertschöpfenden Tätigkeiten außerhalb ihrer eigentlichen Kernaufgaben beschäftigen müssen.   Lünendonk Digitalisierung überfordert Unternehmen Die Konsequenz: Wie Lünendonk in den Gesprächen mit insgesamt 101 Führungskräften herausfand, scheitern viele Unternehmen daran, die im operativen Geschäft benötigten, digitalen Services auch in hoher Qualität und in kürzeren Zyklen bereitzustellen und zu standardisieren.   Vor diesem Hintergrund, so das Analystenhaus, stehen Managed Services vor dem strategischen Durchbruch. Die Auslagerung von Prozessen an einen externen Dienstleister werde als ein Weg gesehen, die Transformation zu beschleunigen und den Return on Investment (RoI) zu verbessern.   Laut Lünendonk gehen die Erwartungen dabei weit über das klassische Outsourcing mit Modellen wie Festpreis oder Time-and-Material hinaus. Stattdessen setzten die Unternehmen verstärkt auf flexiblere Modelle, die eine engere Verzahnung zwischen Business und IT sowie deutlich stärkere, leistungsbezogene Komponenten ermöglichen.   Die Ergebnisse der Studie bestätigen das: Tatsächlich bevorzugen 58 Prozent der Studienteilnehmer in ihren Managed-Service-Ausschreibungen Dienstleister, die die Gesamtverantwortung sowohl für den Betrieb und Weiterentwicklung der Geschäftsprozesse als auch der unterstützenden IT-Systeme übernehmen.   Ergebnisbasierte Verträge gewinnen dabei zunehmend an Bedeutung, auch wenn sie derzeit erst von einem Drittel der Unternehmen genutzt werden. Weitere 17 Prozent planen jedoch in Zukunft, solche Abrechnungsmodelle zu nutzen. Laut Studie setzen insbesondere Unternehmen mit mehr als zehn Milliarden Euro Umsatz bereits verstärkt auf leistungsorientierten Vertragsformen, bei denen Dienstleister nicht nur operativ unterstützen, sondern aktiv zur Verbesserung von Effizienz und Qualität beitragen.  „Die Zeiten, in denen Managed Services lediglich zur Kostensenkung und Standardisierung genutzt wurden, sind vorbei“, erklärt Studienautor Mario Zillmann, Partner bei Lünendonk & Hossenfelder. „Unsere Studie zeigt, dass Unternehmen von ihren Dienstleistern zunehmend strategische Unterstützung bei der Digitalisierung, Automatisierung und Compliance-Umsetzung erwarten.“  Laut Studie wird in den kommenden Jahren insbesondere in den Bereichen Technologie, Cybersecurity und künstliche Intelligenz die Nachfrage nach Managed Services rasant steigen. So soll sich der Anteil der Interviewpartner, die in den Bereichen Data & Analytics sowie KI einen hohen Bedarf an Managed Services erwarten – von aktuell 40 Prozent bis zum Jahr 2027 auf 80 Prozent verdoppeln. Auch im Bereich IT-Operations (Technology) werde der Bedarf deutlich steigen, prognostiziert Lünendonk, da hier sowohl die technologischen Entwicklungen besonders dynamisch verliefen als auch der Fachkräftemangel besonders hoch sei.  Bedarf bei Cyber Security und IT Compliance steigt  Die größte Nachfrage nach Managed Services sollen indes die steigenden Anforderungen an die Cybersecurity- Resilienz generieren. So müssen sich Unternehmen im Bereich IT-Security intensiv mit neuen Regularien wie dem Digital Operations Resilience Act (DORA) und NIS-2 auseinandersetzen und die Nutzung von Cloud Services regelkonform abbilden. Während DORA speziell für Finanzdienstleister gilt und in Teilen bereits umgesetzt ist, richtet sich NIS-2 an alle Unternehmen ab 50 Mitarbeitenden oder zehn Millionen Euro Umsatz. Für die Lünendonk-Studie „Managed Services – Der Weg in die Transformation und aus dem Fachkräftemangel“ wurden im Zeitraum von Oktober 2024 bis Januar 2025 101 Führungskräfte aus Großunternehmen und Konzernen mit einem Umsatz von mindestens 500 Millionen Euro befragt. Die Studie wurde in Kooperation mit Deloitte, EY, KPMG, Protiviti und PwC erstellt und steht zum kostenfreien Download bereit.  

Digitalisierung treibt Nachfrage nach Managed Services an​ width=”2455″ height=”1381″ sizes=”(max-width: 2455px) 100vw, 2455px”>Angesichts des Drucks zu einer stärkeren Digitalisierung spielen Managed Services in deutschen Unternehmen eine zunehmend wichtige Rolle.metamorworks – shutterstock.com

Obwohl fast alle deutschen Unternehmen (96 Prozent) die digitale Transformation als wichtigste Herausforderung sehen, kommen sie damit nicht so recht voran. In einer Umfrage von Lünendonk berichteten 36 Prozent der befragten Führungskräfte aus Großunternehmen und Konzernen, dass sich ihre bisherigen Digitalisierungsmaßnahmen nicht wie erhofft auszahlten.  

Gleichzeitig zeigte sich bei den Gesprächen, dass intern oft die nötigen Fachkräfte fehlen, um Innovationen konsequent voranzutreiben und Prozesse nachhaltig zu transformieren. 57 Prozent der Befragten beklagten, dass sich die Mitarbeitenden in ihren Unternehmen noch zu stark mit nicht-wertschöpfenden Tätigkeiten außerhalb ihrer eigentlichen Kernaufgaben beschäftigen müssen.  

Lünendonk

Digitalisierung überfordert Unternehmen

Die Konsequenz: Wie Lünendonk in den Gesprächen mit insgesamt 101 Führungskräften herausfand, scheitern viele Unternehmen daran, die im operativen Geschäft benötigten, digitalen Services auch in hoher Qualität und in kürzeren Zyklen bereitzustellen und zu standardisieren.  

Vor diesem Hintergrund, so das Analystenhaus, stehen Managed Services vor dem strategischen Durchbruch. Die Auslagerung von Prozessen an einen externen Dienstleister werde als ein Weg gesehen, die Transformation zu beschleunigen und den Return on Investment (RoI) zu verbessern.  

Laut Lünendonk gehen die Erwartungen dabei weit über das klassische Outsourcing mit Modellen wie Festpreis oder Time-and-Material hinaus. Stattdessen setzten die Unternehmen verstärkt auf flexiblere Modelle, die eine engere Verzahnung zwischen Business und IT sowie deutlich stärkere, leistungsbezogene Komponenten ermöglichen.  

Die Ergebnisse der Studie bestätigen das: Tatsächlich bevorzugen 58 Prozent der Studienteilnehmer in ihren Managed-Service-Ausschreibungen Dienstleister, die die Gesamtverantwortung sowohl für den Betrieb und Weiterentwicklung der Geschäftsprozesse als auch der unterstützenden IT-Systeme übernehmen.  

Ergebnisbasierte Verträge gewinnen dabei zunehmend an Bedeutung, auch wenn sie derzeit erst von einem Drittel der Unternehmen genutzt werden. Weitere 17 Prozent planen jedoch in Zukunft, solche Abrechnungsmodelle zu nutzen. Laut Studie setzen insbesondere Unternehmen mit mehr als zehn Milliarden Euro Umsatz bereits verstärkt auf leistungsorientierten Vertragsformen, bei denen Dienstleister nicht nur operativ unterstützen, sondern aktiv zur Verbesserung von Effizienz und Qualität beitragen. 

„Die Zeiten, in denen Managed Services lediglich zur Kostensenkung und Standardisierung genutzt wurden, sind vorbei“, erklärt Studienautor Mario Zillmann, Partner bei Lünendonk & Hossenfelder. „Unsere Studie zeigt, dass Unternehmen von ihren Dienstleistern zunehmend strategische Unterstützung bei der Digitalisierung, Automatisierung und Compliance-Umsetzung erwarten.“ 

Laut Studie wird in den kommenden Jahren insbesondere in den Bereichen Technologie, Cybersecurity und künstliche Intelligenz die Nachfrage nach Managed Services rasant steigen. So soll sich der Anteil der Interviewpartner, die in den Bereichen Data & Analytics sowie KI einen hohen Bedarf an Managed Services erwarten – von aktuell 40 Prozent bis zum Jahr 2027 auf 80 Prozent verdoppeln.

Auch im Bereich IT-Operations (Technology) werde der Bedarf deutlich steigen, prognostiziert Lünendonk, da hier sowohl die technologischen Entwicklungen besonders dynamisch verliefen als auch der Fachkräftemangel besonders hoch sei. 

Bedarf bei Cyber Security und IT Compliance steigt 

Die größte Nachfrage nach Managed Services sollen indes die steigenden Anforderungen an die Cybersecurity- Resilienz generieren. So müssen sich Unternehmen im Bereich IT-Security intensiv mit neuen Regularien wie dem Digital Operations Resilience Act (DORA) und NIS-2 auseinandersetzen und die Nutzung von Cloud Services regelkonform abbilden. Während DORA speziell für Finanzdienstleister gilt und in Teilen bereits umgesetzt ist, richtet sich NIS-2 an alle Unternehmen ab 50 Mitarbeitenden oder zehn Millionen Euro Umsatz.

Für die Lünendonk-Studie „Managed Services – Der Weg in die Transformation und aus dem Fachkräftemangel“ wurden im Zeitraum von Oktober 2024 bis Januar 2025 101 Führungskräfte aus Großunternehmen und Konzernen mit einem Umsatz von mindestens 500 Millionen Euro befragt. Die Studie wurde in Kooperation mit Deloitte, EY, KPMG, Protiviti und PwC erstellt und steht zum kostenfreien Download bereit. 

Digitalisierung treibt Nachfrage nach Managed Services an​ Weiterlesen »

Podcast: So geht moderne App-Entwicklung​

Allgemein

Mark Zimmermann von EnBW erklärt in unserem Podcast, worauf es bei moderner App-Entwicklung ankommt.Mark Zimmermann Die Entwicklung mobiler Apps ist komplex. Während Webanwendungen meist mit standardisierten Umgebungen arbeiten, müssen Entwickler von Apps mit einer Vielzahl von Geräten, Betriebssystemversionen, Bildschirmgrößen und Netzwerkbedingungen umgehen. In der aktuellen TechTalk-Episode skizziert Mark Zimmermann, Leiter des Center of Excellence for Mobile Solutions bei EnBW, einen modernen Ansatz der App-Entwicklung, der sich stark an den sich ständig ändernden Marktanforderungen orientiert.  Hohe Anforderungen an die App-Performance  „Die Anforderungen an Performance, Stabilität und Nutzerfreundlichkeit sind bei mobilen Anwendungen enorm hoch, erklärt der Mobility-Experte, „da Nutzer keine Geduld für Fehler, lange Ladezeiten oder einen erhöhten Akkuverbrauch haben.“  Auch die Entwicklungsprozesse und Werkzeuge unterscheiden sich stark. „Professionelle App-Entwicklung erfordert eine Strategie, die Performance, Sicherheit und Benutzerfreundlichkeit kombiniert“, konstatiert Zimmermann. „Agile Methoden mit kurzen Zyklen, iterativer Priorisierung und enger Zusammenarbeit zwischen Rollen sind die Basis moderner Projekte.“   Wie wichtige Aspekte wie Barrierefreiheit, Benutzerfreundlichkeit oder Update-Fähigkeit in der Praxis realisiert werden, welche Tools und Methoden zum Einsatz kommen und vieles mehr – das hören Sie in dieser Ausgabe von TechTalk, dem Podcast von Computerwoche, CIO und CSO.   width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1a9IEoP7UTXCmApyVcPf1S?utm_source=oembed”> 

Podcast: So geht moderne App-Entwicklung​ Mark Zimmermann von EnBW erklärt in unserem Podcast, worauf es bei moderner App-Entwicklung ankommt.Mark Zimmermann

Die Entwicklung mobiler Apps ist komplex. Während Webanwendungen meist mit standardisierten Umgebungen arbeiten, müssen Entwickler von Apps mit einer Vielzahl von Geräten, Betriebssystemversionen, Bildschirmgrößen und Netzwerkbedingungen umgehen. In der aktuellen TechTalk-Episode skizziert Mark Zimmermann, Leiter des Center of Excellence for Mobile Solutions bei EnBW, einen modernen Ansatz der App-Entwicklung, der sich stark an den sich ständig ändernden Marktanforderungen orientiert. 

Hohe Anforderungen an die App-Performance 

„Die Anforderungen an Performance, Stabilität und Nutzerfreundlichkeit sind bei mobilen Anwendungen enorm hoch, erklärt der Mobility-Experte, „da Nutzer keine Geduld für Fehler, lange Ladezeiten oder einen erhöhten Akkuverbrauch haben.“ 

Auch die Entwicklungsprozesse und Werkzeuge unterscheiden sich stark. „Professionelle App-Entwicklung erfordert eine Strategie, die Performance, Sicherheit und Benutzerfreundlichkeit kombiniert“, konstatiert Zimmermann. „Agile Methoden mit kurzen Zyklen, iterativer Priorisierung und enger Zusammenarbeit zwischen Rollen sind die Basis moderner Projekte.“  

Wie wichtige Aspekte wie Barrierefreiheit, Benutzerfreundlichkeit oder Update-Fähigkeit in der Praxis realisiert werden, welche Tools und Methoden zum Einsatz kommen und vieles mehr – das hören Sie in dieser Ausgabe von TechTalk, dem Podcast von Computerwoche, CIO und CSO.  

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1a9IEoP7UTXCmApyVcPf1S?utm_source=oembed”>

Podcast: So geht moderne App-Entwicklung​ Weiterlesen »

14 alternative Managed-Kubernetes-Plattformen​

Allgemein

Kubernetes-as-a-Service-Angebote gibt’s nicht nur vom Hyperscaler.cdrin | shutterstock.com Kubernetes ist ausgesprochen performant, aber auch äußerst komplex. Das veranlasst nicht wenige Organisationen und Unternehmen dazu, auf vollständig verwaltete Kubernetes-Plattformen zu setzen, statt auf selbst gehostete Lösungen. Dabei sind die Services der Hyperscaler im Regelfall der erste Anlaufpunkt – also konkret: Amazon Elastic Kubernetes Service (EKS), Azure Kubernetes Service (AKS) und Google Kubernetes Engine (GKE). Das Feld der Managed-Kubernetes-Anbieter und -Angebote ist allerdings deutlich vielfältiger: Die Cloud Native Computing Foundation (CNCF) verzeichnet inzwischen mehr als 100 zertifizierte Anbieter. Dabei wächst das Interesse an alternativen Plattformen, die nicht von Amazon Web Services (AWS), Google Cloud (GCP) oder Microsoft kommen und teilweise darauf spezialisiert sind, Container am Netzwerkrand, lokal oder in kleinerem Umfang bereitzustellen. Das liegt auch an den Kosten: Die Offerings einiger kleinerer Anbieter sind im Vergleich zu denen der Hyperscaler deutlich günstiger. In diesem Artikel werfen wir einen Blick auf die derzeit wichtigsten, CNCF-konformen Managed-Kubernetes-Plattformen – abseits von AWS, Microsoft und Google Cloud.   1. Alibaba Cloud Container Service for Kubernetes (ACK) Alibabas Container Service for Kubernetes hat standardmäßig diverse Funktionen an Bord, um Cluster Management und containerisierte App-Deployments zu vereinheitlichen. Dank der zugrundeliegenden Cloud-Infrastruktur des chinesischen Anbieters ist dieses Angebot zudem hoch skalierbar. Zu den wichtigsten Benefits des Kubernetes-Service von Alibaba zählen: eine native Virtual Private Cloud (VPC) für sichere Netzwerke, direkter Zugriff auf GPU-beschleunigte Instanzen, integrierte Canary- und Blue-Green-Deployment-Strategien, um regionenübergreifend bereitzustellen, sowie professionelle Support-Dienstleistungen. ACK priorisiert VPC-Netzwerke, weil es keinen nativen Support für moderne Container-Netzwerk-Interfaces auf eBPF-Basis bietet (obwohl Plug-Ins dafür zur Verfügung stehen). Geht es um Logging, Storage und rollenbasierte Zugangskontrollen, verlässt sich der Managed-Kubernetes-Service ebenfalls auf die Cloud-Infrastruktur von Alibaba. Wer nach quelloffener Flexibilität sucht, ist hier also falsch. Unter dem Strich: Ideal eignet sich dieser Kubernetes-Dienst in erster Linie für Unternehmen und Anwender, die bereits Alibaba-Cloud-Kunden sind und/oder im asiatischen Raum tätig sind.  2. D2iQ Kubernetes Platform (DKP) Die D2iQ Kubernetes Platform ist initial aus dem (in ursprünglicher Form) nicht mehr existenten Apache Mesos hervorgegangen – einem Open-Source-Projekt, das einst Kubernetes Konkurrenz machen sollte. Inzwischen wurde die Plattform von Nutanix übernommen und bietet die Möglichkeit, Cluster automatisiert und Cloud-übergreifend auf Kubernetes-Basis zu managen. Das Managed-Kubernetes-Angebot von D2iQ zeichnet sich vor allem aus durch: eine Steuerungsebene, die einen zentralen, Cluster-übergreifenden Blick ermöglicht, deklarative APIs und Standard-kubectl-Befehle, Support für Air-Gapped-Deployments, sowie   ein vereinfachtes Deployment von Datenbanken, CI/CD, Backups, Schwachstellen-Scans und Monitoring. Allerdings gibt es auch Kritik seitens der Anwender. Sie bemängeln vor allem eine schlechte Dokumentation, lahmen Support sowie eine steile Lernkurve bei der Ersteinrichtung. Unter dem Strich: Für Unternehmen und Organisationen, die Cloud-übergreifend agieren und über eine ausgeprägte GitOps-Kultur verfügen, ist dieses Angebot einen Blick wert. Insbesondere, wenn das Ziel ist, mehrere Cluster in verschiedenen Deployment-Umgebungen einfacher zu betreiben. 3. DigitalOcean Kubernetes (DOKS) Die Steuerungsebene der Managed-Kubernetes-Plattform von DigitalOcean ist wahlweise über ein User Interface, eine API oder die Kommandozeile zugänglich. Der Service abstrahiert das Infrastrukturmanagement und verspricht automatisierte Hochverfügbarkeit, Autoscaling und „One Click“-Backups. Die Anwender wissen an diesem Kubernetes-Dienst vor allem zu schätzen: eine intuitive Weboberfläche und die optimierte CLI, einfach zu bewerkstelligende Updates, nahtlos integrierbare, native Load Balancer und Volumes, sowie die Möglichkeit, GPU-Workloads über Nvidia-fähige Droplets einzubinden. Anfängliche Sicherheitsprobleme wurden inzwischen behoben. Was DOKS nicht bieten kann, ist integrierter Support für das Network File System (NFS). Dafür gibt es zwar Workarounds – bei der Konkurrenz aber eben auch native Optionen. Dafür werden VPC-Netzwerke nativ unterstützt – allerdings gestaltet sich das weniger flexibel als etwas bei AWS oder GCP. Unter dem Strich: Das Managed-Kubernetes-Angebot von DigitalOcean wird beständig weiteroptimiert und ist insbesondere für kleinere Kubernetes-Workloads wie APIs, Worker Nodes oder Log Processing zu empfehlen. 4. IBM Cloud Kubernetes Service (IKS) Auch IBM bietet mit seinem Kubernetes Service eine vollständig verwaltete Plattform, um Container-Applikationen in der hauseigenen Cloud bereitzustellen. Diese stellt benutzerfreundliche Tools zur Verfügung, um Cluster zu planen, zu warten, zu überwachen und bereitzustellen. Für die Benutzer manifestieren sich die wesentlichen Vorteile der Managed-Kubernetes-Plattform von Big Blue im Wesentlichen in: Workload Scalability, Hochverfügbarkeit, sowie der Möglichkeit, Ressourcen in stark regulierten Umgebungen zu isolieren. Darüber hinaus punktet der Managed Service auch mit einer nativen Container-Registry und den Integrationsmöglichkeiten mit weiteren IBM-Services – etwa Watson. Ganz allgemein weniger gut kommt hingegen die IBM Cloud an. Das begründet sich unter anderem in hohen Kosten, Troubleshooting-Problemen und einer lückenhaften Dokumentation. Unter dem Strich: Falls Ihr Unternehmen bereits die IBM Cloud nutzt und von einer engen Integration mit IBM Services profitiert, kann IKS dennoch eine gute Managed-Kubernetes-Option sein. 5. Kubermatic Kubernetes Platform (KKP) Die Kubermatic Kubernetes Platform ist eine verwaltete Kubernetes-Distribution, die für Edge-Szenarien mit geringer Bandbreite oder geringer Rechenleistung optimiert ist. Dieser Service ist in hohem Maße portabel und unterstützt sowohl hybride Multi-Cloud- als auch Data-Center- und Multitenant-Umgebungen. Diese Kubernetes-Plattform bietet insbesondere Automatisierungsmöglichkeiten. Nämlich mit Blick auf: Skalierung, Fehlerbehebung, Provisionierung, Updates, sowie Backups. KKP ist darüber hinaus auch in einer quelloffenen Community-Version mit Apache-2.0-Lizenz verfügbar. Mit Blick auf Container Network Interface (CNI)-Support war die Kubermatic Kubernetes Platform ursprünglich auf Canal beschränkt, unterstützt inzwischen jedoch unter anderem auch Cilium. Die Nutzerbasis dieser verwalteten Kubernetes-Plattform ist wesentlich kleiner als die seiner großen Konkurrenten. Allerdings zählt Kubermatic zu den fünf größten Kubernetes-Kontributoren. Unter dem Strich: Wenn Sie eine Kubernetes-native, verwaltete Plattform mit hoher Anpassungsfähigkeit für Container am Netzwerkrand suchen, ist dieser Managed Service einen Blick wert. 6. Linode Kubernetes Engine (LKE) Die Linode Kubernetes Engine ist eine Managed-Service-Plattform des Sicherheitsanbieters Akamai. Sie ermöglicht es, containerisierte Anwendungen bereitzustellen, ohne ein Kubernetes Cluster warten zu müssen. Auch diese Plattform bietet eine vollständig gemanagte Steuerungsebene und eröffnet programmgesteuerte Wege, um Cluster bereitzustellen. Mit Blick auf die LKE loben die Anwender in erster Linie: die Benutzerfreundlichkeit der Plattform, den hochwertigen Kunden-Support, die transparente Preisgestaltung (Worker-Knoten kosten, eingehende Übertragungen sind kostenlos), die hohe Verfügbarkeit, den Support für mehrere Kubernetes-Versionen, sowie die Möglichkeit, schnell zusätzliche Tools in Form von Add-Ons hinzuzufügen. Allerdings lässt der Linode-Kubernetes-Dienst einige fortschrittliche Funktionen größerer Konkurrenzplattformen vermissen, Insbesondere fehlt eine private Container-Registry – und obwohl es sich um einen Managed Service handelt, müssen die Anwender sich selbst um Deployment-Konfigurationen kümmern. Sauer aufstoßen könnte potenziellen Kunden auch, dass für GPU-Workloads zusätzliche (Abo-)Gebühren anfallen. Unter dem Strich: Linode Kubernetes Engine eignet sich in erster Linie für kleinere Teams oder (Startup-)Unternehmen. 7. Mirantis Kubernetes Engine (MKE) Die ehemals als Docker Enterprise bekannte Mirantis Kubernetes Engine ist eine Container-Orchestrierungsplattform mit Open-Source-Wurzeln, die auf Bare Metal, Public Cloud und allem dazwischen läuft. Dieser Service nutzt Calico zu Networking-Zwecken und KubeVirt, um Container und VMs zu managen. MKE-Anwender wissen an dem Managed Service insbesondere zu schätzen: den flexiblen Zugriff über Web-UI, CLI oder API, die einfache Bedienung, die ausgeprägten Sicherheitskontrollen, unbegrenzt nutzbare Worker Nodes, sowie eine interne, vertrauenswürdige Registry für Container-Images. Skepsis erzeugt hingegen das Open-Source-Engagement von Mirantis. Das Unternehmen ist berüchtigt dafür, kostenlos verfügbare Tools mit Docker-Bezug zu kommerzialisieren. Die Entscheidung, das populäre Kubernetes-Dashboard Lens zu einem Closed-Source-Produkt umzufunktionieren, hat die Situation, gelinde gesagt, nicht verbessert. Kritisch sehen manche Anwender auch die Performance des Kunden-Supports und die teilweise undurchsichtige Dokumentation.    Unter dem Strich: Für Anwender, die in das Docker-Ökosystem eingebettet sind und lieber eine einfache statt eine möglichst flexible Lösung bevorzugen, bleibt die Mirantis Kubernetes Engine eine solide Wahl. 8. Oracle Kubernetes Engine (OKE) Oracles Kubernetes Engine fußt auf der hauseigenen Cloud-Infrastruktur. Die Managed-Kubernetes-Plattform automatisiert dabei nicht nur Wartung und Patch Management, sondern bietet zudem Support für Autoscaling und effiziente Ressourcennutzung.  Durch die Verflechtung mit dem Oracle-Ökosystem eignet sich diese Plattform vor allem für Oracle-agnostische Organisationen. Diese profitieren (unter anderem) von:   zahlreichen Add-Ons sowie dauerhaft kostenlos nutzbaren Ressourcen (für selbst gehostete Projekte). Letztgenanntes Feature überzeugt sogar einige unabhängige Entwickler – im Allgemeinen ist Oracles Managed Service aber für Enterprise-Nutzer interessant. OKE-Anwender kritisieren in erster Linie die umständliche Experience, die die OCI-Benutzeroberfläche realisiert. Unter dem Strich: Wenn Sie nach einer Enterprise-orientierten Kubernetes-Management-Ebene mit einer großzügigen, kostenlosen Option suchen, könnte Oracle Kubernetes Engine die richtige Wahl sein. 9. Platform9 Managed Kubernetes (PMK) Der Managed-Kubernetes-Service von Platform9 automatisiert Custer-Prozesse – etwa mit Blick auf Deployment, Monitoring, Wartung und Upgrades. PMK ist Cloud-agnostisch und kann sowohl lokal als auch in Edge- und Public-Cloud-Umgebungen ausgeführt werden. Die Anwender des Platform9-Dienstes erfreuen sich vor allem an: skalierbarem Multi-Custer-Management, Multitenant-Fähigkeiten, granularen RBAC-Richtlinien, einer Hochverfügbarkeits-Garantie, sowie einer soliden Developer Experience.   Allerdings fehlt PMK eine integrierte Container-Registry – und der CNI-Support ist eher begrenzt (wenn auch über Plugins anpassbar). Dass die Steuerungsebene des Services in der Cloud gehostet wird, entspricht möglicherweise nicht in jedem Fall den Compliance-Vorgaben. Und obwohl manche Anwender von Kosteneinsparungen berichten, ist das Preisgefüge von PMK mitunter schwer zu durchdringen. Unter dem Strich: Für Unternehmen und Organisationen, die eine Private-Cloud-Kubernetes-Lösung suchen, ist Platform9 Managed Kubernetes eine starke Alternative zu Red Hat OpenShift oder VMware Tanzu. 10. Rackspace Managed Kubernetes (MPK) Die eben besprochene Plattform von Platform9 bildet auch die Grundlage für den Managed-Kubernetes-Dienst von Rackspace. Auch dieser Service wartet mit einer einheitlichen Steuerungsebene auf, um Cluster bereitzustellen, zu überwachen und zu aktualisieren. Dabei unterstützt MPK drei Umgebungen: Rackspace Bare Metal, AKS und EKS. Zu den Vorteilen dieses Angebots zählen: eine SLA, die Kubernetes-Upgrades innerhalb von 120 Tagen garantiert, dedizierte Support-Dienstleistungen (PDF) von Kubernetes-zertifizierten Engineers, Integrationsmöglichkeiten für Tools, die von der CNCF unterstützt werden – etwa Prometheus, Fluentd, Helm oder Istio. Eine native Container-Registry lässt das Managed-Service-Angebot von Rackspace jedoch ebenso vermissen wie IAM und Storage. Eine Public-Cloud-Anbindung oder entsprechende Bring-your-own-Lösungen sind also erforderlich. Unter dem Strich: Rackspace Managed Kubernetes ist eine solide Wahl für Teams, die auf Rackspace Bare Metal Hosting setzen, Hands-On-Support schätzen und eine zentrale Plattform suchen, um Kubernetes-Services von AWS und Azure zu managen. 11. Rancher Die Kubernetes-as-a-Service-Lösung von SUSE – Rancher – ist auf On-Premises- und Cloud-Umgebungen ausgerichtet. Dieser Service unterstützt mehrere, unterschiedliche Kubernetes-Plattformen – darunter Rancher Kubernetes Engine (RKE), K3s, AKS, EKS und GKE. Entwickler schätzen an Rancher vor allem: die einheitliche Web-UI, die einen einfachen Einstieg gewährleistet,   eine API, eine CLI sowie Support für Terraform,   die standardmäßig integrierten Authentifizierungsmethoden (etwa OAuth), die große Community, die es auch leicht macht, Support zu finden. Von Problemen berichten Anwender beim Kubernetes-Service von SUSE vor allem mit Blick auf die native Storage-Lösung Longhorn. Unter dem Strich: Rancher ist vergleichbar mit OpenShift (dazu gleich mehr), dabei aber weniger eigensinnig und modularer aufgebaut – inklusive einem anderen Multitenancy-Ansatz. Organisationen und Unternehmen, die mehrere, unterschiedliche Clouds und Cluster mit möglichst wenig Anbieterrestriktionen managen wollen, sind bei Rancher gut aufgehoben. 12. Red Hat OpenShift Kubernetes Engine Red Hats Hybrid-Cloud-Plattform Open Shift vereinheitlicht  Kubernetes mit einer Developer Tool Chain für vereinfachtes Cluster Management. Die Plattform integriert Observability, Networking, Security und GitOps. Das gewährleistet im Vergleich zu Standalone-Kubernetes simplere Patching- und Update-Prozesse. Im Gegensatz zu Cloud-spezifischen Services ist OpenShift portabel und kann On-Premises, in Rechenzentren oder Cloud-übergreifend eingesetzt werden. OpenShift Kubernetes Engine ist wiederum eine abgespeckte Version von OpenShift. Sie: stellt die Managed-Kubernetes-Umgebung ohne den übergeordneten PaaS-Layer bereit, unterstützt Kubernetes-Operatoren und ermöglicht, Container und virtuelle Maschinen parallel auszuführen. Allerdings berichten Anwender, dass OpenShift im Vergleich zu anderen Services deutlich eigenwilliger ist: Es bevorzugt seine eigene CLI gegenüber kubectl – und einige Helm-Charts und Operatoren müssen möglicherweise an das Sicherheitsmodell angepasst werden.   Unter dem Strich: OpenShift eignet sich in erster Linie für lokale Deployments, hybride Teams, die VMs und Container managen und Red-Hat-Kunden. Sie bekommen eine portable, Enterprise-fähige Kubernetes-Distribution mit integrierter Sicherheit und Automatisierungsmöglichkeiten. 13. Scaleway Kubernetes Kapsule Der französische Cloud- und Webhosting-Anbieter Scaleway hat mit Kubernetes Kapsule ebenfalls einen Managed-Kubernetes-Dienst im Angebot. Dieser ist vor allem auf Skalierbarkeit und Ausfallsicherheit ausgerichtet. Dieser Service zeichnet sich vor allem aus durch: eine schlanke Benutzererfahrung, starken Kundensupport, flexibles Cluster-Management per API, CLI oder Terraform, eine nutzungsbasierte Abrechnung, sowie eine App-Bibliothek inklusive vorkonfigurierter Lösungen für gängige Add-Ons.   Ein möglicher Nachteil bei dem Managed Service von Scaleway sind die unterstützten Regionen – Frankreich, die Niederlande und Polen. Für andere, potenzielle Interessenten könnten sich auch bestimmte fehlende Funktionen als „Deal Breaker“ erweisen – etwa fortgeschrittenes Load Balancing. Manche Anwender berichten außerdem von Ausfall-, beziehungsweise Zuverlässigkeitsproblemen. Unter dem Strich: Aufgrund seines begrenzten Funktionsumfangs und seiner geografischen Restriktionen eignet sich Scaleway Kubernetes Kapsule vor allem für Nebenprojekte, Experimente – oder für Startups mit Sitz in der EU, die eine erschwingliche, DSGVO-konforme Lösung suchen.   14. VMware Tanzu Kubernetes Grid (TKG) Tanzu Kubernetes Grid ist die Kubernetes-Plattform von VMware – beziehungsweise Broadcom. Sie verspricht, Networking, Authentifizierung, Monitoring, Logging und Zugangskontrollmaßnahmen zu vereinheitlichen und basiert in Teilen auf Open Source Software: Um mehrere Cluster zu managen, nutzt dieser Service beispielsweise die Cluster API. TKG bietet in erster Linie: eine gute Performance und sowohl CLI- als auch UI-Optionen. Allerdings ist dieser Service inzwischen nicht mehr Multi-Cloud-fähig: Seit Version 2.5 gibt es keinen Support mehr für AWS- und Azure-Workloads. Weil der Fokus damit vor allem auf der Virtualisierungsplattform vSphere liegt, ist dieser Service als agnostische Kubernetes-Steuerungsebene ungeeignet. Um Kubernetes Cloud-übergreifend managen zu können, ist zudem Tanzu Mission Control im Zusammenspiel mit nativen Services wie EKS, AKS oder GKE erforderlich. Dazu kommen noch ein Branding und eine Dokumentation, die mehr verwirren als Klarheit schaffen. Das geht offenbar so weit, dass selbst VMwares eigene Experten sich schwertun, die SKUs zu erklären. Die Preiserhöhungen, die nach der Übernahme von VMware durch Broadcom für den Service verankert wurden, sind eklatant. In Kombination mit dem Umstand, dass VMware zudem etliche Tanzu-Packages eingestellt hat, wirft das bezüglich der langfristigen Rentabilität des VMware-Kubernetes-Dienstes Fragen auf.   Unter dem Strich: Wenn Ihr Unternehmen stark in vSphere und virtuelle Maschinen investiert ist, höhere Kosten verkraften kann und keine echte Multi-Cloud-Lösung benötigt, könnte Tanzu Kubernetes Grid eine passende Lösung sein. Noch mehr Managed-Kubernetes-Optionen Es gibt unzählige weitere empfehlenswerte Managed-Kubernetes-Angebote, etwa von: Hetzner, Spectro Cloud,   OVHCloud, Civo, Tencent, oder Huawei. Diverse andere Lösungen fokussieren eher auf nischige Kubernetes-Management-Funktionen. Zum Beispiel diese Managed Services, die darauf ausgelegt sind, mehrere Cluster und Clouds universell zu steuern:   Portainer, Rafay, Omni, Liquo, und   Kube Clusters. Zusätzliche Managed-Kubernetes-Optionen, die sich speziell für Container- und Edge-Deployments in kleinerem Umfang eignen, sind: MicroK8s, K3s, K0s, Vultr, oder der quelloffene Developer-Favorit Kubespray. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

14 alternative Managed-Kubernetes-Plattformen​ Kubernetes-as-a-Service-Angebote gibt’s nicht nur vom Hyperscaler.cdrin | shutterstock.com

Kubernetes ist ausgesprochen performant, aber auch äußerst komplex. Das veranlasst nicht wenige Organisationen und Unternehmen dazu, auf vollständig verwaltete Kubernetes-Plattformen zu setzen, statt auf selbst gehostete Lösungen. Dabei sind die Services der Hyperscaler im Regelfall der erste Anlaufpunkt – also konkret:

Amazon Elastic Kubernetes Service (EKS),

Azure Kubernetes Service (AKS) und

Google Kubernetes Engine (GKE).

Das Feld der Managed-Kubernetes-Anbieter und -Angebote ist allerdings deutlich vielfältiger: Die Cloud Native Computing Foundation (CNCF) verzeichnet inzwischen mehr als 100 zertifizierte Anbieter. Dabei wächst das Interesse an alternativen Plattformen, die nicht von Amazon Web Services (AWS), Google Cloud (GCP) oder Microsoft kommen und teilweise darauf spezialisiert sind, Container am Netzwerkrand, lokal oder in kleinerem Umfang bereitzustellen. Das liegt auch an den Kosten: Die Offerings einiger kleinerer Anbieter sind im Vergleich zu denen der Hyperscaler deutlich günstiger.

In diesem Artikel werfen wir einen Blick auf die derzeit wichtigsten, CNCF-konformen Managed-Kubernetes-Plattformen – abseits von AWS, Microsoft und Google Cloud.  

1. Alibaba Cloud Container Service for Kubernetes (ACK)

Alibabas Container Service for Kubernetes hat standardmäßig diverse Funktionen an Bord, um Cluster Management und containerisierte App-Deployments zu vereinheitlichen. Dank der zugrundeliegenden Cloud-Infrastruktur des chinesischen Anbieters ist dieses Angebot zudem hoch skalierbar.

Zu den wichtigsten Benefits des Kubernetes-Service von Alibaba zählen:

eine native Virtual Private Cloud (VPC) für sichere Netzwerke,

direkter Zugriff auf GPU-beschleunigte Instanzen,

integrierte Canary- und Blue-Green-Deployment-Strategien, um regionenübergreifend bereitzustellen, sowie

professionelle Support-Dienstleistungen.

ACK priorisiert VPC-Netzwerke, weil es keinen nativen Support für moderne Container-Netzwerk-Interfaces auf eBPF-Basis bietet (obwohl Plug-Ins dafür zur Verfügung stehen). Geht es um Logging, Storage und rollenbasierte Zugangskontrollen, verlässt sich der Managed-Kubernetes-Service ebenfalls auf die Cloud-Infrastruktur von Alibaba. Wer nach quelloffener Flexibilität sucht, ist hier also falsch.

Unter dem Strich: Ideal eignet sich dieser Kubernetes-Dienst in erster Linie für Unternehmen und Anwender, die bereits Alibaba-Cloud-Kunden sind und/oder im asiatischen Raum tätig sind. 

2. D2iQ Kubernetes Platform (DKP)

Die D2iQ Kubernetes Platform ist initial aus dem (in ursprünglicher Form) nicht mehr existenten Apache Mesos hervorgegangen – einem Open-Source-Projekt, das einst Kubernetes Konkurrenz machen sollte. Inzwischen wurde die Plattform von Nutanix übernommen und bietet die Möglichkeit, Cluster automatisiert und Cloud-übergreifend auf Kubernetes-Basis zu managen.

Das Managed-Kubernetes-Angebot von D2iQ zeichnet sich vor allem aus durch:

eine Steuerungsebene, die einen zentralen, Cluster-übergreifenden Blick ermöglicht,

deklarative APIs und Standard-kubectl-Befehle,

Support für Air-Gapped-Deployments, sowie  

ein vereinfachtes Deployment von Datenbanken, CI/CD, Backups, Schwachstellen-Scans und Monitoring.

Allerdings gibt es auch Kritik seitens der Anwender. Sie bemängeln vor allem eine schlechte Dokumentation, lahmen Support sowie eine steile Lernkurve bei der Ersteinrichtung.

Unter dem Strich: Für Unternehmen und Organisationen, die Cloud-übergreifend agieren und über eine ausgeprägte GitOps-Kultur verfügen, ist dieses Angebot einen Blick wert. Insbesondere, wenn das Ziel ist, mehrere Cluster in verschiedenen Deployment-Umgebungen einfacher zu betreiben.

3. DigitalOcean Kubernetes (DOKS)

Die Steuerungsebene der Managed-Kubernetes-Plattform von DigitalOcean ist wahlweise über ein User Interface, eine API oder die Kommandozeile zugänglich. Der Service abstrahiert das Infrastrukturmanagement und verspricht automatisierte Hochverfügbarkeit, Autoscaling und „One Click“-Backups.

Die Anwender wissen an diesem Kubernetes-Dienst vor allem zu schätzen:

eine intuitive Weboberfläche und die optimierte CLI,

einfach zu bewerkstelligende Updates,

nahtlos integrierbare, native Load Balancer und Volumes, sowie

die Möglichkeit, GPU-Workloads über Nvidia-fähige Droplets einzubinden.

Anfängliche Sicherheitsprobleme wurden inzwischen behoben. Was DOKS nicht bieten kann, ist integrierter Support für das Network File System (NFS). Dafür gibt es zwar Workarounds – bei der Konkurrenz aber eben auch native Optionen. Dafür werden VPC-Netzwerke nativ unterstützt – allerdings gestaltet sich das weniger flexibel als etwas bei AWS oder GCP.

Unter dem Strich: Das Managed-Kubernetes-Angebot von DigitalOcean wird beständig weiteroptimiert und ist insbesondere für kleinere Kubernetes-Workloads wie APIs, Worker Nodes oder Log Processing zu empfehlen.

4. IBM Cloud Kubernetes Service (IKS)

Auch IBM bietet mit seinem Kubernetes Service eine vollständig verwaltete Plattform, um Container-Applikationen in der hauseigenen Cloud bereitzustellen. Diese stellt benutzerfreundliche Tools zur Verfügung, um Cluster zu planen, zu warten, zu überwachen und bereitzustellen.

Für die Benutzer manifestieren sich die wesentlichen Vorteile der Managed-Kubernetes-Plattform von Big Blue im Wesentlichen in:

Workload Scalability,

Hochverfügbarkeit, sowie

der Möglichkeit, Ressourcen in stark regulierten Umgebungen zu isolieren.

Darüber hinaus punktet der Managed Service auch mit einer nativen Container-Registry und den Integrationsmöglichkeiten mit weiteren IBM-Services – etwa Watson. Ganz allgemein weniger gut kommt hingegen die IBM Cloud an. Das begründet sich unter anderem in hohen Kosten, Troubleshooting-Problemen und einer lückenhaften Dokumentation.

Unter dem Strich: Falls Ihr Unternehmen bereits die IBM Cloud nutzt und von einer engen Integration mit IBM Services profitiert, kann IKS dennoch eine gute Managed-Kubernetes-Option sein.

5. Kubermatic Kubernetes Platform (KKP)

Die Kubermatic Kubernetes Platform ist eine verwaltete Kubernetes-Distribution, die für Edge-Szenarien mit geringer Bandbreite oder geringer Rechenleistung optimiert ist. Dieser Service ist in hohem Maße portabel und unterstützt sowohl hybride Multi-Cloud- als auch Data-Center- und Multitenant-Umgebungen.

Diese Kubernetes-Plattform bietet insbesondere Automatisierungsmöglichkeiten. Nämlich mit Blick auf:

Skalierung,

Fehlerbehebung,

Provisionierung,

Updates, sowie

Backups.

KKP ist darüber hinaus auch in einer quelloffenen Community-Version mit Apache-2.0-Lizenz verfügbar.

Mit Blick auf Container Network Interface (CNI)-Support war die Kubermatic Kubernetes Platform ursprünglich auf Canal beschränkt, unterstützt inzwischen jedoch unter anderem auch Cilium. Die Nutzerbasis dieser verwalteten Kubernetes-Plattform ist wesentlich kleiner als die seiner großen Konkurrenten. Allerdings zählt Kubermatic zu den fünf größten Kubernetes-Kontributoren.

Unter dem Strich: Wenn Sie eine Kubernetes-native, verwaltete Plattform mit hoher Anpassungsfähigkeit für Container am Netzwerkrand suchen, ist dieser Managed Service einen Blick wert.

6. Linode Kubernetes Engine (LKE)

Die Linode Kubernetes Engine ist eine Managed-Service-Plattform des Sicherheitsanbieters Akamai. Sie ermöglicht es, containerisierte Anwendungen bereitzustellen, ohne ein Kubernetes Cluster warten zu müssen. Auch diese Plattform bietet eine vollständig gemanagte Steuerungsebene und eröffnet programmgesteuerte Wege, um Cluster bereitzustellen.

Mit Blick auf die LKE loben die Anwender in erster Linie:

die Benutzerfreundlichkeit der Plattform,

den hochwertigen Kunden-Support,

die transparente Preisgestaltung (Worker-Knoten kosten, eingehende Übertragungen sind kostenlos),

die hohe Verfügbarkeit,

den Support für mehrere Kubernetes-Versionen, sowie

die Möglichkeit, schnell zusätzliche Tools in Form von Add-Ons hinzuzufügen.

Allerdings lässt der Linode-Kubernetes-Dienst einige fortschrittliche Funktionen größerer Konkurrenzplattformen vermissen, Insbesondere fehlt eine private Container-Registry – und obwohl es sich um einen Managed Service handelt, müssen die Anwender sich selbst um Deployment-Konfigurationen kümmern. Sauer aufstoßen könnte potenziellen Kunden auch, dass für GPU-Workloads zusätzliche (Abo-)Gebühren anfallen.

Unter dem Strich: Linode Kubernetes Engine eignet sich in erster Linie für kleinere Teams oder (Startup-)Unternehmen.

7. Mirantis Kubernetes Engine (MKE)

Die ehemals als Docker Enterprise bekannte Mirantis Kubernetes Engine ist eine Container-Orchestrierungsplattform mit Open-Source-Wurzeln, die auf Bare Metal, Public Cloud und allem dazwischen läuft. Dieser Service nutzt Calico zu Networking-Zwecken und KubeVirt, um Container und VMs zu managen.

MKE-Anwender wissen an dem Managed Service insbesondere zu schätzen:

den flexiblen Zugriff über Web-UI, CLI oder API,

die einfache Bedienung,

die ausgeprägten Sicherheitskontrollen,

unbegrenzt nutzbare Worker Nodes, sowie

eine interne, vertrauenswürdige Registry für Container-Images.

Skepsis erzeugt hingegen das Open-Source-Engagement von Mirantis. Das Unternehmen ist berüchtigt dafür, kostenlos verfügbare Tools mit Docker-Bezug zu kommerzialisieren. Die Entscheidung, das populäre Kubernetes-Dashboard Lens zu einem Closed-Source-Produkt umzufunktionieren, hat die Situation, gelinde gesagt, nicht verbessert. Kritisch sehen manche Anwender auch die Performance des Kunden-Supports und die teilweise undurchsichtige Dokumentation.   

Unter dem Strich: Für Anwender, die in das Docker-Ökosystem eingebettet sind und lieber eine einfache statt eine möglichst flexible Lösung bevorzugen, bleibt die Mirantis Kubernetes Engine eine solide Wahl.

8. Oracle Kubernetes Engine (OKE)

Oracles Kubernetes Engine fußt auf der hauseigenen Cloud-Infrastruktur. Die Managed-Kubernetes-Plattform automatisiert dabei nicht nur Wartung und Patch Management, sondern bietet zudem Support für Autoscaling und effiziente Ressourcennutzung. 

Durch die Verflechtung mit dem Oracle-Ökosystem eignet sich diese Plattform vor allem für Oracle-agnostische Organisationen. Diese profitieren (unter anderem) von:  

zahlreichen Add-Ons sowie

dauerhaft kostenlos nutzbaren Ressourcen (für selbst gehostete Projekte).

Letztgenanntes Feature überzeugt sogar einige unabhängige Entwickler – im Allgemeinen ist Oracles Managed Service aber für Enterprise-Nutzer interessant. OKE-Anwender kritisieren in erster Linie die umständliche Experience, die die OCI-Benutzeroberfläche realisiert.

Unter dem Strich: Wenn Sie nach einer Enterprise-orientierten Kubernetes-Management-Ebene mit einer großzügigen, kostenlosen Option suchen, könnte Oracle Kubernetes Engine die richtige Wahl sein.

9. Platform9 Managed Kubernetes (PMK)

Der Managed-Kubernetes-Service von Platform9 automatisiert Custer-Prozesse – etwa mit Blick auf Deployment, Monitoring, Wartung und Upgrades. PMK ist Cloud-agnostisch und kann sowohl lokal als auch in Edge- und Public-Cloud-Umgebungen ausgeführt werden.

Die Anwender des Platform9-Dienstes erfreuen sich vor allem an:

skalierbarem Multi-Custer-Management,

Multitenant-Fähigkeiten,

granularen RBAC-Richtlinien,

einer Hochverfügbarkeits-Garantie, sowie

einer soliden Developer Experience.  

Allerdings fehlt PMK eine integrierte Container-Registry – und der CNI-Support ist eher begrenzt (wenn auch über Plugins anpassbar). Dass die Steuerungsebene des Services in der Cloud gehostet wird, entspricht möglicherweise nicht in jedem Fall den Compliance-Vorgaben. Und obwohl manche Anwender von Kosteneinsparungen berichten, ist das Preisgefüge von PMK mitunter schwer zu durchdringen.

Unter dem Strich: Für Unternehmen und Organisationen, die eine Private-Cloud-Kubernetes-Lösung suchen, ist Platform9 Managed Kubernetes eine starke Alternative zu Red Hat OpenShift oder VMware Tanzu.

10. Rackspace Managed Kubernetes (MPK)

Die eben besprochene Plattform von Platform9 bildet auch die Grundlage für den Managed-Kubernetes-Dienst von Rackspace. Auch dieser Service wartet mit einer einheitlichen Steuerungsebene auf, um Cluster bereitzustellen, zu überwachen und zu aktualisieren. Dabei unterstützt MPK drei Umgebungen: Rackspace Bare Metal, AKS und EKS.

Zu den Vorteilen dieses Angebots zählen:

eine SLA, die Kubernetes-Upgrades innerhalb von 120 Tagen garantiert,

dedizierte Support-Dienstleistungen (PDF) von Kubernetes-zertifizierten Engineers,

Integrationsmöglichkeiten für Tools, die von der CNCF unterstützt werden – etwa Prometheus, Fluentd, Helm oder Istio.

Eine native Container-Registry lässt das Managed-Service-Angebot von Rackspace jedoch ebenso vermissen wie IAM und Storage. Eine Public-Cloud-Anbindung oder entsprechende Bring-your-own-Lösungen sind also erforderlich.

Unter dem Strich: Rackspace Managed Kubernetes ist eine solide Wahl für Teams, die auf Rackspace Bare Metal Hosting setzen, Hands-On-Support schätzen und eine zentrale Plattform suchen, um Kubernetes-Services von AWS und Azure zu managen.

11. Rancher

Die Kubernetes-as-a-Service-Lösung von SUSE – Rancher – ist auf On-Premises- und Cloud-Umgebungen ausgerichtet. Dieser Service unterstützt mehrere, unterschiedliche Kubernetes-Plattformen – darunter Rancher Kubernetes Engine (RKE), K3s, AKS, EKS und GKE.

Entwickler schätzen an Rancher vor allem:

die einheitliche Web-UI, die einen einfachen Einstieg gewährleistet,  

eine API, eine CLI sowie Support für Terraform,  

die standardmäßig integrierten Authentifizierungsmethoden (etwa OAuth),

die große Community, die es auch leicht macht, Support zu finden.

Von Problemen berichten Anwender beim Kubernetes-Service von SUSE vor allem mit Blick auf die native Storage-Lösung Longhorn.

Unter dem Strich: Rancher ist vergleichbar mit OpenShift (dazu gleich mehr), dabei aber weniger eigensinnig und modularer aufgebaut – inklusive einem anderen Multitenancy-Ansatz. Organisationen und Unternehmen, die mehrere, unterschiedliche Clouds und Cluster mit möglichst wenig Anbieterrestriktionen managen wollen, sind bei Rancher gut aufgehoben.

12. Red Hat OpenShift Kubernetes Engine

Red Hats Hybrid-Cloud-Plattform Open Shift vereinheitlicht  Kubernetes mit einer Developer Tool Chain für vereinfachtes Cluster Management. Die Plattform integriert Observability, Networking, Security und GitOps. Das gewährleistet im Vergleich zu Standalone-Kubernetes simplere Patching- und Update-Prozesse. Im Gegensatz zu Cloud-spezifischen Services ist OpenShift portabel und kann On-Premises, in Rechenzentren oder Cloud-übergreifend eingesetzt werden.

OpenShift Kubernetes Engine ist wiederum eine abgespeckte Version von OpenShift. Sie:

stellt die Managed-Kubernetes-Umgebung ohne den übergeordneten PaaS-Layer bereit,

unterstützt Kubernetes-Operatoren und

ermöglicht, Container und virtuelle Maschinen parallel auszuführen.

Allerdings berichten Anwender, dass OpenShift im Vergleich zu anderen Services deutlich eigenwilliger ist: Es bevorzugt seine eigene CLI gegenüber kubectl – und einige Helm-Charts und Operatoren müssen möglicherweise an das Sicherheitsmodell angepasst werden.  

Unter dem Strich: OpenShift eignet sich in erster Linie für lokale Deployments, hybride Teams, die VMs und Container managen und Red-Hat-Kunden. Sie bekommen eine portable, Enterprise-fähige Kubernetes-Distribution mit integrierter Sicherheit und Automatisierungsmöglichkeiten.

13. Scaleway Kubernetes Kapsule

Der französische Cloud- und Webhosting-Anbieter Scaleway hat mit Kubernetes Kapsule ebenfalls einen Managed-Kubernetes-Dienst im Angebot. Dieser ist vor allem auf Skalierbarkeit und Ausfallsicherheit ausgerichtet.

Dieser Service zeichnet sich vor allem aus durch:

eine schlanke Benutzererfahrung,

starken Kundensupport,

flexibles Cluster-Management per API, CLI oder Terraform,

eine nutzungsbasierte Abrechnung, sowie

eine App-Bibliothek inklusive vorkonfigurierter Lösungen für gängige Add-Ons.  

Ein möglicher Nachteil bei dem Managed Service von Scaleway sind die unterstützten Regionen – Frankreich, die Niederlande und Polen. Für andere, potenzielle Interessenten könnten sich auch bestimmte fehlende Funktionen als „Deal Breaker“ erweisen – etwa fortgeschrittenes Load Balancing. Manche Anwender berichten außerdem von Ausfall-, beziehungsweise Zuverlässigkeitsproblemen.

Unter dem Strich: Aufgrund seines begrenzten Funktionsumfangs und seiner geografischen Restriktionen eignet sich Scaleway Kubernetes Kapsule vor allem für Nebenprojekte, Experimente – oder für Startups mit Sitz in der EU, die eine erschwingliche, DSGVO-konforme Lösung suchen.  

14. VMware Tanzu Kubernetes Grid (TKG)

Tanzu Kubernetes Grid ist die Kubernetes-Plattform von VMware – beziehungsweise Broadcom. Sie verspricht, Networking, Authentifizierung, Monitoring, Logging und Zugangskontrollmaßnahmen zu vereinheitlichen und basiert in Teilen auf Open Source Software: Um mehrere Cluster zu managen, nutzt dieser Service beispielsweise die Cluster API.

TKG bietet in erster Linie:

eine gute Performance und

sowohl CLI- als auch UI-Optionen.

Allerdings ist dieser Service inzwischen nicht mehr Multi-Cloud-fähig: Seit Version 2.5 gibt es keinen Support mehr für AWS- und Azure-Workloads. Weil der Fokus damit vor allem auf der Virtualisierungsplattform vSphere liegt, ist dieser Service als agnostische Kubernetes-Steuerungsebene ungeeignet. Um Kubernetes Cloud-übergreifend managen zu können, ist zudem Tanzu Mission Control im Zusammenspiel mit nativen Services wie EKS, AKS oder GKE erforderlich.

Dazu kommen noch ein Branding und eine Dokumentation, die mehr verwirren als Klarheit schaffen. Das geht offenbar so weit, dass selbst VMwares eigene Experten sich schwertun, die SKUs zu erklären. Die Preiserhöhungen, die nach der Übernahme von VMware durch Broadcom für den Service verankert wurden, sind eklatant. In Kombination mit dem Umstand, dass VMware zudem etliche Tanzu-Packages eingestellt hat, wirft das bezüglich der langfristigen Rentabilität des VMware-Kubernetes-Dienstes Fragen auf.  

Unter dem Strich: Wenn Ihr Unternehmen stark in vSphere und virtuelle Maschinen investiert ist, höhere Kosten verkraften kann und keine echte Multi-Cloud-Lösung benötigt, könnte Tanzu Kubernetes Grid eine passende Lösung sein.

Noch mehr Managed-Kubernetes-Optionen

Es gibt unzählige weitere empfehlenswerte Managed-Kubernetes-Angebote, etwa von:

Hetzner,

Spectro Cloud,  

OVHCloud,

Civo,

Tencent, oder

Huawei.

Diverse andere Lösungen fokussieren eher auf nischige Kubernetes-Management-Funktionen. Zum Beispiel diese Managed Services, die darauf ausgelegt sind, mehrere Cluster und Clouds universell zu steuern:  

Portainer,

Rafay,

Omni,

Liquo, und  

Kube Clusters.

Zusätzliche Managed-Kubernetes-Optionen, die sich speziell für Container- und Edge-Deployments in kleinerem Umfang eignen, sind:

MicroK8s,

K3s,

K0s,

Vultr, oder

der quelloffene Developer-Favorit Kubespray.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

14 alternative Managed-Kubernetes-Plattformen​ Weiterlesen »

Medizintechniker B. Braun revolutioniert seinen Service mit KI​

Allgemein

Künstliche Intelligenz ist in der Kundenkommunikation eine wertvolle Hilfe. Die entsprechenden Agenden sorgen dafür, dass Kunden schnell an wichtige Informationen gelangen und lernen bei jeder Kundeninteraktion dazu. Ein solcher KI-gestützter Agent wird schon bald beim global agierenden Medizintechnikhersteller B. Braun zum Einsatz kommen. Die Service Techniker des Unternehmens sollen sogar bei technischen Störungen Unterstützung von den KI-Kollegen erhalten. Das Ziel ist, zentrales Wissen und eine Datenzentriertheit für den Agenten aufzubauen und bestmöglich zu nutzen. Außerdem sollen bestehende Services, die das hessische Unternehmen in der multikanalen Kundenkommunikation anbietet, optimiert werden. Die Realisierung eines solchen KI-gestützten Systems erfordert jedoch die Überwindung zahlreicher strategischer wie auch technologischer Herausforderungen. Es gilt, interne wie auch externe Hürden zu überwinden und die Komplexität des Vorhabens zu beschränken. Im CIO Webcast in Zusammenarbeit mit Salesforce und B.Braun erfahren Sie, welchen Weg der Medizintechnikhersteller eingeschlagen hat, um leistungsstarke KI-Agenten erfolgreiche zu integrieren. Patrick Heinen von Salesforce und Anne Wrobel von B. Braun schildern, wie Teams auf diese Weise von repetitiven Arbeiten befreit werden können. Die beiden Experten zeigen außerdem auf, wie sich das System sinnvoll mit dem SAP verbinden lässt und welche konkreten Verbesserungen das Unternehmen B. Braun mit seinen Agenten erzielen will. Der Fachjournalist Sven Hansel übernimmt die Moderation des Webcast. Webcast: Entwicklung von leistungsstarken KI-AgentenErfahren Sie im CIO-Webcast, wie der Medizintechniker B. Braun KI-Agenten ins Unternehmen integrieren will.Registrieren Sie sich jetzt 

Medizintechniker B. Braun revolutioniert seinen Service mit KI​ Künstliche Intelligenz ist in der Kundenkommunikation eine wertvolle Hilfe. Die entsprechenden Agenden sorgen dafür, dass Kunden schnell an wichtige Informationen gelangen und lernen bei jeder Kundeninteraktion dazu. Ein solcher KI-gestützter Agent wird schon bald beim global agierenden Medizintechnikhersteller B. Braun zum Einsatz kommen. Die Service Techniker des Unternehmens sollen sogar bei technischen Störungen Unterstützung von den KI-Kollegen erhalten. Das Ziel ist, zentrales Wissen und eine Datenzentriertheit für den Agenten aufzubauen und bestmöglich zu nutzen. Außerdem sollen bestehende Services, die das hessische Unternehmen in der multikanalen Kundenkommunikation anbietet, optimiert werden.

Die Realisierung eines solchen KI-gestützten Systems erfordert jedoch die Überwindung zahlreicher strategischer wie auch technologischer Herausforderungen. Es gilt, interne wie auch externe Hürden zu überwinden und die Komplexität des Vorhabens zu beschränken.

Im CIO Webcast in Zusammenarbeit mit Salesforce und B.Braun erfahren Sie, welchen Weg der Medizintechnikhersteller eingeschlagen hat, um leistungsstarke KI-Agenten erfolgreiche zu integrieren. Patrick Heinen von Salesforce und Anne Wrobel von B. Braun schildern, wie Teams auf diese Weise von repetitiven Arbeiten befreit werden können. Die beiden Experten zeigen außerdem auf, wie sich das System sinnvoll mit dem SAP verbinden lässt und welche konkreten Verbesserungen das Unternehmen B. Braun mit seinen Agenten erzielen will. Der Fachjournalist Sven Hansel übernimmt die Moderation des Webcast.

Webcast: Entwicklung von leistungsstarken KI-AgentenErfahren Sie im CIO-Webcast, wie der Medizintechniker B. Braun KI-Agenten ins Unternehmen integrieren will.Registrieren Sie sich jetzt

Medizintechniker B. Braun revolutioniert seinen Service mit KI​ Weiterlesen »

7 Wege zur Low-Code-Innovation​

Allgemein

Komplexität abstrahieren, um zu innovieren: Die Low-Code-Technologie macht’s möglich. Foto: SvetaZi | shutterstock.com Spreadsheets substituieren und Dashboards erstellen – das sind die wesentlichen Anwendungsfälle, die viele Business-Führungskräfte und auch Entwickler mit der Low-Code-Technologie in Verbindung bringen. Wir haben für diesen Artikel sieben Use Cases zusammengestellt, die weit mehr realisieren als bloß grundlegende Funktionalitäten – und signifikanten geschäftlichen Mehrwert versprechen. Von wegen Low-Code-Plattformen sind nicht skalierbar und ermöglichen keine Innovation. 1. LLMs mit Low-Code-RAG Was auf den ersten Blick wie ein ungleiches Duett aussieht, geht im Grunde gut zusammen: Low-Code und Generative AI (GenAI; generative KI). Mal angenommen, sie erwägen, ein Large Language Model (LLM) zu entwickeln, das Retrieval Augmented Generation (RAG) nutzen soll: Dann haben Sie die Wahl, das von Grund auf selbst neu aufzubauen, eine Lösung zu kaufen oder eine Low-Code-Option ins Auge zu fassen. Letzteres dürfte insbesondere für mittlere und kleine Unternehmen interessant sein, da sie – im Vergleich zu Großunternehmen – oft nicht in gleichem Maße auf technisches Knowhow und geistiges Eigentum zurückgreifen können. Von den monetären Ressourcen ganz zu schweigen. “Das Gros der KI-Player versucht den Unternehmen weiszumachen, dass sie ihre eigenen LLMs erstellen oder Open-Source-Modelle feinabstimmen müssen, um eine Reihe interner und externer Applikationen zu unterstützen”, kritisiert Igor Jablokov, Gründer und CEO des KI-Spezialisten Pryon und fügt hinzu: “Die Genauigkeit solcher Systeme lässt sich jedoch durch den Einsatz von RAG übertreffen – einfach, indem man mit einigen Klicks Dokumenten-Repositories einbindet und automatisiert KI-Modelle erstellt, die auf diesen Inhalten fußen.” Auch Malcolm Ross, SVP of Product Strategy beim Low-Code-Anbieter Appian, hebt nicht ganz uneigennützig die Vorteile der Technologie hervor: “Um das Design KI-generierter Anwendungen zu verstehen, ist immer noch fortgeschrittenes Informatik-Knowhow notwendig. Aber die visuellen Designkonzepte von Low-Code sind ideal dafür geeignet, KI in End-to-End-Prozesse einzubetten. Parallel wird die Produktivität der Entwickler erhöht und sichergestellt, dass der Output kontrollierbar bleibt.” Ein konkreter, zunehmend attraktiver Use Case ist dabei, Low-Code-Plattformen und GenAI-Funktionalitäten dazu zu nutzen, die Entwicklung von Daten-Pipelines und generativen KI-Anwendungen zu konsolidieren. Das ermöglicht, Anwendungen in denjenigen Bereichen zügig zu entwickeln und bereitzustellen, für die Unternehmen keine Developer oder Data Scientists abstellen können oder wollen. 2. Integrierte Geschäftsprozesse Geschäftsprozesse und Workflow-Optimierungen sind weitere Bereiche, in denen Low-Code unter Umständen bessere Resultate bringt als maßgeschneiderte SaaS-Lösungen. Letztere stehen zum Beispiel in den Bereichen Asset Management und Customer Relationship Management (CRM) in diversen Ausformungen zur Verfügung – aber was, wenn strategische Arbeitsabläufe beide Funktionsbereiche berühren? Der Einsatz von Low-Code kann hier Hilfestellung leisten und dabei unterstützen, integrierte Workflows zu entwickeln. So hat etwa die Statistikbehörde des US-Handelsministerium einen komplexen papierbasierten Datenerfassungsprozess in einen automatisierten Workflow mit Fokus auf die Datenqualität transformiert, wie Don Schuerman, CTO beim Automatisierungsspezialisten Pega, illustriert: “Das US Census Bureau nutzt Low-Code, um die Daten aller US-Haushalte zu sammeln. Im Ergebnis konnte das zuständige, 600.000 Personen starke Team 152 Millionen Haushalte in der Hälfte der Zeit des Vorjahres erfassen – und das ohne jede Downtime.” Low-Code-Plattformen können die Entwicklung integrierter Experiences beschleunigen und diesbezüglich verschiedenste Unternehmensbereiche unterstützen. Weitere Real-World-Beispiele für integrierte Workflows auf Low-Code-Basis: Risikoschätzungen im Versicherungssektor zu rationalisieren, die zentralisierten Customer Service, Policy Management, Claims Processing und Risikomanagement-Prozesse erfordern. Die physische Sicherheit auf Baustellen zu optimieren, was einen koordinierten Workflow zwischen Vorarbeitern, Subunternehmern, Projektmanagern und anderen Stakeholdern erfordert, um eine entsprechende Sicherheitsschulung der Arbeiter sicherzustellen. Intelligente Kundenerfahrungen im Healthcare-Bereich zu entwickeln, die die Verknüpfung von Kundendienst, Personalisierung und Analytics erfordern. 3. Moderne UX – ohne Reengineering Komponenten im Rahmen eines Replatformings zu modernisieren, ist dem Lift-and-Shift-Verfahren bekanntermaßen vorzuziehen, wenn es um App-Modernisierung in der Cloud geht. Ein hilfreicher Ansatz in diesem Bereich kann dabei darin bestehen, Backend-Datenbanken und Services beizubehalten und parallel Low-Code-Plattformen einzusetzen um das Benutzererlebnis am Frontend neu zu gestalten. Mit Hilfe dieser Strategie ist es auch möglich, mehrere User Experiences für unterschiedliche Geschäftszwecke zu generieren. Unter unabhängigen Software-Vendoren ist es zum Beispiel gängige Praxis, eine Funktion zu entwickeln und sie dann auf die Bedürfnisse verschiedener Kunden anzupassen, wie Deepak Anupalli, Mitbegründer und CTO des Softwareanbieters Wavemaker, weiß: “Diese Anbieter gestalten ihre Produkt-UX neu und behalten alle ihre bisherigen Investitionen in Infrastruktur, Back-End-Microservices und APIs bei. Sie nutzen Low-Code, um benutzerdefinierte Komponenten zu erstellen, die sich in bestehende Systeme einfügen und beschleunigen so Web- und Mobile-Implementierungen.” Konkrete Beispiele seien laut Anupalli etwa Self-Service-Portale für Versicherungsunternehmen oder die Modernisierung des Kunden-Onboardings im Bankenumfeld. 4. Maßgeschneiderte Abteilungs-Workflows SaaS-Lösungen unterstützen viele Abteilungen bei skalierbaren und standardmäßigen Workflows. Wenn jedoch spezialisierte Geschäftsprozesse automatisiert werden sollen, tauchen viele Fragezeichen auf. Einen solchen Workflow mit Hilfe von Low-Code- oder No-Code-Plattformen zu entwickeln, die sich in die primären Systeme der betreffenden Abteilung einfügen, kann an dieser Stelle ein sinnvoller Ansatz sein. Anurag Shah, VP und Head of Products beim Plattformanbieter Newgen Software, fasst mögliche Benefits am Beispiel von Marketing-Abteilungen zusammen: “Low-Code-Plattformen können auch für Rapid Prototyping genutzt werden und um KI – mit menschlichem Zutun – kanalübergreifend in Kundenkommunikationsprozesse einzubinden. Das unterstützt Anwender dabei, Marketing-Material, Reportings und weitere Dokumente automatisiert und in großem Umfang zu generieren und anzupassen. Im Ergebnis lassen sich die Effizienz steigern und die Kundenbindung optimieren.” Eoin Hinchy, CEO des Softwareanbieters Tines, kann ein konkretes Beispiel aus dem Bereich der IT-Sicherheit beisteuern: “Nachdem das Infosec-Team bei Elastic mit Warnmeldungen überschwemmt wurde, entwickelte das Unternehmen einen automatisierten Investigation-Workflow, der ganze 93 Arbeitstage an Zeitaufwand einsparen konnte. Mit Low-Code- oder No-Code-Lösungen zu automatisieren, kann den Unternehmensbetrieb deutlich effizienter gestalten und ermöglicht es Teams aus diversen Bereichen, sich auf die wirklich wichtigen Tasks zu konzentrieren.” Maßgeschneiderte Workflows auf Low-Code-Basis kommen darüber hinaus zum Beispiel auch in den Bereichen Mitarbeiter-Onboarding oder Schulung und Weiterbildung in Betracht. 5. Analytics als Gamechanger Reportings und Dashboards sind – wie eingangs bereits erwähnt – die üblichen Use-Case-Verdächtigen im Low-Code-Bereich. Viele Unternehmen unterstützen Business User zudem mit Datenkatalogen und Data-Preparation-Tools. Darüber hinaus kann die Low-Code-Technologie aber auch die Collaboration optimieren und Echtzeit-Analytics realisieren, wie Jay Henderson, SVP of Product Management beim Softwareanbieter Alteryx, konstatiert: “Mit Low-Code-freundlichen Analysetools können erfahrene Datenwissenschaftler mit technologischen Laien auf derselben Plattform auf Augenhöhe zusammenarbeiten. Gleichzeitig kann das einen Beitrag zu User Experience und Prozessautomatisierung leisten und Kompetenzlücken beseitigen.” Julian LaNeve, CTO beim Datenspezialisten Astronomer, liefert ein konkretes Beispiel aus dem US-Profisport: “Die Major-League-Baseball-Mannschaft der Texas Rangers verwendet Pipelines, um Daten über Spieler und Spielstatistiken zu erfassen, die dem Trainerstab direkt nach Spielschluss zur Verfügung stehen. Das ermöglicht nicht nur, die Leistung einzelner Spieler zu tracken sondern auch, das Verletzungsrisiko zu antizipieren.” 6. Public-Cloud-Workflows Zur Innovation kann es außerdem führen, mit Low-Code Produkt- oder Service-Komponenten in der Cloud zu entwickeln: Die Developer beschäftigen sich dabei mit den Engineering- und Skalierungsanforderungen, während Low-Code-Tools für simple Interfaces, administrative Tools oder Reportings genutzt werden. Dieser Ansatz funktioniert für Public-Cloud-Plattformen sowie die Anbindung an Drittanbieter-Services. Heather Sundheim, Managing Director of Solutions Engineering beim Cloud-Spezialisten SADA, gibt tiefere Einblicke: “Low-Code- und No-Code-Plattformen in der Google Cloud ermöglichen eine rationalisierte App-Entwicklung und revolutionieren die Datenverarbeitung und -analyse: Sie ermöglichen den Nutzern, intuitive Interfaces für die direkte Dateneingabe in Google Sheets oder BigQuery-Tabellen zu erstellen.” Die automatisierte Berichterstellung werde durch die Integration von Google Cloud Functions mit diesen Plattformen erleichtert, so die Managerin: “Datengesteuerte Reportings werden auf der Grundlage vordefinierter Kriterien automatisiert erstellt – die Teams können sich ganz auf die Entscheidungsfindung fokussieren. Darüber hinaus kann die Technologie auch der internen Kommunikation durch innovative Anwendungsfälle wie Chatbots und Bilderkennung dienlich sein und neue Geschäftsmöglichkeiten eröffnen.” 7. Authentifizierungs-Upgrades Ein weiterer Bereich, in dem sich mit Low-Code innovieren lässt, ist die Substituierung interner Commodity-Komponenten. Rudimentäre Registrierungs-, Login- und Password-Reset-Funktionalitäten zu entwickeln, ist relativ einfach – allerdings sollten die angesichts heutiger Security-Anforderungen und Nutzererwartungen auch zuverlässig implementiert werden. Wenn User dabei auf zusätzliche Invests in Form von Engineering-Aufwand möglichst verzichten möchten, ist Low-Code ein Weg. Meir Wahnon, Mitbegründer des israelischen Identity-Management-Anbieters Descope, spezifiziert: “Identity geht alle Business Teams etwas an und die User Journey umfasst diverse Schritte – etwa Anmeldung, Login, Multi-Faktor-Authentifizierung oder die Synchronisierung mit CRM-Tools. Die Erweiterbarkeit von Low-Code- und No-Code-Tools vereinfacht es, sie mit anderen Tools zu integrieren und Teams aus nicht-technischen Bereichen in diesen Prozess einzubinden. Zudem können Lösungen dieser Art dazu beitragen, die Details komplexer Authentifizierungsprozesse zu abstrahieren. Das bedeutet für Entwickler, sich stärker auf ihr Kernprodukt konzentrieren zu können.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

7 Wege zur Low-Code-Innovation​ Komplexität abstrahieren, um zu innovieren: Die Low-Code-Technologie macht’s möglich.
Foto: SvetaZi | shutterstock.com

Spreadsheets substituieren und Dashboards erstellen – das sind die wesentlichen Anwendungsfälle, die viele Business-Führungskräfte und auch Entwickler mit der Low-Code-Technologie in Verbindung bringen.

Wir haben für diesen Artikel sieben Use Cases zusammengestellt, die weit mehr realisieren als bloß grundlegende Funktionalitäten – und signifikanten geschäftlichen Mehrwert versprechen. Von wegen Low-Code-Plattformen sind nicht skalierbar und ermöglichen keine Innovation.

1. LLMs mit Low-Code-RAG

Was auf den ersten Blick wie ein ungleiches Duett aussieht, geht im Grunde gut zusammen: Low-Code und Generative AI (GenAI; generative KI). Mal angenommen, sie erwägen, ein Large Language Model (LLM) zu entwickeln, das Retrieval Augmented Generation (RAG) nutzen soll: Dann haben Sie die Wahl, das von Grund auf selbst neu aufzubauen, eine Lösung zu kaufen oder eine Low-Code-Option ins Auge zu fassen. Letzteres dürfte insbesondere für mittlere und kleine Unternehmen interessant sein, da sie – im Vergleich zu Großunternehmen – oft nicht in gleichem Maße auf technisches Knowhow und geistiges Eigentum zurückgreifen können. Von den monetären Ressourcen ganz zu schweigen.

“Das Gros der KI-Player versucht den Unternehmen weiszumachen, dass sie ihre eigenen LLMs erstellen oder Open-Source-Modelle feinabstimmen müssen, um eine Reihe interner und externer Applikationen zu unterstützen”, kritisiert Igor Jablokov, Gründer und CEO des KI-Spezialisten Pryon und fügt hinzu: “Die Genauigkeit solcher Systeme lässt sich jedoch durch den Einsatz von RAG übertreffen – einfach, indem man mit einigen Klicks Dokumenten-Repositories einbindet und automatisiert KI-Modelle erstellt, die auf diesen Inhalten fußen.”

Auch Malcolm Ross, SVP of Product Strategy beim Low-Code-Anbieter Appian, hebt nicht ganz uneigennützig die Vorteile der Technologie hervor: “Um das Design KI-generierter Anwendungen zu verstehen, ist immer noch fortgeschrittenes Informatik-Knowhow notwendig. Aber die visuellen Designkonzepte von Low-Code sind ideal dafür geeignet, KI in End-to-End-Prozesse einzubetten. Parallel wird die Produktivität der Entwickler erhöht und sichergestellt, dass der Output kontrollierbar bleibt.”

Ein konkreter, zunehmend attraktiver Use Case ist dabei, Low-Code-Plattformen und GenAI-Funktionalitäten dazu zu nutzen, die Entwicklung von Daten-Pipelines und generativen KI-Anwendungen zu konsolidieren. Das ermöglicht, Anwendungen in denjenigen Bereichen zügig zu entwickeln und bereitzustellen, für die Unternehmen keine Developer oder Data Scientists abstellen können oder wollen.

2. Integrierte Geschäftsprozesse

Geschäftsprozesse und Workflow-Optimierungen sind weitere Bereiche, in denen Low-Code unter Umständen bessere Resultate bringt als maßgeschneiderte SaaS-Lösungen. Letztere stehen zum Beispiel in den Bereichen Asset Management und Customer Relationship Management (CRM) in diversen Ausformungen zur Verfügung – aber was, wenn strategische Arbeitsabläufe beide Funktionsbereiche berühren? Der Einsatz von Low-Code kann hier Hilfestellung leisten und dabei unterstützen, integrierte Workflows zu entwickeln.

So hat etwa die Statistikbehörde des US-Handelsministerium einen komplexen papierbasierten Datenerfassungsprozess in einen automatisierten Workflow mit Fokus auf die Datenqualität transformiert, wie Don Schuerman, CTO beim Automatisierungsspezialisten Pega, illustriert: “Das US Census Bureau nutzt Low-Code, um die Daten aller US-Haushalte zu sammeln. Im Ergebnis konnte das zuständige, 600.000 Personen starke Team 152 Millionen Haushalte in der Hälfte der Zeit des Vorjahres erfassen – und das ohne jede Downtime.”

Low-Code-Plattformen können die Entwicklung integrierter Experiences beschleunigen und diesbezüglich verschiedenste Unternehmensbereiche unterstützen. Weitere Real-World-Beispiele für integrierte Workflows auf Low-Code-Basis:

Risikoschätzungen im Versicherungssektor zu rationalisieren, die zentralisierten Customer Service, Policy Management, Claims Processing und Risikomanagement-Prozesse erfordern.

Die physische Sicherheit auf Baustellen zu optimieren, was einen koordinierten Workflow zwischen Vorarbeitern, Subunternehmern, Projektmanagern und anderen Stakeholdern erfordert, um eine entsprechende Sicherheitsschulung der Arbeiter sicherzustellen.

Intelligente Kundenerfahrungen im Healthcare-Bereich zu entwickeln, die die Verknüpfung von Kundendienst, Personalisierung und Analytics erfordern.

3. Moderne UX – ohne Reengineering

Komponenten im Rahmen eines Replatformings zu modernisieren, ist dem Lift-and-Shift-Verfahren bekanntermaßen vorzuziehen, wenn es um App-Modernisierung in der Cloud geht. Ein hilfreicher Ansatz in diesem Bereich kann dabei darin bestehen, Backend-Datenbanken und Services beizubehalten und parallel Low-Code-Plattformen einzusetzen um das Benutzererlebnis am Frontend neu zu gestalten.

Mit Hilfe dieser Strategie ist es auch möglich, mehrere User Experiences für unterschiedliche Geschäftszwecke zu generieren. Unter unabhängigen Software-Vendoren ist es zum Beispiel gängige Praxis, eine Funktion zu entwickeln und sie dann auf die Bedürfnisse verschiedener Kunden anzupassen, wie Deepak Anupalli, Mitbegründer und CTO des Softwareanbieters Wavemaker, weiß: “Diese Anbieter gestalten ihre Produkt-UX neu und behalten alle ihre bisherigen Investitionen in Infrastruktur, Back-End-Microservices und APIs bei. Sie nutzen Low-Code, um benutzerdefinierte Komponenten zu erstellen, die sich in bestehende Systeme einfügen und beschleunigen so Web- und Mobile-Implementierungen.”

Konkrete Beispiele seien laut Anupalli etwa Self-Service-Portale für Versicherungsunternehmen oder die Modernisierung des Kunden-Onboardings im Bankenumfeld.

4. Maßgeschneiderte Abteilungs-Workflows

SaaS-Lösungen unterstützen viele Abteilungen bei skalierbaren und standardmäßigen Workflows. Wenn jedoch spezialisierte Geschäftsprozesse automatisiert werden sollen, tauchen viele Fragezeichen auf. Einen solchen Workflow mit Hilfe von Low-Code- oder No-Code-Plattformen zu entwickeln, die sich in die primären Systeme der betreffenden Abteilung einfügen, kann an dieser Stelle ein sinnvoller Ansatz sein.

Anurag Shah, VP und Head of Products beim Plattformanbieter Newgen Software, fasst mögliche Benefits am Beispiel von Marketing-Abteilungen zusammen: “Low-Code-Plattformen können auch für Rapid Prototyping genutzt werden und um KI – mit menschlichem Zutun – kanalübergreifend in Kundenkommunikationsprozesse einzubinden. Das unterstützt Anwender dabei, Marketing-Material, Reportings und weitere Dokumente automatisiert und in großem Umfang zu generieren und anzupassen. Im Ergebnis lassen sich die Effizienz steigern und die Kundenbindung optimieren.”

Eoin Hinchy, CEO des Softwareanbieters Tines, kann ein konkretes Beispiel aus dem Bereich der IT-Sicherheit beisteuern: “Nachdem das Infosec-Team bei Elastic mit Warnmeldungen überschwemmt wurde, entwickelte das Unternehmen einen automatisierten Investigation-Workflow, der ganze 93 Arbeitstage an Zeitaufwand einsparen konnte. Mit Low-Code- oder No-Code-Lösungen zu automatisieren, kann den Unternehmensbetrieb deutlich effizienter gestalten und ermöglicht es Teams aus diversen Bereichen, sich auf die wirklich wichtigen Tasks zu konzentrieren.”

Maßgeschneiderte Workflows auf Low-Code-Basis kommen darüber hinaus zum Beispiel auch in den Bereichen Mitarbeiter-Onboarding oder Schulung und Weiterbildung in Betracht.

5. Analytics als Gamechanger

Reportings und Dashboards sind – wie eingangs bereits erwähnt – die üblichen Use-Case-Verdächtigen im Low-Code-Bereich. Viele Unternehmen unterstützen Business User zudem mit Datenkatalogen und Data-Preparation-Tools.

Darüber hinaus kann die Low-Code-Technologie aber auch die Collaboration optimieren und Echtzeit-Analytics realisieren, wie Jay Henderson, SVP of Product Management beim Softwareanbieter Alteryx, konstatiert: “Mit Low-Code-freundlichen Analysetools können erfahrene Datenwissenschaftler mit technologischen Laien auf derselben Plattform auf Augenhöhe zusammenarbeiten. Gleichzeitig kann das einen Beitrag zu User Experience und Prozessautomatisierung leisten und Kompetenzlücken beseitigen.”

Julian LaNeve, CTO beim Datenspezialisten Astronomer, liefert ein konkretes Beispiel aus dem US-Profisport: “Die Major-League-Baseball-Mannschaft der Texas Rangers verwendet Pipelines, um Daten über Spieler und Spielstatistiken zu erfassen, die dem Trainerstab direkt nach Spielschluss zur Verfügung stehen. Das ermöglicht nicht nur, die Leistung einzelner Spieler zu tracken sondern auch, das Verletzungsrisiko zu antizipieren.”

6. Public-Cloud-Workflows

Zur Innovation kann es außerdem führen, mit Low-Code Produkt- oder Service-Komponenten in der Cloud zu entwickeln: Die Developer beschäftigen sich dabei mit den Engineering- und Skalierungsanforderungen, während Low-Code-Tools für simple Interfaces, administrative Tools oder Reportings genutzt werden. Dieser Ansatz funktioniert für Public-Cloud-Plattformen sowie die Anbindung an Drittanbieter-Services.

Heather Sundheim, Managing Director of Solutions Engineering beim Cloud-Spezialisten SADA, gibt tiefere Einblicke: “Low-Code- und No-Code-Plattformen in der Google Cloud ermöglichen eine rationalisierte App-Entwicklung und revolutionieren die Datenverarbeitung und -analyse: Sie ermöglichen den Nutzern, intuitive Interfaces für die direkte Dateneingabe in Google Sheets oder BigQuery-Tabellen zu erstellen.”

Die automatisierte Berichterstellung werde durch die Integration von Google Cloud Functions mit diesen Plattformen erleichtert, so die Managerin: “Datengesteuerte Reportings werden auf der Grundlage vordefinierter Kriterien automatisiert erstellt – die Teams können sich ganz auf die Entscheidungsfindung fokussieren. Darüber hinaus kann die Technologie auch der internen Kommunikation durch innovative Anwendungsfälle wie Chatbots und Bilderkennung dienlich sein und neue Geschäftsmöglichkeiten eröffnen.”

7. Authentifizierungs-Upgrades

Ein weiterer Bereich, in dem sich mit Low-Code innovieren lässt, ist die Substituierung interner Commodity-Komponenten. Rudimentäre Registrierungs-, Login- und Password-Reset-Funktionalitäten zu entwickeln, ist relativ einfach – allerdings sollten die angesichts heutiger Security-Anforderungen und Nutzererwartungen auch zuverlässig implementiert werden. Wenn User dabei auf zusätzliche Invests in Form von Engineering-Aufwand möglichst verzichten möchten, ist Low-Code ein Weg.

Meir Wahnon, Mitbegründer des israelischen Identity-Management-Anbieters Descope, spezifiziert: “Identity geht alle Business Teams etwas an und die User Journey umfasst diverse Schritte – etwa Anmeldung, Login, Multi-Faktor-Authentifizierung oder die Synchronisierung mit CRM-Tools. Die Erweiterbarkeit von Low-Code- und No-Code-Tools vereinfacht es, sie mit anderen Tools zu integrieren und Teams aus nicht-technischen Bereichen in diesen Prozess einzubinden. Zudem können Lösungen dieser Art dazu beitragen, die Details komplexer Authentifizierungsprozesse zu abstrahieren. Das bedeutet für Entwickler, sich stärker auf ihr Kernprodukt konzentrieren zu können.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

7 Wege zur Low-Code-Innovation​ Weiterlesen »

So vermeiden Sie Stress und Streit: Warum Arbeitgeber Konfliktberater brauchen​

Allgemein

Bevor es soweit kommt, sollten Sie in Ihrem Unternehmen besser einen Konfliktberater einsetzen. Foto: Just dance – shutterstock.comKonflikte treten in Unternehmen vermehrt auf, wenn sich in ihnen Dinge verändern – sei es im zwischenmenschlichen oder strukturellen Bereich. Dass sie auftreten, ist normal. Dessen ungeachtet schmälern sie in der Regel jedoch die Leistung. Deshalb sollten in jedem Unternehmen Personen existieren, die über die Kompetenz verfügen, Konflikte früh zu erkennen und aufzugreifen sowie den Mitarbeitern ein wirksames Instrumentarium zu deren Bearbeitung an die Hand zu geben.Zuweilen können diese sogenannten Konfliktberater oder -lotsen Führungskräfte sein. Häufig können sie vorhandene Konflikte aber nicht moderieren – zum Beispiel, wenn sie selbst (emotional) in den Konflikt involviert sind. Dann sollte eine neutrale Person die Konfliktparteien bezüglich geeigneter Lösungsstrategien beraten und/oder mit ihnen eine Lösung aushandeln – sofern gewünscht.Warum Konfliktberater?Diese Konfliktberater sollten mit den Methoden zur Deeskalation von Konflikten und zur Konfliktintervention vertraut sein. Zudem sind zwei Grundhaltungen wichtig:Allparteilichkeit. Eine Konfliktmoderation kann nur erfolgreich sein, wenn der Konfliktberater (emotional) nicht Partei für eine Konfliktpartei und eine mögliche Lösung ergreift.Vertraulichkeit. Die Konfliktparteien sprechen nur offen über ihre Gefühle, Verletzungen und Bedürfnisse, wenn sie sicher sind, dass die Gesprächsinhalte im Raum bleiben.Konfiktberater oder Führungskraft?Wie sieht die praktische Arbeit eines Konfliktberaters aus? Hierfür ein Beispiel. Angenommen eine Führungskraft registriert, dass es zwischen zwei Mitarbeitern ihres Bereichs regelmäßig zu Reibereien kommt. Sie ist jedoch unsicher, ob nur ein Interessengegensatz oder ein Konflikt vorliegt; außerdem, ob sie und, wenn ja, wie sie hierauf reagieren soll. Dann kann sie mit einem Konfliktberater hierüber sprechen. Angenommen die Führungskraft und der Konfliktberater kommen überein: Es existiert ein leistungsmindernder Konflikt, also sollte man intervenieren. Dann können sie folgendes Vorgehen vereinbaren. Schritt 1: Die Führungskraft klärt mit den Konfliktparteien das Problembewusstsein. Das ist wichtig. Denn zuweilen erwidern Mitarbeiter, wenn man sie auf Konflikte anspricht: “Wie kommen Sie darauf?” Sie negieren also den Konflikt. Deshalb sollte die Führungskraft zunächst klären, ob den Beteiligten der Konflikt bewusst ist und sie bereit sind, Zeit und Energie in seine Lösung zu investieren. Schritt 2: Die Führungskraft holt die Zustimmung für eine Konfliktmoderation ein. Angenommen die Konfliktparteien bejahen die Existenz eines Konflikts, dann kann die Führungskraft diese fragen, ob die aktuelle Situation für sie zufriedenstellend ist. Antworten sie “Nein”, kann die Führungskraft eine Konfliktmoderation durch einen neutralen Konfliktberater oder -lotsen vorschlagen – zum Beispiel mit der Begründung: “Ich möchte, dass Sie wieder in einer positiveren Atmosphäre und somit effektiver arbeiten.” Gespräch mit den “Streithähnen” Angenommen die Konfliktbeteiligten entscheiden sich für eine Konfliktmoderation. Dann sollte sich der Konfliktberater in einem ersten Treffen den Konfliktverlauf schildern lassen – ohne ihn zu bewerten. Anschließend sollte er den Konfliktparteien den möglichen Ablauf der Moderation erläutern. Danach kann er die “Streithähne” bitten, sich bis zum nächsten Treffen zu überlegen, welche Verhaltensweisen sie sich vom jeweils anderen wünschen, um besser arbeiten zu können – jedoch keine Charakter-, sondern nur Verhaltensänderungen. Die 8 Schritte einer Konfliktmoderation Die eigentliche Konfliktmoderation kann wie folgt ablaufen: 1. Schritt: Einsteigen. Meist kommen die Mitarbeiter voller Emotionen zur Konfliktmoderation. Deshalb sollte der Konfliktberater zu Beginn einige Worte zum Thema Konflikte sagen. Zum Beispiel, Konflikte gibt es überall – nicht nur im Betrieb. Außerdem entstehen Konflikte stets aufs Neue. Zum Beispiel, weil sich die Anforderungen ändern. Also müssen immer wieder neue Lösungen gefunden werden. Danach sollte er den “Streithähnen” nochmals erläutern, worum es bei der Konfliktmoderation geht: um ein Lösen des Konflikts. Jedoch nicht in der Form, dass alle Emotionen und Erfahrungen der Vergangenheit bearbeitet werden. Vielmehr soll die Arbeitsbeziehung neu ausgehandelt und das Verhalten an den Schnittstellen der Tätigkeitsfelder der beiden Mitarbeiter so geregelt werden, dass beide damit leben und ihren Job besser machen können. Geben und Nehmen fair aushandeln 2. Schritt: Regeln definieren. Danach sollte der Konfliktberater mit den Konfliktpartnern Regeln für die Moderation definieren. Zum Beispiel: Beide stellen Forderungen an das Verhalten des jeweils anderen. Diese werden nach dem Prinzip “Geben und Nehmen” ausgehandelt. Die Absprachen werden schriftlich fixiert. Vereinbart werden sollte auch, was im Raum bleibt und worüber mit Dritten gesprochen werden darf. 3. Schritt: Die Aufgaben des Konfliktberaters klären. Der Konfliktberater sollte mit den Konfliktpartnern auch seine Aufgaben und seine Rolle klären – zum Beispiel: Ich verhalte mich als Konfliktberater neutral und achte auf das Einhalten der Regeln. Ich verhindere, dass über Undiskutierbares, also zum Beispiel die Ziele des Unternehmens, verhandelt wird. Ich achte darauf, dass keine Vereinbarungen zu Lasten Dritter getroffen werden. Klare Absprachen treffen 4. Schritt: Themen/Forderungen sammeln. Nach dem Klären der Formalien kann der Konfliktberater die Beteiligten bitten, auf einem Formblatt folgende Aussagen zu ergänzen: “Es würde mir helfen, effektiver zu arbeiten, wenn Sie folgendes mehr/anders tun würden: …” “Es würde mir helfen, effektiver zu arbeiten, wenn Sie folgendes weniger/nicht mehr tun würden: …” “Bitte behalten Sie folgende Aktivitäten bei, die mir helfen, effektiv zu arbeiten: …” 5. Schritt: Verständnis klären. Die ausgefüllten Formblätter sollten kopiert oder so aufhängt werden, dass jeder sie lesen kann. Danach bittet der Konfliktberater die Konfliktpartner, die Forderungen/Wünsche des jeweils anderen mit eigenen Worten laut zu formulieren. “Sie wollen, dass ich …” Der andere soll die Aussage entweder bestätigen oder korrigieren. Sofern für das Verständnis nötig, bittet der Konfliktberater um Beispiele für das gewünschte Verhalten. Wechselseitige Angebote machen 6. Schritt: Forderungen priorisieren und aushandeln. Danach können beide Konfliktparteien die Forderungen markieren, die ihnen besonders wichtig sind; außerdem die Forderungen, die verhandelbar sind. Anschließend unterbreiten sie sich wechselseitig Angebote. Zum Beispiel: “Wenn Sie mich zeitnah informieren, würde ich …”. Der Konfliktberater achtet darauf, dass das Aushandeln ein Geben und Nehmen ist. 7. Schritt: Absprachen treffen und protokollieren. Der Konfliktberater notiert die Absprachen. Dass beim Aushandeln der künftigen Arbeitsbeziehung auch mal die Emotionen hochkochen, ist normal. Das sollte der Konfliktberater zulassen, damit der Druck aus dem Kessel weicht. Dabei muss er jedoch Fingerspitzengefühl zeigen, um zu verhindern, dass sich beim Gegenüber Druck aufbaut. Nach einiger Zeit kann er zum Beispiel ruhig sagen, dass der Gefühlsausbruch zeigt, wie viel Emotionen im Spiel sind und dass solche Verletzungen sicher auf beiden Seiten existieren. Danach sollte er vorschlagen: “Lassen Sie uns wieder zu den Verhaltensweisen zurückkehren, die Sie sich wünschen.” Werden Absprachen eingehalten? 8. Schritt: Abschließen und Folgetermin vereinbaren. Die bei Konfliktmoderationen getroffenen Vereinbarungen erscheinen Außenstehenden oft als Kleinigkeiten oder Selbstverständlichkeiten. Für die Beteiligten sind sie jedoch wichtig, weil daran Emotionen hängen. Vereinbart werden sollte auch, was geschieht, wenn Absprachen nicht eingehalten werden. Das müssen keine Sanktionen sein. Die Vereinbarung kann auch lauten: “Dann sprechen wir uns künftig darauf an.” Vereinbaren sollte der Konfliktberater mit den Konfliktparteien auch einen Folgetermin, um zu überprüfen, ob die Absprachen eingehalten wurden und eventuell neue Konfliktpunkte entstanden sind. Lesen Sie auch Konfliktmanagement: So schlichten Sie Streit im Unternehmen Warum Führungskräfte mutiger werden müssen 

So vermeiden Sie Stress und Streit: Warum Arbeitgeber Konfliktberater brauchen​ Bevor es soweit kommt, sollten Sie in Ihrem Unternehmen besser einen Konfliktberater einsetzen.
Foto: Just dance – shutterstock.comKonflikte treten in Unternehmen vermehrt auf, wenn sich in ihnen Dinge verändern – sei es im zwischenmenschlichen oder strukturellen Bereich. Dass sie auftreten, ist normal. Dessen ungeachtet schmälern sie in der Regel jedoch die Leistung. Deshalb sollten in jedem Unternehmen Personen existieren, die über die Kompetenz verfügen, Konflikte früh zu erkennen und aufzugreifen sowie den Mitarbeitern ein wirksames Instrumentarium zu deren Bearbeitung an die Hand zu geben.Zuweilen können diese sogenannten Konfliktberater oder -lotsen Führungskräfte sein. Häufig können sie vorhandene Konflikte aber nicht moderieren – zum Beispiel, wenn sie selbst (emotional) in den Konflikt involviert sind. Dann sollte eine neutrale Person die Konfliktparteien bezüglich geeigneter Lösungsstrategien beraten und/oder mit ihnen eine Lösung aushandeln – sofern gewünscht.Warum Konfliktberater?Diese Konfliktberater sollten mit den Methoden zur Deeskalation von Konflikten und zur Konfliktintervention vertraut sein. Zudem sind zwei Grundhaltungen wichtig:Allparteilichkeit. Eine Konfliktmoderation kann nur erfolgreich sein, wenn der Konfliktberater (emotional) nicht Partei für eine Konfliktpartei und eine mögliche Lösung ergreift.Vertraulichkeit. Die Konfliktparteien sprechen nur offen über ihre Gefühle, Verletzungen und Bedürfnisse, wenn sie sicher sind, dass die Gesprächsinhalte im Raum bleiben.Konfiktberater oder Führungskraft?Wie sieht die praktische Arbeit eines Konfliktberaters aus? Hierfür ein Beispiel. Angenommen eine Führungskraft registriert, dass es zwischen zwei Mitarbeitern ihres Bereichs regelmäßig zu Reibereien kommt. Sie ist jedoch unsicher, ob nur ein Interessengegensatz oder ein Konflikt vorliegt; außerdem, ob sie und, wenn ja, wie sie hierauf reagieren soll.

Dann kann sie mit einem Konfliktberater hierüber sprechen. Angenommen die Führungskraft und der Konfliktberater kommen überein: Es existiert ein leistungsmindernder Konflikt, also sollte man intervenieren. Dann können sie folgendes Vorgehen vereinbaren.

Schritt 1: Die Führungskraft klärt mit den Konfliktparteien das Problembewusstsein. Das ist wichtig. Denn zuweilen erwidern Mitarbeiter, wenn man sie auf Konflikte anspricht: “Wie kommen Sie darauf?” Sie negieren also den Konflikt. Deshalb sollte die Führungskraft zunächst klären, ob den Beteiligten der Konflikt bewusst ist und sie bereit sind, Zeit und Energie in seine Lösung zu investieren.

Schritt 2: Die Führungskraft holt die Zustimmung für eine Konfliktmoderation ein. Angenommen die Konfliktparteien bejahen die Existenz eines Konflikts, dann kann die Führungskraft diese fragen, ob die aktuelle Situation für sie zufriedenstellend ist. Antworten sie “Nein”, kann die Führungskraft eine Konfliktmoderation durch einen neutralen Konfliktberater oder -lotsen vorschlagen – zum Beispiel mit der Begründung: “Ich möchte, dass Sie wieder in einer positiveren Atmosphäre und somit effektiver arbeiten.”

Gespräch mit den “Streithähnen”

Angenommen die Konfliktbeteiligten entscheiden sich für eine Konfliktmoderation. Dann sollte sich der Konfliktberater in einem ersten Treffen den Konfliktverlauf schildern lassen – ohne ihn zu bewerten. Anschließend sollte er den Konfliktparteien den möglichen Ablauf der Moderation erläutern. Danach kann er die “Streithähne” bitten, sich bis zum nächsten Treffen zu überlegen, welche Verhaltensweisen sie sich vom jeweils anderen wünschen, um besser arbeiten zu können – jedoch keine Charakter-, sondern nur Verhaltensänderungen.

Die 8 Schritte einer Konfliktmoderation

Die eigentliche Konfliktmoderation kann wie folgt ablaufen:

1. Schritt: Einsteigen. Meist kommen die Mitarbeiter voller Emotionen zur Konfliktmoderation. Deshalb sollte der Konfliktberater zu Beginn einige Worte zum Thema Konflikte sagen. Zum Beispiel, Konflikte gibt es überall – nicht nur im Betrieb. Außerdem entstehen Konflikte stets aufs Neue. Zum Beispiel, weil sich die Anforderungen ändern. Also müssen immer wieder neue Lösungen gefunden werden.

Danach sollte er den “Streithähnen” nochmals erläutern, worum es bei der Konfliktmoderation geht: um ein Lösen des Konflikts. Jedoch nicht in der Form, dass alle Emotionen und Erfahrungen der Vergangenheit bearbeitet werden. Vielmehr soll die Arbeitsbeziehung neu ausgehandelt und das Verhalten an den Schnittstellen der Tätigkeitsfelder der beiden Mitarbeiter so geregelt werden, dass beide damit leben und ihren Job besser machen können.

Geben und Nehmen fair aushandeln

2. Schritt: Regeln definieren. Danach sollte der Konfliktberater mit den Konfliktpartnern Regeln für die Moderation definieren. Zum Beispiel:

Beide stellen Forderungen an das Verhalten des jeweils anderen.

Diese werden nach dem Prinzip “Geben und Nehmen” ausgehandelt.

Die Absprachen werden schriftlich fixiert.

Vereinbart werden sollte auch, was im Raum bleibt und worüber mit Dritten gesprochen werden darf.

3. Schritt: Die Aufgaben des Konfliktberaters klären. Der Konfliktberater sollte mit den Konfliktpartnern auch seine Aufgaben und seine Rolle klären – zum Beispiel:

Ich verhalte mich als Konfliktberater neutral und achte auf das Einhalten der Regeln.

Ich verhindere, dass über Undiskutierbares, also zum Beispiel die Ziele des Unternehmens, verhandelt wird.

Ich achte darauf, dass keine Vereinbarungen zu Lasten Dritter getroffen werden.

Klare Absprachen treffen

4. Schritt: Themen/Forderungen sammeln. Nach dem Klären der Formalien kann der Konfliktberater die Beteiligten bitten, auf einem Formblatt folgende Aussagen zu ergänzen:

“Es würde mir helfen, effektiver zu arbeiten, wenn Sie folgendes mehr/anders tun würden: …”

“Es würde mir helfen, effektiver zu arbeiten, wenn Sie folgendes weniger/nicht mehr tun würden: …”

“Bitte behalten Sie folgende Aktivitäten bei, die mir helfen, effektiv zu arbeiten: …”

5. Schritt: Verständnis klären. Die ausgefüllten Formblätter sollten kopiert oder so aufhängt werden, dass jeder sie lesen kann. Danach bittet der Konfliktberater die Konfliktpartner, die Forderungen/Wünsche des jeweils anderen mit eigenen Worten laut zu formulieren. “Sie wollen, dass ich …” Der andere soll die Aussage entweder bestätigen oder korrigieren. Sofern für das Verständnis nötig, bittet der Konfliktberater um Beispiele für das gewünschte Verhalten.

Wechselseitige Angebote machen

6. Schritt: Forderungen priorisieren und aushandeln. Danach können beide Konfliktparteien die Forderungen markieren, die ihnen besonders wichtig sind; außerdem die Forderungen, die verhandelbar sind. Anschließend unterbreiten sie sich wechselseitig Angebote. Zum Beispiel: “Wenn Sie mich zeitnah informieren, würde ich …”. Der Konfliktberater achtet darauf, dass das Aushandeln ein Geben und Nehmen ist.

7. Schritt: Absprachen treffen und protokollieren. Der Konfliktberater notiert die Absprachen. Dass beim Aushandeln der künftigen Arbeitsbeziehung auch mal die Emotionen hochkochen, ist normal. Das sollte der Konfliktberater zulassen, damit der Druck aus dem Kessel weicht. Dabei muss er jedoch Fingerspitzengefühl zeigen, um zu verhindern, dass sich beim Gegenüber Druck aufbaut. Nach einiger Zeit kann er zum Beispiel ruhig sagen, dass der Gefühlsausbruch zeigt, wie viel Emotionen im Spiel sind und dass solche Verletzungen sicher auf beiden Seiten existieren. Danach sollte er vorschlagen: “Lassen Sie uns wieder zu den Verhaltensweisen zurückkehren, die Sie sich wünschen.”

Werden Absprachen eingehalten?

8. Schritt: Abschließen und Folgetermin vereinbaren. Die bei Konfliktmoderationen getroffenen Vereinbarungen erscheinen Außenstehenden oft als Kleinigkeiten oder Selbstverständlichkeiten. Für die Beteiligten sind sie jedoch wichtig, weil daran Emotionen hängen. Vereinbart werden sollte auch, was geschieht, wenn Absprachen nicht eingehalten werden.

Das müssen keine Sanktionen sein. Die Vereinbarung kann auch lauten: “Dann sprechen wir uns künftig darauf an.” Vereinbaren sollte der Konfliktberater mit den Konfliktparteien auch einen Folgetermin, um zu überprüfen, ob die Absprachen eingehalten wurden und eventuell neue Konfliktpunkte entstanden sind.

Lesen Sie auch

Konfliktmanagement: So schlichten Sie Streit im Unternehmen

Warum Führungskräfte mutiger werden müssen

So vermeiden Sie Stress und Streit: Warum Arbeitgeber Konfliktberater brauchen​ Weiterlesen »

Nach oben scrollen
×