Computerhaus Quickborn

März 2025

Ablenkungen vermeiden: So gestalten Sie Ihre Arbeitszeit effizienter​

Allgemein

Eine der einfachen und wichtigen Regeln, um effizienter zu arbeiten, ist, sich trotz der ständigen Ablenkungen etwa von Social Media, voll auf seine Tagesaufgaben zu konzentrieren. Foto: Gajus – shutterstock.comJeder Tag hat 24 Stunden und obwohl viele Unternehmer 60 Stunden und mehr pro Woche im Büro sind, scheinen die To-do-Listen oft endlos und die selbst gesteckten Ziele unerreichbar. Doch mit effizientem Arbeiten können Arbeitgeber Geld, Zeit, Personal und Rohstoffe sparen. Effektivität versus EffizienzWie so oft beginnt die Veränderung im Kopf. Denn schon bei der Definition zweier auf dem Papier sehr ähnlich aussehender Wörter entstehen die ersten Missverständnisse. Denn ‘Effizienz’ und ‘Effektivität’ sind bei weitem nicht dasselbe.Effektiv wäre es, mit einem Auto gegen eine Wand zu fahren, um dort einen Nagel einzuschlagen. Das Ergebnis wäre: Nagel ist in der Wand. Aber der Weg dorthin wäre dramatisch kompliziert, gefährlich und verschwenderisch.Effizient dagegen ist es, den Hammer zu nehmen und den Nagel mit ein, zwei Schlägen in die Wand zu hauen. Auch hier ist das Ergebnis, dass der Nagel in der Wand steckt. Aber im Gegensatz zu Szenario eins gehen wir hier den Weg des geringsten Widerstandes, Risikos und Zeitaufwandes. Auf die Unternehmerwelt angewandt bedeutet das: Ein effizientes Unternehmen schafft mit dem geringstmöglichen Zeit- und Geldaufwand das bestmögliche Ergebnis.Die folgenden drei Tipps zur Effizienzsteigerung am Arbeitsplatz sind äußerst wirksam und sofort anwendbar:1. Maximieren Sie Ihr EnergielevelDer erste Ansatzpunkt zur Verbesserung der Effizienz im Unternehmen ist die Leistungsfähigkeit jedes Einzelnen. Denn nur ein ausgeruhter, gesunder Körper und Geist ist auch in der Lage, ein entsprechend hochwertiges Ergebnis zu produzieren. Bemühen Sie sich als Unternehmer daher immer darum, ihrem Team einen gesunden Lebensstil vorzuleben und zu ermöglichen.Sorgen Sie dafür, dass Sie genügend Schlaf bekommen (sieben bis acht Stunden pro Nacht), sich einigermaßen ausgewogen ernähren und regelmäßig Sport und Pausen in Ihren Arbeitsalltag einbauen. Wenn Sie als Chef oder Führungskraft das Ihren Mitarbeitern vorleben, werden auch diese sich einen gesunden Lebensstil aneignen.2. Legen Sie Zeitblöcke mit festen TerminenUnserem Gehirn steht pro Tag nur eine limitierte Menge an Energie zur Verfügung. Auch dann, wenn wir die oben beschriebenen Tipps zur Maximierung unserer Leistungsfähigkeit beherzigen. Deshalb ist es umso wichtiger, dass wir keine Energie mit trivialen Entscheidungen und unwichtigen Aufgaben verschwenden. Feste, im Kalender eingetragene Zeitblöcke für bestimmte Aufgabenfelder (etwa Vertrieb, Teamentwicklung, Unternehmensstrategie) sorgen für eine klare Zuordnung und Priorisierung täglicher To-dos. Das Gehirn muss sich so nicht morgens überlegen, welches der 93 offenen Punkte es zuerst angeht, sondern braucht sich nur an den Vorgaben des Kalenders zu orientieren.3. Nutzen Sie die Tabata Methode: Oropax, Stoppuhr und losDie Effizienz der meisten Selbstständigen und Unternehmer scheitert an dem fehlenden Fokus bei der Umsetzung. Ein Mitarbeiter klopft an die Tür und braucht “nur mal kurz Ihr Feedback”. Ein Kunde ruft an und hat “nur eine schnelle Frage”. Jede noch so kleine Ablenkung sorgt dafür, dass Sie Zeit und Energie verlieren, die dann wiederum bei der Bearbeitung der eigentlich anstehenden Aufgabe fehlt.Sorgen Sie unbedingt dafür, dass nichts und niemand Sie während dieser Fokuszeiten ablenkt. Stellen Sie Ihr Handy in den Flugmodus und weisen Sie Ihre Sekretärin oder Ihren Sekretär an, niemanden durchzustellen, bis der Zeitblock vorbei ist. Richtige Strukturen schaffenEs braucht etwas Übung und vor allem die richtigen Strukturen, um effizientes Arbeiten im ganzen Unternehmen erfolgreich zu etablieren. Ist diese erste Hürde aber erst einmal genommen, profitieren davon langfristig das Unternehmen, seine Mitarbeiter und nicht zuletzt auch der Unternehmer selbst. 

Ablenkungen vermeiden: So gestalten Sie Ihre Arbeitszeit effizienter​ Eine der einfachen und wichtigen Regeln, um effizienter zu arbeiten, ist, sich trotz der ständigen Ablenkungen etwa von Social Media, voll auf seine Tagesaufgaben zu konzentrieren.
Foto: Gajus – shutterstock.comJeder Tag hat 24 Stunden und obwohl viele Unternehmer 60 Stunden und mehr pro Woche im Büro sind, scheinen die To-do-Listen oft endlos und die selbst gesteckten Ziele unerreichbar. Doch mit effizientem Arbeiten können Arbeitgeber Geld, Zeit, Personal und Rohstoffe sparen. Effektivität versus EffizienzWie so oft beginnt die Veränderung im Kopf. Denn schon bei der Definition zweier auf dem Papier sehr ähnlich aussehender Wörter entstehen die ersten Missverständnisse. Denn ‘Effizienz’ und ‘Effektivität’ sind bei weitem nicht dasselbe.Effektiv wäre es, mit einem Auto gegen eine Wand zu fahren, um dort einen Nagel einzuschlagen. Das Ergebnis wäre: Nagel ist in der Wand. Aber der Weg dorthin wäre dramatisch kompliziert, gefährlich und verschwenderisch.Effizient dagegen ist es, den Hammer zu nehmen und den Nagel mit ein, zwei Schlägen in die Wand zu hauen. Auch hier ist das Ergebnis, dass der Nagel in der Wand steckt. Aber im Gegensatz zu Szenario eins gehen wir hier den Weg des geringsten Widerstandes, Risikos und Zeitaufwandes. Auf die Unternehmerwelt angewandt bedeutet das: Ein effizientes Unternehmen schafft mit dem geringstmöglichen Zeit- und Geldaufwand das bestmögliche Ergebnis.Die folgenden drei Tipps zur Effizienzsteigerung am Arbeitsplatz sind äußerst wirksam und sofort anwendbar:1. Maximieren Sie Ihr EnergielevelDer erste Ansatzpunkt zur Verbesserung der Effizienz im Unternehmen ist die Leistungsfähigkeit jedes Einzelnen. Denn nur ein ausgeruhter, gesunder Körper und Geist ist auch in der Lage, ein entsprechend hochwertiges Ergebnis zu produzieren. Bemühen Sie sich als Unternehmer daher immer darum, ihrem Team einen gesunden Lebensstil vorzuleben und zu ermöglichen.Sorgen Sie dafür, dass Sie genügend Schlaf bekommen (sieben bis acht Stunden pro Nacht), sich einigermaßen ausgewogen ernähren und regelmäßig Sport und Pausen in Ihren Arbeitsalltag einbauen. Wenn Sie als Chef oder Führungskraft das Ihren Mitarbeitern vorleben, werden auch diese sich einen gesunden Lebensstil aneignen.2. Legen Sie Zeitblöcke mit festen TerminenUnserem Gehirn steht pro Tag nur eine limitierte Menge an Energie zur Verfügung. Auch dann, wenn wir die oben beschriebenen Tipps zur Maximierung unserer Leistungsfähigkeit beherzigen. Deshalb ist es umso wichtiger, dass wir keine Energie mit trivialen Entscheidungen und unwichtigen Aufgaben verschwenden. Feste, im Kalender eingetragene Zeitblöcke für bestimmte Aufgabenfelder (etwa Vertrieb, Teamentwicklung, Unternehmensstrategie) sorgen für eine klare Zuordnung und Priorisierung täglicher To-dos. Das Gehirn muss sich so nicht morgens überlegen, welches der 93 offenen Punkte es zuerst angeht, sondern braucht sich nur an den Vorgaben des Kalenders zu orientieren.3. Nutzen Sie die Tabata Methode: Oropax, Stoppuhr und losDie Effizienz der meisten Selbstständigen und Unternehmer scheitert an dem fehlenden Fokus bei der Umsetzung. Ein Mitarbeiter klopft an die Tür und braucht “nur mal kurz Ihr Feedback”. Ein Kunde ruft an und hat “nur eine schnelle Frage”. Jede noch so kleine Ablenkung sorgt dafür, dass Sie Zeit und Energie verlieren, die dann wiederum bei der Bearbeitung der eigentlich anstehenden Aufgabe fehlt.Sorgen Sie unbedingt dafür, dass nichts und niemand Sie während dieser Fokuszeiten ablenkt. Stellen Sie Ihr Handy in den Flugmodus und weisen Sie Ihre Sekretärin oder Ihren Sekretär an, niemanden durchzustellen, bis der Zeitblock vorbei ist. Richtige Strukturen schaffenEs braucht etwas Übung und vor allem die richtigen Strukturen, um effizientes Arbeiten im ganzen Unternehmen erfolgreich zu etablieren. Ist diese erste Hürde aber erst einmal genommen, profitieren davon langfristig das Unternehmen, seine Mitarbeiter und nicht zuletzt auch der Unternehmer selbst.

Ablenkungen vermeiden: So gestalten Sie Ihre Arbeitszeit effizienter​ Weiterlesen »

Elixir-Tutorial: Funktionale Programmierung neu gedacht​

Allgemein

Elixir macht es Entwicklern einfacher, dem Paradigma der funktionalen Programmierung treu zu bleiben.Maya Kruchankova | shutterstock.com Elixir ist eine vergleichsweise junge Programmiersprache, die 2012 veröffentlicht wurde und auf dem Erlang-Ökosystem aufsetzt. Dabei realisiert sie eine neue Herangehensweise an die funktionale Programmierung und denkt Concurrency und Fehlertoleranz neu.   Dieses Grundlagen-Tutorial bietet Ihnen zunächst einen kurzen Überblick über die syntaktische Struktur von Elixir. Im Anschluss erhalten Sie Einblicke in die Themenfelder: Collections, Maps und Atoms, Modules, Pattern Matching, Loops, und Concurrency. Elixir-Grundlagen Zunächst müssen Sie Elixir installieren. Das verleiht Ihnen Zugriff auf das Kommandozeilen-Interface IEx, mit dem Sie Elixir im REPL-Modus ausführen können. Jede Sprache hat ihre eigenen Konventionen für alltägliche Dinge – etwa Slashes für Kommentare. Mit der Verkettung von Strings geht Elixir folgendermaßen um: “Hello ” “InfoWorld” Dieser Ansatz stellt einen eindeutigen Operator zur Verfügung, statt das Plus-Symbol zu überladen. Um den Standard-Output zu erzeugen, nutzen Sie folgenden Befehl: IO.puts(“Hello ” “InfoWorld”) Mit IO.puts() erstellen Sie in Elixir Konsolen-Outputs. Falls Sie eine Variable für diese Zeichenkette erstellen wollen, benötigen Sie im Fall von Elixir keine Keywords – stattdessen deklarieren Sie sie einfach: my_var = “Hello Infoworld” Collections in Elixir Werfen wir nun einen Blick darauf, wie Elixir mit Collections umgeht: books = [ “The Bhagavad Gita”, “Tao Te Ching”, “The Bible”, “The Quran”, ” Diese Array-Syntax (technisch gesehen handelt es sich dabei in Elixir um eine List) ist so universell, dass sie keiner Erklärung bedarf. Allerdings ist dabei zu beachten, dass Arrays in Elixir unveränderlich sind. Dieser Grundsatz der funktionalen Programmierung gestaltet das Gesamtsystem der Programmiersprache weniger fehleranfällig – und zahlt auf die Concurrency ein. Trotzdem können Sie mit der Elixir-Syntax einige Operationen wie add und remove so ausführen, dass sie veränderlich erscheinen. Im Hintergrund wird dabei eine neue List erstellt: books ++ [“The Gospel of John in the Light of Indian Mysticism”] Unveränderliche CollectionsUnveränderliche Collections wirken sich nachteilig auf die Performance aus. Die zugrundeliegende virtuelle Maschine kann das mit einigen Tricks abmildern – etwa „Structural Sharing“ (statt Daten zu kopieren, werden Pointer modifiziert) oder Erlang Term Storage (kann zum Einsatz kommen, wenn große Collections modifiziert werden sollen). Um Collections in-line zu verarbeiten, kann in vielen Fällen Streaming zum Einsatz kommen. Wollen Sie nun die Buchstaben in jedem einzelnen String zählen und aus diesen Ganzzahlen eine Collection erstellen, können Sie dazu den “Zauber” funktionaler Programmierung einsetzen: book_lengths = Enum.map(books, &String.length/1) Die map-Funktion weit verbreitet: In JavaScript kommt sie zum Einsatz, um eine bestimmte Funktion über eine Collection auszuführen. Elixir führt hingegen einige einzigartige map-Funktionen ein: /1 gibt an, welche überladene Version von String.length verwendet werden soll. Bei & handelt es sich um den sogenannten „Function Capture“-Operator, der Zugriff auf die Funktion String.length ermöglicht (in etwa vergleichbar mit dem Methodenreferenz-Operator in Java „::“). Um einen gefälligen Output zu erzeugen, nutzen Sie die IO.inspect-Funktion: IO.inspect(book_lengths) [17, 12, 9, 9, 21] Elixirs Collection-Typen Nachdem wir List bereits in Aktion gesehen, hier alle wesentlichen Collection-Typen in Elixir im Überblick: List: Unveränderliche, homogene Collection beliebiger Typen, die für eine Modifizierung durch Duplizierung ausgelegt ist. Die Syntax umschließt Elemente mit eckigen Klammern – [x,y,z]. Tupel: Tupel sind in erster Linie darauf konzipiert, Werte vorzuhalten – nicht zu verändern. Sie ähneln Lists, sind jedoch auf Read-Performance ausgelegt. Die Syntax umschließt Elemente mit geschweiften Klammern – {x,y,z}. Keyword-List: Diese wird hauptsächlich für benannte Argumente von Funktionen genutzt und enthält geordnete, „String-only“ Key-Value-Paare. Die Syntax umschließt diese Paare mit eckigen Klammern – [x: x1, y: y1, z:z1]. Maps: Die bekannten Key-Value-Paare – wobei Key alles sein kann und die Collection ungeordnet ist. Die Syntax umschließt die Key-Value-Paare mit einem Prozent-Symbol und geschweiften Klammern – %{x: x1, y: y1, z: z1}, %{x => x1, y => y1, z => z1}. Maps und Atoms in Elixir Maps können in Elixir auf zweierlei Arten deklariert werden – abhängig davon, ob es sich bei den Keys um sogenannte Atoms handelt oder nicht. Dieser Begriff bezeichnet eine Variable, deren Wert mit ihrem Namen identisch ist – eine Art Superkonstante. Deklariert wird ein Atom mit einem Doppelpunkt, gefolgt von seinem Namen. Eine Map von Strings zu Ganzzahlenwerten erstellen Sie folgendermaßen: books_and_lengths = %{ “The Bhagavad Gita” => 17, “Tao Te Ching” => 12 } Das ist etwas anderes als der folgende Code, der eine Map von Atoms zu Ganzzahlen realisiert (was in diesem Fall wahrscheinlich nicht zum Ziel führt): books_and_lengths = %{ “The Bhagavad Gita”: 17, “Tao Te Ching”: 12 } Achten Sie in diesem Beispiel auf die Platzierung des Doppelpunkts: In einer Map zeigt der Doppelpunkt direkt neben dem Key an, dass es sich um ein Atom handelt (diese können in Anführungszeichen gesetzt werden, um ansonsten unzulässige Zeichen zu unterstützen). Grundsätzlich gilt: für normale Variablen nutzen Sie die Pfeilsyntax (=>), für Atoms Key und Doppelpunkt (:). Atoms werden für gewöhnlich folgendermaßen deklariert: :my_atom Eine weitere Möglichkeit, eine Map mit Atom Keys zu deklarieren: my_map = %{:atom1 => “foo”, :atom2 => “bar”} Elixir-Modules Elixir unterstützt Modules (Module). Diese stellen Namespaces dar, die zusammengehörige Funktionen zusammenfassen, jedoch weder State noch Variablen erfassen. Erwartungsgemäß ermöglicht Ihnen das, andere Funktionen innerhalb desselben Moduls aufzurufen. Wird der Call von außen initiiert, ist ein Präfix voranzustellen oder das Modul zu importieren. Ein simples Beispiel für ein Module in Elixir: defmodule BookFunctions do def myFunc end end BookFunctions.myFunc() Pattern Matching in Elixir Syntaktische Feinheiten und die Eigenschaften von Standard-Bibliotheken tragen ganz wesentlich zum übergreifenden „Look & Feel“ einer Programmiersprache bei – schließlich handelt es sich dabei um alltägliche Funktionen, mit denen die Entwickler kontinuierlich interagieren. Dabei hat jede Sprache einige einzigartige Features an Bord. Im Fall von Elixir ist hier insbesondere Pattern Matching zu nennen. Diese Funktion ermöglicht Ihnen, konditionale Funktionen mit einer Switch-ähnlichen Syntax auszuführen. Angenommen, Sie wollen in unserem Beispiel die Buchtitel nach Länge sortieren und sie in drei Kategorien ausgeben (small, medium, long) – dazu gehen Sie folgendermaßen vor:   defmodule BookFunctions do def categorize_length(length) do case length do length when length “Short” length when length &lt= 20 -> “Medium” _ -> “Long” end end def print_categories(lengths) do Enum.each(lengths, fn length -> category = categorize_length(length) IO.puts(“#{length} characters: #{category}”) end) end end Ein paar Anmerkungen zu diesem Code: Bei BookFunctions handelt es sich um ein Module. Return Statements sind in Elixir implizit – die Funktion categorize_length() gibt das Ergebnis des letzten Ausdrucks automatisch zurück. Das Keyword case erstellt den Pattern-Matching-Block in der categorize_length-Funktion. Die length when length-Syntax (technisch gesehen eine „Guard Clause“) ermöglicht einen Range Check der Längenvariable. Erfüllt sie die Kriterien, teilt der ->-Operator mit, was zurückgegeben werden soll. Da es sich um die letzte Anweisung der Funktion handelt, entspricht sie auch dem funktionalen Rückgabewert.) Diese neue Funktion könnten Sie nun auf book_lengths anwenden: BookBookFunctions.print_categories(book_lengths) 17 characters: Medium 12 characters: Medium 9 characters: Short 9 characters: Short 21 characters: Long Enum.each ist analog zu forEach in anderen Sprachen wie JavaScript und ermöglicht, eine Operation für jedes Element einer Collection auszuführen. Loops in Elixir In Elixir existieren weder for- noch while-Loops. Das deckt sich mit dem Grundsatz der Unveränderlichkeit, der bei der funktionalen Programmierung im Mittelpunkt steht. Stattdessen setzt Elixir auf Recursion. Um Loops umzusetzen, können Sie bei Elixir deshalb auf funktionale Operatoren wie Enum.each und Enum.map zurückgreifen. Comprehensions Eine Möglichkeit, einen for-Loop zu simulieren, bieten Comprehensions (die „echten“ for-Loops zum Verwechseln ähnlich sehen): for x Die Elixir-Dokumentation hält weitere Beispiele und Informationen zu diesem Thema bereit. Pipe-Operator Elixirs Pipe-Operator liefert Ihnen eine saubere Syntax, um Funktionsergebnisse miteinander zu verknüpfen. Das könnte man auch als eine elegantere Form von Funktions-Nesting bezeichnen. Ein simples Pipe-Operator-Beispiel für unsere books_and_lengths-Collection: books_and_lengths |> Map.keys() |> Enum.map(&String.upcase/1) |> Enum.join(“, “) |> IO.puts() Der Output sieht folgendermaßen aus: The Bhagavad Gita, Tao Te Ching Concurrency in Elixir Eine weitere Stärke von Elixir ist Concurrency: In der Programmiersprache kommen sogenannte „Actors“ zum Einsatz, die so etwas wie virtuelle Threads darstellen (weil sie keine vollständigen Betriebssystemprozesse sind) und über „Message Passing“ eine vereinfachte, gleichzeitige Kommunikation ermöglichen. Folgendes Code-Beispiel entstammt der Elixir-Dokumentation und veranschaulicht Message Handling: defmodule Example do def listen do receive do {:ok, “hello”} -> IO.puts(“World”) end listen() end end Mit Blick auf dieses Code-Beispiel ist zu beachten, dass die listen-Funktion rekursiv ist – sie ruft sich am Ende selbst auf. Ohne sie würde der Prozess beendet. Um diesen Actor zu starten, nutzen wir spawn: pid = spawn(Example, :listen, []) Anschließend können wir eine Nachricht aus dem Hauptprozess senden, indem wir die gespeicherte pid verwenden: send pid, {:ok, “hello”} Das sorgt für den Konsolen-Output „World“. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Elixir-Tutorial: Funktionale Programmierung neu gedacht​ Elixir macht es Entwicklern einfacher, dem Paradigma der funktionalen Programmierung treu zu bleiben.Maya Kruchankova | shutterstock.com

Elixir ist eine vergleichsweise junge Programmiersprache, die 2012 veröffentlicht wurde und auf dem Erlang-Ökosystem aufsetzt. Dabei realisiert sie eine neue Herangehensweise an die funktionale Programmierung und denkt Concurrency und Fehlertoleranz neu.  

Dieses Grundlagen-Tutorial bietet Ihnen zunächst einen kurzen Überblick über die syntaktische Struktur von Elixir. Im Anschluss erhalten Sie Einblicke in die Themenfelder:

Collections,

Maps und Atoms,

Modules,

Pattern Matching,

Loops, und

Concurrency.

Elixir-Grundlagen

Zunächst müssen Sie Elixir installieren. Das verleiht Ihnen Zugriff auf das Kommandozeilen-Interface IEx, mit dem Sie Elixir im REPL-Modus ausführen können.

Jede Sprache hat ihre eigenen Konventionen für alltägliche Dinge – etwa Slashes für Kommentare. Mit der Verkettung von Strings geht Elixir folgendermaßen um:

“Hello ” “InfoWorld”

Dieser Ansatz stellt einen eindeutigen Operator zur Verfügung, statt das Plus-Symbol zu überladen. Um den Standard-Output zu erzeugen, nutzen Sie folgenden Befehl:

IO.puts(“Hello ” “InfoWorld”)

Mit IO.puts() erstellen Sie in Elixir Konsolen-Outputs.

Falls Sie eine Variable für diese Zeichenkette erstellen wollen, benötigen Sie im Fall von Elixir keine Keywords – stattdessen deklarieren Sie sie einfach:

my_var = “Hello Infoworld”

Collections in Elixir

Werfen wir nun einen Blick darauf, wie Elixir mit Collections umgeht:

books = [
“The Bhagavad Gita”,
“Tao Te Ching”,
“The Bible”,
“The Quran”,

Diese Array-Syntax (technisch gesehen handelt es sich dabei in Elixir um eine List) ist so universell, dass sie keiner Erklärung bedarf. Allerdings ist dabei zu beachten, dass Arrays in Elixir unveränderlich sind. Dieser Grundsatz der funktionalen Programmierung gestaltet das Gesamtsystem der Programmiersprache weniger fehleranfällig – und zahlt auf die Concurrency ein.

Trotzdem können Sie mit der Elixir-Syntax einige Operationen wie add und remove so ausführen, dass sie veränderlich erscheinen. Im Hintergrund wird dabei eine neue List erstellt:

books ++ [“The Gospel of John in the Light of Indian Mysticism”]

Unveränderliche CollectionsUnveränderliche Collections wirken sich nachteilig auf die Performance aus. Die zugrundeliegende virtuelle Maschine kann das mit einigen Tricks abmildern – etwa „Structural Sharing“ (statt Daten zu kopieren, werden Pointer modifiziert) oder Erlang Term Storage (kann zum Einsatz kommen, wenn große Collections modifiziert werden sollen). Um Collections in-line zu verarbeiten, kann in vielen Fällen Streaming zum Einsatz kommen.

Wollen Sie nun die Buchstaben in jedem einzelnen String zählen und aus diesen Ganzzahlen eine Collection erstellen, können Sie dazu den “Zauber” funktionaler Programmierung einsetzen:

book_lengths = Enum.map(books, &String.length/1)

Die map-Funktion weit verbreitet: In JavaScript kommt sie zum Einsatz, um eine bestimmte Funktion über eine Collection auszuführen. Elixir führt hingegen einige einzigartige map-Funktionen ein: /1 gibt an, welche überladene Version von String.length verwendet werden soll. Bei & handelt es sich um den sogenannten „Function Capture“-Operator, der Zugriff auf die Funktion String.length ermöglicht (in etwa vergleichbar mit dem Methodenreferenz-Operator in Java „::“).

Um einen gefälligen Output zu erzeugen, nutzen Sie die IO.inspect-Funktion:

IO.inspect(book_lengths)
[17, 12, 9, 9, 21]

Elixirs Collection-Typen

Nachdem wir List bereits in Aktion gesehen, hier alle wesentlichen Collection-Typen in Elixir im Überblick:

List: Unveränderliche, homogene Collection beliebiger Typen, die für eine Modifizierung durch Duplizierung ausgelegt ist. Die Syntax umschließt Elemente mit eckigen Klammern – [x,y,z].

Tupel: Tupel sind in erster Linie darauf konzipiert, Werte vorzuhalten – nicht zu verändern. Sie ähneln Lists, sind jedoch auf Read-Performance ausgelegt. Die Syntax umschließt Elemente mit geschweiften Klammern – {x,y,z}.

Keyword-List: Diese wird hauptsächlich für benannte Argumente von Funktionen genutzt und enthält geordnete, „String-only“ Key-Value-Paare. Die Syntax umschließt diese Paare mit eckigen Klammern – [x: x1, y: y1, z:z1].

Maps: Die bekannten Key-Value-Paare – wobei Key alles sein kann und die Collection ungeordnet ist. Die Syntax umschließt die Key-Value-Paare mit einem Prozent-Symbol und geschweiften Klammern – %{x: x1, y: y1, z: z1}, %{x => x1, y => y1, z => z1}.

Maps und Atoms in Elixir

Maps können in Elixir auf zweierlei Arten deklariert werden – abhängig davon, ob es sich bei den Keys um sogenannte Atoms handelt oder nicht. Dieser Begriff bezeichnet eine Variable, deren Wert mit ihrem Namen identisch ist – eine Art Superkonstante. Deklariert wird ein Atom mit einem Doppelpunkt, gefolgt von seinem Namen.

Eine Map von Strings zu Ganzzahlenwerten erstellen Sie folgendermaßen:

books_and_lengths = %{ “The Bhagavad Gita” => 17, “Tao Te Ching” => 12 }

Das ist etwas anderes als der folgende Code, der eine Map von Atoms zu Ganzzahlen realisiert (was in diesem Fall wahrscheinlich nicht zum Ziel führt):

books_and_lengths = %{ “The Bhagavad Gita”: 17, “Tao Te Ching”: 12 }

Achten Sie in diesem Beispiel auf die Platzierung des Doppelpunkts: In einer Map zeigt der Doppelpunkt direkt neben dem Key an, dass es sich um ein Atom handelt (diese können in Anführungszeichen gesetzt werden, um ansonsten unzulässige Zeichen zu unterstützen).

Grundsätzlich gilt:

für normale Variablen nutzen Sie die Pfeilsyntax (=>),

für Atoms Key und Doppelpunkt (:).

Atoms werden für gewöhnlich folgendermaßen deklariert:

:my_atom

Eine weitere Möglichkeit, eine Map mit Atom Keys zu deklarieren:

my_map = %{:atom1 => “foo”, :atom2 => “bar”}

Elixir-Modules

Elixir unterstützt Modules (Module). Diese stellen Namespaces dar, die zusammengehörige Funktionen zusammenfassen, jedoch weder State noch Variablen erfassen. Erwartungsgemäß ermöglicht Ihnen das, andere Funktionen innerhalb desselben Moduls aufzurufen. Wird der Call von außen initiiert, ist ein Präfix voranzustellen oder das Modul zu importieren.

Ein simples Beispiel für ein Module in Elixir:

defmodule BookFunctions do
def myFunc
end
end

BookFunctions.myFunc()

Pattern Matching in Elixir

Syntaktische Feinheiten und die Eigenschaften von Standard-Bibliotheken tragen ganz wesentlich zum übergreifenden „Look & Feel“ einer Programmiersprache bei – schließlich handelt es sich dabei um alltägliche Funktionen, mit denen die Entwickler kontinuierlich interagieren. Dabei hat jede Sprache einige einzigartige Features an Bord.

Im Fall von Elixir ist hier insbesondere Pattern Matching zu nennen. Diese Funktion ermöglicht Ihnen, konditionale Funktionen mit einer Switch-ähnlichen Syntax auszuführen. Angenommen, Sie wollen in unserem Beispiel die Buchtitel nach Länge sortieren und sie in drei Kategorien ausgeben (small, medium, long) – dazu gehen Sie folgendermaßen vor:  

defmodule BookFunctions do
def categorize_length(length) do
case length do
length when length “Short”
length when length &lt= 20 -> “Medium”
_ -> “Long”
end
end

def print_categories(lengths) do
Enum.each(lengths, fn length ->
category = categorize_length(length)
IO.puts(“#{length} characters: #{category}”)
end)
end
end

Ein paar Anmerkungen zu diesem Code:

Bei BookFunctions handelt es sich um ein Module.

Return Statements sind in Elixir implizit – die Funktion categorize_length() gibt das Ergebnis des letzten Ausdrucks automatisch zurück.

Das Keyword case erstellt den Pattern-Matching-Block in der categorize_length-Funktion. Die length when length-Syntax (technisch gesehen eine „Guard Clause“) ermöglicht einen Range Check der Längenvariable. Erfüllt sie die Kriterien, teilt der ->-Operator mit, was zurückgegeben werden soll. Da es sich um die letzte Anweisung der Funktion handelt, entspricht sie auch dem funktionalen Rückgabewert.)

Diese neue Funktion könnten Sie nun auf book_lengths anwenden:

BookBookFunctions.print_categories(book_lengths)
17 characters: Medium
12 characters: Medium
9 characters: Short
9 characters: Short
21 characters: Long

Enum.each ist analog zu forEach in anderen Sprachen wie JavaScript und ermöglicht, eine Operation für jedes Element einer Collection auszuführen.

Loops in Elixir

In Elixir existieren weder for- noch while-Loops. Das deckt sich mit dem Grundsatz der Unveränderlichkeit, der bei der funktionalen Programmierung im Mittelpunkt steht. Stattdessen setzt Elixir auf Recursion. Um Loops umzusetzen, können Sie bei Elixir deshalb auf funktionale Operatoren wie Enum.each und Enum.map zurückgreifen.

Comprehensions

Eine Möglichkeit, einen for-Loop zu simulieren, bieten Comprehensions (die „echten“ for-Loops zum Verwechseln ähnlich sehen):

for x

Die Elixir-Dokumentation hält weitere Beispiele und Informationen zu diesem Thema bereit.

Pipe-Operator

Elixirs Pipe-Operator liefert Ihnen eine saubere Syntax, um Funktionsergebnisse miteinander zu verknüpfen. Das könnte man auch als eine elegantere Form von Funktions-Nesting bezeichnen. Ein simples Pipe-Operator-Beispiel für unsere books_and_lengths-Collection:

books_and_lengths
|> Map.keys()
|> Enum.map(&String.upcase/1)
|> Enum.join(“, “)
|> IO.puts()

Der Output sieht folgendermaßen aus:

The Bhagavad Gita, Tao Te Ching

Concurrency in Elixir

Eine weitere Stärke von Elixir ist Concurrency: In der Programmiersprache kommen sogenannte „Actors“ zum Einsatz, die so etwas wie virtuelle Threads darstellen (weil sie keine vollständigen Betriebssystemprozesse sind) und über „Message Passing“ eine vereinfachte, gleichzeitige Kommunikation ermöglichen.

Folgendes Code-Beispiel entstammt der Elixir-Dokumentation und veranschaulicht Message Handling:

defmodule Example do
def listen do
receive do
{:ok, “hello”} -> IO.puts(“World”)
end

listen()
end
end

Mit Blick auf dieses Code-Beispiel ist zu beachten, dass die listen-Funktion rekursiv ist – sie ruft sich am Ende selbst auf. Ohne sie würde der Prozess beendet.

Um diesen Actor zu starten, nutzen wir spawn:

pid = spawn(Example, :listen, [])

Anschließend können wir eine Nachricht aus dem Hauptprozess senden, indem wir die gespeicherte pid verwenden:

send pid, {:ok, “hello”}

Das sorgt für den Konsolen-Output „World“.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Elixir-Tutorial: Funktionale Programmierung neu gedacht​ Weiterlesen »

4 Root-Cause-Analysis-Tipps: Wie Ursachenanalyse besser geht​

Allgemein

Lesen Sie, wie Sie die Wurzel des IT-Übels schneller finden. Foto: Leremy | shutterstock.com Kommt es zu einem größeren Systemausfall oder umfassenderen Performance-Problemen, kümmert sich die IT-Abteilung darum, dass alle Services so schnell wie möglich wieder laufen und die Ursache für das zugrundeliegende Problem gefunden wird. Dazu dient im Regelfall eine Root Cause Analysis (RCA, auch Ursachenanalyse). Eine echte Herausforderung sind dabei allerdings weniger die großangelegten Ausfälle, sondern vielmehr sporadisch auftretende Probleme. Diese betreffen oft nur eine kleine Benutzergruppe und sind selten sowie von kurzer Dauer. Dennoch können sie extrem schädliche Auswirkungen haben, wenn dabei kritische Prozesse wichtiger Endbenutzer beeinträchtigt werden. Das könnte sich etwa in folgenden Szenarien manifestieren: Ein Benutzer erstellt eine komplexe Webseiten- oder Datenbankabfrage, die Systemressourcen bindet und daraufhin alle anderen Suchaktivitäten behindert. Eine Transaktion blockiert Systemressourcen und verursacht immer dann Performance-Probleme, wenn sie von mehreren Benutzern gleichzeitig durchgeführt wird. Ein nicht mehr ganz frisches Kabel, eine defekte Netzwerkkarte oder ein anderes Device führt zu Paketverlusten – die Auswirkungen sind für die Endbenutzer allerdings nur in Spitzenlastzeiten spürbar. Datenbank-Backup-Prozeduren nehmen mit wachsenden Datenmengen mehr Zeit in Anspruch, was bei einer Teilmenge der Endbenutzer zu Performance-Einbußen führt. Der Service eines Drittanbieters weist längere Antwortzeiten als üblich aus und mindert so die Performance von Applikationen, die von ihm abhängig sind. Was in diesen Situationen hilft: Ein Prozess für Site Reliability Engineers (SREs), Softwareentwickler und IT-Betriebsspezialisten, um auch Probleme, die besonders diffizil zu identifizieren sind, mit Hilfe einer Root-Cause-Analyse möglichst schnell zu Tage zu fördern. 4 Schritte zur besseren Root Cause Analysis Um das umzusetzen und Ihre Root-Cause-Analysen zielführender zu gestalten, sollten Sie sich die folgenden vier Schritte verinnerlichen. 1. Observability als Produkt managen Die Observability von Microservices, Daten-Pipelines, Applikationen und intern entwickelter Software zu optimieren, ist ein Best Practice aus dem DevOps-Bereich. Dabei bestehte eine wesentliche Herausforderung für Unternehmen darin, Datenstandards so zu etablieren und zu verbessern, dass die resultierende Konsistenz die Benutzerfreundlichkeit erhöht, wenn eine Root-Cause-Analyse erforderlich ist. Nick Heudecker, Senior Director of Market Strategy and Competitive Intelligence beim Datenspezialisten Cribl, empfiehlt bei der Standardisierung noch einen Schritt weiter zu gehen – und Applikations-Logs als Datenprodukt zu behandeln, das vom IT-Betrieb konsumiert wird: “Sicherzustellen, dass die Telemetriedaten der Anwendungen von nachgelagerten Systemen verarbeitet werden können, ist der entscheidende Faktor, um App-Performance-Probleme zu identifizieren. Das erfordert strukturierte Protokolle, die mit dem richtigen Kontext angereichert sind und den jeweils relevanten Plattformen zur Verfügung stehen. Das klingt zunächst simpel, allerdings besteht die Herausforderung dabei darin, dass die Entwickler, die die Logs erstellen, oft nicht diejenigen sind, die diese auf operativer Seite nutzen.” Standardisierung ist eine Möglichkeit, um Observability zum Produkt zu machen und für betriebliche Anforderungen zu vereinfachen. Eine andere bewährte DevOps-Methode ist es, sich mit dem Risikomanagement-Team über sensible Daten und die Richtlinien zu deren Aufbewahrung zu beraten. Dabei sollten DevOps-Teams auch Schulungsmaßnahmen für SREs sowie SOC- und NOC-Mitarbeiter ergreifen, um ihnen den Zusammenhang zwischen der Software und den Observability-Daten in Log-Files und anderen Repositories zu verdeutlichen. Insbesondere große Unternehmen, die eine Vielzahl von Applikationen und Microservices entwickeln, sollten nach Meinung von Asaf Yigal, Mitbegründer und CTO beim Softwareunternehmen Logz.io, mehr tun als nur Observability-Standards einzuziehen: “Eine gezielte Echtzeit-Datenanalyse in der Observability-Praxis ermöglicht es den Engineers, Daten proaktiv abzufragen und die Erkenntnisse zu gewinnen, die zur Lösung der maßgeblichen Probleme erforderlich sind. Um zielführende Root-Cause-Analysen zu fahren und Leistungsdefizite in modernen, Microservice-lastigen Systemen zu beheben, braucht es eine effiziente Lösung, die Daten automatisiert durchforstet und proaktive statt reaktive Maßnahmen ermöglicht.” 2. Top-Down- und Bottom-Up-Analysen planen Eine langsame Query mit simplen Datenbank-Protokolldateien aufzutun, ist relativ einfach. Die Ursache für den Slowdown zu identifizieren ist schon komplexer, wenn die Leistung nur dann sinkt, wenn die Datenbank unter Last steht und mehrere Abfragen um die selben Systemressourcen konkurrieren. Grant Fritchey, DevOps Advocate bei Redgate Software, hat ein Beispiel für eine solche Query auf Lager, die mit durchschnittlich 6ms noch relativ flott lief: “Aus Performance-Sicht handelte es sich eigentlich um eine unbedeutende Query – bis klar wurde, das sie mehrere Tausend mal pro Minute gestellt wurde. Damit war sie selbst mit 6 ms noch nicht schnell genug. Das verdeutlicht, wie wichtig es ist, Observability- und Datenbank-Monitoring-Tools zu integrieren, um ein ganzheitliches und differenziertes Verständnis von der Systemleistung zu erhalten.” Für eine effektive Root Cause Analysis sind Monitoring Tools unerlässlich, die mehr können als nur einfache Warnungen bei Ausfällen oder größeren Performance-Problemen zu liefern. Operations-Spezialisten und SREs brauchen Indikatoren, die darüber Auskunft geben, wenn sich die Performance außerhalb der Norm bewegt – und Top-Down-Analyse-Tools, um verdächtige Aktivitäten untersuchen zu können. Die Werkzeuge sollten darüber hinaus dazu beitragen, Leistungsausreißer zu identifizieren, insbesondere, wenn es um hochvolumige oder leistungsschwache Aktivitäten handelt. Das trägt auch dazu bei, End-User-Experiences zu isolieren, um Root-Cause-Analysen auf Benutzerebene zu realisieren. 3. Netzwerkprobleme identifizieren/ausschließen Performance-Probleme lassen sich leicht auf Netzwerk und Infrastruktur schieben, insbesondere, wenn diese in den Verantwortungsbereich von Anbietern oder anderen Abteilungen fallen. Diese Art von Ausreden war vor dem DevOps-Zeitalter an der Tagesordnung – bis sich im Unternehmensumfeld schließlich die Erkenntnis durchsetzen konnte, dass Agilität und betriebliche Resilienz Themen für die gesamte Belegschaft sind. Ganz ausgestorben ist der Verweis auf einen Sündenbock allerdings dennoch nicht, wie Nicolas Vibert, Netzwerkspezialist beim Cloud-Unternehmen Isovalent, weiß: “Bei Problemen mit der Anwendungs-Performance ist fast immer das Netzwerk schuld. Was auch daran liegt, dass das am schwersten zu beweisen ist.” Komplexe Netzwerkprobleme zu identifizieren und zu beheben, ist eine noch größere Challenge, wenn es darum geht, Microservices oder Applikationen aufzubauen, die mit Drittanbieter-Systemen, IoT-Datenströmen und anderen verteilten Echtzeitsystemen integrieren. Für den IT-Betrieb bedeutet das, Netzwerke zu überwachen, die Ergebnisse mit Performance-Problemen auf Anwendungsebene in Beziehung zu setzen und effizientere Netzwerk-Ursachenanalysen zu fahren. Eileen Haggerty, AVP of Product and Solutions Marketing beim Softwareanbieter Netscout, spezifiziert: “Die integrierte Paketüberwachung in virtualisierten Umgebungen bietet konsistente Echtzeiteinblicke in den Datenverkehr und die Anwendungsleistung. Aber jede Domäne und jeder Standort muss gleichermaßen intelligent, transparent und analysierbar sein – unabhängig davon, wo Workloads, Applikationen und Services ausgeführt werden. Ein konsistenter Messansatz in jeder Hosting-Umgebung ermöglicht eine einfachere und schnellere Root Cause Analysis.” 4. Kollaborieren über Root Causes Wenn sporadische Performance-Probleme gelöst werden sollen, müssen Informationen aus verschiedenen Observability-Tools und -Quellen korreliert werden. Das erfordert wiederum ein interdisziplinär aufgestelltes Team, das sein Wissen intern austauscht und effizient zusammenarbeitet, wenn eine Root-Cause-Analyse erforderlich ist. Das weiß Chris Hendrich, stellvertretender CTO beim Cloud-Serviceanbieter Sada, aus eigener Erfahrung: “Ich konnte in vielen größeren, gut etablierten Unternehmen einen bemerkenswerten Mangel an Anwendungsdokumentation und eine stark eingeschränkte Kommunikation zwischen den Teams feststellen. Silos aufzubrechen, kann Unternehmen dabei unterstützen, ihre Fähigkeit in Sachen Ursachenanalyse zu optimieren.” Es kommt jedoch auch darauf an, wie die Teams nach der Root Cause suchen, wie Liz Fiong-Jones, Field CTO beim Observability-Anbieter Honeycomb, unterstreicht: “Direkt die Nadel aus dem Heuhaufen zu picken, ist gar nicht notwendig. Es kommt darauf an, die verschiedenen Teile des Haufens, in denen sich die Nadel befinden könnte, eingrenzen zu können. Bei dieser ‘Filterarbeit’ können die richtigen Tools unterstützen.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

4 Root-Cause-Analysis-Tipps: Wie Ursachenanalyse besser geht​ Lesen Sie, wie Sie die Wurzel des IT-Übels schneller finden.
Foto: Leremy | shutterstock.com

Kommt es zu einem größeren Systemausfall oder umfassenderen Performance-Problemen, kümmert sich die IT-Abteilung darum, dass alle Services so schnell wie möglich wieder laufen und die Ursache für das zugrundeliegende Problem gefunden wird. Dazu dient im Regelfall eine Root Cause Analysis (RCA, auch Ursachenanalyse). Eine echte Herausforderung sind dabei allerdings weniger die großangelegten Ausfälle, sondern vielmehr sporadisch auftretende Probleme. Diese betreffen oft nur eine kleine Benutzergruppe und sind selten sowie von kurzer Dauer. Dennoch können sie extrem schädliche Auswirkungen haben, wenn dabei kritische Prozesse wichtiger Endbenutzer beeinträchtigt werden. Das könnte sich etwa in folgenden Szenarien manifestieren:

Ein Benutzer erstellt eine komplexe Webseiten- oder Datenbankabfrage, die Systemressourcen bindet und daraufhin alle anderen Suchaktivitäten behindert.

Eine Transaktion blockiert Systemressourcen und verursacht immer dann Performance-Probleme, wenn sie von mehreren Benutzern gleichzeitig durchgeführt wird.

Ein nicht mehr ganz frisches Kabel, eine defekte Netzwerkkarte oder ein anderes Device führt zu Paketverlusten – die Auswirkungen sind für die Endbenutzer allerdings nur in Spitzenlastzeiten spürbar.

Datenbank-Backup-Prozeduren nehmen mit wachsenden Datenmengen mehr Zeit in Anspruch, was bei einer Teilmenge der Endbenutzer zu Performance-Einbußen führt.

Der Service eines Drittanbieters weist längere Antwortzeiten als üblich aus und mindert so die Performance von Applikationen, die von ihm abhängig sind.

Was in diesen Situationen hilft: Ein Prozess für Site Reliability Engineers (SREs), Softwareentwickler und IT-Betriebsspezialisten, um auch Probleme, die besonders diffizil zu identifizieren sind, mit Hilfe einer Root-Cause-Analyse möglichst schnell zu Tage zu fördern.

4 Schritte zur besseren Root Cause Analysis

Um das umzusetzen und Ihre Root-Cause-Analysen zielführender zu gestalten, sollten Sie sich die folgenden vier Schritte verinnerlichen.

1. Observability als Produkt managen

Die Observability von Microservices, Daten-Pipelines, Applikationen und intern entwickelter Software zu optimieren, ist ein Best Practice aus dem DevOps-Bereich. Dabei bestehte eine wesentliche Herausforderung für Unternehmen darin, Datenstandards so zu etablieren und zu verbessern, dass die resultierende Konsistenz die Benutzerfreundlichkeit erhöht, wenn eine Root-Cause-Analyse erforderlich ist.

Nick Heudecker, Senior Director of Market Strategy and Competitive Intelligence beim Datenspezialisten Cribl, empfiehlt bei der Standardisierung noch einen Schritt weiter zu gehen – und Applikations-Logs als Datenprodukt zu behandeln, das vom IT-Betrieb konsumiert wird: “Sicherzustellen, dass die Telemetriedaten der Anwendungen von nachgelagerten Systemen verarbeitet werden können, ist der entscheidende Faktor, um App-Performance-Probleme zu identifizieren. Das erfordert strukturierte Protokolle, die mit dem richtigen Kontext angereichert sind und den jeweils relevanten Plattformen zur Verfügung stehen. Das klingt zunächst simpel, allerdings besteht die Herausforderung dabei darin, dass die Entwickler, die die Logs erstellen, oft nicht diejenigen sind, die diese auf operativer Seite nutzen.”

Standardisierung ist eine Möglichkeit, um Observability zum Produkt zu machen und für betriebliche Anforderungen zu vereinfachen. Eine andere bewährte DevOps-Methode ist es, sich mit dem Risikomanagement-Team über sensible Daten und die Richtlinien zu deren Aufbewahrung zu beraten. Dabei sollten DevOps-Teams auch Schulungsmaßnahmen für SREs sowie SOC- und NOC-Mitarbeiter ergreifen, um ihnen den Zusammenhang zwischen der Software und den Observability-Daten in Log-Files und anderen Repositories zu verdeutlichen.

Insbesondere große Unternehmen, die eine Vielzahl von Applikationen und Microservices entwickeln, sollten nach Meinung von Asaf Yigal, Mitbegründer und CTO beim Softwareunternehmen Logz.io, mehr tun als nur Observability-Standards einzuziehen: “Eine gezielte Echtzeit-Datenanalyse in der Observability-Praxis ermöglicht es den Engineers, Daten proaktiv abzufragen und die Erkenntnisse zu gewinnen, die zur Lösung der maßgeblichen Probleme erforderlich sind. Um zielführende Root-Cause-Analysen zu fahren und Leistungsdefizite in modernen, Microservice-lastigen Systemen zu beheben, braucht es eine effiziente Lösung, die Daten automatisiert durchforstet und proaktive statt reaktive Maßnahmen ermöglicht.”

2. Top-Down- und Bottom-Up-Analysen planen

Eine langsame Query mit simplen Datenbank-Protokolldateien aufzutun, ist relativ einfach. Die Ursache für den Slowdown zu identifizieren ist schon komplexer, wenn die Leistung nur dann sinkt, wenn die Datenbank unter Last steht und mehrere Abfragen um die selben Systemressourcen konkurrieren. Grant Fritchey, DevOps Advocate bei Redgate Software, hat ein Beispiel für eine solche Query auf Lager, die mit durchschnittlich 6ms noch relativ flott lief: “Aus Performance-Sicht handelte es sich eigentlich um eine unbedeutende Query – bis klar wurde, das sie mehrere Tausend mal pro Minute gestellt wurde. Damit war sie selbst mit 6 ms noch nicht schnell genug. Das verdeutlicht, wie wichtig es ist, Observability- und Datenbank-Monitoring-Tools zu integrieren, um ein ganzheitliches und differenziertes Verständnis von der Systemleistung zu erhalten.”

Für eine effektive Root Cause Analysis sind Monitoring Tools unerlässlich, die mehr können als nur einfache Warnungen bei Ausfällen oder größeren Performance-Problemen zu liefern. Operations-Spezialisten und SREs brauchen Indikatoren, die darüber Auskunft geben, wenn sich die Performance außerhalb der Norm bewegt – und Top-Down-Analyse-Tools, um verdächtige Aktivitäten untersuchen zu können. Die Werkzeuge sollten darüber hinaus dazu beitragen, Leistungsausreißer zu identifizieren, insbesondere, wenn es um hochvolumige oder leistungsschwache Aktivitäten handelt. Das trägt auch dazu bei, End-User-Experiences zu isolieren, um Root-Cause-Analysen auf Benutzerebene zu realisieren.

3. Netzwerkprobleme identifizieren/ausschließen

Performance-Probleme lassen sich leicht auf Netzwerk und Infrastruktur schieben, insbesondere, wenn diese in den Verantwortungsbereich von Anbietern oder anderen Abteilungen fallen. Diese Art von Ausreden war vor dem DevOps-Zeitalter an der Tagesordnung – bis sich im Unternehmensumfeld schließlich die Erkenntnis durchsetzen konnte, dass Agilität und betriebliche Resilienz Themen für die gesamte Belegschaft sind. Ganz ausgestorben ist der Verweis auf einen Sündenbock allerdings dennoch nicht, wie Nicolas Vibert, Netzwerkspezialist beim Cloud-Unternehmen Isovalent, weiß: “Bei Problemen mit der Anwendungs-Performance ist fast immer das Netzwerk schuld. Was auch daran liegt, dass das am schwersten zu beweisen ist.”

Komplexe Netzwerkprobleme zu identifizieren und zu beheben, ist eine noch größere Challenge, wenn es darum geht, Microservices oder Applikationen aufzubauen, die mit Drittanbieter-Systemen, IoT-Datenströmen und anderen verteilten Echtzeitsystemen integrieren. Für den IT-Betrieb bedeutet das, Netzwerke zu überwachen, die Ergebnisse mit Performance-Problemen auf Anwendungsebene in Beziehung zu setzen und effizientere Netzwerk-Ursachenanalysen zu fahren.

Eileen Haggerty, AVP of Product and Solutions Marketing beim Softwareanbieter Netscout, spezifiziert: “Die integrierte Paketüberwachung in virtualisierten Umgebungen bietet konsistente Echtzeiteinblicke in den Datenverkehr und die Anwendungsleistung. Aber jede Domäne und jeder Standort muss gleichermaßen intelligent, transparent und analysierbar sein – unabhängig davon, wo Workloads, Applikationen und Services ausgeführt werden. Ein konsistenter Messansatz in jeder Hosting-Umgebung ermöglicht eine einfachere und schnellere Root Cause Analysis.”

4. Kollaborieren über Root Causes

Wenn sporadische Performance-Probleme gelöst werden sollen, müssen Informationen aus verschiedenen Observability-Tools und -Quellen korreliert werden. Das erfordert wiederum ein interdisziplinär aufgestelltes Team, das sein Wissen intern austauscht und effizient zusammenarbeitet, wenn eine Root-Cause-Analyse erforderlich ist. Das weiß Chris Hendrich, stellvertretender CTO beim Cloud-Serviceanbieter Sada, aus eigener Erfahrung: “Ich konnte in vielen größeren, gut etablierten Unternehmen einen bemerkenswerten Mangel an Anwendungsdokumentation und eine stark eingeschränkte Kommunikation zwischen den Teams feststellen. Silos aufzubrechen, kann Unternehmen dabei unterstützen, ihre Fähigkeit in Sachen Ursachenanalyse zu optimieren.”

Es kommt jedoch auch darauf an, wie die Teams nach der Root Cause suchen, wie Liz Fiong-Jones, Field CTO beim Observability-Anbieter Honeycomb, unterstreicht: “Direkt die Nadel aus dem Heuhaufen zu picken, ist gar nicht notwendig. Es kommt darauf an, die verschiedenen Teile des Haufens, in denen sich die Nadel befinden könnte, eingrenzen zu können. Bei dieser ‘Filterarbeit’ können die richtigen Tools unterstützen.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

4 Root-Cause-Analysis-Tipps: Wie Ursachenanalyse besser geht​ Weiterlesen »

Industrial IoT: Effizienz sticht neue Geschäftsmodelle​

Allgemein

Der Einsatz des Industrial IoT (IIoT) führt vor allem zu einer effizienteren Produktion und verbesserten Produkten. Die Entwicklung neuer Geschäftsmodelle steht im Hintergrund. Größte Herausforderungen bei der Umsetzung sind der Mangel an qualifiziertem Personal und das Thema Datensicherheit. Shutterstock Germany only – Who is Danny Die meisten Firmen haben ihre primären Ziele bei der Einführung von IIoT-Anwendungen erreicht. Sie profitieren vor allem von einer effizienteren Produktion und verbesserten Produkten. Das zeigen die Ergebnisse der aktuellen IIoT-Studie, die CIO und COMPUTERWOCHE gemeinsam mit den Partnern Avanade und A1 Digital realisiert haben. Dazu wurden 330 Entscheider aus der DACH-Region zu ihren Ansichten, Plänen und Projekten rund um das Industrial Internet of Things befragt. Während der erste Teil unseres Artikels zu den Ergebnissen der Studie sich mit dem Status quo in deutschen Firmen befasst, stehen im zweiten Teil die Chancen sowie die technischen und organisatorischen Herausforderungen des IIoT im Vordergrund. IIoT – Ziele erreicht und Haken dran? In der Praxis haben die meisten Firmen die gesteckten Ziele erreicht. 57 Prozent der Firmen konnten mit ihren IIoT-Anwendungen ihre Produktionseffizienz erhöhen, 41 Prozent ihre Produktqualität verbessern. Jeweils rund einem Drittel der Unternehmen gelang es, mit Hilfe des IIoT die Ausfallzeiten zu minimieren, Betriebskosten zu reduzieren oder das Energiemanagement zu verbessern. Zukunftsorientierte Themen wie höhere Kundenzufriedenheit oder die Erschließung neuer Businessmodelle landen mit jeweils 20 Prozent auf den beiden letzten Plätzen. „Die Erschließung neuer Geschäftsmodelle, vor allem mit datenbasierten Services, erfordert einen gewissen Mut zum Risiko, eine langfristige Vision, ein gewisses Investment, oftmals einen kurz- bis mittelfristigen Umsatzrückgang und einen langen Atem“, betont Thomas Kanzler, Head of Digital Services, A1 Digital. Seiner Meinung nach können sich viele Unternehmen das im Moment gar nicht leisten und müssen daher ihren Fokus voll und ganz auf die Optimierung lenken. „Das ist vollkommen verständlich, kurz- bis mittelfristig notwendig, aber langfristig sicherlich fatal, um global kompetitiv zu bleiben“, so Kanzler weiter. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?quality=50&strip=all 5929w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Optimierung ist kurzfristig notwendig, langfristig braucht es mehr, sagt Thomas Kanzler, Head of Digital Services, A1 Digital. A1 Digital Deutschland GmbH Im Fokus: Automatisierung der Produktion Wichtigste IIoT-Anwendung in Unternehmen ist aktuell die Produktionsautomatisierung und -steuerung (53 Prozent), insbesondere in den großen Unternehmen. Dahinter folgen Predictive Maintenance (45 Prozent), sprich Zustandsüberwachung und vorausschauende Wartung, sowie Supply Chain Management und Logistik (44 Prozent). Weitere bedeutende Anwendungsfälle für das Industrial Internet of Things sind Energie- und Ressourcenmanagement, Anlagen- und Maschinenüberwachung sowie Qualitätskontrolle und -sicherung. All diese Einsatzszenarien stehen direkt oder indirekt mit der Effizienz der Produktion und dem Einsparen von Kosten/Ressourcen in Verbindung. Wichtigste IIoT-Anwendung in Unternehmen ist aktuell die Produktionsautomatisierung und -steuerung mit 53 Prozent. Research Services: Christine Plote „Industrial IoT spielt vor allem dann seine Stärken aus, wenn man den Blick nicht nur auf einzelne Maschinen oder Komponenten richtet, sondern auf den darüber liegenden Prozess. Für ein einzelnes Werk kann dies bedeuten, dass sich die Produktion vielfältig optimieren lässt, etwa durch Reduzierung von Ausschuss und Verkürzung von Cycle Times“, erklärt Marko Weisse, Avanade Industry X Lead. Mehr Transparenz in der Produktion ermöglicht Weisse zufolge eine gezielte Planung der erforderlichen Ressourcen, eine aktive Unterstützung der Mitarbeiter bei Entscheidungen sowie einen besseren Service. Er sieht zudem großes Potenzial für die Skalierung der Produktion im werksübergreifenden und internationalen Kontext, wenn solche Modelle auf alle Werke ausgerollt werden. „Einheitliche Standards sind ein Baustein dafür, besser und flexibler planen zu können, was wo produziert wird. Dies wird gerade auch heute im Kontext zunehmender geopolitischer Herausforderungen immer wichtiger, etwa der Verlagerung von Kapazitäten in die USA oder innerhalb von Europa“, so der Avanade-Manager. Das Industrial IoT spielt seine Stärken vor allem in den Prozessen aus, sagt Marko Weisse, Avanade Industry X Lead.Avanade Deutschland GmbH Der Studie zufolge vernetzt ein Drittel der Firmen ihre IIoT-Systeme EU-weit, ein Viertel national beziehungsweise in der DACH-Region (Deutschland, Österreich, Schweiz). 22 Prozent binden länderübergreifend Standorte und Partner in ihre IIoT-Systeme ein. Über mehrere Kontinente hinweg agieren 12 Prozent der Firmen, insbesondere aber die großen Unternehmen ab 1.000 Mitarbeitern (18 Prozent). Ähnlich sieht das Bild bei der globalen Vernetzung der IIoT-Systeme aus (acht Prozent allgemein, 14 Prozent große Firmen). Es mangelt an qualifiziertem Personal Als größte Herausforderungen bei der Umsetzung dieser IIoT-Anwendungen nannten 41 Prozent der Befragten den Mangel an qualifiziertem Personal, 40 Prozent Bedenken bei Datensicherheit und Datenschutz. In etwas mehr als einem Drittel der Unternehmen stellen die hohen Investitionskosten sowie die Komplexität der Integration in bestehende Systeme Hürden für das IIoT dar. Hinzu kommen technologische Kompatibilitätsprobleme, Schwierigkeiten bei der Datenanalyse und -interpretation und Bedrohungen der industriellen Cybersicherheit durch Angreifer. Kanzler von A1 Digital sieht eine weitere Herausforderung darin, dass IIoT, OT und IT oft getrennt betrachtet würden: „Deshalb ist es umso wichtiger, eine zentralisierte Daten- und Sicherheitsstruktur zwischen den drei Bereichen zu schaffen und die Prozesse dementsprechend zu konvergieren. Es bedarf es einer ganzheitlichen Herangehensweise, die technologische Vorhaben und die aktive Beteiligung der MitarbeiterInnen in den jeweiligen Abteilungen einschließt.“ OT muss sich auf NIS2 vorbereiten Auch Standards und gesetzliche Vorgaben wie die europäische NIS2-Richtlinie (Network and Information Security) zur Verbesserung der Cybersecurity und des Schutzes kritischer Infrastrukturen sind für produzierende Firmen relevant. Die NIS2 tritt wohl im ersten Halbjahr 2025 in Kraft. Ein Teil der befragten Unternehmen der IIoT-Studie hat bereits organisatorische und technische OT-Schutzmaßnahmen (OT Operational Technology) zur Einhaltung der NIS2-Anforderungen umgesetzt. Bei den organisatorischen Schutzmaßnahmen haben 53 Prozent eine unternehmensinterne Sicherheitsorganisation mit verantwortlichen Personen etabliert, 47 Prozent bewerten ihre OT-Risiken kontinuierlich, 44 Prozent haben einen Business-Continuity-Plan aufgestellt. Weitere wichtige organisatorische Maßnahmen sind Awareness-Schulungen der Belegschaft, die umfassende Dokumentation der Systeme und Anlagen (Asset Management) sowie Patch-Management und Sicherheitsupdates. Bei den organisatorischen Schutzmaßnahmen haben 53 Prozent eine unternehmensinterne Sicherheitsorganisation mit verantwortlichen Personen etabliert. Research Services: Christine Plote Bei den technischen OT-Schutzmaßnahmen dominieren Themen wie die Einrichtung eines Security Operation Centers (SOC) (44 Prozent), Lösungen zum Security Information and Event Management (SIEM) (43 Prozent) oder zur Netzwerkzugangskontrolle (NAC) mit 38 Prozent. Firmen schützen sich zudem durch die Automatisierung von Sicherheitslösungen (SOAR-Lösungen), OT-Monitoring, Frühwarnsysteme, Netzwerksegmentierung oder Intrusion Detection Systeme (IDS) beziehungsweise Intrusion Prevention Systeme (IPS). Hoffnungsträger KI          Welche Technologien nutzt Ihr Unternehmen im Kontext mit dem Industrial IIoT bereits beziehungsweise plant es zu nutzen? Auf diese Frage antworten 58 Prozent der Unternehmen mit Künstlicher Intelligenz und maschinellem Lernen. Sie erhoffen sich durch den KI-Einsatz eine höhere Produktqualität, weniger Fehler und effizientere Prozesse. Laut Guido Burchartz, Avanade Industry Lead Products ASG, ermöglicht KI den Firmen, komplexe und systemübergreifende Zusammenhänge auf Basis historischer und aktueller Prozessdaten zu erkennen und daraus Planungsszenarien sowie konkrete Maßnahmen abzuleiten. 58 Prozent der Unternehmen nutzen im Kontext von IIoT bereits  Künstliche Intelligenz und maschinelles Lernen. Research Services: Christine Plote „Eine KI kann etwa dabei unterstützen das Know How aus 40+ Jahren Produktentwicklung effizient für die Entwicklung neuer Produkte nutzbar zu machen: Welche Rezepturen und Werkstoffkombinationen wurden bereits einmal wie entwickelt? Wie kann ich dies nutzen, um eine neue Rezeptur für ähnliche Rahmenbedingungen ohne hohen Forschungsaufwand zu entwickeln?“, erläutert Buchartz. Die digitalen Daten aus diesem Schritt lassen sich dann auch in allen Folgeschritten konsequent nutzen, etwa in der Produktion, um mit Hilfe von Messdaten aus der Produktion die Qualitätsüberwachung zu optimieren. Dabei aber gilt laut Buchartz: „KI-Anwendungen sind sehr stark von der Datenbasis abhängig; sie erfordern den Aufbau eines Datenpool oder eines Datenökosystems. Die eigentliche Wertschöpfung entsteht erst durch ein stetiges Nutzen der Daten und Lernen daraus. Dabei ist es wichtig, nicht in Silos zu denken und zu arbeiten.“ KI-Anwendungen sind sehr stark von der Datenbasis abhängig, warnt Guido Burchartz, Avanade Industry Lead Products ASG.Avanade Deutschland GmbH Hybride Vernetzung aus 5G und WLAN Ihre Produktionsstätten vernetzen die Industrieunternehmen mit verschiedenen Technologien. Am häufigsten kommt ein hybrides Modell mit 5G-Diensten und WLAN parallel zum Einsatz (48 Prozent), knapp gefolgt von VPN (47 Prozent). Jeweils 41 Prozent nutzen kabelgebundenes Industrial Ethernet und das LTE/5G-Netz, 39 Prozent nutzen Industrial WLAN (Wi-Fi 6/7). Nur 13 Prozent sind von LPWAN-Technologien wie NB-IoT oder LTE-M überzeugt, die speziell für das IoT entwickelt wurden und mit niedrigem Energieverbrauch und hoher Reichweite punkten sollen. Die häufigsten Anwendungen im Unternehmen mit Schnittstellen zum Industrial IoT sind ERP-Systeme (47 Prozent), die eine Art Daten-Drehscheibe für die Produktion bilden. Relativ knapp dahinter liegen Schnittstellen des IIoT-Systems zu CRM-Systemen (43 Prozent) und HR-Systemen (40 Prozent). Allerdings verzeichnen 47 Prozent der Firmen kleinere (25 Prozent) oder größere Probleme (22 Prozent) wegen nicht-standardisierter Schnittstellen. In 13 Prozent gab es andere Schnittstellenprobleme, die nichts mit der Standardisierung zu tun hatten. In immerhin 28 Prozent gab es keine Probleme mit den Schnittstellen. Der Hauptgrund: Mittlerweile sind in 56 Prozent der Firmen alle Schnittstellen standardisiert (bei den großen Firmen 63 Prozent). 35 Prozent planen den Aufbau standardisierter Schnittstellen, um die Interoperabilität zwischen der IIoT-Plattform und den bestehenden IT-Systemen sicherzustellen. Die neue Studie “Industrial IoT 2025” von CIO Research Services Research Services: Christine Plote Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: Avanade Deutschland GmbH, A1 Digital Deutschland GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 315 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 11. bis 18. November 2024 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

Industrial IoT: Effizienz sticht neue Geschäftsmodelle​ Der Einsatz des Industrial IoT (IIoT) führt vor allem zu einer effizienteren Produktion und verbesserten Produkten. Die Entwicklung neuer Geschäftsmodelle steht im Hintergrund. Größte Herausforderungen bei der Umsetzung sind der Mangel an qualifiziertem Personal und das Thema Datensicherheit.
Shutterstock Germany only – Who is Danny

Die meisten Firmen haben ihre primären Ziele bei der Einführung von IIoT-Anwendungen erreicht. Sie profitieren vor allem von einer effizienteren Produktion und verbesserten Produkten. Das zeigen die Ergebnisse der aktuellen IIoT-Studie, die CIO und COMPUTERWOCHE gemeinsam mit den Partnern Avanade und A1 Digital realisiert haben. Dazu wurden 330 Entscheider aus der DACH-Region zu ihren Ansichten, Plänen und Projekten rund um das Industrial Internet of Things befragt.

Während der erste Teil unseres Artikels zu den Ergebnissen der Studie sich mit dem Status quo in deutschen Firmen befasst, stehen im zweiten Teil die Chancen sowie die technischen und organisatorischen Herausforderungen des IIoT im Vordergrund.

IIoT – Ziele erreicht und Haken dran?

In der Praxis haben die meisten Firmen die gesteckten Ziele erreicht. 57 Prozent der Firmen konnten mit ihren IIoT-Anwendungen ihre Produktionseffizienz erhöhen, 41 Prozent ihre Produktqualität verbessern. Jeweils rund einem Drittel der Unternehmen gelang es, mit Hilfe des IIoT die Ausfallzeiten zu minimieren, Betriebskosten zu reduzieren oder das Energiemanagement zu verbessern. Zukunftsorientierte Themen wie höhere Kundenzufriedenheit oder die Erschließung neuer Businessmodelle landen mit jeweils 20 Prozent auf den beiden letzten Plätzen.

„Die Erschließung neuer Geschäftsmodelle, vor allem mit datenbasierten Services, erfordert einen gewissen Mut zum Risiko, eine langfristige Vision, ein gewisses Investment, oftmals einen kurz- bis mittelfristigen Umsatzrückgang und einen langen Atem“, betont Thomas Kanzler, Head of Digital Services, A1 Digital. Seiner Meinung nach können sich viele Unternehmen das im Moment gar nicht leisten und müssen daher ihren Fokus voll und ganz auf die Optimierung lenken. „Das ist vollkommen verständlich, kurz- bis mittelfristig notwendig, aber langfristig sicherlich fatal, um global kompetitiv zu bleiben“, so Kanzler weiter.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?quality=50&strip=all 5929w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Thomas_Kanzler_29-Bearbeitet_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Optimierung ist kurzfristig notwendig, langfristig braucht es mehr, sagt Thomas Kanzler, Head of Digital Services, A1 Digital. A1 Digital Deutschland GmbH

Im Fokus: Automatisierung der Produktion

Wichtigste IIoT-Anwendung in Unternehmen ist aktuell die Produktionsautomatisierung und -steuerung (53 Prozent), insbesondere in den großen Unternehmen. Dahinter folgen Predictive Maintenance (45 Prozent), sprich Zustandsüberwachung und vorausschauende Wartung, sowie Supply Chain Management und Logistik (44 Prozent). Weitere bedeutende Anwendungsfälle für das Industrial Internet of Things sind Energie- und Ressourcenmanagement, Anlagen- und Maschinenüberwachung sowie Qualitätskontrolle und -sicherung. All diese Einsatzszenarien stehen direkt oder indirekt mit der Effizienz der Produktion und dem Einsparen von Kosten/Ressourcen in Verbindung.

Wichtigste IIoT-Anwendung in Unternehmen ist aktuell die Produktionsautomatisierung und -steuerung mit 53 Prozent.
Research Services: Christine Plote

„Industrial IoT spielt vor allem dann seine Stärken aus, wenn man den Blick nicht nur auf einzelne Maschinen oder Komponenten richtet, sondern auf den darüber liegenden Prozess. Für ein einzelnes Werk kann dies bedeuten, dass sich die Produktion vielfältig optimieren lässt, etwa durch Reduzierung von Ausschuss und Verkürzung von Cycle Times“, erklärt Marko Weisse, Avanade Industry X Lead. Mehr Transparenz in der Produktion ermöglicht Weisse zufolge eine gezielte Planung der erforderlichen Ressourcen, eine aktive Unterstützung der Mitarbeiter bei Entscheidungen sowie einen besseren Service.

Er sieht zudem großes Potenzial für die Skalierung der Produktion im werksübergreifenden und internationalen Kontext, wenn solche Modelle auf alle Werke ausgerollt werden. „Einheitliche Standards sind ein Baustein dafür, besser und flexibler planen zu können, was wo produziert wird. Dies wird gerade auch heute im Kontext zunehmender geopolitischer Herausforderungen immer wichtiger, etwa der Verlagerung von Kapazitäten in die USA oder innerhalb von Europa“, so der Avanade-Manager.

Das Industrial IoT spielt seine Stärken vor allem in den Prozessen aus, sagt Marko Weisse, Avanade Industry X Lead.Avanade Deutschland GmbH

Der Studie zufolge vernetzt ein Drittel der Firmen ihre IIoT-Systeme EU-weit, ein Viertel national beziehungsweise in der DACH-Region (Deutschland, Österreich, Schweiz). 22 Prozent binden länderübergreifend Standorte und Partner in ihre IIoT-Systeme ein. Über mehrere Kontinente hinweg agieren 12 Prozent der Firmen, insbesondere aber die großen Unternehmen ab 1.000 Mitarbeitern (18 Prozent). Ähnlich sieht das Bild bei der globalen Vernetzung der IIoT-Systeme aus (acht Prozent allgemein, 14 Prozent große Firmen).

Es mangelt an qualifiziertem Personal

Als größte Herausforderungen bei der Umsetzung dieser IIoT-Anwendungen nannten 41 Prozent der Befragten den Mangel an qualifiziertem Personal, 40 Prozent Bedenken bei Datensicherheit und Datenschutz. In etwas mehr als einem Drittel der Unternehmen stellen die hohen Investitionskosten sowie die Komplexität der Integration in bestehende Systeme Hürden für das IIoT dar. Hinzu kommen technologische Kompatibilitätsprobleme, Schwierigkeiten bei der Datenanalyse und -interpretation und Bedrohungen der industriellen Cybersicherheit durch Angreifer.

Kanzler von A1 Digital sieht eine weitere Herausforderung darin, dass IIoT, OT und IT oft getrennt betrachtet würden: „Deshalb ist es umso wichtiger, eine zentralisierte Daten- und Sicherheitsstruktur zwischen den drei Bereichen zu schaffen und die Prozesse dementsprechend zu konvergieren. Es bedarf es einer ganzheitlichen Herangehensweise, die technologische Vorhaben und die aktive Beteiligung der MitarbeiterInnen in den jeweiligen Abteilungen einschließt.“

OT muss sich auf NIS2 vorbereiten

Auch Standards und gesetzliche Vorgaben wie die europäische NIS2-Richtlinie (Network and Information Security) zur Verbesserung der Cybersecurity und des Schutzes kritischer Infrastrukturen sind für produzierende Firmen relevant. Die NIS2 tritt wohl im ersten Halbjahr 2025 in Kraft. Ein Teil der befragten Unternehmen der IIoT-Studie hat bereits organisatorische und technische OT-Schutzmaßnahmen (OT Operational Technology) zur Einhaltung der NIS2-Anforderungen umgesetzt.

Bei den organisatorischen Schutzmaßnahmen haben 53 Prozent eine unternehmensinterne Sicherheitsorganisation mit verantwortlichen Personen etabliert, 47 Prozent bewerten ihre OT-Risiken kontinuierlich, 44 Prozent haben einen Business-Continuity-Plan aufgestellt. Weitere wichtige organisatorische Maßnahmen sind Awareness-Schulungen der Belegschaft, die umfassende Dokumentation der Systeme und Anlagen (Asset Management) sowie Patch-Management und Sicherheitsupdates.

Bei den organisatorischen Schutzmaßnahmen haben 53 Prozent eine unternehmensinterne Sicherheitsorganisation mit verantwortlichen Personen etabliert.
Research Services: Christine Plote

Bei den technischen OT-Schutzmaßnahmen dominieren Themen wie die Einrichtung eines Security Operation Centers (SOC) (44 Prozent), Lösungen zum Security Information and Event Management (SIEM) (43 Prozent) oder zur Netzwerkzugangskontrolle (NAC) mit 38 Prozent. Firmen schützen sich zudem durch die Automatisierung von Sicherheitslösungen (SOAR-Lösungen), OT-Monitoring, Frühwarnsysteme, Netzwerksegmentierung oder Intrusion Detection Systeme (IDS) beziehungsweise Intrusion Prevention Systeme (IPS).

Hoffnungsträger KI         

Welche Technologien nutzt Ihr Unternehmen im Kontext mit dem Industrial IIoT bereits beziehungsweise plant es zu nutzen? Auf diese Frage antworten 58 Prozent der Unternehmen mit Künstlicher Intelligenz und maschinellem Lernen. Sie erhoffen sich durch den KI-Einsatz eine höhere Produktqualität, weniger Fehler und effizientere Prozesse. Laut Guido Burchartz, Avanade Industry Lead Products ASG, ermöglicht KI den Firmen, komplexe und systemübergreifende Zusammenhänge auf Basis historischer und aktueller Prozessdaten zu erkennen und daraus Planungsszenarien sowie konkrete Maßnahmen abzuleiten.

58 Prozent der Unternehmen nutzen im Kontext von IIoT bereits  Künstliche Intelligenz und maschinelles Lernen.
Research Services: Christine Plote

„Eine KI kann etwa dabei unterstützen das Know How aus 40+ Jahren Produktentwicklung effizient für die Entwicklung neuer Produkte nutzbar zu machen: Welche Rezepturen und Werkstoffkombinationen wurden bereits einmal wie entwickelt? Wie kann ich dies nutzen, um eine neue Rezeptur für ähnliche Rahmenbedingungen ohne hohen Forschungsaufwand zu entwickeln?“, erläutert Buchartz. Die digitalen Daten aus diesem Schritt lassen sich dann auch in allen Folgeschritten konsequent nutzen, etwa in der Produktion, um mit Hilfe von Messdaten aus der Produktion die Qualitätsüberwachung zu optimieren.

Dabei aber gilt laut Buchartz: „KI-Anwendungen sind sehr stark von der Datenbasis abhängig; sie erfordern den Aufbau eines Datenpool oder eines Datenökosystems. Die eigentliche Wertschöpfung entsteht erst durch ein stetiges Nutzen der Daten und Lernen daraus. Dabei ist es wichtig, nicht in Silos zu denken und zu arbeiten.“

KI-Anwendungen sind sehr stark von der Datenbasis abhängig, warnt Guido Burchartz, Avanade Industry Lead Products ASG.Avanade Deutschland GmbH

Hybride Vernetzung aus 5G und WLAN

Ihre Produktionsstätten vernetzen die Industrieunternehmen mit verschiedenen Technologien. Am häufigsten kommt ein hybrides Modell mit 5G-Diensten und WLAN parallel zum Einsatz (48 Prozent), knapp gefolgt von VPN (47 Prozent). Jeweils 41 Prozent nutzen kabelgebundenes Industrial Ethernet und das LTE/5G-Netz, 39 Prozent nutzen Industrial WLAN (Wi-Fi 6/7). Nur 13 Prozent sind von LPWAN-Technologien wie NB-IoT oder LTE-M überzeugt, die speziell für das IoT entwickelt wurden und mit niedrigem Energieverbrauch und hoher Reichweite punkten sollen.

Die häufigsten Anwendungen im Unternehmen mit Schnittstellen zum Industrial IoT sind ERP-Systeme (47 Prozent), die eine Art Daten-Drehscheibe für die Produktion bilden. Relativ knapp dahinter liegen Schnittstellen des IIoT-Systems zu CRM-Systemen (43 Prozent) und HR-Systemen (40 Prozent). Allerdings verzeichnen 47 Prozent der Firmen kleinere (25 Prozent) oder größere Probleme (22 Prozent) wegen nicht-standardisierter Schnittstellen. In 13 Prozent gab es andere Schnittstellenprobleme, die nichts mit der Standardisierung zu tun hatten. In immerhin 28 Prozent gab es keine Probleme mit den Schnittstellen. Der Hauptgrund: Mittlerweile sind in 56 Prozent der Firmen alle Schnittstellen standardisiert (bei den großen Firmen 63 Prozent). 35 Prozent planen den Aufbau standardisierter Schnittstellen, um die Interoperabilität zwischen der IIoT-Plattform und den bestehenden IT-Systemen sicherzustellen.

Die neue Studie “Industrial IoT 2025” von CIO Research Services
Research Services: Christine Plote

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: Avanade Deutschland GmbH, A1 Digital Deutschland GmbH

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 315 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 11. bis 18. November 2024

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

Industrial IoT: Effizienz sticht neue Geschäftsmodelle​ Weiterlesen »

Mehr Speed und Power für Glasfasernetze​

Allgemein

Projekt WESORAM: Ein Flüssigkristallspiegel splittet die Lichtsignale auf und verteilt die Signale flexibel auf verschiedene Glasfaser.Fraunhofer IOF Optische Glasfasernetze kommen an ihre Leistungsgrenze? Was vor kurzem noch undenkbar schien, wird in Zeiten von autonomem Fahren, 6G-Mobilfunk, Quantenkommunikation oder KI langsam zu einer realen Herausforderung. Die herkömmlichen faseroptischen Systeme sind für diese Zukunftstechnologien nicht mehr leistungsstark genug. Schon heute nutzen Glasfasernetze Techniken wie das Wellenlängen-Multiplexing (DWDM), um den ständig steigenden Bedarf an höheren Bandbreiten zu decken. Dabei wird Licht, das als Träger für den Datenstrom fungiert, mithilfe eines optischen Schalters in mehrere Frequenzen (Farben) gesplittet. Allerdings stößt das Verfahren langsam an seine Grenzen, da nur ein begrenztes Frequenz-, beziehungsweise Farbspektrum nutzbar ist. Mehr Fasern parallel nutzen Um die Leistungsfähigkeit der Glasfasernetze weiter zu steigern, hatten Forscher des Fraunhofer IOF folgende Idee: Warum eingehende Lichtsignale nur in verschiedene Frequenzen/Farben aufsplitten? Warum kann man ein Lichtsignal und damit den Datenstrom nicht auch auf verschiedene, separate Glasfasern aufsplitten? Aus dem Gedankenspiel entstand WESORAM – ein wellenlängenselektiver Schalter für optisches Raum-Multiplexing. Dazu haben die Forscher zunächst den Schaltmechanismus eines LCoS-Schalters so flexibilisiert, dass er die Weiterleitung des Datenstroms in beliebige Fasern ermöglicht. Raum-Multiplexing Beim klassischen DWDM schickt ein Flüssigkristallspiegel (LCoS, Liquid Crystal on Silicon) die Lichtsignale an die Ausgangsfaser weiter, nachdem sie zuvor durch ein spektrometrisches Gitter in verschiedene Wellenlängen/Farben aufgeteilt wurden. Bei WESORAM wird nun das eingehende Lichtsignal – nachdem es zuvor im Gitter aufgesplittet wurde – von dem Flüssigkristallspiegel auf verschiedene Fasern geschickt. Das Wellenlängenmultiplexverfahren wird also zu einem Raummultiplexverfahren ausgeweitet. Ergänzend zum Prinzip „mehrere-Frequenzen-eine-Faser“ ist damit auch das Prinzip „eine-Frequenz-mehrere-Fasern“ anwendbar. Verdopplung der Kapazität Den Forschern gelang es so, die Signale von acht Eingangskanälen beliebig auf 16 Ausgangskanäle zu schicken. „Durch diese Kreuzverschaltung steigt die Kapazität der Netze, denn das Senden und Weiterleiten der Datenströme ist viel flexibler. Das ist besonders nützlich, wenn die Daten über längere Strecken, etwa zwischen Städten, geschickt werden“, beschreibt Steffen Trautmann, Projektleiter und Experte für optische Systeme am Fraunhofer IOF, einen Vorteil des Verfahrens. Projekt Multi-Cap: Der Verstärker kann die Signale in bis zu zwölf Datenkanäle in einem Faserstrang verstärken. Fraunhofer IOF Ein weiterer Vorteil besteht darin, dass insgesamt weniger optische Schalter für das Glasfasernetz benötigt werden. Dadurch sinken die Kosten bei der Installation und im laufenden Betrieb. Mehr Datenpakete Gleichzeitig gelang es den Wissenschaftlern, die Lichtfrequenz des Datenstroms um den Faktor 4 schmalbandiger zu gestalten. Damit sind die Datenpakete dementsprechend kleiner. So lassen sich viel mehr Datenpakete gleichzeitig durch die Lichtleiter auf die Reise schicken – sprich die Latenz sinkt und die Geschwindigkeit steigt. Ergänzt wird WESORAM durch das Projekt Multi-Cap. Hier arbeiten die Forscher daran, die Zahl der Kanäle für die parallele Datenübertragung zu erhöhen. Klassische Glasfaser enthalten einen Datenkanal und einen Signalkern, Mehrkernfasern dagegen nutzen mehrere Kerne für die Datenübertragung. Obwohl diese Kabel viel mehr Leiter enthalten, sind sie kaum dicker. Das Team am Fraunhofer IOF hat die für Mehrkernfasern nötigen Signalverstärker entwickelt. Diese können bis zu zwölf Kanäle gleichzeitig bedienen und liefern eine Verstärkung von mehr als 20 dB pro Kanal. Die Technik ist so deutlich energieeffizienter, da nur ein Verstärkermodul für zwölf Kanäle erforderlich ist. 

Mehr Speed und Power für Glasfasernetze​ Projekt WESORAM: Ein Flüssigkristallspiegel splittet die Lichtsignale auf und verteilt die Signale flexibel auf verschiedene Glasfaser.Fraunhofer IOF

Optische Glasfasernetze kommen an ihre Leistungsgrenze? Was vor kurzem noch undenkbar schien, wird in Zeiten von autonomem Fahren, 6G-Mobilfunk, Quantenkommunikation oder KI langsam zu einer realen Herausforderung. Die herkömmlichen faseroptischen Systeme sind für diese Zukunftstechnologien nicht mehr leistungsstark genug.

Schon heute nutzen Glasfasernetze Techniken wie das Wellenlängen-Multiplexing (DWDM), um den ständig steigenden Bedarf an höheren Bandbreiten zu decken. Dabei wird Licht, das als Träger für den Datenstrom fungiert, mithilfe eines optischen Schalters in mehrere Frequenzen (Farben) gesplittet. Allerdings stößt das Verfahren langsam an seine Grenzen, da nur ein begrenztes Frequenz-, beziehungsweise Farbspektrum nutzbar ist.

Mehr Fasern parallel nutzen

Um die Leistungsfähigkeit der Glasfasernetze weiter zu steigern, hatten Forscher des Fraunhofer IOF folgende Idee: Warum eingehende Lichtsignale nur in verschiedene Frequenzen/Farben aufsplitten? Warum kann man ein Lichtsignal und damit den Datenstrom nicht auch auf verschiedene, separate Glasfasern aufsplitten?

Aus dem Gedankenspiel entstand WESORAM – ein wellenlängenselektiver Schalter für optisches Raum-Multiplexing. Dazu haben die Forscher zunächst den Schaltmechanismus eines LCoS-Schalters so flexibilisiert, dass er die Weiterleitung des Datenstroms in beliebige Fasern ermöglicht.

Raum-Multiplexing

Beim klassischen DWDM schickt ein Flüssigkristallspiegel (LCoS, Liquid Crystal on Silicon) die Lichtsignale an die Ausgangsfaser weiter, nachdem sie zuvor durch ein spektrometrisches Gitter in verschiedene Wellenlängen/Farben aufgeteilt wurden. Bei WESORAM wird nun das eingehende Lichtsignal – nachdem es zuvor im Gitter aufgesplittet wurde – von dem Flüssigkristallspiegel auf verschiedene Fasern geschickt.

Das Wellenlängenmultiplexverfahren wird also zu einem Raummultiplexverfahren ausgeweitet. Ergänzend zum Prinzip „mehrere-Frequenzen-eine-Faser“ ist damit auch das Prinzip „eine-Frequenz-mehrere-Fasern“ anwendbar.

Verdopplung der Kapazität

Den Forschern gelang es so, die Signale von acht Eingangskanälen beliebig auf 16 Ausgangskanäle zu schicken. „Durch diese Kreuzverschaltung steigt die Kapazität der Netze, denn das Senden und Weiterleiten der Datenströme ist viel flexibler. Das ist besonders nützlich, wenn die Daten über längere Strecken, etwa zwischen Städten, geschickt werden“, beschreibt Steffen Trautmann, Projektleiter und Experte für optische Systeme am Fraunhofer IOF, einen Vorteil des Verfahrens.

Projekt Multi-Cap: Der Verstärker kann die Signale in bis zu zwölf Datenkanäle in einem Faserstrang verstärken.
Fraunhofer IOF

Ein weiterer Vorteil besteht darin, dass insgesamt weniger optische Schalter für das Glasfasernetz benötigt werden. Dadurch sinken die Kosten bei der Installation und im laufenden Betrieb.

Mehr Datenpakete

Gleichzeitig gelang es den Wissenschaftlern, die Lichtfrequenz des Datenstroms um den Faktor 4 schmalbandiger zu gestalten. Damit sind die Datenpakete dementsprechend kleiner. So lassen sich viel mehr Datenpakete gleichzeitig durch die Lichtleiter auf die Reise schicken – sprich die Latenz sinkt und die Geschwindigkeit steigt.

Ergänzt wird WESORAM durch das Projekt Multi-Cap. Hier arbeiten die Forscher daran, die Zahl der Kanäle für die parallele Datenübertragung zu erhöhen. Klassische Glasfaser enthalten einen Datenkanal und einen Signalkern, Mehrkernfasern dagegen nutzen mehrere Kerne für die Datenübertragung. Obwohl diese Kabel viel mehr Leiter enthalten, sind sie kaum dicker. Das Team am Fraunhofer IOF hat die für Mehrkernfasern nötigen Signalverstärker entwickelt. Diese können bis zu zwölf Kanäle gleichzeitig bedienen und liefern eine Verstärkung von mehr als 20 dB pro Kanal. Die Technik ist so deutlich energieeffizienter, da nur ein Verstärkermodul für zwölf Kanäle erforderlich ist.

Mehr Speed und Power für Glasfasernetze​ Weiterlesen »

8 Tipps, um Kubernetes besser zu stemmen​

Allgemein

So sollte sich ein Kubernetes-Umstieg anfühlen. I’m Friday | shutterstock.com Die Container-Orchestrierungsplattform Kubernetes erfreut sich im Unternehmensumfeld steigender Beliebtheit. Die Open-Source-Lösung unterstützt dabei, Container-basierte Workloads und Services automatisiert bereitzustellen und zu managen. Lee Sustar, Principal Analyst bei Forrester Research, ordnet ein: „In den letzten Jahren haben sich Kubernetes und andere Cloud-native Technologien zum Referenzpunkt für die Unternehmens-IT entwickelt, auch wenn die meisten Workloads noch einige Zeit auf virtuellen Maschinen [VMs] laufen werden. Inzwischen halten jedoch bereits neue Technologien wie KubeVirt Einzug in Produktionsumgebungen, die es ermöglichen, VMs auf Kubernetes auszuführen.“ Zudem veranlassten die (berechtigten) Sorgen mit Blick auf mögliche Preiserhöhungen bei VMware deren Bestandkundschaft dazu, sich nach Alternativen umzusehen, so der Analyst. Heißt diese Alternative Kubernetes, gibt es bessere und schlechtere Methoden, um auf die quelloffene Container-Orchestrierungsplattform umzusteigen und sie zu nutzen. Deswegen haben wir einige Experten gefragt: Wie können Unternehmen sicherstellen, Kubernetes erfolgreich einzuführen und einzusetzen? 1. Langsam angehen lassen Es ist keine Seltenheit, dass sich Unternehmen Hals über Kopf in eine umfassende Implementierung stürzen. Fehlt dabei eine Strategie – oder gute Gründe, es überhaupt zu tun – steigt die Wahrscheinlichkeit, dass das Unterfangen scheitert. Nach Erfahrung von Bob Killen, technischer Programmmanager bei der Cloud Native Computing Foundation (CNCF), gestaltet sich das mit Blick auf Kubernetes ähnlich: „Viele Unternehmen migrieren überstürzt und führen Prozesse ein, unterschätzen dabei aber die Zeit, die investiert werden muss, um ein solches Projekt auch richtig umzusetzen.“ Der Experte empfiehlt Unternehmen deswegen, einen Gang runterzuschalten: „Überstürzen Sie nichts. Fangen Sie klein an, iterieren Sie und geben Sie allen Beteiligten genug Raum, um zu lernen. Beginnen Sie idealerweise mit einer unkritischen Testapplikation‚ anhand derer Sie die Aspekte des Anwendungs- und Cluster-Lebenszyklus zusammen mit den operativen Day-Two-Aufgaben durchexerzieren können.“ 2. Open-Source-Kultur leben Sich selbst an Open-Source-Projekten im Bereich Kubernetes zu beteiligen, kann Unternehmen dabei helfen, aufkeimende Probleme im Blick zu behalten. „Wenn Sie Open Source in kritischen Teilen Ihres Stacks einsetzen, können Sie das Risiko bei der Nutzung dieser Projekte direkt verringern, indem Sie sich an Upstream-Projekten beteiligen“, empfiehlt Killen und fügt hinzu, dass das Engagement auch nicht unbedingt groß ausfallen muss: “Man muss nicht unbedingt Code beisteuern, um ein vertrauenswürdiger Kontributor zu werden. Es gibt diverse andere Möglichkeiten. Wichtig ist, dabei zu sein und Vertrauen aufzubauen.“ Dieser immaterielle Wert dürfe nicht unterschätzt werden und könne von großem Nutzen sein – sowohl um Risiken bei der Nutzung zu minimieren als auch um Probleme zu priorisieren, meint der CNCF-Experte. 3. Netzwerken In eine ähnliche Kerbe schlägt auch der Tipp, sich mit anderen Kubernetes-Anwendern auszutauschen. “Oft kann ein Gespräch mit anderen Benutzern, die etwas Ähnliches eingesetzt haben, schnell dabei helfen, Fallstricke oder erlahmte Entscheidungsprozesse zu überwinden, die damit einhergehen, einen vollständigen, Cloud-nativen Stack aufzubauen“, weiß Killen. Dabei spielt die CNCF ebenfalls eine tragende Rolle: Die Non-Profit-Organisation veranstaltet beispielsweise regelmäßig Kubernetes Community Days. Auf diesen Events, die weltweit an diversen Standorten stattfinden, kommen Anwender und Technologieexperten aus der Open-Source- und Cloud-Native-Community zusammen, um sich weiterzubilden, Partnerschaften zu schmieden und sich zu vernetzen. 4. Investieren Die meisten Organisationen verfügen über ein Skillset, das auf Technologien fokussiert, die älter sind als Kubernetes. „Vor diesem Hintergrund besteht die größte Herausforderung darin, das Team dazu zu bringen, die Grundlagen von Kubernetes zu verstehen, einschließlich Containern, Pods, Services und Deployments“, hält Larry Carvahlo, Berater beim IT-Dienstleister Robust Cloud, fest. Um Kubernetes erfolgreich einzuführen, sei eine neue Organisationskultur nötig, die Schulungen und Kollaboration beinhalte, so der Consultant: „Die Teams müssen sich DevOps-Prinzipien zu eigen machen und die Silos zwischen Developments und Operations einreißen, um Zusammenarbeit und gemeinsame Verantwortung zu fördern.“ Dazu empfiehlt der Berater beispielsweise Workshops und praktische Übungen – sowie, offen zu kommunizieren: „Das hilft den Teams, sich an die schnellen Veränderungen und die Komplexität anzupassen, die Kubernetes-Umgebungen mit sich bringen. Eine Idee wäre beispielsweise, regelmäßige ‚Lunch and Learn‘-Sitzungen anzuberaumen oder Kubernetes-Lerngruppen einzurichten.“ 5. Public Cloud nutzen Laut Forrester-Analyst Sustar könnten Unternehmen, die heute auf Kubernetes umsteigen wollen, massiv von den Best Practices der Early Adopter und den Innovationen im Bereich der Public- und Multi-Cloud profitieren: „Managed Services im Bereich Kubernetes wie sie von Public-Cloud-Anbietern zur Verfügung gestellt werden, kann die ‚Upgrade-Bürden‘ abmildern. Zudem offerieren die großen Cloud-Anbieter inzwischen auch Automatisierung, die auf der Steuerungsebene aufsetzt.“ Die Angebote der Hyperscaler im Überblick: Amazon Web Services: Elastic Kubernetes Service. Microsoft: Azure Kubernetes Service. Google Cloud: Kubernetes Engine. Laut dem Analysten müssten Unternehmen möglichst frühzeitig entscheiden, ob sich ihre Plattform-Teams auf verwaltete und automatisierte Services von Cloud-Anbietern fokussieren oder ihren eigenen Kubernetes-Stack aufbauen sollen. „Organisationen sollten Kubernetes so einfach wie möglich halten, aber Komplexität dort angehen, wo sie unvermeidbar ist. Zu den häufigsten Herausforderungen gehören die Themen Ausfallsicherheit und Integration. Und unabhängig davon, ob der Kubernetes-Stack vorgefertigt oder selbst entwickelt ist, müssen Plattform-Teams ihn für Entwickler optimieren“, gibt Sustar zu bedenken. 6. IaC verinnerlichen Infrastructure as Code (IaC) ermöglicht es, Computing-Infrastrukturen mithilfe von Code bereitzustellen und zu supporten – statt dazu auf manuelle Prozesse und Konfigurationen zu setzen. Das sollten sich Unternehmen und Organisationen zunutze machen, um ihr Infrastrukturmanagement zu automatisieren, empfiehlt IT-Berater Carvalho: „Kubernetes-Umgebungen sind komplex und umfassen oft mehrere Cluster, Knoten und Konfigurationen. Das lässt sich am besten bewältigen, wenn die Infrastruktur automatisiert gemanagt wird.“ Um ihre Infrastruktur deklarativ zu definieren, empfiehlt der IT-Experte Unternehmen Tools wie beispielsweise: Terraform, Ansible und Helm. „Mit diesen Tools können Teams Umgebungen schnell replizieren, Änderungen rückgängig machen und Anwendungen effizient skalieren. Das erleichtert auch den Entwicklungs- und Betriebsteams zusammenzuarbeiten, weil IaC versionskontrolliert ist und wie Anwendungscode überprüft werden kann“, erklärt Carvalho. 7. Observability verankern Kubernetes ist keine Lösung, die man einmal aufsetzt und dann vergessen kann. Die Open-Source-Plattform braucht Monitoring – nur so lässt sich gewährleisten, dass die gesetzten Ziele erreicht werden. An dieser Stelle kommt (Kubernetes) Observability ins Spiel: Sie ermöglicht es, die Performance und das Verhalten von Kubernetes-Clustern in Cloud-nativen Umgebungen zu überwachen und zu analysieren.   „Das vereinfacht es, Kubernetes-Probleme zu beheben, die ansonsten umständlich zu lösen wären“, erklärt Carvahlo und fügt hinzu: “Tools, die Metriken, Protokolle und Traces von Kubernetes-Clustern, -Anwendungen und -Infrastrukturen sammeln, können dazu beitragen, Engpässe zu identifizieren und Fehler frühzeitig zu erkennen.“ Wenn es um konkrete Tools gibt, empfiehlt der Berater zum Beispiel das Open-Source-Tool Prometheus – führt jedoch weitere Optionen ins Feld: „Viele verwenden zentralisierte Protokollierungslösungen wie Elasticsearch und Kibana und setzen auf Jaeger, wenn es um Distributed Tracing geht. Die so gewonnenen Erkenntnisse sparen den IT-Teams Zeit und steigern ihre Effizienz.“ 8. Mit GenAI hebeln Laut Charlotte Dunlap, Forschungsdirektorin beim Beratungsunternehmen Global Data, werden Observability-Plattformen inzwischen auch zunehmend mit generativer KI kombiniert, um umfassende Operational-Monitoring-Services zu realisieren. Das wird Folgen haben, so die Expertin: „KI wird bei der Einführung von Kubernetes künftig eine wichtige Rolle spielen. Zunächst wird die Technologie IT-Mitarbeitern und Entwicklern über intelligente Automatisierungs- und Sicherheitsplattformen zur Verfügung stehen – etwa Microsoft Power Automate und Red Hat Ansible Lightspeed.“ Darüber hinaus nimmt die Chefberaterin auch Signale aus der Security-Branche wahr, Generative AI künftig als Hebel im Bereich Cloud Security Posture Management und Angriffspfadanalyse zu nutzen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

8 Tipps, um Kubernetes besser zu stemmen​ So sollte sich ein Kubernetes-Umstieg anfühlen.
I’m Friday | shutterstock.com

Die Container-Orchestrierungsplattform Kubernetes erfreut sich im Unternehmensumfeld steigender Beliebtheit. Die Open-Source-Lösung unterstützt dabei, Container-basierte Workloads und Services automatisiert bereitzustellen und zu managen.

Lee Sustar, Principal Analyst bei Forrester Research, ordnet ein: „In den letzten Jahren haben sich Kubernetes und andere Cloud-native Technologien zum Referenzpunkt für die Unternehmens-IT entwickelt, auch wenn die meisten Workloads noch einige Zeit auf virtuellen Maschinen [VMs] laufen werden. Inzwischen halten jedoch bereits neue Technologien wie KubeVirt Einzug in Produktionsumgebungen, die es ermöglichen, VMs auf Kubernetes auszuführen.“

Zudem veranlassten die (berechtigten) Sorgen mit Blick auf mögliche Preiserhöhungen bei VMware deren Bestandkundschaft dazu, sich nach Alternativen umzusehen, so der Analyst.

Heißt diese Alternative Kubernetes, gibt es bessere und schlechtere Methoden, um auf die quelloffene Container-Orchestrierungsplattform umzusteigen und sie zu nutzen. Deswegen haben wir einige Experten gefragt:

Wie können Unternehmen sicherstellen, Kubernetes erfolgreich einzuführen und einzusetzen?

1. Langsam angehen lassen

Es ist keine Seltenheit, dass sich Unternehmen Hals über Kopf in eine umfassende Implementierung stürzen. Fehlt dabei eine Strategie – oder gute Gründe, es überhaupt zu tun – steigt die Wahrscheinlichkeit, dass das Unterfangen scheitert.

Nach Erfahrung von Bob Killen, technischer Programmmanager bei der Cloud Native Computing Foundation (CNCF), gestaltet sich das mit Blick auf Kubernetes ähnlich: „Viele Unternehmen migrieren überstürzt und führen Prozesse ein, unterschätzen dabei aber die Zeit, die investiert werden muss, um ein solches Projekt auch richtig umzusetzen.“

Der Experte empfiehlt Unternehmen deswegen, einen Gang runterzuschalten: „Überstürzen Sie nichts. Fangen Sie klein an, iterieren Sie und geben Sie allen Beteiligten genug Raum, um zu lernen. Beginnen Sie idealerweise mit einer unkritischen Testapplikation‚ anhand derer Sie die Aspekte des Anwendungs- und Cluster-Lebenszyklus zusammen mit den operativen Day-Two-Aufgaben durchexerzieren können.“

2. Open-Source-Kultur leben

Sich selbst an Open-Source-Projekten im Bereich Kubernetes zu beteiligen, kann Unternehmen dabei helfen, aufkeimende Probleme im Blick zu behalten.

„Wenn Sie Open Source in kritischen Teilen Ihres Stacks einsetzen, können Sie das Risiko bei der Nutzung dieser Projekte direkt verringern, indem Sie sich an Upstream-Projekten beteiligen“, empfiehlt Killen und fügt hinzu, dass das Engagement auch nicht unbedingt groß ausfallen muss: “Man muss nicht unbedingt Code beisteuern, um ein vertrauenswürdiger Kontributor zu werden. Es gibt diverse andere Möglichkeiten. Wichtig ist, dabei zu sein und Vertrauen aufzubauen.“

Dieser immaterielle Wert dürfe nicht unterschätzt werden und könne von großem Nutzen sein – sowohl um Risiken bei der Nutzung zu minimieren als auch um Probleme zu priorisieren, meint der CNCF-Experte.

3. Netzwerken

In eine ähnliche Kerbe schlägt auch der Tipp, sich mit anderen Kubernetes-Anwendern auszutauschen.

“Oft kann ein Gespräch mit anderen Benutzern, die etwas Ähnliches eingesetzt haben, schnell dabei helfen, Fallstricke oder erlahmte Entscheidungsprozesse zu überwinden, die damit einhergehen, einen vollständigen, Cloud-nativen Stack aufzubauen“, weiß Killen.

Dabei spielt die CNCF ebenfalls eine tragende Rolle: Die Non-Profit-Organisation veranstaltet beispielsweise regelmäßig Kubernetes Community Days. Auf diesen Events, die weltweit an diversen Standorten stattfinden, kommen Anwender und Technologieexperten aus der Open-Source- und Cloud-Native-Community zusammen, um sich weiterzubilden, Partnerschaften zu schmieden und sich zu vernetzen.

4. Investieren

Die meisten Organisationen verfügen über ein Skillset, das auf Technologien fokussiert, die älter sind als Kubernetes.

„Vor diesem Hintergrund besteht die größte Herausforderung darin, das Team dazu zu bringen, die Grundlagen von Kubernetes zu verstehen, einschließlich Containern, Pods, Services und Deployments“, hält Larry Carvahlo, Berater beim IT-Dienstleister Robust Cloud, fest.

Um Kubernetes erfolgreich einzuführen, sei eine neue Organisationskultur nötig, die Schulungen und Kollaboration beinhalte, so der Consultant: „Die Teams müssen sich DevOps-Prinzipien zu eigen machen und die Silos zwischen Developments und Operations einreißen, um Zusammenarbeit und gemeinsame Verantwortung zu fördern.“

Dazu empfiehlt der Berater beispielsweise Workshops und praktische Übungen – sowie, offen zu kommunizieren: „Das hilft den Teams, sich an die schnellen Veränderungen und die Komplexität anzupassen, die Kubernetes-Umgebungen mit sich bringen. Eine Idee wäre beispielsweise, regelmäßige ‚Lunch and Learn‘-Sitzungen anzuberaumen oder Kubernetes-Lerngruppen einzurichten.“

5. Public Cloud nutzen

Laut Forrester-Analyst Sustar könnten Unternehmen, die heute auf Kubernetes umsteigen wollen, massiv von den Best Practices der Early Adopter und den Innovationen im Bereich der Public- und Multi-Cloud profitieren: „Managed Services im Bereich Kubernetes wie sie von Public-Cloud-Anbietern zur Verfügung gestellt werden, kann die ‚Upgrade-Bürden‘ abmildern. Zudem offerieren die großen Cloud-Anbieter inzwischen auch Automatisierung, die auf der Steuerungsebene aufsetzt.“

Die Angebote der Hyperscaler im Überblick:

Amazon Web Services: Elastic Kubernetes Service.

Microsoft: Azure Kubernetes Service.

Google Cloud: Kubernetes Engine.

Laut dem Analysten müssten Unternehmen möglichst frühzeitig entscheiden, ob sich ihre Plattform-Teams auf verwaltete und automatisierte Services von Cloud-Anbietern fokussieren oder ihren eigenen Kubernetes-Stack aufbauen sollen.

„Organisationen sollten Kubernetes so einfach wie möglich halten, aber Komplexität dort angehen, wo sie unvermeidbar ist. Zu den häufigsten Herausforderungen gehören die Themen Ausfallsicherheit und Integration. Und unabhängig davon, ob der Kubernetes-Stack vorgefertigt oder selbst entwickelt ist, müssen Plattform-Teams ihn für Entwickler optimieren“, gibt Sustar zu bedenken.

6. IaC verinnerlichen

Infrastructure as Code (IaC) ermöglicht es, Computing-Infrastrukturen mithilfe von Code bereitzustellen und zu supporten – statt dazu auf manuelle Prozesse und Konfigurationen zu setzen.

Das sollten sich Unternehmen und Organisationen zunutze machen, um ihr Infrastrukturmanagement zu automatisieren, empfiehlt IT-Berater Carvalho: „Kubernetes-Umgebungen sind komplex und umfassen oft mehrere Cluster, Knoten und Konfigurationen. Das lässt sich am besten bewältigen, wenn die Infrastruktur automatisiert gemanagt wird.“

Um ihre Infrastruktur deklarativ zu definieren, empfiehlt der IT-Experte Unternehmen Tools wie beispielsweise:

Terraform,

Ansible und

Helm.

„Mit diesen Tools können Teams Umgebungen schnell replizieren, Änderungen rückgängig machen und Anwendungen effizient skalieren. Das erleichtert auch den Entwicklungs- und Betriebsteams zusammenzuarbeiten, weil IaC versionskontrolliert ist und wie Anwendungscode überprüft werden kann“, erklärt Carvalho.

7. Observability verankern

Kubernetes ist keine Lösung, die man einmal aufsetzt und dann vergessen kann. Die Open-Source-Plattform braucht Monitoring – nur so lässt sich gewährleisten, dass die gesetzten Ziele erreicht werden. An dieser Stelle kommt (Kubernetes) Observability ins Spiel: Sie ermöglicht es, die Performance und das Verhalten von Kubernetes-Clustern in Cloud-nativen Umgebungen zu überwachen und zu analysieren.  

„Das vereinfacht es, Kubernetes-Probleme zu beheben, die ansonsten umständlich zu lösen wären“, erklärt Carvahlo und fügt hinzu: “Tools, die Metriken, Protokolle und Traces von Kubernetes-Clustern, -Anwendungen und -Infrastrukturen sammeln, können dazu beitragen, Engpässe zu identifizieren und Fehler frühzeitig zu erkennen.“

Wenn es um konkrete Tools gibt, empfiehlt der Berater zum Beispiel das Open-Source-Tool Prometheus – führt jedoch weitere Optionen ins Feld: „Viele verwenden zentralisierte Protokollierungslösungen wie Elasticsearch und Kibana und setzen auf Jaeger, wenn es um Distributed Tracing geht. Die so gewonnenen Erkenntnisse sparen den IT-Teams Zeit und steigern ihre Effizienz.“

8. Mit GenAI hebeln

Laut Charlotte Dunlap, Forschungsdirektorin beim Beratungsunternehmen Global Data, werden Observability-Plattformen inzwischen auch zunehmend mit generativer KI kombiniert, um umfassende Operational-Monitoring-Services zu realisieren.

Das wird Folgen haben, so die Expertin: „KI wird bei der Einführung von Kubernetes künftig eine wichtige Rolle spielen. Zunächst wird die Technologie IT-Mitarbeitern und Entwicklern über intelligente Automatisierungs- und Sicherheitsplattformen zur Verfügung stehen – etwa Microsoft Power Automate und Red Hat Ansible Lightspeed.“

Darüber hinaus nimmt die Chefberaterin auch Signale aus der Security-Branche wahr, Generative AI künftig als Hebel im Bereich Cloud Security Posture Management und Angriffspfadanalyse zu nutzen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

8 Tipps, um Kubernetes besser zu stemmen​ Weiterlesen »

Erfolgreich – trotz Firmengründung aus der Not​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?quality=50&strip=all 6156w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Um erfolgreich selbstständig zu agieren oder ein Startup zu gründen, ist es ratsam, im Vorfeld den Markt sowie die Bedürfnisse der Zielgruppe genau zu sondieren – auch wenn ein Gründung notgedrungen erfolgt.Sutthiphong Chandaeng -Shutterstock Die Gründe für eine Selbständigkeit sind erst einmal genauso vielfältig und individuell wie jeder einzelne Mensch, der diesen Schritt bereits gegangen ist. Was sich aber grob einteilen lässt, ist die emotionale Entscheidungsgrundlage: Wurde aus einem positiven Bedürfnis heraus gegründet oder spielen äußere Umstände eine Rolle?   In erster Linie werden viele Menschen aus Gründen der eigenen Freiheit zu Freelancern. Selbstverwirklichung, Ortsunabhängigkeit und der Wunsch, mal die eigene Chefin oder der eigene Chef sein zu können, eigene Projekte verwirklichen und die Kreativität freilaufen lassen. Das sind Gründe, die aus einem positiven Bedürfnis heraus entstanden sind.  Aber es gibt auch fremdbestimmte Ursachen für eine Selbständigkeit:   – Fehlende Vereinbarkeit von Beruf und Familie: Es ist manchmal noch immer so, dass sich eine Festanstellung nicht mit den Bedürfnissen der ganzen Familie vereinbaren lässt. Dabei geht es nicht nur um eine flexiblere Zeiteinteilung, sondern auch um Karriere- und Weiterbildungschancen, die in starren Strukturen eventuell verwehrt bleiben.  – Krisen: Wirtschaftskrisen, aber auch die Pandemie führ(t)en zu Arbeitslosigkeit – für die Betroffenen meist komplett unvorhersehbar. Da ganze Wirtschaftszweige betroffen sein können, ist es kompliziert, eine erneute Festanstellung im jeweiligen Bereich zu finden.  – Unzufriedenheit im Job bis hin zum Burnout: Gewisse Strukturen lassen kaum Spielraum für Individualität. Zudem ist es für manche Menschen schwer, sich ins als Norm geltende Gefüge zu pressen und so zu funktionieren, wie es die klassische Arbeitswelt von ihnen erwartet.  Die Ausgangslage hier ist das Gründen aus Verzweiflung. Das bedeutet keinesfalls, dass so eine Selbständigkeit weniger wertvoll, weniger wichtig oder weniger erfolgreich ist. Es ist nur so, dass in dem Fall das Fundament etwas stabiler gebaut werden muss. Um langfristig erfolgreich selbständig zu sein, hilft eine solide und stabile Basis, auf der sich weitere Säulen und Ebenen aufbauen lassen.  Folgende Anregungen können dabei helfen:  Tipp 1: Zielsetzung Die Zielsetzung ist der erste Schritt, das Fundament: Was soll bis wann erreicht werden? Nur wer weiß, wo er zum Beispiel mit dem Online-Business hin möchte, und nur wer sich auch Ziele setzt, wird erfolgreich selbständig sein. Es ist dabei wichtig, mit realistischen (lang-, mittel- und kurzfristigen) Zielen zu arbeiten und sicherzustellen, dass sie auch erreichbar sind. Der Fokus bei der Zielsetzung sollte nicht nur auf die monetäre Situation gerichtet sein, es geht auch darum, sinnstiftend arbeiten zu können.  Tipp 2: Marktanalyse Wie gut kennt man den Markt, in dem gegründet werden soll? Wie gut sind der Wettbewerb und die Zielgruppe, die sich in diesem Markt bewegt, bekannt? Es ist wichtig, den eigenen Markt richtig gut zu verstehen, anstatt nach Bauchgefühl zu handeln.  Tipp 3: Zielgruppe Was will die eigene Kundschaft wirklich? Diese Frage ist wichtig, weil es nicht immer das ist, was man denkt. Schließlich sollte das eigene Angebot an den Bedürfnissen der Zielgruppe orientiert sein. Ohne die Kundinnen sowie Kunden und ihre Herausforderungen zu kennen, ist eine zielgerichtete Kommunikation mit ihnen, zum Beispiel über Social Media oder Newslettern, nicht möglich.   Tipp 4: Positionierung Hat man sich klar und wiedererkennbar im Markt positioniert? Dies ist wichtig, um für die Kunden unverwechselbar zu sein. Sich deutlich mit dem eigenen Angebot von der Konkurrenz abzugrenzen und das eigene Alleinstellungsmerkmal herauszustellen, ist sehr wichtig. Die Ergebnisse der Marktanalyse von Tipp zwei helfen dabei, die richtige Positionierung zu finden.   Tipp 5: Angebotsentwicklung Eine erfolgreiche Selbständigkeit ist ohne ein richtig gutes Angebot nicht möglich. Die Entwicklung eines solchen Angebots sollte also gut überlegt sein. Dieses darf zu Beginn auch gern kostenfrei sein, zum Beispiel als Beta-Angebot. Hierüber können Erfahrungen, Feedback und Testimonials gesammelt werden und man erfährt, was gut funktioniert und was nicht. Man gewinnt Klarheit über den Preis, über die Zielgruppenansprache, über Möglichkeiten der Perfektionierung und nötige Veränderungen.  Tipp 6: Marketing-Strategie Die Marketing-Strategie baut auf den Zielen auf. Was braucht es, um diese Ziele zu erreichen? Welche Marketing-Kanäle sollten genutzt werden? Welche Kanäle nutzt die Zielgruppe? Über welche Kanäle sind die Wunschkunden am besten zu erreichen?  Das heißt, die Zielgruppen-Orientierung der eigenen Aktivitäten – zum Beispiel Posts via Social Media oder die Aufbereitung der Newsletter-Inhalte – ist entscheidend für eine erfolgreiche Kommunikation. Die Zielgruppe möchte eine Lösung für ihre aktuelle Herausforderung. Mit der korrekten Marketing-Strategie zeigt man ihnen, dass man die richtige Person für sie ist.  Tipp 7: Community-Aufbau Ohne Community ist es schwerer, Angebote zu erstellen, die auch gekauft werden. Denn ein gut funktionierendes Netzwerk macht es leichter, neues Angebot anzunehmen, auszutesten und ehrlich zu bewerten.   Eine Community aufzubauen, wird oft gleichgesetzt mit Tausenden von Followerinnen und Followerinnen. Aber das ist nicht der Fall. Es geht vielmehr darum, eine aktive Community zu haben, mit der man sich austauscht und eine persönliche Beziehung aufbaut. Wir brauchen Menschen, die an uns glauben, die uns motivieren und unterstützen. Man braucht Gleichgesinnte, also Menschen, die ähnliche Ziele haben – Menschen, die groß denken und die vielleicht sogar schon ein Stückchen weiter sind. Eine echte Community.  Ganz besonders wichtig ist, dass man mit dem richtigen Mindset durchstartet und dem Alltag Struktur gibt. Vor allem, wenn man aus Verzweiflung gründet, kann es sonst nämlich schnell passieren, dass Herausforderungen unlösbar erscheinen und limitierende Glaubenssätze zur eigenen Realität werden.  

Erfolgreich – trotz Firmengründung aus der Not​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?quality=50&strip=all 6156w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Rakete.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Um erfolgreich selbstständig zu agieren oder ein Startup zu gründen, ist es ratsam, im Vorfeld den Markt sowie die Bedürfnisse der Zielgruppe genau zu sondieren – auch wenn ein Gründung notgedrungen erfolgt.Sutthiphong Chandaeng -Shutterstock

Die Gründe für eine Selbständigkeit sind erst einmal genauso vielfältig und individuell wie jeder einzelne Mensch, der diesen Schritt bereits gegangen ist. Was sich aber grob einteilen lässt, ist die emotionale Entscheidungsgrundlage: Wurde aus einem positiven Bedürfnis heraus gegründet oder spielen äußere Umstände eine Rolle?  

In erster Linie werden viele Menschen aus Gründen der eigenen Freiheit zu Freelancern. Selbstverwirklichung, Ortsunabhängigkeit und der Wunsch, mal die eigene Chefin oder der eigene Chef sein zu können, eigene Projekte verwirklichen und die Kreativität freilaufen lassen. Das sind Gründe, die aus einem positiven Bedürfnis heraus entstanden sind. 

Aber es gibt auch fremdbestimmte Ursachen für eine Selbständigkeit:  

– Fehlende Vereinbarkeit von Beruf und Familie: Es ist manchmal noch immer so, dass sich eine Festanstellung nicht mit den Bedürfnissen der ganzen Familie vereinbaren lässt. Dabei geht es nicht nur um eine flexiblere Zeiteinteilung, sondern auch um Karriere- und Weiterbildungschancen, die in starren Strukturen eventuell verwehrt bleiben. 

– Krisen: Wirtschaftskrisen, aber auch die Pandemie führ(t)en zu Arbeitslosigkeit – für die Betroffenen meist komplett unvorhersehbar. Da ganze Wirtschaftszweige betroffen sein können, ist es kompliziert, eine erneute Festanstellung im jeweiligen Bereich zu finden. 

– Unzufriedenheit im Job bis hin zum Burnout: Gewisse Strukturen lassen kaum Spielraum für Individualität. Zudem ist es für manche Menschen schwer, sich ins als Norm geltende Gefüge zu pressen und so zu funktionieren, wie es die klassische Arbeitswelt von ihnen erwartet. 

Die Ausgangslage hier ist das Gründen aus Verzweiflung. Das bedeutet keinesfalls, dass so eine Selbständigkeit weniger wertvoll, weniger wichtig oder weniger erfolgreich ist. Es ist nur so, dass in dem Fall das Fundament etwas stabiler gebaut werden muss. Um langfristig erfolgreich selbständig zu sein, hilft eine solide und stabile Basis, auf der sich weitere Säulen und Ebenen aufbauen lassen. 

Folgende Anregungen können dabei helfen: 

Tipp 1: Zielsetzung

Die Zielsetzung ist der erste Schritt, das Fundament: Was soll bis wann erreicht werden? Nur wer weiß, wo er zum Beispiel mit dem Online-Business hin möchte, und nur wer sich auch Ziele setzt, wird erfolgreich selbständig sein. Es ist dabei wichtig, mit realistischen (lang-, mittel- und kurzfristigen) Zielen zu arbeiten und sicherzustellen, dass sie auch erreichbar sind. Der Fokus bei der Zielsetzung sollte nicht nur auf die monetäre Situation gerichtet sein, es geht auch darum, sinnstiftend arbeiten zu können. 

Tipp 2: Marktanalyse

Wie gut kennt man den Markt, in dem gegründet werden soll? Wie gut sind der Wettbewerb und die Zielgruppe, die sich in diesem Markt bewegt, bekannt? Es ist wichtig, den eigenen Markt richtig gut zu verstehen, anstatt nach Bauchgefühl zu handeln. 

Tipp 3: Zielgruppe

Was will die eigene Kundschaft wirklich? Diese Frage ist wichtig, weil es nicht immer das ist, was man denkt. Schließlich sollte das eigene Angebot an den Bedürfnissen der Zielgruppe orientiert sein. Ohne die Kundinnen sowie Kunden und ihre Herausforderungen zu kennen, ist eine zielgerichtete Kommunikation mit ihnen, zum Beispiel über Social Media oder Newslettern, nicht möglich.  

Tipp 4: Positionierung

Hat man sich klar und wiedererkennbar im Markt positioniert? Dies ist wichtig, um für die Kunden unverwechselbar zu sein. Sich deutlich mit dem eigenen Angebot von der Konkurrenz abzugrenzen und das eigene Alleinstellungsmerkmal herauszustellen, ist sehr wichtig. Die Ergebnisse der Marktanalyse von Tipp zwei helfen dabei, die richtige Positionierung zu finden.  

Tipp 5: Angebotsentwicklung

Eine erfolgreiche Selbständigkeit ist ohne ein richtig gutes Angebot nicht möglich. Die Entwicklung eines solchen Angebots sollte also gut überlegt sein. Dieses darf zu Beginn auch gern kostenfrei sein, zum Beispiel als Beta-Angebot. Hierüber können Erfahrungen, Feedback und Testimonials gesammelt werden und man erfährt, was gut funktioniert und was nicht. Man gewinnt Klarheit über den Preis, über die Zielgruppenansprache, über Möglichkeiten der Perfektionierung und nötige Veränderungen. 

Tipp 6: Marketing-Strategie

Die Marketing-Strategie baut auf den Zielen auf. Was braucht es, um diese Ziele zu erreichen? Welche Marketing-Kanäle sollten genutzt werden? Welche Kanäle nutzt die Zielgruppe? Über welche Kanäle sind die Wunschkunden am besten zu erreichen? 

Das heißt, die Zielgruppen-Orientierung der eigenen Aktivitäten – zum Beispiel Posts via Social Media oder die Aufbereitung der Newsletter-Inhalte – ist entscheidend für eine erfolgreiche Kommunikation. Die Zielgruppe möchte eine Lösung für ihre aktuelle Herausforderung. Mit der korrekten Marketing-Strategie zeigt man ihnen, dass man die richtige Person für sie ist. 

Tipp 7: Community-Aufbau

Ohne Community ist es schwerer, Angebote zu erstellen, die auch gekauft werden. Denn ein gut funktionierendes Netzwerk macht es leichter, neues Angebot anzunehmen, auszutesten und ehrlich zu bewerten.  

Eine Community aufzubauen, wird oft gleichgesetzt mit Tausenden von Followerinnen und Followerinnen. Aber das ist nicht der Fall. Es geht vielmehr darum, eine aktive Community zu haben, mit der man sich austauscht und eine persönliche Beziehung aufbaut. Wir brauchen Menschen, die an uns glauben, die uns motivieren und unterstützen. Man braucht Gleichgesinnte, also Menschen, die ähnliche Ziele haben – Menschen, die groß denken und die vielleicht sogar schon ein Stückchen weiter sind. Eine echte Community. 

Ganz besonders wichtig ist, dass man mit dem richtigen Mindset durchstartet und dem Alltag Struktur gibt. Vor allem, wenn man aus Verzweiflung gründet, kann es sonst nämlich schnell passieren, dass Herausforderungen unlösbar erscheinen und limitierende Glaubenssätze zur eigenen Realität werden. 

Erfolgreich – trotz Firmengründung aus der Not​ Weiterlesen »

So bleibt Ihr Code halluzinationsfrei​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?quality=50&strip=all 4493w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Kann KI ungehindert halluzinieren, droht (nicht nur) Softwareentwicklern ein Horrortrip.svtdesign | shutterstock.com Schon seit jeher wird generative künstliche Intelligenz (Generative AI; GenAI) von einem Halluzinationsproblem geplagt. Was mit achtfingerigen Händen und Klebstoff-haltigen Pizzagrundlagen begann, setzt sich inzwischen längst im Entwicklerumfeld fort, mit potenziell verheerenden Folgen. Weil Code-Assistenten auf KI-Basis inzwischen immer häufiger zum Einsatz kommen, ist es für Developer essenziell, zu wissen, wie sie ihren Code frei von KI-Halluzinationen halten. Dieser Artikel gibt Ihnen deshalb einige Tipps an die Hand, um: KI-Halluzinationen bestmöglich von vorneherein zu verhindern, und bereits im Code existierende aufzuspüren.    Halluzinationen verhindern Folgende Vorsichtsmaßnahmen können dazu beitragen, Halluzinations-Probleme in KI-generiertem Code zu reduzieren. 1. Klare Prompts schreiben Die Weisheit „Garbage in, Garbage out“ ist so alt wie die Informatik selbst – und gilt auch für Large Language Models (LLMs). Ganz besonders, wenn Sie dabei Code durch Prompts generieren – statt etwa mit einem Autocomplete-Assistant. Andrew Sellers, Head of Technology Strategy bei Confluent, empfiehlt an dieser Stelle: „Stellen Sie Fragen mit begrenztem Umfang und überprüfen Sie die Ergebnisse besonders kritisch. Die Nutzungsdaten der KI-Coding-Tools deuten darauf hin, dass die resultierenden Outputs bei solchen Fragen tendenziell akkurater sind. Kleinere Codeblöcke zu untersuchen, dürfte den meisten Entwicklern zudem erleichtern, Fehler zu erkennen.“ 2. Quellen überprüfen Große Sprachmodelle sind unter anderem berüchtigt für ihre Zitat-, respektive Referenz-Halluzinationen im Rahmen von Schulaufsätzen oder Gerichtsprozessen. Inzwischen haben Code-spezifische Tools jedoch Fortschritte gemacht, um so etwas zu verhindern, wie Monojit Banerjee, AI Platform Lead bei Salesforce, betont: „Viele Modelle unterstützen inzwischen Zitierfunktionen. Um Halluzinationen zu minimieren, sollten Entwickler diese Features entsprechend nutzen und die KI beispielsweise nach API-Referenzen fragen.“ 3. Software aktuell halten Die meisten Chatbots tun sich schwer damit, das Fußball-Ergebnis von gestern Abend richtig wiederzukäuen. Die gleichen Limitationen kommen zum Zug, wenn es darum geht, mit Software-Tools und den zugehörigen Updates Schritt halten.    „Ob ein Tool halluziniert oder verzerrte Ergebnisse liefert, lässt sich unter anderem anhand seiner Wissensgrenzen vorhersagen“, konstatiert Stoyan Mitov, CEO des Entwicklungsspezialisten Dreamix, und fügt hinzu: “Wenn Sie die neuesten Bibliotheken oder Frameworks nutzen möchten, das Tool diese aber nicht kennt, steigt die Wahrscheinlichkeit für fehlerhafte Outputs.“ 4. Modelle richtig trainieren Laut Travis Rehl, CTO beim AWS-Spezialisten Innovative Solutions, funktionieren GenAI-Tools nur dann gut, wenn sie entsprechenden Kontext erhalten: „Sie müssen das LLM anweisen, bestimmte Muster einzuhalten oder konsistente Methoden zu nutzen. Ansonsten können sich subtile Halluzinationen in Form von Anti-Patterns in den Code einschleichen“, warnt der Technologieentscheider.   Ein Konzept, das Abhilfe schafft, ist Retrieval Augmented Generation (RAG), wie Dreamix-CEO Mitov erklärt: „RAG ist eine der effektivsten Grounding-Methoden. Es verbessert die LLM-Outputs, indem es sie mit Daten aus externen Quellen, internen Codebasen oder API-Referenzen in Echtzeit vergleicht.“ Glücklicherweise haben inzwischen diverse KI-Coding-Assistenten bereits RAG-Funktionen an Bord. Halluzinationen aufspüren Trotz dieser Vorsichtsmaßnahmen können Halluzinationen „durchrutschen“. Die gute Nachricht: Im Code sind diese oft leichter zu erkennen als in Applikationen. Schließlich ist dieser ausführbar und kann damit auch getestet werden. 1. KI-Code mit KI evaluieren Es mag seltsam klingen, aber KI-Assistenten eignen sich tatsächlich sehr gut, um KI-generierten Code auf Halluzinationen zu untersuchen. Daniel Lynch, CEO beim Marketingunternehmen Empathy First Media, schlägt dazu beispielsweise vor: „Schreiben Sie eine Begleitdokumentation für den Code, damit die KI diesen in einer neuen Instanz evaluieren kann – und ermittelt, ob es den Anforderungen der angepeilten Use Cases entspricht.“ 2. Menschliche Steuerung beibehalten Menschliche Expertise ist in den Augen vieler IT- und Entwicklungsprofis die letzte Verteidigungslinie gegen KI-Halluzinationen. Auch Mithilesh Ramaswamy, Senior Engineer bei Microsoft, sieht es als erfolgskritisch an, dass menschliche Developer die Zügel in der Hand behalten: „KI sollte als Leitfaden dienen – nicht als Quelle der Wahrheit. Entsprechend sollten Sie KI-generierten Code als Vorschlag betrachten und nicht als Ersatz für menschliche Expertise.“ Das sollte sich jedoch nicht nur auf die Programmierarbeit beziehen, sondern auch auf den Code selbst, wie CTO Rehl nahelegt: „Wenn Sie mit einer Codebasis nicht vertraut sind, kann es schwierig sein, Halluzinationen auf die Schliche zu kommen.“ Dagegen helfe in erster Linie eine enge Hands-On-Beziehung mit dem eigenen Code, konstatiert der Technologieentscheider. 3. Code testen Glücklicherweise können auch Tools und Techniken KI-Halluzinationen erkennen, die in den meisten Unternehmen bereits zum Einsatz kommen – um menschliche Fehler zu identifizieren. „Entwicklungsteams sollten weiterhin Pull Requests und Code Reviews durchführen. So, als ob der Code von Menschen geschrieben worden wäre“, meint Confluent-Experte Sellers. Für Entwickler sei es verlockend, KI-Tools in erster Linie dazu zu nutzen, mehr zu automatisieren und den Continuous-Delivery-Ansatz zu realisieren – das sei zwar löblich, allerdings sei es dabei auch enorm wichtig, entsprechende Qualitätssicherungskontrollen zu priorisieren.     „Man kann gar nicht genug betonen, wie wichtig es ist, während des gesamten Entwicklungszyklus gute Linting-Tools und SAST-Scanner zu nutzen“, hält Brett Smith, Distinguished Software Developer bei SAS, fest. Er fügt hinzu: „IDE-Plugins, CI-Integrationen und Pull-Requests sind das absolute Minimum, um zu verhindern, dass Halluzinationen in die Produktion gelangen.“ Laut Salesforce-Manager Banerjee ist auch eine ausgereifte DevOps-Pipeline unerlässlich, bei der jede Codezeile einem Unit Test unterzogen wird: “Die Pipeline befördert den Code erst dann in die Staging- und Produktionsphase, wenn Tests und Builds bestanden wurden.“ 4. KI-generierten Code hervorheben Um Code besser sichtbar zu machen, der von KI erzeugt wurde, hat Devansh Agarwal, Machine Learning Engineer bei AWS, einen Trick auf Lager: „Nutzen Sie das Code-Review-Interface, um die Teil der Codebasis zu akzentuieren, die KI-generiert sind.“     Das hilft dem ML-Experten zufolge nicht nur dabei, Halluzinationen zu erkennen: „Es ist unter Umständen auch eine großartige Lernmöglichkeit für alle im Team. Manchmal leisten diese Tools nämlich großartige Arbeit, die es sich lohnt nachzuahmen.“ Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So bleibt Ihr Code halluzinationsfrei​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?quality=50&strip=all 4493w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Kann KI ungehindert halluzinieren, droht (nicht nur) Softwareentwicklern ein Horrortrip.svtdesign | shutterstock.com

Schon seit jeher wird generative künstliche Intelligenz (Generative AI; GenAI) von einem Halluzinationsproblem geplagt. Was mit achtfingerigen Händen und Klebstoff-haltigen Pizzagrundlagen begann, setzt sich inzwischen längst im Entwicklerumfeld fort, mit potenziell verheerenden Folgen.

Weil Code-Assistenten auf KI-Basis inzwischen immer häufiger zum Einsatz kommen, ist es für Developer essenziell, zu wissen, wie sie ihren Code frei von KI-Halluzinationen halten. Dieser Artikel gibt Ihnen deshalb einige Tipps an die Hand, um:

KI-Halluzinationen bestmöglich von vorneherein zu verhindern, und

bereits im Code existierende aufzuspüren.   

Halluzinationen verhindern

Folgende Vorsichtsmaßnahmen können dazu beitragen, Halluzinations-Probleme in KI-generiertem Code zu reduzieren.

1. Klare Prompts schreiben

Die Weisheit „Garbage in, Garbage out“ ist so alt wie die Informatik selbst – und gilt auch für Large Language Models (LLMs). Ganz besonders, wenn Sie dabei Code durch Prompts generieren – statt etwa mit einem Autocomplete-Assistant.

Andrew Sellers, Head of Technology Strategy bei Confluent, empfiehlt an dieser Stelle: „Stellen Sie Fragen mit begrenztem Umfang und überprüfen Sie die Ergebnisse besonders kritisch. Die Nutzungsdaten der KI-Coding-Tools deuten darauf hin, dass die resultierenden Outputs bei solchen Fragen tendenziell akkurater sind. Kleinere Codeblöcke zu untersuchen, dürfte den meisten Entwicklern zudem erleichtern, Fehler zu erkennen.“

2. Quellen überprüfen

Große Sprachmodelle sind unter anderem berüchtigt für ihre Zitat-, respektive Referenz-Halluzinationen im Rahmen von Schulaufsätzen oder Gerichtsprozessen.

Inzwischen haben Code-spezifische Tools jedoch Fortschritte gemacht, um so etwas zu verhindern, wie Monojit Banerjee, AI Platform Lead bei Salesforce, betont: „Viele Modelle unterstützen inzwischen Zitierfunktionen. Um Halluzinationen zu minimieren, sollten Entwickler diese Features entsprechend nutzen und die KI beispielsweise nach API-Referenzen fragen.“

3. Software aktuell halten

Die meisten Chatbots tun sich schwer damit, das Fußball-Ergebnis von gestern Abend richtig wiederzukäuen. Die gleichen Limitationen kommen zum Zug, wenn es darum geht, mit Software-Tools und den zugehörigen Updates Schritt halten.   

„Ob ein Tool halluziniert oder verzerrte Ergebnisse liefert, lässt sich unter anderem anhand seiner Wissensgrenzen vorhersagen“, konstatiert Stoyan Mitov, CEO des Entwicklungsspezialisten Dreamix, und fügt hinzu: “Wenn Sie die neuesten Bibliotheken oder Frameworks nutzen möchten, das Tool diese aber nicht kennt, steigt die Wahrscheinlichkeit für fehlerhafte Outputs.“

4. Modelle richtig trainieren

Laut Travis Rehl, CTO beim AWS-Spezialisten Innovative Solutions, funktionieren GenAI-Tools nur dann gut, wenn sie entsprechenden Kontext erhalten: „Sie müssen das LLM anweisen, bestimmte Muster einzuhalten oder konsistente Methoden zu nutzen. Ansonsten können sich subtile Halluzinationen in Form von Anti-Patterns in den Code einschleichen“, warnt der Technologieentscheider.  

Ein Konzept, das Abhilfe schafft, ist Retrieval Augmented Generation (RAG), wie Dreamix-CEO Mitov erklärt: „RAG ist eine der effektivsten Grounding-Methoden. Es verbessert die LLM-Outputs, indem es sie mit Daten aus externen Quellen, internen Codebasen oder API-Referenzen in Echtzeit vergleicht.“

Glücklicherweise haben inzwischen diverse KI-Coding-Assistenten bereits RAG-Funktionen an Bord.

Halluzinationen aufspüren

Trotz dieser Vorsichtsmaßnahmen können Halluzinationen „durchrutschen“. Die gute Nachricht: Im Code sind diese oft leichter zu erkennen als in Applikationen. Schließlich ist dieser ausführbar und kann damit auch getestet werden.

1. KI-Code mit KI evaluieren

Es mag seltsam klingen, aber KI-Assistenten eignen sich tatsächlich sehr gut, um KI-generierten Code auf Halluzinationen zu untersuchen.

Daniel Lynch, CEO beim Marketingunternehmen Empathy First Media, schlägt dazu beispielsweise vor: „Schreiben Sie eine Begleitdokumentation für den Code, damit die KI diesen in einer neuen Instanz evaluieren kann – und ermittelt, ob es den Anforderungen der angepeilten Use Cases entspricht.“

2. Menschliche Steuerung beibehalten

Menschliche Expertise ist in den Augen vieler IT- und Entwicklungsprofis die letzte Verteidigungslinie gegen KI-Halluzinationen. Auch Mithilesh Ramaswamy, Senior Engineer bei Microsoft, sieht es als erfolgskritisch an, dass menschliche Developer die Zügel in der Hand behalten: „KI sollte als Leitfaden dienen – nicht als Quelle der Wahrheit. Entsprechend sollten Sie KI-generierten Code als Vorschlag betrachten und nicht als Ersatz für menschliche Expertise.“

Das sollte sich jedoch nicht nur auf die Programmierarbeit beziehen, sondern auch auf den Code selbst, wie CTO Rehl nahelegt: „Wenn Sie mit einer Codebasis nicht vertraut sind, kann es schwierig sein, Halluzinationen auf die Schliche zu kommen.“

Dagegen helfe in erster Linie eine enge Hands-On-Beziehung mit dem eigenen Code, konstatiert der Technologieentscheider.

3. Code testen

Glücklicherweise können auch Tools und Techniken KI-Halluzinationen erkennen, die in den meisten Unternehmen bereits zum Einsatz kommen – um menschliche Fehler zu identifizieren.

„Entwicklungsteams sollten weiterhin Pull Requests und Code Reviews durchführen. So, als ob der Code von Menschen geschrieben worden wäre“, meint Confluent-Experte Sellers. Für Entwickler sei es verlockend, KI-Tools in erster Linie dazu zu nutzen, mehr zu automatisieren und den Continuous-Delivery-Ansatz zu realisieren – das sei zwar löblich, allerdings sei es dabei auch enorm wichtig, entsprechende Qualitätssicherungskontrollen zu priorisieren.    

„Man kann gar nicht genug betonen, wie wichtig es ist, während des gesamten Entwicklungszyklus gute Linting-Tools und SAST-Scanner zu nutzen“, hält Brett Smith, Distinguished Software Developer bei SAS, fest. Er fügt hinzu: „IDE-Plugins, CI-Integrationen und Pull-Requests sind das absolute Minimum, um zu verhindern, dass Halluzinationen in die Produktion gelangen.“

Laut Salesforce-Manager Banerjee ist auch eine ausgereifte DevOps-Pipeline unerlässlich, bei der jede Codezeile einem Unit Test unterzogen wird: “Die Pipeline befördert den Code erst dann in die Staging- und Produktionsphase, wenn Tests und Builds bestanden wurden.“

4. KI-generierten Code hervorheben

Um Code besser sichtbar zu machen, der von KI erzeugt wurde, hat Devansh Agarwal, Machine Learning Engineer bei AWS, einen Trick auf Lager: „Nutzen Sie das Code-Review-Interface, um die Teil der Codebasis zu akzentuieren, die KI-generiert sind.“    

Das hilft dem ML-Experten zufolge nicht nur dabei, Halluzinationen zu erkennen: „Es ist unter Umständen auch eine großartige Lernmöglichkeit für alle im Team. Manchmal leisten diese Tools nämlich großartige Arbeit, die es sich lohnt nachzuahmen.“

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So bleibt Ihr Code halluzinationsfrei​ Weiterlesen »

KI erkennt Hautkrebs in 6 Minuten​

Allgemein

Hautkrebsvorsorge mit dem Ganzkörperscanner im iToBoS-Projekt. Fraunhofer HHI Melanome sind für 60 Prozent aller bösartigen Tumor-Neubildungen der Haut verantwortlich. Die Häufigkeit von Melanomen hat in den letzten Jahren stark zugenommen. Sie werden oftmals zu spät erkannt, da Diagnoseverfahren zur Früherkennung arbeits- und kostenintensiv sind. Gute Heilungschancen gibt es bei Hautkrebs, wenn er frühzeitig erkannt wird.. Die bislang angewandten Methoden bei der Vorsorgeuntersuchung sind häufig jedoch nicht nur fehleranfällig, sondern auch sehr zeitaufwändig: Ein Arzt untersucht meist mit einem Dermatoskop die gesamte Haut. Ganzkörper-Screening in sechs Minuten Geradezu revolutionär klingt dagegen, was Fraunhofer mit Partnern jetzt verspricht: In nur sechs Minuten soll der komplette Körper automatisch untersucht werden. Für jede auffällige Veränderung an der Haut werde dann eine Risikobewertung geliefert. Dazu hat Projektpartner Bosch den iToBoS-Ganzkörperscanner entwickelt. iToBoS steht für Intelligent Total Body Scanner for Early Detection of Melanoma und bezieht sich auf ein EU-Projekt, das mit 12,1 Millionen Euro gefördert wird. Der Scanner ist das Herzstück der ebenfalls im Projekt entwickelten, cloudbasierten KI-Diagnoseplattform, in der Gesundheitsdaten aus verschiedenen Quellen wie Krankenakten, Genomdaten und In-vivo-Bildgebung zusammengeführt werden. KI-Assistenten unterstützen Der Scanner untersucht innerhalb von sechs Minuten den gesamten Körper automatisch mithilfe eines kognitiven KI-Assistenten. Dieser nutzt unter anderem KI-Modelle und XAI-Methoden des Fraunhofer HHI (Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut). Das medizinische Fachpersonal erhält dann für jedes einzelne Muttermal eine Risikobewertung. Die hochauflösenden Kameras des Scanners sind mit Flüssigkeitslinsen ausgestattet, die das Design des menschlichen Auges nachahmen. Basierend auf zwei nicht mischbaren Flüssigkeiten mit unterschiedlichem Brechungsindex sollen sie eine noch nie dagewesene Bildqualität erreichen. Für eine hoch personalisierte Diagnose werden die Untersuchungsaufnahmen durch Machine Learning zusammen mit sämtlichen verfügbaren Patientendaten (demographische und Angaben zu UV-Schäden, Risikogruppe etc.) in die KI-Diagnoseplattform mit einem kognitiven KI-Assistententool integriert. Erklärbare KI – XAI Das Zusammenspiel der am Fraunhofer HHI entwickelten XAI-Methoden. Fraunhofer HHI Scans können über einen längeren Zeitraum wiederholt und miteinander verglichen werden, um so die Entwicklung der Leberflecke und mögliche Veränderungen, die auf Hautkrebs hindeuten können, genau zu beobachten. Mehrere spezialisierte, im KI-Assistenten zusammengeführte KI-Algorithmen sind dafür verantwortlich, Muttermale im Zeitverlauf zu identifizieren und zu tracken. Um absolut zuverlässige Diagnosen zu erhalten, müssen die Entscheidungen der KI nachvollziehbar sein. Hierzu kommen im Projekt XAI-Methoden zum Einsatz. Die verwendeten Methoden umfassen: LRP (Layer-Wise Relevance Propagation), CRP (Concept Relevance Propagation), PCX (Prototypical Concept-based Explanations). Mit Hilfe dieser Verfahren machen die Forscher des Fraunhofer HHI die KI-Prognosen erklärbar und decken somit unsichere Problemlösungsstrategien auf. Die Methoden identifizieren und quantifizieren ein breites Spektrum erlernten Entscheidungsverhaltens und erkennen unerwünschte Entscheidungen auch in riesigen Datensätzen. Auf diese Weise beugen sie Modellfehlverhalten vor und sorgen dafür, dass die eingesetzten KI-Systeme zuverlässig und sicher sind. Fehler heraustrainieren Darüber hinaus können die Wissenschaftler des Fraunhofer HHI mit ihrer im Projekt entwickelten R2R-Methode (Reveal to Revise) eventuelle Verhaltensauffälligkeiten und -fehler aus der KI heraustrainieren, indem sie über die Informationen aus ihrer XAI die Daten besser annotieren, um das Gesamtsystem robuster und zuverlässiger zu gestalten. Endziel des Projekts ist die Entwicklung eines holistischen KI-Modells, das mithilfe multimodaler Datensätze verschiedenste Perspektiven auf die Patientinnen und Patienten einnimmt. Langfristig könnte der Ganzkörperscanner auch dafür eingesetzt werden, andere Hauterkrankungen wie Neurodermitis zu erfassen. Die Projektpartner im Überblick: BARCO NV, Canfield Scientific Inc., Coronis Computing SL, Fraunhofer HHI, Fundació Clínic per a la Recerca Biomèdica, IBM Israel – Science and Technology Ltd., Institute for Computer Science and Control (SZTAKI), Isahit SAS, Leibniz Universität Hannover, Melanoma Patient Network Europe, National Technical University of Athens, Optotune AG, Ricoh Spain IT Services SLU, Robert Bosch Española SA, Torus Actions SAS, Trilateral Research Ltd., Università degli Studi di Trieste, University of Queensland, Universitat de Girona (Koordinator), V7 Ltd. 

KI erkennt Hautkrebs in 6 Minuten​ Hautkrebsvorsorge mit dem Ganzkörperscanner im iToBoS-Projekt.
Fraunhofer HHI

Melanome sind für 60 Prozent aller bösartigen Tumor-Neubildungen der Haut verantwortlich. Die Häufigkeit von Melanomen hat in den letzten Jahren stark zugenommen. Sie werden oftmals zu spät erkannt, da Diagnoseverfahren zur Früherkennung arbeits- und kostenintensiv sind. Gute Heilungschancen gibt es bei Hautkrebs, wenn er frühzeitig erkannt wird..

Die bislang angewandten Methoden bei der Vorsorgeuntersuchung sind häufig jedoch nicht nur fehleranfällig, sondern auch sehr zeitaufwändig: Ein Arzt untersucht meist mit einem Dermatoskop die gesamte Haut.

Ganzkörper-Screening in sechs Minuten

Geradezu revolutionär klingt dagegen, was Fraunhofer mit Partnern jetzt verspricht: In nur sechs Minuten soll der komplette Körper automatisch untersucht werden. Für jede auffällige Veränderung an der Haut werde dann eine Risikobewertung geliefert.

Dazu hat Projektpartner Bosch den iToBoS-Ganzkörperscanner entwickelt. iToBoS steht für Intelligent Total Body Scanner for Early Detection of Melanoma und bezieht sich auf ein EU-Projekt, das mit 12,1 Millionen Euro gefördert wird. Der Scanner ist das Herzstück der ebenfalls im Projekt entwickelten, cloudbasierten KI-Diagnoseplattform, in der Gesundheitsdaten aus verschiedenen Quellen wie Krankenakten, Genomdaten und In-vivo-Bildgebung zusammengeführt werden.

KI-Assistenten unterstützen

Der Scanner untersucht innerhalb von sechs Minuten den gesamten Körper automatisch mithilfe eines kognitiven KI-Assistenten. Dieser nutzt unter anderem KI-Modelle und XAI-Methoden des Fraunhofer HHI (Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut). Das medizinische Fachpersonal erhält dann für jedes einzelne Muttermal eine Risikobewertung.

Die hochauflösenden Kameras des Scanners sind mit Flüssigkeitslinsen ausgestattet, die das Design des menschlichen Auges nachahmen. Basierend auf zwei nicht mischbaren Flüssigkeiten mit unterschiedlichem Brechungsindex sollen sie eine noch nie dagewesene Bildqualität erreichen. Für eine hoch personalisierte Diagnose werden die Untersuchungsaufnahmen durch Machine Learning zusammen mit sämtlichen verfügbaren Patientendaten (demographische und Angaben zu UV-Schäden, Risikogruppe etc.) in die KI-Diagnoseplattform mit einem kognitiven KI-Assistententool integriert.

Erklärbare KI – XAI

Das Zusammenspiel der am Fraunhofer HHI entwickelten XAI-Methoden.
Fraunhofer HHI

Scans können über einen längeren Zeitraum wiederholt und miteinander verglichen werden, um so die Entwicklung der Leberflecke und mögliche Veränderungen, die auf Hautkrebs hindeuten können, genau zu beobachten. Mehrere spezialisierte, im KI-Assistenten zusammengeführte KI-Algorithmen sind dafür verantwortlich, Muttermale im Zeitverlauf zu identifizieren und zu tracken.

Um absolut zuverlässige Diagnosen zu erhalten, müssen die Entscheidungen der KI nachvollziehbar sein. Hierzu kommen im Projekt XAI-Methoden zum Einsatz.

Die verwendeten Methoden umfassen:

LRP (Layer-Wise Relevance Propagation),

CRP (Concept Relevance Propagation),

PCX (Prototypical Concept-based Explanations).

Mit Hilfe dieser Verfahren machen die Forscher des Fraunhofer HHI die KI-Prognosen erklärbar und decken somit unsichere Problemlösungsstrategien auf. Die Methoden identifizieren und quantifizieren ein breites Spektrum erlernten Entscheidungsverhaltens und erkennen unerwünschte Entscheidungen auch in riesigen Datensätzen. Auf diese Weise beugen sie Modellfehlverhalten vor und sorgen dafür, dass die eingesetzten KI-Systeme zuverlässig und sicher sind.

Fehler heraustrainieren

Darüber hinaus können die Wissenschaftler des Fraunhofer HHI mit ihrer im Projekt entwickelten R2R-Methode (Reveal to Revise) eventuelle Verhaltensauffälligkeiten und -fehler aus der KI heraustrainieren, indem sie über die Informationen aus ihrer XAI die Daten besser annotieren, um das Gesamtsystem robuster und zuverlässiger zu gestalten. Endziel des Projekts ist die Entwicklung eines holistischen KI-Modells, das mithilfe multimodaler Datensätze verschiedenste Perspektiven auf die Patientinnen und Patienten einnimmt.

Langfristig könnte der Ganzkörperscanner auch dafür eingesetzt werden, andere Hauterkrankungen wie Neurodermitis zu erfassen.

Die Projektpartner im Überblick:

BARCO NV,

Canfield Scientific Inc.,

Coronis Computing SL,

Fraunhofer HHI,

Fundació Clínic per a la Recerca Biomèdica,

IBM Israel – Science and Technology Ltd.,

Institute for Computer Science and Control (SZTAKI),

Isahit SAS,

Leibniz Universität Hannover,

Melanoma Patient Network Europe,

National Technical University of Athens,

Optotune AG,

Ricoh Spain IT Services SLU,

Robert Bosch Española SA,

Torus Actions SAS,

Trilateral Research Ltd.,

Università degli Studi di Trieste,

University of Queensland,

Universitat de Girona (Koordinator),

V7 Ltd.

KI erkennt Hautkrebs in 6 Minuten​ Weiterlesen »

Microsoft EU Data Boundary – wie sicher ist die Datengrenze?​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>US-Hyperscaler wie Microsoft arbeiten mit Hochdruck an Datenschutz-konformen Cloud-Angeboten – doch es bleiben viele Zweifel und Bedenken.artjazz – shutterstock.com Microsoft hat in einem Blogbeitrag bekannt gegeben, sein Projekt “EU Data Boundary” für die Microsoft Cloud abgeschlossen zu haben. Der Softwarekonzern hatte seine Bemühungen um eine sichere, den europäischen Datenschutzregeln konforme Cloud-Infrastruktur bereits 2022 angekündigt und in den darauffolgenden Jahren in verschiedenen Phasen vorangetrieben. Nun vermeldeten Julie Brill, Corporate Vice President and Chief Privacy Officer, und Paul Lorimer, Corporate Vice President, Microsoft 365, den Abschluss der dritten und letzten Phase der Microsoft-Initiative. Die Initiative ermögliche es den europäischen Nutzern aus dem kommerziellen und öffentlichen Sektor, “ihre pseudonymisierten personenbezogenen Kundendaten für die zentralen Cloud-Dienste von Microsoft – einschließlich Microsoft 365, Dynamics 365, Power Platform und der meisten Azure-Dienste – innerhalb der EU- und EFTA-Regionen (Europäische Freihandelszone) zu speichern und zu verarbeiten”, schrieben die Microsoft-Manager. “Darüber hinaus wird Microsoft Professional Services-Daten aus technischen Support-Interaktionen für die Kern-Cloud-Dienste innerhalb der EU- und EFTA-Regionen speichern.” Lesen Sie alles zu den Microsoft-Bemühungen rund um die EU-Cloud: Microsoft Cloud for Sovereignty: Microsoft stellt sichere Behörden-Cloud vor Mehr souveräne Cloud für Europa: Microsoft erweitert EU-Datengrenze Wird die US-Cloud in der EU bald illegal? Laut einem Informationsblatt von Microsoft habe man sich in der ersten Phase der Initiative, die im Januar 2023 startete, auf die lokale Speicherung und Verarbeitung von Kundendaten innerhalb der EU und EFTA konzentriert. Darauf folgte im Januar 2024 die Phase 2, die pseudonymisierte personenbezogene Daten umfasste. Darunter versteht Microsoft Daten, die so verändert wurden, dass direkte Identifikatoren entfernt werden, und die in den EU/EFTA-Regionen verarbeitet und gespeichert werden. Datengrenze garantiert keine Datensouveränität Phil Brunkard, Executive Counselor bei der Info-Tech Research Group UK, bezeichnete die EU Data Boundary für die Microsoft Cloud als einen Schritt in Richtung einer verbesserten Datenresidenz in Europa, allerdings erzähle die Ankündigung nicht die ganze Geschichte. “Microsoft sagt, dass die Kundendaten weiterhin in der EU und EFTA gespeichert und verarbeitet werden, garantiert aber keine echte Datensouveränität”, sagte Brunkard. “US-Gesetze wie der CLOUD Act gewähren der US-Regierung nach wie vor die Befugnis, auf diese Daten zuzugreifen”, warnte der Analyst. Die Frage sei also, ob die europäischen Regierungen diese Art des Zugriffs tatsächlich einschränken können. “Könnte eine einzige US-Verfügung diese Verpflichtungen außer Kraft setzen”, fragt sich der Experte. “Wohnsitz bedeutet in diesem Fall nicht unbedingt Kontrolle.” width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> Brunkard fügte hinzu: “Großbritannien hat einen Status außerhalb der EU, und aus der Ankündigung von Microsoft geht nicht hervor, wie in Großbritannien ansässige Unternehmen in diesen Rahmen passen. Wir können nur davon ausgehen, dass dieselben Prinzipien gelten und Microsoft sich weiterhin an die spezifischen Datenschutzanforderungen Großbritanniens halten wird, unabhängig von der Position der EU.” Europäer sollten sich auf lokale Provider verlassen Der Analyst rät Unternehmen in der EU genau hinzusehen. “Sie sollten die Schlagzeilen von Microsoft nicht für bare Münze nehmen, sondern zwischen den Zeilen lesen und alle unvermeidlichen Ausnahmen, Ausschlüsse und Bedingungen genau prüfen.” Wer wirklich Wert auf echte Datensouveränität lege, sollte sich auf lokale Provider-Partner verlassen, die Microsoft-Dienste hosten. “Diese können stärkere Zusicherungen geben, dass die Daten ohne Einmischung von außen unter europäischer Gerichtsbarkeit bleiben.” SAP und Microsoft basteln an Behörden-Cloud Microsoft erklärte unterdessen, dass die EU-Datengrenze zwar den Großteil der personenbezogenen Daten in der EU/EFTA belässt, dass aber “bestimmte begrenzte Datentransfers für globale Sicherheitsoperationen notwendig sein können”. Diese Daten würden verwendet, um die Erkennung, Untersuchung, Behebung sowie das Verhindern von Bedrohungen in allen Regionen zu verbessern. Microsoft verspricht strenge Zugangskontrollen Darüber hinaus beteuerten die Microsoft-Verantwortlichen, dass Schutzmaßnahmen wie Verschlüsselung, Pseudonymisierung und strenge Zugangskontrollen eingesetzt würden, die sicherstellten, dass nur autorisiertes Sicherheitspersonal auf Daten zugreifen könne. “Die aus diesen Übertragungen gewonnenen globalen Bedrohungsdaten sind entscheidend für die Aufdeckung und Eindämmung von Cyberangriffen.” Souveräne Clouds – der schlafende Riese Für Robert Kramer, Vice President und Leadanalyst bei Moor Insights & Strategy, kam die Ankündigung von Microsoft nicht unerwartet kam. Kramer bezeichnete die EU Boundary Initiative als notwendig. Daten seien schließlich die wichtigste Komponente von Unternehmen, insbesondere mit Blick auf KI und die Cloud. “Die Leute reden immer nur über KI und Daten, aber es ist extrem wichtig, Compliance und Sicherheit zu verstehen.” Microsofts EU-Datenschutz-Grenze helfe dabei, weil sie Transparenz schaffe und den Kunden mehr Kontrolle über ihre Daten gebe, meint der Analyst. 

Microsoft EU Data Boundary – wie sicher ist die Datengrenze?​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>US-Hyperscaler wie Microsoft arbeiten mit Hochdruck an Datenschutz-konformen Cloud-Angeboten – doch es bleiben viele Zweifel und Bedenken.artjazz – shutterstock.com

Microsoft hat in einem Blogbeitrag bekannt gegeben, sein Projekt “EU Data Boundary” für die Microsoft Cloud abgeschlossen zu haben. Der Softwarekonzern hatte seine Bemühungen um eine sichere, den europäischen Datenschutzregeln konforme Cloud-Infrastruktur bereits 2022 angekündigt und in den darauffolgenden Jahren in verschiedenen Phasen vorangetrieben. Nun vermeldeten Julie Brill, Corporate Vice President and Chief Privacy Officer, und Paul Lorimer, Corporate Vice President, Microsoft 365, den Abschluss der dritten und letzten Phase der Microsoft-Initiative.

Die Initiative ermögliche es den europäischen Nutzern aus dem kommerziellen und öffentlichen Sektor, “ihre pseudonymisierten personenbezogenen Kundendaten für die zentralen Cloud-Dienste von Microsoft – einschließlich Microsoft 365, Dynamics 365, Power Platform und der meisten Azure-Dienste – innerhalb der EU- und EFTA-Regionen (Europäische Freihandelszone) zu speichern und zu verarbeiten”, schrieben die Microsoft-Manager. “Darüber hinaus wird Microsoft Professional Services-Daten aus technischen Support-Interaktionen für die Kern-Cloud-Dienste innerhalb der EU- und EFTA-Regionen speichern.”

Lesen Sie alles zu den Microsoft-Bemühungen rund um die EU-Cloud:

Microsoft Cloud for Sovereignty: Microsoft stellt sichere Behörden-Cloud vor

Mehr souveräne Cloud für Europa: Microsoft erweitert EU-Datengrenze

Wird die US-Cloud in der EU bald illegal?

Laut einem Informationsblatt von Microsoft habe man sich in der ersten Phase der Initiative, die im Januar 2023 startete, auf die lokale Speicherung und Verarbeitung von Kundendaten innerhalb der EU und EFTA konzentriert. Darauf folgte im Januar 2024 die Phase 2, die pseudonymisierte personenbezogene Daten umfasste. Darunter versteht Microsoft Daten, die so verändert wurden, dass direkte Identifikatoren entfernt werden, und die in den EU/EFTA-Regionen verarbeitet und gespeichert werden.

Datengrenze garantiert keine Datensouveränität

Phil Brunkard, Executive Counselor bei der Info-Tech Research Group UK, bezeichnete die EU Data Boundary für die Microsoft Cloud als einen Schritt in Richtung einer verbesserten Datenresidenz in Europa, allerdings erzähle die Ankündigung nicht die ganze Geschichte. “Microsoft sagt, dass die Kundendaten weiterhin in der EU und EFTA gespeichert und verarbeitet werden, garantiert aber keine echte Datensouveränität”, sagte Brunkard.

“US-Gesetze wie der CLOUD Act gewähren der US-Regierung nach wie vor die Befugnis, auf diese Daten zuzugreifen”, warnte der Analyst. Die Frage sei also, ob die europäischen Regierungen diese Art des Zugriffs tatsächlich einschränken können. “Könnte eine einzige US-Verfügung diese Verpflichtungen außer Kraft setzen”, fragt sich der Experte. “Wohnsitz bedeutet in diesem Fall nicht unbedingt Kontrolle.”

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

Brunkard fügte hinzu: “Großbritannien hat einen Status außerhalb der EU, und aus der Ankündigung von Microsoft geht nicht hervor, wie in Großbritannien ansässige Unternehmen in diesen Rahmen passen. Wir können nur davon ausgehen, dass dieselben Prinzipien gelten und Microsoft sich weiterhin an die spezifischen Datenschutzanforderungen Großbritanniens halten wird, unabhängig von der Position der EU.”

Europäer sollten sich auf lokale Provider verlassen

Der Analyst rät Unternehmen in der EU genau hinzusehen. “Sie sollten die Schlagzeilen von Microsoft nicht für bare Münze nehmen, sondern zwischen den Zeilen lesen und alle unvermeidlichen Ausnahmen, Ausschlüsse und Bedingungen genau prüfen.” Wer wirklich Wert auf echte Datensouveränität lege, sollte sich auf lokale Provider-Partner verlassen, die Microsoft-Dienste hosten. “Diese können stärkere Zusicherungen geben, dass die Daten ohne Einmischung von außen unter europäischer Gerichtsbarkeit bleiben.”

SAP und Microsoft basteln an Behörden-Cloud

Microsoft erklärte unterdessen, dass die EU-Datengrenze zwar den Großteil der personenbezogenen Daten in der EU/EFTA belässt, dass aber “bestimmte begrenzte Datentransfers für globale Sicherheitsoperationen notwendig sein können”. Diese Daten würden verwendet, um die Erkennung, Untersuchung, Behebung sowie das Verhindern von Bedrohungen in allen Regionen zu verbessern.

Microsoft verspricht strenge Zugangskontrollen

Darüber hinaus beteuerten die Microsoft-Verantwortlichen, dass Schutzmaßnahmen wie Verschlüsselung, Pseudonymisierung und strenge Zugangskontrollen eingesetzt würden, die sicherstellten, dass nur autorisiertes Sicherheitspersonal auf Daten zugreifen könne. “Die aus diesen Übertragungen gewonnenen globalen Bedrohungsdaten sind entscheidend für die Aufdeckung und Eindämmung von Cyberangriffen.”

Souveräne Clouds – der schlafende Riese

Für Robert Kramer, Vice President und Leadanalyst bei Moor Insights & Strategy, kam die Ankündigung von Microsoft nicht unerwartet kam. Kramer bezeichnete die EU Boundary Initiative als notwendig. Daten seien schließlich die wichtigste Komponente von Unternehmen, insbesondere mit Blick auf KI und die Cloud. “Die Leute reden immer nur über KI und Daten, aber es ist extrem wichtig, Compliance und Sicherheit zu verstehen.” Microsofts EU-Datenschutz-Grenze helfe dabei, weil sie Transparenz schaffe und den Kunden mehr Kontrolle über ihre Daten gebe, meint der Analyst.

Microsoft EU Data Boundary – wie sicher ist die Datengrenze?​ Weiterlesen »

7 Fragen, die zur richtigen Low-Code-Plattform führen​

Allgemein

Dieser Ratgeber bringt (hoffentlich) gedankliche Ordnung ins Low-Code-Angebotschaos. goir | shutterstock.com In den vergangenen Jahren ist die Zahl der Low-Code-Plattformen deutlich gewachsen. Das bleibt nicht ohne Folgen: Gartner führt in seinem aktuellen Magic Quadrant für Low-Code 17 verschiedene Plattformen auf. Forrester listet in seinem Wave-Report zu Low-Code-Plattformen für Citizen Developer ein Dutzend Angebote auf. G2 führt in seinem Low-Code-Ranking 85 Plattformen auf. All diese Lösungen ausführlich zu durchleuchten – geschweige denn in Prototyp-Form testweise zu betreiben – ist schlicht nicht möglich. Was ungünstig ist, schließlich ist es für Unternehmen, die auf der Suche nach einer solchen Plattform sind, essenziell, diese anhand mehrerer Anforderungen und Anwendungsfälle zu evaluieren. Die folgenden sieben Fragen können Sie dabei unterstützen. 1. Deckt die Low-Code-Plattform Business-Typ und App-Anforderungen ab? Bei einer Development-Plattform gilt es in erster Linie zu berücksichtigen, ob der Anbieter Lösungen im Portfolio hat, die sich an Organisationen Ihrer Größe und Branche richten. Dazu empfiehlt es sich, die Webpräsenz des jeweiligen Anbieters, seine Case Studies, Blogbeiträge und sonstigen Ressourcen in Augenschein zu nehmen. Ist diese Voraussetzung nicht erfüllt, müssen Sie gar nicht erst Zeit investieren, um zu evaluieren und Prototypen zu erstellen. Anderenfalls sollten Sie im nächsten Schritt prüfen, ob die gewählte Plattform halten kann, was sie verspricht, wie Ecoin Hincy, CEO und Mitbegründer des Workflow-Spezialisten Tines, erklärt: „Die Benutzer sollten eine Plattform sorgfältig prüfen, um sicherzustellen, dass sie nicht nur während einer Demo beeindruckt, sondern auch den realen Anforderungen entspricht und effektiv und in großem Maßstab eingesetzt werden kann.“ 2. Unterstützt die Low-Code-Lösung mehrere Use Cases? Ein weiterer wichtiger Aspekt ist, ob die gewählte Low-Code-Plattform verschiedene Use Cases in mehreren Geschäftsbereichen oder Abteilungen unterstützen kann. Dabei spielt auch eine Rolle, ob sie Tools enthält, die Support für IT-, Security- und Data Governance gewährleisten. Welchen Gefahren Low-Code-Plattformen bergen, die nur einen oder eine begrenzte Anzahl von Anwendungsfällen unterstützen, erklärt Debbi Roberts, SVP of Product Management beim Projektmanagement-Experten Quickbase: „Zu oft wird eine Low-Code-Lösung gewählt, um ein einzelnes Problem für ein Projekt oder einen Workflow. Das erschwert es erheblich, im Unternehmen zusammenzuarbeiten, ohne dass dabei technische Schulden oder Schatten-IT entstehen.“ Wayson Vannatta, CIO des Automation-Experten Nintex, empfiehlt zudem, Erfolgskennzahlen zu definieren und Leitplanken einzuziehen, um eine Citizen-Developer-Kultur zu fördern: „Es ist eine Sache, ob Mitarbeiter ein Tool verwenden, aber eine ganz andere, wie sie das tun.“ 3. Wie sehen die Entwickler-Personas der Low-Code-Plattform aus? Low-Code-Plattformen sind in der Regel für Developer und Technologie-affine Mitarbeiter konzipiert. No-Code-Plattformen adressieren hingegen auch Personen aus dem Business, die über grundlegenden Tech-Skills verfügen. Inzwischen existieren jedoch auch Plattformen, die beides unter einen Hut bringen – oder von GenAI-Tools unterstützt werden, die es ermöglichen, Apps mit natürlichsprachlichen Sprachanweisungen zu entwickeln. Dieser kombinative Ansatz kann Vorteile erschließen, weiß Rich Waldron, Mitbegründer und CEO des KI-Plattformanbieters Tray.ai: „Eine Plattform, die Entwicklern, Business-Technologen und Mitarbeitern mit Kundenkontakt mehrere Möglichkeiten zur Zusammenarbeit bietet, wird nicht nur wachsenden Anforderungen gerecht, sondern kann auch die Zusammenarbeit, die Entwicklungsgeschwindigkeit allgemein und die Team-Produktivität befeuern.“ Darüber hinaus empfiehlt Waldron, die in Frage kommende Plattform auf ihre Erweiterbarkeit zu prüfen: „Tools, die auch Code-lastige Ansätze unterstützen, kommen für zusätzliche Anwendungsfälle in Frage und decken mehr Entwicklerpräferenzen ab. Eine umfassende API trägt außerdem dazu bei, dass kein Vendor-Lock-in entsteht.“ 4. Welche KI-Innovationen bringt die Low-Code-Lösung mit? Viele Developer-Plattformen verfügen inzwischen über Generative-AI-Fähigkeiten, beispielsweise um Inhalte: zu suchen, zusammenzufassen oder vorherzusagen. Fragen Sie Ihren potenziellen Low-Code-Anbieter am besten ganz direkt, was er im Bereich GenAI zu bieten hat, wie seine Roadmap diesbezüglich aussieht und wie Sie als Anwender davon profitieren können. Don Schuerman, CTO beim RPA-Experten Pega, empfiehlt, dabei über den Tellerrand der bereits üblichen Standardfunktionen hinauszublicken: „Neue technologische Fortschritte ermöglichen, mit Low-Code ganze Workflows von Grund auf neu zu gestalten. Zudem können GenAI-Engines mit Best Practices einer Branche gefüttert werden, um in Sekunden und mit nur wenigen Inputs Enterprise-Applikationen zu entwerfen und dabei Ideen einzubringen, auf die Developer und User unter Umständen selbst nicht gekommen wären.“ 5. Welche Out-of-the-Box-Fähigkeiten bringt die Low-Code-Plattform mit? Eine App-Entwicklungsplattform sollte mit Ihren SaaS-Plattformen, proprietären Anwendungen und Daten-Repositories kompatibel sein. Parallel sollte es aber auch möglich sein, sie in das externe Ökosystem ihrer Partner, Plattformen und Drittanbieter-Plugins zu integrieren. Low-Code-Plattformen unterscheiden sich jeweils hinsichtlich ihres technischen Ansatzes, ihres Umfangs sowie ihrer Benutzerfreundlichkeit. Die folgenden Fragen können Sie dabei unterstützen, die Breite und Tiefe einer Plattform besser einzuschätzen: Welche Funktionen veranschaulichen die Vielseitigkeit und Flexibilität der Plattform? Formulare benötigen beispielsweise gängige UI-Elemente wie Dropdown-Menüs und Kontrollkästchen. Fortschrittlichere Plattformen verfügen hingegen über ausgefeiltere Funktionen. Wenn Sie Dashboards entwickeln, achten Sie auf Variationen bei den Diagrammtypen und die Flexibilität bei der Konfiguration. Wenn es sich um eine Workflow-Engine handelt, gehören Exception Handling, die wiederverwendbare Teilprozesse, Automatisierungsfunktionen und rollenbasierte Verantwortlichkeiten zu den wichtigsten Optionen. Lässt sich die Plattform leicht in andere Plattformen integrieren? David Brooks, SVP of Evangelism beim Low-Code-Anbieter Copado, empfiehlt: „Die meisten End-to-End-Geschäftsprozesse umfassen zwei oder mehr Plattformen und Services. Wählen Sie daher eine Plattform mit einer vollständigen API und Tools, die die Integration erleichtern.“ Wie hilft die Lösung dabei, APIs zu dokumentieren und externen Entwicklern zur Verfügung zu stellen? Jason Gartner, GM of Product Management in Application Modernization bei IBM, empfiehlt Plattform-APIs zu evaluieren – und erklärt auch warum: „Jede API ist mit Schlüssel-Ressourcen und der Infrastruktur verbunden und nur dann nützlich, wenn externe Entwickler digital lernen können, welche APIs sie wie und in welcher Reihenfolge callen müssen, um eine Ende-zu-Ende-Business-Transaktion abzuschließen.“ 6. Wie steil ist die Lernkurve der Low-Code-Lösung? Low-Code-Plattformen erfordern Eingewöhnungszeit. Profi-Entwickler sollten allerdings relativ schnell in der Lage sein, auf einer solchen Plattform produktiv zu sein. Für Lösungen, die auf Großunternehmen zielen und darauf ausgerichtet sind, missionskritische Anwendungen zu entwickeln, empfehlen sich zudem Zertifizierungskurse und ein ausgereiftes Partner-Ökosystem. Sid Misra, Vice President Marketing and Solutions bei SAP, weiß, worauf es allgemein mit Blick auf die User Experience ankommt: “Low-Code-Plattformen sollten einfach zu bedienen sein und es den Entwicklern ermöglichen, neue Ideen zu testen und zu experimentieren – ohne große Investitionen in IT oder externe Ressourcen.“ Dazu sollten Anwender in Erwägung ziehen, mehrere Teams mit der neuen Plattform Erfahrungen sammeln zu lassen, wie auch Nintex-CIO Vannatta empfiehlt: „Für eine effiziente Implementierung und nachhaltige Nutzung ist es entscheidend, ein Gefühl dafür zu bekommen, wie schnell sich Ihr Team an die Plattform anpassen kann.“ Low-Code-Evangelist Brooks hat einen weiteren Tipp auf Lager, um Plattformen mit guter Benutzererfahrung zu identifizieren: „Eine große Nutzerbasis ist ein guter Hinweis darauf, wie benutzerfreundlich die Plattform ist. Bei Bedarf bietet sich so auch gleich auch ein Talent-Pool, aus dem man schöpfen kann.“ 7. Kann die Low-Code-Plattform (sicherheits-)technischen Anforderungen genügen? Organisationen sollten ihre nicht-funktionalen (Technologie-, Betriebs- und Sicherheitsanforderungen) sowie geschäftlichen Kriterien in Bezug auf Preisgestaltung, Daten- und Compliance-Anforderungen schriftlich erfassen. Geht es dabei um Low-Code-Plattformen, kommen weitere Überlegungen hinzu: Vereinfacht die Plattform, verschiedene Datenquellen zu integrieren, zu kodifizieren sowie Geschäftslogik und User Interfaces anzupassen? Wie gut passt die Low-Code-Plattform zu Ihrem bestehenden Softwareentwicklungs-Lebenszyklus? Welche Sicherheitsfunktionen bietet die Plattform und wie steht es um die Compliance? Wie skaliert die Low-Code-Lösung und wie gestaltet sich ihr Preisgefüge? Welche Observability– und Monitoring-Funktionen bietet die Plattform? (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

7 Fragen, die zur richtigen Low-Code-Plattform führen​ Dieser Ratgeber bringt (hoffentlich) gedankliche Ordnung ins Low-Code-Angebotschaos.
goir | shutterstock.com

In den vergangenen Jahren ist die Zahl der Low-Code-Plattformen deutlich gewachsen. Das bleibt nicht ohne Folgen:

Gartner führt in seinem aktuellen Magic Quadrant für Low-Code 17 verschiedene Plattformen auf.

Forrester listet in seinem Wave-Report zu Low-Code-Plattformen für Citizen Developer ein Dutzend Angebote auf.

G2 führt in seinem Low-Code-Ranking 85 Plattformen auf.

All diese Lösungen ausführlich zu durchleuchten – geschweige denn in Prototyp-Form testweise zu betreiben – ist schlicht nicht möglich. Was ungünstig ist, schließlich ist es für Unternehmen, die auf der Suche nach einer solchen Plattform sind, essenziell, diese anhand mehrerer Anforderungen und Anwendungsfälle zu evaluieren. Die folgenden sieben Fragen können Sie dabei unterstützen.

1. Deckt die Low-Code-Plattform Business-Typ und App-Anforderungen ab?

Bei einer Development-Plattform gilt es in erster Linie zu berücksichtigen, ob der Anbieter Lösungen im Portfolio hat, die sich an Organisationen Ihrer Größe und Branche richten. Dazu empfiehlt es sich, die Webpräsenz des jeweiligen Anbieters, seine Case Studies, Blogbeiträge und sonstigen Ressourcen in Augenschein zu nehmen. Ist diese Voraussetzung nicht erfüllt, müssen Sie gar nicht erst Zeit investieren, um zu evaluieren und Prototypen zu erstellen.

Anderenfalls sollten Sie im nächsten Schritt prüfen, ob die gewählte Plattform halten kann, was sie verspricht, wie Ecoin Hincy, CEO und Mitbegründer des Workflow-Spezialisten Tines, erklärt: „Die Benutzer sollten eine Plattform sorgfältig prüfen, um sicherzustellen, dass sie nicht nur während einer Demo beeindruckt, sondern auch den realen Anforderungen entspricht und effektiv und in großem Maßstab eingesetzt werden kann.“

2. Unterstützt die Low-Code-Lösung mehrere Use Cases?

Ein weiterer wichtiger Aspekt ist, ob die gewählte Low-Code-Plattform verschiedene Use Cases in mehreren Geschäftsbereichen oder Abteilungen unterstützen kann. Dabei spielt auch eine Rolle, ob sie Tools enthält, die Support für IT-, Security- und Data Governance gewährleisten.

Welchen Gefahren Low-Code-Plattformen bergen, die nur einen oder eine begrenzte Anzahl von Anwendungsfällen unterstützen, erklärt Debbi Roberts, SVP of Product Management beim Projektmanagement-Experten Quickbase: „Zu oft wird eine Low-Code-Lösung gewählt, um ein einzelnes Problem für ein Projekt oder einen Workflow. Das erschwert es erheblich, im Unternehmen zusammenzuarbeiten, ohne dass dabei technische Schulden oder Schatten-IT entstehen.“

Wayson Vannatta, CIO des Automation-Experten Nintex, empfiehlt zudem, Erfolgskennzahlen zu definieren und Leitplanken einzuziehen, um eine Citizen-Developer-Kultur zu fördern: „Es ist eine Sache, ob Mitarbeiter ein Tool verwenden, aber eine ganz andere, wie sie das tun.“

3. Wie sehen die Entwickler-Personas der Low-Code-Plattform aus?

Low-Code-Plattformen sind in der Regel für Developer und Technologie-affine Mitarbeiter konzipiert. No-Code-Plattformen adressieren hingegen auch Personen aus dem Business, die über grundlegenden Tech-Skills verfügen. Inzwischen existieren jedoch auch Plattformen, die beides unter einen Hut bringen – oder von GenAI-Tools unterstützt werden, die es ermöglichen, Apps mit natürlichsprachlichen Sprachanweisungen zu entwickeln.

Dieser kombinative Ansatz kann Vorteile erschließen, weiß Rich Waldron, Mitbegründer und CEO des KI-Plattformanbieters Tray.ai: „Eine Plattform, die Entwicklern, Business-Technologen und Mitarbeitern mit Kundenkontakt mehrere Möglichkeiten zur Zusammenarbeit bietet, wird nicht nur wachsenden Anforderungen gerecht, sondern kann auch die Zusammenarbeit, die Entwicklungsgeschwindigkeit allgemein und die Team-Produktivität befeuern.“

Darüber hinaus empfiehlt Waldron, die in Frage kommende Plattform auf ihre Erweiterbarkeit zu prüfen: „Tools, die auch Code-lastige Ansätze unterstützen, kommen für zusätzliche Anwendungsfälle in Frage und decken mehr Entwicklerpräferenzen ab. Eine umfassende API trägt außerdem dazu bei, dass kein Vendor-Lock-in entsteht.“

4. Welche KI-Innovationen bringt die Low-Code-Lösung mit?

Viele Developer-Plattformen verfügen inzwischen über Generative-AI-Fähigkeiten, beispielsweise um Inhalte:

zu suchen,

zusammenzufassen oder

vorherzusagen.

Fragen Sie Ihren potenziellen Low-Code-Anbieter am besten ganz direkt, was er im Bereich GenAI zu bieten hat, wie seine Roadmap diesbezüglich aussieht und wie Sie als Anwender davon profitieren können.

Don Schuerman, CTO beim RPA-Experten Pega, empfiehlt, dabei über den Tellerrand der bereits üblichen Standardfunktionen hinauszublicken: „Neue technologische Fortschritte ermöglichen, mit Low-Code ganze Workflows von Grund auf neu zu gestalten. Zudem können GenAI-Engines mit Best Practices einer Branche gefüttert werden, um in Sekunden und mit nur wenigen Inputs Enterprise-Applikationen zu entwerfen und dabei Ideen einzubringen, auf die Developer und User unter Umständen selbst nicht gekommen wären.“

5. Welche Out-of-the-Box-Fähigkeiten bringt die Low-Code-Plattform mit?

Eine App-Entwicklungsplattform sollte mit Ihren SaaS-Plattformen, proprietären Anwendungen und Daten-Repositories kompatibel sein. Parallel sollte es aber auch möglich sein, sie in das externe Ökosystem ihrer Partner, Plattformen und Drittanbieter-Plugins zu integrieren.

Low-Code-Plattformen unterscheiden sich jeweils hinsichtlich ihres technischen Ansatzes, ihres Umfangs sowie ihrer Benutzerfreundlichkeit. Die folgenden Fragen können Sie dabei unterstützen, die Breite und Tiefe einer Plattform besser einzuschätzen:

Welche Funktionen veranschaulichen die Vielseitigkeit und Flexibilität der Plattform? Formulare benötigen beispielsweise gängige UI-Elemente wie Dropdown-Menüs und Kontrollkästchen. Fortschrittlichere Plattformen verfügen hingegen über ausgefeiltere Funktionen. Wenn Sie Dashboards entwickeln, achten Sie auf Variationen bei den Diagrammtypen und die Flexibilität bei der Konfiguration. Wenn es sich um eine Workflow-Engine handelt, gehören Exception Handling, die wiederverwendbare Teilprozesse, Automatisierungsfunktionen und rollenbasierte Verantwortlichkeiten zu den wichtigsten Optionen.

Lässt sich die Plattform leicht in andere Plattformen integrieren? David Brooks, SVP of Evangelism beim Low-Code-Anbieter Copado, empfiehlt: „Die meisten End-to-End-Geschäftsprozesse umfassen zwei oder mehr Plattformen und Services. Wählen Sie daher eine Plattform mit einer vollständigen API und Tools, die die Integration erleichtern.“

Wie hilft die Lösung dabei, APIs zu dokumentieren und externen Entwicklern zur Verfügung zu stellen? Jason Gartner, GM of Product Management in Application Modernization bei IBM, empfiehlt Plattform-APIs zu evaluieren – und erklärt auch warum: „Jede API ist mit Schlüssel-Ressourcen und der Infrastruktur verbunden und nur dann nützlich, wenn externe Entwickler digital lernen können, welche APIs sie wie und in welcher Reihenfolge callen müssen, um eine Ende-zu-Ende-Business-Transaktion abzuschließen.“

6. Wie steil ist die Lernkurve der Low-Code-Lösung?

Low-Code-Plattformen erfordern Eingewöhnungszeit. Profi-Entwickler sollten allerdings relativ schnell in der Lage sein, auf einer solchen Plattform produktiv zu sein. Für Lösungen, die auf Großunternehmen zielen und darauf ausgerichtet sind, missionskritische Anwendungen zu entwickeln, empfehlen sich zudem Zertifizierungskurse und ein ausgereiftes Partner-Ökosystem.

Sid Misra, Vice President Marketing and Solutions bei SAP, weiß, worauf es allgemein mit Blick auf die User Experience ankommt: “Low-Code-Plattformen sollten einfach zu bedienen sein und es den Entwicklern ermöglichen, neue Ideen zu testen und zu experimentieren – ohne große Investitionen in IT oder externe Ressourcen.“

Dazu sollten Anwender in Erwägung ziehen, mehrere Teams mit der neuen Plattform Erfahrungen sammeln zu lassen, wie auch Nintex-CIO Vannatta empfiehlt: „Für eine effiziente Implementierung und nachhaltige Nutzung ist es entscheidend, ein Gefühl dafür zu bekommen, wie schnell sich Ihr Team an die Plattform anpassen kann.“

Low-Code-Evangelist Brooks hat einen weiteren Tipp auf Lager, um Plattformen mit guter Benutzererfahrung zu identifizieren: „Eine große Nutzerbasis ist ein guter Hinweis darauf, wie benutzerfreundlich die Plattform ist. Bei Bedarf bietet sich so auch gleich auch ein Talent-Pool, aus dem man schöpfen kann.“

7. Kann die Low-Code-Plattform (sicherheits-)technischen Anforderungen genügen?

Organisationen sollten ihre nicht-funktionalen (Technologie-, Betriebs- und Sicherheitsanforderungen) sowie geschäftlichen Kriterien in Bezug auf Preisgestaltung, Daten- und Compliance-Anforderungen schriftlich erfassen. Geht es dabei um Low-Code-Plattformen, kommen weitere Überlegungen hinzu:

Vereinfacht die Plattform, verschiedene Datenquellen zu integrieren, zu kodifizieren sowie Geschäftslogik und User Interfaces anzupassen?

Wie gut passt die Low-Code-Plattform zu Ihrem bestehenden Softwareentwicklungs-Lebenszyklus?

Welche Sicherheitsfunktionen bietet die Plattform und wie steht es um die Compliance?

Wie skaliert die Low-Code-Lösung und wie gestaltet sich ihr Preisgefüge?

Welche Observability– und Monitoring-Funktionen bietet die Plattform?

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

7 Fragen, die zur richtigen Low-Code-Plattform führen​ Weiterlesen »

Social Loafing – Wie Sie mit Faulenzern umgehen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Faule Mitarbeiter drosseln die Effizienz des Unternehmens und schmälern den Erfolg. Dennoch kann in ihnen großes Potenzial schlummern, das Arbeitgeber durch taktische Kniffe gezielt wecken können. Antonio Guillem / Shutterstock Social Loafing ist leicht erklärt: Übersetzt bedeutet es „soziales Faulenzen“. Das Phänomen tritt auf, wenn Menschen in einer Gruppe gemeinsam eine Aufgabe erledigen sollen. Oft gibt es Einzelne, die sich zurücklehnen und nicht mit voller Kraft mitarbeiten – in der Hoffnung, dass die anderen Teammitglieder die Arbeit übernehmen. Getreu dem Motto: TEAM – Toll, ein anderer macht’s. Der französische Agraringenieur Maximilien Ringelmann beschrieb diesen Effekt erstmals Ende des 19. Jahrhunderts. In seinen Experimenten ließ er Versuchspersonen zunächst allein und dann in Gruppen an einem Seil ziehen. Dabei stellte er fest, dass die individuelle Zugkraft in der Gruppe abnahm, je größer die Gruppe wurde. Anders formuliert: Jeder Einzelne wendet weniger Energie auf, wenn er in der Gruppe arbeitet, als wenn er die Aufgabe allein bewältigen muss. Dieses Phänomen ist in vielen Bereichen des Arbeitslebens oder im Mannschaftssport zu beobachten und führt in vielen Fällen dazu, dass die Arbeit nicht gleichmäßig auf alle Teammitglieder verteilt wird. Allerdings ist es schwierig, Social Loafing direkt nachzuweisen, da die individuelle Leistung in einer Gruppe schwer zu messen ist und viele Faktoren das Verhalten beeinflussen können. Dennoch gibt es einige Anhaltspunkte für das beobachtete Verhalten: Mit zunehmender Gruppengröße sinkt die durchschnittliche Leistung pro Person. Bei Zweier-Teams lag sie bei 93 Prozent, bei Achter-Teams nur noch bei 49 Prozent- der möglichen Einzelleistung. Dies zeigt bereits, welche Ursachen das Auftreten des Phänomens beeinflussen: – Die Gruppengröße spielt eine wichtige Rolle. Wenn mehr Mitarbeiter im Projekt arbeiten, ist es für den Einzelnen leichter, sich in der Masse zu verstecken. – Wenn dann noch der Arbeitgeber keine Key Performance Indicators (KPIs) oder andere Messgrößen implementiert hat, um den Erfolg oder zumindest den Beitrag jedes einzelnen Mitarbeiters messen zu können, fördert dies ebenfalls das soziale Faulenzen. – Und last but not least sind Routineaufgaben prädestiniert dafür, dass die Arbeit letztlich nur von wenigen bestimmten Mitarbeitern erledigt wird. Sich wiederholende oder monotone Aufgaben laden oft dazu ein, Verantwortung abzugeben. Wie fleißige Kollegen durch faule profitieren Für den Arbeitgeber ist es natürlich unerfreulich, Mitarbeiter zu bezahlen, die sich nicht engagieren. Tatsächlich scheint soziales Faulenzen aber auch positive Effekte zu haben: Joachim Funke und Annette Feuchter von der Universität Heidelberg haben Social Loafing genauer unter die Lupe genommen und konnten zumindest einige positive Aspekte ausmachen: Interpretiere man Social Loafing nicht nur als Faulenzen, sondern schreibt dem betroffenen Kollegen stattdessen zu, dass er einfach nur entspannter als andere Kollegen seiner Arbeit nachgeht, kann sich das positiv auf die übrigen Kollegen auswirken. Jedenfalls dann, wenn sich die übrigen Kollegen ein wenig von der relaxten Arbeitsweise anstecken lassen. Denn: Wenn wir viel zu tun haben und die Deadline näher rückt, lassen sich viele davon stressen, was sich wiederum schlecht auf die Qualität der Arbeit auswirken könnte. Anders formuliert: Zu großer Druck auf der Arbeit führt eher zu Fehlern. Vermeiden können wir das, indem wir uns nicht allzu sehr stressen lassen – uns also so verhalten wie die sozialen „Faulenzer“. Kurzum: Wenn sich einige Kollegen ein wenig von der „Arbeitsweise“ anstecken lassen, kann sich das im günstigsten Fall positiv auf die Fehlerquote auswirken. Es gilt also wie so häufig: Es ist nicht alles schlecht. Im Gegenteil, es kommt sogar noch besser. Für diejenigen Kollegen, die sich nicht auf der Arbeit anderer ausruhen, sondern selbst Leistung bringen, kann das Faulenzen der Kollegen mitunter sogar Vorteile haben: 1. Die fleißigen Kollegen machen einen besseren Eindruck: Die Leistung der Kollegen, die nicht faulenzen, wirkt durch den Kontrast zum Social Loafing des Kollegen noch besser. Das lässt diese Kollegen in einem besseren Licht erscheinen. Das heißt: Auch wer sich wenig anstrengt, wirkt gleich viel motivierter als der Social Loafer. 2. Sie zeigen, worauf man frühzeitig achten sollte: Soziale Faulenzer können auch ein warnendes Beispiel sein. Vielleicht waren sie früher Kollegen, denen ihre Arbeit Spaß gemacht hat und die gerne gearbeitet haben. Aber über die Jahre, mit der Monotonie und den aussichtslosen Kämpfen gegen die Verfahrensregeln, sind sie eben zu Faulpelzen geworden. Für Mitarbeiter, die noch nicht an diesem Punkt angelangt sind, kann die Entwicklung des Social Loafing daher Hinweise geben, worauf sie achten und vor allem was sie vermeiden sollten, um die eigene Motivation zu erhalten. Social Loafing ein Problem für Arbeitgeber? Geschickte Arbeitgeber oder Manager können das Phänomen des Social Loafing sogar für sich nutzen. So wird dem erfolgreichen Microsoft-Gründer Bill Gates nachgesagt, dass er gezielt “faule” Mitarbeiter mit schwierigen und komplexen Problemen betraute. Die Idee dahinter: Wer wenig Lust hat, viel zu arbeiten, wird Wege finden, seine Aufgaben mit möglichst geringem Aufwand, also besonders effizient, zu erledigen. Mitarbeiter, die zur sozialen Faulheit neigen, haben also oft eine besondere Fähigkeit: Sie finden kreative Abkürzungen, optimieren Prozesse und delegieren Aufgaben geschickt an andere. Damit investieren sie nicht nur selbst weniger Zeit, sondern tragen auch zur Entlastung des Teams bei – vorausgesetzt, ihre Effizienz ist produktiv. Anstatt Social Loafing als reines Problem zu betrachten, können Führungskräfte diese Tendenz gezielt steuern. Indem sie solche Mitarbeiter mit Aufgaben betrauen, die Kreativität, Pragmatismus und Effizienz erfordern, können sie davon profitieren, dass diese Personen ihre Abneigung gegen überflüssige Arbeit in nützliche Ergebnisse umwandeln. Der Schlüssel liegt darin, die Stärken der Mitarbeiter zu erkennen und sie in Rollen einzusetzen, die ihrer Arbeitsweise entsprechen. Das erfordert natürlich Fingerspitzengefühl. Wem es aber gelingt, die richtige Balance zwischen Eigeninitiative und Teamverantwortung zu fördern, der kann auch von vermeintlich “faulen” Mitarbeitern wertvolle Impulse für mehr Effizienz und Prozessoptimierung erhalten. Social Loafing verhindern Auf der anderen Seite gibt es Situationen, in denen Arbeitgeber Social Loafing am Arbeitsplatz unterbinden möchten – insbesondere dann, wenn die Nachteile überwiegen und das Faulenzen den Unternehmenserfolg beeinträchtigt. Arbeitgeber können verschiedene Maßnahmen ergreifen, um sowohl die individuelle Motivation als auch die Teamdynamik zu stärken. Die folgenden Methoden können dabei hilfreich sein 1. Rollen klar verteilen: Social Loafing kommt besonders häufig vor, wenn nicht klar ist, wer im Team welche Aufgabe übernimmt und somit nicht nachvollziehbar ist, wer welchen Beitrag geleistet hat. Wenn aber jeder Mitarbeiter klare Zuständigkeiten hat, wird es schwieriger, sich vor der Arbeit zu drücken. Sollte dies dennoch geschehen, ist es für die Führungskraft einfacher, den Verantwortlichen zu identifizieren. 2. Kennzahlen festlegen: Der oben genannte Schritt kann noch weiter optimiert werden: Durch die Definition klarer KPIs kann die Leistung jedes Einzelnen messbar gemacht werden. So wird nicht nur die Arbeit nachvollziehbar, sondern auch die individuelle Leistung bewertet. 3. Kleine Teams bilden: In größeren Teams ist Social Loafing oft stärker ausgeprägt. Ein einfaches Gegenmittel: kleinere Teams. In Gruppen von drei bis vier Personen kann man sich schlechter verstecken. Der soziale Druck steigt und jeder fühlt sich stärker verantwortlich, zum Gesamterfolg beizutragen. 4. Regelmäßig Feedback geben: Regelmäßiges Feedback kann die Selbstwahrnehmung verbessern und helfen, die Arbeitshaltung zu überdenken. Social Loafing ist oft das Ergebnis einer falschen Einschätzung der eigenen Leistung. Wenn Beschäftigte merken, dass ihre Arbeit wahrgenommen und wertgeschätzt wird, kann dies die Motivation erheblich steigern. Dieses Feedback muss nicht ausschließlich von Vorgesetzten kommen – auch Peer-Feedback, also die Beurteilung durch Kollegen, kann zu einer neuen Einstellung gegenüber der eigenen Arbeit führen. 

Social Loafing – Wie Sie mit Faulenzern umgehen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/Faulenzer.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Faule Mitarbeiter drosseln die Effizienz des Unternehmens und schmälern den Erfolg. Dennoch kann in ihnen großes Potenzial schlummern, das Arbeitgeber durch taktische Kniffe gezielt wecken können. Antonio Guillem / Shutterstock

Social Loafing ist leicht erklärt: Übersetzt bedeutet es „soziales Faulenzen“. Das Phänomen tritt auf, wenn Menschen in einer Gruppe gemeinsam eine Aufgabe erledigen sollen. Oft gibt es Einzelne, die sich zurücklehnen und nicht mit voller Kraft mitarbeiten – in der Hoffnung, dass die anderen Teammitglieder die Arbeit übernehmen. Getreu dem Motto: TEAM – Toll, ein anderer macht’s.

Der französische Agraringenieur Maximilien Ringelmann beschrieb diesen Effekt erstmals Ende des 19. Jahrhunderts. In seinen Experimenten ließ er Versuchspersonen zunächst allein und dann in Gruppen an einem Seil ziehen. Dabei stellte er fest, dass die individuelle Zugkraft in der Gruppe abnahm, je größer die Gruppe wurde. Anders formuliert: Jeder Einzelne wendet weniger Energie auf, wenn er in der Gruppe arbeitet, als wenn er die Aufgabe allein bewältigen muss.

Dieses Phänomen ist in vielen Bereichen des Arbeitslebens oder im Mannschaftssport zu beobachten und führt in vielen Fällen dazu, dass die Arbeit nicht gleichmäßig auf alle Teammitglieder verteilt wird. Allerdings ist es schwierig, Social Loafing direkt nachzuweisen, da die individuelle Leistung in einer Gruppe schwer zu messen ist und viele Faktoren das Verhalten beeinflussen können.

Dennoch gibt es einige Anhaltspunkte für das beobachtete Verhalten: Mit zunehmender Gruppengröße sinkt die durchschnittliche Leistung pro Person. Bei Zweier-Teams lag sie bei 93 Prozent, bei Achter-Teams nur noch bei 49 Prozent- der möglichen Einzelleistung.

Dies zeigt bereits, welche Ursachen das Auftreten des Phänomens beeinflussen:

– Die Gruppengröße spielt eine wichtige Rolle. Wenn mehr Mitarbeiter im Projekt arbeiten, ist es für den Einzelnen leichter, sich in der Masse zu verstecken.

– Wenn dann noch der Arbeitgeber keine Key Performance Indicators (KPIs) oder andere Messgrößen implementiert hat, um den Erfolg oder zumindest den Beitrag jedes einzelnen Mitarbeiters messen zu können, fördert dies ebenfalls das soziale Faulenzen.

– Und last but not least sind Routineaufgaben prädestiniert dafür, dass die Arbeit letztlich nur von wenigen bestimmten Mitarbeitern erledigt wird. Sich wiederholende oder monotone Aufgaben laden oft dazu ein, Verantwortung abzugeben.

Wie fleißige Kollegen durch faule profitieren

Für den Arbeitgeber ist es natürlich unerfreulich, Mitarbeiter zu bezahlen, die sich nicht engagieren. Tatsächlich scheint soziales Faulenzen aber auch positive Effekte zu haben: Joachim Funke und Annette Feuchter von der Universität Heidelberg haben Social Loafing genauer unter die Lupe genommen und konnten zumindest einige positive Aspekte ausmachen:

Interpretiere man Social Loafing nicht nur als Faulenzen, sondern schreibt dem betroffenen Kollegen stattdessen zu, dass er einfach nur entspannter als andere Kollegen seiner Arbeit nachgeht, kann sich das positiv auf die übrigen Kollegen auswirken. Jedenfalls dann, wenn sich die übrigen Kollegen ein wenig von der relaxten Arbeitsweise anstecken lassen. Denn: Wenn wir viel zu tun haben und die Deadline näher rückt, lassen sich viele davon stressen, was sich wiederum schlecht auf die Qualität der Arbeit auswirken könnte.

Anders formuliert: Zu großer Druck auf der Arbeit führt eher zu Fehlern. Vermeiden können wir das, indem wir uns nicht allzu sehr stressen lassen – uns also so verhalten wie die sozialen „Faulenzer“. Kurzum: Wenn sich einige Kollegen ein wenig von der „Arbeitsweise“ anstecken lassen, kann sich das im günstigsten Fall positiv auf die Fehlerquote auswirken. Es gilt also wie so häufig: Es ist nicht alles schlecht. Im Gegenteil, es kommt sogar noch besser. Für diejenigen Kollegen, die sich nicht auf der Arbeit anderer ausruhen, sondern selbst Leistung bringen, kann das Faulenzen der Kollegen mitunter sogar Vorteile haben:

1. Die fleißigen Kollegen machen einen besseren Eindruck: Die Leistung der Kollegen, die nicht faulenzen, wirkt durch den Kontrast zum Social Loafing des Kollegen noch besser. Das lässt diese Kollegen in einem besseren Licht erscheinen. Das heißt: Auch wer sich wenig anstrengt, wirkt gleich viel motivierter als der Social Loafer.

2. Sie zeigen, worauf man frühzeitig achten sollte: Soziale Faulenzer können auch ein warnendes Beispiel sein. Vielleicht waren sie früher Kollegen, denen ihre Arbeit Spaß gemacht hat und die gerne gearbeitet haben. Aber über die Jahre, mit der Monotonie und den aussichtslosen Kämpfen gegen die Verfahrensregeln, sind sie eben zu Faulpelzen geworden. Für Mitarbeiter, die noch nicht an diesem Punkt angelangt sind, kann die Entwicklung des Social Loafing daher Hinweise geben, worauf sie achten und vor allem was sie vermeiden sollten, um die eigene Motivation zu erhalten.

Social Loafing ein Problem für Arbeitgeber?

Geschickte Arbeitgeber oder Manager können das Phänomen des Social Loafing sogar für sich nutzen. So wird dem erfolgreichen Microsoft-Gründer Bill Gates nachgesagt, dass er gezielt “faule” Mitarbeiter mit schwierigen und komplexen Problemen betraute. Die Idee dahinter: Wer wenig Lust hat, viel zu arbeiten, wird Wege finden, seine Aufgaben mit möglichst geringem Aufwand, also besonders effizient, zu erledigen.

Mitarbeiter, die zur sozialen Faulheit neigen, haben also oft eine besondere Fähigkeit: Sie finden kreative Abkürzungen, optimieren Prozesse und delegieren Aufgaben geschickt an andere. Damit investieren sie nicht nur selbst weniger Zeit, sondern tragen auch zur Entlastung des Teams bei – vorausgesetzt, ihre Effizienz ist produktiv.

Anstatt Social Loafing als reines Problem zu betrachten, können Führungskräfte diese Tendenz gezielt steuern. Indem sie solche Mitarbeiter mit Aufgaben betrauen, die Kreativität, Pragmatismus und Effizienz erfordern, können sie davon profitieren, dass diese Personen ihre Abneigung gegen überflüssige Arbeit in nützliche Ergebnisse umwandeln. Der Schlüssel liegt darin, die Stärken der Mitarbeiter zu erkennen und sie in Rollen einzusetzen, die ihrer Arbeitsweise entsprechen.

Das erfordert natürlich Fingerspitzengefühl. Wem es aber gelingt, die richtige Balance zwischen Eigeninitiative und Teamverantwortung zu fördern, der kann auch von vermeintlich “faulen” Mitarbeitern wertvolle Impulse für mehr Effizienz und Prozessoptimierung erhalten.

Social Loafing verhindern

Auf der anderen Seite gibt es Situationen, in denen Arbeitgeber Social Loafing am Arbeitsplatz unterbinden möchten – insbesondere dann, wenn die Nachteile überwiegen und das Faulenzen den Unternehmenserfolg beeinträchtigt.

Arbeitgeber können verschiedene Maßnahmen ergreifen, um sowohl die individuelle Motivation als auch die Teamdynamik zu stärken. Die folgenden Methoden können dabei hilfreich sein

1. Rollen klar verteilen: Social Loafing kommt besonders häufig vor, wenn nicht klar ist, wer im Team welche Aufgabe übernimmt und somit nicht nachvollziehbar ist, wer welchen Beitrag geleistet hat. Wenn aber jeder Mitarbeiter klare Zuständigkeiten hat, wird es schwieriger, sich vor der Arbeit zu drücken. Sollte dies dennoch geschehen, ist es für die Führungskraft einfacher, den Verantwortlichen zu identifizieren.

2. Kennzahlen festlegen: Der oben genannte Schritt kann noch weiter optimiert werden: Durch die Definition klarer KPIs kann die Leistung jedes Einzelnen messbar gemacht werden. So wird nicht nur die Arbeit nachvollziehbar, sondern auch die individuelle Leistung bewertet.

3. Kleine Teams bilden: In größeren Teams ist Social Loafing oft stärker ausgeprägt. Ein einfaches Gegenmittel: kleinere Teams. In Gruppen von drei bis vier Personen kann man sich schlechter verstecken. Der soziale Druck steigt und jeder fühlt sich stärker verantwortlich, zum Gesamterfolg beizutragen.

4. Regelmäßig Feedback geben: Regelmäßiges Feedback kann die Selbstwahrnehmung verbessern und helfen, die Arbeitshaltung zu überdenken. Social Loafing ist oft das Ergebnis einer falschen Einschätzung der eigenen Leistung. Wenn Beschäftigte merken, dass ihre Arbeit wahrgenommen und wertgeschätzt wird, kann dies die Motivation erheblich steigern. Dieses Feedback muss nicht ausschließlich von Vorgesetzten kommen – auch Peer-Feedback, also die Beurteilung durch Kollegen, kann zu einer neuen Einstellung gegenüber der eigenen Arbeit führen.

Social Loafing – Wie Sie mit Faulenzern umgehen​ Weiterlesen »

Wie GenAI unser Gehirn neu verdrahtet​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?quality=50&strip=all 7111w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Je mehr Aufgaben GenAI übernimmt, desto stärker wird die Abhängigkeit, so eine aktuelle Studie.New Africa/Shutterstock.com GenAI-Tools setzen sich schnell durch, aber ihr Einsatz wirft Bedenken hinsichtlich ihrer Auswirkungen auf das menschliche Denken auf. So ergab eine neue Umfrage und Analyse von Carnegie Mellon und Microsoft, dass die Technologie zwar die Effizienz verbessert, aber auch das kritische Denken einschränken kann. Außerdem besteht die Gefahr, dass die kleinen Helfer zu übermäßiger Abhängigkeit führen und mit der Zeit die Problemlösungsfähigkeiten beeinträchtigen.  „Die Automatisierung nimmt dem Benutzer die Möglichkeit, sein Urteilsvermögen durch regelmäßige Routineaufgaben zu trainieren“, heißt es in der Studie, zu der 319 Wissensarbeiter, die mindestens einmal pro Woche KI-Tools wie ChatGPT oder Microsoft Copilot verwenden, befragt wurden. „Stattdessen muss er nur noch in Ausnahmefällen eingreifen – auf die er dann ironischerweise nicht vorbereitet ist, weil ihm die Übung fehlt.“  Insgesamt, so ein Ergebnis der Analyse, korreliert das Vertrauen der Arbeitnehmer in die Fähigkeiten von GenAI mit weniger Aufwand beim kritischen Denken. Der Schwerpunkt des kritischen Denkens verlagert sich  vom Sammeln von Informationen zum Überprüfen dieser, vom Lösen von Problemen zum Integrieren von KI-Antworten und vom Ausführen von Aufgaben zum Überwachen dieser.   Die Studie legt nahe, dass GenAI-Tools so konzipiert werden sollten, dass sie das kritische Denken besser unterstützen, indem sie die Barrieren in Bezug auf das Bewusstsein, die Motivation und die Fähigkeiten der Arbeitnehmer absenken.  Ist kognitive Entlastung schädlich?  Die Studie untersuchte insbesondere die potenziellen Auswirkungen von GenAI auf das kritische Denken und ob die damit verbundene „kognitive Entlastung“ schädlich sein könnte. Dabei zeigte sich, dass Wissensarbeiter im GenAI-Kontext kritisches Denken in erster Linie einsetzen, um die Qualität sicherzustellen, KI-Ergebnisse zu verfeinern und KI-generierte Inhalte zu überprüfen. Zeitdruck, mangelndes Bewusstsein und Unkenntnis der Bereiche können jedoch das reflektierende Denken behindern.  Dazu muss man wissen, dass es sich bei kognitiver Entlastung um kein neues Phänomen handelt. Vielmehr kommen externe Geräte oder Prozesse schon seit Jahrhunderten zum Einsatz, um die mentale Anstrengung zu verringern. Bereits so Einfaches wie das Aufschreiben von Dingen oder das Verlassen auf die Hilfe anderer beim Erinnern, Lösen von Problemen oder Treffen von Entscheidungen ist beispielsweise eine Form der kognitiven Entlastung. Das Gleiche gilt für die Verwendung eines Taschenrechners anstelle von Kopfrechnen.  Anzeichen für einen Rückgang der Denkfähigkeiten   „Der Unterschied zwischen der Verwendung von GenAI im Vergleich zur Verwendung von Taschenrechnern und Internet-Suchmaschinen liegt darin, welche Gehirnfunktionen beansprucht werden und wie sie sich auf das tägliche Leben auswirken“, erklärt David Raffo, Professor am Maseeh College of Engineering and Computer Science der Portland State University. „GenAI-Tools entlasten bei Aufgaben, die Sprach- und Führungsfunktionen beinhalten. Es gilt das Prinzip ‘use it or lose it‘: Wenn wir unser Gehirn mit Schreiben, Kommunikation, Planung und Entscheidungsfindung beschäftigen, verbessern sich diese Fähigkeiten.Diese Aufgaben an generative KI und andere Tools abzugeben, beraubt uns der Möglichkeit, zu lernen und zu wachsen oder auch nur auf dem erreichten Niveau zu bleiben“, warnt Raffo.  Lev Tankelevitch, leitender Forscher bei Microsoft Research, räumt ein, dass nicht jede Nutzung von GenAI schlecht sei. Es gebe eindeutige Belege dafür, dass die KI das kritische Denken und die Lernergebnisse im Bildungsbereich verbessern könne. „In Nigeria beispielsweise deutet eine frühe Studie darauf hin, dass KI-Tutoren Schülern helfen könnten, in nur sechs Wochen einen Lernfortschritt von zwei Jahren zu erzielen“, so Tankelevitch. “Eine andere Studie zeigte, dass Schüler, die mit KI-gestützten Tutoren arbeiteten, mit einer um vier Prozent höheren Wahrscheinlichkeit Schlüsselthemen beherrschten.“  Der Schlüssel, so Tankelevitch, sei, dass es von Lehrern angeleitet werde. Pädagogen unterstützten bei den Prompts, lieferten den Kontext und zeigten, wie eine Zusammenarbeit von Mensch und KI echte Lernergebnisse erzielen kann.  Auch Pablo Rivas, Assistenzprofessor für Informatik an der Baylor University, sieht die KI-Nutzung nicht grundsätzlich negativ. Wenn jedoch die Ergebnisse einer Maschine unkontrolliert bleiben, laufe man Gefahr, die harte Denkarbeit zu überspringen, die die Fähigkeiten zur Problemlösung schärft.  Er empfiehlt, die Vorschläge der KI mit externen Quellen oder Fachwissen zu verifizieren. Eine andere Vorgehensweise sei, über die Argumentation hinter dem Ergebnis der KI nachzudenken, anstatt davon auszugehen, dass dieses korrekt ist. „Mit gesunder Skepsis und strukturierter Kontrolle kann generative KI die Produktivität steigern, ohne unsere Fähigkeit zum eigenständigen Denken zu beeinträchtigen“, erklärt Rivas.  Der richtige Weg, generative KI zu nutzen?  „In all unseren Forschungsarbeiten gibt es einen gemeinsamen Nenner: KI funktioniert am besten als Denkpartner und ergänzt die Arbeit der Menschen“, fügt Microsoft-Mann Tankelevitch an. „Wenn KI uns herausfordert, steigert sie nicht nur die Produktivität, sondern führt auch zu besseren Entscheidungen und stärkeren Ergebnissen.“  Die Ergebnisse der Studie der Carnegie- Mellon-Universität und Microsoft decken sich mit anderen Untersuchungen. Einem im Juni 2023 veröffentlichten Artikel der US-Forscher Elizabeth Dworak, William Revelle und David Condon zufolge, sind die Fähigkeiten im Bereich des verbalen Denkens und der Problemlösung in den USA stetig gesunken. Und während die IQ-Werte seit Beginn des 20. Jahrhunderts stetig gestiegen sind – noch 2012 stiegen die IQ-Werte um etwa 0,3 Punkte pro Jahr – zeigte eine Studie der Northwestern University im Jahr 2023 einen Rückgang in drei IQ-Test-Schlüsselkategorien.  

Wie GenAI unser Gehirn neu verdrahtet​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?quality=50&strip=all 7111w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2188971735_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Je mehr Aufgaben GenAI übernimmt, desto stärker wird die Abhängigkeit, so eine aktuelle Studie.New Africa/Shutterstock.com

GenAI-Tools setzen sich schnell durch, aber ihr Einsatz wirft Bedenken hinsichtlich ihrer Auswirkungen auf das menschliche Denken auf. So ergab eine neue Umfrage und Analyse von Carnegie Mellon und Microsoft, dass die Technologie zwar die Effizienz verbessert, aber auch das kritische Denken einschränken kann. Außerdem besteht die Gefahr, dass die kleinen Helfer zu übermäßiger Abhängigkeit führen und mit der Zeit die Problemlösungsfähigkeiten beeinträchtigen. 

„Die Automatisierung nimmt dem Benutzer die Möglichkeit, sein Urteilsvermögen durch regelmäßige Routineaufgaben zu trainieren“, heißt es in der Studie, zu der 319 Wissensarbeiter, die mindestens einmal pro Woche KI-Tools wie ChatGPT oder Microsoft Copilot verwenden, befragt wurden. „Stattdessen muss er nur noch in Ausnahmefällen eingreifen – auf die er dann ironischerweise nicht vorbereitet ist, weil ihm die Übung fehlt.“ 

Insgesamt, so ein Ergebnis der Analyse, korreliert das Vertrauen der Arbeitnehmer in die Fähigkeiten von GenAI mit weniger Aufwand beim kritischen Denken. Der Schwerpunkt des kritischen Denkens verlagert sich 

vom Sammeln von Informationen zum Überprüfen dieser,

vom Lösen von Problemen zum Integrieren von KI-Antworten und

vom Ausführen von Aufgaben zum Überwachen dieser.  

Die Studie legt nahe, dass GenAI-Tools so konzipiert werden sollten, dass sie das kritische Denken besser unterstützen, indem sie die Barrieren in Bezug auf das Bewusstsein, die Motivation und die Fähigkeiten der Arbeitnehmer absenken. 

Ist kognitive Entlastung schädlich? 

Die Studie untersuchte insbesondere die potenziellen Auswirkungen von GenAI auf das kritische Denken und ob die damit verbundene „kognitive Entlastung“ schädlich sein könnte. Dabei zeigte sich, dass Wissensarbeiter im GenAI-Kontext kritisches Denken in erster Linie einsetzen, um die Qualität sicherzustellen, KI-Ergebnisse zu verfeinern und KI-generierte Inhalte zu überprüfen. Zeitdruck, mangelndes Bewusstsein und Unkenntnis der Bereiche können jedoch das reflektierende Denken behindern. 

Dazu muss man wissen, dass es sich bei kognitiver Entlastung um kein neues Phänomen handelt. Vielmehr kommen externe Geräte oder Prozesse schon seit Jahrhunderten zum Einsatz, um die mentale Anstrengung zu verringern. Bereits so Einfaches wie das Aufschreiben von Dingen oder das Verlassen auf die Hilfe anderer beim Erinnern, Lösen von Problemen oder Treffen von Entscheidungen ist beispielsweise eine Form der kognitiven Entlastung. Das Gleiche gilt für die Verwendung eines Taschenrechners anstelle von Kopfrechnen. 

Anzeichen für einen Rückgang der Denkfähigkeiten  

„Der Unterschied zwischen der Verwendung von GenAI im Vergleich zur Verwendung von Taschenrechnern und Internet-Suchmaschinen liegt darin, welche Gehirnfunktionen beansprucht werden und wie sie sich auf das tägliche Leben auswirken“, erklärt David Raffo, Professor am Maseeh College of Engineering and Computer Science der Portland State University. „GenAI-Tools entlasten bei Aufgaben, die Sprach- und Führungsfunktionen beinhalten. Es gilt das Prinzip ‘use it or lose it‘: Wenn wir unser Gehirn mit Schreiben, Kommunikation, Planung und Entscheidungsfindung beschäftigen, verbessern sich diese Fähigkeiten.Diese Aufgaben an generative KI und andere Tools abzugeben, beraubt uns der Möglichkeit, zu lernen und zu wachsen oder auch nur auf dem erreichten Niveau zu bleiben“, warnt Raffo. 

Lev Tankelevitch, leitender Forscher bei Microsoft Research, räumt ein, dass nicht jede Nutzung von GenAI schlecht sei. Es gebe eindeutige Belege dafür, dass die KI das kritische Denken und die Lernergebnisse im Bildungsbereich verbessern könne. „In Nigeria beispielsweise deutet eine frühe Studie darauf hin, dass KI-Tutoren Schülern helfen könnten, in nur sechs Wochen einen Lernfortschritt von zwei Jahren zu erzielen“, so Tankelevitch. “Eine andere Studie zeigte, dass Schüler, die mit KI-gestützten Tutoren arbeiteten, mit einer um vier Prozent höheren Wahrscheinlichkeit Schlüsselthemen beherrschten.“ 

Der Schlüssel, so Tankelevitch, sei, dass es von Lehrern angeleitet werde. Pädagogen unterstützten bei den Prompts, lieferten den Kontext und zeigten, wie eine Zusammenarbeit von Mensch und KI echte Lernergebnisse erzielen kann. 

Auch Pablo Rivas, Assistenzprofessor für Informatik an der Baylor University, sieht die KI-Nutzung nicht grundsätzlich negativ. Wenn jedoch die Ergebnisse einer Maschine unkontrolliert bleiben, laufe man Gefahr, die harte Denkarbeit zu überspringen, die die Fähigkeiten zur Problemlösung schärft. 

Er empfiehlt, die Vorschläge der KI mit externen Quellen oder Fachwissen zu verifizieren. Eine andere Vorgehensweise sei, über die Argumentation hinter dem Ergebnis der KI nachzudenken, anstatt davon auszugehen, dass dieses korrekt ist. „Mit gesunder Skepsis und strukturierter Kontrolle kann generative KI die Produktivität steigern, ohne unsere Fähigkeit zum eigenständigen Denken zu beeinträchtigen“, erklärt Rivas. 

Der richtige Weg, generative KI zu nutzen? 

„In all unseren Forschungsarbeiten gibt es einen gemeinsamen Nenner: KI funktioniert am besten als Denkpartner und ergänzt die Arbeit der Menschen“, fügt Microsoft-Mann Tankelevitch an. „Wenn KI uns herausfordert, steigert sie nicht nur die Produktivität, sondern führt auch zu besseren Entscheidungen und stärkeren Ergebnissen.“ 

Die Ergebnisse der Studie der Carnegie- Mellon-Universität und Microsoft decken sich mit anderen Untersuchungen. Einem im Juni 2023 veröffentlichten Artikel der US-Forscher Elizabeth Dworak, William Revelle und David Condon zufolge, sind die Fähigkeiten im Bereich des verbalen Denkens und der Problemlösung in den USA stetig gesunken. Und während die IQ-Werte seit Beginn des 20. Jahrhunderts stetig gestiegen sind – noch 2012 stiegen die IQ-Werte um etwa 0,3 Punkte pro Jahr – zeigte eine Studie der Northwestern University im Jahr 2023 einen Rückgang in drei IQ-Test-Schlüsselkategorien. 

Wie GenAI unser Gehirn neu verdrahtet​ Weiterlesen »

Wenn das indische Call-Center nicht mehr indisch klingt​

Allgemein

Technologie soll Akzente neutralisieren und das Kundenerlebnis verbessern, ohne Arbeitsplätze zu vernichten.Alexander Limbach – shutterstock.com Ein Anruf in einem Callcenter kann aus verschiedenen Gründen unschön sein, mal sind es lange Wartezeiten, mal sind es wenig engagierte Mitarbeitende. Auch das Fachwissen der Person am anderen Ende des Apparates lässt bisweilen zu wünschen übrig. Sollte der Gesprächspartner dann noch schwer zu verstehen sein, ist es mit der Geduld und Selbstbeherrschung der meisten Menschen schnell vorbei. Für letzteres Problem will das französische Unternehmen Teleperformance eine Lösung parat haben. Akzente von Mitarbeitenden sollen mittels Künstlicher Intelligenz (KI) kaschiert werden. Der weltweit größte Callcenter-Betreiber verwendet hierfür ein System, das den Akzent ihrer englischsprachigen Mitarbeiter aus Indien in Echtzeit abschwächt. Besseres Kundenerlebnis dank neutralisiertem Akzent Das Unternehmen verspricht, dass die Technologie das Kundenerlebnis verbessert. Laut Vizechef Thomas Mackenbrock kann sie Akzente in Echtzeit neutralisieren, wodurch Verständlichkeit, Vertrautheit und Kundenzufriedenheit steigen sowie die Bearbeitungszeit sinken sollen. Die Technologie erkennt Sprachen in Echtzeit, transkribiert sie und passt den Akzent an, während Stimme und Emotion erhalten bleiben sollen. Die im Hintergrund arbeitenden KI-Modelle analysieren Aussprachemuster und wandeln die Stimme mithilfe von Text-to-Speech-Technologie um. Das Gesagte soll dann der Intonation und Betonung des gewünschten Zielakzentes entsprechen. KI ursprünglich eingesetzt um Hintergrundgeräusche in Callcentern zu reduzieren Teleperformance setzte die Technologie ursprünglich ein, um Hintergrundgeräusche in indischen Callcentern, die Kundensupport für internationale Kunden leisten, zu unterdrücken.  Entwickelt wurde die neue Akzent-Technologie vom in Palo Alto ansässigen Startup Sanas. Hierfür investierte Teleperformance 13 Millionen Dollar in das Unternehmen. Die Lösung ist Teil einer größeren KI-Strategie des Dienstleisters. Das Unternehmen plant, bis 2025 bis zu 100 Millionen Euro in KI-Partnerschaften zu investieren. Mögliche Auswirkungen auf Callcenter Sanas zielt laut eigenen Angaben darauf ab, akzentbedingte Diskriminierung zu verringern. Die Software solle keine Arbeitsplätze ersetzen, könnte jedoch Auswirkungen auf Callcenter in Ländern wie den Philippinen haben, die auf qualifizierte Arbeitskräfte, die Englisch sprechen, angewiesen sind. Aktuell unterstützt die Software indische und philippinische Akzente. Sie soll für andere Regionen, einschließlich Lateinamerika, weiterentwickelt werden. 

Wenn das indische Call-Center nicht mehr indisch klingt​ Technologie soll Akzente neutralisieren und das Kundenerlebnis verbessern, ohne Arbeitsplätze zu vernichten.Alexander Limbach – shutterstock.com

Ein Anruf in einem Callcenter kann aus verschiedenen Gründen unschön sein, mal sind es lange Wartezeiten, mal sind es wenig engagierte Mitarbeitende. Auch das Fachwissen der Person am anderen Ende des Apparates lässt bisweilen zu wünschen übrig. Sollte der Gesprächspartner dann noch schwer zu verstehen sein, ist es mit der Geduld und Selbstbeherrschung der meisten Menschen schnell vorbei.

Für letzteres Problem will das französische Unternehmen Teleperformance eine Lösung parat haben. Akzente von Mitarbeitenden sollen mittels Künstlicher Intelligenz (KI) kaschiert werden. Der weltweit größte Callcenter-Betreiber verwendet hierfür ein System, das den Akzent ihrer englischsprachigen Mitarbeiter aus Indien in Echtzeit abschwächt.

Besseres Kundenerlebnis dank neutralisiertem Akzent

Das Unternehmen verspricht, dass die Technologie das Kundenerlebnis verbessert. Laut Vizechef Thomas Mackenbrock kann sie Akzente in Echtzeit neutralisieren, wodurch

Verständlichkeit,

Vertrautheit und

Kundenzufriedenheit steigen sowie

die Bearbeitungszeit sinken sollen.

Die Technologie erkennt Sprachen in Echtzeit, transkribiert sie und passt den Akzent an, während Stimme und Emotion erhalten bleiben sollen. Die im Hintergrund arbeitenden KI-Modelle analysieren Aussprachemuster und wandeln die Stimme mithilfe von Text-to-Speech-Technologie um. Das Gesagte soll dann der Intonation und Betonung des gewünschten Zielakzentes entsprechen.

KI ursprünglich eingesetzt um Hintergrundgeräusche in Callcentern zu reduzieren

Teleperformance setzte die Technologie ursprünglich ein, um Hintergrundgeräusche in indischen Callcentern, die Kundensupport für internationale Kunden leisten, zu unterdrücken.  Entwickelt wurde die neue Akzent-Technologie vom in Palo Alto ansässigen Startup Sanas. Hierfür investierte Teleperformance 13 Millionen Dollar in das Unternehmen.

Die Lösung ist Teil einer größeren KI-Strategie des Dienstleisters. Das Unternehmen plant, bis 2025 bis zu 100 Millionen Euro in KI-Partnerschaften zu investieren.

Mögliche Auswirkungen auf Callcenter

Sanas zielt laut eigenen Angaben darauf ab, akzentbedingte Diskriminierung zu verringern. Die Software solle keine Arbeitsplätze ersetzen, könnte jedoch Auswirkungen auf Callcenter in Ländern wie den Philippinen haben, die auf qualifizierte Arbeitskräfte, die Englisch sprechen, angewiesen sind.

Aktuell unterstützt die Software indische und philippinische Akzente. Sie soll für andere Regionen, einschließlich Lateinamerika, weiterentwickelt werden.

Wenn das indische Call-Center nicht mehr indisch klingt​ Weiterlesen »

Telekom geht bei KI All-In​

Allgemein

Mit dem KI-Phone und Magenta AI gestaltet die Telekom die Weiterentwicklung im Smartphone-Bereich mit. Deutsche Telekom Wie wäre es, wenn ein digitaler Concierge auf dem Smartphone künftig per Sprachbefehl oder Tastatureingabe einen Tisch reserviert, ein Taxi ruft oder Texte zusammenfasst – ohne dass Sie dazu die verschiedenen Apps aufrufen müssen? Im vergangenen Jahr noch eine Vision, nimmt das App-freie KI-Phone der Telekom nun Gestalt an.   Unterstützt wird der Bonner TK-Konzern dabei vom KI-Startup Perplexity.ai und dessen digitalen Assistenten. Dieser ist direkt über den Startbildschirm oder den Power-Button des Smartphones erreichbar. Als weiteres KI-Features bietet das KI-Phone Anwendungen von:  Google Cloud AI (Objekterkennung), Elevenlabs (Podcast-Generator) und  Picsart (GenAI-Design-Tool).   Wie Technologiechefin Claudia Nemat am Telekom-Stand in Barcelona bekanntgab, soll das KI-Phone in der zweiten Jahreshälfte „zu einem erschwinglichen Preis“ verfügbar sein. Technische Details zu dem Android-basierten Smartphone wurden nicht bekanntgegeben. Da die Daten größtenteils in der Cloud verarbeitet werden, sind die Anforderungen an die Hardware aber nicht so hoch.  Alternativ bietet die Telekom Kunden über die MeinMagenta-App mit „Magenta AI“ ausgewählte KI-Angebote. Dazu zählt bereits die KI-gestützte Suchmaschine von Perplexity – aber offenbar nicht der als App frei verfügbare Perplexity Assistant. Im Sommer sollen außerdem die bereits genannten KI-Tools Google Cloud AI, ElevenLabs und Picsart dazukommen.    GenAI-Lösungen für B2B und die öffentliche Hand Aber auch an die öffentliche Verwaltung und Geschäftskunden hat die Telekom gedacht. So zeigt das Unternehmen auf dem MWC anhand von mehr als 30 Lösungen aus zehn Ländern, wie KI zu Wachstum, Effizienz und Kundenzufriedenheit beitragen kann. Ein Beispiel ist dabei ein KI-Chatbot, der Justizangestellten dabei hilft, juristischer Dokumente zu durchsuchen und zu analysieren – so laut Technologiechefin Nemat mit einer Zeitersparnis von 70 Prozent.  Eine andere GenAI-Lösung, der von T-Systems entwickelte “AI Engineer”, unterstützt Unternehmen dabei, Legacy-Code auf zeitgemäßere Lösungen wie Python zu migrieren. Der AI Engineer basiert dabei auf drei unterschiedlichen Large Language Models, die verschiedene Stärken und Schwächen aufweisen – und im Zusammenspiel wie ein Scrum-Team funktionieren. So assistiert die Lösung Entwicklern nicht nur bei repetitiven Aufgaben, sondern erstellt automatisch die Dokumentation und testet Teile des Programms. Der Code bleibt dabei in der Open Telekom Cloud geschützt. KI hält Hacker bei Laune   Deutsche Telekom Beim Thema Cybersicherheit und KI wurde die Telekom offenbar vom Wettbewerber Telefonica o2 und dessen KI-Oma inspiriert. Ähnlich wie Daisy, die Telefonbetrüger durch endlose Gespräche zur Verzweiflung treibt, reagieren die Telekom-KI-Honeypots der zweiten Generation, basierend auf der Open-Source-Plattform Beelzebub, nun so, als hätte die Anfrage des Hackers Erfolg gezeigt und werten parallel deren Aktionen aus. Auf diese Weise, so die Telekom, gewinne man auch Daten über Taktiken und Werkzeuge der Angreifer.   KI soll aber nicht nur für mehr Sicherheit im Netz sorgen, sondern auch einen effizienten und reibungslosen Betrieb sicherstellen. Zu diesem Zweck arbeitet die Telekom nach eigenen Angaben gemeinsam mit Google Cloud daran einen „RAN Guardian Agent“ zu entwickeln. Der auf Gemini 2.0 fußende, multimodale KI-Assistent soll in der Lage sein,   das Netzverhalten in Echtzeit zu analysieren, Anomalien zu erkennen und   bei Bedarf selbstheilende Maßnahmen auszuführen, um die Netzleistung zu optimieren.   Die Anpassungen sind dabei laut Nemat so granular, dass sie Menschen alleine nicht vornehmen könnten.   Das WLAN wird zur Alarmanlage   Darüber hinaus stellte die Telekom in Barcelona außerdem „WiFi-Sensing“ vor. Bei der ab WiFi 7 unterstützten Technik analysieren Algorithmen die WLAN-Signale zwischen Access Point und WLAN-fähigen Geräten – und erkennen, wenn sich etwas dabei verändert. Dank Machine Learning kann die Technik sogar unterscheiden, ob sich ein Kind, ein Erwachsener oder ein Haustier durch den Raum bewegt. Im Gegensatz zum Einsatz von Kameras wird dabei die Privatsphäre geschützt – WiFi-Sensing durchdringt auch Wände.  Als mögliches Szenario für WiFi-Sensing löst beispielsweise eine Bewegung in der leeren Wohnung – etwa bei einem Einbruch – einen Alarm aus. In einem Smart Home könnte der Router erkennen, dass alle Personen die Wohnung verlassen haben und entsprechend veranlassen, dass die Heizung heruntergedreht wird.   Wann entsprechende Anwendungen für Speedport-Router der Deutschen Telekom bereitstehen, ist derzeit nicht bekannt.   

Telekom geht bei KI All-In​ Mit dem KI-Phone und Magenta AI gestaltet die Telekom die Weiterentwicklung im Smartphone-Bereich mit. Deutsche Telekom

Wie wäre es, wenn ein digitaler Concierge auf dem Smartphone künftig per Sprachbefehl oder Tastatureingabe einen Tisch reserviert, ein Taxi ruft oder Texte zusammenfasst – ohne dass Sie dazu die verschiedenen Apps aufrufen müssen? Im vergangenen Jahr noch eine Vision, nimmt das App-freie KI-Phone der Telekom nun Gestalt an.  

Unterstützt wird der Bonner TK-Konzern dabei vom KI-Startup Perplexity.ai und dessen digitalen Assistenten. Dieser ist direkt über den Startbildschirm oder den Power-Button des Smartphones erreichbar. Als weiteres KI-Features bietet das KI-Phone Anwendungen von: 

Google Cloud AI (Objekterkennung),

Elevenlabs (Podcast-Generator) und 

Picsart (GenAI-Design-Tool).  

Wie Technologiechefin Claudia Nemat am Telekom-Stand in Barcelona bekanntgab, soll das KI-Phone in der zweiten Jahreshälfte „zu einem erschwinglichen Preis“ verfügbar sein. Technische Details zu dem Android-basierten Smartphone wurden nicht bekanntgegeben. Da die Daten größtenteils in der Cloud verarbeitet werden, sind die Anforderungen an die Hardware aber nicht so hoch. 

Alternativ bietet die Telekom Kunden über die MeinMagenta-App mit „Magenta AI“ ausgewählte KI-Angebote. Dazu zählt bereits die KI-gestützte Suchmaschine von Perplexity – aber offenbar nicht der als App frei verfügbare Perplexity Assistant. Im Sommer sollen außerdem die bereits genannten KI-Tools Google Cloud AI, ElevenLabs und Picsart dazukommen.   

GenAI-Lösungen für B2B und die öffentliche Hand

Aber auch an die öffentliche Verwaltung und Geschäftskunden hat die Telekom gedacht. So zeigt das Unternehmen auf dem MWC anhand von mehr als 30 Lösungen aus zehn Ländern, wie KI zu Wachstum, Effizienz und Kundenzufriedenheit beitragen kann. Ein Beispiel ist dabei ein KI-Chatbot, der Justizangestellten dabei hilft, juristischer Dokumente zu durchsuchen und zu analysieren – so laut Technologiechefin Nemat mit einer Zeitersparnis von 70 Prozent. 

Eine andere GenAI-Lösung, der von T-Systems entwickelte “AI Engineer”, unterstützt Unternehmen dabei, Legacy-Code auf zeitgemäßere Lösungen wie Python zu migrieren. Der AI Engineer basiert dabei auf drei unterschiedlichen Large Language Models, die verschiedene Stärken und Schwächen aufweisen – und im Zusammenspiel wie ein Scrum-Team funktionieren. So assistiert die Lösung Entwicklern nicht nur bei repetitiven Aufgaben, sondern erstellt automatisch die Dokumentation und testet Teile des Programms. Der Code bleibt dabei in der Open Telekom Cloud geschützt.

KI hält Hacker bei Laune  

Deutsche Telekom

Beim Thema Cybersicherheit und KI wurde die Telekom offenbar vom Wettbewerber Telefonica o2 und dessen KI-Oma inspiriert. Ähnlich wie Daisy, die Telefonbetrüger durch endlose Gespräche zur Verzweiflung treibt, reagieren die Telekom-KI-Honeypots der zweiten Generation, basierend auf der Open-Source-Plattform Beelzebub, nun so, als hätte die Anfrage des Hackers Erfolg gezeigt und werten parallel deren Aktionen aus. Auf diese Weise, so die Telekom, gewinne man auch Daten über Taktiken und Werkzeuge der Angreifer.  

KI soll aber nicht nur für mehr Sicherheit im Netz sorgen, sondern auch einen effizienten und reibungslosen Betrieb sicherstellen. Zu diesem Zweck arbeitet die Telekom nach eigenen Angaben gemeinsam mit Google Cloud daran einen „RAN Guardian Agent“ zu entwickeln. Der auf Gemini 2.0 fußende, multimodale KI-Assistent soll in der Lage sein,  

das Netzverhalten in Echtzeit zu analysieren,

Anomalien zu erkennen und  

bei Bedarf selbstheilende Maßnahmen auszuführen, um die Netzleistung zu optimieren.  

Die Anpassungen sind dabei laut Nemat so granular, dass sie Menschen alleine nicht vornehmen könnten.  

Das WLAN wird zur Alarmanlage  

Darüber hinaus stellte die Telekom in Barcelona außerdem „WiFi-Sensing“ vor. Bei der ab WiFi 7 unterstützten Technik analysieren Algorithmen die WLAN-Signale zwischen Access Point und WLAN-fähigen Geräten – und erkennen, wenn sich etwas dabei verändert. Dank Machine Learning kann die Technik sogar unterscheiden, ob sich ein Kind, ein Erwachsener oder ein Haustier durch den Raum bewegt. Im Gegensatz zum Einsatz von Kameras wird dabei die Privatsphäre geschützt – WiFi-Sensing durchdringt auch Wände. 

Als mögliches Szenario für WiFi-Sensing löst beispielsweise eine Bewegung in der leeren Wohnung – etwa bei einem Einbruch – einen Alarm aus. In einem Smart Home könnte der Router erkennen, dass alle Personen die Wohnung verlassen haben und entsprechend veranlassen, dass die Heizung heruntergedreht wird.  

Wann entsprechende Anwendungen für Speedport-Router der Deutschen Telekom bereitstehen, ist derzeit nicht bekannt.  

Telekom geht bei KI All-In​ Weiterlesen »

So funktioniert Social Engineering​

Allgemein

Social Engineering bedroht Unternehmen und Privatpersonen gleichermaßen. Wir klären Sie über die Psychologie der Scams auf und geben Ihnen Tipps an die Hand, um sich gegen Cybercrime zu schützen. Foto: Preechar Bowonkitwanchai – shutterstock.comEs erscheint auf den ersten Blick absurd: Obwohl die Technologien zur Abwehr von Cyber-Angriffen kontinuierlich besser und intelligenter werden, stehen schwere und schwerste IT-Sicherheitsvorfälle in Unternehmen, aber auch im Privatleben, regelmäßig auf der Tagesordnung. Um solche Angriffe erfolgreich durchführen zu können, bedarf es eines nicht so einfach zu kontrollierenden Einfallstors in ein ansonsten weitreichend geschütztes System: Der Mensch ist die zentrale Schwachstelle im Gesamtsystem, er bekommt es mit einer zunehmend professionelleren Front von Cyberkriminellen zu tun.Die augenscheinlich vom eigenen Vorgesetzten stammende Mail mit einem dringlichen Anliegen, die wie üblich freundschaftlich klingende Kommunikation mit einem Geschäftspartner samt anhängendem Office-Dokument oder die dringend notwendige Entsperrung eines Kontos bei der Bank oder einem sozialen Netzwerk sind häufig die Auslöser für konkrete Sicherheitsvorfälle. Ziel ist es, Anwender im Rahmen der erteilten Berechtigungen dazu zu bringen, aus Sicht des Unternehmens unerwünschte Operationen auszuführen. Dies kann der Klick auf eine gefälschte Webseite sein oder das versehentliche Ausführen eines bösartigen Programmes, das als Mail-Anhang schon im System vorliegt. Auch die Durchführung von unerwünschten Aktivitäten durch den Anwender selbst auf Basis der Vorspiegelung falscher Tatsachen wird immer häufiger. Der Schaden kann sich in vielerlei Auswirkungen zeigen und reicht von der Installation von Backdoors als Einfallstor für Folgeangriffe über die Aktivierung von Ransomware, bis hin zu konkreten finanziellen Einbußen, etwa durch fälschlicherweise getätigte Überweisungen.Social Engineering – eine DefinitionSocial Engineering steht für psychologische Manipulation von Menschen. Man versucht sie so zu beeinflussen, dass sie eine gewisse Verhaltensweise an den Tag legen – zum Beispiel Informationen herausgeben, ein Produkt kaufen, Geld überweisen oder eben den Zugang zu vermeintlich sicheren IT-Systemen ermöglichen. Die Anwendung dieser Methoden stellt typischerweise einen von mehreren Schritten im Rahmen einer komplexeren Strategie zur Durchführung eines Cyber-Angriffs dar.Social Engineering nutzt auf der psychologischen Ebene grundlegende menschliche Eigenheiten aus. Das Erwerben oder Erschleichen von Vertrauen nimmt hierbei eine zentrale Rolle ein. Um dieses Vertrauen aufzubauen, müssen Angreifer eine weitreichende Kenntnis der Zielorganisation oder -person haben. Das bedeutet, dass im Vorfeld eine umfangreiche Informationssammlung stattfinden muss. Besonders hilfreich sind für Angreifer im Rahmen einer langfristig angelegten Attacke Informationen, die in früheren, erfolgreichen Angriffen durch eine Backdoor bereits exfiltriert wurden. Zunehmend wird hierbei aber auch auf bereits vorliegende Informationen zurückgegriffen, die zeitgemäß durch aktuelle Big-Data-Technologien verarbeitet und nutzbar gemacht werden. Die Nutzung von Open Source Intelligence (OSINT), also die Sammlung und Analyse von Informationen, die aus allgemein zugänglichen oder offenen Quellen gesammelt werden, hat schon lange Einzug in das Social Engineering gehalten. Als Quellen kommen Medien, veröffentlichte Behördendaten, Webseiten und das Social Web sowie auch das Dark Net in Frage. Beispiele für Social EngineeringDie im Social Engineering eingesetzten Angriffe zielen darauf ab, vertrauliche Informationen der Mitarbeiter zu stehlen. Die häufigste Art von Social Engineering geschieht hierbei über E-Mail. Bei dieser als Phishing bezeichnete Vorgehensweise sendet der Angreifer eine E-Mail, die einer scheinbar legitimen Quelle entstammt. Diese kann im eigenen Unternehmen, bei Geschäfts- oder Kommunikationspartnern, aber auch bei vertrauenswürdigen Unternehmen wie Banken oder Kreditkartenunternehmen liegen. Die Anschreiben wirken zum Teil täuschend echt. Ihr Anliegen ist es, vertrauliche und kritische Informationen (Kreditkarten und PINs, Benutzernamen und Passwörter) zu erschleichen. Oft geht die Forderung mit einer Drohung einher (Sperrung von Zugängen, unklare hohe Lastschriften). Die vermeintliche Echtheit der Nachricht und damit das vom Anwender entgegengebrachte Vertrauen hängt nicht zuletzt von der Qualität zielgerichteter verwendeter Informationen ab. Diese Phishing-Mails enthalten meistens Links, die zu authentisch wirkenden, aber gefälschten Webseiten führen. Dort sollen die Betroffenen dannn ihre persönlichen Informationen hinterlassen. In ähnlichen Szenarien beinhalten die Mails Dateianhänge in Form von PDF- oder Microsoft-Office-Dokumenten, die beim Öffnen Schadsoftware aktivieren. Diese Malware kann dann, ausgestattet mit den Berechtigungen des Nutzers, im Netzwerk aktiv werden und weitere Informationen ausspähen oder als erpresserische Verschlüsselungs-Software essenzielle Unternehmensdaten unbrauchbar machen. Nicht zuletzt verleiten emotional aufgeladene Falschmeldungen (Fake News) Anwender zum Klick auf Links, die dann den Rechner – etwa durch unbewusste Drive-By-Downloads – infizieren. Die kontinuierlich um sich greifende Infektion von Computernetzen mit dem Schadsoftware-Ökosystem Emotet wird insbesondere über Social Engineering, nämlich Phishing mit betrügerischen Nachrichten, verbreitet.Neben dem Phishing gibt es auch das Vishing (Voice Phishing): Dabei erfolgt der Angriff über einen oder mehrere Telefonanrufe. Hierbei wird über zielgerichtete, oft informelle Kommunikation versucht, detailliertere Informationen über eine Zielorganisation zu sammeln oder konkrete, verwendbare Informationen wie Passwörter zu erschleichen. Bekannte Beispiele sind die grassierenden Anrufe durch angebliche Microsoft-Support-Mitarbeiter, die wahlweise Zugang zu den Rechnern oder Kreditkarteninformationen erschleichen wollen. Trotz kontinuierlich abnehmender Nutzung von SMS-Kurznachrichten bleibt auch das Smishing (Phishing via SMS) mit eingebetteten Links weiterhin eine Gefahr. Smishing stellt vor allem in den populären Kurznachrichtendiensten – von WhatsApp bis Facebook Messenger – eine zunehmende Bedrohung dar.Seit dem Durchbruch generativer künstlicher Intelligenz (Generative AI; GenAI) Ende 2022 wird die Technologie zunehmend auch von Cyberkriminellen genutzt – unter anderem für Social-Engineering-Angriffe. Dabei stehen insbesondere sogenannte Deepfakes im Fokus – also mit KI erzeugte Bilder, Audioaufnahmen oder auch Videos. Cyberkriminelle nutzen die Deep-Learning-Technologie, um die Stimmen oder Gesichter von Vorgesetzten zu imitieren und sich auf diesem Wege durch Täuschung Informationen oder Geld zu beschaffen. So geschehen beispielsweise in China: Ein krimineller Hacker konnte sein Opfer mit Hilfe von KI-basierter “Face-Swapping”-Technologie davon überzeugen, ein angeblicher Freund zu sein – und es so um umgerechnet mehr als eine halbe Million Dollar erleichtern. Doch Social-Engineering-Angriffe mit KI müssen nicht unbedingt mit Bewegtbild ablaufen. Aktuellen GenAI-Tools genügen bereits wenige Sekunden “Sprachmaterial”, um daraus überzeugende KI-Stimmen zu basteln. Damit lassen sich zum Beispiel Deepfake-Sprachnachrichten für diverse bösartige Zwecke anfertigen. Wer hat schon Lust, den Chef nach einer wütenden Voicemail mit dringenden, angeblich vergessenen Überweisungswünschen zurückzurufen? Tun sollten Sie es vielleicht dennoch – schließlich haben Social-Engineering- und Phishing-Angriffe in Zusammenhang mit künstlicher Intelligenz laut dem “Identity Fraud Report 2024” (Download gegen Daten) des Identity-Anbieters Onfido im Jahr 2023 um satte 3.000 Prozent zugelegt. Stu Sjouwerman, CEO beim Sicherheitsanbieter KnowBe4, hat sich in einem Beitrag für Forbes eingehend mit diesem Thema auseinandergesetzt. Sein Fazit: “Unternehmen müssen ihre Mitarbeiter anhalten, alles zu hinterfragen, was sie online sehen oder hören – und durch regelmäßige Social-Engineering-Sensibilisierungsübungen dafür sorgen, dass sie einen sechsten Sinn für die Cyberverteidigung entwickeln – ein Muskelgedächtnis, das in dem Moment in Gang gesetzt wird, in dem sie etwas Ungewöhnliches entdecken.” Social Engineering – Angriffe erkennen und abwehrenSocial Engineering ist im Kern keine technische Herausforderung. Ihr muss mit einer Vielzahl von vorbeugenden, analytischen und risikobegrenzenden Maßnahmen begegnet werden. Dennoch sind auch technische Mechanismen Teil eines umfassenden Portfolios zur Bekämpfung von Social Engineering und seinen Auswirkungen.Auf den einzelnen Arbeitsplätzen installierte Werkzeuge für Endpoint Security sind ebenfalls hilfreich: Der klassische Virenscanner erkennt eine Vielzahl von Schadsoftware anhand von Signaturen und kann eine grundlegende, aber nicht ausreichende Basissicherheit erzielen. Modernere Werkzeuge zum Application Whitelisting lassen nur die Ausführung von Software zu, die als legitim definiert ist. Greylisting-Ansätze lassen unbekannte Software erst durch externe Dienste validieren, oder sie sperren unsichere Produkte in isolierte virtuelle Maschinen, so dass das eigentliche System geschützt bleibt.Auf Infrastrukturebene und damit in der zentralen IT können folgende unternehmensweite Systeme zur Abwehr von Social-Engineering-Auswirkungen angesiedelt sein:Werkzeuge für User Behaviour Analytics, die im Identity und Access Management (IAM), aber auch in der Cybersecurity zum Einsatz kommen, können ungewöhnliche, von normalen Verhaltensmustern abweichende Tätigkeiten erkennen und entsprechende Maßnahmen initiieren.In Cyber-Threat-Intelligence-Systemen laufen Informationen über aktuelle Bedrohungen und externe Informationen zusammen, so dass Kontext, Mechanismen, Indikatoren und Auswirkungen über eine bestehende oder entstehende Bedrohung mit der aktuellen Unternehmenssituation abgeglichen werden und konkrete Maßnahmen abgeleitet werden können.Spezialisierte Social Engineering Toolkits geben den Verteidigern der IT-Sicherheit die technischen Komponenten der von den Angreifern verwendeten Werkzeuge an die Hand. Diese können einerseits zur Analyse und zum besseren Verständnis genutzt werden, also zu Ausbildungszwecken und zur kontinuierlichen Strategieverbesserung. Andererseits können sie auch zur Simulation von echten Angriffen oder für die Validierung bestehender Abwehrmaßnahmen und zur Durchführung konkreter Tests für Systeme und Mitarbeiter herangezogen werden. Kali-Linux-Installationen haben solche Social Engineering Toolkits als schnell nutzbare Analyse- und Stresstest-Systeme vorinstalliert.Social Engineering – Die Verantwortung der UserEbenso wichtig wie die technische Absicherung bedrohter Systeme ist die Achtsamkeit und Vorsicht der betroffenen Mitarbeiter. Ein tieferer Blick auf erhaltene Mails oder besuchte Webseiten kann dabei helfen, einen Großteil der Bedrohungen zu erkennen. Startpunkt ist hierbei immer die Plausibilitätsüberprüfung: Passt die Absender-Adresse der Mail und die Domain wirklich zu dem ausgeschriebenen Absender? Würde mich dieser Absender tatsächlich unter dieser Mail-Adresse mit dieser Intention anschreiben? Falls dies möglich erscheint, ist eine Nachfrage über einen anderen Kanal – also via Telefon oder Chat – sinnvoll. Ist der Klick auf die verlinkte Webseite schon erfolgt, kann es im Zweifelsfall zwar schon zu spät sein, dennoch kann man hier anhand der tatsächlichen URL sowie fehlenden oder nicht passenden Zertifikaten bösartige, gefälschte Webseiten auch als Laie schnell erkennen.Grundsätzlich kann eine “Deny-by-default”-Policy, die schon bei geringsten Zweifeln eine Nachricht ignorieren, melden oder löschen lässt, dabei helfen, eine Infektion zu vermeiden. Da eine solche Bedrohung aber üblicherweise nicht nur einen Mitarbeiter betrifft, ist es immer sinnvoll, eine zentrale Anlaufstelle für solche Vorfälle im Unternehmen zu haben. So werden Social-Engineering-Bedrohungen ernst genommen, innerhalb des IT-Sicherheitsteams analysiert, im Cyber-Threat-Intelligence-System mit vorhandenen Informationen korreliert und durch entsprechende Maßnahmen mitigiert.Social Engineering – Bedrohung begrenzen und verhindernAber auch das Unternehmen selbst, die Organisation und die implementierten Prozesse sind in der Verantwortung. Aufgeklärte Mitarbeiter sind ein zentrales Element in der IT-Sicherheitsstrategie eines Unternehmens. Es ist wichtig, dass dies erkannt und gelebt wird. Hierzu gehört an erster Stelle die umfassende und kontinuierliche Schulung der Mitarbeiter. Jeder muss die für seine Position relevanten Sicherheitsvorgaben kennen und in der Praxis umsetzen können. Hinzu kommen sorgfältig definierte Security Policies im Unternehmen. Auf deren Basis kann die Identifikation sensibler Informationen und ein angemessener Umgang mit ihnen erst festgelegt und kommuniziert werden. Um sensible und damit schützenswerte Informationen von weniger relevanten Informationen unterscheiden zu können, ist eine Risikobetrachtung und damit eine Bewertung der Gefährdung durch Social Engineering, aber auch andere Sicherheitsvorfälle essenziell.Ein solches Gerüst für die Unternehmenssicherheit mit klaren Handlungsanweisungen und Vorgaben ist nur so gut wie seine Anwendung und die selbstverständliche Beachtung der vorgegebenen Maßnahmen durch jeden Mitarbeiter. Als Nachweis und ständige Erinnerung ist deshalb die Durchführung unangekündigter, unregelmäßiger Tests unerlässlich. Die Widerstandsfähigkeit jedes Einzelnen zur Verhinderung von Social Engineering muss kontinuierlich vermittelt und erprobt werden, um in der Praxis wirksam zu sein.Social Engineering – Eine ErfolgsbrancheSocial Engineering als Bestandteil umfassender Bedrohungsszenarien für die Cybersecurity von Unternehmen unterliegt den gleichen Mechanismen der digitalen Transformation wie legitime Geschäftsmodelle. Dies muss als Geschäftsmodell verstanden werden, denn es professionalisiert sich nachhaltig und skaliert kontinuierlich nach oben. Phishing ist nicht zuletzt deshalb so populär, weil dieser Angriffsvektor sich weitgehend automatisieren lässt. Damit bedroht eine Vielzahl von kriminellen Akteuren unterschiedlicher Herkunft und Motivationen die Mitarbeiter von Unternehmen und deren Verhalten. Social Engineering ist eine der schwersten und gängigsten Angriffsformen, gegen die sich Unternehmen und Privatpersonen schützen müssen.Die Erfolgstreiber für Security AwarenessIndividuelle Lern-Sessions Foto: OPOLJA – shutterstock.comBieten Sie spezifische Inhalte für bestimmte User-Gruppen und Fachbereiche an, anstatt auf „one size fits all“ zu setzen.Überlänge vermeiden Foto: wavebreakmedia – shutterstock.comDie Aufmerksamkeitsspanne Ihrer Mitarbeiter ist begrenzt. Einzelne Sessions sollten im Idealfall nicht länger als 30 Minuten in Anspruch nehmen.Nicht alles auf einmal Foto: Catalin Petolea – shutterstock.comIT Security ist ein weites Feld – konzentrieren Sie sich auf die Dinge, mit denen die betreffenden Mitarbeiter in ihrem Arbeitsalltag konfrontiert werden.Der stete Tropfen Foto: grafxart – shutterstock.comSecurity Awareness einmal pro Jahr ist keine Lösung. Sorgen Sie für Trainings in regelmäßigen Abständen – nur so klappt es mit dem Awareness-Durchbruch.Keine alten Kamellen Foto: Casimiro PT – shutterstock.comHätten Sie große Lust, mehrmals dieselben Lehrinhalte serviert zu bekommen? Eben. Ihre Mitarbeiter auch nicht.Aktivität einfordern Foto: Melinda Nagy – shutterstock.comEine rein passive Berieselung mit Best Practices aus dem Security-Bereich ist nicht zielführend. Vielmehr sollten Sie Ihre Mitarbeiter aktiv ins Awareness-Training einbeziehen.C-Level an Bord? Foto: Jirsak – shutterstock.comAuch das Management braucht regelmäßige Weiterbildung in Sachen IT-Sicherheit. 

So funktioniert Social Engineering​ Social Engineering bedroht Unternehmen und Privatpersonen gleichermaßen. Wir klären Sie über die Psychologie der Scams auf und geben Ihnen Tipps an die Hand, um sich gegen Cybercrime zu schützen.
Foto: Preechar Bowonkitwanchai – shutterstock.comEs erscheint auf den ersten Blick absurd: Obwohl die Technologien zur Abwehr von Cyber-Angriffen kontinuierlich besser und intelligenter werden, stehen schwere und schwerste IT-Sicherheitsvorfälle in Unternehmen, aber auch im Privatleben, regelmäßig auf der Tagesordnung. Um solche Angriffe erfolgreich durchführen zu können, bedarf es eines nicht so einfach zu kontrollierenden Einfallstors in ein ansonsten weitreichend geschütztes System: Der Mensch ist die zentrale Schwachstelle im Gesamtsystem, er bekommt es mit einer zunehmend professionelleren Front von Cyberkriminellen zu tun.Die augenscheinlich vom eigenen Vorgesetzten stammende Mail mit einem dringlichen Anliegen, die wie üblich freundschaftlich klingende Kommunikation mit einem Geschäftspartner samt anhängendem Office-Dokument oder die dringend notwendige Entsperrung eines Kontos bei der Bank oder einem sozialen Netzwerk sind häufig die Auslöser für konkrete Sicherheitsvorfälle. Ziel ist es, Anwender im Rahmen der erteilten Berechtigungen dazu zu bringen, aus Sicht des Unternehmens unerwünschte Operationen auszuführen. Dies kann der Klick auf eine gefälschte Webseite sein oder das versehentliche Ausführen eines bösartigen Programmes, das als Mail-Anhang schon im System vorliegt. Auch die Durchführung von unerwünschten Aktivitäten durch den Anwender selbst auf Basis der Vorspiegelung falscher Tatsachen wird immer häufiger. Der Schaden kann sich in vielerlei Auswirkungen zeigen und reicht von der Installation von Backdoors als Einfallstor für Folgeangriffe über die Aktivierung von Ransomware, bis hin zu konkreten finanziellen Einbußen, etwa durch fälschlicherweise getätigte Überweisungen.Social Engineering – eine DefinitionSocial Engineering steht für psychologische Manipulation von Menschen. Man versucht sie so zu beeinflussen, dass sie eine gewisse Verhaltensweise an den Tag legen – zum Beispiel Informationen herausgeben, ein Produkt kaufen, Geld überweisen oder eben den Zugang zu vermeintlich sicheren IT-Systemen ermöglichen. Die Anwendung dieser Methoden stellt typischerweise einen von mehreren Schritten im Rahmen einer komplexeren Strategie zur Durchführung eines Cyber-Angriffs dar.Social Engineering nutzt auf der psychologischen Ebene grundlegende menschliche Eigenheiten aus. Das Erwerben oder Erschleichen von Vertrauen nimmt hierbei eine zentrale Rolle ein. Um dieses Vertrauen aufzubauen, müssen Angreifer eine weitreichende Kenntnis der Zielorganisation oder -person haben. Das bedeutet, dass im Vorfeld eine umfangreiche Informationssammlung stattfinden muss. Besonders hilfreich sind für Angreifer im Rahmen einer langfristig angelegten Attacke Informationen, die in früheren, erfolgreichen Angriffen durch eine Backdoor bereits exfiltriert wurden. Zunehmend wird hierbei aber auch auf bereits vorliegende Informationen zurückgegriffen, die zeitgemäß durch aktuelle Big-Data-Technologien verarbeitet und nutzbar gemacht werden. Die Nutzung von Open Source Intelligence (OSINT), also die Sammlung und Analyse von Informationen, die aus allgemein zugänglichen oder offenen Quellen gesammelt werden, hat schon lange Einzug in das Social Engineering gehalten. Als Quellen kommen Medien, veröffentlichte Behördendaten, Webseiten und das Social Web sowie auch das Dark Net in Frage. Beispiele für Social EngineeringDie im Social Engineering eingesetzten Angriffe zielen darauf ab, vertrauliche Informationen der Mitarbeiter zu stehlen. Die häufigste Art von Social Engineering geschieht hierbei über E-Mail. Bei dieser als Phishing bezeichnete Vorgehensweise sendet der Angreifer eine E-Mail, die einer scheinbar legitimen Quelle entstammt. Diese kann im eigenen Unternehmen, bei Geschäfts- oder Kommunikationspartnern, aber auch bei vertrauenswürdigen Unternehmen wie Banken oder Kreditkartenunternehmen liegen. Die Anschreiben wirken zum Teil täuschend echt. Ihr Anliegen ist es, vertrauliche und kritische Informationen (Kreditkarten und PINs, Benutzernamen und Passwörter) zu erschleichen. Oft geht die Forderung mit einer Drohung einher (Sperrung von Zugängen, unklare hohe Lastschriften). Die vermeintliche Echtheit der Nachricht und damit das vom Anwender entgegengebrachte Vertrauen hängt nicht zuletzt von der Qualität zielgerichteter verwendeter Informationen ab. Diese Phishing-Mails enthalten meistens Links, die zu authentisch wirkenden, aber gefälschten Webseiten führen. Dort sollen die Betroffenen dannn ihre persönlichen Informationen hinterlassen. In ähnlichen Szenarien beinhalten die Mails Dateianhänge in Form von PDF- oder Microsoft-Office-Dokumenten, die beim Öffnen Schadsoftware aktivieren. Diese Malware kann dann, ausgestattet mit den Berechtigungen des Nutzers, im Netzwerk aktiv werden und weitere Informationen ausspähen oder als erpresserische Verschlüsselungs-Software essenzielle Unternehmensdaten unbrauchbar machen. Nicht zuletzt verleiten emotional aufgeladene Falschmeldungen (Fake News) Anwender zum Klick auf Links, die dann den Rechner – etwa durch unbewusste Drive-By-Downloads – infizieren. Die kontinuierlich um sich greifende Infektion von Computernetzen mit dem Schadsoftware-Ökosystem Emotet wird insbesondere über Social Engineering, nämlich Phishing mit betrügerischen Nachrichten, verbreitet.Neben dem Phishing gibt es auch das Vishing (Voice Phishing): Dabei erfolgt der Angriff über einen oder mehrere Telefonanrufe. Hierbei wird über zielgerichtete, oft informelle Kommunikation versucht, detailliertere Informationen über eine Zielorganisation zu sammeln oder konkrete, verwendbare Informationen wie Passwörter zu erschleichen. Bekannte Beispiele sind die grassierenden Anrufe durch angebliche Microsoft-Support-Mitarbeiter, die wahlweise Zugang zu den Rechnern oder Kreditkarteninformationen erschleichen wollen. Trotz kontinuierlich abnehmender Nutzung von SMS-Kurznachrichten bleibt auch das Smishing (Phishing via SMS) mit eingebetteten Links weiterhin eine Gefahr. Smishing stellt vor allem in den populären Kurznachrichtendiensten – von WhatsApp bis Facebook Messenger – eine zunehmende Bedrohung dar.Seit dem Durchbruch generativer künstlicher Intelligenz (Generative AI; GenAI) Ende 2022 wird die Technologie zunehmend auch von Cyberkriminellen genutzt – unter anderem für Social-Engineering-Angriffe. Dabei stehen insbesondere sogenannte Deepfakes im Fokus – also mit KI erzeugte Bilder, Audioaufnahmen oder auch Videos. Cyberkriminelle nutzen die Deep-Learning-Technologie, um die Stimmen oder Gesichter von Vorgesetzten zu imitieren und sich auf diesem Wege durch Täuschung Informationen oder Geld zu beschaffen. So geschehen beispielsweise in China: Ein krimineller Hacker konnte sein Opfer mit Hilfe von KI-basierter “Face-Swapping”-Technologie davon überzeugen, ein angeblicher Freund zu sein – und es so um umgerechnet mehr als eine halbe Million Dollar erleichtern. Doch Social-Engineering-Angriffe mit KI müssen nicht unbedingt mit Bewegtbild ablaufen. Aktuellen GenAI-Tools genügen bereits wenige Sekunden “Sprachmaterial”, um daraus überzeugende KI-Stimmen zu basteln. Damit lassen sich zum Beispiel Deepfake-Sprachnachrichten für diverse bösartige Zwecke anfertigen. Wer hat schon Lust, den Chef nach einer wütenden Voicemail mit dringenden, angeblich vergessenen Überweisungswünschen zurückzurufen? Tun sollten Sie es vielleicht dennoch – schließlich haben Social-Engineering- und Phishing-Angriffe in Zusammenhang mit künstlicher Intelligenz laut dem “Identity Fraud Report 2024” (Download gegen Daten) des Identity-Anbieters Onfido im Jahr 2023 um satte 3.000 Prozent zugelegt. Stu Sjouwerman, CEO beim Sicherheitsanbieter KnowBe4, hat sich in einem Beitrag für Forbes eingehend mit diesem Thema auseinandergesetzt. Sein Fazit: “Unternehmen müssen ihre Mitarbeiter anhalten, alles zu hinterfragen, was sie online sehen oder hören – und durch regelmäßige Social-Engineering-Sensibilisierungsübungen dafür sorgen, dass sie einen sechsten Sinn für die Cyberverteidigung entwickeln – ein Muskelgedächtnis, das in dem Moment in Gang gesetzt wird, in dem sie etwas Ungewöhnliches entdecken.” Social Engineering – Angriffe erkennen und abwehrenSocial Engineering ist im Kern keine technische Herausforderung. Ihr muss mit einer Vielzahl von vorbeugenden, analytischen und risikobegrenzenden Maßnahmen begegnet werden. Dennoch sind auch technische Mechanismen Teil eines umfassenden Portfolios zur Bekämpfung von Social Engineering und seinen Auswirkungen.Auf den einzelnen Arbeitsplätzen installierte Werkzeuge für Endpoint Security sind ebenfalls hilfreich: Der klassische Virenscanner erkennt eine Vielzahl von Schadsoftware anhand von Signaturen und kann eine grundlegende, aber nicht ausreichende Basissicherheit erzielen. Modernere Werkzeuge zum Application Whitelisting lassen nur die Ausführung von Software zu, die als legitim definiert ist. Greylisting-Ansätze lassen unbekannte Software erst durch externe Dienste validieren, oder sie sperren unsichere Produkte in isolierte virtuelle Maschinen, so dass das eigentliche System geschützt bleibt.Auf Infrastrukturebene und damit in der zentralen IT können folgende unternehmensweite Systeme zur Abwehr von Social-Engineering-Auswirkungen angesiedelt sein:Werkzeuge für User Behaviour Analytics, die im Identity und Access Management (IAM), aber auch in der Cybersecurity zum Einsatz kommen, können ungewöhnliche, von normalen Verhaltensmustern abweichende Tätigkeiten erkennen und entsprechende Maßnahmen initiieren.In Cyber-Threat-Intelligence-Systemen laufen Informationen über aktuelle Bedrohungen und externe Informationen zusammen, so dass Kontext, Mechanismen, Indikatoren und Auswirkungen über eine bestehende oder entstehende Bedrohung mit der aktuellen Unternehmenssituation abgeglichen werden und konkrete Maßnahmen abgeleitet werden können.Spezialisierte Social Engineering Toolkits geben den Verteidigern der IT-Sicherheit die technischen Komponenten der von den Angreifern verwendeten Werkzeuge an die Hand. Diese können einerseits zur Analyse und zum besseren Verständnis genutzt werden, also zu Ausbildungszwecken und zur kontinuierlichen Strategieverbesserung. Andererseits können sie auch zur Simulation von echten Angriffen oder für die Validierung bestehender Abwehrmaßnahmen und zur Durchführung konkreter Tests für Systeme und Mitarbeiter herangezogen werden. Kali-Linux-Installationen haben solche Social Engineering Toolkits als schnell nutzbare Analyse- und Stresstest-Systeme vorinstalliert.Social Engineering – Die Verantwortung der UserEbenso wichtig wie die technische Absicherung bedrohter Systeme ist die Achtsamkeit und Vorsicht der betroffenen Mitarbeiter. Ein tieferer Blick auf erhaltene Mails oder besuchte Webseiten kann dabei helfen, einen Großteil der Bedrohungen zu erkennen. Startpunkt ist hierbei immer die Plausibilitätsüberprüfung: Passt die Absender-Adresse der Mail und die Domain wirklich zu dem ausgeschriebenen Absender? Würde mich dieser Absender tatsächlich unter dieser Mail-Adresse mit dieser Intention anschreiben? Falls dies möglich erscheint, ist eine Nachfrage über einen anderen Kanal – also via Telefon oder Chat – sinnvoll. Ist der Klick auf die verlinkte Webseite schon erfolgt, kann es im Zweifelsfall zwar schon zu spät sein, dennoch kann man hier anhand der tatsächlichen URL sowie fehlenden oder nicht passenden Zertifikaten bösartige, gefälschte Webseiten auch als Laie schnell erkennen.Grundsätzlich kann eine “Deny-by-default”-Policy, die schon bei geringsten Zweifeln eine Nachricht ignorieren, melden oder löschen lässt, dabei helfen, eine Infektion zu vermeiden. Da eine solche Bedrohung aber üblicherweise nicht nur einen Mitarbeiter betrifft, ist es immer sinnvoll, eine zentrale Anlaufstelle für solche Vorfälle im Unternehmen zu haben. So werden Social-Engineering-Bedrohungen ernst genommen, innerhalb des IT-Sicherheitsteams analysiert, im Cyber-Threat-Intelligence-System mit vorhandenen Informationen korreliert und durch entsprechende Maßnahmen mitigiert.Social Engineering – Bedrohung begrenzen und verhindernAber auch das Unternehmen selbst, die Organisation und die implementierten Prozesse sind in der Verantwortung. Aufgeklärte Mitarbeiter sind ein zentrales Element in der IT-Sicherheitsstrategie eines Unternehmens. Es ist wichtig, dass dies erkannt und gelebt wird. Hierzu gehört an erster Stelle die umfassende und kontinuierliche Schulung der Mitarbeiter. Jeder muss die für seine Position relevanten Sicherheitsvorgaben kennen und in der Praxis umsetzen können. Hinzu kommen sorgfältig definierte Security Policies im Unternehmen. Auf deren Basis kann die Identifikation sensibler Informationen und ein angemessener Umgang mit ihnen erst festgelegt und kommuniziert werden. Um sensible und damit schützenswerte Informationen von weniger relevanten Informationen unterscheiden zu können, ist eine Risikobetrachtung und damit eine Bewertung der Gefährdung durch Social Engineering, aber auch andere Sicherheitsvorfälle essenziell.Ein solches Gerüst für die Unternehmenssicherheit mit klaren Handlungsanweisungen und Vorgaben ist nur so gut wie seine Anwendung und die selbstverständliche Beachtung der vorgegebenen Maßnahmen durch jeden Mitarbeiter. Als Nachweis und ständige Erinnerung ist deshalb die Durchführung unangekündigter, unregelmäßiger Tests unerlässlich. Die Widerstandsfähigkeit jedes Einzelnen zur Verhinderung von Social Engineering muss kontinuierlich vermittelt und erprobt werden, um in der Praxis wirksam zu sein.Social Engineering – Eine ErfolgsbrancheSocial Engineering als Bestandteil umfassender Bedrohungsszenarien für die Cybersecurity von Unternehmen unterliegt den gleichen Mechanismen der digitalen Transformation wie legitime Geschäftsmodelle. Dies muss als Geschäftsmodell verstanden werden, denn es professionalisiert sich nachhaltig und skaliert kontinuierlich nach oben. Phishing ist nicht zuletzt deshalb so populär, weil dieser Angriffsvektor sich weitgehend automatisieren lässt. Damit bedroht eine Vielzahl von kriminellen Akteuren unterschiedlicher Herkunft und Motivationen die Mitarbeiter von Unternehmen und deren Verhalten. Social Engineering ist eine der schwersten und gängigsten Angriffsformen, gegen die sich Unternehmen und Privatpersonen schützen müssen.Die Erfolgstreiber für Security AwarenessIndividuelle Lern-Sessions
Foto: OPOLJA – shutterstock.comBieten Sie spezifische Inhalte für bestimmte User-Gruppen und Fachbereiche an, anstatt auf „one size fits all“ zu setzen.Überlänge vermeiden
Foto: wavebreakmedia – shutterstock.comDie Aufmerksamkeitsspanne Ihrer Mitarbeiter ist begrenzt. Einzelne Sessions sollten im Idealfall nicht länger als 30 Minuten in Anspruch nehmen.Nicht alles auf einmal
Foto: Catalin Petolea – shutterstock.comIT Security ist ein weites Feld – konzentrieren Sie sich auf die Dinge, mit denen die betreffenden Mitarbeiter in ihrem Arbeitsalltag konfrontiert werden.Der stete Tropfen
Foto: grafxart – shutterstock.comSecurity Awareness einmal pro Jahr ist keine Lösung. Sorgen Sie für Trainings in regelmäßigen Abständen – nur so klappt es mit dem Awareness-Durchbruch.Keine alten Kamellen
Foto: Casimiro PT – shutterstock.comHätten Sie große Lust, mehrmals dieselben Lehrinhalte serviert zu bekommen? Eben. Ihre Mitarbeiter auch nicht.Aktivität einfordern
Foto: Melinda Nagy – shutterstock.comEine rein passive Berieselung mit Best Practices aus dem Security-Bereich ist nicht zielführend. Vielmehr sollten Sie Ihre Mitarbeiter aktiv ins Awareness-Training einbeziehen.C-Level an Bord?
Foto: Jirsak – shutterstock.comAuch das Management braucht regelmäßige Weiterbildung in Sachen IT-Sicherheit.

So funktioniert Social Engineering​ Weiterlesen »

Gehaltsgespräch führen: 3 Fehler, die das Gehalt mindern​

Allgemein

Wir verraten Ihnen, welche Fehler Sie in Gehaltsgesprächen vermeiden sollten. Foto: Inna Dodor – shutterstock.comViele Mitarbeiter haben in Gehaltsverhandlungen Angst davor, zu viel zu verlangen und erwarten dadurch lieber weniger. Manche denken sich: “Wenn ich einmal im Unternehmen bin, habe ich bessere Chancen aufzusteigen und mich finanziell zu verbessern.” Doch das ist der falsche Ansatz. 3 Fehler, die Ihr Gehalt mindernDer größte Gehalts- beziehungsweise Karrieresprung lässt sich in der Regel bei einem Arbeitgeberwechsel realisieren. Dabei sollten Sie folgende Fehler vermeiden:1. Aktuelles Gehalt nennenPersonaler fragen gerne: “Wie viel verdienen Sie aktuell?” – diese Frage wird oft vor der eigentlichen Frage nach dem Wunschgehalt gestellt und ist lediglich für den Personaler vorteilhaft. Denn die erste Zahl, die in einer Gehaltsverhandlung genannt wird, beeinflusst das Verhandlungsergebnis sehr stark. Das ist der sogenannte Anker, den man in (Gehalts-)Verhandlungen setzt. Er dominiert das Gespräch erheblich. Ist also Ihr aktuelles Gehalt viel niedriger als die Summe, die der Personaler für die Position vorgesehen hat, kann und wird er sehr wahrscheinlich sein Angebot herunterschrauben, weil er sein Personalbudget nicht unnötig belasten möchte. Es besteht grundsätzlich ein Interessenskonflikt: Arbeitgeber möchten leistungsstarkes Personal günstig einkaufen und Arbeitnehmer möchten für ihren Einsatz so gut wie möglich bezahlt werden. Dass der Personaler das maximal vorgesehene Gehalt nicht freiwillig anbietet, liegt auf der Hand.Ihr zukünftiges Gehalt ist unabhängig von Ihrem aktuellen Gehalt. Ob Sie durch den Arbeitgeberwechsel einen Gehaltssprung von fünf oder 50 Prozent erzielen, sollte nur Ihnen bekannt sein. Die Erfahrung mit Klienten und der Austausch mit HR-Managern zeigt, dass viele Bewerber bei der Frage nach dem Wunschgehalt ihr aktuelles Gehalt nennen, obwohl gar nicht danach gefragt wurde. Ein klassischer Fehler dabei ist: “Aktuell verdiene ich x Euro und ich möchte mich nicht verschlechtern.” Indem der Bewerber der eigentlichen Frage ausweicht, signalisiert er zudem, dass er seinen Wert nicht kennt.Es gibt sogar Fälle, in denen der Bewerber den Job nicht bekommt, weil er zu wenig Gehalt verlangt, was viele Manager bestätigen. Wenn jemand weniger verlangt, als der Personaler für die Position eingeplant hat, dann schließt er daraus, dass die Person für diesen Posten noch nicht bereit ist. Vor allem, wenn es um Führungspositionen und sechsstellige Gehälter geht.2. Mindestgehalt nennen“Ich möchte mindestens x Euro verdienen.” In Verhandlungen sollten Sie nie vom Minimum ausgehen, da Sie somit ihre eigenen Chancen reduzieren und sich selbst nicht die Möglichkeit geben, das bestmögliche Ergebnis zu erzielen. Definieren Sie für sich ein Mindest-, Optimal- und Maximalgehalt. Verhandeln Sie dann in dieser Spanne und gehen Sie mit dem Maximalgehalt ins Gespräch.3. Gegenfrage stellenViele Bewerber stellen im Gespräch die Gegenfrage, wie viel Budget für die Stelle geplant ist. Dadurch erhoffen sie sich, dass der künftige Arbeitgeber ein passendes Jahresgehalt anbietet. Aufgrund seines Interessenkonfliktes wird der Personaler aber in keinem Fall das höchstmögliche Gehalt nennen. Er wird höchstwahrscheinlich im unteren Drittel starten – in der Hoffnung, dass der Arbeitnehmer damit einverstanden ist. Auch mit dieser Frage signalisiert der Bewerber, dass er seinen eigenen Wert nicht kennt und verunsichert ist. Wenn ihm sein eigener Wert bewusst wäre, würde er eine konkrete Summe nennen.Gehalt: 5 Verhandlungstipps für FrauenStrategie ist TrumpfZum einen sollten sich Frauen grundsätzlich darauf einstellen, dass überhaupt verhandelt wird. Zum Zweiten geht es um das Konkrete: wie viel „Puffer“ kalkuliert man ein? Mit welchen Argumenten belegt man die eigene Forderung? Solche Fragen muss man vorbereiten.Sich selbst eine gute Spielpartnerin seinWer nicht wirklich von sich selbst überzeugt ist, könnte über den „innerlichen Kritiker“ stolpern. Eine typisch weibliche Schwäche. Frauen sollten sich bewusst machen, was sie schon geschafft haben. Sie können zum Beispiel Zeugnisse oder Auszeichnungen über ihrem Schreibtisch aufhängen oder sich die Mails mit den anerkennenden Worten ihrer Kunden durchlesen. Cool und professionell bleibenEs geht nicht um ein undurchsichtiges Pokerface. Wohl aber um sachliche Distanz. Will das Gegenüber Forderungen herunterhandeln, dann ist das bitte nicht als persönlicher Angriff zu verstehen. Der Verhandlungspartner versucht eben, für sich oder sein Unternehmen einen guten Preis herauszuholen.Pulver nicht zu schnell verschießenFrauen neigen zu der Haltung: Bevor wir hier noch ewig herum verhandeln, gebe ich eben nach – sonst geht ja nie was vorwärts. Sie müssen verstehen, dass die Verhandlung Teil ihrer Arbeit oder ihres Auftrags ist und kein lästiges Beiwerk.Die Verhandlung spielerisch sehenEine spielerische Haltung kann nicht schaden. Frauen können sich die Argumente als Karten vorstellen. Wer wird welchen Spielzug ausführen? Hier gilt das Motto: “Wer nicht wagt, der nicht gewinnt!”Sandra SchubertSandra Schubert versteht sich als Expertin für Verkauf und positive Psychologie. Sie engagiert sich außerdem als Mentorin für ein MINT-Programm an der Fachhochschule Rosenheim (Hochschule für angewandte Wissenschaften). Ihre Beobachtung: “Die jungen Frauen brauchen keine Schutzzäune mehr!”Tanja PetersTanja Peters ist Verhandlungsexpertin, systemische Beraterin und Trainerin. Weil Erfolg nicht nur Kopfsache ist, biete sie auch MUTMuskeltraining an. 

Gehaltsgespräch führen: 3 Fehler, die das Gehalt mindern​ Wir verraten Ihnen, welche Fehler Sie in Gehaltsgesprächen vermeiden sollten.
Foto: Inna Dodor – shutterstock.comViele Mitarbeiter haben in Gehaltsverhandlungen Angst davor, zu viel zu verlangen und erwarten dadurch lieber weniger. Manche denken sich: “Wenn ich einmal im Unternehmen bin, habe ich bessere Chancen aufzusteigen und mich finanziell zu verbessern.” Doch das ist der falsche Ansatz. 3 Fehler, die Ihr Gehalt mindernDer größte Gehalts- beziehungsweise Karrieresprung lässt sich in der Regel bei einem Arbeitgeberwechsel realisieren. Dabei sollten Sie folgende Fehler vermeiden:1. Aktuelles Gehalt nennenPersonaler fragen gerne: “Wie viel verdienen Sie aktuell?” – diese Frage wird oft vor der eigentlichen Frage nach dem Wunschgehalt gestellt und ist lediglich für den Personaler vorteilhaft. Denn die erste Zahl, die in einer Gehaltsverhandlung genannt wird, beeinflusst das Verhandlungsergebnis sehr stark. Das ist der sogenannte Anker, den man in (Gehalts-)Verhandlungen setzt. Er dominiert das Gespräch erheblich. Ist also Ihr aktuelles Gehalt viel niedriger als die Summe, die der Personaler für die Position vorgesehen hat, kann und wird er sehr wahrscheinlich sein Angebot herunterschrauben, weil er sein Personalbudget nicht unnötig belasten möchte. Es besteht grundsätzlich ein Interessenskonflikt: Arbeitgeber möchten leistungsstarkes Personal günstig einkaufen und Arbeitnehmer möchten für ihren Einsatz so gut wie möglich bezahlt werden. Dass der Personaler das maximal vorgesehene Gehalt nicht freiwillig anbietet, liegt auf der Hand.Ihr zukünftiges Gehalt ist unabhängig von Ihrem aktuellen Gehalt. Ob Sie durch den Arbeitgeberwechsel einen Gehaltssprung von fünf oder 50 Prozent erzielen, sollte nur Ihnen bekannt sein. Die Erfahrung mit Klienten und der Austausch mit HR-Managern zeigt, dass viele Bewerber bei der Frage nach dem Wunschgehalt ihr aktuelles Gehalt nennen, obwohl gar nicht danach gefragt wurde. Ein klassischer Fehler dabei ist: “Aktuell verdiene ich x Euro und ich möchte mich nicht verschlechtern.” Indem der Bewerber der eigentlichen Frage ausweicht, signalisiert er zudem, dass er seinen Wert nicht kennt.Es gibt sogar Fälle, in denen der Bewerber den Job nicht bekommt, weil er zu wenig Gehalt verlangt, was viele Manager bestätigen. Wenn jemand weniger verlangt, als der Personaler für die Position eingeplant hat, dann schließt er daraus, dass die Person für diesen Posten noch nicht bereit ist. Vor allem, wenn es um Führungspositionen und sechsstellige Gehälter geht.2. Mindestgehalt nennen“Ich möchte mindestens x Euro verdienen.” In Verhandlungen sollten Sie nie vom Minimum ausgehen, da Sie somit ihre eigenen Chancen reduzieren und sich selbst nicht die Möglichkeit geben, das bestmögliche Ergebnis zu erzielen. Definieren Sie für sich ein Mindest-, Optimal- und Maximalgehalt. Verhandeln Sie dann in dieser Spanne und gehen Sie mit dem Maximalgehalt ins Gespräch.3. Gegenfrage stellenViele Bewerber stellen im Gespräch die Gegenfrage, wie viel Budget für die Stelle geplant ist. Dadurch erhoffen sie sich, dass der künftige Arbeitgeber ein passendes Jahresgehalt anbietet. Aufgrund seines Interessenkonfliktes wird der Personaler aber in keinem Fall das höchstmögliche Gehalt nennen. Er wird höchstwahrscheinlich im unteren Drittel starten – in der Hoffnung, dass der Arbeitnehmer damit einverstanden ist. Auch mit dieser Frage signalisiert der Bewerber, dass er seinen eigenen Wert nicht kennt und verunsichert ist. Wenn ihm sein eigener Wert bewusst wäre, würde er eine konkrete Summe nennen.Gehalt: 5 Verhandlungstipps für FrauenStrategie ist TrumpfZum einen sollten sich Frauen grundsätzlich darauf einstellen, dass überhaupt verhandelt wird. Zum Zweiten geht es um das Konkrete: wie viel „Puffer“ kalkuliert man ein? Mit welchen Argumenten belegt man die eigene Forderung? Solche Fragen muss man vorbereiten.Sich selbst eine gute Spielpartnerin seinWer nicht wirklich von sich selbst überzeugt ist, könnte über den „innerlichen Kritiker“ stolpern. Eine typisch weibliche Schwäche. Frauen sollten sich bewusst machen, was sie schon geschafft haben. Sie können zum Beispiel Zeugnisse oder Auszeichnungen über ihrem Schreibtisch aufhängen oder sich die Mails mit den anerkennenden Worten ihrer Kunden durchlesen. Cool und professionell bleibenEs geht nicht um ein undurchsichtiges Pokerface. Wohl aber um sachliche Distanz. Will das Gegenüber Forderungen herunterhandeln, dann ist das bitte nicht als persönlicher Angriff zu verstehen. Der Verhandlungspartner versucht eben, für sich oder sein Unternehmen einen guten Preis herauszuholen.Pulver nicht zu schnell verschießenFrauen neigen zu der Haltung: Bevor wir hier noch ewig herum verhandeln, gebe ich eben nach – sonst geht ja nie was vorwärts. Sie müssen verstehen, dass die Verhandlung Teil ihrer Arbeit oder ihres Auftrags ist und kein lästiges Beiwerk.Die Verhandlung spielerisch sehenEine spielerische Haltung kann nicht schaden. Frauen können sich die Argumente als Karten vorstellen. Wer wird welchen Spielzug ausführen? Hier gilt das Motto: “Wer nicht wagt, der nicht gewinnt!”Sandra SchubertSandra Schubert versteht sich als Expertin für Verkauf und positive Psychologie. Sie engagiert sich außerdem als Mentorin für ein MINT-Programm an der Fachhochschule Rosenheim (Hochschule für angewandte Wissenschaften). Ihre Beobachtung: “Die jungen Frauen brauchen keine Schutzzäune mehr!”Tanja PetersTanja Peters ist Verhandlungsexpertin, systemische Beraterin und Trainerin. Weil Erfolg nicht nur Kopfsache ist, biete sie auch MUTMuskeltraining an.

Gehaltsgespräch führen: 3 Fehler, die das Gehalt mindern​ Weiterlesen »

Ex-CEO Craig Barrett: Die Aufspaltung von Intel ist die ‘dümmste Idee’ überhaupt​

Allgemein

loading=”lazy” width=”400px”>Bei Intel geht es derzeit rund – die Spekulationen über eine Aufspaltung haben den Ex-CEO und Chairman richtig geärgert.Tada Images – shutterstock.com Der ehemalige CEO und Chairman von Intel, Craig Barrett, hat eine mögliche Aufspaltung des Unternehmens in getrennte Design- und Foundry-Einheiten scharf kritisiert. Er argumentiert, dass Intel dank seines jüngsten technologischen Aufschwungs durchaus in der Lage sei, sich gegen die Konkurrenz von TSMC in der Halbleiterindustrie zu behaupten – auch ohne eine Zerschlagung des Chip-Pioniers. Damit wies Barrett die Forderungen von vier ehemaligen Intel-Vorstandsmitgliedern zurück, nach deren Auffassung eine Aufspaltung des Unternehmens die einzige praktikable Lösung für die Zukunft sei. Intel ist fertig “Intel ist dabei, seine Führungsposition in diesem Bereich wiederzuerlangen, und die dümmste Idee, die es gibt, ist, dies zu verhindern, indem man das Unternehmen in Stücke schneidet”, schrieb Barrett in einem Meinungsartikel in Fortune. Barrett, der Intel in den besten Jahren des Unternehmens von 1998 bis 2005 als CEO und danach bis 2009 als Chairman leitete, bezeichnete den Vorschlag als fehlgeleitet. Seiner Einschätzung nach verfügten die Befürworter der Aufspaltung, zu denen zwei Akademiker und zwei ehemalige Regierungsbeamte gehörten, nicht über die nötige Branchenkenntnis, um eine funktionierende Strategie im hart umkämpften Halbleitersektor festzulegen. Intels technologisches Comeback Der Branchenveteran hob stattdessen die bedeutenden technologischen Fortschritte hervor, die unter dem kürzlich entlassenen CEO Pat Gelsinger erzielt wurden, und zeichnete das Bild eines Unternehmens, das kurz davor stehe, seinen technologischen Vorsprung zurückzuerobern. Gelsinger habe in den zurückliegenden drei Jahren großartige Arbeit bei der Wiederbelebung der Entwicklungsteams geleistet, so Barrett. “Heute ist die führende Technologie des Unternehmens auf Augenhöhe mit der 2nm-Technologie von TSMC.” srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?quality=50&strip=all 734w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”734″ height=”413″ sizes=”(max-width: 734px) 100vw, 734px”>Ex-Intel CEO Craig Barrett (rechts, hier mit Ex-CIO Chefredakteur Horst Ellermann links) glaubt, dass Intel technologischer wieder mithalten kann.Joachim Benner / Foundry IDG Der Ex-Intel-Chef hob insbesondere Intels Führungsrolle in einzelnen Bereichen hervor: “Darüber hinaus ist Intel führend in der neuesten Bildgebungstechnologie und bei der rückseitigen Stromversorgung komplexer Chips.” Diese Fortschritte, so betonte Barrett, sind “der Schlüssel für künftige Generationen der Siliziumtechnologie.” Die Silicon-Valley-Doktrin: Die beste Technologie gewinnt Im Mittelpunkt von Barretts Argumentation steht das altbekannte Grundprinzip der Halbleiterindustrie: Die technologische Überlegenheit bestimmt den Markterfolg. “Die beste Technologie gewinnt”, konstatierte der 85-jährige Manager und erklärte, dass Intels frühere Misserfolge im Foundry-Geschäft eher auf technologische Nachteile als auf strukturelle Probleme zurückzuführen wären. “Intel ist bei seinen früheren Bemühungen im Foundry-Geschäft aus dem einfachen Grund gescheitert, weil es keine wettbewerbsfähige Technologie hatte.” Jetzt, da Intel technologisch mit TSMC gleichgezogen habe, sei der Chiphersteller nach Ansicht von Barrett in der Lage, die Dominanz des taiwanesischen Herstellers herauszufordern – aber nur wenn Intel als Ganzes bestehen bleibe. So kommt Intel (vielleicht) wieder auf die Beine “Während Intel mit seinen 18A-Knoten, die auf dem Papier gleichwertig mit TSMCs 2nm sind, bedeutende Fortschritte gemacht hat, hängt der Erfolg der Foundrys von mehreren Faktoren ab, die über die technischen Spezifikationen hinausgehen”, wandte Neil Shah ein, VP für Forschung und Partner bei Counterpoint Research. Die kritischen Messgrößen seien die Ausbeute und die Auslastung, die die Kosteneffizienz bestimme. “Intel muss immer noch eine konsistente Fertigung auf TSMC-Niveau nachweisen und genügend Kunden anziehen, um seine fortgeschrittenen Knoten profitabel zu halten”, sagte der Analyst. “Diese Faktoren werden letztlich darüber entscheiden, ob sie mit TSMC und Samsung sowohl in Bezug auf die Leistung als auch auf den Preis konkurrieren können.” Interessenskonflikte – Argument für eine Aufspaltung von Intel? Das Hauptargument der Befürworter einer Aufspaltung von Intel ist, dass unabhängige Chipdesigner aufgrund von Interessenkonflikten zögern könnten, die Foundry-Dienste von Intel zu nutzen. Barrett wies dieses Argument jedoch zurück und erklärte, dass die Kunden in erster Linie die beste Fertigungstechnologie bevorzugten. “Alle unabhängigen Designer nutzen derzeit TSMC, weil TSMC die beste Technologie hat”, sagte er. “Wenn Intel mit dieser Technologie mithalten oder sie sogar übertreffen kann, werden die Kunden kommen.” Intel-Chef Pat Gelsinger muss gehen Barrett warnte zudem vor den Risiken, die mit der Aufspaltung eines Unternehmens mit über 100.000 Mitarbeitern auf mehreren Kontinenten verbunden seien. Ein solcher Schritt würde die Dynamik von Intel unterbrechen, Ressourcen aufzehren und unnötige Komplikationen schaffen – und das zu einem Zeitpunkt, an dem das Unternehmen kurz vor einem Comeback steht. “In dem Moment, in dem Sie ankündigen, Intel aufzuspalten, verlieren Sie den Schwung und die Ressourcen, die Sie für den Erfolg brauchen.” Barrett fordert, Gelsinger zurückzuholen Neben seiner Kritik an einer möglichen Aufspaltung von Intel teilte Barrett auch kräftig gegen die derzeitige Führung des Halbleiterkonzern aus. Der Manager sprach sich für einen Wechsel in der Geschäftsführung und im Vorstand aus. “Die Diskussion sollte sich darum drehen, wer der nächste CEO sein sollte”, forderte der Ex-Chef. Es müsse darum gehen, auf den Errungenschaften von Pat Gelsinger der letzten Jahren aufzubauen. “Derzeit wird das Unternehmen von einem CFO und einem Produktmanager geführt”, monierte Barrett. loading=”lazy” width=”400px”>Der geschasste Intel-CEO Pat Gelsinger habe gute Arbeit geleistet, sagte sein Vorgänger Craig Barett und forderte, ihn wieder einzustellen. Intel “Die Herausforderung für Intel besteht darin, jemanden zu finden, der das Geschäft der Chipherstellung versteht, und nicht jemanden, der seine Zeit damit verbringt, das Unternehmen in zwei Teile zu spalten”, legte der Manager nach und schlug vor: “Ein weitaus besserer Schritt wäre es, den Intel-Vorstand zu entlassen und Pat Gelsinger wieder einzustellen, um die Arbeit zu beenden, die er in den letzten Jahren mit Bravour erledigt hat.” Intel-Schicksal – eine Frage der nationalen Priorität? Barrett verlangte auch eine stärkere Unterstützung durch die US-Regierung, um Intel im globalen Wettbewerb zu helfen. Bei der Umsetzung der CHIPS Act-Finanzierung müsse entschlossener gehandelt werden. Er wies darauf hin, dass frühere Administrationen schneller strategisch wichtige Industrien unterstützt hätten. “Die Regierung kann helfen, indem sie US-Firmen dazu drängt, eine US-Foundry zu nutzen”, schlug Intels Ex-CEO vor. “Die Regierung kann auch in Intel investieren, wie sie es bei anderen angeschlagenen Institutionen getan hat, die für die US-Wirtschaft und die nationale Sicherheit von entscheidender Bedeutung sind”, schrieb er und übte deutliche Kritik an den Verzögerungen. Intel streicht tausende Stellen Barretts Brandbrief unterstreicht, wie viel offenbar auf dem Spiel steht. Anstatt das Unternehmen zu demontieren, bestehe der beste Weg für Intel darin, die neu entdeckte technologische Dynamik zu nutzen und die richtige Führung zu finden, um sie zu erhalten, argumentiert er. Die Entscheidungen, die Intel in den kommenden Monaten trifft, könnten die Zukunft der gesamten Branche bestimmen. 

Ex-CEO Craig Barrett: Die Aufspaltung von Intel ist die ‘dümmste Idee’ überhaupt​ loading=”lazy” width=”400px”>Bei Intel geht es derzeit rund – die Spekulationen über eine Aufspaltung haben den Ex-CEO und Chairman richtig geärgert.Tada Images – shutterstock.com

Der ehemalige CEO und Chairman von Intel, Craig Barrett, hat eine mögliche Aufspaltung des Unternehmens in getrennte Design- und Foundry-Einheiten scharf kritisiert. Er argumentiert, dass Intel dank seines jüngsten technologischen Aufschwungs durchaus in der Lage sei, sich gegen die Konkurrenz von TSMC in der Halbleiterindustrie zu behaupten – auch ohne eine Zerschlagung des Chip-Pioniers. Damit wies Barrett die Forderungen von vier ehemaligen Intel-Vorstandsmitgliedern zurück, nach deren Auffassung eine Aufspaltung des Unternehmens die einzige praktikable Lösung für die Zukunft sei.

Intel ist fertig

“Intel ist dabei, seine Führungsposition in diesem Bereich wiederzuerlangen, und die dümmste Idee, die es gibt, ist, dies zu verhindern, indem man das Unternehmen in Stücke schneidet”, schrieb Barrett in einem Meinungsartikel in Fortune. Barrett, der Intel in den besten Jahren des Unternehmens von 1998 bis 2005 als CEO und danach bis 2009 als Chairman leitete, bezeichnete den Vorschlag als fehlgeleitet. Seiner Einschätzung nach verfügten die Befürworter der Aufspaltung, zu denen zwei Akademiker und zwei ehemalige Regierungsbeamte gehörten, nicht über die nötige Branchenkenntnis, um eine funktionierende Strategie im hart umkämpften Halbleitersektor festzulegen.

Intels technologisches Comeback

Der Branchenveteran hob stattdessen die bedeutenden technologischen Fortschritte hervor, die unter dem kürzlich entlassenen CEO Pat Gelsinger erzielt wurden, und zeichnete das Bild eines Unternehmens, das kurz davor stehe, seinen technologischen Vorsprung zurückzuerobern. Gelsinger habe in den zurückliegenden drei Jahren großartige Arbeit bei der Wiederbelebung der Entwicklungsteams geleistet, so Barrett. “Heute ist die führende Technologie des Unternehmens auf Augenhöhe mit der 2nm-Technologie von TSMC.”

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?quality=50&strip=all 734w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Barrett2.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”734″ height=”413″ sizes=”(max-width: 734px) 100vw, 734px”>Ex-Intel CEO Craig Barrett (rechts, hier mit Ex-CIO Chefredakteur Horst Ellermann links) glaubt, dass Intel technologischer wieder mithalten kann.Joachim Benner / Foundry IDG

Der Ex-Intel-Chef hob insbesondere Intels Führungsrolle in einzelnen Bereichen hervor: “Darüber hinaus ist Intel führend in der neuesten Bildgebungstechnologie und bei der rückseitigen Stromversorgung komplexer Chips.” Diese Fortschritte, so betonte Barrett, sind “der Schlüssel für künftige Generationen der Siliziumtechnologie.”

Die Silicon-Valley-Doktrin: Die beste Technologie gewinnt

Im Mittelpunkt von Barretts Argumentation steht das altbekannte Grundprinzip der Halbleiterindustrie: Die technologische Überlegenheit bestimmt den Markterfolg. “Die beste Technologie gewinnt”, konstatierte der 85-jährige Manager und erklärte, dass Intels frühere Misserfolge im Foundry-Geschäft eher auf technologische Nachteile als auf strukturelle Probleme zurückzuführen wären. “Intel ist bei seinen früheren Bemühungen im Foundry-Geschäft aus dem einfachen Grund gescheitert, weil es keine wettbewerbsfähige Technologie hatte.” Jetzt, da Intel technologisch mit TSMC gleichgezogen habe, sei der Chiphersteller nach Ansicht von Barrett in der Lage, die Dominanz des taiwanesischen Herstellers herauszufordern – aber nur wenn Intel als Ganzes bestehen bleibe.

So kommt Intel (vielleicht) wieder auf die Beine

“Während Intel mit seinen 18A-Knoten, die auf dem Papier gleichwertig mit TSMCs 2nm sind, bedeutende Fortschritte gemacht hat, hängt der Erfolg der Foundrys von mehreren Faktoren ab, die über die technischen Spezifikationen hinausgehen”, wandte Neil Shah ein, VP für Forschung und Partner bei Counterpoint Research. Die kritischen Messgrößen seien die Ausbeute und die Auslastung, die die Kosteneffizienz bestimme. “Intel muss immer noch eine konsistente Fertigung auf TSMC-Niveau nachweisen und genügend Kunden anziehen, um seine fortgeschrittenen Knoten profitabel zu halten”, sagte der Analyst. “Diese Faktoren werden letztlich darüber entscheiden, ob sie mit TSMC und Samsung sowohl in Bezug auf die Leistung als auch auf den Preis konkurrieren können.”

Interessenskonflikte – Argument für eine Aufspaltung von Intel?

Das Hauptargument der Befürworter einer Aufspaltung von Intel ist, dass unabhängige Chipdesigner aufgrund von Interessenkonflikten zögern könnten, die Foundry-Dienste von Intel zu nutzen. Barrett wies dieses Argument jedoch zurück und erklärte, dass die Kunden in erster Linie die beste Fertigungstechnologie bevorzugten. “Alle unabhängigen Designer nutzen derzeit TSMC, weil TSMC die beste Technologie hat”, sagte er. “Wenn Intel mit dieser Technologie mithalten oder sie sogar übertreffen kann, werden die Kunden kommen.”

Intel-Chef Pat Gelsinger muss gehen

Barrett warnte zudem vor den Risiken, die mit der Aufspaltung eines Unternehmens mit über 100.000 Mitarbeitern auf mehreren Kontinenten verbunden seien. Ein solcher Schritt würde die Dynamik von Intel unterbrechen, Ressourcen aufzehren und unnötige Komplikationen schaffen – und das zu einem Zeitpunkt, an dem das Unternehmen kurz vor einem Comeback steht. “In dem Moment, in dem Sie ankündigen, Intel aufzuspalten, verlieren Sie den Schwung und die Ressourcen, die Sie für den Erfolg brauchen.”

Barrett fordert, Gelsinger zurückzuholen

Neben seiner Kritik an einer möglichen Aufspaltung von Intel teilte Barrett auch kräftig gegen die derzeitige Führung des Halbleiterkonzern aus. Der Manager sprach sich für einen Wechsel in der Geschäftsführung und im Vorstand aus. “Die Diskussion sollte sich darum drehen, wer der nächste CEO sein sollte”, forderte der Ex-Chef. Es müsse darum gehen, auf den Errungenschaften von Pat Gelsinger der letzten Jahren aufzubauen. “Derzeit wird das Unternehmen von einem CFO und einem Produktmanager geführt”, monierte Barrett.

loading=”lazy” width=”400px”>Der geschasste Intel-CEO Pat Gelsinger habe gute Arbeit geleistet, sagte sein Vorgänger Craig Barett und forderte, ihn wieder einzustellen. Intel

“Die Herausforderung für Intel besteht darin, jemanden zu finden, der das Geschäft der Chipherstellung versteht, und nicht jemanden, der seine Zeit damit verbringt, das Unternehmen in zwei Teile zu spalten”, legte der Manager nach und schlug vor: “Ein weitaus besserer Schritt wäre es, den Intel-Vorstand zu entlassen und Pat Gelsinger wieder einzustellen, um die Arbeit zu beenden, die er in den letzten Jahren mit Bravour erledigt hat.”

Intel-Schicksal – eine Frage der nationalen Priorität?

Barrett verlangte auch eine stärkere Unterstützung durch die US-Regierung, um Intel im globalen Wettbewerb zu helfen. Bei der Umsetzung der CHIPS Act-Finanzierung müsse entschlossener gehandelt werden. Er wies darauf hin, dass frühere Administrationen schneller strategisch wichtige Industrien unterstützt hätten. “Die Regierung kann helfen, indem sie US-Firmen dazu drängt, eine US-Foundry zu nutzen”, schlug Intels Ex-CEO vor. “Die Regierung kann auch in Intel investieren, wie sie es bei anderen angeschlagenen Institutionen getan hat, die für die US-Wirtschaft und die nationale Sicherheit von entscheidender Bedeutung sind”, schrieb er und übte deutliche Kritik an den Verzögerungen.

Intel streicht tausende Stellen

Barretts Brandbrief unterstreicht, wie viel offenbar auf dem Spiel steht. Anstatt das Unternehmen zu demontieren, bestehe der beste Weg für Intel darin, die neu entdeckte technologische Dynamik zu nutzen und die richtige Führung zu finden, um sie zu erhalten, argumentiert er. Die Entscheidungen, die Intel in den kommenden Monaten trifft, könnten die Zukunft der gesamten Branche bestimmen.

Ex-CEO Craig Barrett: Die Aufspaltung von Intel ist die ‘dümmste Idee’ überhaupt​ Weiterlesen »

Digital Experience Services – das sind die besten Anbieter​

Allgemein

Nur wer seine Customer Experience gut im Griff hat, kann Kundinnen und Kunden für seine Produkte und Services begeistern. Dream Master – shutterstock.com Um ihre Wettbewerbsfähigkeit nachhaltig zu sichern, stehen Unternehmen heute vor der Aufgabe, digitale und datenbasierte Geschäftsmodelle und entsprechende digitale Kommunikationswege bereitzustellen. Digitale Technologien wie (generative) KI in Kombination mit Cloud-Services bieten dabei die Möglichkeit, Kundenschnittstellen zu digitalisieren sowie einen kundenzentrischen Kauf- und Serviceprozess zu realisieren, der die gesamte Customer Journey abbildet – egal ob der Kunde eine digitale oder analoge Kundenschnittstelle wählt. Die Königsdisziplin wäre es dann sogar noch, digitale Services auf individuelle Anforderungen der Kunden zuzuschneiden – Stichwort Personalisierung – und digitale Angebote sowie analoge Touchpoints zu kombinieren. Lünendonk hat den Markt für Digital Experience Services (DXS) im Jahr 2024 erneut intensiv beleuchtet und dabei neben der Marktstruktur und den führenden DXS-Dienstleistern auch die Zukunftsaufgaben, Planungen und Herausforderungen großer Anwenderunternehmen aus dem deutschsprachigen Raum erhoben. Hier gehts zur Lünendonk-Studie: Der Markt für Digital Experience Services in Deutschland – Führende Dienstleister, Investitionsplanungen, DX-Technologietrends Marktentwicklung: Geringeres Wachstum trotz hoher Nachfrage Der Markt für Digital Experience Services ist derzeit – wie andere B2B-Dienstleistungsmärkte auch – von konjunkturellen Entwicklungen, globalen Krisen und einem rasanten technologischen Wandel geprägt. Zudem drängen Technologien wie (generative) KI, Software as a Service (SaaS), Spatial Computing oder Robotics-Lösungen auf den Markt, die Unternehmen vor neue technische, prozessuale und organisatorische Herausforderungen stellen, jedoch darüber hinaus auch das Potenzial mitbringen, die Digital Experience massiv zu verbessern. Mehr Customer Centricity & Digital Experience: Wie Unternehmen ihre Softwareentwicklung umbauen Obwohl die Nachfrage nach externer Unterstützung rund um Digital Experience – auch aufgrund des bestehenden Fachkräftemangels und fehlender Erfahrungen – weiterhin hoch ist, flachte sich die Nachfrage im Jahr 2023 ab, was sich an der Entwicklung der Umsätze der Anbieter von Digital Experience Services ablesen lässt. So konnten im Jahr 2023 die von Lünendonk befragten Anbieter von Digital Experience Services ihren Umsatz um durchschnittlich 4,4 Prozent steigern, im Vorjahr lag das Wachstum noch bei 18,3 Prozent. Für die kommenden Jahre rechnen die DXS-Dienstleister jedoch mit mehr Schwung und einer Erholung der Umsatzzahlen. Während für das Jahr 2024 noch ein Plus von 5,1 Prozent prognostiziert wird, sollen die Wachstumszahlen in den Jahren 2025 bis 2026 wieder auf 14,2 Prozent steigen. Dies spiegelt sich auch in der grundsätzlichen Investitionsbereitschaft der Unternehmen wider: In den kommenden drei Jahren wollen 81 Prozent der befragten Unternehmen ihre Ausgaben für DXS-Themen erhöhen. Lünendonk Dabei stehen zum einen die Media Production (91 Prozent) und Social Commerce (79 Prozent) im Fokus der Investitionen, zum anderen wird das Budget auch in Bereiche rund um die Integration von Digital Experience Plattformen (59 Prozent) und Managed Services für den kundenzentrierten Betrieb (81 Prozent) fließen. Diese Investitionen bleiben nach Einschätzung von Lünendonk jedoch zunächst erst einmal Planungen, da die Betriebe aufgrund der konjunkturellen und politischen Lage in Deutschland auch 2025 mit Investitionen weiter sehr vorsichtig agieren werden. Steigende Relevanz von End-to-End-Steuerung der Kundenbeziehung Durch die zunehmende funktionsübergreifende Bearbeitung von Digitalisierungsprojekten werden traditionelle Silostrukturen stetig abgelöst. Stattdessen arbeiten Funktionen wie Marketing, Vertrieb und Kundenservice immer häufiger in Produktteams zusammen und übernehmen die Verantwortung für ein bestimmtes digitales Produkt – zum Beispiel eine Kundenservice-App, einen Online-Tarif im Versicherungswesen oder eine Digital-Commerce-Plattform. Diese Verantwortung erstreckt sich dabei von der fachlichen Betreuung über die Datenebene bis hin zum regelkonformen IT-Betrieb der Lösungen in einem agilen DevOps-Modus. Um ihren Kunden entlang der gesamten Customer Journey ein hochwertiges digitales Erlebnis zu bieten, bestätigen 84 Prozent der befragten Anwenderunternehmen, dass Strategie, Kreation, Design, Medienproduktion, Systemintegration und Plattformbetrieb ganzheitlich betrachtet werden müssen. DXS-Dienstleister reagieren auf diese sich derzeit stark verändernde Kundenanforderung, indem sie ihre Full-Service-Angebote ausbauen. Immer mehr Service-Provider bieten Leistungen rund um Consulting, Technologieberatung, UX-Design, Softwareentwicklung, Digital Marketing, Digital Commerce und Softwareimplementierung aus einer Hand an und werden von ihren Kunden als Gesamtdienstleister beauftragt, um einen Prozess Ende-zu-Ende zu orchestrieren – in enger Zusammenarbeit mit den internen Produktteams. Bereits im Jahr 2023 haben die befragten Dienstleister 59,3 Prozent ihrer Kundenprojekte in einem solchen Full-Service-Ansatz abgewickelt, wobei der Anteil im Jahr 2024 weiter gestiegen sein dürfte. Die Lünendonk-Befragung zeigt auch, dass neun von zehn Kundenunternehmen sich einen DXS-Dienstleister wünschen und eher beauftragen würden, der End-to-End-Services anbieten kann. Lünendonk: „Führende Anbieter von DX-Services in Deutschland“ Allerdings sind nicht alle Digital-Dienstleister in der Lage, die Anforderungen ihrer Kunden mit einem Full-Service-Portfolio zu erfüllen. Einen wichtigen Teil der Lünendonk-Studie bildet daher die Analyse derjenigen Dienstleister, die im Segment Digital Experience Services als Full-Service-Provider tätig sind und dort als relevant wahrgenommen werden. Lünendonk vergleicht die DX-Dienstleister hinsichtlich ihrer Portfolioschwerpunkte, ihrer Marktanteile und ihrer Wahrnehmung im Markt. Anschließend werden sie anhand der beiden Achsen „Marktstärke“ und „Portfoliotiefe und -breite“ in die Kategorien „Marktführer“, „Verfolger“ und „Herausforderer“ eingeteilt. Zur Einordnung des Rankings ist anzumerken, dass alle im Lünendonk-Portfolio aufgeführten Dienstleister über ein breites Angebot an Digital Experience Services verfügen und in diesem Segment zu den führenden Anbietern am Markt zählen. Sie sind damit grundsätzlich in der Lage, End-to-End-Dienstleistungen rund um Customer Centricity, Digital Experience, Digital Marketing oder den Aufbau und die Implementierung digitaler Plattformen zu erbringen. Lünendonk Zu den Marktführern mit überdurchschnittlicher Marktstärke sowie entsprechend umfänglicher Portfoliobreite und -tiefe zählen die international breit aufgestellten Unternehmen Accenture, Deloitte und Reply. Als DXS-Spezialisten haben es diva-e, Plan.Net und Valtech an die Spitze des Rankings geschafft. Diese Einschätzung teilen auch die befragten Dienstleister, die Accenture, Deloitte, Capgemini und Plan.Net als ihre wichtigsten Wettbewerber im deutschen Markt wahrnehmen. Im Verfolgerfeld finden sich Unternehmen, die im Vergleich zu den Marktführern eine etwas geringere Marktrelevanz und/oder eine geringere DXS-Portfoliobreite und -tiefe aufweisen, aber dennoch als führende Dienstleister im DXS-Bereich gelten. Hier sieht Lünendonk die DXS-Spezialisten Diconium, Digitas, Init und Syzygy, aber auch die breiter aufgestellten Dienstleister adesso, Capgemini, IBM, PwC und Valantic. Eine etwas geringere Marktrelevanz beziehungsweise geringere Portfoliostärke – und damit von Lünendonk im Feld der Herausforderer eingeordnet – haben DX-Dienstleister wie Exxeta, Intive, msg, Team neusta und Telekom MMS. Technologietrends: Composable Enterprise und Data & AI Digitale Technologien helfen dabei, Kundenzentrierung und Personalisierung zu ermöglichen. Vor allem Kundendaten geben Aufschluss über Präferenzen und Bedürfnisse, so dass sich zielgruppengerechte Produkte und Kampagnen erstellen lassen. Laut der Lünendonk-Studie sehen die befragten DXS-Verantwortlichen vor allem Customer Data Platforms (82 Prozent) und Data & Analytics Platforms (74 Prozent) als die wichtigsten Technologien in diesem Bereich. Lünendonk Daneben sind GenAI-Tools wie ChatGPT, automatisierte und datenbasierte Prozesse sowie Hyperpersonalisierung weitere zentrale Technologien, die dazu beitragen können, die Kundenzufriedenheit zu verbessern. Darüber hinaus steigt die Relevanz von Digital-Commerce-Plattformen, die Lösungen wie Content Management, Kundenbindung, Omnichannel-Marketing und Personalisierung integrieren und dadurch ein hochwertiges digitales Kundenerlebnis schaffen. Wie GenAI die digitale Erfahrung verbessern kann Künstliche Intelligenz und insbesondere generative KI gehören zu den prägendsten Technologietrends unserer Zeit. Dabei können GenAI-Tools Unternehmen bei der Umsetzung von kundenzentrierten Strategien sowie im digitalen Marketing helfen. Beispielsweise kann Generative AI eigenständig Artikel, Social-Media-Posts und Bilder erstellen und so Mitarbeiterinnen und Mitarbeiter bei der Content-Erstellung unterstützen. Darüber hinaus können virtuelle Assistenten und Chatbots eine 24/7-Erreichbarkeit gewährleisten, was sich wiederum positiv auf die Kundenzufriedenheit auswirkt. Durch automatisierte Texterstellung, Bildgenerierung oder SEO-Optimierung lassen sich Mitarbeitende mit Hilfe spezieller KI-Tools von Routinetätigkeiten entlasten. Die Lünendonk-Studie zeigt, dass alle befragten DXS-Dienstleister bereits generative KI für bestimmte Anwendungsfälle nutzen und knapp die Hälfte GenAI-Tools sogar umfassend und unternehmensweit einsetzt. Lünendonk Doch mit dem GenAI-Einsatz gehen auch Risiken einher. 57 Prozent der Befragten sehen den Missbrauch durch Mitarbeitende als größte Gefahr, beispielsweise durch unsachgemäßen Umgang mit vertraulichen Daten. Aber auch die Verletzung von Rechtsnormen wie dem Urheberrecht oder die Gefahr, Opfer von Fake News und Deepfakes zu werden, wird von mehr als der Hälfte der Befragten als potenzielles Risiko genannt. KI übernimmt Agenturleistungen Durch den verstärkten Einsatz von KI verändert sich der Bedarf an Agenturleistungen wie Content Creation, Mediaplanung, UX/UI-Design etc. in den Unternehmen. Einerseits können Softwareentwicklungsprojekte durch künstliche Intelligenz effektiver und effizienter umgesetzt oder Themen wie die Content-Erstellung und Medienproduktion durch KI-Tools übernommen werden. Das bedeutet, dass Firmen an diesen Stellen tendenziell weniger Leistungen von Digitalagenturen in Anspruch nehmen müssen. Zum anderen ist durch den verstärkten Einsatz innovativer Technologien mit einer steigenden Nachfrage nach Beratungsleistungen rund um den Aufbau digitaler Kanäle und Kundenerlebnisse, Technologieberatung, IT-Architektur sowie bei der Umsetzung von Digitalisierungsstrategien in den Fachabteilungen zu rechnen. Cloud und Künstliche Intelligenz beschäftigen die CIOs Diese Entwicklung spiegelt sich in den Portfolioschwerpunkten und Umsatzverteilungen der DXS-Dienstleister wider. So erwarten die von Lünendonk befragten Dienstleister in den kommenden Jahren deutlich stärkere Umsatzanteile mit Beratungsleistungen, IT-Implementierungen sowie dem Betrieb von digitalen Produkten. Die Umsatzanteile für die reine Entwicklung von digitalen Marketingprodukten (Media, Content, Kampagnen) gehen seit Jahren kontinuierlich zurück, während Consulting und IT-Umsetzungsleistungen zunehmen. Die Dienstleister erwarten auch in den kommenden Jahren, dass sowohl Nearshore-Delivery als auch der Einsatz von Künstlicher Intelligenz das Honorarniveau bei der Entwicklung von digitalen Marketinglösungen beeinflussen wird. Anbieter von Digital Experience Services werden sich folglich in den kommenden Monaten sehr intensiv damit befassen müssen, wie sie ihre klassischen Agenturleistungen künftig an die Anforderungen ihrer Kunden und des internationalen Wettbewerbs anpassen. 

Digital Experience Services – das sind die besten Anbieter​ Nur wer seine Customer Experience gut im Griff hat, kann Kundinnen und Kunden für seine Produkte und Services begeistern. Dream Master – shutterstock.com

Um ihre Wettbewerbsfähigkeit nachhaltig zu sichern, stehen Unternehmen heute vor der Aufgabe, digitale und datenbasierte Geschäftsmodelle und entsprechende digitale Kommunikationswege bereitzustellen. Digitale Technologien wie (generative) KI in Kombination mit Cloud-Services bieten dabei die Möglichkeit, Kundenschnittstellen zu digitalisieren sowie einen kundenzentrischen Kauf- und Serviceprozess zu realisieren, der die gesamte Customer Journey abbildet – egal ob der Kunde eine digitale oder analoge Kundenschnittstelle wählt.

Die Königsdisziplin wäre es dann sogar noch, digitale Services auf individuelle Anforderungen der Kunden zuzuschneiden – Stichwort Personalisierung – und digitale Angebote sowie analoge Touchpoints zu kombinieren. Lünendonk hat den Markt für Digital Experience Services (DXS) im Jahr 2024 erneut intensiv beleuchtet und dabei neben der Marktstruktur und den führenden DXS-Dienstleistern auch die Zukunftsaufgaben, Planungen und Herausforderungen großer Anwenderunternehmen aus dem deutschsprachigen Raum erhoben.

Hier gehts zur Lünendonk-Studie: Der Markt für Digital Experience Services in Deutschland – Führende Dienstleister, Investitionsplanungen, DX-Technologietrends

Marktentwicklung: Geringeres Wachstum trotz hoher Nachfrage

Der Markt für Digital Experience Services ist derzeit – wie andere B2B-Dienstleistungsmärkte auch – von konjunkturellen Entwicklungen, globalen Krisen und einem rasanten technologischen Wandel geprägt. Zudem drängen Technologien wie (generative) KI, Software as a Service (SaaS), Spatial Computing oder Robotics-Lösungen auf den Markt, die Unternehmen vor neue technische, prozessuale und organisatorische Herausforderungen stellen, jedoch darüber hinaus auch das Potenzial mitbringen, die Digital Experience massiv zu verbessern.

Mehr Customer Centricity & Digital Experience: Wie Unternehmen ihre Softwareentwicklung umbauen

Obwohl die Nachfrage nach externer Unterstützung rund um Digital Experience – auch aufgrund des bestehenden Fachkräftemangels und fehlender Erfahrungen – weiterhin hoch ist, flachte sich die Nachfrage im Jahr 2023 ab, was sich an der Entwicklung der Umsätze der Anbieter von Digital Experience Services ablesen lässt. So konnten im Jahr 2023 die von Lünendonk befragten Anbieter von Digital Experience Services ihren Umsatz um durchschnittlich 4,4 Prozent steigern, im Vorjahr lag das Wachstum noch bei 18,3 Prozent.

Für die kommenden Jahre rechnen die DXS-Dienstleister jedoch mit mehr Schwung und einer Erholung der Umsatzzahlen. Während für das Jahr 2024 noch ein Plus von 5,1 Prozent prognostiziert wird, sollen die Wachstumszahlen in den Jahren 2025 bis 2026 wieder auf 14,2 Prozent steigen. Dies spiegelt sich auch in der grundsätzlichen Investitionsbereitschaft der Unternehmen wider: In den kommenden drei Jahren wollen 81 Prozent der befragten Unternehmen ihre Ausgaben für DXS-Themen erhöhen.

Lünendonk

Dabei stehen zum einen die Media Production (91 Prozent) und Social Commerce (79 Prozent) im Fokus der Investitionen, zum anderen wird das Budget auch in Bereiche rund um die Integration von Digital Experience Plattformen (59 Prozent) und Managed Services für den kundenzentrierten Betrieb (81 Prozent) fließen. Diese Investitionen bleiben nach Einschätzung von Lünendonk jedoch zunächst erst einmal Planungen, da die Betriebe aufgrund der konjunkturellen und politischen Lage in Deutschland auch 2025 mit Investitionen weiter sehr vorsichtig agieren werden.

Steigende Relevanz von End-to-End-Steuerung der Kundenbeziehung

Durch die zunehmende funktionsübergreifende Bearbeitung von Digitalisierungsprojekten werden traditionelle Silostrukturen stetig abgelöst. Stattdessen arbeiten Funktionen wie Marketing, Vertrieb und Kundenservice immer häufiger in Produktteams zusammen und übernehmen die Verantwortung für ein bestimmtes digitales Produkt – zum Beispiel eine Kundenservice-App, einen Online-Tarif im Versicherungswesen oder eine Digital-Commerce-Plattform. Diese Verantwortung erstreckt sich dabei von der fachlichen Betreuung über die Datenebene bis hin zum regelkonformen IT-Betrieb der Lösungen in einem agilen DevOps-Modus.

Um ihren Kunden entlang der gesamten Customer Journey ein hochwertiges digitales Erlebnis zu bieten, bestätigen 84 Prozent der befragten Anwenderunternehmen, dass Strategie, Kreation, Design, Medienproduktion, Systemintegration und Plattformbetrieb ganzheitlich betrachtet werden müssen.

DXS-Dienstleister reagieren auf diese sich derzeit stark verändernde Kundenanforderung, indem sie ihre Full-Service-Angebote ausbauen. Immer mehr Service-Provider bieten Leistungen rund um Consulting, Technologieberatung, UX-Design, Softwareentwicklung, Digital Marketing, Digital Commerce und Softwareimplementierung aus einer Hand an und werden von ihren Kunden als Gesamtdienstleister beauftragt, um einen Prozess Ende-zu-Ende zu orchestrieren – in enger Zusammenarbeit mit den internen Produktteams.

Bereits im Jahr 2023 haben die befragten Dienstleister 59,3 Prozent ihrer Kundenprojekte in einem solchen Full-Service-Ansatz abgewickelt, wobei der Anteil im Jahr 2024 weiter gestiegen sein dürfte. Die Lünendonk-Befragung zeigt auch, dass neun von zehn Kundenunternehmen sich einen DXS-Dienstleister wünschen und eher beauftragen würden, der End-to-End-Services anbieten kann.

Lünendonk: „Führende Anbieter von DX-Services in Deutschland“

Allerdings sind nicht alle Digital-Dienstleister in der Lage, die Anforderungen ihrer Kunden mit einem Full-Service-Portfolio zu erfüllen. Einen wichtigen Teil der Lünendonk-Studie bildet daher die Analyse derjenigen Dienstleister, die im Segment Digital Experience Services als Full-Service-Provider tätig sind und dort als relevant wahrgenommen werden.

Lünendonk vergleicht die DX-Dienstleister hinsichtlich ihrer Portfolioschwerpunkte, ihrer Marktanteile und ihrer Wahrnehmung im Markt. Anschließend werden sie anhand der beiden Achsen „Marktstärke“ und „Portfoliotiefe und -breite“ in die Kategorien „Marktführer“, „Verfolger“ und „Herausforderer“ eingeteilt.

Zur Einordnung des Rankings ist anzumerken, dass alle im Lünendonk-Portfolio aufgeführten Dienstleister über ein breites Angebot an Digital Experience Services verfügen und in diesem Segment zu den führenden Anbietern am Markt zählen. Sie sind damit grundsätzlich in der Lage, End-to-End-Dienstleistungen rund um Customer Centricity, Digital Experience, Digital Marketing oder den Aufbau und die Implementierung digitaler Plattformen zu erbringen.

Lünendonk

Zu den Marktführern mit überdurchschnittlicher Marktstärke sowie entsprechend umfänglicher Portfoliobreite und -tiefe zählen die international breit aufgestellten Unternehmen Accenture, Deloitte und Reply. Als DXS-Spezialisten haben es diva-e, Plan.Net und Valtech an die Spitze des Rankings geschafft. Diese Einschätzung teilen auch die befragten Dienstleister, die Accenture, Deloitte, Capgemini und Plan.Net als ihre wichtigsten Wettbewerber im deutschen Markt wahrnehmen.

Im Verfolgerfeld finden sich Unternehmen, die im Vergleich zu den Marktführern eine etwas geringere Marktrelevanz und/oder eine geringere DXS-Portfoliobreite und -tiefe aufweisen, aber dennoch als führende Dienstleister im DXS-Bereich gelten. Hier sieht Lünendonk die DXS-Spezialisten Diconium, Digitas, Init und Syzygy, aber auch die breiter aufgestellten Dienstleister adesso, Capgemini, IBM, PwC und Valantic.

Eine etwas geringere Marktrelevanz beziehungsweise geringere Portfoliostärke – und damit von Lünendonk im Feld der Herausforderer eingeordnet – haben DX-Dienstleister wie Exxeta, Intive, msg, Team neusta und Telekom MMS.

Technologietrends: Composable Enterprise und Data & AI

Digitale Technologien helfen dabei, Kundenzentrierung und Personalisierung zu ermöglichen. Vor allem Kundendaten geben Aufschluss über Präferenzen und Bedürfnisse, so dass sich zielgruppengerechte Produkte und Kampagnen erstellen lassen. Laut der Lünendonk-Studie sehen die befragten DXS-Verantwortlichen vor allem Customer Data Platforms (82 Prozent) und Data & Analytics Platforms (74 Prozent) als die wichtigsten Technologien in diesem Bereich.

Lünendonk

Daneben sind GenAI-Tools wie ChatGPT, automatisierte und datenbasierte Prozesse sowie Hyperpersonalisierung weitere zentrale Technologien, die dazu beitragen können, die Kundenzufriedenheit zu verbessern. Darüber hinaus steigt die Relevanz von Digital-Commerce-Plattformen, die Lösungen wie Content Management, Kundenbindung, Omnichannel-Marketing und Personalisierung integrieren und dadurch ein hochwertiges digitales Kundenerlebnis schaffen.

Wie GenAI die digitale Erfahrung verbessern kann

Künstliche Intelligenz und insbesondere generative KI gehören zu den prägendsten Technologietrends unserer Zeit. Dabei können GenAI-Tools Unternehmen bei der Umsetzung von kundenzentrierten Strategien sowie im digitalen Marketing helfen. Beispielsweise kann Generative AI eigenständig Artikel, Social-Media-Posts und Bilder erstellen und so Mitarbeiterinnen und Mitarbeiter bei der Content-Erstellung unterstützen. Darüber hinaus können virtuelle Assistenten und Chatbots eine 24/7-Erreichbarkeit gewährleisten, was sich wiederum positiv auf die Kundenzufriedenheit auswirkt. Durch automatisierte Texterstellung, Bildgenerierung oder SEO-Optimierung lassen sich Mitarbeitende mit Hilfe spezieller KI-Tools von Routinetätigkeiten entlasten.

Die Lünendonk-Studie zeigt, dass alle befragten DXS-Dienstleister bereits generative KI für bestimmte Anwendungsfälle nutzen und knapp die Hälfte GenAI-Tools sogar umfassend und unternehmensweit einsetzt.

Lünendonk

Doch mit dem GenAI-Einsatz gehen auch Risiken einher. 57 Prozent der Befragten sehen den Missbrauch durch Mitarbeitende als größte Gefahr, beispielsweise durch unsachgemäßen Umgang mit vertraulichen Daten. Aber auch die Verletzung von Rechtsnormen wie dem Urheberrecht oder die Gefahr, Opfer von Fake News und Deepfakes zu werden, wird von mehr als der Hälfte der Befragten als potenzielles Risiko genannt.

KI übernimmt Agenturleistungen

Durch den verstärkten Einsatz von KI verändert sich der Bedarf an Agenturleistungen wie Content Creation, Mediaplanung, UX/UI-Design etc. in den Unternehmen. Einerseits können Softwareentwicklungsprojekte durch künstliche Intelligenz effektiver und effizienter umgesetzt oder Themen wie die Content-Erstellung und Medienproduktion durch KI-Tools übernommen werden. Das bedeutet, dass Firmen an diesen Stellen tendenziell weniger Leistungen von Digitalagenturen in Anspruch nehmen müssen.

Zum anderen ist durch den verstärkten Einsatz innovativer Technologien mit einer steigenden Nachfrage nach Beratungsleistungen rund um den Aufbau digitaler Kanäle und Kundenerlebnisse, Technologieberatung, IT-Architektur sowie bei der Umsetzung von Digitalisierungsstrategien in den Fachabteilungen zu rechnen.

Cloud und Künstliche Intelligenz beschäftigen die CIOs

Diese Entwicklung spiegelt sich in den Portfolioschwerpunkten und Umsatzverteilungen der DXS-Dienstleister wider. So erwarten die von Lünendonk befragten Dienstleister in den kommenden Jahren deutlich stärkere Umsatzanteile mit Beratungsleistungen, IT-Implementierungen sowie dem Betrieb von digitalen Produkten. Die Umsatzanteile für die reine Entwicklung von digitalen Marketingprodukten (Media, Content, Kampagnen) gehen seit Jahren kontinuierlich zurück, während Consulting und IT-Umsetzungsleistungen zunehmen.

Die Dienstleister erwarten auch in den kommenden Jahren, dass sowohl Nearshore-Delivery als auch der Einsatz von Künstlicher Intelligenz das Honorarniveau bei der Entwicklung von digitalen Marketinglösungen beeinflussen wird. Anbieter von Digital Experience Services werden sich folglich in den kommenden Monaten sehr intensiv damit befassen müssen, wie sie ihre klassischen Agenturleistungen künftig an die Anforderungen ihrer Kunden und des internationalen Wettbewerbs anpassen.

Digital Experience Services – das sind die besten Anbieter​ Weiterlesen »

Warum die Kunst des Gesichterlesens im Job so wichtig ist​

Allgemein

Selbst ohne die technischen Hilfsmittel der Gesichtserkennung ist es jedem möglich in Gesichtern zu lesen und die Gesichtsmimik zum eigenen Vorteil zu interpretieren. Prostock-studio – shutterstock 2057011694 „Gesichterlesen ermöglicht es, in Sekundenschnelle zu erkennen, was ein Kunde braucht – Sicherheit, Klarheit oder vielleicht Inspiration“, erklärt Jo Kern, seit über 25 Jahren Expertin für Psychophysiognomie. “Durch die Analyse von Gesichtszügen und Mimik lassen sich wertvolle Informationen über die Bedürfnisse eines Menschen gewinnen”, weiß Kern, die für Interessenten ein modulares Online-Training entwickelt hat. Ob es darum geht, jemanden freundlich zu begrüßen, gezielte Empfehlungen auszusprechen oder auf Unsicherheiten einzugehen – das Wissen ums Gesichterlesen kann den Unterschied zwischen einem guten und einem herausragenden Service ausmachen.  Diese Methodik unterstützt beispielsweise IT-Unternehmen dabei, Kundenbedürfnisse frühzeitig zu erkennen und somit sowohl im Vertrieb als auch in der langfristigen Betreuung eine gezielte und nachhaltige Bindung aufzubauen. Ein Gespür für die individuellen Bedürfnisse der Kunden ist hier genauso entscheidend wie Fachkenntnisse.  Der erste Blick: Was Gesichter verraten Das Gesicht Ihres Kunden spricht Bände – wenn Sie lernen, die Signale richtig zu deuten. Form, Proportionen und Mimik geben Hinweise auf die Persönlichkeit und die bevorzugte Kommunikationsweise. Hier ein paar Beispiele:  Runde Gesichtszüge und weiche Konturen: Diese deuten auf ein starkes Bedürfnis nach Sicherheit und Komfort hin. Kunden mit diesen Merkmalen schätzen es, wenn Sie Vertrauen und Stabilität ausstrahlen.  Markante Gesichtszüge mit scharfen Kanten: Diese Signale deuten auf Zielstrebigkeit und Effizienz hin. Solche Kunden erwarten präzise, klare Empfehlungen, ohne Umschweife.  Feine Gesichtszüge und eine hohe Stirn: Diese Eigenschaften sprechen für eine kreative und emotionale Persönlichkeit, die Wert auf Individualität und innovative Lösungen legt.  Indem Sie bewusst auf diese Merkmale achten, können Sie Ihre Ansprache und Ihr Verhalten gezielt anpassen, um das Vertrauen des Kunden zu gewinnen und seine Bedürfnisse bestmöglich zu erfüllen.  Die drei Naturelle: Was Ihre Kunden wirklich wollen Die sogenannte Naturell-Lehre unterscheidet zwischen drei grundlegenden Persönlichkeitstypen, die sich auch in den Gesichtszügen widerspiegeln. Diese Kenntnisse sind besonders hilfreich, um das Kaufverhalten Ihrer Kunden zu verstehen und Ihre Beratung darauf abzustimmen:  1. Das Ernährungs-Naturell  – Merkmale: runde Gesichtskonturen, weiche Züge, volle Wangen.  – Bedürfnisse: Sicherheit, Stabilität, Komfort und ein klares System.  – Strategie: Diese Kunden wünschen sich verlässliche, funktionale Lösungen. Betonen Sie Stabilität und Nachhaltigkeit.  – So überzeugen Sie: Bieten Sie praktische und vertrauenswürdige Lösungen an. Beispiel: „Welche Sicherheitsanforderungen haben Sie an Ihre IT-Infrastruktur? Wir bieten Ihnen Lösungen, die sowohl stabil, langlebig als auch unkompliziert erweiterbar ist.“  2. Das Bewegungs-Naturell  – Merkmale: markante Kieferpartie, kantige Konturen, energiegeladene Augen.  – Bedürfnisse: Schnelligkeit, Effizienz, Dynamik und klare Prozesse und Ergebnisse.  – Strategie: Setzen Sie auf prägnante Kommunikation und zeigen Sie sofortige Lösungswege und Möglichkeiten auf.  – So überzeugen Sie: Gehen Sie direkt auf den Punkt. Sagen Sie zum Beispiel: „Mit dieser Automatisierungslösung sparen Sie 30 Prozent Ihrer Projektlaufzeit – perfekt für die rasche Skalierung Ihres Business.“  3. Das Empfindungs-Naturell  – Merkmale: feine, zarte Gesichtszüge, große Augen, zierliche Proportionen.  – Bedürfnisse: Emotionale Ansprache, Individualität, Inspiration und innovative Konzepte.  – Strategie: Sprechen Sie mit emotionalen und visionären Ideen an. Erzählen Sie Geschichten, die Vertrauen und Engagement fördern.  – So überzeugen Sie: Erzählen Sie eine Geschichte. Zum Beispiel: „Dieses Tool wurde von einem Team entwickelt, das höchste Design- und UX-Standards setzt – ideal für kreative und flexible Projektumgebungen.“  srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Jo Kern: “Durch die Analyse von Gesichtszügen und Mimik lassen sich wertvolle Informationen über die Bedürfnisse eines Menschen gewinnen.”Jo Kern – KERN#Profiling Wie Sie Gesichterlesen in den Alltag integrieren Gesichterlesen ist keine Zauberei, sondern eine Technik, die jeder mit ein wenig Übung erlernen kann. Hier ein paar Tipps, wie Sie diese Fähigkeit in Ihren Arbeitsalltag integrieren können:  Beobachten Sie aktiv: Achten Sie bei jedem Kunden auf Gesichtszüge und Körpersprache. Welche Hinweise geben Mimik oder Haltung?  Passen Sie Ihre Ansprache an: Nutzen Sie die gewonnenen Informationen, um Ihre Kommunikation gezielt zu gestalten.  Zeigen Sie Empathie: Kunden möchten sich verstanden fühlen. Gehen Sie mit echtem Interesse auf ihre Wünsche ein.  Ein Beispiel: Ein Kunde mit kantigen Gesichtszügen und geraden, breiten Schultern möchte wahrscheinlich schnelle, klare Antworten. Bieten Sie ihm direkt eine passende Lösung an, ohne langatmige Erklärungen. Hingegen freut sich ein Kunde mit weichen, runden Gesichtszügen über eine ausführlichere Beratung, die auf Vertrauen und Qualität setzt.  Was Gesichterlesen bewirken kann Stellen Sie sich vor, ein Kunde kommt mit einem dringenden IT-Problem. Mit einem kurzen Blick erkennen Sie, dass er klare Vorstellungen hat, aber noch unsicher wirkt. Seine markanten Gesichtszüge und angespannte Haltung deuten auf Effizienz und Entschlossenheit hin, während sein flüchtiges Umschauen verrät, dass er sich eine schnelle und kompetente Beratung wünscht. In diesem Fall bietet sich eine klare, prägnante und effektive Empfehlung an:  „Mit dieser Lösung beschleunigen Sie Ihre Serverprozesse und reduzieren gleichzeitig die Ausfallzeiten – möchten Sie weitere Details zu den Implementierungsschritten erfahren?“  Ein anderer Kunde hingegen, mit weichen, runden Gesichtszügen und einer entspannten Haltung, legt möglicherweise mehr Wert auf Stabilität und ein angenehmes Beratungserlebnis als auf sofortige Ergebnisse. Hier könnten Sie ihn mit einer entspannteren Empfehlung abholen:  „Darf ich Ihnen ein System vorstellen, das für seine Zuverlässigkeit und Benutzerfreundlichkeit bekannt ist? Viele Kunden schätzen daran besonders die einfache Wartung und Erweiterbarkeit.“  Warum Gesichterlesen ein Wettbewerbsvorteil ist In einer Welt, die zunehmend von digitalen und oft unpersönlichen Interaktionen geprägt ist, können Sie durch Gesichterlesen echte Verbindungen schaffen. Es geht nicht nur um den Verkauf und eine Beratung, sondern um das Gefühl, das Sie bei Ihren Kunden hinterlassen. Indem Sie deren Bedürfnisse auf den ersten Blick erfassen und individuell darauf eingehen, schaffen Sie ein Einkaufserlebnis, das in Erinnerung bleibt. 

Warum die Kunst des Gesichterlesens im Job so wichtig ist​ Selbst ohne die technischen Hilfsmittel der Gesichtserkennung ist es jedem möglich in Gesichtern zu lesen und die Gesichtsmimik zum eigenen Vorteil zu interpretieren. Prostock-studio – shutterstock 2057011694

„Gesichterlesen ermöglicht es, in Sekundenschnelle zu erkennen, was ein Kunde braucht – Sicherheit, Klarheit oder vielleicht Inspiration“, erklärt Jo Kern, seit über 25 Jahren Expertin für Psychophysiognomie. “Durch die Analyse von Gesichtszügen und Mimik lassen sich wertvolle Informationen über die Bedürfnisse eines Menschen gewinnen”, weiß Kern, die für Interessenten ein modulares Online-Training entwickelt hat. Ob es darum geht, jemanden freundlich zu begrüßen, gezielte Empfehlungen auszusprechen oder auf Unsicherheiten einzugehen – das Wissen ums Gesichterlesen kann den Unterschied zwischen einem guten und einem herausragenden Service ausmachen. 

Diese Methodik unterstützt beispielsweise IT-Unternehmen dabei, Kundenbedürfnisse frühzeitig zu erkennen und somit sowohl im Vertrieb als auch in der langfristigen Betreuung eine gezielte und nachhaltige Bindung aufzubauen. Ein Gespür für die individuellen Bedürfnisse der Kunden ist hier genauso entscheidend wie Fachkenntnisse. 

Der erste Blick: Was Gesichter verraten

Das Gesicht Ihres Kunden spricht Bände – wenn Sie lernen, die Signale richtig zu deuten. Form, Proportionen und Mimik geben Hinweise auf die Persönlichkeit und die bevorzugte Kommunikationsweise. Hier ein paar Beispiele: 

Runde Gesichtszüge und weiche Konturen: Diese deuten auf ein starkes Bedürfnis nach Sicherheit und Komfort hin. Kunden mit diesen Merkmalen schätzen es, wenn Sie Vertrauen und Stabilität ausstrahlen. 

Markante Gesichtszüge mit scharfen Kanten: Diese Signale deuten auf Zielstrebigkeit und Effizienz hin. Solche Kunden erwarten präzise, klare Empfehlungen, ohne Umschweife. 

Feine Gesichtszüge und eine hohe Stirn: Diese Eigenschaften sprechen für eine kreative und emotionale Persönlichkeit, die Wert auf Individualität und innovative Lösungen legt. 

Indem Sie bewusst auf diese Merkmale achten, können Sie Ihre Ansprache und Ihr Verhalten gezielt anpassen, um das Vertrauen des Kunden zu gewinnen und seine Bedürfnisse bestmöglich zu erfüllen. 

Die drei Naturelle: Was Ihre Kunden wirklich wollen

Die sogenannte Naturell-Lehre unterscheidet zwischen drei grundlegenden Persönlichkeitstypen, die sich auch in den Gesichtszügen widerspiegeln. Diese Kenntnisse sind besonders hilfreich, um das Kaufverhalten Ihrer Kunden zu verstehen und Ihre Beratung darauf abzustimmen: 

1. Das Ernährungs-Naturell 

– Merkmale: runde Gesichtskonturen, weiche Züge, volle Wangen. 

– Bedürfnisse: Sicherheit, Stabilität, Komfort und ein klares System. 

– Strategie: Diese Kunden wünschen sich verlässliche, funktionale Lösungen. Betonen Sie Stabilität und Nachhaltigkeit. 

– So überzeugen Sie: Bieten Sie praktische und vertrauenswürdige Lösungen an. Beispiel: „Welche Sicherheitsanforderungen haben Sie an Ihre IT-Infrastruktur? Wir bieten Ihnen Lösungen, die sowohl stabil, langlebig als auch unkompliziert erweiterbar ist.“ 

2. Das Bewegungs-Naturell 

– Merkmale: markante Kieferpartie, kantige Konturen, energiegeladene Augen. 

– Bedürfnisse: Schnelligkeit, Effizienz, Dynamik und klare Prozesse und Ergebnisse. 

– Strategie: Setzen Sie auf prägnante Kommunikation und zeigen Sie sofortige Lösungswege und Möglichkeiten auf. 

– So überzeugen Sie: Gehen Sie direkt auf den Punkt. Sagen Sie zum Beispiel: „Mit dieser Automatisierungslösung sparen Sie 30 Prozent Ihrer Projektlaufzeit – perfekt für die rasche Skalierung Ihres Business.“ 

3. Das Empfindungs-Naturell 

– Merkmale: feine, zarte Gesichtszüge, große Augen, zierliche Proportionen. 

– Bedürfnisse: Emotionale Ansprache, Individualität, Inspiration und innovative Konzepte. 

– Strategie: Sprechen Sie mit emotionalen und visionären Ideen an. Erzählen Sie Geschichten, die Vertrauen und Engagement fördern. 

– So überzeugen Sie: Erzählen Sie eine Geschichte. Zum Beispiel: „Dieses Tool wurde von einem Team entwickelt, das höchste Design- und UX-Standards setzt – ideal für kreative und flexible Projektumgebungen.“ 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Jo-kern2.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Jo Kern: “Durch die Analyse von Gesichtszügen und Mimik lassen sich wertvolle Informationen über die Bedürfnisse eines Menschen gewinnen.”Jo Kern – KERN#Profiling

Wie Sie Gesichterlesen in den Alltag integrieren

Gesichterlesen ist keine Zauberei, sondern eine Technik, die jeder mit ein wenig Übung erlernen kann. Hier ein paar Tipps, wie Sie diese Fähigkeit in Ihren Arbeitsalltag integrieren können: 

Beobachten Sie aktiv: Achten Sie bei jedem Kunden auf Gesichtszüge und Körpersprache. Welche Hinweise geben Mimik oder Haltung? 

Passen Sie Ihre Ansprache an: Nutzen Sie die gewonnenen Informationen, um Ihre Kommunikation gezielt zu gestalten. 

Zeigen Sie Empathie: Kunden möchten sich verstanden fühlen. Gehen Sie mit echtem Interesse auf ihre Wünsche ein. 

Ein Beispiel: Ein Kunde mit kantigen Gesichtszügen und geraden, breiten Schultern möchte wahrscheinlich schnelle, klare Antworten. Bieten Sie ihm direkt eine passende Lösung an, ohne langatmige Erklärungen. Hingegen freut sich ein Kunde mit weichen, runden Gesichtszügen über eine ausführlichere Beratung, die auf Vertrauen und Qualität setzt. 

Was Gesichterlesen bewirken kann

Stellen Sie sich vor, ein Kunde kommt mit einem dringenden IT-Problem. Mit einem kurzen Blick erkennen Sie, dass er klare Vorstellungen hat, aber noch unsicher wirkt. Seine markanten Gesichtszüge und angespannte Haltung deuten auf Effizienz und Entschlossenheit hin, während sein flüchtiges Umschauen verrät, dass er sich eine schnelle und kompetente Beratung wünscht. In diesem Fall bietet sich eine klare, prägnante und effektive Empfehlung an: 

„Mit dieser Lösung beschleunigen Sie Ihre Serverprozesse und reduzieren gleichzeitig die Ausfallzeiten – möchten Sie weitere Details zu den Implementierungsschritten erfahren?“ 

Ein anderer Kunde hingegen, mit weichen, runden Gesichtszügen und einer entspannten Haltung, legt möglicherweise mehr Wert auf Stabilität und ein angenehmes Beratungserlebnis als auf sofortige Ergebnisse. Hier könnten Sie ihn mit einer entspannteren Empfehlung abholen: 

„Darf ich Ihnen ein System vorstellen, das für seine Zuverlässigkeit und Benutzerfreundlichkeit bekannt ist? Viele Kunden schätzen daran besonders die einfache Wartung und Erweiterbarkeit.“ 

Warum Gesichterlesen ein Wettbewerbsvorteil ist

In einer Welt, die zunehmend von digitalen und oft unpersönlichen Interaktionen geprägt ist, können Sie durch Gesichterlesen echte Verbindungen schaffen. Es geht nicht nur um den Verkauf und eine Beratung, sondern um das Gefühl, das Sie bei Ihren Kunden hinterlassen. Indem Sie deren Bedürfnisse auf den ersten Blick erfassen und individuell darauf eingehen, schaffen Sie ein Einkaufserlebnis, das in Erinnerung bleibt.

Warum die Kunst des Gesichterlesens im Job so wichtig ist​ Weiterlesen »

Nach oben scrollen
×