Computerhaus Quickborn

Allgemein

So nutzt Boehringer Ingelheim IT in der Forschung​

Allgemein

In der Arzneimittel-Entwicklung ist die IT heute unersetzlich. Boehringer Ingelheim Zwölf bis 15 Jahre – so lange dauert es im Schnitt, bis ein neues Medikament auf den Markt kommt. Die Kosten belaufen sich dabei auf durchschnittlich über eine Milliarde Euro. Dabei liegt die Erfolgswahrscheinlichkeit (Probability of Success – POS), dass ein potenzieller Wirkstoff diese Strecke überlebt, nur bei ungefähr fünf Prozent. Viele Menschen müssen also sehr lange warten, bis ihnen ein neues Medikament helfen kann. Vier zentrale Ziele Um diese Prozesse zu beschleunigen, Risiken zu minimieren und Patienten mit noch besseren Medikamenten zu versorgen, nutzt Boehringer Ingelheim  digitale Innovationen. Dabei ist die Digitalisierung bei dem Pharmaunternehmen mehr als ein IT-Vorhaben. Sie ist integraler Bestandteil der Forschungsstrategie – mit vier zentralen Zielen: •            Entwicklungszyklen verkürzen, •            Prozesse und Ressourceneinsatz optimieren, •            Kosten senken (insbesondere durch zielgerichtete frühe Entscheidungen), •            Qualität steigern (durch fundierte Daten- und Modellgrundlagen). Der größte Hebel liegt gleich ganz am Anfang des Forschungsprozesses: Beim Identifizieren und Bewerten neuer Targets – also biologischer Zielstrukturen wie Proteinen oder Enzymen – und geeigneter Moleküle, die als potenzielle Wirkstoffe auf diese Targets einwirken können. KI-gestützte Molekülanalyse KI hilft heute im Labor bei der Analyse. Boehringer Ingelheim Ein Beispiel für diesen Wandel durch digitale Innovation ist die sogenannte Discovery-Phase. Dies ist die Phase der präklinischen Wirkstofffindung, die in der Regel vier bis fünf Jahre dauert. Früher konnten im Labor zehn bis 20 Moleküle pro Woche getestet werden. Heute analysieren Systeme wie ADAM (Advanced Design Assistant for Molecules) mithilfe von KI und Simulationen tausende Substanzen pro Tag. Das System hilft dabei, Moleküle zu priorisieren, indem es deren Eigenschaften vorhersagt, beispielsweise wie sie im Körper verstoffwechselt werden. Effizienz im Discovery Funnel So prüft ADAM in Echtzeit Stabilität, Toxizität sowie Synthesefähigkeit und filtert ungeeignete Kandidaten bereits vor dem ersten Experiment aus. Im Zentrum steht dabei die Frage, welche Proteine oder Moleküle sich überhaupt für eine therapeutische Beeinflussung eignen. Diese Targets werden gezielt erforscht und untersucht, um festzustellen, wie sie mit Krankheiten zusammenhängen. Zudem wird analysiert, welche Veränderung sich durch einen Wirkstoff herbeiführen lassen – und ob diese sicher und zugleich medizinisch sinnvoll ist. Digitale Zwillinge simulieren klinische Forschung Ein weiteres Feld, das durch die Digitalisierung revolutioniert wird, ist die klinische Entwicklung. Diese dauert momentan rund sechs bis acht Jahre. In dieser zweiten Phase der Arzneimittelentwicklung wird geprüft, ob ein Wirkstoff im menschlichen Körper die erhoffte Wirkung entfaltet. Dabei scheitern rund zwei Drittel aller Kandidaten. Diese sehr aufwendigen klinischen Studien werden in der nahen Zukunft zunehmend durch Digitale Zwillinge unterstützt: KI-gestützte Simulationen, mit denen sich Wirkstoffwirkungen auf bestimmte Patientengruppen vorab testen lassen. Dataland als strategischer Enabler Die technologische Basis für diese Fortschritte liefert „Dataland“. Dabei handelt es sich um ein eigens bei Boehringer Ingelheim entwickeltes Datenökosystem zur Integration von Forschungs-, Klinik- und Real-World-Daten. Dataland führt Daten aus allen Unternehmensbereichen zusammen, so dass diese zur sofortigen, leicht verständlichen Nutzung verfügbar sind – beispielsweise für Simulationen oder Datenanalysen. Auf diese Weise werden Mitarbeitende bei datengetriebenen Entscheidungen unterstützt und das Unternehmen ist insgesamt effizienter. Ziel ist ein einheitlicher Datenraum, der nicht durch Abteilungsgrenzen limitiert ist. Forschung, IT und Data Science arbeiten dabei eng verzahnt – klassische Silos werden aufgelöst. GenAI: Assistenzsystem mit menschlicher Kontrolle Ein Reaktor zur Wirkstoffsynthese in der Boehringer-Entwicklung in Biberach. Boehringer Ingelheim Insbesondere generative KI und Large Language Models (LLMs) haben inzwischen enormes Potenzial entfaltet, Prozesse umfassend zu modernisieren und zu beschleunigen. Schon heute unterstützt GenAI bei der Erstellung klinischer Berichte oder der Dokumentation von Forschungsergebnissen. Perspektivisch wird KI auch zur Literaturanalyse eingesetzt. Zwar unterbreitet die Maschine Vorschläge – die Entscheidungen trifft aber immer der Mensch. Medizinische und wissenschaftliche Experten sind dabei aktiv in die Entwicklung von Tools eingebunden. Kultureller Wandel: Interdisziplinäre Teams und neue Kompetenzen Neben den oben angesprochenen Technologien und Daten braucht digitale Innovation vor allem eins: neue Kompetenzen und Denkweisen. Boehringer Ingelheim setzt deshalb auf interdisziplinäre Teams mit Vertretern aus Medizin, Datenwissenschaft, Biomedizin und Softwareentwicklung. Dazu sind Mitarbeitende notwendig, die mit KI genauso selbstverständlich arbeiten wie mit einem Mikroskop. Mit Digitalisierung zu höheren Erfolgsquoten Wie eingangs erwähnt, ist die Entwicklung neuer Wirkstoffe langwierig, teuer und risikobehaftet. Boehringer Ingelheim setzt deshalb auf eine gezieltere Entwicklung durch Digitalisierung. Das kurzfristige Ziel ist es, die Erfolgswahrscheinlichkeit (POS – Probability of Success) neuer Substanzen zu steigern – durch simulationsgestützte Vorauswahl, optimierte Datenmodelle und eine präzisere Auswahl der Patienten in klinischen Studien. Dabei ist immer zu berücksichtigen: Der Einsatz von KI erfordert eine kontinuierliche Überprüfung auf mögliche Verzerrungen (Bias). Zudem ist nicht jede technisch mögliche Anwendung auch ethisch zu vertreten. Abteilungsübergreifende Leitlinien sorgen dafür, dass Innovation verantwortungsvoll gestaltet wird. Digitalisierung wird so nicht zum Selbstzweck, sondern bleibt ein strategisches Instrument für besseren medizinischen Fortschritt – durch fundiertere Entscheidungen und effizientere Forschung. 

So nutzt Boehringer Ingelheim IT in der Forschung​ In der Arzneimittel-Entwicklung ist die IT heute unersetzlich.
Boehringer Ingelheim

Zwölf bis 15 Jahre – so lange dauert es im Schnitt, bis ein neues Medikament auf den Markt kommt. Die Kosten belaufen sich dabei auf durchschnittlich über eine Milliarde Euro.

Dabei liegt die Erfolgswahrscheinlichkeit (Probability of Success – POS), dass ein potenzieller Wirkstoff diese Strecke überlebt, nur bei ungefähr fünf Prozent. Viele Menschen müssen also sehr lange warten, bis ihnen ein neues Medikament helfen kann.

Vier zentrale Ziele

Um diese Prozesse zu beschleunigen, Risiken zu minimieren und Patienten mit noch besseren Medikamenten zu versorgen, nutzt Boehringer Ingelheim  digitale Innovationen. Dabei ist die Digitalisierung bei dem Pharmaunternehmen mehr als ein IT-Vorhaben. Sie ist integraler Bestandteil der Forschungsstrategie – mit vier zentralen Zielen:

•            Entwicklungszyklen verkürzen,

•            Prozesse und Ressourceneinsatz optimieren,

•            Kosten senken (insbesondere durch zielgerichtete frühe Entscheidungen),

•            Qualität steigern (durch fundierte Daten- und Modellgrundlagen).

Der größte Hebel liegt gleich ganz am Anfang des Forschungsprozesses: Beim Identifizieren und Bewerten neuer Targets – also biologischer Zielstrukturen wie Proteinen oder Enzymen – und geeigneter Moleküle, die als potenzielle Wirkstoffe auf diese Targets einwirken können.

KI-gestützte Molekülanalyse

KI hilft heute im Labor bei der Analyse.
Boehringer Ingelheim

Ein Beispiel für diesen Wandel durch digitale Innovation ist die sogenannte Discovery-Phase. Dies ist die Phase der präklinischen Wirkstofffindung, die in der Regel vier bis fünf Jahre dauert.

Früher konnten im Labor zehn bis 20 Moleküle pro Woche getestet werden. Heute analysieren Systeme wie ADAM (Advanced Design Assistant for Molecules) mithilfe von KI und Simulationen tausende Substanzen pro Tag. Das System hilft dabei, Moleküle zu priorisieren, indem es deren Eigenschaften vorhersagt, beispielsweise wie sie im Körper verstoffwechselt werden.

Effizienz im Discovery Funnel

So prüft ADAM in Echtzeit Stabilität, Toxizität sowie Synthesefähigkeit und filtert ungeeignete Kandidaten bereits vor dem ersten Experiment aus. Im Zentrum steht dabei die Frage, welche Proteine oder Moleküle sich überhaupt für eine therapeutische Beeinflussung eignen.

Diese Targets werden gezielt erforscht und untersucht, um festzustellen, wie sie mit Krankheiten zusammenhängen. Zudem wird analysiert, welche Veränderung sich durch einen Wirkstoff herbeiführen lassen – und ob diese sicher und zugleich medizinisch sinnvoll ist.

Digitale Zwillinge simulieren klinische Forschung

Ein weiteres Feld, das durch die Digitalisierung revolutioniert wird, ist die klinische Entwicklung. Diese dauert momentan rund sechs bis acht Jahre. In dieser zweiten Phase der Arzneimittelentwicklung wird geprüft, ob ein Wirkstoff im menschlichen Körper die erhoffte Wirkung entfaltet. Dabei scheitern rund zwei Drittel aller Kandidaten.

Diese sehr aufwendigen klinischen Studien werden in der nahen Zukunft zunehmend durch Digitale Zwillinge unterstützt: KI-gestützte Simulationen, mit denen sich Wirkstoffwirkungen auf bestimmte Patientengruppen vorab testen lassen.

Dataland als strategischer Enabler

Die technologische Basis für diese Fortschritte liefert „Dataland“. Dabei handelt es sich um ein eigens bei Boehringer Ingelheim entwickeltes Datenökosystem zur Integration von Forschungs-, Klinik- und Real-World-Daten. Dataland führt Daten aus allen Unternehmensbereichen zusammen, so dass diese zur sofortigen, leicht verständlichen Nutzung verfügbar sind – beispielsweise für Simulationen oder Datenanalysen.

Auf diese Weise werden Mitarbeitende bei datengetriebenen Entscheidungen unterstützt und das Unternehmen ist insgesamt effizienter. Ziel ist ein einheitlicher Datenraum, der nicht durch Abteilungsgrenzen limitiert ist. Forschung, IT und Data Science arbeiten dabei eng verzahnt – klassische Silos werden aufgelöst.

GenAI: Assistenzsystem mit menschlicher Kontrolle

Ein Reaktor zur Wirkstoffsynthese in der Boehringer-Entwicklung in Biberach.
Boehringer Ingelheim

Insbesondere generative KI und Large Language Models (LLMs) haben inzwischen enormes Potenzial entfaltet, Prozesse umfassend zu modernisieren und zu beschleunigen. Schon heute unterstützt GenAI bei der Erstellung klinischer Berichte oder der Dokumentation von Forschungsergebnissen. Perspektivisch wird KI auch zur Literaturanalyse eingesetzt.

Zwar unterbreitet die Maschine Vorschläge – die Entscheidungen trifft aber immer der Mensch. Medizinische und wissenschaftliche Experten sind dabei aktiv in die Entwicklung von Tools eingebunden.

Kultureller Wandel: Interdisziplinäre Teams und neue Kompetenzen

Neben den oben angesprochenen Technologien und Daten braucht digitale Innovation vor allem eins: neue Kompetenzen und Denkweisen. Boehringer Ingelheim setzt deshalb auf interdisziplinäre Teams mit Vertretern aus Medizin, Datenwissenschaft, Biomedizin und Softwareentwicklung. Dazu sind Mitarbeitende notwendig, die mit KI genauso selbstverständlich arbeiten wie mit einem Mikroskop.

Mit Digitalisierung zu höheren Erfolgsquoten

Wie eingangs erwähnt, ist die Entwicklung neuer Wirkstoffe langwierig, teuer und risikobehaftet. Boehringer Ingelheim setzt deshalb auf eine gezieltere Entwicklung durch Digitalisierung. Das kurzfristige Ziel ist es, die Erfolgswahrscheinlichkeit (POS – Probability of Success) neuer Substanzen zu steigern – durch simulationsgestützte Vorauswahl, optimierte Datenmodelle und eine präzisere Auswahl der Patienten in klinischen Studien.

Dabei ist immer zu berücksichtigen: Der Einsatz von KI erfordert eine kontinuierliche Überprüfung auf mögliche Verzerrungen (Bias). Zudem ist nicht jede technisch mögliche Anwendung auch ethisch zu vertreten.

Abteilungsübergreifende Leitlinien sorgen dafür, dass Innovation verantwortungsvoll gestaltet wird. Digitalisierung wird so nicht zum Selbstzweck, sondern bleibt ein strategisches Instrument für besseren medizinischen Fortschritt – durch fundiertere Entscheidungen und effizientere Forschung.

So nutzt Boehringer Ingelheim IT in der Forschung​ Weiterlesen »

Jeder dritte Mitarbeiter sabotiert Ihre GenAI-Strategie​

Allgemein

Gerade jüngere Mitarbeitende sehen GenAI eher skeptisch fizkes / Shutterstock Fast ein Drittel – 31 Prozent – der Mitarbeiter in Unternehmen geben an, „die generative KI-Strategie ihres Unternehmens zu sabotieren“, so eine Umfrage des KI-Anbieters Writer. Bei Millennials und Mitarbeitern der Generation Z sind es sogar 41 Prozent. Untergrabung der übergeordneten KI-Strategie In der Umfrage gab zudem einer von zehn Beschäftigten zu, die Leistungskennzahlen zu manipulieren, um den Anschein zu erwecken, dass KI schlechter abschneidet; absichtlich minderwertige Ergebnisse zu erzeugen; die Nutzung generativer KI-Tools oder deren Outputs zu verweigern;   Schulungen zum Thema generative KI nicht wahrzunehmen. Bei anderen KI-spezifischen Handlungen lässt sich darüber streiten, ob sie pauschal als Sabotageakte eingeordnet werden können. In vielen Fällen gehe es dabei vielmehr um Versuche, die Produktivität zu steigern oder die Arbeit zu erleichtern. Eine präzisere Bezeichnung wäre möglicherweise „Untergrabung der übergeordneten KI-Strategie“, Das greift, wenn Mitarbeiter Unternehmensdaten in nicht genehmigte GenAI-Tools eingeben (27 Prozent), nicht freigegebene KI-Tools nutzen (20 Prozent) und Sicherheitslücken im Zusammenhang mit KI nicht melden (16 Prozent). „Wenn jemand seinen Arbeitgeber bewusst über die Resultate generativer KI bei einem bestimmten Prozess in die Irre führt oder sensible Unternehmensdaten in ein externes Tool einspeist, dann ist das ganz klar Sabotage“, betont Brian Jackson, Forschungsleiter bei der Info-Tech Research Group. „Verzichtet jedoch jemand aus berechtigter Sorge um die Qualität auf den Einsatz von GenAI oder nutzt externe Tools, ohne vertrauliche Informationen weiterzugeben, ist das nicht als böswillig zu werten.“ Dennoch stimmt Jackson zu, dass es Fälle bewusster Sabotage gibt – und zwar oft aus einem naheliegenden Grund: Vorstände und Top-Manager priesen öffentlich den Einsatz von KI als Mittel zur Reduzierung der Belegschaft. „Wer wird denn motiviert sein, KI einzuführen, wenn er weiß, dass damit seine eigene Stelle wegfallen soll?“, fragt der Analyst. KI könne zunehmend Bereiche der Wissensarbeit automatisieren, die bislang menschliche Kreativität und Intelligenz erforderten. Bekämen Mitarbeiter das Gefühl, dass KI genau dort eingesetzt wird, wo sie gerne arbeiten oder wo ein menschlicher Beitrag besonders wichtig ist, komme es zu Widerstand. Der Analyst rät Unternehmen, auf Feedback der Mitarbeitenden zu hören, wenn es darum geht, wo KI tatsächlich Mehrwert schaffen kann – statt einen Top-down-Ansatz zu verfolgen. Das könne Mitarbeitende entfremden, weil sie das Gefühl haben, eine Technologie anzulernen, die sie selbst überflüssig macht. Jackson kritisiert außerdem, dass einige CEOs zur Unsicherheit rund um KI und Jobverluste beitragen, indem sie öffentlich behaupten, KI sei der Grund für Stellenstreichungen – auch wenn das gar nicht der Fall ist. „Führungskräfte versuchen manchmal, Entlassungen zu beschönigen, etwa, indem sie sagen: ‚Wir machen das nicht, weil das Unternehmen in Schwierigkeiten steckt. Nein, wir entlassen Leute, weil KI uns so effizient macht, dass wir nicht mehr so viele Menschen brauchen“, führt der Analyst der Info-Tech Research Group aus. „Anstatt zuzugeben, dass sie übermäßig viele Mitarbeiter eingestellt haben, sagen sie lieber: ‚Wir setzen KI ein, weil wir fortschrittlich und technikaffin sind.” Auch ein Datenanalyst, der die KI-Integration bei einer 80Milliarden Dollar schweren Einzelhandelskette betreut – und anonym bleiben möchte, berichtet von direkten „Widerstandserfahrungen“. Zwar sei „offene Sabotage selten“, doch er habe subtilere Formen des Widerstands beobachtet – etwa, dass Teams KI-Funktionen nicht ausschöpfen, wieder auf manuelle Prozesse zurückgreifen oder KI-generierte Empfehlungen ohne nachvollziehbaren Grund ignorieren. In manchen Fällen sei dies auf Ängste zurückzuführen: Mitarbeitende sorgten sich, dass mehr Automatisierung ihre Rolle schwächen oder ihre Fachkenntnisse entwerten könnte. „Doch was wie Widerstand aussieht, ist in Wahrheit ein Ruf nach Einbindung in den Veränderungsprozess“, so der Data Scientist: „Die Menschen wollen verstehen, wie KI ihre Arbeit unterstützt – nicht nur hören, dass sie ihnen aufgezwungen wird.“ „Sabotage wird zur Realität, wenn man Ängste ignoriert“, fügt Patrice Williams Lindo, CEO von Career Nomad, an. „Wenn die Unternehmensführung die Bedenken der Mitarbeitenden abtut, keine klaren Weiterbildungsperspektiven aufzeigt und KI-Einführungen von oben herab durchsetzt, kann es passieren, dass Mitarbeitende die Einführung bewusst verzögern oder absichtlich minderwertige Eingaben machen, um sich selbst zu schützen.“ Sabotage zu bekämpfen ist schwierig Der Umgang mit KI-Widerstand erfordert bessere Schulung und Kommunikation. Doch selbst diese Maßnahmen allein reichen nicht aus. Vor allem dann nicht, wenn Führungskräfte offen sagen, dass bei erfolgreicher KI-Strategie mit Entlassungen zu rechnen ist. Da sich KI-Sabotage wahrscheinlich nie vollständig vermeiden lässt, sind Unternehmen potenziell erheblichen Risiken und Haftungen ausgesetzt. Cameron Powell, Technologieanwalt bei der Kanzlei Gregor Wynne Arney, warnt: “Hat ein Unternehmen es versäumt, solche Vorgänge zu unterbinden oder sie sogar unbewusst begünstigt und dabei Gesetze verletzt wurden, kann es haftbar gemacht werden“, so Powell. Zudem könnten Mitarbeitende Informationen erzeugen, die das Unternehmen rechtlich binden, etwa durch unbeabsichtigte Vertragsabschlüsse oder verleumderische Aussagen über Dritte. Oder sie könnten Urheberrechte oder Marken Dritter verletzen, Betriebsgeheimnisse preisgeben – entweder des eigenen Unternehmens oder eines Partners. All das könne juristische Folgen für das Unternehmen haben. Der Anwalt weist außerdem auf das Risiko für die Mitarbeiter selbst hin: „Das Haftungsrisiko ist ein zentraler Aspekt, den Unternehmen ihren Mitarbeitenden in Schulungen deutlich machen sollten. Sabotage schadet nicht nur dem Unternehmen – sie kann auch dazu führen, dass Mitarbeitende zivil- oder strafrechtlich belangt werden, bis hin zu Geldstrafen oder Gefängnis.“ In einem historischen Kontext betrachtet, seien die Sabotageversuche gegen KI nichts Neues, führt indes Lars Nyman, Fractional CMO, an. „Das ist Luddismus in neuer Form. 1811 haben die Ludditen Webstühle zerstört, um ihre Arbeitsplätze zu retten. Heute äußert sich das in Sabotage auf Slack oder heimlichen Jailbreaks von Prompts. Die menschliche Natur hat sich nicht verändert – nur die Werkzeuge sind andere. Wenn Sie Ihren Mitarbeitern vermitteln, sie seien das wichtigste Kapital und sie anschließend durch ein LLM ersetzen, sollten Sie sich nicht wundern, wenn die Belegschaft den Stecker zieht oder das Modell mit Müll-Daten füttert“, konstatiert Nyman. (mb) 

Jeder dritte Mitarbeiter sabotiert Ihre GenAI-Strategie​ Gerade jüngere Mitarbeitende sehen GenAI eher skeptisch fizkes / Shutterstock

Fast ein Drittel – 31 Prozent – der Mitarbeiter in Unternehmen geben an, „die generative KI-Strategie ihres Unternehmens zu sabotieren“, so eine Umfrage des KI-Anbieters Writer. Bei Millennials und Mitarbeitern der Generation Z sind es sogar 41 Prozent.

Untergrabung der übergeordneten KI-Strategie

In der Umfrage gab zudem einer von zehn Beschäftigten zu,

die Leistungskennzahlen zu manipulieren, um den Anschein zu erwecken, dass KI schlechter abschneidet;

absichtlich minderwertige Ergebnisse zu erzeugen;

die Nutzung generativer KI-Tools oder deren Outputs zu verweigern;  

Schulungen zum Thema generative KI nicht wahrzunehmen.

Bei anderen KI-spezifischen Handlungen lässt sich darüber streiten, ob sie pauschal als Sabotageakte eingeordnet werden können. In vielen Fällen gehe es dabei vielmehr um Versuche, die Produktivität zu steigern oder die Arbeit zu erleichtern.

Eine präzisere Bezeichnung wäre möglicherweise „Untergrabung der übergeordneten KI-Strategie“, Das greift, wenn Mitarbeiter

Unternehmensdaten in nicht genehmigte GenAI-Tools eingeben (27 Prozent),

nicht freigegebene KI-Tools nutzen (20 Prozent) und

Sicherheitslücken im Zusammenhang mit KI nicht melden (16 Prozent).

„Wenn jemand seinen Arbeitgeber bewusst über die Resultate generativer KI bei einem bestimmten Prozess in die Irre führt oder sensible Unternehmensdaten in ein externes Tool einspeist, dann ist das ganz klar Sabotage“, betont Brian Jackson, Forschungsleiter bei der Info-Tech Research Group. „Verzichtet jedoch jemand aus berechtigter Sorge um die Qualität auf den Einsatz von GenAI oder nutzt externe Tools, ohne vertrauliche Informationen weiterzugeben, ist das nicht als böswillig zu werten.“

Dennoch stimmt Jackson zu, dass es Fälle bewusster Sabotage gibt – und zwar oft aus einem naheliegenden Grund: Vorstände und Top-Manager priesen öffentlich den Einsatz von KI als Mittel zur Reduzierung der Belegschaft.

„Wer wird denn motiviert sein, KI einzuführen, wenn er weiß, dass damit seine eigene Stelle wegfallen soll?“, fragt der Analyst. KI könne zunehmend Bereiche der Wissensarbeit automatisieren, die bislang menschliche Kreativität und Intelligenz erforderten. Bekämen Mitarbeiter das Gefühl, dass KI genau dort eingesetzt wird, wo sie gerne arbeiten oder wo ein menschlicher Beitrag besonders wichtig ist, komme es zu Widerstand. Der Analyst rät Unternehmen, auf Feedback der Mitarbeitenden zu hören, wenn es darum geht, wo KI tatsächlich Mehrwert schaffen kann – statt einen Top-down-Ansatz zu verfolgen. Das könne Mitarbeitende entfremden, weil sie das Gefühl haben, eine Technologie anzulernen, die sie selbst überflüssig macht.

Jackson kritisiert außerdem, dass einige CEOs zur Unsicherheit rund um KI und Jobverluste beitragen, indem sie öffentlich behaupten, KI sei der Grund für Stellenstreichungen – auch wenn das gar nicht der Fall ist.

„Führungskräfte versuchen manchmal, Entlassungen zu beschönigen, etwa, indem sie sagen: ‚Wir machen das nicht, weil das Unternehmen in Schwierigkeiten steckt. Nein, wir entlassen Leute, weil KI uns so effizient macht, dass wir nicht mehr so viele Menschen brauchen“, führt der Analyst der Info-Tech Research Group aus. „Anstatt zuzugeben, dass sie übermäßig viele Mitarbeiter eingestellt haben, sagen sie lieber: ‚Wir setzen KI ein, weil wir fortschrittlich und technikaffin sind.”

Auch ein Datenanalyst, der die KI-Integration bei einer 80Milliarden Dollar schweren Einzelhandelskette betreut – und anonym bleiben möchte, berichtet von direkten „Widerstandserfahrungen“. Zwar sei „offene Sabotage selten“, doch er habe subtilere Formen des Widerstands beobachtet – etwa, dass Teams KI-Funktionen nicht ausschöpfen, wieder auf manuelle Prozesse zurückgreifen oder KI-generierte Empfehlungen ohne nachvollziehbaren Grund ignorieren.

In manchen Fällen sei dies auf Ängste zurückzuführen: Mitarbeitende sorgten sich, dass mehr Automatisierung ihre Rolle schwächen oder ihre Fachkenntnisse entwerten könnte. „Doch was wie Widerstand aussieht, ist in Wahrheit ein Ruf nach Einbindung in den Veränderungsprozess“, so der Data Scientist: „Die Menschen wollen verstehen, wie KI ihre Arbeit unterstützt – nicht nur hören, dass sie ihnen aufgezwungen wird.“

„Sabotage wird zur Realität, wenn man Ängste ignoriert“, fügt Patrice Williams Lindo, CEO von Career Nomad, an. „Wenn die Unternehmensführung die Bedenken der Mitarbeitenden abtut, keine klaren Weiterbildungsperspektiven aufzeigt und KI-Einführungen von oben herab durchsetzt, kann es passieren, dass Mitarbeitende die Einführung bewusst verzögern oder absichtlich minderwertige Eingaben machen, um sich selbst zu schützen.“

Sabotage zu bekämpfen ist schwierig

Der Umgang mit KI-Widerstand erfordert bessere Schulung und Kommunikation. Doch selbst diese Maßnahmen allein reichen nicht aus. Vor allem dann nicht, wenn Führungskräfte offen sagen, dass bei erfolgreicher KI-Strategie mit Entlassungen zu rechnen ist.

Da sich KI-Sabotage wahrscheinlich nie vollständig vermeiden lässt, sind Unternehmen potenziell erheblichen Risiken und Haftungen ausgesetzt.

Cameron Powell, Technologieanwalt bei der Kanzlei Gregor Wynne Arney, warnt: “Hat ein Unternehmen es versäumt, solche Vorgänge zu unterbinden oder sie sogar unbewusst begünstigt und dabei Gesetze verletzt wurden, kann es haftbar gemacht werden“, so Powell. Zudem könnten Mitarbeitende Informationen erzeugen, die das Unternehmen rechtlich binden, etwa durch unbeabsichtigte Vertragsabschlüsse oder verleumderische Aussagen über Dritte. Oder sie könnten Urheberrechte oder Marken Dritter verletzen, Betriebsgeheimnisse preisgeben – entweder des eigenen Unternehmens oder eines Partners. All das könne juristische Folgen für das Unternehmen haben.

Der Anwalt weist außerdem auf das Risiko für die Mitarbeiter selbst hin: „Das Haftungsrisiko ist ein zentraler Aspekt, den Unternehmen ihren Mitarbeitenden in Schulungen deutlich machen sollten. Sabotage schadet nicht nur dem Unternehmen – sie kann auch dazu führen, dass Mitarbeitende zivil- oder strafrechtlich belangt werden, bis hin zu Geldstrafen oder Gefängnis.“

In einem historischen Kontext betrachtet, seien die Sabotageversuche gegen KI nichts Neues, führt indes Lars Nyman, Fractional CMO, an. „Das ist Luddismus in neuer Form. 1811 haben die Ludditen Webstühle zerstört, um ihre Arbeitsplätze zu retten. Heute äußert sich das in Sabotage auf Slack oder heimlichen Jailbreaks von Prompts. Die menschliche Natur hat sich nicht verändert – nur die Werkzeuge sind andere.

Wenn Sie Ihren Mitarbeitern vermitteln, sie seien das wichtigste Kapital und sie anschließend durch ein LLM ersetzen, sollten Sie sich nicht wundern, wenn die Belegschaft den Stecker zieht oder das Modell mit Müll-Daten füttert“, konstatiert Nyman. (mb)

Jeder dritte Mitarbeiter sabotiert Ihre GenAI-Strategie​ Weiterlesen »

Podcast: Jetzt ist die Zeit für KI-Experimente​

Allgemein

Podcast-Gast Björn Ommer empfiehlt, sich intensiv mit der KI und ihren Möglichkeiten zu beschäftigen und auch zu experimentieren. Björn Ommer „Generative KI ist eine mächtige Technologie, die vieles transformiert“, sagt Björn Ommer, der an der Münchner LMU den Lehrstuhl Computervision and Learning Group leitet. „Sie ist so grundlegend, dass wir in den Unternehmen wirklich einen neuen Mindset hinbekommen müssen. Es geht darum, dass wir unsere Geschäftstätigkeit durch die Augen der KI neu sehen.“    Ommer war zu Gast im Podcast “TechTalk Smart Leadership” von Computerwoche und CIO-Magazin. Aus seiner Sicht greift es viel zu kurz, mit Generative AI (GenAI) nur Texte, Bilder oder Programmcode zu basteln. Die Anwendungsfälle, die Unternehmen wirklich weiter bringen könnten, lägen jenseits dieser bekannten Standardfunktionen und zwar dort, wo KI helfe, große heterogene Datenmengen schnell zu analysieren und neue Geschäftsmodelle daraus zu entwickeln. „Vor diesem Hintergrund sehe ich uns im Wandel von einer Informations- zu einer Wissensgesellschaft“, erklärt der Professor.    Generative KI schafft Neues – was, wissen wir noch nicht   Momentan würden die Menschen nahezu erdrückt von der Informationsflut aus dem Web und den sozialen Netzwerken, so Ommer. Doch das wirklich relevante Wissen, das für Entscheidungen benötigt werde, bleibe verborgen. Aber langsam verändere sich etwas, erklärt der KI-Experte: „Wir sehen schon erste ‚Emergenzeffekte‘ bei der generativen KI. Wenn uns die Technologie jetzt hilft, die enormen Informationsmengen da draußen nicht nur zu sortieren, wie es die Suchmaschinen getan haben, sondern zu kontextualisieren, also miteinander in Verbindung zu setzen, dann kann neues, entscheidungsrelevantes Wissen daraus entstehen.“     Was also sollten Unternehmen konkret tun, um auf den Zug aufzuspringen? Ommer empfiehlt, sich intensiv mit der KI und ihren Möglichkeiten zu beschäftigen und auch zu experimentieren. Dabei sei es wichtig, Mitarbeitende und Entscheider aus allen Unternehmensbereichen einzubinden und die Teams heterogen zusammenzusetzen.    „Die Menschen kennen ihre Assets und das Wissen, das sie haben und benötigen, selbst am besten“, so der Wissenschaftler. „Konkreter Vorschlag: Denken Sie über Ihre Blockers nach. Was sind die Dinge, die Sie eigentlich gerne in ihrem Unternehmen anpacken würden, aber bislang nicht umsetzen konnten? Vielleicht geht es mit den neuen Möglichkeiten der KI.“    width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2ib8uvFJeY5t5u7QlQ2kMI?utm_source=oembed”> KI-Souveränität ist für deutsche Betriebe wichtig   Ommer geht auch auf die wirtschaftliche Bedeutung von generativer KI ein: „Bei einer so mächtigen Ermöglichungstechnologie, auf der alles aufbauen wird, ist es nötig, das wir in Deutschland und Europa eine gewisse Souveränität erreichen. Das bedeutet nicht, dass wir uns komplett von den großen Playern lösen und alles autark entwickeln sollten. Aber in kritischen Bereichen müssen wir eigene Lösungen schaffen, die lokal laufen können, so dass wir die Daten nicht auf irgendwelche Server in den USA hochladen müssen.“ Die politischen Entwicklungen der letzten Monate hätten gezeigt, dass sich die Rahmenbedingungen schnell ändern könnten.   Mit Open Source zum Erfolg   Welche Rolle können Open-Source-Ansätze auf dem Weg in die KI-Zukunft spielen? Ommer, dessen Bildgenerator Stable Diffusion anders als die Konkurrenten DALL-E und Midjourney unter einer Open-Source-Lizenz veröffentlicht wurde, befürwortet diesen Ansatz  grundsätzlich, da er eine größtmögliche Transparenz ermögliche. „Wenn generative KI die Technologie ist, auf der alles aufbaut und die letztendlich zu einer Brille wird, durch die wir die Daten sehen, dann ist es wichtig, dass wir dazu Vertrauen haben können und keine verzerrte Wirklichkeit wahrnehmen.“ Er zieht den Vergleich zu einer Airline, die neue Flugzeuge anschaffe. Hier würden sich Käufer und Regulierungsbehörden die kritischen Bestandteile der Technologie auch genau ansehen.    Open Source biete den Vorteil, Software auf Sicherheitslücken prüfen zu können. Damit zu arbeiten bedeute nicht, dass Unternehmen alles offenlegen müssten. In der Luftfahrt würden ja auch nur bestimmte kritische Teile gezeigt, Wettbewerb sei weiterhin möglich. Auch aus Effizienz- und Umweltschutzgründen sei der Open-Source-Ansatz der richtige: Wenn viele Unternehmen auf einer gemeinsamen technischen Basis aufsetzen könnten, spare das Geld und schädliche CO2-Emissionen.   Visionieren statt automatisieren   Viele Unternehmen, die sich mit generativer KI beschäftigen wollen, fürchten den Widerstand ihres Personals. Ommer sieht das Problem: „Die Einführung hat zwangsläufig zur Folge, dass es Veränderungen geben wird in der Weise wie und woran wir arbeiten.“ Probleme entstünden aber meistens nur dann, wenn der Fokus allein darauf gerichtet werde, vorhandene Abläufe zu automatisieren. Er empfiehlt: „Wir müssen den Blick darauf lenken, welche neuen Chancen und eben auch Arbeitsfelder durch diese Technologie geschaffen werden.“    Kein Unternehmen könne heute absehen, was der Einsatz von KI im Detail bringen und bewirken werde. Neue Technologien – vom Telegraphen bis hin zum Internet – seien in ihren Anfängen immer erst als Bedrohung empfunden worden, da nicht absehbar gewesen sei, welche Folgen ihre Einführung haben würde. Als das Internet erfunden wurde, haben wohl die wenigsten Nutzer an weltweite Collaboration, Video- und Musik-Streaming oder Cloud Computing gedacht – alles Entwicklungen, die sich erst nach und nach offenbart haben, weil geforscht, entwickelt und ausprobiert wurde.     Stellen streichen ist nicht visionär   Betriebe sollten eher überlegen, wie sie mit generativer KI und ihren vorhandenen Datenschätzen etwas grundsätzlich Neues schaffen könnten, etwas, das über kleine Produktivitätsgewinne und Kostensenkungen hinausgeht. Entscheidend ist für Ommer die Frage: „Was ist die Vision für mein Unternehmen – betrachtet aus dem Blickwinkel der KI“. Nur Stellen zu streichen und Sparprogramme aufzusetzen sei nicht visionär. Besser sei es zu sagen: „Da ist eine gewaltige neue Technologie, mit der können wir neue Märkte erschließen und Chancen wahrnehmen. Vielleicht brauchen wir ein paar neue Leute, um dahin zu kommen.“    Vor diesem Hintergrund reiche es auch nicht aus abzuwarten, welche Innovationen Anbieter wie SAP, Salesforce oder Oracle unter dem Stichwort Agentic AI bereitstellen. Für Ommer ist das keine Strategie. „Wir reden bei generativer KI von einer disruptiven Technologie, die alles verändert. Da wird es nicht reichen, Version 2.0 von einem Tool zu nehmen, das ich schon einsetze.“ Mehr denn je komme es heute auf die Führungsteams an, die die Chancen erkennen und ergreifen müssten, ganz neue Geschäftsideen umzusetzen.   Wissen statt Informationen – für den C-Level    Für den C-Level selbst ergäben sich ebenfalls enorme Vorteile durch GenAI, da heterogene und unstrukturierte Daten viel besser genutzt werden könnten. „Manager können sich heute von der KI so briefen lassen, wie das bisher vielleicht nur der eine oder andere Staatspräsident kann, weil viele Leute den ganzen Tag für ihn recherchieren. Jetzt kann jeder den Zugang zu beliebigem Wissen haben und zwar in verständlicher Aufbereitung, weil mich die KI dort abholt, wo ich stehe.“ (mb) 

Podcast: Jetzt ist die Zeit für KI-Experimente​ Podcast-Gast Björn Ommer empfiehlt, sich intensiv mit der KI und ihren Möglichkeiten zu beschäftigen und auch zu experimentieren. Björn Ommer

„Generative KI ist eine mächtige Technologie, die vieles transformiert“, sagt Björn Ommer, der an der Münchner LMU den Lehrstuhl Computervision and Learning Group leitet. „Sie ist so grundlegend, dass wir in den Unternehmen wirklich einen neuen Mindset hinbekommen müssen. Es geht darum, dass wir unsere Geschäftstätigkeit durch die Augen der KI neu sehen.“   

Ommer war zu Gast im Podcast “TechTalk Smart Leadership” von Computerwoche und CIO-Magazin. Aus seiner Sicht greift es viel zu kurz, mit Generative AI (GenAI) nur Texte, Bilder oder Programmcode zu basteln. Die Anwendungsfälle, die Unternehmen wirklich weiter bringen könnten, lägen jenseits dieser bekannten Standardfunktionen und zwar dort, wo KI helfe, große heterogene Datenmengen schnell zu analysieren und neue Geschäftsmodelle daraus zu entwickeln. „Vor diesem Hintergrund sehe ich uns im Wandel von einer Informations- zu einer Wissensgesellschaft“, erklärt der Professor.   

Generative KI schafft Neues – was, wissen wir noch nicht  

Momentan würden die Menschen nahezu erdrückt von der Informationsflut aus dem Web und den sozialen Netzwerken, so Ommer. Doch das wirklich relevante Wissen, das für Entscheidungen benötigt werde, bleibe verborgen. Aber langsam verändere sich etwas, erklärt der KI-Experte: „Wir sehen schon erste ‚Emergenzeffekte‘ bei der generativen KI. Wenn uns die Technologie jetzt hilft, die enormen Informationsmengen da draußen nicht nur zu sortieren, wie es die Suchmaschinen getan haben, sondern zu kontextualisieren, also miteinander in Verbindung zu setzen, dann kann neues, entscheidungsrelevantes Wissen daraus entstehen.“    

Was also sollten Unternehmen konkret tun, um auf den Zug aufzuspringen? Ommer empfiehlt, sich intensiv mit der KI und ihren Möglichkeiten zu beschäftigen und auch zu experimentieren. Dabei sei es wichtig, Mitarbeitende und Entscheider aus allen Unternehmensbereichen einzubinden und die Teams heterogen zusammenzusetzen.   

„Die Menschen kennen ihre Assets und das Wissen, das sie haben und benötigen, selbst am besten“, so der Wissenschaftler. „Konkreter Vorschlag: Denken Sie über Ihre Blockers nach. Was sind die Dinge, die Sie eigentlich gerne in ihrem Unternehmen anpacken würden, aber bislang nicht umsetzen konnten? Vielleicht geht es mit den neuen Möglichkeiten der KI.“   

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2ib8uvFJeY5t5u7QlQ2kMI?utm_source=oembed”>

KI-Souveränität ist für deutsche Betriebe wichtig  

Ommer geht auch auf die wirtschaftliche Bedeutung von generativer KI ein: „Bei einer so mächtigen Ermöglichungstechnologie, auf der alles aufbauen wird, ist es nötig, das wir in Deutschland und Europa eine gewisse Souveränität erreichen. Das bedeutet nicht, dass wir uns komplett von den großen Playern lösen und alles autark entwickeln sollten. Aber in kritischen Bereichen müssen wir eigene Lösungen schaffen, die lokal laufen können, so dass wir die Daten nicht auf irgendwelche Server in den USA hochladen müssen.“ Die politischen Entwicklungen der letzten Monate hätten gezeigt, dass sich die Rahmenbedingungen schnell ändern könnten.  

Mit Open Source zum Erfolg  

Welche Rolle können Open-Source-Ansätze auf dem Weg in die KI-Zukunft spielen? Ommer, dessen Bildgenerator Stable Diffusion anders als die Konkurrenten DALL-E und Midjourney unter einer Open-Source-Lizenz veröffentlicht wurde, befürwortet diesen Ansatz  grundsätzlich, da er eine größtmögliche Transparenz ermögliche. „Wenn generative KI die Technologie ist, auf der alles aufbaut und die letztendlich zu einer Brille wird, durch die wir die Daten sehen, dann ist es wichtig, dass wir dazu Vertrauen haben können und keine verzerrte Wirklichkeit wahrnehmen.“ Er zieht den Vergleich zu einer Airline, die neue Flugzeuge anschaffe. Hier würden sich Käufer und Regulierungsbehörden die kritischen Bestandteile der Technologie auch genau ansehen.   

Open Source biete den Vorteil, Software auf Sicherheitslücken prüfen zu können. Damit zu arbeiten bedeute nicht, dass Unternehmen alles offenlegen müssten. In der Luftfahrt würden ja auch nur bestimmte kritische Teile gezeigt, Wettbewerb sei weiterhin möglich. Auch aus Effizienz- und Umweltschutzgründen sei der Open-Source-Ansatz der richtige: Wenn viele Unternehmen auf einer gemeinsamen technischen Basis aufsetzen könnten, spare das Geld und schädliche CO2-Emissionen.  

Visionieren statt automatisieren  

Viele Unternehmen, die sich mit generativer KI beschäftigen wollen, fürchten den Widerstand ihres Personals. Ommer sieht das Problem: „Die Einführung hat zwangsläufig zur Folge, dass es Veränderungen geben wird in der Weise wie und woran wir arbeiten.“ Probleme entstünden aber meistens nur dann, wenn der Fokus allein darauf gerichtet werde, vorhandene Abläufe zu automatisieren. Er empfiehlt: „Wir müssen den Blick darauf lenken, welche neuen Chancen und eben auch Arbeitsfelder durch diese Technologie geschaffen werden.“   

Kein Unternehmen könne heute absehen, was der Einsatz von KI im Detail bringen und bewirken werde. Neue Technologien – vom Telegraphen bis hin zum Internet – seien in ihren Anfängen immer erst als Bedrohung empfunden worden, da nicht absehbar gewesen sei, welche Folgen ihre Einführung haben würde. Als das Internet erfunden wurde, haben wohl die wenigsten Nutzer an weltweite Collaboration, Video- und Musik-Streaming oder Cloud Computing gedacht – alles Entwicklungen, die sich erst nach und nach offenbart haben, weil geforscht, entwickelt und ausprobiert wurde.    

Stellen streichen ist nicht visionär  

Betriebe sollten eher überlegen, wie sie mit generativer KI und ihren vorhandenen Datenschätzen etwas grundsätzlich Neues schaffen könnten, etwas, das über kleine Produktivitätsgewinne und Kostensenkungen hinausgeht. Entscheidend ist für Ommer die Frage: „Was ist die Vision für mein Unternehmen – betrachtet aus dem Blickwinkel der KI“. Nur Stellen zu streichen und Sparprogramme aufzusetzen sei nicht visionär. Besser sei es zu sagen: „Da ist eine gewaltige neue Technologie, mit der können wir neue Märkte erschließen und Chancen wahrnehmen. Vielleicht brauchen wir ein paar neue Leute, um dahin zu kommen.“   

Vor diesem Hintergrund reiche es auch nicht aus abzuwarten, welche Innovationen Anbieter wie SAP, Salesforce oder Oracle unter dem Stichwort Agentic AI bereitstellen. Für Ommer ist das keine Strategie. „Wir reden bei generativer KI von einer disruptiven Technologie, die alles verändert. Da wird es nicht reichen, Version 2.0 von einem Tool zu nehmen, das ich schon einsetze.“ Mehr denn je komme es heute auf die Führungsteams an, die die Chancen erkennen und ergreifen müssten, ganz neue Geschäftsideen umzusetzen.  

Wissen statt Informationen – für den C-Level   

Für den C-Level selbst ergäben sich ebenfalls enorme Vorteile durch GenAI, da heterogene und unstrukturierte Daten viel besser genutzt werden könnten. „Manager können sich heute von der KI so briefen lassen, wie das bisher vielleicht nur der eine oder andere Staatspräsident kann, weil viele Leute den ganzen Tag für ihn recherchieren. Jetzt kann jeder den Zugang zu beliebigem Wissen haben und zwar in verständlicher Aufbereitung, weil mich die KI dort abholt, wo ich stehe.“ (mb)

Podcast: Jetzt ist die Zeit für KI-Experimente​ Weiterlesen »

Return on Investment: Wann ist ein Projekt erfolgreich?​

Allgemein

Mit dem berühmten Spatenstich beginnen die ganz großen Vorhaben. Oft wissen die Investoren dann noch nicht, auf welche Widerstände sie treffen werden und ob ihre Kostenplanung realistisch ist. Das ist in der IT nicht anders. Foto: B. Franklin – shutterstock.comProjektmanager interessieren sich in der Bewertung des Projekterfolgs für das magische Dreieck aus Zeit, Kosten und Leistung. Produktmanager rücken die Kundenzufriedenheit in den Mittelpunkt und Controller den Return on Investment (RoI). Wer liegt richtig?Return on Investment (RoI) – die BedeutungDer Begriff Return on Investment wird verwendet, um zu berechnen, wie rentabel Investitionen in der Vergangenheit waren und in Zukunft sein werden. Als eine der wichtigsten Kennzahlen im Bereich des Rechnungswesens wird sie benutzt, um die Performance von Geschäftsbereichen zu analysieren und Investitionsvorhaben zu vergleichen, wenn es gilt die Entscheidung für oder gegen ein Projekt zu treffen. Die Formel zur Berechnung des Return on Investment wurde von Donaldson Brown erfunden und basiert auf dem DuPont-Schema, dem ältesten betriebswirtschaftlichen Kennzahlensystem. Return on Investment berechnenAllgemein kann der RoI berechnet werden, indem das Kapital (Invest) zum erzielten Gewinn (Return) in ein prozentuales Verhältnis gesetzt wird:Die vereinfachte Formel dazu lautet: RoI = Gewinn / Gesamtkapital x 100Zur Ermittlung des ROI nach dem Du-Pont-Schemas lautet die Formel: RoI = Umsatzrendite x KapitalrenditeHier eine kurze Erklärung anhand eines Beispiels: Ein mittelständisches Unternehmen investiert 50.000 in ein IT-Projekt und kann dadurch nach Projektende 60.000 Euro Umsatz generieren. Der Gewinn liegt bei 10.000 Euro. RoI = Umsatzrendite x Kapitalumschlag = (Gewinn / Umsatz) x (Umsatz / Investiertes Kapital) = (10.000 / 60.000 x 100) x (60.000 / 50.000) Return on Investment (RoI) = 2 = 20%.Mit jedem investierten Euro wurde somit 20 Cent Gewinn erzielt. Bedeutung des RoI im ProjektmanagementAus der Sicht eines Projektmanagers ist ein Projekt dann erfolgreich, wenn es im „magischen Dreieck“ (vereinbarter Funktionsumfang, pünktlich und ohne Mehrkosten) umgesetzt wurde. Diese Vorstellung ist jedoch veraltet und zu technikzentriert. Es wird dabei nicht berücksichtigt, ob das Produkt auch die Kunden zufriedenstellt. Unternehmen sollten daher die Definition ausweiten und die Erreichung hoher Kundenzufriedenheit mit einplanen.Letztere ist kein Zufall, sie kann genauso wie Qualität in Entwicklungsprojekte eingeplant werden. Ein Vorhaben ist allerdings auch nicht nur deshalb erfolgreich, weil der Kunde zufrieden ist. Es kann schließlich passieren, dass die Kriterien des magischen Dreiecks eingehalten wurden und die Kunden zufrieden sind, die laufenden Betriebskosten aber so hoch ausfallen, dass das Produkt kurz nach dem Go-Live wieder eingestellt werden muss. Das kann etwa der Fall sein, wenn der Betrieb zu hohe Cloud-Kosten erfordert. Kritik am RoIDie Messung des RoI scheint auf den ersten Blick sehr einfach und belastbar zu sein. Es gibt jedoch Schwachstellen. So werden Marktrisiken, die Kundenzufriedenheit und auch die Kundenbindung nicht einbezogen. Ein Problem ist auch, dass der Betrachtungszeitraum beliebig lang gesetzt werden kann. Nehmen wir an, ein Projekt würde innerhalb des magischen Dreiecks abgeschlossen und der Kunde wäre hochzufrieden. Vielleicht ist es auch noch gelungen, die Kundenbindung zu erhöhen – Stichwort: Vendor Lock-in. All dies wären positive Effekte, doch die entscheidnede Frage wäre: Ist der Betrachtungszeitraum zur Berechnung des RoI richtig gewählt? Wenn nämlch die Zeitspanne zu kurz ausfällt, dürfte der RoI trotz der Erfolge negativ ausfallen. Das Vorhaben müsste als Misserfolg betrachtet werden.Zusammengefasst sind aus Unternehmenssicht demnach drei KPIs relevant, um den Projekterfolg zu messen:Abweichungen von Zeit, Qualität und Kosten,die Kundenzufriedenheit und der Return on Investment.Dabei hat jeder KPI seine eigene Berechtigung. Auch die Herausforderungen, die beim Ermitteln der Kennzahlen auftreten, sind unterschiedlich. (bw)Die 7 schlimmsten KPI-SündenDie 7 schlimmsten KPI-Sünden Foto: mirpic, Fotolia.deKennzahlensysteme sind beim ITSM erfolgskritisch. Doch KPIs sind nicht aus dem Business abgeleitet und werden zudem falsch definiert und interpretiert.1. KPIs werden nicht aus dem konkreten Business-Bezug abgeleitet: Foto: Picture-Factory, Fotolia.deDa die IT-Prozesse sich nach den Business-Anforderungen richten, müssen auch die ITSM-Kennzahlen geschäftsbezogen sein. Eine solche geschäftliche KPI-Orientierung ist in IT-Organisationen selten. Stattdessen sind ITSM-Kennzahlenkonzepte oft selbstbezogen und dienen der eigenen Qualitätslegitimation.2. KPI-Systeme ufern aus: Foto: igor – Fotolia.comDie Entwicklung und der Einsatz von Kennzahlensystemen gewinnen oft eine Eigendynamik, aus der eine selbstverliebte Beschäftigung mit dem Hang zu immer mehr KPIs entsteht. Die Erfassung, Verarbeitung und Analyse von Messgrößen ist sehr aufwendig, der Nutzen für das Business jedoch gering. CIOs sollten sich daher auf eine begrenzte Anzahl gut beherrschbarer KPIs beschränken.3. KPIs werden nicht zielorientiert und praxisbezogen festgelegt: Foto: Fotolia, HYPE STOCKManchmal übertreiben Firmen es bei der Analyse von Leistungswerten der IT-Prozesse mit der Transparenz, denn schlechte KPIs sorgen für Kritik und einen hohen Rechtfertigungsdruck. Zwar werden Kennzahlensysteme für das ITSM eingeführt, doch aufgrund der fehlenden Akzeptanz kaum ernsthaft genutzt. Wichtig ist, dass Kennzahlen mit allen Beteiligten fair und zielorientiert festgelegt und vereinbart werden.4. KPI-Veränderungen werden nicht geprüft: Foto: Gina Sanders_Fotolia.comDie Leistungswerte in der IT-Organisation verändern sich dynamisch durch den Einsatz neuer Technologien, durch Reorganisation, aufgrund steigender Anforderungen aus dem Fachbereichen oder wegen technischer Probleme. CIOs führen KPI-Analysen in der betrieblichen Praxis häufig nur ungenau und wenig systematisch durch, was zu falschen Schlussfolgerungen führt. 5. Kennzahlenzusammenhänge werden nicht transparent dargestellt: Foto: Digitalpress/Fotolia.comCIOs können die Gesamtsituation nicht richtig bewerten, weil einzelne Leistungs- und Qualitätswerte isoliert betrachtet werden statt in Wechselwirkung mit anderen KPIs. Dadurch ist die Aussagekraft im Hinblick auf eine effiziente ITSM-Leistungssteuerung begrenzt.6. KPI-Abweichungen werden nicht nachverfolgt: Foto: P. Lecko – Fotolia.comIT-Abteilungen gehen Inkonsistenzen oder Widersprüchen bei Leistungsdaten zu IT-Prozessen, die aufgrund unzureichender Definitionen entstehen können, oft nur halbherzig nach. Oder sie ignorieren diese gleich ganz.. Das birgt erhebliche Risiken, insbesondere wenn es sich um KPIs zu geschäftskritischen Prozessen handelt.7. Bei KPI-Analysen fehlen praktische Maßnahmenkataloge: Foto: olly – shutterstock.comMeist werden Mitarbeiter mit den KPI-Analysen zum ITSM allein gelassen. Es fehlen weiterführende Handlungsempfehlungen, die die Auswertungen ergänzen, und Verbesserungsmaßnahmen aufzeigen. 

Return on Investment: Wann ist ein Projekt erfolgreich?​ Mit dem berühmten Spatenstich beginnen die ganz großen Vorhaben. Oft wissen die Investoren dann noch nicht, auf welche Widerstände sie treffen werden und ob ihre Kostenplanung realistisch ist. Das ist in der IT nicht anders.
Foto: B. Franklin – shutterstock.comProjektmanager interessieren sich in der Bewertung des Projekterfolgs für das magische Dreieck aus Zeit, Kosten und Leistung. Produktmanager rücken die Kundenzufriedenheit in den Mittelpunkt und Controller den Return on Investment (RoI). Wer liegt richtig?Return on Investment (RoI) – die BedeutungDer Begriff Return on Investment wird verwendet, um zu berechnen, wie rentabel Investitionen in der Vergangenheit waren und in Zukunft sein werden. Als eine der wichtigsten Kennzahlen im Bereich des Rechnungswesens wird sie benutzt, um die Performance von Geschäftsbereichen zu analysieren und Investitionsvorhaben zu vergleichen, wenn es gilt die Entscheidung für oder gegen ein Projekt zu treffen. Die Formel zur Berechnung des Return on Investment wurde von Donaldson Brown erfunden und basiert auf dem DuPont-Schema, dem ältesten betriebswirtschaftlichen Kennzahlensystem. Return on Investment berechnenAllgemein kann der RoI berechnet werden, indem das Kapital (Invest) zum erzielten Gewinn (Return) in ein prozentuales Verhältnis gesetzt wird:Die vereinfachte Formel dazu lautet: RoI = Gewinn / Gesamtkapital x 100Zur Ermittlung des ROI nach dem Du-Pont-Schemas lautet die Formel: RoI = Umsatzrendite x KapitalrenditeHier eine kurze Erklärung anhand eines Beispiels: Ein mittelständisches Unternehmen investiert 50.000 in ein IT-Projekt und kann dadurch nach Projektende 60.000 Euro Umsatz generieren. Der Gewinn liegt bei 10.000 Euro. RoI = Umsatzrendite x Kapitalumschlag = (Gewinn / Umsatz) x (Umsatz / Investiertes Kapital) = (10.000 / 60.000 x 100) x (60.000 / 50.000) Return on Investment (RoI) = 2 = 20%.Mit jedem investierten Euro wurde somit 20 Cent Gewinn erzielt. Bedeutung des RoI im ProjektmanagementAus der Sicht eines Projektmanagers ist ein Projekt dann erfolgreich, wenn es im „magischen Dreieck“ (vereinbarter Funktionsumfang, pünktlich und ohne Mehrkosten) umgesetzt wurde. Diese Vorstellung ist jedoch veraltet und zu technikzentriert. Es wird dabei nicht berücksichtigt, ob das Produkt auch die Kunden zufriedenstellt. Unternehmen sollten daher die Definition ausweiten und die Erreichung hoher Kundenzufriedenheit mit einplanen.Letztere ist kein Zufall, sie kann genauso wie Qualität in Entwicklungsprojekte eingeplant werden. Ein Vorhaben ist allerdings auch nicht nur deshalb erfolgreich, weil der Kunde zufrieden ist. Es kann schließlich passieren, dass die Kriterien des magischen Dreiecks eingehalten wurden und die Kunden zufrieden sind, die laufenden Betriebskosten aber so hoch ausfallen, dass das Produkt kurz nach dem Go-Live wieder eingestellt werden muss. Das kann etwa der Fall sein, wenn der Betrieb zu hohe Cloud-Kosten erfordert. Kritik am RoIDie Messung des RoI scheint auf den ersten Blick sehr einfach und belastbar zu sein. Es gibt jedoch Schwachstellen. So werden Marktrisiken, die Kundenzufriedenheit und auch die Kundenbindung nicht einbezogen. Ein Problem ist auch, dass der Betrachtungszeitraum beliebig lang gesetzt werden kann. Nehmen wir an, ein Projekt würde innerhalb des magischen Dreiecks abgeschlossen und der Kunde wäre hochzufrieden. Vielleicht ist es auch noch gelungen, die Kundenbindung zu erhöhen – Stichwort: Vendor Lock-in. All dies wären positive Effekte, doch die entscheidnede Frage wäre: Ist der Betrachtungszeitraum zur Berechnung des RoI richtig gewählt? Wenn nämlch die Zeitspanne zu kurz ausfällt, dürfte der RoI trotz der Erfolge negativ ausfallen. Das Vorhaben müsste als Misserfolg betrachtet werden.Zusammengefasst sind aus Unternehmenssicht demnach drei KPIs relevant, um den Projekterfolg zu messen:Abweichungen von Zeit, Qualität und Kosten,die Kundenzufriedenheit und der Return on Investment.Dabei hat jeder KPI seine eigene Berechtigung. Auch die Herausforderungen, die beim Ermitteln der Kennzahlen auftreten, sind unterschiedlich. (bw)Die 7 schlimmsten KPI-SündenDie 7 schlimmsten KPI-Sünden
Foto: mirpic, Fotolia.deKennzahlensysteme sind beim ITSM erfolgskritisch. Doch KPIs sind nicht aus dem Business abgeleitet und werden zudem falsch definiert und interpretiert.1. KPIs werden nicht aus dem konkreten Business-Bezug abgeleitet:
Foto: Picture-Factory, Fotolia.deDa die IT-Prozesse sich nach den Business-Anforderungen richten, müssen auch die ITSM-Kennzahlen geschäftsbezogen sein. Eine solche geschäftliche KPI-Orientierung ist in IT-Organisationen selten. Stattdessen sind ITSM-Kennzahlenkonzepte oft selbstbezogen und dienen der eigenen Qualitätslegitimation.2. KPI-Systeme ufern aus:
Foto: igor – Fotolia.comDie Entwicklung und der Einsatz von Kennzahlensystemen gewinnen oft eine Eigendynamik, aus der eine selbstverliebte Beschäftigung mit dem Hang zu immer mehr KPIs entsteht. Die Erfassung, Verarbeitung und Analyse von Messgrößen ist sehr aufwendig, der Nutzen für das Business jedoch gering. CIOs sollten sich daher auf eine begrenzte Anzahl gut beherrschbarer KPIs beschränken.3. KPIs werden nicht zielorientiert und praxisbezogen festgelegt:
Foto: Fotolia, HYPE STOCKManchmal übertreiben Firmen es bei der Analyse von Leistungswerten der IT-Prozesse mit der Transparenz, denn schlechte KPIs sorgen für Kritik und einen hohen Rechtfertigungsdruck. Zwar werden Kennzahlensysteme für das ITSM eingeführt, doch aufgrund der fehlenden Akzeptanz kaum ernsthaft genutzt. Wichtig ist, dass Kennzahlen mit allen Beteiligten fair und zielorientiert festgelegt und vereinbart werden.4. KPI-Veränderungen werden nicht geprüft:
Foto: Gina Sanders_Fotolia.comDie Leistungswerte in der IT-Organisation verändern sich dynamisch durch den Einsatz neuer Technologien, durch Reorganisation, aufgrund steigender Anforderungen aus dem Fachbereichen oder wegen technischer Probleme. CIOs führen KPI-Analysen in der betrieblichen Praxis häufig nur ungenau und wenig systematisch durch, was zu falschen Schlussfolgerungen führt. 5. Kennzahlenzusammenhänge werden nicht transparent dargestellt:
Foto: Digitalpress/Fotolia.comCIOs können die Gesamtsituation nicht richtig bewerten, weil einzelne Leistungs- und Qualitätswerte isoliert betrachtet werden statt in Wechselwirkung mit anderen KPIs. Dadurch ist die Aussagekraft im Hinblick auf eine effiziente ITSM-Leistungssteuerung begrenzt.6. KPI-Abweichungen werden nicht nachverfolgt:
Foto: P. Lecko – Fotolia.comIT-Abteilungen gehen Inkonsistenzen oder Widersprüchen bei Leistungsdaten zu IT-Prozessen, die aufgrund unzureichender Definitionen entstehen können, oft nur halbherzig nach. Oder sie ignorieren diese gleich ganz.. Das birgt erhebliche Risiken, insbesondere wenn es sich um KPIs zu geschäftskritischen Prozessen handelt.7. Bei KPI-Analysen fehlen praktische Maßnahmenkataloge:
Foto: olly – shutterstock.comMeist werden Mitarbeiter mit den KPI-Analysen zum ITSM allein gelassen. Es fehlen weiterführende Handlungsempfehlungen, die die Auswertungen ergänzen, und Verbesserungsmaßnahmen aufzeigen.

Return on Investment: Wann ist ein Projekt erfolgreich?​ Weiterlesen »

Gartners veralteter Magic Quadrant​

Allgemein

Verliert Gartner seinen Schneid?IB Photography | shutterstock.com Seit Jahrzehnten gilt Gartners Magic Quadrant (MQ) als Goldstandard für IT-Entscheidungshilfen für Unternehmen. Als Branchenanalyst beschäftige ich mich gerne auch kritisch mit den Einschätzungen von Gartner. Der aktuelle Magic Quadrant für LAN-Infrastruktur nimmt diesbezüglich eine Sonderstellung ein. Denn ehrlich gesagt, sollte dieser MQ direkt in den Papierkorb wandern – und nicht auf den Schreibtisch von IT-Experten. Denn dieser ist aus meiner Sicht nicht korrekt und basiert auf veralteten Daten.  Und letztgenanntes ist auch das größte Problem: Die nicht aktuellen Daten spiegeln sich in der Positionierung der Anbieter wider – und zeichnen damit ein falsches Bild. Soweit ich weiß, wurden die Anbieterinformationen im Dezember 2024 erhoben und das Dokument Ende Juni 2025 veröffentlicht. Allerdings wurden in diesem Zeitraum zahlreiche wichtige Ankündigungen gemacht und Produktaktualisierungen vorgenommen. Mit anderen Worten: Dieser MQ war bereits im März veraltet und im Juni dann vollkommen überholt. Die Praxis, ein Dokument sechs Monate nach der Datenerhebung zu veröffentlichen, ist rückwärtsgewandt und konterkariert Gartners Einschätzung, dass sich die Netzwerkbranche schneller denn je weiterentwickelt. Vor diesem Hintergrund möchte ich in diesem Artikel meine Perspektive auf die Anbieter im MQ für LAN-Infrastruktur mit Ihnen teilen. Noch eine Anmerkung vorab: Als Branchenanalyst zählen IT-Fachleute und Anbieter zu meinen Kunden. Meine Meinung zu diesem Gartner MQ basiert ausschließlich auf meiner Marktkenntnis und nicht auf meinen Kundenbeziehungen. Keiner der in diesem Artikel genannten Anbieter hat dafür bezahlt oder auf die Darstellung Einfluss genommen. Marktführer (Leaders) Juniper Networks ist genau richtig positioniert. Das Unternehmen hat Mist übernommen (das wohl erste Unternehmen im Bereich KI-Netzwerke) und seitdem seine Campus-Strategie darauf aufgebaut. Seine Akquisition hat Juniper mit dem Release von Marvis Minis, Agentic AI und digitalen Zwillingen hervorragend integriert – und bleibt so weiterhin führend im Bereich KI-Netzwerke. Auch HPE befindet sich grundsätzlich im richtigen Quadranten. Allerdings hätte man den Konzern aufgrund seiner starken Ankündigungen auf der Hausmesse Discover in Bezug auf seine Vision besser platzieren können. In diesem Rahmen kündigte HPE unter anderem AIOps-Optimierungen, Agentic AI Mesh, AI Inferencing am Edge sowie neue Security-Features an. Huawei hingegen sollte als Herausforderer statt als Marktführer eingestuft werden. Angesichts der staatlichen Gelder, die der Konzern erhält, steht außer Frage, dass er über eine hervorragende Umsetzungsfähigkeit verfügt. Allerdings agiert Huawei in der Regel nicht als Marktführer. Stattdessen nutzt das Unternehmen seine enormen Ressourcen, um als schneller Nachahmer aufzutreten und über den Preis zu konkurrieren. Visionäres hat das Unternehmen noch nie präsentiert. Dazu kommt, dass Huawei aktuell in einen Skandal verwickelt ist, bei dem es um Schmiergeldzahlungen und den Vorwurf der Bestechung geht. Das steht im krassen Gegensatz zur Einordnung als Marktführer. Fortinet ist im Leaders-Quadranten gut aufgehoben – auch wenn das einige überraschen mag. Das Unternehmen ist in erster Linie als Security-Anbieter bekannt, hat aber heimlich, still und leise ein breitgefächertes Netzwerkportfolio aufgebaut. Für sicherheitsbewusste Unternehmen stellt Fortinet eine hervorragende Option dar. Herausforderer (Challengers) Cisco ist das einzige Unternehmen, das in Gartners MQ als Herausforderer aufgeführt ist. Dass der Konzern nicht unter den Marktführern auftaucht, unterstreicht, wie weit dieser MQ davon entfernt ist, akkurat zu sein. Kein anderer Anbieter verkauft mehr Netzwerkausrüstung an mehr Standorten als Cisco, und das Unternehmen ist seit Jahrzehnten führend in diesem Bereich. Vor einigen Jahren hätte man argumentieren können, dass die Engineering-Trennung zwischen Meraki und Catalyst das Unternehmen aus der Spitzenposition verdrängen könnte, aber das ist nicht geschehen. Warum also jetzt? Auf seiner Hausmesse Cisco Live stellte das Unternehmen eine ganze Reihe von Innovationen vor. Zudem hat Cisco die Interoperabilität zwischen Meraki und Catalyst kontinuierlich verbessert und mehrere neue Produkte angekündigt. AI Canvas ist ein völlig neuer Ansatz, der von den Kunden auf der Cisco Live sehr gut aufgenommen wurde und das Konzept von AIOps neu erfindet. Da diese Aspekte in Gartners MQ nicht berücksichtigt werden, wird Cisco schlicht falsch dargestellt. Dazu kommt die Aussage von Gartner, dass die Produktstrategie von Cisco nicht gut auf die wichtigsten Unternehmensanforderungen abgestimmt sei – ohne dabei ins Detail zu gehen. In meinen Gesprächen mit Cisco, darunter auch mit Chief Product Officer und President Jeetu Patel, hat das Unternehmen wiederholt betont, dass seine Strategie darin bestehe, Kunden dabei zu unterstützen, sich auf KI vorzubereiten. Und zwar mit Produkten, die einfacher zu implementieren und zu managen sind, stärker automatisiert sind und geringere Betriebskosten verursachen. In meinen Augen scheint das mit den Kundenanforderungen in Einklang zu stehen. Wenn Gartner von Kunden hört, dass sich diese komplexere Netzwerke wünschen, sollte das auch explizit erwähnt werden. Der Eindruck, dass Cisco in diesem Gartner MQ falsch dargestellt wird, wurde mir übrigens auch von Wettbewerbern des Unternehmens bestätigt. Ein Unternehmen mit dem Marktanteil von Cisco nicht als Leader einzustufen, stellt die Glaubwürdigkeit der gesamten Untersuchung in Frage. Man mag das Unternehmen nicht mögen oder mit seinen Praktiken einverstanden sein, aber seine Strategie funktioniert offensichtlich. Visionäre (Visionaries) Arista Networks ist in erster Linie als Anbieter von High-Performance-Equipment für Rechenzentren bekannt. Aber das Unternehmen bietet auch ein komplettes Portfolio an kabelgebundenen und kabellosen LAN-Lösungen an. Da es in diesem Bereich noch relativ neu ist, erscheint auch die Positionierung als Visionär angemessen. Gartner begründet das mit seiner Positionierung im Enterprise-Bereich und seiner weitläufigen Installationsbasis in Nordamerika. Auch das ist aus meiner Sicht vertretbar. Kritisch sehe ich hingegen die Einstufung von Arista im Bereich Umsetzungsfähigkeit. Alleine mit Blick auf den Aktienkurs gibt es wohl keinen Netzwerkhersteller, der besser abliefert als Arista. Allerdings würde eine höhere Platzierung in dieser Skala das Unternehmen zum Marktführer machen. Genau dort sehe ich Arista auch – in der nächsten Ausgabe von Gartners LAN-Infrastruktur-MQ. Extreme Networks wurde vom Marktführer zum Visionär heruntergestuft – und ist ebenfalls ein Opfer des schlechten Timings von Gartner. Schließlich hat das Unternehmen auf seiner Hausmesse Extreme Connect im Mai 2025 ebenfalls Neuheiten präsentiert. Etwa seine Extreme Platform ONE, die eine Vielzahl neuer Funktionen und Verbesserungen umfasst – die nicht mehr in den MQ eingeflossen sind. Und damit nicht genug: Laut Gartner hinkt Extreme Networks angeblich hinterher, wenn es darum geht, kohärente KI-Netzwerkfunktionen wie KI-Assistenten bereitzustellen. Obwohl Extreme Networks schon seit längerem über einen Copiloten verfügt. Aus meinen Gesprächen mit Betreibern von Bildungseinrichtungen, Flughäfen und Stadien sowie mit diversen Organisationen und Unternehmen kann ich berichten, dass kein anderer Anbieter komplexe Netzwerke besser umsetzt als Extreme. Zudem ist das Unternehmen einer der wenigen Anbieter mit einer Layer-2-Fabric mit Shortest Path Bridging (SPB). Kunden, die diese Lösung implementiert haben, sind begeistert von ihrer Einfachheit. Das sollte in Gartners Bericht Erwähnung finden. Meter und Nile geben im MQ ihr Debüt als Visionäre. Beide Anbieter sind relativ neu und versuchen sich mit Network-as-a-Service-Angeboten (NaaS) zu positionieren. Es erscheint angemessen, sie in das Lager der Visionäre einzuordnen. Derzeit ist die Kundennachfrage in Bezug auf NaaS noch überschaubar. Falls sich dieser Trend ausweitet, werden diese beiden Unternehmen zu den ersten Anbietern am Markt gehören – und sehr wahrscheinlich zu attraktiven  Übernahmezielen. Nischenanbieter (Niche Players) Der einzige erwähnenswerte Nischenanbieter ist Alcatel-Lucent Enterprise (ALE), der zusammen mit Extreme eine SPB-basierte Fabric anbietet. Das Unternehmen ist in Nordamerika weniger bekannt, dafür aber in Europa und anderen Teilen der Welt präsent. Besonders erfolgreich ist ALE bei Kunden, die OT und IT zusammengeführt haben. Nischenanbieter ist in diesem Fall die richtige Einordnung. Wenn das Unternehmen in Sachen Umsetzungsfähigkeit noch eine Schippe drauflegt, könnte es in den Bereich der Herausforderer aufrücken. Mein Fazit Als Außenstehender habe ich schon desöfteren festgestellt, dass Gartner eher darauf bedacht ist, provokant als akkurat zu sein. Beim Marktführer zu kaufen, ist oft der einfachste Weg – nicht nur im Netzwerkbereich, sondern in allen Märkten. Stellt sich nur die Frage: Wenn das die richtige Antwort ist, welchen Wert bietet Gartner dann? Die zeitliche Lücke zwischen Datenerhebung und Veröffentlichung von Research-Beiträgen ist ein bekanntes Problem. Mit dem Aufkommen der KI hat sich das Innovationstempo in fast allen Technologiesegmenten beschleunigt. Wenn das für Gartner ein Bottleneck darstellt, muss das Unternehmen dringend eine bessere Methode erarbeiten, um seine Magic Quadrants zu erstellen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Gartners veralteter Magic Quadrant​ Verliert Gartner seinen Schneid?IB Photography | shutterstock.com

Seit Jahrzehnten gilt Gartners Magic Quadrant (MQ) als Goldstandard für IT-Entscheidungshilfen für Unternehmen. Als Branchenanalyst beschäftige ich mich gerne auch kritisch mit den Einschätzungen von Gartner. Der aktuelle Magic Quadrant für LAN-Infrastruktur nimmt diesbezüglich eine Sonderstellung ein. Denn ehrlich gesagt, sollte dieser MQ direkt in den Papierkorb wandern – und nicht auf den Schreibtisch von IT-Experten. Denn dieser ist aus meiner Sicht nicht korrekt und basiert auf veralteten Daten. 

Und letztgenanntes ist auch das größte Problem: Die nicht aktuellen Daten spiegeln sich in der Positionierung der Anbieter wider – und zeichnen damit ein falsches Bild. Soweit ich weiß, wurden die Anbieterinformationen im Dezember 2024 erhoben und das Dokument Ende Juni 2025 veröffentlicht. Allerdings wurden in diesem Zeitraum zahlreiche wichtige Ankündigungen gemacht und Produktaktualisierungen vorgenommen. Mit anderen Worten: Dieser MQ war bereits im März veraltet und im Juni dann vollkommen überholt. Die Praxis, ein Dokument sechs Monate nach der Datenerhebung zu veröffentlichen, ist rückwärtsgewandt und konterkariert Gartners Einschätzung, dass sich die Netzwerkbranche schneller denn je weiterentwickelt.

Vor diesem Hintergrund möchte ich in diesem Artikel meine Perspektive auf die Anbieter im MQ für LAN-Infrastruktur mit Ihnen teilen. Noch eine Anmerkung vorab: Als Branchenanalyst zählen IT-Fachleute und Anbieter zu meinen Kunden. Meine Meinung zu diesem Gartner MQ basiert ausschließlich auf meiner Marktkenntnis und nicht auf meinen Kundenbeziehungen. Keiner der in diesem Artikel genannten Anbieter hat dafür bezahlt oder auf die Darstellung Einfluss genommen.

Marktführer (Leaders)

Juniper Networks ist genau richtig positioniert. Das Unternehmen hat Mist übernommen (das wohl erste Unternehmen im Bereich KI-Netzwerke) und seitdem seine Campus-Strategie darauf aufgebaut. Seine Akquisition hat Juniper mit dem Release von Marvis Minis, Agentic AI und digitalen Zwillingen hervorragend integriert – und bleibt so weiterhin führend im Bereich KI-Netzwerke.

Auch HPE befindet sich grundsätzlich im richtigen Quadranten. Allerdings hätte man den Konzern aufgrund seiner starken Ankündigungen auf der Hausmesse Discover in Bezug auf seine Vision besser platzieren können. In diesem Rahmen kündigte HPE unter anderem AIOps-Optimierungen, Agentic AI Mesh, AI Inferencing am Edge sowie neue Security-Features an.

Huawei hingegen sollte als Herausforderer statt als Marktführer eingestuft werden. Angesichts der staatlichen Gelder, die der Konzern erhält, steht außer Frage, dass er über eine hervorragende Umsetzungsfähigkeit verfügt. Allerdings agiert Huawei in der Regel nicht als Marktführer. Stattdessen nutzt das Unternehmen seine enormen Ressourcen, um als schneller Nachahmer aufzutreten und über den Preis zu konkurrieren. Visionäres hat das Unternehmen noch nie präsentiert. Dazu kommt, dass Huawei aktuell in einen Skandal verwickelt ist, bei dem es um Schmiergeldzahlungen und den Vorwurf der Bestechung geht. Das steht im krassen Gegensatz zur Einordnung als Marktführer.

Fortinet ist im Leaders-Quadranten gut aufgehoben – auch wenn das einige überraschen mag. Das Unternehmen ist in erster Linie als Security-Anbieter bekannt, hat aber heimlich, still und leise ein breitgefächertes Netzwerkportfolio aufgebaut. Für sicherheitsbewusste Unternehmen stellt Fortinet eine hervorragende Option dar.

Herausforderer (Challengers)

Cisco ist das einzige Unternehmen, das in Gartners MQ als Herausforderer aufgeführt ist. Dass der Konzern nicht unter den Marktführern auftaucht, unterstreicht, wie weit dieser MQ davon entfernt ist, akkurat zu sein. Kein anderer Anbieter verkauft mehr Netzwerkausrüstung an mehr Standorten als Cisco, und das Unternehmen ist seit Jahrzehnten führend in diesem Bereich. Vor einigen Jahren hätte man argumentieren können, dass die Engineering-Trennung zwischen Meraki und Catalyst das Unternehmen aus der Spitzenposition verdrängen könnte, aber das ist nicht geschehen. Warum also jetzt?

Auf seiner Hausmesse Cisco Live stellte das Unternehmen eine ganze Reihe von Innovationen vor. Zudem hat Cisco die Interoperabilität zwischen Meraki und Catalyst kontinuierlich verbessert und mehrere neue Produkte angekündigt. AI Canvas ist ein völlig neuer Ansatz, der von den Kunden auf der Cisco Live sehr gut aufgenommen wurde und das Konzept von AIOps neu erfindet. Da diese Aspekte in Gartners MQ nicht berücksichtigt werden, wird Cisco schlicht falsch dargestellt.

Dazu kommt die Aussage von Gartner, dass die Produktstrategie von Cisco nicht gut auf die wichtigsten Unternehmensanforderungen abgestimmt sei – ohne dabei ins Detail zu gehen. In meinen Gesprächen mit Cisco, darunter auch mit Chief Product Officer und President Jeetu Patel, hat das Unternehmen wiederholt betont, dass seine Strategie darin bestehe, Kunden dabei zu unterstützen, sich auf KI vorzubereiten. Und zwar mit Produkten, die einfacher zu implementieren und zu managen sind, stärker automatisiert sind und geringere Betriebskosten verursachen. In meinen Augen scheint das mit den Kundenanforderungen in Einklang zu stehen. Wenn Gartner von Kunden hört, dass sich diese komplexere Netzwerke wünschen, sollte das auch explizit erwähnt werden.

Der Eindruck, dass Cisco in diesem Gartner MQ falsch dargestellt wird, wurde mir übrigens auch von Wettbewerbern des Unternehmens bestätigt. Ein Unternehmen mit dem Marktanteil von Cisco nicht als Leader einzustufen, stellt die Glaubwürdigkeit der gesamten Untersuchung in Frage. Man mag das Unternehmen nicht mögen oder mit seinen Praktiken einverstanden sein, aber seine Strategie funktioniert offensichtlich.

Visionäre (Visionaries)

Arista Networks ist in erster Linie als Anbieter von High-Performance-Equipment für Rechenzentren bekannt. Aber das Unternehmen bietet auch ein komplettes Portfolio an kabelgebundenen und kabellosen LAN-Lösungen an. Da es in diesem Bereich noch relativ neu ist, erscheint auch die Positionierung als Visionär angemessen. Gartner begründet das mit seiner Positionierung im Enterprise-Bereich und seiner weitläufigen Installationsbasis in Nordamerika. Auch das ist aus meiner Sicht vertretbar. Kritisch sehe ich hingegen die Einstufung von Arista im Bereich Umsetzungsfähigkeit. Alleine mit Blick auf den Aktienkurs gibt es wohl keinen Netzwerkhersteller, der besser abliefert als Arista. Allerdings würde eine höhere Platzierung in dieser Skala das Unternehmen zum Marktführer machen. Genau dort sehe ich Arista auch – in der nächsten Ausgabe von Gartners LAN-Infrastruktur-MQ.

Extreme Networks wurde vom Marktführer zum Visionär heruntergestuft – und ist ebenfalls ein Opfer des schlechten Timings von Gartner. Schließlich hat das Unternehmen auf seiner Hausmesse Extreme Connect im Mai 2025 ebenfalls Neuheiten präsentiert. Etwa seine Extreme Platform ONE, die eine Vielzahl neuer Funktionen und Verbesserungen umfasst – die nicht mehr in den MQ eingeflossen sind. Und damit nicht genug: Laut Gartner hinkt Extreme Networks angeblich hinterher, wenn es darum geht, kohärente KI-Netzwerkfunktionen wie KI-Assistenten bereitzustellen. Obwohl Extreme Networks schon seit längerem über einen Copiloten verfügt.

Aus meinen Gesprächen mit Betreibern von Bildungseinrichtungen, Flughäfen und Stadien sowie mit diversen Organisationen und Unternehmen kann ich berichten, dass kein anderer Anbieter komplexe Netzwerke besser umsetzt als Extreme. Zudem ist das Unternehmen einer der wenigen Anbieter mit einer Layer-2-Fabric mit Shortest Path Bridging (SPB). Kunden, die diese Lösung implementiert haben, sind begeistert von ihrer Einfachheit. Das sollte in Gartners Bericht Erwähnung finden.

Meter und Nile geben im MQ ihr Debüt als Visionäre. Beide Anbieter sind relativ neu und versuchen sich mit Network-as-a-Service-Angeboten (NaaS) zu positionieren. Es erscheint angemessen, sie in das Lager der Visionäre einzuordnen. Derzeit ist die Kundennachfrage in Bezug auf NaaS noch überschaubar. Falls sich dieser Trend ausweitet, werden diese beiden Unternehmen zu den ersten Anbietern am Markt gehören – und sehr wahrscheinlich zu attraktiven  Übernahmezielen.

Nischenanbieter (Niche Players)

Der einzige erwähnenswerte Nischenanbieter ist Alcatel-Lucent Enterprise (ALE), der zusammen mit Extreme eine SPB-basierte Fabric anbietet. Das Unternehmen ist in Nordamerika weniger bekannt, dafür aber in Europa und anderen Teilen der Welt präsent. Besonders erfolgreich ist ALE bei Kunden, die OT und IT zusammengeführt haben. Nischenanbieter ist in diesem Fall die richtige Einordnung. Wenn das Unternehmen in Sachen Umsetzungsfähigkeit noch eine Schippe drauflegt, könnte es in den Bereich der Herausforderer aufrücken.

Mein Fazit

Als Außenstehender habe ich schon desöfteren festgestellt, dass Gartner eher darauf bedacht ist, provokant als akkurat zu sein. Beim Marktführer zu kaufen, ist oft der einfachste Weg – nicht nur im Netzwerkbereich, sondern in allen Märkten. Stellt sich nur die Frage: Wenn das die richtige Antwort ist, welchen Wert bietet Gartner dann?

Die zeitliche Lücke zwischen Datenerhebung und Veröffentlichung von Research-Beiträgen ist ein bekanntes Problem. Mit dem Aufkommen der KI hat sich das Innovationstempo in fast allen Technologiesegmenten beschleunigt. Wenn das für Gartner ein Bottleneck darstellt, muss das Unternehmen dringend eine bessere Methode erarbeiten, um seine Magic Quadrants zu erstellen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Gartners veralteter Magic Quadrant​ Weiterlesen »

Digitale Archivierung: Wie Sie GoBD-konform archivieren​

Allgemein

Durch digitale Archive und Dokumentenmanagementsysteme (DMS) lassen sich Ressourcen, Geld und Zeit einsparen sowie Fehler reduzieren. Unternehmen müssen jedoch diverse gesetzliche Vorgaben bei der praktischen Umsetzung beachten. Die Anschaffung eines Scanners und die Ablage auf dem unternehmenseigenen Server-/Speichersystem sind regelmäßig nicht ausreichend. Wir sagen Ihnen was Sie wissen müssen, um Ihr digitales Archiv gesetzeskonform zu gestalten. Foto: rawf8 – shutterstock.com Neben den technischen Herausforderungen, die eine Umstellung auf eine digitale Archivierung mit sich bringt, müssen auch bei Nutzung eines DMS die gesetzlichen Anforderungen erfüllt werden. Diese ergeben sich insbesondere aus den “Grundsätzen zur ordnungsmäßigen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff” (GoBD) sowie aus den Vorschriften der Datenschutzgrundverordnung (DSGVO) und dem Gesetz zum Schutz von Geschäftsgeheimnissen (GeschGehG). GoBD-Grundsätze für die digitale Archivierung Die GoBD stellen diverse allgemeine Grundsätze für alle Unternehmen auf, die in konkrete Maßnahmen umgesetzt werden müssen. Insbesondere mit Blick auf die Pflicht zur Stellung von elektronischen Rechnungen bei Auftragserfüllung gegenüber der öffentlichen Hand (E-Rechnungsverordnung des Bundes sowie E-Rechnungs-Verordnungen der Bundesländer) sollten diese Grundsätze in die internen Prozesse eingebettet werden. Für die Digitalisierung von archivierten Dokumenten sind insbesondere die nachfolgenden Grundsätze zu beachten: Grundsatz der Unveränderbarkeit: Eine Buchung oder eine Aufzeichnung darf nicht in der Art verändert werden, dass der ursprüngliche Inhalt nicht mehr feststellbar ist. Die Unveränderbarkeit der elektronisch gespeicherten Daten und Unterlagen kann sowohl hardwaremäßig und softwaremäßig (zum Beispiel durch technische Maßnahmen, die keine oder nur nachvollziehbare Änderungen zulassen) als auch organisatorisch (zum Beispiel mittels Zugriffsberechtigungskonzepten) gewährleistet werden. Änderungen müssen stets nachvollziehbar und das Original noch vorhanden/einsehbar sein. Grundsatz der Nachvollziehbarkeit und Nachprüfbarkeit: Die einzelnen Geschäftsvorfälle und angewandten Buchführungs- oder Aufzeichnungsverfahren müssen für einen sachverständigen Dritten nachvollziehbar und nachprüfbar sein. Unter Geschäftsvorfällen sind alle rechtlichen und wirtschaftlichen Vorgänge zu verstehen, die innerhalb eines bestimmten Zeitabschnitts den Gewinn beziehungsweise Verlust oder die Vermögenszusammensetzung in einem Unternehmen dokumentieren oder beeinflussen oder verändern (z. B. Rechnungen, Übertragungsurkunden etc.). Grundsätze der Richtigkeit, der Vollständigkeit und der Ordnung: Die Geschäftsvorfälle müssen richtig, vollzählig und lückenlos sowie geordnet aufgezeichnet werden. Das bedeutet unter anderem, dass eine systematische, übersichtliche, eindeutige und nachvollziehbare Buchung (z. B. unterstützt durch bestimmte Ordnungsprinzipien) erfolgen muss. Wird ein elektronisches Aufzeichnungssystem verwendet, muss dieses durch ein Zusammenspiel von technischen und organisatorischen Kontrollen die Einhaltung des Grundsatzes sicherstellen. Eine Ausnahme vom Grundsatz der Vollständigkeit besteht nur dann, wenn nachgewiesen werden kann, dass das Aufzeichnungssystem technisch, betriebswirtschaftlich und praktisch unmöglich ist. Internes Kontrollsystem: Die GoBD fordert die Einrichtung und die Vorhaltung eines internen Kontrollsystems, durch das die Einhaltung der Grundsätze und steuerrechtlicher Pflichten überwacht werden soll. Die konkrete Ausgestaltung ist abhängig von der Komplexität und Diversität der Geschäftstätigkeit und der Organisationsstruktur sowie des eingesetzten Datenverarbeitungssystems. Grundsatz des Datenschutzes: Die Datenverarbeitungssysteme müssen gegen Unauffindbarkeit, Vernichtung, Untergang oder Diebstahl der Daten beziehungsweise des Systems an sich gesichert werden. Ebenso müssen die Systeme gegen unberechtigte Eingaben und Veränderungen durch Zugangs- und Zugriffskontrollen geschützt werden. So archivieren Sie GoBD-konform Für die digitale Archivierung ergeben sich aus den angeführten Grundsätzen unter anderen diese Anforderungen: Alle Unterlagen, die zum Verständnis und zur Überprüfung der für die Besteuerung gesetzlich vorgeschriebenen Aufzeichnungen im Einzelfall von Bedeutung sind, sind in einem Ordnungssystem mit Indexierung aufzubewahren. Eine bloße Ablage in einem Dateisystem genügt nicht. Die elektronische Archivierung muss die Unveränderbarkeit sowie Lesbarkeit und maschinelle Auswertbarkeit der Dokumente sicherstellen. Finden Veränderungen statt, müssen diese protokolliert werden. Durch den Archivierungsvorgang darf nur dann eine Verkleinerung der Datenmengen erfolgen, sofern dadurch keine Daten verloren gehen.Es muss gewährleistet werden, dass Hard- und Software durch Sicherheitsmaßnahmen vor Angriffen geschützt sind. In Datenverarbeitungssystemen erzeugte Dokumente sowie elektronische Handels- und Geschäftsbriefe sind im Ursprungsformat aufzubewahren. Beispielsweise muss eine Rechnung in Form einer PDF-Datei auch als PDF-Datei aufbewahrt werden (hier sind zudem die Anforderungen an eine qualifizierte elektronische Signatur zu beachten). Soweit eine Umwandlung (Konvertierung) aufbewahrungspflichtiger Unterlagen in ein unternehmenseigenes Format erfolgt, sind grundsätzlich beide Versionen aufzubewahren. Ausnahmen können gegebenenfalls bei ausreichender und sicherer Konvertierung, Dokumentation und Verknüpfung mit dem jeweiligen Geschäftsvorfall zulässig sein. Papierdokumente sollten erst dann vernichtet werden, wenn eine ordnungsgemäße elektronische Archivierung sichergestellt ist und keine gesetzlichen Gründe dagegen sprechen. So geht DSGVO-konformes Archivieren Geschäftliche Unterlagen enthalten in aller Regel auch personenbezogene Daten. Diese werden von der DSGVO geschützt, sodass bei der Digitalisierung von archivierten Dokumenten auch datenschutzrechtliche Vorgaben zu beachten sind. Hier sind insbesondere Aufbewahrungs- und Löschfristen zu nennen. So dürfen personenbezogene Daten nur so lange aufbewahrt werden, wie sie für den jeweiligen Zweck (zum Beispiel zur Vertragsdurchführung) benötigt werden. Eine weitergehende Speicherung ist nur erlaubt, sofern sich hierfür Rechtsgründe finden. Unternehmen müssen daher ein Löschkonzept entwickeln und anwenden. Die Aufbewahrungspflichten für Unternehmen ergeben sich aus dem Handels- und Steuerrecht. Diese liegen in der Regel zwischen sechs und zehn Jahren für Geschäftsbriefe, Vertragsunterlagen, oder Ähnliches. Aber auch Verjährungsfristen von Schadensersatzansprüchen (zwischen drei und 30 Jahren) sollten beachtet werden. Die Aufbewahrung ist jedoch stets abhängig von der jeweiligen konkreten Dokumentenart. Sie ist daher in einem Löschkonzept im Einzelfall zu bestimmen und zu dokumentieren. Im Idealfall können die entsprechenden Dokumente im verwendeten Dokumentenmanagementsystem klassifiziert und mit Meldungen/Erinnerungen zur Löschung versehen werden. Nicht zuletzt müssen auch die allgemeinen Datenschutzgrundsätze beachtet werden: Die Richtigkeit, Verfügbarkeit und Integrität (=Unveränderbarkeit) von personenbezogenen Daten sowie die Dokumentation der Datenverarbeitung sind zentrale Prinzipien der DSGVO. Diese sollen unter anderem über so genannte technisch-organisatorische Maßnahmen (“TOM”, zum Beispiel Zugriffsberechtigungen und -kontrollen) gewährleistet werden. Insofern ergeben sich Überschneidungen und damit auch Synergieeffekte mit den GoBD. Viele der im Rahmen der DSGVO bereits umgesetzten Maßnahmen können so auch für die Erfüllung der GoBD-Grundsätze genutzt werden. Geschäftsgeheimnisse als “Archivierungs-Addon” Zuletzt sollten bei der Umsetzung einer digitalen Archivierung auch die Vorgaben aus dem GeschGehG beachtet werden. Diese wirken sich nicht unmittelbar auf die Archivierung aus, eine Implementierung in die Archivierungsprozesse kann aber einen effizienten Schutz von Geschäftsgeheimnissen gewährleisten. So muss insbesondere eine Identifizierung und Klassifizierung von Informationen als Geschäftsgeheimnis im Sinne des § 2 GeschGehG erfolgen, um einen gesetzlichen Schutz in Anspruch nehmen zu können. Dazu bietet sich die Einführung folgender Prozesse an: Abschluss von aktuellen Vertraulichkeitsvereinbarungen mit den Geschäftspartnern, soweit noch Geschäftsbeziehungen bestehen; Informationsklassifizierung nach Vertraulichkeitsgraden; Definition von entsprechenden Berechtigungskonzepten in Abhängigkeit der Informationsklassifizierung; Implementierung von entsprechenden Schutzmaßnahmen, zum Beispiel technischer und organisatorischer Art (dies überschneidet sich mit den datenschutzrechtlichen Anforderungen zu TOM); Umsetzung einer organisatorischen Sensibilisierung, beispielsweise durch die Schulung von Mitarbeitern; Zusammenfassung aller Maßnahmen zum Geheimnisschutz in einem Schutzkonzept. Lesetipp: Die Geheimhaltungspflicht schriftlich fixieren Compliance-Synergie-Effekte bei der Archivierung Die Fülle an zu beachtenden Normen macht deutlich: Die bloße Anschaffung eines Scanners und die Einstellung einer Bürokraft zur Digitalisierung von Akten reicht in der Regel nicht aus. Vielmehr müssen die zu digitalisierenden Dokumente kategorisiert und sodann elektronisch gespeichert, indexiert und archiviert werden. Zudem müssen diverse technische und organisatorische Schutzmaßnahmen implementiert sowie im Rahmen eines Löschkonzeptes Aufbewahrungs- und Löschfristen bestimmt und umgesetzt werden. Viele der Maßnahmen für die Einhaltung von GoBD, DSGVO und GeschGehG überschneiden sich. Sofern bei der Umsetzung einer oder mehrerer dieser Rechtsnormen auch die Anforderungen aus den jeweiligen anderen rechtlichen Bereichen im Blick behalten werden, können erhebliche Synergieeffekte erzielt werden. Dafür bedarf es jedoch einer guten Kenntnis und eines genauen Überblicks der relevanten Regelungen. Gelingt die Umsetzung der gesetzlichen Anforderungen, kann dies erhebliche Vorteile zur Folge haben. Ein digitales Archiv beziehungsweise eine digitale Aktenverwaltung bieten die Möglichkeit, Ressourcen, Zeit und Geld zu sparen. Mitarbeiter können durch automatisierte Archivierungsprozesse ihre Verwaltungsaufgaben effizienter gestalten. (bw) 

Digitale Archivierung: Wie Sie GoBD-konform archivieren​ Durch digitale Archive und Dokumentenmanagementsysteme (DMS) lassen sich Ressourcen, Geld und Zeit einsparen sowie Fehler reduzieren. Unternehmen müssen jedoch diverse gesetzliche Vorgaben bei der praktischen Umsetzung beachten. Die Anschaffung eines Scanners und die Ablage auf dem unternehmenseigenen Server-/Speichersystem sind regelmäßig nicht ausreichend.

Wir sagen Ihnen was Sie wissen müssen, um Ihr digitales Archiv gesetzeskonform zu gestalten.
Foto: rawf8 – shutterstock.com

Neben den technischen Herausforderungen, die eine Umstellung auf eine digitale Archivierung mit sich bringt, müssen auch bei Nutzung eines DMS die gesetzlichen Anforderungen erfüllt werden. Diese ergeben sich insbesondere aus den “Grundsätzen zur ordnungsmäßigen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff” (GoBD) sowie aus den Vorschriften der Datenschutzgrundverordnung (DSGVO) und dem Gesetz zum Schutz von Geschäftsgeheimnissen (GeschGehG).

GoBD-Grundsätze für die digitale Archivierung

Die GoBD stellen diverse allgemeine Grundsätze für alle Unternehmen auf, die in konkrete Maßnahmen umgesetzt werden müssen. Insbesondere mit Blick auf die Pflicht zur Stellung von elektronischen Rechnungen bei Auftragserfüllung gegenüber der öffentlichen Hand (E-Rechnungsverordnung des Bundes sowie E-Rechnungs-Verordnungen der Bundesländer) sollten diese Grundsätze in die internen Prozesse eingebettet werden. Für die Digitalisierung von archivierten Dokumenten sind insbesondere die nachfolgenden Grundsätze zu beachten:

Grundsatz der Unveränderbarkeit: Eine Buchung oder eine Aufzeichnung darf nicht in der Art verändert werden, dass der ursprüngliche Inhalt nicht mehr feststellbar ist. Die Unveränderbarkeit der elektronisch gespeicherten Daten und Unterlagen kann sowohl hardwaremäßig und softwaremäßig (zum Beispiel durch technische Maßnahmen, die keine oder nur nachvollziehbare Änderungen zulassen) als auch organisatorisch (zum Beispiel mittels Zugriffsberechtigungskonzepten) gewährleistet werden. Änderungen müssen stets nachvollziehbar und das Original noch vorhanden/einsehbar sein.

Grundsatz der Nachvollziehbarkeit und Nachprüfbarkeit: Die einzelnen Geschäftsvorfälle und angewandten Buchführungs- oder Aufzeichnungsverfahren müssen für einen sachverständigen Dritten nachvollziehbar und nachprüfbar sein. Unter Geschäftsvorfällen sind alle rechtlichen und wirtschaftlichen Vorgänge zu verstehen, die innerhalb eines bestimmten Zeitabschnitts den Gewinn beziehungsweise Verlust oder die Vermögenszusammensetzung in einem Unternehmen dokumentieren oder beeinflussen oder verändern (z. B. Rechnungen, Übertragungsurkunden etc.).

Grundsätze der Richtigkeit, der Vollständigkeit und der Ordnung: Die Geschäftsvorfälle müssen richtig, vollzählig und lückenlos sowie geordnet aufgezeichnet werden. Das bedeutet unter anderem, dass eine systematische, übersichtliche, eindeutige und nachvollziehbare Buchung (z. B. unterstützt durch bestimmte Ordnungsprinzipien) erfolgen muss. Wird ein elektronisches Aufzeichnungssystem verwendet, muss dieses durch ein Zusammenspiel von technischen und organisatorischen Kontrollen die Einhaltung des Grundsatzes sicherstellen. Eine Ausnahme vom Grundsatz der Vollständigkeit besteht nur dann, wenn nachgewiesen werden kann, dass das Aufzeichnungssystem technisch, betriebswirtschaftlich und praktisch unmöglich ist.

Internes Kontrollsystem: Die GoBD fordert die Einrichtung und die Vorhaltung eines internen Kontrollsystems, durch das die Einhaltung der Grundsätze und steuerrechtlicher Pflichten überwacht werden soll. Die konkrete Ausgestaltung ist abhängig von der Komplexität und Diversität der Geschäftstätigkeit und der Organisationsstruktur sowie des eingesetzten Datenverarbeitungssystems.

Grundsatz des Datenschutzes: Die Datenverarbeitungssysteme müssen gegen Unauffindbarkeit, Vernichtung, Untergang oder Diebstahl der Daten beziehungsweise des Systems an sich gesichert werden. Ebenso müssen die Systeme gegen unberechtigte Eingaben und Veränderungen durch Zugangs- und Zugriffskontrollen geschützt werden.

So archivieren Sie GoBD-konform

Für die digitale Archivierung ergeben sich aus den angeführten Grundsätzen unter anderen diese Anforderungen:

Alle Unterlagen, die zum Verständnis und zur Überprüfung der für die Besteuerung gesetzlich vorgeschriebenen Aufzeichnungen im Einzelfall von Bedeutung sind, sind in einem Ordnungssystem mit Indexierung aufzubewahren. Eine bloße Ablage in einem Dateisystem genügt nicht.

Die elektronische Archivierung muss die Unveränderbarkeit sowie Lesbarkeit und maschinelle Auswertbarkeit der Dokumente sicherstellen. Finden Veränderungen statt, müssen diese protokolliert werden. Durch den Archivierungsvorgang darf nur dann eine Verkleinerung der Datenmengen erfolgen, sofern dadurch keine Daten verloren gehen.Es muss gewährleistet werden, dass Hard- und Software durch Sicherheitsmaßnahmen vor Angriffen geschützt sind.

In Datenverarbeitungssystemen erzeugte Dokumente sowie elektronische Handels- und Geschäftsbriefe sind im Ursprungsformat aufzubewahren. Beispielsweise muss eine Rechnung in Form einer PDF-Datei auch als PDF-Datei aufbewahrt werden (hier sind zudem die Anforderungen an eine qualifizierte elektronische Signatur zu beachten). Soweit eine Umwandlung (Konvertierung) aufbewahrungspflichtiger Unterlagen in ein unternehmenseigenes Format erfolgt, sind grundsätzlich beide Versionen aufzubewahren. Ausnahmen können gegebenenfalls bei ausreichender und sicherer Konvertierung, Dokumentation und Verknüpfung mit dem jeweiligen Geschäftsvorfall zulässig sein.

Papierdokumente sollten erst dann vernichtet werden, wenn eine ordnungsgemäße elektronische Archivierung sichergestellt ist und keine gesetzlichen Gründe dagegen sprechen.

So geht DSGVO-konformes Archivieren

Geschäftliche Unterlagen enthalten in aller Regel auch personenbezogene Daten. Diese werden von der DSGVO geschützt, sodass bei der Digitalisierung von archivierten Dokumenten auch datenschutzrechtliche Vorgaben zu beachten sind.

Hier sind insbesondere Aufbewahrungs- und Löschfristen zu nennen. So dürfen personenbezogene Daten nur so lange aufbewahrt werden, wie sie für den jeweiligen Zweck (zum Beispiel zur Vertragsdurchführung) benötigt werden. Eine weitergehende Speicherung ist nur erlaubt, sofern sich hierfür Rechtsgründe finden. Unternehmen müssen daher ein Löschkonzept entwickeln und anwenden.

Die Aufbewahrungspflichten für Unternehmen ergeben sich aus dem Handels- und Steuerrecht. Diese liegen in der Regel zwischen sechs und zehn Jahren für Geschäftsbriefe, Vertragsunterlagen, oder Ähnliches. Aber auch Verjährungsfristen von Schadensersatzansprüchen (zwischen drei und 30 Jahren) sollten beachtet werden. Die Aufbewahrung ist jedoch stets abhängig von der jeweiligen konkreten Dokumentenart. Sie ist daher in einem Löschkonzept im Einzelfall zu bestimmen und zu dokumentieren. Im Idealfall können die entsprechenden Dokumente im verwendeten Dokumentenmanagementsystem klassifiziert und mit Meldungen/Erinnerungen zur Löschung versehen werden.

Nicht zuletzt müssen auch die allgemeinen Datenschutzgrundsätze beachtet werden: Die Richtigkeit, Verfügbarkeit und Integrität (=Unveränderbarkeit) von personenbezogenen Daten sowie die Dokumentation der Datenverarbeitung sind zentrale Prinzipien der DSGVO. Diese sollen unter anderem über so genannte technisch-organisatorische Maßnahmen (“TOM”, zum Beispiel Zugriffsberechtigungen und -kontrollen) gewährleistet werden. Insofern ergeben sich Überschneidungen und damit auch Synergieeffekte mit den GoBD. Viele der im Rahmen der DSGVO bereits umgesetzten Maßnahmen können so auch für die Erfüllung der GoBD-Grundsätze genutzt werden.

Geschäftsgeheimnisse als “Archivierungs-Addon”

Zuletzt sollten bei der Umsetzung einer digitalen Archivierung auch die Vorgaben aus dem GeschGehG beachtet werden. Diese wirken sich nicht unmittelbar auf die Archivierung aus, eine Implementierung in die Archivierungsprozesse kann aber einen effizienten Schutz von Geschäftsgeheimnissen gewährleisten. So muss insbesondere eine Identifizierung und Klassifizierung von Informationen als Geschäftsgeheimnis im Sinne des § 2 GeschGehG erfolgen, um einen gesetzlichen Schutz in Anspruch nehmen zu können.

Dazu bietet sich die Einführung folgender Prozesse an:

Abschluss von aktuellen Vertraulichkeitsvereinbarungen mit den Geschäftspartnern, soweit noch Geschäftsbeziehungen bestehen;

Informationsklassifizierung nach Vertraulichkeitsgraden;

Definition von entsprechenden Berechtigungskonzepten in Abhängigkeit der Informationsklassifizierung;

Implementierung von entsprechenden Schutzmaßnahmen, zum Beispiel technischer und organisatorischer Art (dies überschneidet sich mit den datenschutzrechtlichen Anforderungen zu TOM);

Umsetzung einer organisatorischen Sensibilisierung, beispielsweise durch die Schulung von Mitarbeitern;

Zusammenfassung aller Maßnahmen zum Geheimnisschutz in einem Schutzkonzept.

Lesetipp: Die Geheimhaltungspflicht schriftlich fixieren

Compliance-Synergie-Effekte bei der Archivierung

Die Fülle an zu beachtenden Normen macht deutlich: Die bloße Anschaffung eines Scanners und die Einstellung einer Bürokraft zur Digitalisierung von Akten reicht in der Regel nicht aus. Vielmehr müssen die zu digitalisierenden Dokumente kategorisiert und sodann elektronisch gespeichert, indexiert und archiviert werden. Zudem müssen diverse technische und organisatorische Schutzmaßnahmen implementiert sowie im Rahmen eines Löschkonzeptes Aufbewahrungs- und Löschfristen bestimmt und umgesetzt werden.

Viele der Maßnahmen für die Einhaltung von GoBD, DSGVO und GeschGehG überschneiden sich. Sofern bei der Umsetzung einer oder mehrerer dieser Rechtsnormen auch die Anforderungen aus den jeweiligen anderen rechtlichen Bereichen im Blick behalten werden, können erhebliche Synergieeffekte erzielt werden.

Dafür bedarf es jedoch einer guten Kenntnis und eines genauen Überblicks der relevanten Regelungen. Gelingt die Umsetzung der gesetzlichen Anforderungen, kann dies erhebliche Vorteile zur Folge haben. Ein digitales Archiv beziehungsweise eine digitale Aktenverwaltung bieten die Möglichkeit, Ressourcen, Zeit und Geld zu sparen. Mitarbeiter können durch automatisierte Archivierungsprozesse ihre Verwaltungsaufgaben effizienter gestalten. (bw)

Digitale Archivierung: Wie Sie GoBD-konform archivieren​ Weiterlesen »

Kai Grunwitz von Kyndryl: IT-Infrastruktur bleibt die Autobahn der Digitalisierung​

Allgemein

loading=”lazy” width=”400px”>Kyndryl Der Umstieg von NTT Data, einem japanischen Unternehmen mit seinen Eigenheiten, zu Kyndryl, sicher auch etwas speziell mit der IBM-Vergangenheit – war das schwierig für Sie? Kai Grunwitz: Ehrlich gesagt gar nicht so sehr. Klar, gibt es kulturelle Unterschiede zwischen einem amerikanischen und einem japanischen Unternehmen. Das muss man berücksichtigen. Allerdings kannte ich das bereits vorher. Dementsprechend war der Kulturschock für mich gar nicht so groß. Für mich ging es mit der Veränderung eher darum, welche Potenziale wir mit Kyndryl hier in Deutschland erschließen können. Also Kyndryl in Deutschland als das positionieren, für das wir wirklich stehen. Kyndryl – Startup mit 80.000 Mitarbeitenden Nämlich? Grunwitz: Als Betreiber kritischer Infrastruktur, aber auch als Modernisierer von Infrastrukturen. Hier sehe ich ein großes Marktpotenzial. Und das war auch mein Grund, warum ich hierher gekommen bin. Unser CEO hat einmal so schön gesagt: Wir agieren wie ein großes Startup – auch wenn weltweit fast 80.000 Menschen bei Kyndryl arbeiten. Wir haben diese Kombination aus Agilität, Geschwindigkeit, flachen Hierarchien und auf der anderen Seite Gestaltungsmöglichkeiten in den Märkten. Wir können hier in Deutschland unser Wachstum gestalten. Das war mein Treiber, hierher zu kommen. In den ersten Monaten haben wir schon mal eine Startbasis dafür gelegt. Ist denn der Abnabelungsprozess von IBM aus ihrer Sicht schon komplett abgeschlossen? Grunwitz: Die Abnabelung als solches ist abgeschlossen. Wir haben eine eigene Identität, eine eigene Kultur, und das merkt man auch im tagtäglichen Arbeiten. Aber klar – die Transformation einer Firmenkultur ist nicht von heute auf morgen abgeschlossen. Es gibt immer noch ein paar Punkte, wo man sagt: OK, da hat man Historie, die man lösen – oder vielleicht auch behalten muss. Man kann seine Geschichte auch nicht einfach ablegen, von einem Tag auf den anderen. Das ist ein Prozess. Die Mitarbeiterinnen und Mitarbeiter, die neu dazu kommen sorgen für mehr Heterogenität in der Kultur, und das hilft uns, unsere eigene Kultur auch stärker in den Vordergrund zu stellen. Für was soll Kyndryl denn stehen in diesem Managed Services Markt? Grunwitz: Das ist schon mal ein wichtiger Punkt – weil wir kein reiner Managed Service Player sind. Workloads in die Cloud zu verlagern, ist keine Modernisierung Sondern? Grunwitz: Wir stehen für Run, Transform und Run. Wir sind Experten für das Betreiben kritischer Infrastrukturen. Das bleibt weiterhin unser Kernbereich. Und wir haben ein Alleinstellungsmerkmal im Managed-Bereich. Wir kombinieren das Mainframe-Segment mit Cloud-Lösungen oder auch klassischen Private Data Center Solutions – und das End-to-end. Mainframe, Cloud, Security, Storage, Netzwerk – das kann nicht jeder Ende zu Ende abdecken. Darüber hinaus nutzen wir auch die Erfahrung aus dem kritischen Infrastrukturbetrieb, um die Kunden bei ihrer IT-Modernisierung zu unterstützen. Modernisieren heißt nicht nur, Workloads vom Mainframe in die Cloud zu verlagern, und dann zu schauen, wie kann ein Application Redesign stattfinden. Wir sind inzwischen auch in der Transformation unserer Kunden angekommen, und wir investieren sehr stark in diesen Bereich. Gerade das ist auch ein Türöffner für viele Neukunden. Wir kommen aus dem Run-Umfeld, wir transformieren und modernisieren Hybride IT-Landschaften und gehen dann auch wieder mit den Kunden in den Betrieb. Das ist ein Zyklus für uns, den wir komplett unterstützen und ich glaube, da differenzieren wir uns sehr. Dann reicht Ihr Fokus über die Infrastruktur hinaus auch auf die Applikationen? Grunwitz: Wir stoßen diese Applikationsmodernisierung auf jeden Fall mit an. Ich behaupte aber nicht, dass wir ein Applikationsentwicklungsunternehmen sind. Das werden wir auch nicht sein, wir bleiben ein Infrastrukturunternehmen. Aber wir unterstützen diese Modernisierung, diese Transformation – das ist für viele Kunden wichtig. Sie können heute nur Workloads migrieren, egal wohin, wenn Sie wissen, dass die Applikationslandschaft das auch mitmacht. IT-Infrastruktur bleibt die Basis jeder Transformation Aber Infrastruktur wird doch im Grunde genommen mehr und mehr zu Commodity. Grunwitz: IT-Infrastruktur ist heute definitiv Commodity. Dennoch bleibt sie die Autobahn der Digitalisierung. Denn selbst das beste Auto nützt wenig, wenn ich auf einer Holperstraße unterwegs bin. Es macht schlicht keinen Spaß – es sei denn, ich fahre einen Jeep. Wir setzen heute verfügbare Infrastrukturen voraus. Es hat auf den ersten Blick vielleicht nicht die Coolness und Awareness, aber wir sehen uns hier als Wegbereiter für die Transformation, die auf den Applikationsebenen stattfindet. Das wird oft ein bisschen stiefmütterlich behandelt, aber es muss gemacht werden. Sie müssen heute einen Betrieb von Mainframe-Umgebungen kombiniert mit Cloud gewährleisten können. Das bringt eine Komplexität mit sich, die man nicht unterschätzen darf, insbesondere wenn man sieht, dass die Skills in einigen Bereichen immer rarer werden. Genauso benötigt auch künstliche Intelligenz eine Plattform, auf der sie läuft. Ein Mittelständler, der sich eine KI-Plattform bauen will, braucht immense Investitionen und Skills, allein um die Infrastruktur auf die Beine zu stellen. Das können sich viele gar nicht leisten. An dieser Stelle sehen wir uns auch als Provider von Plattformen, um den Kunden in solchen Situationen eine Option zu bieten. Lesetipp: AWS x Kyndryl – Kollaboration treibt Mainframe-Modernisierung Aber ist das Geschäft noch lukrativ? Die IT-Budgets stehen massiv unter Druck, die Anwenderunternehmen müssen sparen und schauen in allererster Linie dorthin, wo die Musik spielt – im Applikations-Stack und bei KI. In der Infrastruktur wird doch eher gespart. Grunwitz: Im Endeffekt stehen die Kunden vor einer Herausforderung: Ressourcen und Budgets sind limitiert. Deshalb müssen sie sich überlegen: Wo differenziert sich IT heute eigentlich? Wenn ich in die Automobilindustrie oder die Finanzbranche schaue – dort differenziert sich niemand über den Betrieb von Infrastruktur, sondern über die IT-Leistung, die in den höheren Layern stattfindet. Deshalb fragen uns im Moment viele Kunden: Wie können wir unsere Infrastruktur effizienter betreiben und so modernisieren, dass wir mit einem schlankeren Stack agieren können? Und sie fragen uns, ob wir diesen Stack für sie betreiben können, weil den Kunden die Personaldecke dafür fehlt. Das verfügbare Personal möchten die Unternehmen lieber auf Themen verwenden, die Business Mehrwert und eine direkte Differenzierung schaffen. Hier geht im Moment für uns wieder ein Korridor auf. Managed Service Provider im Bereich der Infrastruktur, die mit Konzepten kommen, die Effizienz, Automatisierung und auch Agilität bieten, sind für viele Unternehmen in Deutschland wieder attraktiv. Deshalb sehe ich genau da die Marktchance im Moment. Weil für viele Unternehmen der Betrieb der Infrastruktur eine Belastung ist und sie es nicht so kosteneffizient tun können wie wir. Mittelstand – erschreckend dünne IT-Personaldecke Wollen Sie dann auch stärker den Mittelstand adressieren? Grunwitz: Wir sind historisch stark auf große Kunden ausgerichtet gewesen. Ich sehe aber durchaus einen wachsenden Bedarf im oberen Mittelstand. Die Großunternehmen haben oftmals noch Teams mit einer gewissen Personalstärke, um bestimmte Services intern zu erbringen. Beim Mittelstand ist es zum Teil erschreckend, wie dünn die Personaldecke ist und wie viele Themen ein einzelner Mitarbeiter in deren IT heute abdecken muss, um überhaupt eine Betriebsfähigkeit aufrechtzuerhalten. Ich sehe den Mittelstand deshalb durchaus als ein interessantes Segment für uns. Und der Mittelstand in Deutschland ist breit gefächert. Wir haben viele mittelständische Unternehmen, die weltweit operieren – trotzdem sind sie von der IT her mittelständisch aufgestellt. Da steckt ein hoher Handlungsbedarf dahinter, zu modernisieren und die Kosten im Betrieb zu senken. Wenn Sie von Transformation sprechen, denken Sie da in erster Linie an die IT-Transformation oder geht das auch stärker in Richtung Business-Transformation? Momentan scheint ein Stück weit Ernüchterung einzukehren, weil viele Unternehmen zu sehr auf die IT und auf die Technik geachtet haben und zu wenig auf die tatsächliche Prozess- und Business- Transformation. Grunwitz: Ich denke, wir haben in Deutschland zum Teil Innovation um der Innovation willen getrieben und Technologie um der Technologie willen. Wir haben nicht immer den Business Case im Fokus gehabt. Da wurden zum Teil analoge Prozesse einfach ans Digitale überführt und prozessual gar nicht verändert. Damit ist aber kein Mehrwert gegeben. Jede Veränderung startet mit den Business-Prozessen Auf was müssen Sie sich als Kyndryl dann einstellen? Grunwitz: Der Veränderungswille startet damit, den Business Prozess zu hinterfragen. Die Technologie sollte nicht der Anfang sein, die Technologie ist ein Enabler. Wir haben viele Technologien, die aber nur erfolgreich sind, wenn sie direkt mit der Business-Strategie der Unternehmen verbunden sind. Hier sehen wir uns als Vermittler. Wir werden jedoch keine Business-Beratung werden, das sind wir nicht. Vielmehr werden wir uns künftig viel stärker nach Industrien ausrichten und aufstellen, auch in Deutschland, um diese Verbindung zum Business zu gewährleisten. Wer Veränderung im Unternehmen anstoßen will, muss bei den Prozessen anfangen und nicht bei der Technologie, sagt Kai Grunwitz, Geschäftsführer von Kyndryl in Deutschland.Kyndryl Also mehr Consulting-Angebote? Grunwitz: Wir transformieren IT, aber die Schnittstelle zum Business kommt bei uns immer flankierend mit dazu. Eine Bank erkennt besser als wir, wie Finanztransaktionen zu optimieren sind. Das ist nicht unsere Kernkompetenz. Wir kommen von der IT, wir kommen von der Infrastruktur, die heute ein weites Feld abdeckt. Für mich ist Infrastruktur nicht nur auf die physikalischen Layer beschränkt. Auch eine KI-Plattform ist eine Infrastruktur. Wie beurteilen Sie denn die Möglichkeiten, die sich mit KI derzeit auftun? Grunwitz: Ich sehe eine gewisse Desillusion in der KI-Welt, weil die Business Cases sich nicht so gerechnet haben, wie es viele Unternehmen erwartet hatten. Gerade wenn wir in Richtung GenAI sehen – Content Creation ist ja schön, aber man muss natürlich weiterdenken. Ich sehe mit Agentic AI die neue Welle kommen. Da gibt es interessante Use Cases mit Kunden, die sich hinterfragen: Wie kann ich die Kundenerlebnisse verändern? Wie kann ich die Kundenzufriedenheit steigern, indem ich den Prozess wirklich neu denke? Da sehe ich Riesenmöglichkeiten, und da sehe ich uns als Unterstützer der Transformation von der technologischen Machbarkeit. Kyndry baut souveräne Cloud für Deutschland Wie wichtig sind denn hier Ihre Partner? Kyndryl hat gerade in der jüngeren Vergangenheit eine Reihe von neuen Kooperationen angekündigt. Grunwitz: Wir schauen uns sehr genau an, mit welchen technologischen Partnern und welchen Hyperscalern wir zusammenarbeiten. Der Markt verändert sich im Moment allerdings massiv, auch durch geopolitische Verschiebungen. Ich habe zum Beispiel noch nie so oft das Wort souveräne Cloud gehört wie in den vergangenen sechs Monaten. Wir bauen derzeit für den deutschen Markt eine spezielle, souveräne Cloudlösung. Dafür nutzen wir unsere eigenen Rechenzentren in Deutschland, um die Bedarfe von Kunden zu erfüllen, die kritische Infrastrukturen betreiben und der Regulatorik unterworfen sind. Wenn die Kunden sagen, ich möchte komplett unabhängig sein und keinen amerikanischen Hersteller mit dabei haben, können wir entsprechend die Hebel umlegen. Dann fahren wir einen Open Source Stack für diese Kunden. Wie sehen Sie dann die Rolle der Hyperscaler? Grunwitz: Ich glaube, die Hyperscaler reagieren im Moment sehr professionell, weil sie sich den Markt natürlich nicht verschließen wollen. Und egal ob AWS, Microsoft oder Google – sie bieten Konzepte an. Das sind durchaus Optionen, die Kunden auch berücksichtigen sollten – zum Beispiel viele Private Cloud Lösungen, die über Hyperscaler angeboten werden. Da sollten natürlich entsprechend die vertraglichen und technischen Bedingungen im Vorfeld geprüft werden, damit sie zur Regulatorik passen. Hyperscaler investieren an dieser Stelle und wir sind mit ihnen dabei. Mit den Kunden entwickeln wir dann deren individuelle Cloud-Strategie. Wir sind Unterstützer und Service Partner, wir bauen die Brücke. Aber auch eigene Lösungen – Stichwort Souveränität? Grunwitz: Für eine souveräne Cloud bauen wir unseren Stack selbst. Das nennen wir KOI – Kyndryl Open Infrastructure. Es braucht diesen Stack, gerade für einige Kunden in hochkritischen Bereichen wie zum Beispiel Energieversorger. Es gibt einige wenige Kunden, die diese Anforderungen haben – sie wollen komplett in einem nicht-amerikanischen, nicht-chinesischen Stack arbeiten. Man muss sich aber auch fragen: Ist man bereit, für diese Mehraufwände zu bezahlen? Wenn man so eine Infrastruktur baut, hat man auch andere Betriebskosten, andere Skaleneffekte. Im Grunde genommen reden wir hier fast schon wieder über individuelle Lösungen. Wir bieten aber trotzdem genau diesen souveränen Stack an, der auf Infrastrukturen beziehungsweise Softwarelösungen aufbaut, die nicht amerikanisch sind. Die Nachfrage ist da. Man sollte aber immer hinterfragen, warum man das in der Form braucht. Denn am Ende landet man irgendwann auch immer wieder in der Kostendiskussion. Brückenbauer zwischen den IT-Welten Sind denn Vendor-Lock-in und Abhängigkeiten in den Diskussionen mit den Kunden ein Thema? Grunwitz: Es gibt heute kaum Kunden, die eine monolithische Hyperscaler-Umgebung betreiben. Die meisten bewegen sich in Multi-Cloud-Umgebungen. Im Grunde stehen hier alle Wege offen. Ich sehe den Vendor Lock-in nicht als großes Problem. Es gibt durchaus Offenheit in den Systemen, wenn man weiß, wie man von A nach B migriert. Wir als Kyndryl betreiben solche Landschaften mit Schnittstellen von den Bestandssystemen zu den Hyperscalern. Gerade diese Brücke zwischen den verschiedenen Plattformen zu bauen, das ist unsere Stärke. Wir arbeiten eng mit den Hyperscalern zusammen, wir arbeiten aber auch eng mit unseren Kunden direkt an den On-premises-Lösungen. Aber wenn es gilt, verschiedenste Plattformen und Infrastrukturen miteinander zu kombinieren, dann macht es das natürlich auch durchaus komplex, selbst wenn gewisse Standards da sind. Grunwitz: Es ist zugegebenermaßen nicht einfach und da hilft uns in der Tat die Erfahrung. Wir haben hier in Europa drei große Servicecenter, in denen wir für deutsche Kunden arbeiten. Wir haben lokale Teams, die für die Kunden arbeiten, und wir haben auch ein Offshore Team. Je nach Kritikalität oder regulatorischen Anforderungen der Applikation und der Daten können wir den Kunden genau das Modell bieten, was sie brauchen. Wir reduzieren die Komplexität, indem wir helfen, Systeme anzupassen und proaktiv auf neue Anforderungen zu reagieren. Das heißt, wir sehen immer die Entwicklung der ganzen Infrastruktur beziehungsweise der Gesamtlösung. Gleichzeitig bieten wir auch immer Guidance für unsere Kunden, bringen Ideen ein. Das ist ein proaktives Arbeiten an Veränderungsprozessen. Eine Transformation heißt ja nicht, dass sie einmal anfängt und abgeschlossen ist. Mit KI-Unterstützung zu besseren Service-Angeboten Das machen Sie dann auch KI-gestützt? Grunwitz: Wir bieten mit Kyndryl Bridge eine KI-Integrationsplattform, die Informationen nutzt, um Prognosen für die Zukunft zu entwickeln. Welche strategischen Initiativen müssen wir mit den Kunden besprechen? Wo sind vielleicht Schwachstellen in der Zukunft? Wo sehen wir Angriffsflächen für Cyberangriffe? All diese Dinge werden kontinuierlich über die Plattform in Echtzeit beobachtet, aber auch unseren Servicemanagern als Entscheidungsvorlagen zur Verfügung gestellt, damit sie mit dem Kunden darüber sprechen können. KI bietet unseren Betriebsteams die notwendige Automatisierung in der Datenverarbeitung, um effizient arbeiten zu können. Aber um es klarzustellen: Wir benutzen keine KI rein zur Beratung. Lernen dann amerikanische Kunden von deutschen Daten? Grunwitz: Die Kundendaten sind natürlich separiert. Da gibt es klare Regeln, wer auf welche Daten zugreifen kann. Sie können nicht einfach Daten teilen, das geht nicht. Man kann natürlich auf einer Aggregationsebene prüfen, welche Rückschlüsse sich ziehen lassen. Ein Beispiel: Sie haben eine Bedrohungssituation, die beim Kunden A auftritt. Da wäre es fahrlässig, nicht drüber zu reden, dass es genau diese Situation beim Kunden B auch geben könnte. Das braucht es auf einem weltweiten Operations-Modell, aber es werden keine Daten zwischen den Kunden getauscht. Kyndryl ist also das Gehirn, das die Daten einsammelt und dann weiterverarbeitet. Grunwitz: Unsere KI ist eine Betriebsintelligenz für uns, das kann man schon so sagen. Ohne die KI wäre der manuelle Aufwand für uns im Betrieb mittlerweile viel zu hoch. Jedes Unternehmen setzt schließlich Observability-Tools und andere Werkzeuge ein. Wir nutzen neben den Standard-Tools noch unsere erweiterte Plattform, um andere Tools zu integrieren. Es ist ja nicht so, dass wir kein Netzmanagement, kein Server-Monitoring oder keine Firewalls mehr brauchen. Aber es werden nun Informationen in intelligenter Art und Weise verdichtet, um die Verarbeitungsgeschwindigkeit, Effizienz und den Automatisierungsgrad zu erhöhen. Und natürlich dazu, die Daten zu nutzen, um kluge Entscheidungen zu treffen. Ihre Kunden geben ihr Einverständnis, deren Daten zu nutzen, um Ihre KI zu trainieren – denn das kommt letzten Endes allen zugute, weil das Tool damit immer besser wird? Grunwitz: Absolut – wir haben mittlerweile 1200 Kunden auf der Plattform. Das ist schon mal eine Basis, auf der man Korrelationen findet und dann auch gut mit arbeiten kann. Es geht letztlich darum, in Echtzeit Optimierung zu steuern. Ich bin froh, dass wir das frühzeitig getan haben, weil im Moment gehen viele genau dieses Thema an. Wir nutzen die Information in den Servicegesprächen mit den Kunden, um über Verbesserungspotenziale zu sprechen, und damit erschließen sich für uns auch neue Geschäftsmöglichkeiten. Kyndryl baut Consulting-Geschäft massiv aus Was sind denn so Ihre Erwartungen für 2025 und darüber hinaus? Grunwitz: Ich sehe einen stärkeren Bedarf in Richtung Managed Service, gerade auch in Deutschland aufgrund der geopolitischen Situation und wegen der Kosten. Auch neue Kunden kommen hier auf uns zu und melden Bedarfe an, wo wir uns bisher eher stärker im Bestandskundensegment bewegt haben. Ich rechne damit, dass wir hier in diesem Jahr im Rahmen des allgemeinen Marktwachstums mitwachsen. Je nachdem, was geopolitisch noch passiert, deshalb bin ich da immer ein bisschen vorsichtig. Auf der anderen Seite haben wir durch den transformativen Aspekt den Consulting Arm bei uns massiv ausgebaut. Wir haben unser Consulting Geschäft in den letzten zwei Jahren verdoppelt und erwarten das in diesem Jahr wieder. Das heißt, wir investieren in Personal, in Tools, in Partnerschaften, die das auch weiterhin unterstützen. Hier sehen wir ein überproportional hohes Wachstum, aber auch einen Bedarf am Markt. Wir investieren zudem in Branchen Know-How – ob das Automotive ist, ob das Financial Services ist, ob das im Manufacturing ist, ob das Insurance ist und so weiter und sofort. Welche Themen treiben die Kunden denn dabei um? Grunwitz: Das ist ganz verschieden. Wir sehen ein großes Wachstumspotenzial weiterhin im Bereich der Mainframes. Sie haben die Regulatorik angesprochen – nirgends können sie eine Verschlüsselung so gut umsetzen wie auf dem Mainframe. In einigen Industrien überlegen die Unternehmen, ob es vielleicht Sinn gibt, einige Dinge doch auf dem Großrechner zu belassen und die Systeme zu nutzen, um zum Beispiel Compliance besser zu gewährleisten. Das heißt, wir sehen auch hier ein Wachstum im Beratungsumfeld rund um die Mainframe-Modernisierung, aber auch innerhalb der Mainframe-Umgebung. Cybersecurity wächst überproportional stark. Das ist keine Überraschung. Wir sehen ja die Bedrohungssituation draußen. Cybersecurity Ende zu Ende ist für uns ein entscheidender Faktor. Hier sehen wir nicht nur im Managed-Bereich einen größeren Bedarf rund um Integration von SOC-Leistungen, sondern auch im Bereich der Beratung. Und alles rund um Transformation oder Migration in die Cloud und in Richtung SAP in der Cloud ist für uns ein Hebel im Wachstum. Grunwitz rechnet mit weiterer Konsolidierung im IT-Services-Markt Wie schätzen Sie denn momentan ihr Marktumfeld ein? Das war in den vergangenen Jahren alles andere als ruhig. Die Gerüchte über eine Übernahme von DXC durch Kyndryl, die Turbulenzen rund um Atos, die vielen Diskussionen rund um T-Systems die vergangenen Jahre, die sich auch immer wieder neu aufgestellt und umstrukturiert haben. Glauben Sie, dass die Konsolidierung weitergeht? Grunwitz: Als mittelständischer Anbieter kann man sich eine Nische suchen, ist dann aber schnell limitiert und gerät unter Druck, weil man die Skaleneffekte nicht erzielen kann, gerade als Managed Service Provider. Dann kann man zwar ein gewisses Kundenklientel bedienen, aber der nächste Wachstumssprung ist sehr schwer. Ich glaube durchaus, dass wir gerade in dem mittelständischen Bereich weiterhin Konsolidierung sehen werden. Lesetipp: Konsolidierung auf dem IT-Servicemarkt – Kyndryl schielt nach DXC Bei den großen Unternehmen hängt es immer auch davon ab, wie sich weltweit das Business für die Unternehmen entwickelt. Da ist Deutschland auch nur ein Markt von vielen und den kann man nicht isoliert betrachten. Ich glaube, dass wie in allen Industrien und wie in allen Bereichen Konsolidierung tagtäglich passieren wird. Angesichts der wirtschaftlichen Entwicklung wird natürlich der Wettbewerbsdruck größer. Dann steigt der Druck auf die Margen und je mehr Druck auf die Margen entsteht, desto höher ist die Bereitschaft, zu konsolidieren, zu fusionieren und andere Dinge zu tun. Deshalb glaube ich durchaus, dass wir im nächsten Jahr noch einiges an Konsolidierung sehen werden. Wir haben viel über KI gesprochen – wann kommt denn die Kai-Grunwitz-KI? Grunwitz: Meine Frau hätte da bestimmt ein paar Vorschläge (lacht). Aber es gibt in Polen tatsächlich eine Spirituosenfirma, die KI zum CEO gemacht hat. Die Vorteile: Die KI ist nie müde und vollkommen rational. Das war natürlich ein Marketing-Gag, aber ein interessanter. KI wird auch auf Managementebene eine immer wichtigere Rolle spielen. Die ganzen Themen, die früher intensiv vorbereitet werden mussten, gehen heute viel schneller und effizienter. Da ändern sich ganze Berufsprofile durch die künstliche Intelligenz. Anwälte, die vorher Fallstudien durchforsten mussten, um sich auf dem auf dem Termin vorzubereiten – das geht mit KI viel schneller. KI muss transparent und nachvollziehbar sein Das klingt sehr positiv und optimistisch. Grunwitz: Ja, aber: KI birgt immer auch ein gewisses Risiko für eine Gesellschaft. KI verstehen nur wenige. Die Gefahr, die ich sehe, ist die, dass wir nur noch User sind und die Algorithmen dahinter nicht mehr verstehen. Deshalb finde ich den AI Act auch so wichtig, um die Nachvollziehbarkeit von KI transparent zu halten. Wir wissen, dass weltweit ein Wettrennen um die Vorherrschaft in Sachen KI stattfindet, das ist Staatsziel in China, und auch die USA steuern in diese Richtung. Die Regulatorik, die wir immer schnell kritisieren, hat durchaus das ein oder andere Positive. Es schafft zwar eine Komplexität, aber sie sichert uns auch ab. Es gilt die richtige Balance zwischen Regulatorik und Innovation zu finden. KI ist so disruptiv, dass wir überlegen müssen, wie wir damit umgehen. Die einzige Sorge, die ich aus einer Deutschen beziehungsweise europäischen Perspektive habe: Wenn sich der Rest der Welt nicht dran hält, können wir regulieren, was wir wollen. 

Kai Grunwitz von Kyndryl: IT-Infrastruktur bleibt die Autobahn der Digitalisierung​ loading=”lazy” width=”400px”>Kyndryl

Der Umstieg von NTT Data, einem japanischen Unternehmen mit seinen Eigenheiten, zu Kyndryl, sicher auch etwas speziell mit der IBM-Vergangenheit – war das schwierig für Sie?

Kai Grunwitz: Ehrlich gesagt gar nicht so sehr. Klar, gibt es kulturelle Unterschiede zwischen einem amerikanischen und einem japanischen Unternehmen. Das muss man berücksichtigen. Allerdings kannte ich das bereits vorher. Dementsprechend war der Kulturschock für mich gar nicht so groß.

Für mich ging es mit der Veränderung eher darum, welche Potenziale wir mit Kyndryl hier in Deutschland erschließen können. Also Kyndryl in Deutschland als das positionieren, für das wir wirklich stehen.

Kyndryl – Startup mit 80.000 Mitarbeitenden

Nämlich?

Grunwitz: Als Betreiber kritischer Infrastruktur, aber auch als Modernisierer von Infrastrukturen. Hier sehe ich ein großes Marktpotenzial. Und das war auch mein Grund, warum ich hierher gekommen bin.

Unser CEO hat einmal so schön gesagt: Wir agieren wie ein großes Startup – auch wenn weltweit fast 80.000 Menschen bei Kyndryl arbeiten. Wir haben diese Kombination aus Agilität, Geschwindigkeit, flachen Hierarchien und auf der anderen Seite Gestaltungsmöglichkeiten in den Märkten. Wir können hier in Deutschland unser Wachstum gestalten. Das war mein Treiber, hierher zu kommen. In den ersten Monaten haben wir schon mal eine Startbasis dafür gelegt.

Ist denn der Abnabelungsprozess von IBM aus ihrer Sicht schon komplett abgeschlossen?

Grunwitz: Die Abnabelung als solches ist abgeschlossen. Wir haben eine eigene Identität, eine eigene Kultur, und das merkt man auch im tagtäglichen Arbeiten. Aber klar – die Transformation einer Firmenkultur ist nicht von heute auf morgen abgeschlossen. Es gibt immer noch ein paar Punkte, wo man sagt: OK, da hat man Historie, die man lösen – oder vielleicht auch behalten muss.

Man kann seine Geschichte auch nicht einfach ablegen, von einem Tag auf den anderen. Das ist ein Prozess. Die Mitarbeiterinnen und Mitarbeiter, die neu dazu kommen sorgen für mehr Heterogenität in der Kultur, und das hilft uns, unsere eigene Kultur auch stärker in den Vordergrund zu stellen.

Für was soll Kyndryl denn stehen in diesem Managed Services Markt?

Grunwitz: Das ist schon mal ein wichtiger Punkt – weil wir kein reiner Managed Service Player sind.

Workloads in die Cloud zu verlagern, ist keine Modernisierung

Sondern?

Grunwitz: Wir stehen für Run, Transform und Run. Wir sind Experten für das Betreiben kritischer Infrastrukturen. Das bleibt weiterhin unser Kernbereich. Und wir haben ein Alleinstellungsmerkmal im Managed-Bereich. Wir kombinieren das Mainframe-Segment mit Cloud-Lösungen oder auch klassischen Private Data Center Solutions – und das End-to-end. Mainframe, Cloud, Security, Storage, Netzwerk – das kann nicht jeder Ende zu Ende abdecken.

Darüber hinaus nutzen wir auch die Erfahrung aus dem kritischen Infrastrukturbetrieb, um die Kunden bei ihrer IT-Modernisierung zu unterstützen. Modernisieren heißt nicht nur, Workloads vom Mainframe in die Cloud zu verlagern, und dann zu schauen, wie kann ein Application Redesign stattfinden. Wir sind inzwischen auch in der Transformation unserer Kunden angekommen, und wir investieren sehr stark in diesen Bereich.

Gerade das ist auch ein Türöffner für viele Neukunden. Wir kommen aus dem Run-Umfeld, wir transformieren und modernisieren Hybride IT-Landschaften und gehen dann auch wieder mit den Kunden in den Betrieb. Das ist ein Zyklus für uns, den wir komplett unterstützen und ich glaube, da differenzieren wir uns sehr.

Dann reicht Ihr Fokus über die Infrastruktur hinaus auch auf die Applikationen?

Grunwitz: Wir stoßen diese Applikationsmodernisierung auf jeden Fall mit an. Ich behaupte aber nicht, dass wir ein Applikationsentwicklungsunternehmen sind. Das werden wir auch nicht sein, wir bleiben ein Infrastrukturunternehmen. Aber wir unterstützen diese Modernisierung, diese Transformation – das ist für viele Kunden wichtig. Sie können heute nur Workloads migrieren, egal wohin, wenn Sie wissen, dass die Applikationslandschaft das auch mitmacht.

IT-Infrastruktur bleibt die Basis jeder Transformation

Aber Infrastruktur wird doch im Grunde genommen mehr und mehr zu Commodity.

Grunwitz: IT-Infrastruktur ist heute definitiv Commodity. Dennoch bleibt sie die Autobahn der Digitalisierung. Denn selbst das beste Auto nützt wenig, wenn ich auf einer Holperstraße unterwegs bin. Es macht schlicht keinen Spaß – es sei denn, ich fahre einen Jeep.

Wir setzen heute verfügbare Infrastrukturen voraus. Es hat auf den ersten Blick vielleicht nicht die Coolness und Awareness, aber wir sehen uns hier als Wegbereiter für die Transformation, die auf den Applikationsebenen stattfindet. Das wird oft ein bisschen stiefmütterlich behandelt, aber es muss gemacht werden.

Sie müssen heute einen Betrieb von Mainframe-Umgebungen kombiniert mit Cloud gewährleisten können. Das bringt eine Komplexität mit sich, die man nicht unterschätzen darf, insbesondere wenn man sieht, dass die Skills in einigen Bereichen immer rarer werden.

Genauso benötigt auch künstliche Intelligenz eine Plattform, auf der sie läuft. Ein Mittelständler, der sich eine KI-Plattform bauen will, braucht immense Investitionen und Skills, allein um die Infrastruktur auf die Beine zu stellen. Das können sich viele gar nicht leisten. An dieser Stelle sehen wir uns auch als Provider von Plattformen, um den Kunden in solchen Situationen eine Option zu bieten.

Lesetipp: AWS x Kyndryl – Kollaboration treibt Mainframe-Modernisierung

Aber ist das Geschäft noch lukrativ? Die IT-Budgets stehen massiv unter Druck, die Anwenderunternehmen müssen sparen und schauen in allererster Linie dorthin, wo die Musik spielt – im Applikations-Stack und bei KI. In der Infrastruktur wird doch eher gespart.

Grunwitz: Im Endeffekt stehen die Kunden vor einer Herausforderung: Ressourcen und Budgets sind limitiert. Deshalb müssen sie sich überlegen: Wo differenziert sich IT heute eigentlich? Wenn ich in die Automobilindustrie oder die Finanzbranche schaue – dort differenziert sich niemand über den Betrieb von Infrastruktur, sondern über die IT-Leistung, die in den höheren Layern stattfindet.

Deshalb fragen uns im Moment viele Kunden: Wie können wir unsere Infrastruktur effizienter betreiben und so modernisieren, dass wir mit einem schlankeren Stack agieren können? Und sie fragen uns, ob wir diesen Stack für sie betreiben können, weil den Kunden die Personaldecke dafür fehlt. Das verfügbare Personal möchten die Unternehmen lieber auf Themen verwenden, die Business Mehrwert und eine direkte Differenzierung schaffen.

Hier geht im Moment für uns wieder ein Korridor auf. Managed Service Provider im Bereich der Infrastruktur, die mit Konzepten kommen, die Effizienz, Automatisierung und auch Agilität bieten, sind für viele Unternehmen in Deutschland wieder attraktiv. Deshalb sehe ich genau da die Marktchance im Moment. Weil für viele Unternehmen der Betrieb der Infrastruktur eine Belastung ist und sie es nicht so kosteneffizient tun können wie wir.

Mittelstand – erschreckend dünne IT-Personaldecke

Wollen Sie dann auch stärker den Mittelstand adressieren?

Grunwitz: Wir sind historisch stark auf große Kunden ausgerichtet gewesen. Ich sehe aber durchaus einen wachsenden Bedarf im oberen Mittelstand. Die Großunternehmen haben oftmals noch Teams mit einer gewissen Personalstärke, um bestimmte Services intern zu erbringen. Beim Mittelstand ist es zum Teil erschreckend, wie dünn die Personaldecke ist und wie viele Themen ein einzelner Mitarbeiter in deren IT heute abdecken muss, um überhaupt eine Betriebsfähigkeit aufrechtzuerhalten.

Ich sehe den Mittelstand deshalb durchaus als ein interessantes Segment für uns. Und der Mittelstand in Deutschland ist breit gefächert. Wir haben viele mittelständische Unternehmen, die weltweit operieren – trotzdem sind sie von der IT her mittelständisch aufgestellt. Da steckt ein hoher Handlungsbedarf dahinter, zu modernisieren und die Kosten im Betrieb zu senken.

Wenn Sie von Transformation sprechen, denken Sie da in erster Linie an die IT-Transformation oder geht das auch stärker in Richtung Business-Transformation? Momentan scheint ein Stück weit Ernüchterung einzukehren, weil viele Unternehmen zu sehr auf die IT und auf die Technik geachtet haben und zu wenig auf die tatsächliche Prozess- und Business- Transformation.

Grunwitz: Ich denke, wir haben in Deutschland zum Teil Innovation um der Innovation willen getrieben und Technologie um der Technologie willen. Wir haben nicht immer den Business Case im Fokus gehabt. Da wurden zum Teil analoge Prozesse einfach ans Digitale überführt und prozessual gar nicht verändert. Damit ist aber kein Mehrwert gegeben.

Jede Veränderung startet mit den Business-Prozessen

Auf was müssen Sie sich als Kyndryl dann einstellen?

Grunwitz: Der Veränderungswille startet damit, den Business Prozess zu hinterfragen. Die Technologie sollte nicht der Anfang sein, die Technologie ist ein Enabler. Wir haben viele Technologien, die aber nur erfolgreich sind, wenn sie direkt mit der Business-Strategie der Unternehmen verbunden sind. Hier sehen wir uns als Vermittler.

Wir werden jedoch keine Business-Beratung werden, das sind wir nicht. Vielmehr werden wir uns künftig viel stärker nach Industrien ausrichten und aufstellen, auch in Deutschland, um diese Verbindung zum Business zu gewährleisten.

Wer Veränderung im Unternehmen anstoßen will, muss bei den Prozessen anfangen und nicht bei der Technologie, sagt Kai Grunwitz, Geschäftsführer von Kyndryl in Deutschland.Kyndryl

Also mehr Consulting-Angebote?

Grunwitz: Wir transformieren IT, aber die Schnittstelle zum Business kommt bei uns immer flankierend mit dazu. Eine Bank erkennt besser als wir, wie Finanztransaktionen zu optimieren sind. Das ist nicht unsere Kernkompetenz. Wir kommen von der IT, wir kommen von der Infrastruktur, die heute ein weites Feld abdeckt. Für mich ist Infrastruktur nicht nur auf die physikalischen Layer beschränkt. Auch eine KI-Plattform ist eine Infrastruktur.

Wie beurteilen Sie denn die Möglichkeiten, die sich mit KI derzeit auftun?

Grunwitz: Ich sehe eine gewisse Desillusion in der KI-Welt, weil die Business Cases sich nicht so gerechnet haben, wie es viele Unternehmen erwartet hatten. Gerade wenn wir in Richtung GenAI sehen – Content Creation ist ja schön, aber man muss natürlich weiterdenken.

Ich sehe mit Agentic AI die neue Welle kommen. Da gibt es interessante Use Cases mit Kunden, die sich hinterfragen: Wie kann ich die Kundenerlebnisse verändern? Wie kann ich die Kundenzufriedenheit steigern, indem ich den Prozess wirklich neu denke? Da sehe ich Riesenmöglichkeiten, und da sehe ich uns als Unterstützer der Transformation von der technologischen Machbarkeit.

Kyndry baut souveräne Cloud für Deutschland

Wie wichtig sind denn hier Ihre Partner? Kyndryl hat gerade in der jüngeren Vergangenheit eine Reihe von neuen Kooperationen angekündigt.

Grunwitz: Wir schauen uns sehr genau an, mit welchen technologischen Partnern und welchen Hyperscalern wir zusammenarbeiten. Der Markt verändert sich im Moment allerdings massiv, auch durch geopolitische Verschiebungen. Ich habe zum Beispiel noch nie so oft das Wort souveräne Cloud gehört wie in den vergangenen sechs Monaten.

Wir bauen derzeit für den deutschen Markt eine spezielle, souveräne Cloudlösung. Dafür nutzen wir unsere eigenen Rechenzentren in Deutschland, um die Bedarfe von Kunden zu erfüllen, die kritische Infrastrukturen betreiben und der Regulatorik unterworfen sind. Wenn die Kunden sagen, ich möchte komplett unabhängig sein und keinen amerikanischen Hersteller mit dabei haben, können wir entsprechend die Hebel umlegen. Dann fahren wir einen Open Source Stack für diese Kunden.

Wie sehen Sie dann die Rolle der Hyperscaler?

Grunwitz: Ich glaube, die Hyperscaler reagieren im Moment sehr professionell, weil sie sich den Markt natürlich nicht verschließen wollen. Und egal ob AWS, Microsoft oder Google – sie bieten Konzepte an. Das sind durchaus Optionen, die Kunden auch berücksichtigen sollten – zum Beispiel viele Private Cloud Lösungen, die über Hyperscaler angeboten werden. Da sollten natürlich entsprechend die vertraglichen und technischen Bedingungen im Vorfeld geprüft werden, damit sie zur Regulatorik passen.

Hyperscaler investieren an dieser Stelle und wir sind mit ihnen dabei. Mit den Kunden entwickeln wir dann deren individuelle Cloud-Strategie. Wir sind Unterstützer und Service Partner, wir bauen die Brücke.

Aber auch eigene Lösungen – Stichwort Souveränität?

Grunwitz: Für eine souveräne Cloud bauen wir unseren Stack selbst. Das nennen wir KOI – Kyndryl Open Infrastructure. Es braucht diesen Stack, gerade für einige Kunden in hochkritischen Bereichen wie zum Beispiel Energieversorger. Es gibt einige wenige Kunden, die diese Anforderungen haben – sie wollen komplett in einem nicht-amerikanischen, nicht-chinesischen Stack arbeiten.

Man muss sich aber auch fragen: Ist man bereit, für diese Mehraufwände zu bezahlen? Wenn man so eine Infrastruktur baut, hat man auch andere Betriebskosten, andere Skaleneffekte. Im Grunde genommen reden wir hier fast schon wieder über individuelle Lösungen.

Wir bieten aber trotzdem genau diesen souveränen Stack an, der auf Infrastrukturen beziehungsweise Softwarelösungen aufbaut, die nicht amerikanisch sind. Die Nachfrage ist da. Man sollte aber immer hinterfragen, warum man das in der Form braucht. Denn am Ende landet man irgendwann auch immer wieder in der Kostendiskussion.

Brückenbauer zwischen den IT-Welten

Sind denn Vendor-Lock-in und Abhängigkeiten in den Diskussionen mit den Kunden ein Thema?

Grunwitz: Es gibt heute kaum Kunden, die eine monolithische Hyperscaler-Umgebung betreiben. Die meisten bewegen sich in Multi-Cloud-Umgebungen. Im Grunde stehen hier alle Wege offen. Ich sehe den Vendor Lock-in nicht als großes Problem. Es gibt durchaus Offenheit in den Systemen, wenn man weiß, wie man von A nach B migriert.

Wir als Kyndryl betreiben solche Landschaften mit Schnittstellen von den Bestandssystemen zu den Hyperscalern. Gerade diese Brücke zwischen den verschiedenen Plattformen zu bauen, das ist unsere Stärke. Wir arbeiten eng mit den Hyperscalern zusammen, wir arbeiten aber auch eng mit unseren Kunden direkt an den On-premises-Lösungen.

Aber wenn es gilt, verschiedenste Plattformen und Infrastrukturen miteinander zu kombinieren, dann macht es das natürlich auch durchaus komplex, selbst wenn gewisse Standards da sind.

Grunwitz: Es ist zugegebenermaßen nicht einfach und da hilft uns in der Tat die Erfahrung. Wir haben hier in Europa drei große Servicecenter, in denen wir für deutsche Kunden arbeiten. Wir haben lokale Teams, die für die Kunden arbeiten, und wir haben auch ein Offshore Team.

Je nach Kritikalität oder regulatorischen Anforderungen der Applikation und der Daten können wir den Kunden genau das Modell bieten, was sie brauchen. Wir reduzieren die Komplexität, indem wir helfen, Systeme anzupassen und proaktiv auf neue Anforderungen zu reagieren. Das heißt, wir sehen immer die Entwicklung der ganzen Infrastruktur beziehungsweise der Gesamtlösung.

Gleichzeitig bieten wir auch immer Guidance für unsere Kunden, bringen Ideen ein. Das ist ein proaktives Arbeiten an Veränderungsprozessen. Eine Transformation heißt ja nicht, dass sie einmal anfängt und abgeschlossen ist.

Mit KI-Unterstützung zu besseren Service-Angeboten

Das machen Sie dann auch KI-gestützt?

Grunwitz: Wir bieten mit Kyndryl Bridge eine KI-Integrationsplattform, die Informationen nutzt, um Prognosen für die Zukunft zu entwickeln. Welche strategischen Initiativen müssen wir mit den Kunden besprechen? Wo sind vielleicht Schwachstellen in der Zukunft? Wo sehen wir Angriffsflächen für Cyberangriffe?

All diese Dinge werden kontinuierlich über die Plattform in Echtzeit beobachtet, aber auch unseren Servicemanagern als Entscheidungsvorlagen zur Verfügung gestellt, damit sie mit dem Kunden darüber sprechen können.

KI bietet unseren Betriebsteams die notwendige Automatisierung in der Datenverarbeitung, um effizient arbeiten zu können. Aber um es klarzustellen: Wir benutzen keine KI rein zur Beratung.

Lernen dann amerikanische Kunden von deutschen Daten?

Grunwitz: Die Kundendaten sind natürlich separiert. Da gibt es klare Regeln, wer auf welche Daten zugreifen kann. Sie können nicht einfach Daten teilen, das geht nicht. Man kann natürlich auf einer Aggregationsebene prüfen, welche Rückschlüsse sich ziehen lassen. Ein Beispiel: Sie haben eine Bedrohungssituation, die beim Kunden A auftritt. Da wäre es fahrlässig, nicht drüber zu reden, dass es genau diese Situation beim Kunden B auch geben könnte. Das braucht es auf einem weltweiten Operations-Modell, aber es werden keine Daten zwischen den Kunden getauscht.

Kyndryl ist also das Gehirn, das die Daten einsammelt und dann weiterverarbeitet.

Grunwitz: Unsere KI ist eine Betriebsintelligenz für uns, das kann man schon so sagen. Ohne die KI wäre der manuelle Aufwand für uns im Betrieb mittlerweile viel zu hoch. Jedes Unternehmen setzt schließlich Observability-Tools und andere Werkzeuge ein. Wir nutzen neben den Standard-Tools noch unsere erweiterte Plattform, um andere Tools zu integrieren.

Es ist ja nicht so, dass wir kein Netzmanagement, kein Server-Monitoring oder keine Firewalls mehr brauchen. Aber es werden nun Informationen in intelligenter Art und Weise verdichtet, um die Verarbeitungsgeschwindigkeit, Effizienz und den Automatisierungsgrad zu erhöhen. Und natürlich dazu, die Daten zu nutzen, um kluge Entscheidungen zu treffen.

Ihre Kunden geben ihr Einverständnis, deren Daten zu nutzen, um Ihre KI zu trainieren – denn das kommt letzten Endes allen zugute, weil das Tool damit immer besser wird?

Grunwitz: Absolut – wir haben mittlerweile 1200 Kunden auf der Plattform. Das ist schon mal eine Basis, auf der man Korrelationen findet und dann auch gut mit arbeiten kann. Es geht letztlich darum, in Echtzeit Optimierung zu steuern. Ich bin froh, dass wir das frühzeitig getan haben, weil im Moment gehen viele genau dieses Thema an.

Wir nutzen die Information in den Servicegesprächen mit den Kunden, um über Verbesserungspotenziale zu sprechen, und damit erschließen sich für uns auch neue Geschäftsmöglichkeiten.

Kyndryl baut Consulting-Geschäft massiv aus

Was sind denn so Ihre Erwartungen für 2025 und darüber hinaus?

Grunwitz: Ich sehe einen stärkeren Bedarf in Richtung Managed Service, gerade auch in Deutschland aufgrund der geopolitischen Situation und wegen der Kosten. Auch neue Kunden kommen hier auf uns zu und melden Bedarfe an, wo wir uns bisher eher stärker im Bestandskundensegment bewegt haben. Ich rechne damit, dass wir hier in diesem Jahr im Rahmen des allgemeinen Marktwachstums mitwachsen. Je nachdem, was geopolitisch noch passiert, deshalb bin ich da immer ein bisschen vorsichtig.

Auf der anderen Seite haben wir durch den transformativen Aspekt den Consulting Arm bei uns massiv ausgebaut. Wir haben unser Consulting Geschäft in den letzten zwei Jahren verdoppelt und erwarten das in diesem Jahr wieder. Das heißt, wir investieren in Personal, in Tools, in Partnerschaften, die das auch weiterhin unterstützen. Hier sehen wir ein überproportional hohes Wachstum, aber auch einen Bedarf am Markt.

Wir investieren zudem in Branchen Know-How – ob das Automotive ist, ob das Financial Services ist, ob das im Manufacturing ist, ob das Insurance ist und so weiter und sofort.

Welche Themen treiben die Kunden denn dabei um?

Grunwitz: Das ist ganz verschieden. Wir sehen ein großes Wachstumspotenzial weiterhin im Bereich der Mainframes. Sie haben die Regulatorik angesprochen – nirgends können sie eine Verschlüsselung so gut umsetzen wie auf dem Mainframe. In einigen Industrien überlegen die Unternehmen, ob es vielleicht Sinn gibt, einige Dinge doch auf dem Großrechner zu belassen und die Systeme zu nutzen, um zum Beispiel Compliance besser zu gewährleisten. Das heißt, wir sehen auch hier ein Wachstum im Beratungsumfeld rund um die Mainframe-Modernisierung, aber auch innerhalb der Mainframe-Umgebung.

Cybersecurity wächst überproportional stark. Das ist keine Überraschung. Wir sehen ja die Bedrohungssituation draußen. Cybersecurity Ende zu Ende ist für uns ein entscheidender Faktor. Hier sehen wir nicht nur im Managed-Bereich einen größeren Bedarf rund um Integration von SOC-Leistungen, sondern auch im Bereich der Beratung. Und alles rund um Transformation oder Migration in die Cloud und in Richtung SAP in der Cloud ist für uns ein Hebel im Wachstum.

Grunwitz rechnet mit weiterer Konsolidierung im IT-Services-Markt

Wie schätzen Sie denn momentan ihr Marktumfeld ein? Das war in den vergangenen Jahren alles andere als ruhig. Die Gerüchte über eine Übernahme von DXC durch Kyndryl, die Turbulenzen rund um Atos, die vielen Diskussionen rund um T-Systems die vergangenen Jahre, die sich auch immer wieder neu aufgestellt und umstrukturiert haben. Glauben Sie, dass die Konsolidierung weitergeht?

Grunwitz: Als mittelständischer Anbieter kann man sich eine Nische suchen, ist dann aber schnell limitiert und gerät unter Druck, weil man die Skaleneffekte nicht erzielen kann, gerade als Managed Service Provider. Dann kann man zwar ein gewisses Kundenklientel bedienen, aber der nächste Wachstumssprung ist sehr schwer. Ich glaube durchaus, dass wir gerade in dem mittelständischen Bereich weiterhin Konsolidierung sehen werden.

Lesetipp: Konsolidierung auf dem IT-Servicemarkt – Kyndryl schielt nach DXC

Bei den großen Unternehmen hängt es immer auch davon ab, wie sich weltweit das Business für die Unternehmen entwickelt. Da ist Deutschland auch nur ein Markt von vielen und den kann man nicht isoliert betrachten. Ich glaube, dass wie in allen Industrien und wie in allen Bereichen Konsolidierung tagtäglich passieren wird. Angesichts der wirtschaftlichen Entwicklung wird natürlich der Wettbewerbsdruck größer. Dann steigt der Druck auf die Margen und je mehr Druck auf die Margen entsteht, desto höher ist die Bereitschaft, zu konsolidieren, zu fusionieren und andere Dinge zu tun. Deshalb glaube ich durchaus, dass wir im nächsten Jahr noch einiges an Konsolidierung sehen werden.

Wir haben viel über KI gesprochen – wann kommt denn die Kai-Grunwitz-KI?

Grunwitz: Meine Frau hätte da bestimmt ein paar Vorschläge (lacht). Aber es gibt in Polen tatsächlich eine Spirituosenfirma, die KI zum CEO gemacht hat. Die Vorteile: Die KI ist nie müde und vollkommen rational. Das war natürlich ein Marketing-Gag, aber ein interessanter.

KI wird auch auf Managementebene eine immer wichtigere Rolle spielen. Die ganzen Themen, die früher intensiv vorbereitet werden mussten, gehen heute viel schneller und effizienter. Da ändern sich ganze Berufsprofile durch die künstliche Intelligenz. Anwälte, die vorher Fallstudien durchforsten mussten, um sich auf dem auf dem Termin vorzubereiten – das geht mit KI viel schneller.

KI muss transparent und nachvollziehbar sein

Das klingt sehr positiv und optimistisch.

Grunwitz: Ja, aber: KI birgt immer auch ein gewisses Risiko für eine Gesellschaft. KI verstehen nur wenige. Die Gefahr, die ich sehe, ist die, dass wir nur noch User sind und die Algorithmen dahinter nicht mehr verstehen. Deshalb finde ich den AI Act auch so wichtig, um die Nachvollziehbarkeit von KI transparent zu halten.

Wir wissen, dass weltweit ein Wettrennen um die Vorherrschaft in Sachen KI stattfindet, das ist Staatsziel in China, und auch die USA steuern in diese Richtung. Die Regulatorik, die wir immer schnell kritisieren, hat durchaus das ein oder andere Positive. Es schafft zwar eine Komplexität, aber sie sichert uns auch ab. Es gilt die richtige Balance zwischen Regulatorik und Innovation zu finden.

KI ist so disruptiv, dass wir überlegen müssen, wie wir damit umgehen. Die einzige Sorge, die ich aus einer Deutschen beziehungsweise europäischen Perspektive habe: Wenn sich der Rest der Welt nicht dran hält, können wir regulieren, was wir wollen.

Kai Grunwitz von Kyndryl: IT-Infrastruktur bleibt die Autobahn der Digitalisierung​ Weiterlesen »

Accenture setzt auf Agentic AI im IT-Betrieb​

Allgemein

Mit dem Accenture Advanced Technology Agent (AATA) führt das Beratungshause eine agentenbasierte Plattform ein, um die Effizienz der eigenen IT-Operationen zu steigern. ImageFlow – Shutterstock.com In einer Welt, in der sich die IT rasant weiterentwickelt und der Fachkräftemangel allgegenwärtig ist, steht selbst ein großes globales Beratungsunternehmen wie Accenture vor monumentalen Herausforderungen in seinen IT-Operationen. Die Antwort des Unternehmens darauf: Der Accenture Advanced Technology Agent (AATA). Mit Hilfe der KI-gestützten Integrationsplattform will man die Effizienz der eigenen IT-Operationen steigern und die Herausforderungen einer komplexen digitalen Kerninfrastruktur bewältigen. Dabei fungiert die agentenbasierte Plattform als Vermittler zwischen menschlichen Mitarbeitern und Technologieplattformen. Sie soll es IT-Teams sowie Endnutzern ermöglichen, Probleme zu lösen oder Kundenlösungen bereitzustellen, ohne auf traditionelle Support-Kanäle angewiesen zu sein. AATA zeichnet sich laut Accenture durch eine agnostische und offene Architektur aus, die die Integration verschiedener Automatisierungsprozesse und KI-Modelle unterstützt. Gleichzeitig werde die Demokratisierung der Technologie innerhalb des Unternehmens gefördert. Die Idee eines intelligenten Orchestrators „IT-Operationen laufen größtenteils über Automatisierung, sei es RPA, Skripte oder CICD-Pipelines“, erklärt Steven Courtney, MD für Global IT, Technology Vision und Strategy bei Accenture. „Wäre es nicht großartig, wenn wir eine Orchestrierungsebene darüberlegen könnten“, so Courtney weiter, „als Aggregation von KI-Agenten, die wir nach und nach auf alle unsere IT-Operationen anwenden könnten, sobald Agenten verfügbar sind?“. Diese Idee hat Accenture nun mit AATA realisiert. Die Entwicklung von AATA begann 2023 mit einem konzeptionellen Architekturmodell. Dabei legte man Wert darauf, dass die Technologie weitgehend demokratisiert wird. So ist AATA als ein agnostisches, offenes System mit einer agentenbasierten Architektur konzipiert. Offenheit als Fundament Dies ermöglicht es Teams, entweder nativ verfügbare Agenten zu nutzen, bestehende Automatisierungs- oder GenAI-Prozesse einzubinden oder benutzerdefinierte Agenten zu erstellen, je nach Bedarf. Die offene Architektur mit der Flexibilität, Modelle auszutauschen, stelle sicher, dass AATA modellagnostisch bleibt und mit dem Markt Schritt halten kann, insbesondere angesichts unterschiedlicher KI-Reifegrade in Organisationen. Ein weiterer kritischer Aspekt war die Verfügbarkeit und Genauigkeit der Daten. AATA musste nicht nur die internen Inhalte und Repositories von Accenture durchsuchen, sondern auch Aufgaben auf der Grundlage von Informationen in den aktiven Systemen des Unternehmens ausführen. Intuitive Nutzung Dies erforderte einen sicheren Zugriff auf die richtigen Daten. Hier konnte Accenture auf eine bereits vom globalen IT-Team aufgebaute Plattform zurückgreifen, die alle Unternehmensdaten in einer Datenfabrik zusammenführt. Diese konnte AATA nutzen und auf gemeinsame Log-Lakes mit kritischen Daten für operative Entscheidungen zugreifen. Zudem wurde die Interaktion mit AATA intuitiv gestaltet. Die Plattform unterstützt Audio-Prompts und Text-Chats, die in Accentures Kollaborationstools eingebettet sind. Dahinter arbeitet eine Cloud-basierte Workflow-Automatisierungsplattform, die als Orchestrator über verschiedene Technologien und Copilot-Lösungen hinweg agiert. Sie sammelt Daten, erstellt Code, führt Pipelines aus oder offeriert Statusinformationen basierend auf den operativen Bedürfnissen des Benutzers. 

Accenture setzt auf Agentic AI im IT-Betrieb​ Mit dem Accenture Advanced Technology Agent (AATA) führt das Beratungshause eine agentenbasierte Plattform ein, um die Effizienz der eigenen IT-Operationen zu steigern.
ImageFlow – Shutterstock.com

In einer Welt, in der sich die IT rasant weiterentwickelt und der Fachkräftemangel allgegenwärtig ist, steht selbst ein großes globales Beratungsunternehmen wie Accenture vor monumentalen Herausforderungen in seinen IT-Operationen. Die Antwort des Unternehmens darauf: Der Accenture Advanced Technology Agent (AATA). Mit Hilfe der KI-gestützten Integrationsplattform will man die Effizienz der eigenen IT-Operationen steigern und die Herausforderungen einer komplexen digitalen Kerninfrastruktur bewältigen.

Dabei fungiert die agentenbasierte Plattform als Vermittler zwischen menschlichen Mitarbeitern und Technologieplattformen. Sie soll es IT-Teams sowie Endnutzern ermöglichen, Probleme zu lösen oder Kundenlösungen bereitzustellen, ohne auf traditionelle Support-Kanäle angewiesen zu sein. AATA zeichnet sich laut Accenture durch eine agnostische und offene Architektur aus, die die Integration verschiedener Automatisierungsprozesse und KI-Modelle unterstützt. Gleichzeitig werde die Demokratisierung der Technologie innerhalb des Unternehmens gefördert.

Die Idee eines intelligenten Orchestrators

„IT-Operationen laufen größtenteils über Automatisierung, sei es RPA, Skripte oder CICD-Pipelines“, erklärt Steven Courtney, MD für Global IT, Technology Vision und Strategy bei Accenture. „Wäre es nicht großartig, wenn wir eine Orchestrierungsebene darüberlegen könnten“, so Courtney weiter, „als Aggregation von KI-Agenten, die wir nach und nach auf alle unsere IT-Operationen anwenden könnten, sobald Agenten verfügbar sind?“. Diese Idee hat Accenture nun mit AATA realisiert.

Die Entwicklung von AATA begann 2023 mit einem konzeptionellen Architekturmodell. Dabei legte man Wert darauf, dass die Technologie weitgehend demokratisiert wird. So ist AATA als ein agnostisches, offenes System mit einer agentenbasierten Architektur konzipiert.

Offenheit als Fundament

Dies ermöglicht es Teams, entweder nativ verfügbare Agenten zu nutzen, bestehende Automatisierungs- oder GenAI-Prozesse einzubinden oder benutzerdefinierte Agenten zu erstellen, je nach Bedarf. Die offene Architektur mit der Flexibilität, Modelle auszutauschen, stelle sicher, dass AATA modellagnostisch bleibt und mit dem Markt Schritt halten kann, insbesondere angesichts unterschiedlicher KI-Reifegrade in Organisationen.

Ein weiterer kritischer Aspekt war die Verfügbarkeit und Genauigkeit der Daten. AATA musste nicht nur die internen Inhalte und Repositories von Accenture durchsuchen, sondern auch Aufgaben auf der Grundlage von Informationen in den aktiven Systemen des Unternehmens ausführen.

Intuitive Nutzung

Dies erforderte einen sicheren Zugriff auf die richtigen Daten. Hier konnte Accenture auf eine bereits vom globalen IT-Team aufgebaute Plattform zurückgreifen, die alle Unternehmensdaten in einer Datenfabrik zusammenführt. Diese konnte AATA nutzen und auf gemeinsame Log-Lakes mit kritischen Daten für operative Entscheidungen zugreifen.

Zudem wurde die Interaktion mit AATA intuitiv gestaltet. Die Plattform unterstützt Audio-Prompts und Text-Chats, die in Accentures Kollaborationstools eingebettet sind. Dahinter arbeitet eine Cloud-basierte Workflow-Automatisierungsplattform, die als Orchestrator über verschiedene Technologien und Copilot-Lösungen hinweg agiert. Sie sammelt Daten, erstellt Code, führt Pipelines aus oder offeriert Statusinformationen basierend auf den operativen Bedürfnissen des Benutzers.

Accenture setzt auf Agentic AI im IT-Betrieb​ Weiterlesen »

VMware gibt Kundenforderungen nach​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?quality=50&strip=all 2500w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>VMwares Strategie unter Broadcom-Führung Seine Ziele voranbringen, ohne den Großteil der Kunden zu vergraulen.JHVEPhoto – shutterstock.com VMware hat seine Entwicklungsstrategie grundlegend geändert: Statt wie bisher alle zwei Jahre ein Major Release zu veröffentlichen, setzt das Unternehmen künftig auf einen ruhigeren Drei-Jahres-Rhythmus. Gleichzeitig verlängerte die Broadcom-Tochter die Support-Zeiträume. Dieser strategische Rückzug spiegelt den wachsenden Widerstand der Unternehmen gegen erzwungene Upgrades angesichts dramatischer Kostensteigerungen wider. Wie das Unternehmen bekannt gab, wird VMware Cloud Foundation (VCF) 9.0, das jetzt allgemein verfügbar ist, nun sechs Jahre lang unterstützt – statt wie bisher fünf. Kleinere Releases werden nicht mehr alle sechs Monate, sondern im Abstand von neun Monaten erscheinen. „Als Reaktion auf das Kunden-Feedback passen wir ab VCF 9.0 unser Supportmodell und den Veröffentlichungsrhythmus an“, teilte VMware mit. Ziel sei es, „vorhersehbarere Release-Termine zu bieten, längere Supportzeiträume zu ermöglichen und Kunden mehr Flexibilität bei der Planung von Updates zu geben“, fügte der Virtualisierungsspezialist hinzu. Die neue Strategie bedeutet einen grundlegenden Kurswechsel für VMware, das bisher stark auf schnelle Innovationszyklen gesetzt hatte. „CIOs betrachten die kommenden 24 bis 36 Monaten als entscheidend für strategische Plattformentscheidungen“, erklärte Sanchit Vir Gogia, Chefanalyst und CEO bei Greyhound Research. So kämen die verlängerten Zeitpläne zu einer Zeit, in der Unternehmen mit Lizenzkostensteigerungen von bis zu 500 Prozent und einer festen Frist für die Migration vom VCF 8-Support Ende Oktober 2027 konfrontiert seien. Unternehmensmüdigkeit treibt strategischen Wandel voran Die Änderung des Veröffentlichungsrhythmus trägt der von Branchenanalysten als „Upgrade-Müdigkeit“ bezeichneten Entwicklung bei VMware-Kunden Rechnung. So verlangt Broadcom von seinen Kunden ab 2025 die Lizenzierung von mindestens 72 Kernen pro Bestellung, unabhängig vom tatsächlichen Bedarf. Außerdem werden zuvor separate Produkte in umfassenden Abonnementpaketen gebündelt. Diese strategische Neuausrichtung erfolgt in einer Phase, in der Unternehmen unter starkem Druck stehen, schnell grundlegende Entscheidungen zur Plattformstrategie zu treffen. „Die meisten CIOs starten 2025 strukturierte Pilotprojekte, da sie wissen, dass Entscheidungen nach Anfang 2026 zu überhasteten Umstellungen oder erzwungenen Vertragsverlängerungen führen können“, erklärt Analyst Gogia. „Durch starre Vertragslaufzeiten und das Bündeln von Lizenzpaketen durch die Anbieter wird der Verhandlungsspielraum stark eingeschränkt – und zwingt Unternehmen dazu, Replatform-Initiativen eher zu evaluieren als in früheren Modernisierungszyklen.“ Der wachsende Druck hatte sogar rechtliche Konsequenzen: Das niederländische Ministerium für Infrastruktur und Wasserwirtschaft verklagte VMware erfolgreich und zwang das Unternehmen dazu, zwei Jahre lang Migrationsunterstützung zu leisten, nachdem es mit einer Kostensteigerung von 85 Prozent konfrontiert war. Diese Entwicklungen beeinflussen laut Branchenbeobachtern maßgeblich VMwares Strategie bei Produktentwicklung und Support-Zyklen. Verlängerte Zeitpläne bieten strategische Optionen Das neue Release-Modell von VMware umfasst vier Minor-Versionen pro Major-Release (VCF 9.0 bis 9.3), wobei die ersten Releases 27 Monate Support erhalten und die finale Version 45 Monate. Diese Struktur bietet Unternehmen mehrere Upgrade-Pfade, anstatt ihnen einen festen Zeitplan aufzuzwingen. „Große Unternehmen sollten zweieinhalb bis drei Jahre einplanen, um ihre Migrationsstrategie effektiv zu bewerten, zu planen und umzusetzen“, so Tanvi Rai, Senior Analyst bei Everest Group. Sie empfiehlt, Proof-of-Concepts (PoCs) und Vertragsverhandlungen bis spätestens Mitte 2026 abzuschließen, um eine schrittweise Migration bis Mitte 2027 zu ermöglichen. Das längere Support-Fenster ist laut Forrester Research entscheidend, da bis zu 20 Prozent der Unternehmenskunden Alternativen zu VMware prüften – viele von ihnen wegen Unzufriedenheit mit Preiserhöhungen und Lizenzbündelungen. Technische Verbesserungen könnten höhere Kosten ausgleichen Trotz der Lizenzproblematik bringt VCF 9.0 technische Fortschritte, die in bestimmten Szenarien die höheren Kosten rechtfertigen könnten. So verspricht VMware unter anderem eine 40-prozentige Verbesserung der Serverkonsolidierung durch Advanced NVMe Memory Tiering sowie vSAN Global Deduplication für effizientere Speicherverwaltung. „Auch wenn sich die Lizenzkosten pro Kern um 85 bis 500 Prozent erhöht haben, liefern aktuelle Releases messbare Vorteile – etwa 38 Prozent Effizienzgewinn bei der Speichernutzung“, so Gogia. Organisationen müssten nun den Nutzen anhand von drei Kriterien bewerten: Einfachheit der Lizenzierung, Infrastruktureffizienz und Automatisierungspotenzial. Seine Kollegin Rai von der Everest Group merkt an, dass die Gesamtkosten je nach Bereitstellungsart erheblich variierten. „In CPU-limitierten Umgebungen kann sich die Gesamtbetriebskostenrechnung verbessern oder stabil bleiben – dank technischer Fortschritte und Strukturveränderungen.“ Wer seine Hardware aktualisiere und die komplette VCF-Plattform ausschöpfe, könne unter dem Strich sogar von der neuen Strategie profitieren. Allerdings variierten die Auswirkung je nach Branche – vor allem Unternehmen in der Logistik, in Versorgungsunternehmen und im digitalen Handel stünden wegen stark schwankender Workloads vor besonderen Herausforderungen. Marktdiversifizierung als Unternehmensstrategie Die Kombination aus steigendem Kostendruck und verlängerten Support-Zeiträumen führt zu einem neuen Ansatz in der Virtualisierungsstrategie: Anstatt Plattformen vollständig auszutauschen, setzen Unternehmen verstärkt auf eine von Analyst Gogia beschriebene „kontrollierte Dezentralisierung“. Alternative Plattformen wie Nutanix AHV, Azure Stack HCI oder OpenShift Virtualization seien inzwischen ausgereift genug, um gängige Workloads zu übernehmen – inklusive Hochverfügbarkeit, Notfallwiederherstellung und GPU-Virtualisierung. „Wir nähern uns einem funktionalen Wendepunkt, an dem heute etwa 70 bis 80 Prozent der Workloads von VMware migriert werden könnten,“ erklärt Rai. „Aber ein vollständig VMware-freier Betrieb auf Unternehmensebene, insbesondere für geschäftskritische Systeme, wird voraussichtlich erst ab Ende 2026 realistisch.“ Die sich abzeichnende Strategie sieht vor, VMware weiterhin für geschäftskritische Workloads zu nutzen und gleichzeitig Alternativen an Edge-Standorten, in Entwicklungsumgebungen und für neue container-native Anwendungen einzusetzen. „Dies ist kein ideologischer Wandel, sondern eine pragmatische Absicherungsstrategie, die darauf abzielt, Kosten, Optionen und die Ausrichtung der Roadmap zu verwalten“, erklärt Gogia. (mb) 

VMware gibt Kundenforderungen nach​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?quality=50&strip=all 2500w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/09/vmware-schild.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>VMwares Strategie unter Broadcom-Führung Seine Ziele voranbringen, ohne den Großteil der Kunden zu vergraulen.JHVEPhoto – shutterstock.com

VMware hat seine Entwicklungsstrategie grundlegend geändert: Statt wie bisher alle zwei Jahre ein Major Release zu veröffentlichen, setzt das Unternehmen künftig auf einen ruhigeren Drei-Jahres-Rhythmus. Gleichzeitig verlängerte die Broadcom-Tochter die Support-Zeiträume. Dieser strategische Rückzug spiegelt den wachsenden Widerstand der Unternehmen gegen erzwungene Upgrades angesichts dramatischer Kostensteigerungen wider.

Wie das Unternehmen bekannt gab, wird VMware Cloud Foundation (VCF) 9.0, das jetzt allgemein verfügbar ist, nun sechs Jahre lang unterstützt – statt wie bisher fünf. Kleinere Releases werden nicht mehr alle sechs Monate, sondern im Abstand von neun Monaten erscheinen.

„Als Reaktion auf das Kunden-Feedback passen wir ab VCF 9.0 unser Supportmodell und den Veröffentlichungsrhythmus an“, teilte VMware mit. Ziel sei es, „vorhersehbarere Release-Termine zu bieten, längere Supportzeiträume zu ermöglichen und Kunden mehr Flexibilität bei der Planung von Updates zu geben“, fügte der Virtualisierungsspezialist hinzu.

Die neue Strategie bedeutet einen grundlegenden Kurswechsel für VMware, das bisher stark auf schnelle Innovationszyklen gesetzt hatte. „CIOs betrachten die kommenden 24 bis 36 Monaten als entscheidend für strategische Plattformentscheidungen“, erklärte Sanchit Vir Gogia, Chefanalyst und CEO bei Greyhound Research. So kämen die verlängerten Zeitpläne zu einer Zeit, in der Unternehmen mit Lizenzkostensteigerungen von bis zu 500 Prozent und einer festen Frist für die Migration vom VCF 8-Support Ende Oktober 2027 konfrontiert seien.

Unternehmensmüdigkeit treibt strategischen Wandel voran

Die Änderung des Veröffentlichungsrhythmus trägt der von Branchenanalysten als „Upgrade-Müdigkeit“ bezeichneten Entwicklung bei VMware-Kunden Rechnung. So verlangt Broadcom von seinen Kunden ab 2025 die Lizenzierung von mindestens 72 Kernen pro Bestellung, unabhängig vom tatsächlichen Bedarf. Außerdem werden zuvor separate Produkte in umfassenden Abonnementpaketen gebündelt.

Diese strategische Neuausrichtung erfolgt in einer Phase, in der Unternehmen unter starkem Druck stehen, schnell grundlegende Entscheidungen zur Plattformstrategie zu treffen.

„Die meisten CIOs starten 2025 strukturierte Pilotprojekte, da sie wissen, dass Entscheidungen nach Anfang 2026 zu überhasteten Umstellungen oder erzwungenen Vertragsverlängerungen führen können“, erklärt Analyst Gogia. „Durch starre Vertragslaufzeiten und das Bündeln von Lizenzpaketen durch die Anbieter wird der Verhandlungsspielraum stark eingeschränkt – und zwingt Unternehmen dazu, Replatform-Initiativen eher zu evaluieren als in früheren Modernisierungszyklen.“

Der wachsende Druck hatte sogar rechtliche Konsequenzen: Das niederländische Ministerium für Infrastruktur und Wasserwirtschaft verklagte VMware erfolgreich und zwang das Unternehmen dazu, zwei Jahre lang Migrationsunterstützung zu leisten, nachdem es mit einer Kostensteigerung von 85 Prozent konfrontiert war.

Diese Entwicklungen beeinflussen laut Branchenbeobachtern maßgeblich VMwares Strategie bei Produktentwicklung und Support-Zyklen.

Verlängerte Zeitpläne bieten strategische Optionen

Das neue Release-Modell von VMware umfasst vier Minor-Versionen pro Major-Release (VCF 9.0 bis 9.3), wobei die ersten Releases 27 Monate Support erhalten und die finale Version 45 Monate. Diese Struktur bietet Unternehmen mehrere Upgrade-Pfade, anstatt ihnen einen festen Zeitplan aufzuzwingen.

„Große Unternehmen sollten zweieinhalb bis drei Jahre einplanen, um ihre Migrationsstrategie effektiv zu bewerten, zu planen und umzusetzen“, so Tanvi Rai, Senior Analyst bei Everest Group. Sie empfiehlt, Proof-of-Concepts (PoCs) und Vertragsverhandlungen bis spätestens Mitte 2026 abzuschließen, um eine schrittweise Migration bis Mitte 2027 zu ermöglichen.

Das längere Support-Fenster ist laut Forrester Research entscheidend, da bis zu 20 Prozent der Unternehmenskunden Alternativen zu VMware prüften – viele von ihnen wegen Unzufriedenheit mit Preiserhöhungen und Lizenzbündelungen.

Technische Verbesserungen könnten höhere Kosten ausgleichen

Trotz der Lizenzproblematik bringt VCF 9.0 technische Fortschritte, die in bestimmten Szenarien die höheren Kosten rechtfertigen könnten. So verspricht VMware unter anderem eine 40-prozentige Verbesserung der Serverkonsolidierung durch Advanced NVMe Memory Tiering sowie vSAN Global Deduplication für effizientere Speicherverwaltung.

„Auch wenn sich die Lizenzkosten pro Kern um 85 bis 500 Prozent erhöht haben, liefern aktuelle Releases messbare Vorteile – etwa 38 Prozent Effizienzgewinn bei der Speichernutzung“, so Gogia. Organisationen müssten nun den Nutzen anhand von drei Kriterien bewerten: Einfachheit der Lizenzierung, Infrastruktureffizienz und Automatisierungspotenzial.

Seine Kollegin Rai von der Everest Group merkt an, dass die Gesamtkosten je nach Bereitstellungsart erheblich variierten. „In CPU-limitierten Umgebungen kann sich die Gesamtbetriebskostenrechnung verbessern oder stabil bleiben – dank technischer Fortschritte und Strukturveränderungen.“ Wer seine Hardware aktualisiere und die komplette VCF-Plattform ausschöpfe, könne unter dem Strich sogar von der neuen Strategie profitieren.

Allerdings variierten die Auswirkung je nach Branche – vor allem Unternehmen in der Logistik, in Versorgungsunternehmen und im digitalen Handel stünden wegen stark schwankender Workloads vor besonderen Herausforderungen.

Marktdiversifizierung als Unternehmensstrategie

Die Kombination aus steigendem Kostendruck und verlängerten Support-Zeiträumen führt zu einem neuen Ansatz in der Virtualisierungsstrategie: Anstatt Plattformen vollständig auszutauschen, setzen Unternehmen verstärkt auf eine von Analyst Gogia beschriebene „kontrollierte Dezentralisierung“. Alternative Plattformen wie Nutanix AHV, Azure Stack HCI oder OpenShift Virtualization seien inzwischen ausgereift genug, um gängige Workloads zu übernehmen – inklusive Hochverfügbarkeit, Notfallwiederherstellung und GPU-Virtualisierung.

„Wir nähern uns einem funktionalen Wendepunkt, an dem heute etwa 70 bis 80 Prozent der Workloads von VMware migriert werden könnten,“ erklärt Rai. „Aber ein vollständig VMware-freier Betrieb auf Unternehmensebene, insbesondere für geschäftskritische Systeme, wird voraussichtlich erst ab Ende 2026 realistisch.“

Die sich abzeichnende Strategie sieht vor, VMware weiterhin für geschäftskritische Workloads zu nutzen und gleichzeitig Alternativen an Edge-Standorten, in Entwicklungsumgebungen und für neue container-native Anwendungen einzusetzen.

„Dies ist kein ideologischer Wandel, sondern eine pragmatische Absicherungsstrategie, die darauf abzielt, Kosten, Optionen und die Ausrichtung der Roadmap zu verwalten“, erklärt Gogia. (mb)

VMware gibt Kundenforderungen nach​ Weiterlesen »

Wo IT-Entscheider 2026 investieren (sollten)​

Allgemein

Auch wenn es um das IT-Budget 2026 generell nicht schlecht bestellt ist, müssen IT-Entscheider abwägen – aber auch experimentieren.NikOStudio – Shutterstock IT-Entscheider haben es diese Tage nicht leicht. Während ihre Unternehmen noch mit den wirtschaftlichen und geopolitischen Unsicherheiten dieses Jahres kämpfen, müssen sie bereits ihre Budgets für 2026 planen. Allerdings gibt es auch Licht am Ende des Tunnels, wie eine weltweite Umfrage von Forrester unter mehr als 2.600 IT-Entscheidern nahelegt: Trotz der herrschenden Unsicherheit erwarten 86 Prozent der Technologieführer aller Branchen, dass ihre Budgets im Vergleich zum Vorjahr ansteigen. Besonders gut sieht es dabei im Finanzdienstleistungs- und Gesundheitssektor aus, wo die IT-Entscheider mit zweistelligen Budgeterhöhungen rechnen. Treiber sind dabei Investitionen in generative KI (GenAI), Analytics und Threat Intelligence. Was die IT-Budgets treibt Global betrachtet legen die CIOs, CTOs, CISOs und andere Tech-Einkäufer in Europa einen starken Fokus auf Cloud und Security. Datensouveränität und -sicherheit stünden ganz oben auf der Liste der Bereiche, in denen Technologie-Entscheidungsträger Budgeterhöhungen planten, so Forrester. Allerdings wird das Wachstum bei Rechenzentrumsausgaben in Europa etwas geringer eingeschätzt als in Nordamerika oder dem asiatisch-pazifischen Raum (APAC). Der Markt in Europa sei noch nicht so ausgereift, erklären die Analysten – wenngleich europäische Länder daran arbeiteten, eigene Rechenzentrumsinfrastrukturen aufzubauen. In Nordamerika treibt der massive Einsatz von KI die Nachfrage nach Cloud- und Rechenzentrumsressourcen. Gleichzeitig zwingen prominente Sicherheitsvorfälle sowie neue Bedrohungen – etwa durch Post-Quanten-Kryptografie oder „Bring Your Own AI“ (BYOAI) – Unternehmen dazu, bei der Cybersicherheit keine Kompromisse einzugehen. Über 75 Prozent der Technologieentscheider planen entsprechend, ihre Ausgaben in diesen drei Bereichen im Jahr 2026 zu erhöhen. In der APAC-Region erwartet Forrester für 2026 das stärkste Wachstum bei den IT-Ausgaben. Laut Umfrage rechnen 88 Prozent der IT-Entscheider mit steigenden Budgets – verglichen mit 82 Prozent in Nordamerika und Europa. Auch die Schwerpunkte unterscheiden sich leicht: Die Region setze zunehmend globale Trends – etwa bei mehrsprachiger generativer KI und humanoider Robotik, betont Forrester. Gleichzeitig benannten die Befragten nach der Sicherheit (25 Prozent) die mangelnde Abstimmung zwischen IT und Fachbereichen (20 Prozent) als eine der größten Herausforderungen bei der Umsetzung von Softwarestrategien. Diese Abstimmung sei jedoch entscheidend, damit Technologieinvestitionen echten geschäftlichen und kundenrelevanten Mehrwert erzeugten, so die Analysten. Leitfaden für die IT-Budgetplanung 2026 Basierend auf den Ergebnissen der aktuellen Umfrage hat Forrester einen Leitfaden zur Budgetplanung 2026 für Technologieentscheider herausgegeben. In diesem geben die Analysten Empfehlungen, in welche Bereiche 2026 stärker investiert werden sollte und wo der Geldhahn etwas gedrosselt werden könnte. Verstärkt investieren sollten Unternehmen in Programme, um die Datenkompetenz und KI-Readiness von Mitarbeitenden zu fördern. Forrester empfiehlt dabei kontinuierliche, rollenbasierte Schulungen zum verantwortungsvollen Umgang mit KI und zum besseren Verständnis datengetriebener Erkenntnisse. Gleichzeitig rät das Analystenhaus dazu, in ein strukturiertes Kundenverständnis und professionelles Datenmanagement zu investieren – wer seine Kunden in unsicheren Zeiten besser verstehe, könne vorausschauender agieren. Eher zurückfahren sollten IT-Entscheider dagegen etwa Investitionen in Cloud-First-Strategien. Dieser Bereich verliere angesichts neuer Souveränitäts- und Resilienzanforderungen, geopolitischer Spannungen sowie wachsender Kosten durch produktionsreife GenAI-Anwendungen an Bedeutung, so Forrester. Stattdessen rücke das Prinzip „Cloud-when-necessary“ in den Fokus. Außerdem ist es aus Sicht der Analysten Zeit, alte IT-Zöpfe kategorisch abzuschneiden, statt sie weiter zu pflegen. Technische Schulden sollten bewusst abgeschrieben und Legacy-Systeme ausgelagert werden, um Mittel für moderne, KI-basierte Architekturen freizusetzen, so die Empfehlung. Als zukunftsweisende Experimentierfelder nennt Forrester den Einsatz von Agentic AI zur Automatisierung – zunächst innerhalb einzelner Anwendungen, später übergreifend. Dabei sollten die Unternehmen die KI-Agenten jedoch zunächst in lesenden, beziehungsweise analytischen Tools testen, um die Integrität der Daten sicherzustellen. Ein weiterer (KI-)Bereich, indem sich strategische Investitionen lohnten, sei branchenspezifische Edge Intelligence: Unternehmen sollen vermehrt Daten von IoT- und Mobilgeräten nutzen, um kontextrelevante Erkenntnisse in Echtzeit zu liefern, so die Analysten. Sie gehen davon aus, dass technologische Fortschritte bei Chips, 5G und On-Device-ML-Modellen diese Entwicklung in den kommenden Jahren beschleunigen werden. Laut Sharyn Leaver, Chief Research Officer bei Forrester, sei es angesichts anhaltender Unsicherheiten entscheidend, flexibel zu bleiben: „Auch wenn ein konservativer Budgetansatz für 2026 ein sinnvoller Startpunkt ist, sollten sich Unternehmen nicht in Sicherheit wiegen“, warnt die Managerin. „Wer kontinuierlich und kostengünstig experimentiert, kann Chancen schneller nutzen – und der Konkurrenz voraus sein.“ 

Wo IT-Entscheider 2026 investieren (sollten)​ Auch wenn es um das IT-Budget 2026 generell nicht schlecht bestellt ist, müssen IT-Entscheider abwägen – aber auch experimentieren.NikOStudio – Shutterstock

IT-Entscheider haben es diese Tage nicht leicht. Während ihre Unternehmen noch mit den wirtschaftlichen und geopolitischen Unsicherheiten dieses Jahres kämpfen, müssen sie bereits ihre Budgets für 2026 planen.

Allerdings gibt es auch Licht am Ende des Tunnels, wie eine weltweite Umfrage von Forrester unter mehr als 2.600 IT-Entscheidern nahelegt: Trotz der herrschenden Unsicherheit erwarten 86 Prozent der Technologieführer aller Branchen, dass ihre Budgets im Vergleich zum Vorjahr ansteigen. Besonders gut sieht es dabei im Finanzdienstleistungs- und Gesundheitssektor aus, wo die IT-Entscheider mit zweistelligen Budgeterhöhungen rechnen. Treiber sind dabei Investitionen in generative KI (GenAI), Analytics und Threat Intelligence.

Was die IT-Budgets treibt

Global betrachtet legen die CIOs, CTOs, CISOs und andere Tech-Einkäufer in Europa einen starken Fokus auf Cloud und Security. Datensouveränität und -sicherheit stünden ganz oben auf der Liste der Bereiche, in denen Technologie-Entscheidungsträger Budgeterhöhungen planten, so Forrester. Allerdings wird das Wachstum bei Rechenzentrumsausgaben in Europa etwas geringer eingeschätzt als in Nordamerika oder dem asiatisch-pazifischen Raum (APAC). Der Markt in Europa sei noch nicht so ausgereift, erklären die Analysten – wenngleich europäische Länder daran arbeiteten, eigene Rechenzentrumsinfrastrukturen aufzubauen.

In Nordamerika treibt der massive Einsatz von KI die Nachfrage nach Cloud- und Rechenzentrumsressourcen. Gleichzeitig zwingen prominente Sicherheitsvorfälle sowie neue Bedrohungen – etwa durch Post-Quanten-Kryptografie oder „Bring Your Own AI“ (BYOAI) – Unternehmen dazu, bei der Cybersicherheit keine Kompromisse einzugehen. Über 75 Prozent der Technologieentscheider planen entsprechend, ihre Ausgaben in diesen drei Bereichen im Jahr 2026 zu erhöhen.

In der APAC-Region erwartet Forrester für 2026 das stärkste Wachstum bei den IT-Ausgaben. Laut Umfrage rechnen 88 Prozent der IT-Entscheider mit steigenden Budgets – verglichen mit 82 Prozent in Nordamerika und Europa. Auch die Schwerpunkte unterscheiden sich leicht: Die Region setze zunehmend globale Trends – etwa bei mehrsprachiger generativer KI und humanoider Robotik, betont Forrester.

Gleichzeitig benannten die Befragten nach der Sicherheit (25 Prozent) die mangelnde Abstimmung zwischen IT und Fachbereichen (20 Prozent) als eine der größten Herausforderungen bei der Umsetzung von Softwarestrategien. Diese Abstimmung sei jedoch entscheidend, damit Technologieinvestitionen echten geschäftlichen und kundenrelevanten Mehrwert erzeugten, so die Analysten.

Leitfaden für die IT-Budgetplanung 2026

Basierend auf den Ergebnissen der aktuellen Umfrage hat Forrester einen Leitfaden zur Budgetplanung 2026 für Technologieentscheider herausgegeben. In diesem geben die Analysten Empfehlungen, in welche Bereiche 2026 stärker investiert werden sollte und wo der Geldhahn etwas gedrosselt werden könnte.

Verstärkt investieren sollten Unternehmen in Programme, um die Datenkompetenz und KI-Readiness von Mitarbeitenden zu fördern. Forrester empfiehlt dabei kontinuierliche, rollenbasierte Schulungen zum verantwortungsvollen Umgang mit KI und zum besseren Verständnis datengetriebener Erkenntnisse.

Gleichzeitig rät das Analystenhaus dazu, in ein strukturiertes Kundenverständnis und professionelles Datenmanagement zu investieren – wer seine Kunden in unsicheren Zeiten besser verstehe, könne vorausschauender agieren.

Eher zurückfahren sollten IT-Entscheider dagegen etwa Investitionen in Cloud-First-Strategien. Dieser Bereich verliere angesichts neuer Souveränitäts- und Resilienzanforderungen, geopolitischer Spannungen sowie wachsender Kosten durch produktionsreife GenAI-Anwendungen an Bedeutung, so Forrester. Stattdessen rücke das Prinzip „Cloud-when-necessary“ in den Fokus.

Außerdem ist es aus Sicht der Analysten Zeit, alte IT-Zöpfe kategorisch abzuschneiden, statt sie weiter zu pflegen. Technische Schulden sollten bewusst abgeschrieben und Legacy-Systeme ausgelagert werden, um Mittel für moderne, KI-basierte Architekturen freizusetzen, so die Empfehlung.

Als zukunftsweisende Experimentierfelder nennt Forrester den Einsatz von Agentic AI zur Automatisierung – zunächst innerhalb einzelner Anwendungen, später übergreifend. Dabei sollten die Unternehmen die KI-Agenten jedoch zunächst in lesenden, beziehungsweise analytischen Tools testen, um die Integrität der Daten sicherzustellen.

Ein weiterer (KI-)Bereich, indem sich strategische Investitionen lohnten, sei branchenspezifische Edge Intelligence: Unternehmen sollen vermehrt Daten von IoT- und Mobilgeräten nutzen, um kontextrelevante Erkenntnisse in Echtzeit zu liefern, so die Analysten. Sie gehen davon aus, dass technologische Fortschritte bei Chips, 5G und On-Device-ML-Modellen diese Entwicklung in den kommenden Jahren beschleunigen werden.

Laut Sharyn Leaver, Chief Research Officer bei Forrester, sei es angesichts anhaltender Unsicherheiten entscheidend, flexibel zu bleiben: „Auch wenn ein konservativer Budgetansatz für 2026 ein sinnvoller Startpunkt ist, sollten sich Unternehmen nicht in Sicherheit wiegen“, warnt die Managerin. „Wer kontinuierlich und kostengünstig experimentiert, kann Chancen schneller nutzen – und der Konkurrenz voraus sein.“

Wo IT-Entscheider 2026 investieren (sollten)​ Weiterlesen »

Marketing für die eigene Persönlichkeit: Wie man selbst zur Marke wird​

Allgemein

Wer erfolgreich führen will, muss seine Persönlichkeit vermarkten. Eigene Stärken müssen analysiert und hervorgehoben werden. Eine Führungskraft zeichnet sich gegenüber dem Team durch Verlässlichkeit aus. Woran erkennen Sie eine starke Marke? Am unverwechselbaren eigenen Stil. Sie verdankt ihre Stärke vor allem ihrer Authentizität und Glaubwürdigkeit, ihrer Kompetenz und Verlässlichkeit, ihrer Bereitschaft zur Veränderung, ohne den eigenen Stil dabei aufzugeben. Starke Marken sind Leuchttürme im Meer des steten Kommens und Gehens von Produkten. Sie sorgen für Orientierung im Rausch der Reize und stellen einen beständigen Nutzwert dar. Aber was für Produkte gilt, hat mittlerweile auch zunehmend für Menschen Relevanz. Wer andere von sich und seinen Anliegen überzeugen will, wer inspirierend und motivierend auf andere wirken möchte, – kurz, wer nach erfolgreicher Führung strebt, für den gilt: Vermarkte deine Persönlichkeit.Steve Jobs hat es perfekt verstanden. Er war – und ist es eigentlich immer noch – das Gesicht der Marke Apple. Foto: Bloomicon – shutterstock.comStarker Eindruck = starke AufmerksamkeitDer Mensch ist und bleibt ein Wesen, das nach Orientierung strebt und Leitfiguren für sein Handeln sucht. Diese Leitfiguren müssen nicht nur sympathisch und kompetent in ihrem Fachgebiet sein, sondern auch überzeugend, mitreißend, leidenschaftlich und zugewandt, um Aufmerksamkeit und Zuspruch zu ernten. Je stärker der Eindruck ist, den man bei anderen hinterlässt, desto mehr darf man hoffen, dass die eigenen Anliegen zur Kenntnis genommen werden und man Gehör und bestenfalls sogar Gefolgschaft findet. Die eigene Performance kann dabei zielgerichtet gesteuert werden, indem man sich zu einer starken Persönlichkeit aufbaut. Mit anderen Worten: Indem Sie Ihre Person zur Marke werden lassen.Konsequenz und StärkenorientierungStarke Marken knüpfen konsequent an dem an, was mit ihnen bereits gemeinhin verbunden wird. Sie müssen sich nicht neu erfinden, sondern sie entwickeln Vorhandenes weiter und setzen sich damit in einen zeitgemäßen Kontext. Durchaus überraschend, mitunter provokant, aber nie unglaubwürdig oder fern eigener Kompetenzen. Was bedeutet das für jeden persönlich? Stehen Sie zu dem, was Sie sind. Analysieren Sie Ihre Stärken und heben Sie diese hervor, bauen Sie sie aus, bringen Sie sich kontinuierlich in Zusammenhang mit diesen Stärken, wann immer sie im Job gebraucht werden. Entwickeln Sie sich auf diese Weise zum Garant für Ihre herausragenden Fähigkeiten – sei es Ihre Analyse, Ihre Entscheidungsstärke oder Ihre Ruhe. Es gilt, mit dem vorhandenen Bedürfnis Ihren Namen als Lösung zu verknüpfen.Sich selbst treu bleibenEine starke Marke bleibt ihrem unverwechselbaren Stil treu. Nichts sorgt verlässlicher für Verluste an Vertrauen, Loyalität und Überzeugung als unstetes Hin- und Herspringen in Aussagen und Stil. Eine Führungskraft muss seinem Team vor allem eines schenken, damit es sich zu ihr bekennt: Verlässlichkeit. Für starke Persönlichkeitsmarken gilt das Gleiche wie für starke Produktmarken: Wer nichts an den Grundlagen verändert, die sein Dasein ausmachen, beweist ein Wertebewusstsein, dass gerade in Zeiten schnellen Wandels von hoher Bedeutung für eine positive Wahrnehmung ist. Mitarbeiter wollen sehen, dass ihre Chefs die von ihnen propagierten Werte und Philosophien leben und nicht nur predigen. Die persönliche Marke ist nichts anderes als die symbolische Verdichtung der Identität. Die gilt es, nicht zu verraten, sondern zu bewahren.Sind Sie Ihre eigene Marke? Foto: SiemensWerte als Richtschnur des HandelnsWer lebt, was ihm wichtig ist, gewinnt an Glaubwürdigkeit – Tag für Tag. Werte und Überzeugungen sind dabei die Richtschnur, der das Handeln und Verhalten folgen müssen. Das eigene Werteprofil dient als Kompass in der rauen See des steten Wandels. Dabei darf eine Führungskraft durchaus von der gängigen Route abweichen, solange sie dies selbstbewusst, überzeugend und nachvollziehbar tut und vertreten kann. Mancher Wert wie Pünktlichkeit oder Verbindlichkeit mag unpopulär sein, doch wenn er wichtig erscheint, sollte man ihn mit dem eigenen Tun unbedingt würdigen. Das schärft das Markenprofil. Es geht nicht darum, “everybody’s darling”, sondern vor allem “unique” zu sein. Manche Ecke oder Kante sorgt erst dafür, dass man sich wahrnehmbar von anderen abhebt. Diese Unterscheidung gilt es, im positiven Kontext auszubauen.Emotionalisierung als HerzensöffnerStarke Marken treffen ins Herz der Konsumenten. Das Gleiche gilt für Persönlichkeitsmarken und ihre Mitmenschen. Für den Markenerfolg sind Emotionen der wichtigste Zugang zum Empfänger der Markenbotschaft. Man sollte also mit dem eigenen Agieren Werte ansprechen, die auch für andere wichtig sind und Sympathie erzeugen. Das Handeln muss andere emotional berühren. Positive Gefühle wie Freude, Zufriedenheit oder gar Begeisterung zu wecken, ist der direkte Weg zu Motivation, Vertrauen und Loyalität. Mit anderen Worten: Mit Ihren Überzeugungen erzeugen Sie mehr und mehr Markentreue. Eine starke Persönlichkeitsmarke vereint die Gefühlswelt ihrer Mitmenschen ebenso wie deren Erwartungen an Kompetenz und Verlässlichkeit der Marke. Das bedeutet, Sie sind für Ihre Umwelt Identifikations- und Wahrnehmungsanker.Die digitale Seite der PersönlichkeitFür jeden, der zu einer öffentlich wahrgenommenen Persönlichkeitsmarke werden will, geht kein Weg an den sozialen Netzwerken vorbei. Eine Social-Media-Präsenz ist genauso erforderlich wie die gezielte Steuerung der Aktivitäten bei Facebook, X, Instagram & Co. Hier hat man jede Menge Chancen, das eigene Profil durch entsprechende Posts zu schärfen. Das ist gleichzeitig eine große Herausforderung: Es ist nicht immer leicht, Orientierung und Werte aus der meinungsfreudigen digitalen Community herauszufiltern, echte “Likes” von reflexartigen Klicks zu unterscheiden und das Ranking zu seinen Gunsten zu beeinflussen. Aber gerade wenn man auch junge Zielgruppen erschließen will, kommt man um die digitale Unterstützung beim Aufbau der Marke nicht herum. 

Marketing für die eigene Persönlichkeit: Wie man selbst zur Marke wird​ Wer erfolgreich führen will, muss seine Persönlichkeit vermarkten.

Eigene Stärken müssen analysiert und hervorgehoben werden.

Eine Führungskraft zeichnet sich gegenüber dem Team durch Verlässlichkeit aus.

Woran erkennen Sie eine starke Marke? Am unverwechselbaren eigenen Stil. Sie verdankt ihre Stärke vor allem ihrer Authentizität und Glaubwürdigkeit, ihrer Kompetenz und Verlässlichkeit, ihrer Bereitschaft zur Veränderung, ohne den eigenen Stil dabei aufzugeben. Starke Marken sind Leuchttürme im Meer des steten Kommens und Gehens von Produkten. Sie sorgen für Orientierung im Rausch der Reize und stellen einen beständigen Nutzwert dar. Aber was für Produkte gilt, hat mittlerweile auch zunehmend für Menschen Relevanz. Wer andere von sich und seinen Anliegen überzeugen will, wer inspirierend und motivierend auf andere wirken möchte, – kurz, wer nach erfolgreicher Führung strebt, für den gilt: Vermarkte deine Persönlichkeit.Steve Jobs hat es perfekt verstanden. Er war – und ist es eigentlich immer noch – das Gesicht der Marke Apple.
Foto: Bloomicon – shutterstock.comStarker Eindruck = starke AufmerksamkeitDer Mensch ist und bleibt ein Wesen, das nach Orientierung strebt und Leitfiguren für sein Handeln sucht. Diese Leitfiguren müssen nicht nur sympathisch und kompetent in ihrem Fachgebiet sein, sondern auch überzeugend, mitreißend, leidenschaftlich und zugewandt, um Aufmerksamkeit und Zuspruch zu ernten. Je stärker der Eindruck ist, den man bei anderen hinterlässt, desto mehr darf man hoffen, dass die eigenen Anliegen zur Kenntnis genommen werden und man Gehör und bestenfalls sogar Gefolgschaft findet. Die eigene Performance kann dabei zielgerichtet gesteuert werden, indem man sich zu einer starken Persönlichkeit aufbaut. Mit anderen Worten: Indem Sie Ihre Person zur Marke werden lassen.Konsequenz und StärkenorientierungStarke Marken knüpfen konsequent an dem an, was mit ihnen bereits gemeinhin verbunden wird. Sie müssen sich nicht neu erfinden, sondern sie entwickeln Vorhandenes weiter und setzen sich damit in einen zeitgemäßen Kontext. Durchaus überraschend, mitunter provokant, aber nie unglaubwürdig oder fern eigener Kompetenzen. Was bedeutet das für jeden persönlich? Stehen Sie zu dem, was Sie sind. Analysieren Sie Ihre Stärken und heben Sie diese hervor, bauen Sie sie aus, bringen Sie sich kontinuierlich in Zusammenhang mit diesen Stärken, wann immer sie im Job gebraucht werden. Entwickeln Sie sich auf diese Weise zum Garant für Ihre herausragenden Fähigkeiten – sei es Ihre Analyse, Ihre Entscheidungsstärke oder Ihre Ruhe. Es gilt, mit dem vorhandenen Bedürfnis Ihren Namen als Lösung zu verknüpfen.Sich selbst treu bleibenEine starke Marke bleibt ihrem unverwechselbaren Stil treu. Nichts sorgt verlässlicher für Verluste an Vertrauen, Loyalität und Überzeugung als unstetes Hin- und Herspringen in Aussagen und Stil. Eine Führungskraft muss seinem Team vor allem eines schenken, damit es sich zu ihr bekennt: Verlässlichkeit. Für starke Persönlichkeitsmarken gilt das Gleiche wie für starke Produktmarken: Wer nichts an den Grundlagen verändert, die sein Dasein ausmachen, beweist ein Wertebewusstsein, dass gerade in Zeiten schnellen Wandels von hoher Bedeutung für eine positive Wahrnehmung ist. Mitarbeiter wollen sehen, dass ihre Chefs die von ihnen propagierten Werte und Philosophien leben und nicht nur predigen. Die persönliche Marke ist nichts anderes als die symbolische Verdichtung der Identität. Die gilt es, nicht zu verraten, sondern zu bewahren.Sind Sie Ihre eigene Marke?
Foto: SiemensWerte als Richtschnur des HandelnsWer lebt, was ihm wichtig ist, gewinnt an Glaubwürdigkeit – Tag für Tag. Werte und Überzeugungen sind dabei die Richtschnur, der das Handeln und Verhalten folgen müssen. Das eigene Werteprofil dient als Kompass in der rauen See des steten Wandels. Dabei darf eine Führungskraft durchaus von der gängigen Route abweichen, solange sie dies selbstbewusst, überzeugend und nachvollziehbar tut und vertreten kann. Mancher Wert wie Pünktlichkeit oder Verbindlichkeit mag unpopulär sein, doch wenn er wichtig erscheint, sollte man ihn mit dem eigenen Tun unbedingt würdigen. Das schärft das Markenprofil. Es geht nicht darum, “everybody’s darling”, sondern vor allem “unique” zu sein. Manche Ecke oder Kante sorgt erst dafür, dass man sich wahrnehmbar von anderen abhebt. Diese Unterscheidung gilt es, im positiven Kontext auszubauen.Emotionalisierung als HerzensöffnerStarke Marken treffen ins Herz der Konsumenten. Das Gleiche gilt für Persönlichkeitsmarken und ihre Mitmenschen. Für den Markenerfolg sind Emotionen der wichtigste Zugang zum Empfänger der Markenbotschaft. Man sollte also mit dem eigenen Agieren Werte ansprechen, die auch für andere wichtig sind und Sympathie erzeugen. Das Handeln muss andere emotional berühren. Positive Gefühle wie Freude, Zufriedenheit oder gar Begeisterung zu wecken, ist der direkte Weg zu Motivation, Vertrauen und Loyalität. Mit anderen Worten: Mit Ihren Überzeugungen erzeugen Sie mehr und mehr Markentreue. Eine starke Persönlichkeitsmarke vereint die Gefühlswelt ihrer Mitmenschen ebenso wie deren Erwartungen an Kompetenz und Verlässlichkeit der Marke. Das bedeutet, Sie sind für Ihre Umwelt Identifikations- und Wahrnehmungsanker.Die digitale Seite der PersönlichkeitFür jeden, der zu einer öffentlich wahrgenommenen Persönlichkeitsmarke werden will, geht kein Weg an den sozialen Netzwerken vorbei. Eine Social-Media-Präsenz ist genauso erforderlich wie die gezielte Steuerung der Aktivitäten bei Facebook, X, Instagram & Co. Hier hat man jede Menge Chancen, das eigene Profil durch entsprechende Posts zu schärfen. Das ist gleichzeitig eine große Herausforderung: Es ist nicht immer leicht, Orientierung und Werte aus der meinungsfreudigen digitalen Community herauszufiltern, echte “Likes” von reflexartigen Klicks zu unterscheiden und das Ranking zu seinen Gunsten zu beeinflussen. Aber gerade wenn man auch junge Zielgruppen erschließen will, kommt man um die digitale Unterstützung beim Aufbau der Marke nicht herum.

Marketing für die eigene Persönlichkeit: Wie man selbst zur Marke wird​ Weiterlesen »

Wie Agentic AI den Außendienst umkrempelt​

Allgemein

Mobile KI-Agenten machen auch Mitarbeitenden im Außendienst das Leben leichter. Lesen Sie, wie.Zoteva | shutterstock.com Viele mobile Apps der ersten Generation waren direkte Adaptionen ihrer Web-Pendants. Das hieß in erster Linie: unschöne Benutzererfahrungen, mangelhafte Performance und eine entsprechend geringe Akzeptanz. In der Konsequenz waren Unternehmen dazu gezwungen, ihre Geschäftsziele und Implementierungsstrategien zu überdenken. Dank optimierten Entwicklungs-Tools eignete sich die Mehrheit im Anschluss ein Mobile-First-Mindset an und brachte Smartphone- und Tablet-Apps für spezifische Benutzer- und Job-Profile an den Start.   Heute vollzieht sich ein ganz ähnlicher Wandel: Mit der Einführung von Agentic-AI-Funktionen werden bald auch neue mobile KI-Erfahrungen Einzug halten – bevorzugt in Branchen mit Außendienst-Fokus. Diese können von der damit verbundenen, operativen Flexibilität in besonderem Maße profitieren. In diesem Artikel lesen Sie, wie mobile KI-Agenten das Benutzererlebnis revolutionieren können, welche Use Cases für den Außendienst besonders relevant sind, welche Voraussetzungen für mobile KI-Agenten geschaffen werden sollten, und welche Risiken Sie in diesem Zusammenhang im Blick behalten sollten.   Mit KI-Agenten zur UX-Revolution Mobile Apps für den Außendienst bestehen für gewöhnlich aus Formularen, Checklisten, Dashboards und Reportings. Sie können Field-Service-Worker über anstehende Tasks informieren, Fragen zur Umsetzung beantworten und Informationen an die Planungs- und Dispositions-Teams im Office weiterleiten. “Formulare, Schaltflächen und statische Menüs wurden entwickelt, damit sich die Benutzer an Maschinen anpassen. KI-Assistenten kehren das Prinzip um, indem sie sich an ihre Benutzer anpassen”, erklärt Christian Buckner, SVP of Analytics and IoT beim Softwareanbieter Altair. Die mobile Benutzererfahrung trete damit in eine neue Ära ein, in der die Benutzer nicht mehr durch Software navigieren, sondern mit ihr zusammenarbeiten. Anstelle von Menüs und strukturierten Workflows werden mobile KI-Apps künftig Prompt Interfaces und personalisierte Datenvisualisierungen beinhalten. Die KI wird dann anhand der aktuellen Aufgabe des Benutzers antizipieren, welches Knowhow dafür nötig ist, das Interface sowohl die Informationsabfrage als auch die Aktualisierung von Aufgaben vereinfachen. Doch damit nicht genug: “Diese Assistenten werden nicht nur Daten abrufen, sondern fungieren als Denkhilfen. Etwa, indem sie komplexe technische Handbücher zusammenfassen, Ursachen hypothetisch ermitteln, Lösungsschritte vorschlagen oder diese sogar brainstormen. In der Praxis bedeutet das weniger Rückrufe an die Zentrale, weniger Zeitaufwand für die Suche nach Antworten und fundiertere Entscheidungen vor Ort”, fügt Buckner hinzu. Agentic-AI-Anwendungsfälle im Außendienst Die möglichen Use Cases für mobile KI-Agenten im Außendienst sind zahlreich. So könnten Agentic-AI-Initiativen für den Field Service beispielsweise darauf abzielen, den Verwaltungsaufwand zu reduzieren, wie Forrest Zeisler, CTO beim IT-Dienstleister Jobber, nahelegt: “KI-Agenten können zwar keine Bäume fällen oder Rohrleitungen reparieren. Aber sie können Anrufe entgegennehmen, Angebote erstellen, ausstehende Rechnungen tracken und auch die meisten anderen Verwaltungsaufgaben übernehmen. So können sich die Außendienstmitarbeiter auf ihre eigentlichen Aufgaben konzentrieren.” Mobile KI-Agenten sind aber auch dazu geeignet, den Außendienst in seiner Gesamtheit von reaktiven auf proaktive Arbeitsabläufe umzustellen. Funktionen wie kontextbezogene Echtzeit-Anleitungen, vorausschauende Aufgabenplanung und Language Processing für mehrsprachigen Support, realisieren proaktiven und personalisierten Support für die Mitarbeiter vor Ort. Paul Wnek, CEO beim Salesforce-Spezialisten ExpandAP, erklärt: “Diese GenAI-Applikationen sind nicht mehr rein reaktiv – sie bieten dem Field Service einen vollständigen Echtzeit-Überblick über die Situation und ermöglichen damit, optimale Entscheidungen treffen zu können.” Prädiktive Unterstützung ist nach Meinung von Swapnil Jain, CEO beim KI-Contact-Center-Spezialisten Observe AI, einer der leistungsstärksten Use Cases von KI-Agenten im Außendienst: “Stellen Sie sich vor, der Techniker eines Versorgungsunternehmens nähert sich einem abgelegenen Standort. Nutzt er einen KI-gestützten mobilen Agenten, kann dieser vorab auf bekannte Probleme in der Umgebung hinweisen, anhand von Wetter- und Geländedaten die sicherste Route empfehlen, relevante Wartungsdaten abrufen und bei Inspektionsprozessen anleiten.” Andere Anwendungsfälle fokussieren stattdessen auf Schnelligkeit und die Auswirkungen falscher Entscheidungen. Diese Agenten benötigten allerdings umfassende Wissensdatenbanken und Testing, um sicherzustellen, dass sie zu validen und besseren Entscheidungen führen. John Kim, CEO und Mitbegründer des KI-Anbieters Sendbird, weiß: “In Branchen wie dem Gesundheitswesen oder dem Finanzwesen kommt es mitunter auf Sekunden an. Hier kann generative KI die Sicherheitsstandards und die Betriebsgeschwindigkeit steigern und so Fehler reduzieren und schnellere Entscheidungen herbeiführen. Dabei ist es jedoch essenziell, die KI mit domänenspezifischen Daten und Transparenz zu kombinieren, um ungenaue oder nicht fundierte Outputs zu vermeiden.” Doch mobile KI-Agenten müssen nicht unbedingt das Heft in die Hand nehmen, wie Francois Laborie, EVP für strategische Projekte beim KI-Lösungsanbieter Cognite, anmerkt: “Wir beobachten auch einen Anstieg von Ambient Agents, die still im Hintergrund arbeiten, Überprüfungen und Bewertungen durchführen und den Benutzer bei Bedarf alarmieren. Das ermöglicht beispielsweise der Schwerindustrie, Ausfälle von Anlagen vorherzusagen, Wartungspläne zu optimieren und Risiken zu managen.” Darüber hinaus werden auch Lern- und Wissensmanagement-Applikationen zum operativen Unterscheidungsmerkmal, wenn Außendienstmitarbeiter KI-Agenten mit 5G-Netzwerken und beispielsweise AR/VR-Wearables kombinieren. Das ermöglicht nicht nur multimodale Anleitungen, Video-Tutorials oder AR-Overlays, wie Artem Kroupenev, VP of Strategy beim Industrial-AI-Anbieter Augury, festhält: “Durch die Demokratisierung von Fachwissen und den nahtlosen Transfer von Wissen ermöglichen diese Agenten jedem Techniker, auf Expertenniveau zu arbeiten. Trotz der Risiken, die mit einer frühen Einführung verbunden sind, werden diese Agenten aufgrund der Vorteile unverzichtbar – dazu gehören etwa drastisch reduzierte Ausfallzeiten, verbesserte Sicherheit und niedrigere Betriebskosten.” Bereit für mobile KI-Agenten? Unternehmen, die im Bereich mobile KI-Agenten zum Vorreiter werden wollen, sollten ihre aktuellen Mobile-Applikationen und SaaS-Tools in Augenschein nehmen, um festzustellen, welche am meisten von KI-Funktionen – beziehungsweise agentenbasierten KI-Erfahrungen – profitieren könnten. Dabei gilt es unter anderem zu berücksichtigen: den Gesamtgeschäftswert der Anwendung, die die primären Außendienst-Workflows unterstützt. die Anzahl der Außendienstmitarbeiter sowie die Kontaktpunkte mit den Backoffice-Mitarbeitern. die anfallenden Datenmengen und der Aktualitätsfaktor, wenn es darum geht Entscheidungen im Außendienst zu treffen. Geht es darum, zu ermitteln, wo KI Geschäftswert liefern kann, sollten Sie insbesondere geschäftskritische Workflows in Augenschein nehmen, die von mehreren menschlichen Mitarbeitern in Echtzeit und mit erhöhtem Dateneinsatz übernommen werden. Ein anderer Ansatzpunkt wäre, die Prozesse anzuvisieren, für die es bislang keine digitalisierten Workflows und Tools gibt, um eine Verbindung von Außendienst und Backoffice herzustellen. Es empfiehlt sich zudem auch die zugrundeliegende Architektur zu  überprüfen und technische Schulden sowie die allgemeine Readiness zu evaluieren, wenn es darum geht, KI-Funktionen zu integrieren. So fördert etwa eine aktuelle Studie von NTT (Download gegen Daten) zu Tage, dass 92 Prozent der Manufacturing-Unternehmen von Legacy-Infrastrukturen daran gehindert werden, Generative-AI-Initiativen umzusetzen. Weniger als die Hälfte der befragten Unternehmen hat zuvor ein vollumfängliches Infrastructure-Readiness-Assessment gefahren. Um mit branchenspezifischen Funktionen einen tatsächlichen Mehrwert zu erzielen, ist insbesondere zu empfehlen, neue mobile KI-Erfahrungen zu entwickeln – statt die Technologie einfach nur in bestehende mobile Applikationen zu integrieren. Idealerweise beginnt die Umsetzung damit, sich in die Lage eines Außendienstmitarbeiters zu versetzen – und auch mit diesen zu sprechen. Nur so lässt sich wirklich abschätzen, wie KI einen Mehrwert bieten kann – während sich gleichzeitig auch Ängste abbauen lassen, etwa bezüglich eines möglichen Jobverlusts durch die Technologie. Agentic-AI-Risiken im Blick Mit Blick auf Datenschutz und Compliance erfordert der Einsatz mobiler KI-Agenten zusätzliche Überprüfungen. Deshalb tun IT-Entscheider gut daran, ihre Daten- und KI-Governance-Frameworks entsprechend zu aktualisieren. Nur so ist gewäährleistet, dass diese auch Anwendungsfälle im Außendienst abdecken, die erfordern, sensible Daten an LLMs und KI-Agenten von Drittanbietern zu übermitteln. Viswesh Ananthakrishnan, Mitbegründer und VP of Product beim KI-Sicherheitsspezialisten Aurascape, fasst die damit verbundenen Risiken zusammen: “Sensible Daten mit GenAI-Anwendungen zu verarbeiten, kann zu Datenlecks, Lizenzkonflikten, der Offenlegung von geistigem Eigentum und Compliance-Verstößen führen. Für Unternehmen, die sensible Kunden- oder Patientendaten verarbeiten, steht hier besonders viel auf dem Spiel. Die Folgen einer unsachgemäßen Datenverarbeitung können sich äußerst negativ auf die Kundenerfahrung auswirken. Bei kritischer Infrastruktur wie Energieanlagen ist der Spielraum für Fehler ebenfalls sehr gering.” IT-Security- und Infrastrukturteams sollten zudem auch ihre Lieferketten neu bewerten und überprüfen, ob ihre interne Infrastruktur dazu geeignet ist, agentenbasierte Funktionen zu unterstützen – insbesondere solche, die Zugriff auf sensible(re) Informationen erfordern. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Wie Agentic AI den Außendienst umkrempelt​ Mobile KI-Agenten machen auch Mitarbeitenden im Außendienst das Leben leichter. Lesen Sie, wie.Zoteva | shutterstock.com

Viele mobile Apps der ersten Generation waren direkte Adaptionen ihrer Web-Pendants. Das hieß in erster Linie: unschöne Benutzererfahrungen, mangelhafte Performance und eine entsprechend geringe Akzeptanz. In der Konsequenz waren Unternehmen dazu gezwungen, ihre Geschäftsziele und Implementierungsstrategien zu überdenken. Dank optimierten Entwicklungs-Tools eignete sich die Mehrheit im Anschluss ein Mobile-First-Mindset an und brachte Smartphone- und Tablet-Apps für spezifische Benutzer- und Job-Profile an den Start.  

Heute vollzieht sich ein ganz ähnlicher Wandel: Mit der Einführung von Agentic-AI-Funktionen werden bald auch neue mobile KI-Erfahrungen Einzug halten – bevorzugt in Branchen mit Außendienst-Fokus. Diese können von der damit verbundenen, operativen Flexibilität in besonderem Maße profitieren.

In diesem Artikel lesen Sie,

wie mobile KI-Agenten das Benutzererlebnis revolutionieren können,

welche Use Cases für den Außendienst besonders relevant sind,

welche Voraussetzungen für mobile KI-Agenten geschaffen werden sollten, und

welche Risiken Sie in diesem Zusammenhang im Blick behalten sollten.  

Mit KI-Agenten zur UX-Revolution

Mobile Apps für den Außendienst bestehen für gewöhnlich aus Formularen, Checklisten, Dashboards und Reportings. Sie können Field-Service-Worker über anstehende Tasks informieren, Fragen zur Umsetzung beantworten und Informationen an die Planungs- und Dispositions-Teams im Office weiterleiten.

“Formulare, Schaltflächen und statische Menüs wurden entwickelt, damit sich die Benutzer an Maschinen anpassen. KI-Assistenten kehren das Prinzip um, indem sie sich an ihre Benutzer anpassen”, erklärt Christian Buckner, SVP of Analytics and IoT beim Softwareanbieter Altair. Die mobile Benutzererfahrung trete damit in eine neue Ära ein, in der die Benutzer nicht mehr durch Software navigieren, sondern mit ihr zusammenarbeiten.

Anstelle von Menüs und strukturierten Workflows werden mobile KI-Apps künftig Prompt Interfaces und personalisierte Datenvisualisierungen beinhalten. Die KI wird dann anhand der aktuellen Aufgabe des Benutzers antizipieren, welches Knowhow dafür nötig ist, das Interface sowohl die Informationsabfrage als auch die Aktualisierung von Aufgaben vereinfachen.

Doch damit nicht genug: “Diese Assistenten werden nicht nur Daten abrufen, sondern fungieren als Denkhilfen. Etwa, indem sie komplexe technische Handbücher zusammenfassen, Ursachen hypothetisch ermitteln, Lösungsschritte vorschlagen oder diese sogar brainstormen. In der Praxis bedeutet das weniger Rückrufe an die Zentrale, weniger Zeitaufwand für die Suche nach Antworten und fundiertere Entscheidungen vor Ort”, fügt Buckner hinzu.

Agentic-AI-Anwendungsfälle im Außendienst

Die möglichen Use Cases für mobile KI-Agenten im Außendienst sind zahlreich. So könnten Agentic-AI-Initiativen für den Field Service beispielsweise darauf abzielen, den Verwaltungsaufwand zu reduzieren, wie Forrest Zeisler, CTO beim IT-Dienstleister Jobber, nahelegt: “KI-Agenten können zwar keine Bäume fällen oder Rohrleitungen reparieren. Aber sie können Anrufe entgegennehmen, Angebote erstellen, ausstehende Rechnungen tracken und auch die meisten anderen Verwaltungsaufgaben übernehmen. So können sich die Außendienstmitarbeiter auf ihre eigentlichen Aufgaben konzentrieren.”

Mobile KI-Agenten sind aber auch dazu geeignet, den Außendienst in seiner Gesamtheit von reaktiven auf proaktive Arbeitsabläufe umzustellen. Funktionen wie kontextbezogene Echtzeit-Anleitungen, vorausschauende Aufgabenplanung und Language Processing für mehrsprachigen Support, realisieren proaktiven und personalisierten Support für die Mitarbeiter vor Ort. Paul Wnek, CEO beim Salesforce-Spezialisten ExpandAP, erklärt: “Diese GenAI-Applikationen sind nicht mehr rein reaktiv – sie bieten dem Field Service einen vollständigen Echtzeit-Überblick über die Situation und ermöglichen damit, optimale Entscheidungen treffen zu können.”

Prädiktive Unterstützung ist nach Meinung von Swapnil Jain, CEO beim KI-Contact-Center-Spezialisten Observe AI, einer der leistungsstärksten Use Cases von KI-Agenten im Außendienst: “Stellen Sie sich vor, der Techniker eines Versorgungsunternehmens nähert sich einem abgelegenen Standort. Nutzt er einen KI-gestützten mobilen Agenten, kann dieser vorab auf bekannte Probleme in der Umgebung hinweisen, anhand von Wetter- und Geländedaten die sicherste Route empfehlen, relevante Wartungsdaten abrufen und bei Inspektionsprozessen anleiten.”

Andere Anwendungsfälle fokussieren stattdessen auf Schnelligkeit und die Auswirkungen falscher Entscheidungen. Diese Agenten benötigten allerdings umfassende Wissensdatenbanken und Testing, um sicherzustellen, dass sie zu validen und besseren Entscheidungen führen. John Kim, CEO und Mitbegründer des KI-Anbieters Sendbird, weiß: “In Branchen wie dem Gesundheitswesen oder dem Finanzwesen kommt es mitunter auf Sekunden an. Hier kann generative KI die Sicherheitsstandards und die Betriebsgeschwindigkeit steigern und so Fehler reduzieren und schnellere Entscheidungen herbeiführen. Dabei ist es jedoch essenziell, die KI mit domänenspezifischen Daten und Transparenz zu kombinieren, um ungenaue oder nicht fundierte Outputs zu vermeiden.”

Doch mobile KI-Agenten müssen nicht unbedingt das Heft in die Hand nehmen, wie Francois Laborie, EVP für strategische Projekte beim KI-Lösungsanbieter Cognite, anmerkt: “Wir beobachten auch einen Anstieg von Ambient Agents, die still im Hintergrund arbeiten, Überprüfungen und Bewertungen durchführen und den Benutzer bei Bedarf alarmieren. Das ermöglicht beispielsweise der Schwerindustrie, Ausfälle von Anlagen vorherzusagen, Wartungspläne zu optimieren und Risiken zu managen.”

Darüber hinaus werden auch Lern- und Wissensmanagement-Applikationen zum operativen Unterscheidungsmerkmal, wenn Außendienstmitarbeiter KI-Agenten mit 5G-Netzwerken und beispielsweise AR/VR-Wearables kombinieren. Das ermöglicht nicht nur multimodale Anleitungen, Video-Tutorials oder AR-Overlays, wie Artem Kroupenev, VP of Strategy beim Industrial-AI-Anbieter Augury, festhält: “Durch die Demokratisierung von Fachwissen und den nahtlosen Transfer von Wissen ermöglichen diese Agenten jedem Techniker, auf Expertenniveau zu arbeiten. Trotz der Risiken, die mit einer frühen Einführung verbunden sind, werden diese Agenten aufgrund der Vorteile unverzichtbar – dazu gehören etwa drastisch reduzierte Ausfallzeiten, verbesserte Sicherheit und niedrigere Betriebskosten.”

Bereit für mobile KI-Agenten?

Unternehmen, die im Bereich mobile KI-Agenten zum Vorreiter werden wollen, sollten ihre aktuellen Mobile-Applikationen und SaaS-Tools in Augenschein nehmen, um festzustellen, welche am meisten von KI-Funktionen – beziehungsweise agentenbasierten KI-Erfahrungen – profitieren könnten.

Dabei gilt es unter anderem zu berücksichtigen:

den Gesamtgeschäftswert der Anwendung, die die primären Außendienst-Workflows unterstützt.

die Anzahl der Außendienstmitarbeiter sowie die Kontaktpunkte mit den Backoffice-Mitarbeitern.

die anfallenden Datenmengen und der Aktualitätsfaktor, wenn es darum geht Entscheidungen im Außendienst zu treffen.

Geht es darum, zu ermitteln, wo KI Geschäftswert liefern kann, sollten Sie insbesondere geschäftskritische Workflows in Augenschein nehmen, die von mehreren menschlichen Mitarbeitern in Echtzeit und mit erhöhtem Dateneinsatz übernommen werden. Ein anderer Ansatzpunkt wäre, die Prozesse anzuvisieren, für die es bislang keine digitalisierten Workflows und Tools gibt, um eine Verbindung von Außendienst und Backoffice herzustellen.

Es empfiehlt sich zudem auch die zugrundeliegende Architektur zu  überprüfen und technische Schulden sowie die allgemeine Readiness zu evaluieren, wenn es darum geht, KI-Funktionen zu integrieren. So fördert etwa eine aktuelle Studie von NTT (Download gegen Daten) zu Tage, dass 92 Prozent der Manufacturing-Unternehmen von Legacy-Infrastrukturen daran gehindert werden, Generative-AI-Initiativen umzusetzen. Weniger als die Hälfte der befragten Unternehmen hat zuvor ein vollumfängliches Infrastructure-Readiness-Assessment gefahren.

Um mit branchenspezifischen Funktionen einen tatsächlichen Mehrwert zu erzielen, ist insbesondere zu empfehlen, neue mobile KI-Erfahrungen zu entwickeln – statt die Technologie einfach nur in bestehende mobile Applikationen zu integrieren. Idealerweise beginnt die Umsetzung damit, sich in die Lage eines Außendienstmitarbeiters zu versetzen – und auch mit diesen zu sprechen. Nur so lässt sich wirklich abschätzen, wie KI einen Mehrwert bieten kann – während sich gleichzeitig auch Ängste abbauen lassen, etwa bezüglich eines möglichen Jobverlusts durch die Technologie.

Agentic-AI-Risiken im Blick

Mit Blick auf Datenschutz und Compliance erfordert der Einsatz mobiler KI-Agenten zusätzliche Überprüfungen. Deshalb tun IT-Entscheider gut daran, ihre Daten- und KI-Governance-Frameworks entsprechend zu aktualisieren. Nur so ist gewäährleistet, dass diese auch Anwendungsfälle im Außendienst abdecken, die erfordern, sensible Daten an LLMs und KI-Agenten von Drittanbietern zu übermitteln.

Viswesh Ananthakrishnan, Mitbegründer und VP of Product beim KI-Sicherheitsspezialisten Aurascape, fasst die damit verbundenen Risiken zusammen: “Sensible Daten mit GenAI-Anwendungen zu verarbeiten, kann zu Datenlecks, Lizenzkonflikten, der Offenlegung von geistigem Eigentum und Compliance-Verstößen führen. Für Unternehmen, die sensible Kunden- oder Patientendaten verarbeiten, steht hier besonders viel auf dem Spiel. Die Folgen einer unsachgemäßen Datenverarbeitung können sich äußerst negativ auf die Kundenerfahrung auswirken. Bei kritischer Infrastruktur wie Energieanlagen ist der Spielraum für Fehler ebenfalls sehr gering.”

IT-Security- und Infrastrukturteams sollten zudem auch ihre Lieferketten neu bewerten und überprüfen, ob ihre interne Infrastruktur dazu geeignet ist, agentenbasierte Funktionen zu unterstützen – insbesondere solche, die Zugriff auf sensible(re) Informationen erfordern. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Wie Agentic AI den Außendienst umkrempelt​ Weiterlesen »

Die 4 nervigsten Verhaltensweisen im Joballtag​

Allgemein

Schlechte Manieren und Disziplinlosigkeit wirken sich nicht nur negativ auf die Stimmung aus, sondern schaden auch der Arbeitseffizienz.thodonal88 | shutterstock.com Wer kennt sie nicht, die kleinen und großen Ärgernisse im Joballtag? Eine Studie der Jobplattform Monster aus den USA zeigt, was Mitarbeiter über Manieren am Arbeitsplatz denken und welche Verhaltensweisen sie stören. Die Hälfte der Befragten hält respektvolle Kommunikation für das wichtigste Benehmen am Arbeitsplatz. Kein Wunder: Kommunikation ist schließlich die Basis für gutes Teamwork und bessere Ergebnisse. Dennoch hat etwa ein Drittel der Beschäftigten nicht das Gefühl, dass ihr Arbeitsplatz ein respektvolles Umfeld ist, in dem Umgangsformen angemessen geschätzt werden.  Damit ein respektvolles Miteinander gelingt, braucht es nicht nur klare Regeln für Struktur, Organisation und Kommunikation, sondern auch Strategien, womit Teams im Alltag konkret dazu beitragen können. Im Folgenden geht es um vier typische Verhaltensweisen, die ein respektvolles Arbeitsumfeld stören – und was Unternehmen dagegen tun können.      1. Chaos stiften Fast 9 von 10 Befragten wählten das Nicht-hinter-sich-Aufräumen zu einer der nervigsten Verhaltensweisen im Job. Gut zu beobachten im Büro, wo eine verwaiste Kaffeetasse im Konferenzraum steht oder sich halbvolle Wassergläser über der Spülmaschine tummeln. Was oft noch schlimmer ist: Auch digital herrscht Chaos. Arbeit wird nicht nur dadurch ausgebremst, dass Kollegen fehlen, sondern auch, weil sich niemand um Ordnung im digitalen Raum kümmert. Veraltete Dokumente häufen sich, Dateien sind falsch benannt oder doppelt gespeichert, Ordner verlieren ihre Struktur und zentrale Informationen verschwinden in Chats. Die Lösung: Egal ob im Büro, im Homeoffice oder hybrid: Wer sich eine bessere Zusammenarbeit wünscht, braucht ein klares Commitment im Team – denn alle sind für Ordnung und Effizienz verantwortlich. Wird Unordnung an einzelnen Stellen einfach hingenommen, kann das schnell dazu führen, dass auch andere ihre Bemühungen um gemeinsame Abläufe zurückfahren.   Dazu gehört, unabhängig von Rang oder Rolle hinter sich selbst aufzuräumen – analog wie digital. Dokumentationen sollten für alle leicht auffindbar sein, ebenso wie geteilte Abläufe und Standards. Wer digitale Tools gezielt nutzt und Ablagen klar strukturiert, spart nicht nur Zeit bei der Suche, sondern sorgt auch dafür, dass alle besser informiert sind und schneller gemeinsam Ergebnisse liefern können.     2. Lästern Die meisten verabscheuen es, aber viele tun es vermutlich doch: 81 Prozent der von Monster Befragten zählen Gossip zu einer der nervigsten Verhaltensweisen im Joballtag. Zu einem gewissen Grad sind Klatsch und Tratsch im Berufsleben vielleicht nervig, aber völlig normal und in harmloser Form sogar wichtig: als Ventil für Frust oder zur Orientierung in einem neuen Team.   Entscheidend ist allerdings, wie und mit welcher Haltung gesprochen wird. Abwertende Aussagen sind nicht nur unangebracht, sie zerstören auch das Vertrauen im Team und untergraben die Unternehmenskultur.  Gerade in größeren, hybriden Unternehmen ist das besonders wichtig: Weniger persönliche Begegnungen erschweren den Aufbau enger Beziehungen und machen es schwieriger, auf dem Laufenden zu bleiben. Missverständnisse sind an der Tagesordnung, viele fühlen sich isoliert oder unzureichend informiert. In solchen Situationen kann aus harmlosen Gesprächen schnell abfälliger Tratsch werden und ein Arbeitsumfeld entstehen, das keine psychologische Sicherheit bietet.  Die Lösung: Um Unstimmigkeiten zu begegnen und die Zufriedenheit im Team zu stärken, sollten Unternehmen über Konzepte wie Coachings, Mentoring und Mental-Health-Beratung nachdenken. Gleichzeitig sollten sie ihre Mitarbeitenden ermutigen, sich regelmäßig mit anderen zu einem Check-in zu verabreden. Das stärkt nicht nur die zwischenmenschlichen Beziehungen: Oft ergeben sich aus zwanglosen Gesprächen hilfreiche Lösungsansätze für persönliche Herausforderungen oder Ideen für neue Projekte.    3. Nicht reagieren Ghosting gibt es auch im Job: Laut Monster-Studie stören sich 77 Prozent der Befragten daran, wenn Nachrichten unbeantwortet bleiben. Projekte geraten ins Stocken, wenn Rückmeldungen fehlen. Dabei liegt es oft nicht an mangelhaften Manieren, sondern an Ablenkung: In der digitalisierten Arbeitswelt ist es durch die wachsende Zahl an Tools und eingehenden Nachrichten nicht leichter geworden, den Überblick zu behalten und organisiert zu bleiben. 2023 landeten in Deutschland laut Bitkom durchschnittlich 42 E-Mails pro Tag in beruflichen Postfächern – Chat-Nachrichten exklusive.   Die Lösung: Empfehlenswert ist, sich kurz für die Nachricht zu bedanken und eine Einschätzung abzugeben, selbst wenn in diesem Moment keine ausführliche Antwort möglich ist. So behält die empfangende Person die Kontrolle über die Frist und weiß, dass ihr Anliegen wahrgenommen wurde. Eine weitere Möglichkeit ist, jeden Tag eine bestimmte Zeit einzuplanen, um verpasste Mails zu überprüfen und zu beantworten.    4. Ständig zu spät kommen Schon erlebt? Das Meeting ist für 10 Uhr angesetzt, aber fünf Minuten später sind noch nicht alle da? 77 Prozent werten regelmäßiges Zuspätkommen in Meetings als besonders nervig. Gleichzeitig nennen nur 14 Prozent Pünktlichkeit als wichtigste Verhaltensweise – ein Zeichen dafür, dass Pünktlichkeit zwar oft nicht auffällt, ständiges Zuspätkommen dafür umso mehr. Flexible Arbeitszeiten und Homeoffice mögen ihren Anteil daran haben, aber andere warten zu lassen, gilt als respektlos und stört den Ablauf erheblich.  Die Lösung: Hier dürfen Teams gern genauer hinschauen, um ihre Meeting-Kultur zu analysieren und zu überdenken. Sind es immer die gleichen, die zu spät kommen? Wird in den ersten Minuten sowieso nie etwas Wichtiges besprochen? Oder, Hand aufs Herz: Gibt es zu viele Meetings, die auch eine E-Mail hätten sein können?   Der Weg zu leistungsstarken Teams  Kleine Ärgernisse gehören zu jedem Arbeitsalltag dazu – doch sie dürfen niemals so weit gehen, dass sie Teams daran hindern, effektiv Mehrwert zu schaffen. Im Mittelpunkt sollte eine Kultur der Verantwortlichkeit, der gemeinsamen Ausrichtung und Zusammenarbeit stehen, die auf Respekt gegenüber jedem einzelnen Menschen basiert. Wo das gelingt, entstehen ganz von selbst eingespielte Teams und Ergebnisse, die wirklich zählen. (pg/fm) 

Die 4 nervigsten Verhaltensweisen im Joballtag​ Schlechte Manieren und Disziplinlosigkeit wirken sich nicht nur negativ auf die Stimmung aus, sondern schaden auch der Arbeitseffizienz.thodonal88 | shutterstock.com

Wer kennt sie nicht, die kleinen und großen Ärgernisse im Joballtag? Eine Studie der Jobplattform Monster aus den USA zeigt, was Mitarbeiter über Manieren am Arbeitsplatz denken und welche Verhaltensweisen sie stören. Die Hälfte der Befragten hält respektvolle Kommunikation für das wichtigste Benehmen am Arbeitsplatz. Kein Wunder: Kommunikation ist schließlich die Basis für gutes Teamwork und bessere Ergebnisse. Dennoch hat etwa ein Drittel der Beschäftigten nicht das Gefühl, dass ihr Arbeitsplatz ein respektvolles Umfeld ist, in dem Umgangsformen angemessen geschätzt werden. 

Damit ein respektvolles Miteinander gelingt, braucht es nicht nur klare Regeln für Struktur, Organisation und Kommunikation, sondern auch Strategien, womit Teams im Alltag konkret dazu beitragen können. Im Folgenden geht es um vier typische Verhaltensweisen, die ein respektvolles Arbeitsumfeld stören – und was Unternehmen dagegen tun können. 

   

1. Chaos stiften

Fast 9 von 10 Befragten wählten das Nicht-hinter-sich-Aufräumen zu einer der nervigsten Verhaltensweisen im Job. Gut zu beobachten im Büro, wo eine verwaiste Kaffeetasse im Konferenzraum steht oder sich halbvolle Wassergläser über der Spülmaschine tummeln. Was oft noch schlimmer ist: Auch digital herrscht Chaos. Arbeit wird nicht nur dadurch ausgebremst, dass Kollegen fehlen, sondern auch, weil sich niemand um Ordnung im digitalen Raum kümmert. Veraltete Dokumente häufen sich, Dateien sind falsch benannt oder doppelt gespeichert, Ordner verlieren ihre Struktur und zentrale Informationen verschwinden in Chats.

Die Lösung: Egal ob im Büro, im Homeoffice oder hybrid: Wer sich eine bessere Zusammenarbeit wünscht, braucht ein klares Commitment im Team – denn alle sind für Ordnung und Effizienz verantwortlich. Wird Unordnung an einzelnen Stellen einfach hingenommen, kann das schnell dazu führen, dass auch andere ihre Bemühungen um gemeinsame Abläufe zurückfahren.  

Dazu gehört, unabhängig von Rang oder Rolle hinter sich selbst aufzuräumen – analog wie digital. Dokumentationen sollten für alle leicht auffindbar sein, ebenso wie geteilte Abläufe und Standards. Wer digitale Tools gezielt nutzt und Ablagen klar strukturiert, spart nicht nur Zeit bei der Suche, sondern sorgt auch dafür, dass alle besser informiert sind und schneller gemeinsam Ergebnisse liefern können. 

  

2. Lästern

Die meisten verabscheuen es, aber viele tun es vermutlich doch: 81 Prozent der von Monster Befragten zählen Gossip zu einer der nervigsten Verhaltensweisen im Joballtag. Zu einem gewissen Grad sind Klatsch und Tratsch im Berufsleben vielleicht nervig, aber völlig normal und in harmloser Form sogar wichtig: als Ventil für Frust oder zur Orientierung in einem neuen Team.  

Entscheidend ist allerdings, wie und mit welcher Haltung gesprochen wird. Abwertende Aussagen sind nicht nur unangebracht, sie zerstören auch das Vertrauen im Team und untergraben die Unternehmenskultur. 

Gerade in größeren, hybriden Unternehmen ist das besonders wichtig: Weniger persönliche Begegnungen erschweren den Aufbau enger Beziehungen und machen es schwieriger, auf dem Laufenden zu bleiben. Missverständnisse sind an der Tagesordnung, viele fühlen sich isoliert oder unzureichend informiert. In solchen Situationen kann aus harmlosen Gesprächen schnell abfälliger Tratsch werden und ein Arbeitsumfeld entstehen, das keine psychologische Sicherheit bietet. 

Die Lösung: Um Unstimmigkeiten zu begegnen und die Zufriedenheit im Team zu stärken, sollten Unternehmen über Konzepte wie Coachings, Mentoring und Mental-Health-Beratung nachdenken. Gleichzeitig sollten sie ihre Mitarbeitenden ermutigen, sich regelmäßig mit anderen zu einem Check-in zu verabreden. Das stärkt nicht nur die zwischenmenschlichen Beziehungen: Oft ergeben sich aus zwanglosen Gesprächen hilfreiche Lösungsansätze für persönliche Herausforderungen oder Ideen für neue Projekte. 

 

3. Nicht reagieren

Ghosting gibt es auch im Job: Laut Monster-Studie stören sich 77 Prozent der Befragten daran, wenn Nachrichten unbeantwortet bleiben. Projekte geraten ins Stocken, wenn Rückmeldungen fehlen. Dabei liegt es oft nicht an mangelhaften Manieren, sondern an Ablenkung: In der digitalisierten Arbeitswelt ist es durch die wachsende Zahl an Tools und eingehenden Nachrichten nicht leichter geworden, den Überblick zu behalten und organisiert zu bleiben. 2023 landeten in Deutschland laut Bitkom durchschnittlich 42 E-Mails pro Tag in beruflichen Postfächern – Chat-Nachrichten exklusive.  

Die Lösung: Empfehlenswert ist, sich kurz für die Nachricht zu bedanken und eine Einschätzung abzugeben, selbst wenn in diesem Moment keine ausführliche Antwort möglich ist. So behält die empfangende Person die Kontrolle über die Frist und weiß, dass ihr Anliegen wahrgenommen wurde. Eine weitere Möglichkeit ist, jeden Tag eine bestimmte Zeit einzuplanen, um verpasste Mails zu überprüfen und zu beantworten. 

 

4. Ständig zu spät kommen

Schon erlebt? Das Meeting ist für 10 Uhr angesetzt, aber fünf Minuten später sind noch nicht alle da? 77 Prozent werten regelmäßiges Zuspätkommen in Meetings als besonders nervig. Gleichzeitig nennen nur 14 Prozent Pünktlichkeit als wichtigste Verhaltensweise – ein Zeichen dafür, dass Pünktlichkeit zwar oft nicht auffällt, ständiges Zuspätkommen dafür umso mehr. Flexible Arbeitszeiten und Homeoffice mögen ihren Anteil daran haben, aber andere warten zu lassen, gilt als respektlos und stört den Ablauf erheblich. 

Die Lösung: Hier dürfen Teams gern genauer hinschauen, um ihre Meeting-Kultur zu analysieren und zu überdenken. Sind es immer die gleichen, die zu spät kommen? Wird in den ersten Minuten sowieso nie etwas Wichtiges besprochen? Oder, Hand aufs Herz: Gibt es zu viele Meetings, die auch eine E-Mail hätten sein können?

 

Der Weg zu leistungsstarken Teams 

Kleine Ärgernisse gehören zu jedem Arbeitsalltag dazu – doch sie dürfen niemals so weit gehen, dass sie Teams daran hindern, effektiv Mehrwert zu schaffen. Im Mittelpunkt sollte eine Kultur der Verantwortlichkeit, der gemeinsamen Ausrichtung und Zusammenarbeit stehen, die auf Respekt gegenüber jedem einzelnen Menschen basiert. Wo das gelingt, entstehen ganz von selbst eingespielte Teams und Ergebnisse, die wirklich zählen. (pg/fm)

Die 4 nervigsten Verhaltensweisen im Joballtag​ Weiterlesen »

Was ist NumPy?​

Allgemein

NumPy kann mathematische Berechnungen mit Python erheblich beschleunigen – insbesondere in Kombination mit Cython und Numba. Foto: Koltukovs | shutterstock.com Python ist zwar praktisch und flexibel, aber auch deutlich langsamer als andere Programmiersprachen. Glücklicherweise kann das Python-Ökosystem diese Einschränkungen mit diversen Tools kompensieren. Eines der gebräuchlichsten Werkzeuge, das Developer und Data Scientists dabei unterstützt, Berechnungen in großem Maßstab zu realisieren, ist NumPy. Das Open-Source-Tool ermöglicht es, mit Arrays und Matrizen zu arbeiten, die von Code angetrieben werden, der in Hochgeschwindigkeitssprachen wie C, C++ und Fortran geschrieben ist. Sämtliche NumPy-Operationen finden dabei außerhalb der Python Runtime statt, um Beeinträchtigungen durch dessen Limitationen zu verhindern. NumPy für Python-Tasks verwenden Speziell im Bereich Machine Learning und Datenwissenschaft beinhalten mathematische Rechenoperationen die Arbeit mit Matrizen respektive Zahlenlisten. Um das (auf primitive Art und Weise) mit Python zu erledigen, werden die Zahlen in einer Struktur (für gewöhnlich eine list) gespeichert und anschließend über die Struktur geloopt, woraufhin eine Rechenoperation für jedes einzelne, enthaltene Element folgt. Weil jedes Element von einem Python-Objekt in eine maschinennahe Zahl hin und her übersetzt werden muss, ist diese Methode sowohl langsam als auch ineffizient. NumPy bietet an dieser Stelle einen spezialisierten Array-Typ, der darauf optimiert ist, mit maschinennativen numerischen Typen wie Integers oder Floats zu arbeiten. Die Arrays können dabei eine beliebige Anzahl von Dimensionen aufweisen – allerdings verwendet jedes einen einheitlichen Datentyp (dtype), um die zugrundeliegenden Informationen zu repräsentieren. Ein einfaches Beispiel: import numpy as np np.array([0, 1, 2, 3, 4, 5, 6]) Dieser Befehl erzeugt ein eindimensionales NumPy-Array aus der angegebenen Liste von Zahlen. Weil für dieses Array kein dtype spezifiziert wurde, wird automatisch aus den übergebenen Daten gefolgert, dass es sich – je nach Plattform – um eine 32- oder 64-Bit-Ganzzahl mit Vorzeichen handelt. Folgendermaßen würden wir vorgehen, um den dtype explizit anzugeben: np.array([0, 1, 2, 3, 4, 5, 6], dtype=np.uint32) Bei np.uint32 handelt es sich um den dtype für eine unsignierte 32-Bit-Integer. Es ist auch möglich, generische Python-Objekte als dtype für ein NumPy-Array zu verwenden. Das führt allerdings im Vergleich zu Python im Allgemeinen, nicht zu einer besser Performance. Am besten funktioniert NumPy mit maschinennativen, numerischen Typen. Diese tragen das Gros zu den Geschwindigkeitsvorteilen von NumPy bei. Python-Arrays mit NumPy beschleunigen Mit Arrays zu arbeiten, ohne dabei jedes Element einzeln adressieren zu müssen, ist ein weiteres Speed-förderndes Feature. NumPy-Arrays weisen bezüglich ihres Verhaltens diverse Ähnlichkeiten zu konventionellen Python-Objekten auf. Deshalb ist es verlockend, gängige Pytohn-Metaphern zu nutzen, wenn man mit ihnen arbeitet. Ein NumPy-Array mit den Zahlen 0 bis 1000 zu erstellen, funktioniert theoretisch so: x = np.array([_ for _ in range(1000)]) Das würde zwar funktionieren, allerdings würde die Performance durch die Zeit geschmälert, die Python benötigt, um die Liste zu erstellen und die, die NumPy braucht, um diese in ein Array umzuwandeln. Wesentlich effizienter funktioniert derselbe Task direkt in NumPy: x = np.arange(1000) Um neue Arrays ohne Looping zu erstellen, können Sie viele andere in NumPy integrierte Operationen nutzen – etwa Arrays mit Nullen (oder einem anderen Initialwert), vorhandene Datensätze, Puffer oder andere Quellen. Wie bereits erwähnt, verhalten sich NumPy-Arrays der Einfachheit halber wie andere Python-Objekte. Sie können zum Beispiel wie Listen indiziert werden – arr[0] greift auf das erste Element eines NumPy-Arrays zu. So können Sie einzelne Elemente in einem Array setzen oder lesen. Wenn Sie alle Elemente eines Arrays ändern möchten, empfehlen sich die Broadcasting-Funktionen von NumPy, mit denen Sie Operationen über ein ganzes Array oder ein Slice ausführen können – ohne Looping in Python. Auch das lässt sich vollständig in NumPy erledigen: x1 = np.array( [np.arange(0, 10), np.arange(10,20)] ) Das Ergebnis ist ein zweidimensionales NumPy-Array, wobei jede Dimension aus einem Zahlenbereich besteht. Arrays mit einer beliebigen Anzahl von Dimensionen lassen sich mit Hilfe verschachtelter Listen im Konstruktor erstellen. [[ 0 1 2 3 4 5 6 7 8 9] [10 11 12 13 14 15 16 17 18 19]] Wenn wir die Achsen dieses Arrays in Python transponieren wollten, müssten wir eigentlich eine Art Loop schreiben. NumPy erlaubt allerdings, diese Art von Operation mit nur einem Befehl auszuführen: x2 = np.transpose(x1) Der Output: [[ 0 10] [ 1 11] [ 2 12] [ 3 13] [ 4 14] [ 5 15] [ 6 16] [ 7 17] [ 8 18] [ 9 19]] Operationen wie diese sind der Schlüssel, um NumPy korrekt zu nutzen. Die Python-Bibliothek bietet einen breitgefächerten Katalog integrierter Routinen, um Array-Daten zu bearbeiten: Eingebaute Routinen für lineare Algebra, diskrete Fourier-Transformationen und Pseudozufallszahlengeneratoren ersparen Ihnen die Mühe, diese Dinge selbst entwickeln zu müssen. In den meisten Fällen können Sie das, was Sie brauchen, mit einem oder mehreren Built-Ins erreichen, ganz ohne Python-Operationen verwenden zu müssen. Universelle NumPy-Funktionen (ufuncs) Fortgeschrittene Berechnungen ohne Python-Loops können Sie in NumPy auch über Universal Functions – kurz ufuncs – erledigen. Eine ufunc nimmt ein Array auf, führt eine Rechenoperation für jedes Array-Element durch und sendet die Ergebnisse entweder an ein anderes Array oder führt die Operation an Ort und Stelle aus. Ein Beispiel: x1 = np.arange(1, 9, 3) x2 = np.arange(2, 18, 6) x3 = np.add(x1, x2) In diesem Beispiel addiert np.add jedes Element von x1 zu x2, wobei die Ergebnisse in einem neu erstellten Array – x3 – gespeichert werden. Das Ergebnis ist [ 3 12 21] – alle Berechnungen werden in NumPy selbst durchgeführt. Universal Functions verfügen zudem über Attributmethoden, mit denen sie flexibler angewendet werden können. Das reduziert den Bedarf an manuellen Loops und Python-seitiger Logik. Wenn wir np.add verwenden möchten um das Array x1 zu summieren, könnten wir die .add-Methode verwenden (np.add.accumulate(x1)), statt über jedes Element im Array zu loopen. Ähnlich verhält es sich im Fall einer Reduktionsfunktion, also der Anwendung von .add entlang der Achse eines mehrdimensionalen Arrays, wobei das Ergebnis ein neues Array mit einer Dimension weniger ist. Wir könnten loopen und ein neues Array erstellen, das wäre allerdings langsam. Um das gleiche Ergebnis ohne Loop zu erreichen, verwenden wir np.add.reduce: x1 = np.array([[0,1,2],[3,4,5]]) # [[0 1 2] [3 4 5]] x2 = np.add.reduce(x1) # [3 5 7] Auch bedingte Reduktionen sind möglich – mit Hilfe des where-Arguments: x2 = np.add.reduce(x1, where=np.greater(x1, 1)) Das würde – in Fällen, in denen die Elemente in der ersten Achse von x1 größer als 1 sind – x1+x2 zurückgeben. Anderenfalls wird nur der Wert der Elemente in der zweiten Achse zurückgegeben. Das erspart wiederum die manuelle Iteration über das Array in Python. NumPy bietet solche Mechanismen, im Daten nach bestimmten Kriterien zu filtern und zu sortieren, um keine Loops schreiben zu müssen – oder es zumindest auf das Minimum zu reduzieren. NumPy mit Cython nutzen Die Cython-Bibliothek ermöglicht Ihnen, Python-Code zu schreiben und ihn zu Beschleunigungszwecken in C zu konvertieren – wobei C-Typen als Variablen verwendet werden. Diese Variablen können auch NumPy-Arrays enthalten. Cython-Code ist also in der Lage, direkt mit NumPy-Arrays zu arbeiten. Cython kann in Kombination mit NumPy einige, leistungsstarke Funktionen realisieren. Zum Beispiel, wenn es darum geht: Manuelle Loops zu beschleunigen. Manchmal kommen sie nicht darum herum, Loops für NumPy-Arrays zu schreiben. Wenn Sie die Schleifenoperation in ein Cython-Modul schreiben, können Sie diese in C ausführen. Das führt zu erheblichen Geschwindigkeitssteigerungen. Zu beachten ist dabei: Das ist nur möglich, wenn es sich bei den Typen aller fraglicher Variablen entweder um NumPy-Arrays oder maschinennative C-Types handelt. NumPy-Arrays mit C-Bibliotheken zu verwenden. Ein häufiger Anwendungsfall für Cython ist es, praktische Python-Wrapper für C-Bibliotheken zu schreiben. Dabei kann Cython-Code als Brücke zwischen einer bestehenden C-Bibliothek und NumPy-Arrays fungieren. Cython bietet zwei Möglichkeiten, mit NumPy-Arrays zu arbeiten: Zum einen über eine Typed Memoryview (Cython-Konstrukt für den schnellen und begrenzungssicheren Zugriff auf ein NumPy-Array). Die andere Möglichkeit: Direkt mit einem Raw Pointer zu arbeiten, der auf die zugrundeliegenden Daten verweist. Diese Methode ist jedoch potenziell unsicher und erfordrt, das Memory Layout des Objekts im Vorfeld zu kennen. NumPy mit Numba nutzen Den Python-JIT-Compiler Numba zu verwenden, bietet eine weitere Möglichkeit, Python auf performante Weise mit NumPy-Arrays zu nutzen. Numba übersetzt Python-interpretierten Code in maschinennativen – mit Spezialisierungen für Tools wie NumPy. Loops in Python über NumPy-Arrays lassen sich so automatisch optimieren. Diese Optimierungen funktionieren jedoch nur bis zu einem gewissen Grad automatisch und führen möglicherweise nicht bei allen Programmen zu drastischen Leistungssteigerungen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist NumPy?​ NumPy kann mathematische Berechnungen mit Python erheblich beschleunigen – insbesondere in Kombination mit Cython und Numba.
Foto: Koltukovs | shutterstock.com

Python ist zwar praktisch und flexibel, aber auch deutlich langsamer als andere Programmiersprachen. Glücklicherweise kann das Python-Ökosystem diese Einschränkungen mit diversen Tools kompensieren.

Eines der gebräuchlichsten Werkzeuge, das Developer und Data Scientists dabei unterstützt, Berechnungen in großem Maßstab zu realisieren, ist NumPy. Das Open-Source-Tool ermöglicht es, mit Arrays und Matrizen zu arbeiten, die von Code angetrieben werden, der in Hochgeschwindigkeitssprachen wie C, C++ und Fortran geschrieben ist. Sämtliche NumPy-Operationen finden dabei außerhalb der Python Runtime statt, um Beeinträchtigungen durch dessen Limitationen zu verhindern.

NumPy für Python-Tasks verwenden

Speziell im Bereich Machine Learning und Datenwissenschaft beinhalten mathematische Rechenoperationen die Arbeit mit Matrizen respektive Zahlenlisten. Um das (auf primitive Art und Weise) mit Python zu erledigen, werden die Zahlen in einer Struktur (für gewöhnlich eine list) gespeichert und anschließend über die Struktur geloopt, woraufhin eine Rechenoperation für jedes einzelne, enthaltene Element folgt. Weil jedes Element von einem Python-Objekt in eine maschinennahe Zahl hin und her übersetzt werden muss, ist diese Methode sowohl langsam als auch ineffizient.

NumPy bietet an dieser Stelle einen spezialisierten Array-Typ, der darauf optimiert ist, mit maschinennativen numerischen Typen wie Integers oder Floats zu arbeiten. Die Arrays können dabei eine beliebige Anzahl von Dimensionen aufweisen – allerdings verwendet jedes einen einheitlichen Datentyp (dtype), um die zugrundeliegenden Informationen zu repräsentieren. Ein einfaches Beispiel:

import numpy as np

np.array([0, 1, 2, 3, 4, 5, 6])

Dieser Befehl erzeugt ein eindimensionales NumPy-Array aus der angegebenen Liste von Zahlen. Weil für dieses Array kein dtype spezifiziert wurde, wird automatisch aus den übergebenen Daten gefolgert, dass es sich – je nach Plattform – um eine 32- oder 64-Bit-Ganzzahl mit Vorzeichen handelt. Folgendermaßen würden wir vorgehen, um den dtype explizit anzugeben:

np.array([0, 1, 2, 3, 4, 5, 6], dtype=np.uint32)

Bei np.uint32 handelt es sich um den dtype für eine unsignierte 32-Bit-Integer. Es ist auch möglich, generische Python-Objekte als dtype für ein NumPy-Array zu verwenden. Das führt allerdings im Vergleich zu Python im Allgemeinen, nicht zu einer besser Performance. Am besten funktioniert NumPy mit maschinennativen, numerischen Typen. Diese tragen das Gros zu den Geschwindigkeitsvorteilen von NumPy bei.

Python-Arrays mit NumPy beschleunigen

Mit Arrays zu arbeiten, ohne dabei jedes Element einzeln adressieren zu müssen, ist ein weiteres Speed-förderndes Feature. NumPy-Arrays weisen bezüglich ihres Verhaltens diverse Ähnlichkeiten zu konventionellen Python-Objekten auf. Deshalb ist es verlockend, gängige Pytohn-Metaphern zu nutzen, wenn man mit ihnen arbeitet. Ein NumPy-Array mit den Zahlen 0 bis 1000 zu erstellen, funktioniert theoretisch so:

x = np.array([_ for _ in range(1000)])

Das würde zwar funktionieren, allerdings würde die Performance durch die Zeit geschmälert, die Python benötigt, um die Liste zu erstellen und die, die NumPy braucht, um diese in ein Array umzuwandeln. Wesentlich effizienter funktioniert derselbe Task direkt in NumPy:

x = np.arange(1000)

Um neue Arrays ohne Looping zu erstellen, können Sie viele andere in NumPy integrierte Operationen nutzen – etwa Arrays mit Nullen (oder einem anderen Initialwert), vorhandene Datensätze, Puffer oder andere Quellen.

Wie bereits erwähnt, verhalten sich NumPy-Arrays der Einfachheit halber wie andere Python-Objekte. Sie können zum Beispiel wie Listen indiziert werden – arr[0] greift auf das erste Element eines NumPy-Arrays zu. So können Sie einzelne Elemente in einem Array setzen oder lesen.

Wenn Sie alle Elemente eines Arrays ändern möchten, empfehlen sich die Broadcasting-Funktionen von NumPy, mit denen Sie Operationen über ein ganzes Array oder ein Slice ausführen können – ohne Looping in Python. Auch das lässt sich vollständig in NumPy erledigen:

x1 = np.array(

[np.arange(0, 10),

np.arange(10,20)]

)

Das Ergebnis ist ein zweidimensionales NumPy-Array, wobei jede Dimension aus einem Zahlenbereich besteht. Arrays mit einer beliebigen Anzahl von Dimensionen lassen sich mit Hilfe verschachtelter Listen im Konstruktor erstellen.

[[ 0 1 2 3 4 5 6 7 8 9]

[10 11 12 13 14 15 16 17 18 19]]

Wenn wir die Achsen dieses Arrays in Python transponieren wollten, müssten wir eigentlich eine Art Loop schreiben. NumPy erlaubt allerdings, diese Art von Operation mit nur einem Befehl auszuführen:

x2 = np.transpose(x1)

Der Output:

[[ 0 10]

[ 1 11]

[ 2 12]

[ 3 13]

[ 4 14]

[ 5 15]

[ 6 16]

[ 7 17]

[ 8 18]

[ 9 19]]

Operationen wie diese sind der Schlüssel, um NumPy korrekt zu nutzen. Die Python-Bibliothek bietet einen breitgefächerten Katalog integrierter Routinen, um Array-Daten zu bearbeiten: Eingebaute Routinen für lineare Algebra, diskrete Fourier-Transformationen und Pseudozufallszahlengeneratoren ersparen Ihnen die Mühe, diese Dinge selbst entwickeln zu müssen. In den meisten Fällen können Sie das, was Sie brauchen, mit einem oder mehreren Built-Ins erreichen, ganz ohne Python-Operationen verwenden zu müssen.

Universelle NumPy-Funktionen (ufuncs)

Fortgeschrittene Berechnungen ohne Python-Loops können Sie in NumPy auch über Universal Functions – kurz ufuncs – erledigen. Eine ufunc nimmt ein Array auf, führt eine Rechenoperation für jedes Array-Element durch und sendet die Ergebnisse entweder an ein anderes Array oder führt die Operation an Ort und Stelle aus. Ein Beispiel:

x1 = np.arange(1, 9, 3)

x2 = np.arange(2, 18, 6)

x3 = np.add(x1, x2)

In diesem Beispiel addiert np.add jedes Element von x1 zu x2, wobei die Ergebnisse in einem neu erstellten Array – x3 – gespeichert werden. Das Ergebnis ist [ 3 12 21] – alle Berechnungen werden in NumPy selbst durchgeführt.

Universal Functions verfügen zudem über Attributmethoden, mit denen sie flexibler angewendet werden können. Das reduziert den Bedarf an manuellen Loops und Python-seitiger Logik. Wenn wir np.add verwenden möchten um das Array x1 zu summieren, könnten wir die .add-Methode verwenden (np.add.accumulate(x1)), statt über jedes Element im Array zu loopen.

Ähnlich verhält es sich im Fall einer Reduktionsfunktion, also der Anwendung von .add entlang der Achse eines mehrdimensionalen Arrays, wobei das Ergebnis ein neues Array mit einer Dimension weniger ist. Wir könnten loopen und ein neues Array erstellen, das wäre allerdings langsam. Um das gleiche Ergebnis ohne Loop zu erreichen, verwenden wir np.add.reduce:

x1 = np.array([[0,1,2],[3,4,5]])

# [[0 1 2] [3 4 5]]

x2 = np.add.reduce(x1)

# [3 5 7]

Auch bedingte Reduktionen sind möglich – mit Hilfe des where-Arguments:

x2 = np.add.reduce(x1, where=np.greater(x1, 1))

Das würde – in Fällen, in denen die Elemente in der ersten Achse von x1 größer als 1 sind – x1+x2 zurückgeben. Anderenfalls wird nur der Wert der Elemente in der zweiten Achse zurückgegeben. Das erspart wiederum die manuelle Iteration über das Array in Python. NumPy bietet solche Mechanismen, im Daten nach bestimmten Kriterien zu filtern und zu sortieren, um keine Loops schreiben zu müssen – oder es zumindest auf das Minimum zu reduzieren.

NumPy mit Cython nutzen

Die Cython-Bibliothek ermöglicht Ihnen, Python-Code zu schreiben und ihn zu Beschleunigungszwecken in C zu konvertieren – wobei C-Typen als Variablen verwendet werden. Diese Variablen können auch NumPy-Arrays enthalten. Cython-Code ist also in der Lage, direkt mit NumPy-Arrays zu arbeiten. Cython kann in Kombination mit NumPy einige, leistungsstarke Funktionen realisieren. Zum Beispiel, wenn es darum geht:

Manuelle Loops zu beschleunigen. Manchmal kommen sie nicht darum herum, Loops für NumPy-Arrays zu schreiben. Wenn Sie die Schleifenoperation in ein Cython-Modul schreiben, können Sie diese in C ausführen. Das führt zu erheblichen Geschwindigkeitssteigerungen. Zu beachten ist dabei: Das ist nur möglich, wenn es sich bei den Typen aller fraglicher Variablen entweder um NumPy-Arrays oder maschinennative C-Types handelt.

NumPy-Arrays mit C-Bibliotheken zu verwenden. Ein häufiger Anwendungsfall für Cython ist es, praktische Python-Wrapper für C-Bibliotheken zu schreiben. Dabei kann Cython-Code als Brücke zwischen einer bestehenden C-Bibliothek und NumPy-Arrays fungieren.

Cython bietet zwei Möglichkeiten, mit NumPy-Arrays zu arbeiten: Zum einen über eine Typed Memoryview (Cython-Konstrukt für den schnellen und begrenzungssicheren Zugriff auf ein NumPy-Array). Die andere Möglichkeit: Direkt mit einem Raw Pointer zu arbeiten, der auf die zugrundeliegenden Daten verweist. Diese Methode ist jedoch potenziell unsicher und erfordrt, das Memory Layout des Objekts im Vorfeld zu kennen.

NumPy mit Numba nutzen

Den Python-JIT-Compiler Numba zu verwenden, bietet eine weitere Möglichkeit, Python auf performante Weise mit NumPy-Arrays zu nutzen. Numba übersetzt Python-interpretierten Code in maschinennativen – mit Spezialisierungen für Tools wie NumPy. Loops in Python über NumPy-Arrays lassen sich so automatisch optimieren.

Diese Optimierungen funktionieren jedoch nur bis zu einem gewissen Grad automatisch und führen möglicherweise nicht bei allen Programmen zu drastischen Leistungssteigerungen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist NumPy?​ Weiterlesen »

Skills Training: Verführst Du schon?​

Allgemein

In diesem Artikel geht es nicht darum, Deine moralischen Codes zu brechen. Auch nicht darum, andere zu täuschen oder zu verletzen, um Deinen Willen zu bekommen. Es geht auch nicht darum, Dich von etwas zu überzeugen, das sich für Dich nicht richtig anfühlt. Ich bitte Dich nur, in Dich hineinzuhören und Dich ehrlich zu fragen: Wie würde ich mich als richtige Verführerin fühlen und was könnte ich alles erreichen?Verführung wird regelmäßig mit Negativem und Frivolitäten assoziiert. Und zwar völlig zu Unrecht. Foto: LightField Studios – shutterstock.comDie Etymologie besagt, das Wort Verführung stammt vom lateinischen “seducere” und bedeutet “in die Irre führen”. Wenn wir also an Verführung denken, haben wir folglich viele falsche Vorstellungen. Wir assoziieren sie in der Regel mit etwas Negativem, weil wir es als die weniger ehrliche oder akzeptable Form des Einflusses betrachten. Das Wort wurde so oft sexualisiert, dass wir es uns nicht einmal als eine positive Fähigkeit vorstellen können. Vor allem in der westlichen Kultur ist das Wort ” Verführung ” so verzerrt, dass es meist mit Promiskuität oder Manipulation in Verbindung gebracht wird. Die Gesellschaft lässt Männern mehr Freiheit zu verführen als Frauen, sie werden als cool bezeichnet, während Frauen oft als billig abgestempelt werden. Am Arbeitsplatz ist Verführung sofort mit dem “sich nach oben schlafen” verbunden.“Frauen, die sich gut benehmen, schreiben selten Geschichte”Dieses Zitat von Eleanor Roosevelt bestätigt sich beim Blick in unsere Geschichtsbücher. Die sind gefüllt mit Geschichten von Frauen, die sich im Spiel der Verführung auskennen: Von Adams Eva über Helena von Troja bis hin zu Marilyn Monroe, von Mata Hari bis Mae West und Kleopatra bis Dita Von Teese. All diese Frauen nutz(t)en Verführung als ultimative Form der Macht und Überzeugung. Im 18. Jahrhundert demonstrierten bereits die Geishas ihre weltweit bekannte Art der Verführung – mit Schönheit, Anmut, künstlerischem Talent, Charme, tadelloser Etikette und Raffinesse. Die ersten bekannten, männlichen Verführer der Geschichte, etwa Casanova, begannen die Methoden zu übernehmen, die traditionell von Frauen angewendet werden. Sie lernten, mit ihrem Aussehen zu blenden, fügten aber dem Spiel ein neues, maskulines Element hinzu: die verführerische Sprache. Sie hatten die Schwäche der Frau für die sanfte Sprache entdeckt – Worte sind mächtig und kraftvoll. Casanova lagen die Frauen zur damaligen Zeit zu Füßen. In ihrer dunkelsten Form ist die Verführung eine spezialisierte Art psychologischer und sexueller Überzeugung, die während unserer gesamten Existenz benutzt wurde, um Macht, Geld und Ruhm zu erlangen. In alten Zeiten wurde die Fähigkeit zu verführen aus dem Bedürfnis nach weiblicher Macht geboren. Vor Tausenden von Jahren wurde Macht vor allem durch physische Gewalt erlangt und möglichst brachial aufrechterhalten. Unter diesem System litten insbesondere Frauen. Die einzige Waffe, die ihnen zur Verfügung stand, war der unersättliche Wunsch des Mannes nach Sex. Die Essenz der VerführungIm Kern geht es bei Verführung um Charme, Verbindung, Intelligenz, Verletzlichkeit, Intuition, Stolz, Selbstvertrauen und Anziehungskraft. Heute sind wir an dem ultimativen Punkt in der Entwicklung der Beeinflussung angelangt: Mehr denn je erfordern alle Bereiche des gesellschaftlichen Lebens die Fähigkeit, Menschen auf eine Weise zu überzeugen, die sie nicht beleidigt oder ihnen etwas aufzwingt.Im Rahmen von Medienkampagnen werden verschiedene Formen der Verführung eingesetzt. Sie sind psychologisch entworfen, um Wünsche zu erzeugen. Populäre Marken wie Emirates, Apple und Coca-Cola wecken mit ihren Kampagnen die tiefe Sehnsucht, einen bestimmten Lifestyle zu haben. Sie sind so erfolgreich, weil sie sich mit unseren Emotionen, unserer kreativen Essenz, verbinden. Das eigentliche Produkt steht an zweiter Stelle. Kannst Du Dir vorstellen die Kunst zu beherrschen, die eine wahre Verführerin ausmacht? Das Spiel des Kitzels, des Flirts und der Überzeugung, das besonders in der heutigen Zeit unter einer Übersättigung nackter Körper leidet? Ich möchte Dir zeigen, wie Du die Kunst der Verführung nutzen kannst, um ein Skillset zu erlangen, das Dein Leben bereichert. Die geheime Kraft im sexuellen VerlangenBevor wir mit dem praktischen Teil fortfahren, berichte ich Dir erst einmal wo die Verführung ihren eigentlichen Ursprung hat. Das ist nämlich nichts, was sich die Frauen damals einfach so ausgedacht haben. Es ist etwas, das seit Beginn der Menschheit in uns steckt – die Macht, aus der alles stammt und mit der alles verbunden ist. Eine Macht, der wir uns nicht bewusst sind, die aber in der Wurzel unseres Wesens liegt: unsere sexuelle Energie. Es ist die Essenz der Schöpfung, von der Geburt des ganzen Lebens bis zur Geburt des leidenschaftlichen und künstlerischen Ausdrucks. Seit Jahrhunderten versucht der Mensch, diese Energie in erfüllende Bereiche und höhere Bewusstseinszustände zu kanalisieren. Abgesehen von den sexuellen, tantrischen und taoistischen Energie-Praktiken gibt es unzählige andere Verweise auf die verborgenen Kräfte innerhalb der sexuellen Energie. Die Kabbala zum Beispiel sieht sexuelles Verlangen als den tiefsten spirituellen Ausdruck an, den man haben kann. In der yogischen Philosophie schlummert unsere reine sexuelle Energie, bis sie in ihrer höchsten Form erwacht – bekannt als die “Kundalini”. Mit ausreichendem Willen können wir die rohe Energie unserer Libido in Kreativität verwandeln. Einige berühmte Beispiele für Praktiker dieser Transformation sind beispielsweise Tesla, Gandhi, Beethoven, Thoreau oder Da Vinci. Da unsere sexuelle Energie mit allem was wir tun verbunden ist, solltest Du erkennen, dass die wahre Essenz der Verführung kein Hokuspokus ist, sondern eine natürliche Art des Seins und des Selbstausdrucks. Wie verführerisch fühlst Du Dich? Unser Selbstbild entsteht in sehr jungen Jahren und ist tief von unserer Umwelt beeinflusst. Einige Kulturen loben ihre Kinder von klein auf mehr als andere, um sich selbstbewusst und atemberaubend im eigenen Körper zu fühlen. Sie verstehen, dass dies eine sehr wertvolle Fähigkeit ist, und denken nicht einmal an das Wort Verführung als solches, weil es wie die Nahrungsaufnahme einfach selbstverständlich ist. Wenn wir davon sprechen verführerisch zu sein, führt dies nicht dazu, dass jemand etwas tut, was er nicht tun will. Es geht darum jemanden mit Intelligenz und Witz zu etwas zu verleiten, was er insgeheim durchaus tun will. Alle verführerischen Techniken wegen ihrer Assoziationen pauschal als “schlecht” abzutun, ist so, als würde man sagen: “Geld ist schlecht”. Dabei ist es nicht das Geld, das schlecht ist: Es verleiht uns Macht, die für gute oder schlechte Zwecke verwendet werden kann. Welche Seite die Oberhand gewinnt, hängt davon ab, wer Du bist. Verführung kann auf die gleiche Weise betrachtet werden – es kommt ganz darauf an, wer Du bist und wie Du verführst. Um Zweifel oder Vorurteile zu eliminieren, möchte ich an dieser Stelle klarstellen, dass es dabei nicht um das Aussehen geht. Viele der verführerischsten Frauen ihrer Zeit waren nicht unbedingt die attraktivsten – gemessen an den Schönheitsstandards ihrer Ära. Wie bereits erläutert, ist echte Verführung ein mentaler Prozess, der in erster Linie auf Charisma, Intelligenz und Selbstvertrauen fußt. In 4 Schritten zur VerführungskompetenzBleibt nur die Frage: Wie verwandelst Du die Kunst der Verführung in ein positives Skillset? Mit den folgenden vier Komponenten zapfst Du Deine innere Macht an und festigst diese:Begehren: Alles im Leben hat irgendwo seinen Ursprung. Unsere Sehnsucht, unsere Wünsche, unser Verlangen nach etwas oder jemandem. Alles fängt damit an, dass wir etwas begehren. Wie soll Dein Leben aussehen und bist Du bereit dem auch genauso nachzugehen? Frage Dich selbst: Warum möchte ich dieses Ziel erreichen? Warum wünsche ich mir “dieses” Ding? Was ist meine wahre Motivation? Dein “Warum” ist viel wichtiger als der Wunsch an sich. Wenn Du klare Vorstellungen hast und diese leidenschaftlich verfolgst, dann wird es wesentlich einfacher diese zu erreichen.Selbstvertrauen: Mit Selbstvertrauen versetzt Du Berge. Es gibt Dich nur einmal auf der Welt, und das ist es wert, gefeiert zu werden. Es ist essenziell, dass Du die besonderen Eigenschaften die Dich ausmachen, erkennst und annimmst. Dabei rede ich von Deinen Stärken – und Schwächen. Wenn Du Dir Deiner eigenen Makel bewusst bist, kann Dich niemand niedermachen. Selbstvertrauen ist unerlässlich – und gleichzeitig ist es die Komponente, die Menschen am meisten im Leben zurückhält. Das ist oft auf einen Mangel an Selbstliebe zurückzuführen. Lerne Dich also wirklich zu lieben und umarme die skurrilen und einzigartigen Eigenschaften, die Dich ausmachen. Das schafft Selbstvertrauen und die perfekte Basis, um Deine Rolle als Verführerin anzutreten.Körpersprache: Die Art und Weise wie Du Dich bewegst und Deine Körperhaltung einsetzt, geben so viel mehr Informationen über Dich preis, als es Deine Worte jemals könnten. Da diese Kommunikation unbewusst und automatisch erfolgt, sind wir uns dessen die meiste Zeit nicht bewusst. Wenn Du sie aber clever einzusetzen lernst, arbeitet sie zu Deinem Vorteil.Ein effektiver Tipp: Übe vor dem Spiegel, wenn Du alleine bist. Probiere verschiedene Positionen und Grimassen aus. Fange mit denen an, die Du schon natürlich machst und steigere Dich zu neuen Bewegungen. Schaue Dir selbst in die Augen und flirte mit Dir! Falls Du Dich dabei unwohl fühlst, hast Du Deine erste Blockade erkannt. Am Anfang wirst Du eventuell über Dich selbst lachen, aber mit der Zeit lernst Du Deine Körpersprache gezielt und bewusst einzusetzen. Beobachte auch während Unterhaltungen mit Anderen, wie Dein Körper reagiert, Dein Blick schweift und was Du damit auf nonverbaler Ebene ausdrückst. Wenn Du in der Lage bist Deine Körpersprache zu verstehen und effektiv zu nutzen, wird Deine Fähigkeit andere zu verführen immer besser und immer kontrollierter.Erregung: Um jemanden effektiv zu verführen, muss eine Art der Erregung erfolgen. Das bedeutet im Gegenüber den Wunsch zu erwecken, Dir zu geben was Du willst. Aber zuerst musst Du Dich mit dieser Person verbinden und mit ihr interagieren. Damit Verführung wirklich funktioniert, musst Du Deinem Gegenüber ungeteilte Aufmerksamkeit schenken und jederzeit präsent sein. Große Verkäufer wissen intuitiv, was ein potenzieller Kunde braucht und wie man ihn durch Aufmerksamkeit lockt. Indem diese Menschen präsent und konzentriert sind, entdecken sie, was ihre Kunden wollen. Denke einmal zurück an Deine Kindheit. Als Kinder haben wir diese Kunst automatisch genutzt, um zu bekommen was wir wollen. Selbst Babys weinen intuitiv, um ihre Bedürfnisse der Mutter mitzuteilen. Haben wir nicht sogar manchmal unsere Eltern manipuliert, damit sie uns ein bestimmtes Spielzeug oder Eis kaufen? Der Punkt ist, dass es in unserer Natur liegt, verführerisch und spielend unsere Ziele zu erreichen – ob als Kinder oder Erwachsene, ist dabei irrelevant. Die Werkzeuge bleiben die gleichen, nur die Instrumente verändern sich mit der Zeit. (fm) Gehalt: 5 Verhandlungstipps für FrauenStrategie ist TrumpfZum einen sollten sich Frauen grundsätzlich darauf einstellen, dass überhaupt verhandelt wird. Zum Zweiten geht es um das Konkrete: wie viel „Puffer“ kalkuliert man ein? Mit welchen Argumenten belegt man die eigene Forderung? Solche Fragen muss man vorbereiten.Sich selbst eine gute Spielpartnerin seinWer nicht wirklich von sich selbst überzeugt ist, könnte über den „innerlichen Kritiker“ stolpern. Eine typisch weibliche Schwäche. Frauen sollten sich bewusst machen, was sie schon geschafft haben. Sie können zum Beispiel Zeugnisse oder Auszeichnungen über ihrem Schreibtisch aufhängen oder sich die Mails mit den anerkennenden Worten ihrer Kunden durchlesen. Cool und professionell bleibenEs geht nicht um ein undurchsichtiges Pokerface. Wohl aber um sachliche Distanz. Will das Gegenüber Forderungen herunterhandeln, dann ist das bitte nicht als persönlicher Angriff zu verstehen. Der Verhandlungspartner versucht eben, für sich oder sein Unternehmen einen guten Preis herauszuholen.Pulver nicht zu schnell verschießenFrauen neigen zu der Haltung: Bevor wir hier noch ewig herum verhandeln, gebe ich eben nach – sonst geht ja nie was vorwärts. Sie müssen verstehen, dass die Verhandlung Teil ihrer Arbeit oder ihres Auftrags ist und kein lästiges Beiwerk.Die Verhandlung spielerisch sehenEine spielerische Haltung kann nicht schaden. Frauen können sich die Argumente als Karten vorstellen. Wer wird welchen Spielzug ausführen? Hier gilt das Motto: “Wer nicht wagt, der nicht gewinnt!”Sandra SchubertSandra Schubert versteht sich als Expertin für Verkauf und positive Psychologie. Sie engagiert sich außerdem als Mentorin für ein MINT-Programm an der Fachhochschule Rosenheim (Hochschule für angewandte Wissenschaften). Ihre Beobachtung: “Die jungen Frauen brauchen keine Schutzzäune mehr!”Tanja PetersTanja Peters ist Verhandlungsexpertin, systemische Beraterin und Trainerin. Weil Erfolg nicht nur Kopfsache ist, biete sie auch MUTMuskeltraining an. 

Skills Training: Verführst Du schon?​ In diesem Artikel geht es nicht darum, Deine moralischen Codes zu brechen. Auch nicht darum, andere zu täuschen oder zu verletzen, um Deinen Willen zu bekommen. Es geht auch nicht darum, Dich von etwas zu überzeugen, das sich für Dich nicht richtig anfühlt. Ich bitte Dich nur, in Dich hineinzuhören und Dich ehrlich zu fragen: Wie würde ich mich als richtige Verführerin fühlen und was könnte ich alles erreichen?Verführung wird regelmäßig mit Negativem und Frivolitäten assoziiert. Und zwar völlig zu Unrecht.
Foto: LightField Studios – shutterstock.comDie Etymologie besagt, das Wort Verführung stammt vom lateinischen “seducere” und bedeutet “in die Irre führen”. Wenn wir also an Verführung denken, haben wir folglich viele falsche Vorstellungen. Wir assoziieren sie in der Regel mit etwas Negativem, weil wir es als die weniger ehrliche oder akzeptable Form des Einflusses betrachten. Das Wort wurde so oft sexualisiert, dass wir es uns nicht einmal als eine positive Fähigkeit vorstellen können. Vor allem in der westlichen Kultur ist das Wort ” Verführung ” so verzerrt, dass es meist mit Promiskuität oder Manipulation in Verbindung gebracht wird. Die Gesellschaft lässt Männern mehr Freiheit zu verführen als Frauen, sie werden als cool bezeichnet, während Frauen oft als billig abgestempelt werden. Am Arbeitsplatz ist Verführung sofort mit dem “sich nach oben schlafen” verbunden.“Frauen, die sich gut benehmen, schreiben selten Geschichte”Dieses Zitat von Eleanor Roosevelt bestätigt sich beim Blick in unsere Geschichtsbücher. Die sind gefüllt mit Geschichten von Frauen, die sich im Spiel der Verführung auskennen: Von Adams Eva über Helena von Troja bis hin zu Marilyn Monroe, von Mata Hari bis Mae West und Kleopatra bis Dita Von Teese. All diese Frauen nutz(t)en Verführung als ultimative Form der Macht und Überzeugung. Im 18. Jahrhundert demonstrierten bereits die Geishas ihre weltweit bekannte Art der Verführung – mit Schönheit, Anmut, künstlerischem Talent, Charme, tadelloser Etikette und Raffinesse. Die ersten bekannten, männlichen Verführer der Geschichte, etwa Casanova, begannen die Methoden zu übernehmen, die traditionell von Frauen angewendet werden. Sie lernten, mit ihrem Aussehen zu blenden, fügten aber dem Spiel ein neues, maskulines Element hinzu: die verführerische Sprache. Sie hatten die Schwäche der Frau für die sanfte Sprache entdeckt – Worte sind mächtig und kraftvoll. Casanova lagen die Frauen zur damaligen Zeit zu Füßen. In ihrer dunkelsten Form ist die Verführung eine spezialisierte Art psychologischer und sexueller Überzeugung, die während unserer gesamten Existenz benutzt wurde, um Macht, Geld und Ruhm zu erlangen. In alten Zeiten wurde die Fähigkeit zu verführen aus dem Bedürfnis nach weiblicher Macht geboren. Vor Tausenden von Jahren wurde Macht vor allem durch physische Gewalt erlangt und möglichst brachial aufrechterhalten. Unter diesem System litten insbesondere Frauen. Die einzige Waffe, die ihnen zur Verfügung stand, war der unersättliche Wunsch des Mannes nach Sex. Die Essenz der VerführungIm Kern geht es bei Verführung um Charme, Verbindung, Intelligenz, Verletzlichkeit, Intuition, Stolz, Selbstvertrauen und Anziehungskraft. Heute sind wir an dem ultimativen Punkt in der Entwicklung der Beeinflussung angelangt: Mehr denn je erfordern alle Bereiche des gesellschaftlichen Lebens die Fähigkeit, Menschen auf eine Weise zu überzeugen, die sie nicht beleidigt oder ihnen etwas aufzwingt.Im Rahmen von Medienkampagnen werden verschiedene Formen der Verführung eingesetzt. Sie sind psychologisch entworfen, um Wünsche zu erzeugen. Populäre Marken wie Emirates, Apple und Coca-Cola wecken mit ihren Kampagnen die tiefe Sehnsucht, einen bestimmten Lifestyle zu haben. Sie sind so erfolgreich, weil sie sich mit unseren Emotionen, unserer kreativen Essenz, verbinden. Das eigentliche Produkt steht an zweiter Stelle.

Kannst Du Dir vorstellen die Kunst zu beherrschen, die eine wahre Verführerin ausmacht? Das Spiel des Kitzels, des Flirts und der Überzeugung, das besonders in der heutigen Zeit unter einer Übersättigung nackter Körper leidet? Ich möchte Dir zeigen, wie Du die Kunst der Verführung nutzen kannst, um ein Skillset zu erlangen, das Dein Leben bereichert. Die geheime Kraft im sexuellen VerlangenBevor wir mit dem praktischen Teil fortfahren, berichte ich Dir erst einmal wo die Verführung ihren eigentlichen Ursprung hat. Das ist nämlich nichts, was sich die Frauen damals einfach so ausgedacht haben. Es ist etwas, das seit Beginn der Menschheit in uns steckt – die Macht, aus der alles stammt und mit der alles verbunden ist. Eine Macht, der wir uns nicht bewusst sind, die aber in der Wurzel unseres Wesens liegt: unsere sexuelle Energie. Es ist die Essenz der Schöpfung, von der Geburt des ganzen Lebens bis zur Geburt des leidenschaftlichen und künstlerischen Ausdrucks. Seit Jahrhunderten versucht der Mensch, diese Energie in erfüllende Bereiche und höhere Bewusstseinszustände zu kanalisieren. Abgesehen von den sexuellen, tantrischen und taoistischen Energie-Praktiken gibt es unzählige andere Verweise auf die verborgenen Kräfte innerhalb der sexuellen Energie. Die Kabbala zum Beispiel sieht sexuelles Verlangen als den tiefsten spirituellen Ausdruck an, den man haben kann. In der yogischen Philosophie schlummert unsere reine sexuelle Energie, bis sie in ihrer höchsten Form erwacht – bekannt als die “Kundalini”. Mit ausreichendem Willen können wir die rohe Energie unserer Libido in Kreativität verwandeln. Einige berühmte Beispiele für Praktiker dieser Transformation sind beispielsweise Tesla, Gandhi, Beethoven, Thoreau oder Da Vinci. Da unsere sexuelle Energie mit allem was wir tun verbunden ist, solltest Du erkennen, dass die wahre Essenz der Verführung kein Hokuspokus ist, sondern eine natürliche Art des Seins und des Selbstausdrucks. Wie verführerisch fühlst Du Dich? Unser Selbstbild entsteht in sehr jungen Jahren und ist tief von unserer Umwelt beeinflusst. Einige Kulturen loben ihre Kinder von klein auf mehr als andere, um sich selbstbewusst und atemberaubend im eigenen Körper zu fühlen. Sie verstehen, dass dies eine sehr wertvolle Fähigkeit ist, und denken nicht einmal an das Wort Verführung als solches, weil es wie die Nahrungsaufnahme einfach selbstverständlich ist. Wenn wir davon sprechen verführerisch zu sein, führt dies nicht dazu, dass jemand etwas tut, was er nicht tun will. Es geht darum jemanden mit Intelligenz und Witz zu etwas zu verleiten, was er insgeheim durchaus tun will. Alle verführerischen Techniken wegen ihrer Assoziationen pauschal als “schlecht” abzutun, ist so, als würde man sagen: “Geld ist schlecht”. Dabei ist es nicht das Geld, das schlecht ist: Es verleiht uns Macht, die für gute oder schlechte Zwecke verwendet werden kann. Welche Seite die Oberhand gewinnt, hängt davon ab, wer Du bist. Verführung kann auf die gleiche Weise betrachtet werden – es kommt ganz darauf an, wer Du bist und wie Du verführst. Um Zweifel oder Vorurteile zu eliminieren, möchte ich an dieser Stelle klarstellen, dass es dabei nicht um das Aussehen geht. Viele der verführerischsten Frauen ihrer Zeit waren nicht unbedingt die attraktivsten – gemessen an den Schönheitsstandards ihrer Ära. Wie bereits erläutert, ist echte Verführung ein mentaler Prozess, der in erster Linie auf Charisma, Intelligenz und Selbstvertrauen fußt. In 4 Schritten zur VerführungskompetenzBleibt nur die Frage: Wie verwandelst Du die Kunst der Verführung in ein positives Skillset? Mit den folgenden vier Komponenten zapfst Du Deine innere Macht an und festigst diese:Begehren: Alles im Leben hat irgendwo seinen Ursprung. Unsere Sehnsucht, unsere Wünsche, unser Verlangen nach etwas oder jemandem. Alles fängt damit an, dass wir etwas begehren. Wie soll Dein Leben aussehen und bist Du bereit dem auch genauso nachzugehen? Frage Dich selbst: Warum möchte ich dieses Ziel erreichen? Warum wünsche ich mir “dieses” Ding? Was ist meine wahre Motivation? Dein “Warum” ist viel wichtiger als der Wunsch an sich. Wenn Du klare Vorstellungen hast und diese leidenschaftlich verfolgst, dann wird es wesentlich einfacher diese zu erreichen.Selbstvertrauen: Mit Selbstvertrauen versetzt Du Berge. Es gibt Dich nur einmal auf der Welt, und das ist es wert, gefeiert zu werden. Es ist essenziell, dass Du die besonderen Eigenschaften die Dich ausmachen, erkennst und annimmst. Dabei rede ich von Deinen Stärken – und Schwächen. Wenn Du Dir Deiner eigenen Makel bewusst bist, kann Dich niemand niedermachen. Selbstvertrauen ist unerlässlich – und gleichzeitig ist es die Komponente, die Menschen am meisten im Leben zurückhält. Das ist oft auf einen Mangel an Selbstliebe zurückzuführen. Lerne Dich also wirklich zu lieben und umarme die skurrilen und einzigartigen Eigenschaften, die Dich ausmachen. Das schafft Selbstvertrauen und die perfekte Basis, um Deine Rolle als Verführerin anzutreten.Körpersprache: Die Art und Weise wie Du Dich bewegst und Deine Körperhaltung einsetzt, geben so viel mehr Informationen über Dich preis, als es Deine Worte jemals könnten. Da diese Kommunikation unbewusst und automatisch erfolgt, sind wir uns dessen die meiste Zeit nicht bewusst. Wenn Du sie aber clever einzusetzen lernst, arbeitet sie zu Deinem Vorteil.Ein effektiver Tipp: Übe vor dem Spiegel, wenn Du alleine bist. Probiere verschiedene Positionen und Grimassen aus. Fange mit denen an, die Du schon natürlich machst und steigere Dich zu neuen Bewegungen. Schaue Dir selbst in die Augen und flirte mit Dir! Falls Du Dich dabei unwohl fühlst, hast Du Deine erste Blockade erkannt. Am Anfang wirst Du eventuell über Dich selbst lachen, aber mit der Zeit lernst Du Deine Körpersprache gezielt und bewusst einzusetzen. Beobachte auch während Unterhaltungen mit Anderen, wie Dein Körper reagiert, Dein Blick schweift und was Du damit auf nonverbaler Ebene ausdrückst. Wenn Du in der Lage bist Deine Körpersprache zu verstehen und effektiv zu nutzen, wird Deine Fähigkeit andere zu verführen immer besser und immer kontrollierter.Erregung: Um jemanden effektiv zu verführen, muss eine Art der Erregung erfolgen. Das bedeutet im Gegenüber den Wunsch zu erwecken, Dir zu geben was Du willst. Aber zuerst musst Du Dich mit dieser Person verbinden und mit ihr interagieren. Damit Verführung wirklich funktioniert, musst Du Deinem Gegenüber ungeteilte Aufmerksamkeit schenken und jederzeit präsent sein. Große Verkäufer wissen intuitiv, was ein potenzieller Kunde braucht und wie man ihn durch Aufmerksamkeit lockt. Indem diese Menschen präsent und konzentriert sind, entdecken sie, was ihre Kunden wollen. Denke einmal zurück an Deine Kindheit. Als Kinder haben wir diese Kunst automatisch genutzt, um zu bekommen was wir wollen. Selbst Babys weinen intuitiv, um ihre Bedürfnisse der Mutter mitzuteilen. Haben wir nicht sogar manchmal unsere Eltern manipuliert, damit sie uns ein bestimmtes Spielzeug oder Eis kaufen? Der Punkt ist, dass es in unserer Natur liegt, verführerisch und spielend unsere Ziele zu erreichen – ob als Kinder oder Erwachsene, ist dabei irrelevant. Die Werkzeuge bleiben die gleichen, nur die Instrumente verändern sich mit der Zeit. (fm)

Gehalt: 5 Verhandlungstipps für FrauenStrategie ist TrumpfZum einen sollten sich Frauen grundsätzlich darauf einstellen, dass überhaupt verhandelt wird. Zum Zweiten geht es um das Konkrete: wie viel „Puffer“ kalkuliert man ein? Mit welchen Argumenten belegt man die eigene Forderung? Solche Fragen muss man vorbereiten.Sich selbst eine gute Spielpartnerin seinWer nicht wirklich von sich selbst überzeugt ist, könnte über den „innerlichen Kritiker“ stolpern. Eine typisch weibliche Schwäche. Frauen sollten sich bewusst machen, was sie schon geschafft haben. Sie können zum Beispiel Zeugnisse oder Auszeichnungen über ihrem Schreibtisch aufhängen oder sich die Mails mit den anerkennenden Worten ihrer Kunden durchlesen. Cool und professionell bleibenEs geht nicht um ein undurchsichtiges Pokerface. Wohl aber um sachliche Distanz. Will das Gegenüber Forderungen herunterhandeln, dann ist das bitte nicht als persönlicher Angriff zu verstehen. Der Verhandlungspartner versucht eben, für sich oder sein Unternehmen einen guten Preis herauszuholen.Pulver nicht zu schnell verschießenFrauen neigen zu der Haltung: Bevor wir hier noch ewig herum verhandeln, gebe ich eben nach – sonst geht ja nie was vorwärts. Sie müssen verstehen, dass die Verhandlung Teil ihrer Arbeit oder ihres Auftrags ist und kein lästiges Beiwerk.Die Verhandlung spielerisch sehenEine spielerische Haltung kann nicht schaden. Frauen können sich die Argumente als Karten vorstellen. Wer wird welchen Spielzug ausführen? Hier gilt das Motto: “Wer nicht wagt, der nicht gewinnt!”Sandra SchubertSandra Schubert versteht sich als Expertin für Verkauf und positive Psychologie. Sie engagiert sich außerdem als Mentorin für ein MINT-Programm an der Fachhochschule Rosenheim (Hochschule für angewandte Wissenschaften). Ihre Beobachtung: “Die jungen Frauen brauchen keine Schutzzäune mehr!”Tanja PetersTanja Peters ist Verhandlungsexpertin, systemische Beraterin und Trainerin. Weil Erfolg nicht nur Kopfsache ist, biete sie auch MUTMuskeltraining an.

Skills Training: Verführst Du schon?​ Weiterlesen »

Die 11 größten internen IT-Dienstleister Deutschlands​

Allgemein

Zum vierten Mal hat das Beratungshaus Lünendonk die bedeutendsten internen IT-Dienstleister identifiziert.Gorodenkoff / Shutterstock Um durchschnittlich rund zehn Prozent sind die größten captiven internen IT-Dienstleister deutscher Unternehmen 2024 gewachsen, wobei alle sowohl hinsichtlich des Umsatzes als auch der Zahl der Beschäftigten zugelegt haben. Zu diesem Ergebnis kommt das Lünendonk-Ranking 2025, welches das Beratungsunternehmen zum vierten Mal in Folge veröffentlicht hat. Unter captiven IT-Dienstleistern versteht das Beratungshaus Betriebe, die mehr als 90 Prozent ihrer Umsätze mit IT-Dienstleistungen innerhalb einer Organisation erwirtschaften und rechtlich selbstständige Unternehmen sind. Trotz des leicht verlangsamten Wachstums gegenüber zwölf Prozent im Vorjahr, stehen die internen IT-Dienstleister 2024 damit wesentlich besser da als ihre externen Counterparts. Dort stiegen die Umsätze 2024 im Schnitt um lediglich 2,6 Prozent (2023: 9,4 Prozent). Gründe dafür sind laut Lünendonk die angespannte wirtschaftliche Lage sowie geopolitische Unsicherheiten. Diese Umstände scheinen die Investitionsbereitschaft in Digitalinitiativen jedoch weniger zu hemmen, wenn der Service Provider im eigenen Haus sitzt. Laut Lünendonk geben Unternehmen bei ihren IT-Töchtern schwerpunktmäßig Geld aus, um sich zu datengetriebenen Unternehmen zu wandeln, KI-basierte Anwendungen zu entwickeln und ihre IT zu modernisieren. Zudem beauftragen sie die Dienstleister damit, Prozesse zu automatisieren sowie den Fachkräftemangel und den demografischen Wandel durch digitale Technologien abzufedern. Allianz Technology führt die Top-3 an Mit rund drei Milliarden Euro Umsatz führt die Allianz Technology das aktuelle Lünendonk-Ranking der internen IT-Dienstleister an. Die IT-Tochter des Versicherers beschäftigt etwa 12.000 Personen. Die Sparkassen-Tochter Finanz Informatik (zirka 6.900 Mitarbeitende) belegt 2024 den zweiten Platz mit rund 2,6 Milliarden Euro Umsatz. Komplettiert werden die Top-3 von der Atruvia AG (zirka 10.000 Mitarbeitende), der IT-Tochter der genossenschaftlichen Finanzgruppe Volksbanken Raiffeisenbanken, die im vergangenen Jahr 2,2 Milliarden Euro erwirtschaftete. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?quality=50&strip=all 2236w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=1536%2C863&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=2048%2C1151&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Das Lünendonk-Ranking der internen IT-Dienstleister 2025.Lünendonk & Hossenfelder GmbH ­ Stabiles Mittelfeld Auf den Plätzen abseits des Siegertreppchens verändert sich in der Rangfolge nichts im Vergleich zum Vorjahr. Platz vier belegt die BWI GmbH mit 1,9 Milliarden Euro Umsatz (7.000 Mitarbeitende). Der interne IT-Dienstleister der Bundeswehr verbuchte 2024 ein Umsatzplus von 16 Prozent gegenüber 2023. Darauf folgt die Bahn-Tochter DB Systel, die ebenso viele Menschen beschäftigt, mit einem geschätzten Umsatz von 1,5 Milliarden Euro. Platz sechs mit 1,17 Milliarden Euro Umsatz und 1.640 Beschäftigten nimmt Eon Digital Technologies ein. Knapp unter einer Milliarde Euro erwirtschaftet die Deutsche Post IT Services auf Platz sieben und verbuchte 977 Millionen Euro Umsatz bei etwa 5.600 Mitarbeitenden. Mit einem deutlichen Abstand bei den Einnahmen folgen auf den Plätzen acht bis zehn Bitmarck, der IT-Dienstleister der gesetzlichen Krankenversicherungen, mit einem Umsatz von 440 Millionen Euro (1.900 Mitarbeitende), dmTech vom Drogeriehändler dm mit 288 Millionen Euro Umsatz (1.300 Mitarbeitende) und Salzgitter Digital Solutions mit 113 Millionen Euro Umsatz (536 Mitarbeitende). Neuzugang Bilfinger Global IT komplettiert das Ranking auf Platz elf. Für die IT-Tochter des Industriedienstleisters veranschlagt Lünendonk 43 Millionen Euro Umsatz bei einer Belegschaft von 190 Personen. Keine Flaute in Sicht Für 2025 und 2026 rechnen die internen IT-Dienstleister laut Lünendonk mit einer positiven Umsatzentwicklung. „Insbesondere in den Bereichen IT-Modernisierung, Cloud-Transformation, Data & AI sowie Prozessautomatisierung spüren die captiven IT-Dienstleister eine hohe Nachfrage ihrer internen Kunden“, kommentiert Mario Zillmann, Partner bei Lünendonk, die Ergebnisse 

Die 11 größten internen IT-Dienstleister Deutschlands​ Zum vierten Mal hat das Beratungshaus Lünendonk die bedeutendsten internen IT-Dienstleister identifiziert.Gorodenkoff / Shutterstock

Um durchschnittlich rund zehn Prozent sind die größten captiven internen IT-Dienstleister deutscher Unternehmen 2024 gewachsen, wobei alle sowohl hinsichtlich des Umsatzes als auch der Zahl der Beschäftigten zugelegt haben. Zu diesem Ergebnis kommt das Lünendonk-Ranking 2025, welches das Beratungsunternehmen zum vierten Mal in Folge veröffentlicht hat.

Unter captiven IT-Dienstleistern versteht das Beratungshaus Betriebe, die mehr als 90 Prozent ihrer Umsätze mit IT-Dienstleistungen innerhalb einer Organisation erwirtschaften und rechtlich selbstständige Unternehmen sind.

Trotz des leicht verlangsamten Wachstums gegenüber zwölf Prozent im Vorjahr, stehen die internen IT-Dienstleister 2024 damit wesentlich besser da als ihre externen Counterparts. Dort stiegen die Umsätze 2024 im Schnitt um lediglich 2,6 Prozent (2023: 9,4 Prozent). Gründe dafür sind laut Lünendonk die angespannte wirtschaftliche Lage sowie geopolitische Unsicherheiten. Diese Umstände scheinen die Investitionsbereitschaft in Digitalinitiativen jedoch weniger zu hemmen, wenn der Service Provider im eigenen Haus sitzt.

Laut Lünendonk geben Unternehmen bei ihren IT-Töchtern schwerpunktmäßig Geld aus, um sich zu datengetriebenen Unternehmen zu wandeln, KI-basierte Anwendungen zu entwickeln und ihre IT zu modernisieren. Zudem beauftragen sie die Dienstleister damit, Prozesse zu automatisieren sowie den Fachkräftemangel und den demografischen Wandel durch digitale Technologien abzufedern.

Allianz Technology führt die Top-3 an

Mit rund drei Milliarden Euro Umsatz führt die Allianz Technology das aktuelle Lünendonk-Ranking der internen IT-Dienstleister an. Die IT-Tochter des Versicherers beschäftigt etwa 12.000 Personen.

Die Sparkassen-Tochter Finanz Informatik (zirka 6.900 Mitarbeitende) belegt 2024 den zweiten Platz mit rund 2,6 Milliarden Euro Umsatz. Komplettiert werden die Top-3 von der Atruvia AG (zirka 10.000 Mitarbeitende), der IT-Tochter der genossenschaftlichen Finanzgruppe Volksbanken Raiffeisenbanken, die im vergangenen Jahr 2,2 Milliarden Euro erwirtschaftete.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?quality=50&strip=all 2236w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=1536%2C863&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=2048%2C1151&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Liste.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Das Lünendonk-Ranking der internen IT-Dienstleister 2025.Lünendonk & Hossenfelder GmbH ­

Stabiles Mittelfeld

Auf den Plätzen abseits des Siegertreppchens verändert sich in der Rangfolge nichts im Vergleich zum Vorjahr. Platz vier belegt die BWI GmbH mit 1,9 Milliarden Euro Umsatz (7.000 Mitarbeitende). Der interne IT-Dienstleister der Bundeswehr verbuchte 2024 ein Umsatzplus von 16 Prozent gegenüber 2023. Darauf folgt die Bahn-Tochter DB Systel, die ebenso viele Menschen beschäftigt, mit einem geschätzten Umsatz von 1,5 Milliarden Euro. Platz sechs mit 1,17 Milliarden Euro Umsatz und 1.640 Beschäftigten nimmt Eon Digital Technologies ein.

Knapp unter einer Milliarde Euro erwirtschaftet die Deutsche Post IT Services auf Platz sieben und verbuchte 977 Millionen Euro Umsatz bei etwa 5.600 Mitarbeitenden. Mit einem deutlichen Abstand bei den Einnahmen folgen auf den Plätzen acht bis zehn Bitmarck, der IT-Dienstleister der gesetzlichen Krankenversicherungen, mit einem Umsatz von 440 Millionen Euro (1.900 Mitarbeitende), dmTech vom Drogeriehändler dm mit 288 Millionen Euro Umsatz (1.300 Mitarbeitende) und Salzgitter Digital Solutions mit 113 Millionen Euro Umsatz (536 Mitarbeitende).

Neuzugang Bilfinger Global IT komplettiert das Ranking auf Platz elf. Für die IT-Tochter des Industriedienstleisters veranschlagt Lünendonk 43 Millionen Euro Umsatz bei einer Belegschaft von 190 Personen.

Keine Flaute in Sicht

Für 2025 und 2026 rechnen die internen IT-Dienstleister laut Lünendonk mit einer positiven Umsatzentwicklung. „Insbesondere in den Bereichen IT-Modernisierung, Cloud-Transformation, Data & AI sowie Prozessautomatisierung spüren die captiven IT-Dienstleister eine hohe Nachfrage ihrer internen Kunden“, kommentiert Mario Zillmann, Partner bei Lünendonk, die Ergebnisse

Die 11 größten internen IT-Dienstleister Deutschlands​ Weiterlesen »

7 Gründe, Go zu hassen – oder zu lieben​

Allgemein

Über den Cuteness-Faktor des Golang-“Wappentieres” sind sich alle einig. Geht’s um Go selbst, ist eher Hassliebe angesagt. Foto: eumates | shutterstock.com Im Jahr 2007 wurden einige Softwareentwickler bei Google mit zunehmenden Problemen konfrontiert: Sie mussten Millionen von Codezeilen managen, die fortlaufend Daten für das World Wide Web lieferten und die Aufgabe hatten, weltweit Millionen von Netzwerkverbindungen zu händeln. Eine enorme Herausforderung, bei der die damals etablierten Programmiersprachen keine große Hilfe waren. Im Gegenteil: Ihre zahlreichen Eigenheiten und ihr Fehlerpotenzial waren eher kontraproduktiv. Weil es keine Alternative gab, um die I/O-Aufgaben mit möglichst wenig Code, aber unter optimalen Security-Rahmenbedingungen abzuarbeiten, entschieden sich die Entwickler dafür, “einfach” selbst eine Sprache auf die Beine zu stellen – die Geburtsstunde von Go (auch Golang). Bis heute investiert der Google-Konzern weiter in Golang – was auch daran liegt, dass weite Teile der Infrastruktur des Suchmaschinenriesen auf dieser Grundlage laufen. Darüber hinaus haben sich aber auch viele andere Programmierer der Open-Source-Sprache verschrieben – wie auch ihre Platzierung in der Top 10 des Tiobe-Index zeigt. Dazu haben die Simplizität von Go sowie die Ähnlichkeiten zu C und Java ohne Zweifel beigetragen. Allerdings gehört auch zur Wahrheit, dass diese (und weitere) Features von Go unter Entwicklern nicht unumstritten sind: Was die einen feiern, ist für die anderen eher kein Grund zur Extase. Im Folgenden haben wir sieben Gründe zusammengetragen, warum Go von Softwareentwicklern gleichermaßen gehasst und geliebt wird. Fun gopher animation on the gopher badge using @TinyGolang #golang #gophercon pic.twitter.com/06OHJP8YlE— Justin Zemlyansky (@Th3_t1nk3r3r) July 8, 2024 1. Die Lernkurve Die Entwickler von Go wollten mit voller Absicht eine Programmierspache schaffen, die schnell zu erlernen ist. Deswegen haben sie bei der Entwicklung auch auf übermäßig komplexe Funktionalitäten oder Eigenheiten verzichtet. Stattdessen haben sie sich darauf fokussiert, Go auf das Wesentliche zu reduzieren. Die Gründe, das zu lieben: Unerfahrene Entwickler tun sich beim Einstieg mit Golang deutlich leichter. Weniger Funktionen und Syntax-Konstrukte sorgen für eine flache Lernkurve und einfach zu lesenden Programmcode. Das hat auch für erfahrene Devs Vorteile: Sie können Go innerhalb eines Tages erlernen. Die Gründe, das zu hassen: Simpel ist nicht gleich minderwertig – dennoch beschleicht nicht wenige Programmierer aufgrund der asketischen Funktionen bei der Arbeit mit Go das Gefühl, nicht ihr volles Potenzial entfalten zu können. 2. Die C-basierte Syntax Die Schöpfer von Go sind tief in der Unix-Welt verwurzelt. Und das merkt man auch: Die Syntax dürfte direkt jedem Dev vertraut vorkommen, der schon einmal mit Programmiersprachen gearbeitet hat, die von C abgeleitet sind – etwa Java oder C#. Zwar haben die Verantwortlichen im Vergleich zu traditionellem C einige Details angepasst, um Go einen moderneren Look zu verleihen – dennoch sind die Ursprünge unübersehbar. Die Gründe, das zu lieben: Alle Devs, die mit dem C-Stil “groß geworden” sind, dürfte der Umgang mit Golang und seiner Syntax intuitiv von der Hand gehen. Die Gründe, das zu hassen: Jeder Entwickler, der den Ansatz von Python vorzieht, wird an Golang diverse Dinge auszusetzen haben: Es gibt keine Möglichkeit, Codeblöcke abzugrenzen und die Typisierung ist bewusst dynamisch gehalten. Aus dieser Perspektive fühlt sich Programmieren wie Go eher wie ein Rückschritt an. 3. Das Regelwerk Die Macher von Go wollten jedoch nicht nur die Syntax, sondern auch den Stil und die Usage Patterns der Programmiersprache definieren. Deshalb entschieden sie sich (zum Beispiel) dafür, eine Standard-Bibliothek für Formatierungen zu entwickeln. Zudem verbannten sie auch einige verpönte Eigenschaften anderer Sprachen, etwa ungenutzte Variablen oder zyklische Abhängigkeiten. Wann immer diese Elemente in der Go-Codebasis auftauchen, kommt der Build-Prozess programmatisch bedingt zum Erliegen. Die Gründe, das zu lieben: Die stark idiomatischen Regeln von Go sorgen dafür, dass der Code leichter zu verstehen ist. Das eliminiert potenzielle Konfliktherde, weil es weniger Optionen und gute Gründe dafür gibt, seinen eigenen Programmierstil einzubringen. Die Gründe, das zu hassen: All die zusätzlichen Regeln und Konventionen können sich für manche Entwickler wie ein Korsett anfühlen, das ihnen die Freiheit raubt. 4. Die Error-Handling-Extrawurst Ein wesentlicher Teil der modernen Entwicklungsarbeit besteht darin, zusätzliche Code-Pfade zu schaffen falls Fehler auftreten. Diesbezüglich verfolgt Go einen anderen Ansatz: Es ermöglicht Entwicklern, beide Pfade in dieselbe Funktion zu schreiben – also mit ihrem Code sowohl das normale Prozedere, als auch das im Fall eines Fehlers zu beschreiben. Es existiert deshalb auch ein eigenes Type-System für Fehler, das es Devs erlaubt, spezifische Fehlertypen zu erstellen und anschließend festzulegen, wie diese behandelt werden sollen. Die Gründe, das zu lieben: Der Golang-Ansatz erkennt die Existenz von Fehlern an und ermutigt Programmierer, einen Plan dafür zu machen, wenn diese behandelt werden müssen. Das wiederum kann im Ergebnis zu widerstandsfähigerer und damit qualitativ hochwertigerer Software führen. Die Gründe, das zu hassen: Unnötiges Error Handling kann Go-Funktionen schwerfälliger und komplexer gestalten. Oft muss jede Funktion in einer Deep Chain ähnlichen Code enthalten, der mehr oder weniger das Gleiche mit dem gleichen Fehler macht. Andere Sprachen wie Java oder Python sehen vor, Fehler in einem spezifischen Block zu sammeln, der diese “abfängt”. Das kann saubererem Code zuträglich sein. 5. Die Standardbibliothek Nicht nur die Syntax von Golang ist darauf konzipiert, einen einfachen, aber leistungsfähigen Standard zu liefern, der Entwicklungsteams zusammenführt. Die Standardbibliothek der Programmiersprache bietet Support für die meisten wichtigsten Tasks, die im Bereich webbasierter Microservices relevant werden. Die Input- und Output-Routinen händeln auf niedriger Ebene Netzwerkpakete und bewältigen zudem auch komplexere Aufgaben, etwa wenn es um HTTPS-Protokolle oder JSON-Daten geht, die dekodiert werden müssen. Um einen vollständigen Webserver einzurichten, sind nur wenige Codezeilen erforderlich – weil alles im “net/http“-Part der Bibliothek enthalten ist. Die Gründe, das zu lieben: Wenn die meisten Standardfunktionen von der Default-Bibliothek übernommen werden, sorgt das für einfacher zu lesenden Code, weil keine eigenen Versionen geschrieben werden oder Diskussionen über Packages und Drittanbieter-Bibliotheken entstehen. Die Gründe, das zu hassen: Es gibt Entwickler, die den Wettbewerb unter Entwicklern als Indikator für Innovation betrachten. Für sie stellen mehrere Packages, die denselben Task unterstützen, ein Feature einer reichhaltigen Kultur dar. 6. Das Executable Eine weitere Zielsetzung des Go-Teams bestand darin, es möglichst unkompliziert zu gestalten, Go-Programme bereitzustellen. Das realisierten die Verantwortlichen, indem sie sämtliche Komponenten in einer Executable bündelten: Alle Bibliotheksroutinen von Go sind im Standard-Build inkludiert. Die Gründe, das zu lieben: Speicherplatz ist billig und Code auszuführen kann zum Albtraum geraten, wenn verschiedene Versionen von Bibliotheken installiert sind. Insofern kann eine Executable viel Zeit sparen. Die Gründe, das zu hassen: Mit der Zahl der Go-Pogramme steigt auch die Zahl der Kopien der Bibliotheken. Ab einem gewissen Punkt darf man dann auch an der Effizienz zweifeln: Speicherplatz ist zwar günstig, aber Memory-Bandbreite und Caching die wichtigsten Faktoren in Sachen Ausführungsgeschwindigkeit. 7. Der Einfluss von Google Wie eingangs bereits erwähnt, ist Google nach wie vor der maßgebliche Kontributor für Go – und liefert beispielsweise auch den Compiler und das Gros der Toolchain. Darüber hinaus gibt es zwar weitere Projekte, die Support für Go bieten. Beispielsweise der Transpiler GopherJS, der Go in JavaScript umwandelt. Der wesentliche Teil der Go-Entwicklungsarbeit wird aber von Google geleistet. Die Gründe, das zu lieben: Ein großer Teil der Dev-Arbeit besteht heute darin, Code für Server-Client-Konstellationen zu schreiben, die auch bei Google einen ganz wesentlichen Teil der Workloads ausmachen. Und was für einen Konzern wie Alphabet gut funktioniert, sollte auch für alle anderen, die mit denselben Herausforderungen kämpfen, eine gute Lösung darstellen. Die Gründe, das zu hassen: Zentralisierte Autoritätsinstanzen sind unter Entwicklern nicht unbedingt beliebt. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

7 Gründe, Go zu hassen – oder zu lieben​ Über den Cuteness-Faktor des Golang-“Wappentieres” sind sich alle einig. Geht’s um Go selbst, ist eher Hassliebe angesagt.
Foto: eumates | shutterstock.com

Im Jahr 2007 wurden einige Softwareentwickler bei Google mit zunehmenden Problemen konfrontiert: Sie mussten Millionen von Codezeilen managen, die fortlaufend Daten für das World Wide Web lieferten und die Aufgabe hatten, weltweit Millionen von Netzwerkverbindungen zu händeln. Eine enorme Herausforderung, bei der die damals etablierten Programmiersprachen keine große Hilfe waren. Im Gegenteil: Ihre zahlreichen Eigenheiten und ihr Fehlerpotenzial waren eher kontraproduktiv. Weil es keine Alternative gab, um die I/O-Aufgaben mit möglichst wenig Code, aber unter optimalen Security-Rahmenbedingungen abzuarbeiten, entschieden sich die Entwickler dafür, “einfach” selbst eine Sprache auf die Beine zu stellen – die Geburtsstunde von Go (auch Golang).

Bis heute investiert der Google-Konzern weiter in Golang – was auch daran liegt, dass weite Teile der Infrastruktur des Suchmaschinenriesen auf dieser Grundlage laufen. Darüber hinaus haben sich aber auch viele andere Programmierer der Open-Source-Sprache verschrieben – wie auch ihre Platzierung in der Top 10 des Tiobe-Index zeigt. Dazu haben die Simplizität von Go sowie die Ähnlichkeiten zu C und Java ohne Zweifel beigetragen. Allerdings gehört auch zur Wahrheit, dass diese (und weitere) Features von Go unter Entwicklern nicht unumstritten sind: Was die einen feiern, ist für die anderen eher kein Grund zur Extase. Im Folgenden haben wir sieben Gründe zusammengetragen, warum Go von Softwareentwicklern gleichermaßen gehasst und geliebt wird.

Fun gopher animation on the gopher badge using @TinyGolang #golang #gophercon pic.twitter.com/06OHJP8YlE— Justin Zemlyansky (@Th3_t1nk3r3r) July 8, 2024

1. Die Lernkurve

Die Entwickler von Go wollten mit voller Absicht eine Programmierspache schaffen, die schnell zu erlernen ist. Deswegen haben sie bei der Entwicklung auch auf übermäßig komplexe Funktionalitäten oder Eigenheiten verzichtet. Stattdessen haben sie sich darauf fokussiert, Go auf das Wesentliche zu reduzieren.

Die Gründe, das zu lieben: Unerfahrene Entwickler tun sich beim Einstieg mit Golang deutlich leichter. Weniger Funktionen und Syntax-Konstrukte sorgen für eine flache Lernkurve und einfach zu lesenden Programmcode. Das hat auch für erfahrene Devs Vorteile: Sie können Go innerhalb eines Tages erlernen.

Die Gründe, das zu hassen: Simpel ist nicht gleich minderwertig – dennoch beschleicht nicht wenige Programmierer aufgrund der asketischen Funktionen bei der Arbeit mit Go das Gefühl, nicht ihr volles Potenzial entfalten zu können.

2. Die C-basierte Syntax

Die Schöpfer von Go sind tief in der Unix-Welt verwurzelt. Und das merkt man auch: Die Syntax dürfte direkt jedem Dev vertraut vorkommen, der schon einmal mit Programmiersprachen gearbeitet hat, die von C abgeleitet sind – etwa Java oder C#. Zwar haben die Verantwortlichen im Vergleich zu traditionellem C einige Details angepasst, um Go einen moderneren Look zu verleihen – dennoch sind die Ursprünge unübersehbar.

Die Gründe, das zu lieben: Alle Devs, die mit dem C-Stil “groß geworden” sind, dürfte der Umgang mit Golang und seiner Syntax intuitiv von der Hand gehen.

Die Gründe, das zu hassen: Jeder Entwickler, der den Ansatz von Python vorzieht, wird an Golang diverse Dinge auszusetzen haben: Es gibt keine Möglichkeit, Codeblöcke abzugrenzen und die Typisierung ist bewusst dynamisch gehalten. Aus dieser Perspektive fühlt sich Programmieren wie Go eher wie ein Rückschritt an.

3. Das Regelwerk

Die Macher von Go wollten jedoch nicht nur die Syntax, sondern auch den Stil und die Usage Patterns der Programmiersprache definieren. Deshalb entschieden sie sich (zum Beispiel) dafür, eine Standard-Bibliothek für Formatierungen zu entwickeln. Zudem verbannten sie auch einige verpönte Eigenschaften anderer Sprachen, etwa ungenutzte Variablen oder zyklische Abhängigkeiten. Wann immer diese Elemente in der Go-Codebasis auftauchen, kommt der Build-Prozess programmatisch bedingt zum Erliegen.

Die Gründe, das zu lieben: Die stark idiomatischen Regeln von Go sorgen dafür, dass der Code leichter zu verstehen ist. Das eliminiert potenzielle Konfliktherde, weil es weniger Optionen und gute Gründe dafür gibt, seinen eigenen Programmierstil einzubringen.

Die Gründe, das zu hassen: All die zusätzlichen Regeln und Konventionen können sich für manche Entwickler wie ein Korsett anfühlen, das ihnen die Freiheit raubt.

4. Die Error-Handling-Extrawurst

Ein wesentlicher Teil der modernen Entwicklungsarbeit besteht darin, zusätzliche Code-Pfade zu schaffen falls Fehler auftreten. Diesbezüglich verfolgt Go einen anderen Ansatz: Es ermöglicht Entwicklern, beide Pfade in dieselbe Funktion zu schreiben – also mit ihrem Code sowohl das normale Prozedere, als auch das im Fall eines Fehlers zu beschreiben. Es existiert deshalb auch ein eigenes Type-System für Fehler, das es Devs erlaubt, spezifische Fehlertypen zu erstellen und anschließend festzulegen, wie diese behandelt werden sollen.

Die Gründe, das zu lieben: Der Golang-Ansatz erkennt die Existenz von Fehlern an und ermutigt Programmierer, einen Plan dafür zu machen, wenn diese behandelt werden müssen. Das wiederum kann im Ergebnis zu widerstandsfähigerer und damit qualitativ hochwertigerer Software führen.

Die Gründe, das zu hassen: Unnötiges Error Handling kann Go-Funktionen schwerfälliger und komplexer gestalten. Oft muss jede Funktion in einer Deep Chain ähnlichen Code enthalten, der mehr oder weniger das Gleiche mit dem gleichen Fehler macht. Andere Sprachen wie Java oder Python sehen vor, Fehler in einem spezifischen Block zu sammeln, der diese “abfängt”. Das kann saubererem Code zuträglich sein.

5. Die Standardbibliothek

Nicht nur die Syntax von Golang ist darauf konzipiert, einen einfachen, aber leistungsfähigen Standard zu liefern, der Entwicklungsteams zusammenführt. Die Standardbibliothek der Programmiersprache bietet Support für die meisten wichtigsten Tasks, die im Bereich webbasierter Microservices relevant werden. Die Input- und Output-Routinen händeln auf niedriger Ebene Netzwerkpakete und bewältigen zudem auch komplexere Aufgaben, etwa wenn es um HTTPS-Protokolle oder JSON-Daten geht, die dekodiert werden müssen. Um einen vollständigen Webserver einzurichten, sind nur wenige Codezeilen erforderlich – weil alles im “net/http“-Part der Bibliothek enthalten ist.

Die Gründe, das zu lieben: Wenn die meisten Standardfunktionen von der Default-Bibliothek übernommen werden, sorgt das für einfacher zu lesenden Code, weil keine eigenen Versionen geschrieben werden oder Diskussionen über Packages und Drittanbieter-Bibliotheken entstehen.

Die Gründe, das zu hassen: Es gibt Entwickler, die den Wettbewerb unter Entwicklern als Indikator für Innovation betrachten. Für sie stellen mehrere Packages, die denselben Task unterstützen, ein Feature einer reichhaltigen Kultur dar.

6. Das Executable

Eine weitere Zielsetzung des Go-Teams bestand darin, es möglichst unkompliziert zu gestalten, Go-Programme bereitzustellen. Das realisierten die Verantwortlichen, indem sie sämtliche Komponenten in einer Executable bündelten: Alle Bibliotheksroutinen von Go sind im Standard-Build inkludiert.

Die Gründe, das zu lieben: Speicherplatz ist billig und Code auszuführen kann zum Albtraum geraten, wenn verschiedene Versionen von Bibliotheken installiert sind. Insofern kann eine Executable viel Zeit sparen.

Die Gründe, das zu hassen: Mit der Zahl der Go-Pogramme steigt auch die Zahl der Kopien der Bibliotheken. Ab einem gewissen Punkt darf man dann auch an der Effizienz zweifeln: Speicherplatz ist zwar günstig, aber Memory-Bandbreite und Caching die wichtigsten Faktoren in Sachen Ausführungsgeschwindigkeit.

7. Der Einfluss von Google

Wie eingangs bereits erwähnt, ist Google nach wie vor der maßgebliche Kontributor für Go – und liefert beispielsweise auch den Compiler und das Gros der Toolchain. Darüber hinaus gibt es zwar weitere Projekte, die Support für Go bieten. Beispielsweise der Transpiler GopherJS, der Go in JavaScript umwandelt. Der wesentliche Teil der Go-Entwicklungsarbeit wird aber von Google geleistet.

Die Gründe, das zu lieben: Ein großer Teil der Dev-Arbeit besteht heute darin, Code für Server-Client-Konstellationen zu schreiben, die auch bei Google einen ganz wesentlichen Teil der Workloads ausmachen. Und was für einen Konzern wie Alphabet gut funktioniert, sollte auch für alle anderen, die mit denselben Herausforderungen kämpfen, eine gute Lösung darstellen.

Die Gründe, das zu hassen: Zentralisierte Autoritätsinstanzen sind unter Entwicklern nicht unbedingt beliebt. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

7 Gründe, Go zu hassen – oder zu lieben​ Weiterlesen »

Knigge-Tipps nicht nur für Freiberufler: Wie Sie beim Kunden punkten​

Allgemein

Wie sich Gründer und Freiberufler sicher auf dem Geschäftsparkett bewegen, lesen Sie hier. Foto: FotolEdhar – Fotolia.comDas Unternehmen ist gegründet, nun wird es ernst: Aufträge müssen akquiriert, Kunden überzeugt werden. Wer jetzt denkt, dass nur Produkte oder Dienstleistungen den Ausschlag geben, der täuscht. Denn es geht darum, das Vertrauen von Menschen zu gewinnen – mit Souveränität und Sympathie. Was Freiberufler und Gründer tun können, um souverän aufzutreten, haben die Expertinnen Anke Quittschau und Christina Tabernig von der Benimmagentur Korrekt! zusammengestellt: 1. Der erste Eindruck … … dauert nur wenige Sekunden. Nutzen Sie die Chance und präsentieren Sie sich offen, freundlich und wertschätzend gekleidet. Bei einem schlecht gekleideten Muffel kauft keiner gerne, da können Sie noch so kompetent sein. (Mehr zum Thema: “Dresscodes – Was ist Business casual?”) 2. Ladies first? Die Begrüßung erfolgt nach der Reihenfolge: Bekannt grüßt Bekannt und stellt dann Unbekannt vor. “Ladies first” funktioniert also nur, wenn Sie die Dame vorher kannten. Ihr Händedruck sollte fest, trocken und mit Blickkontakt erfolgen. 3. Darf ich bekannt machen … Beim Vorstellen von Personen handeln Sie immer nach der Regel: Die ranghöhere Person erfährt zuerst, wer die unbekannte Person ist. Wenn Sie also mit einem neuen Kollegen zum Kunden gehen, stellen Sie dem Kunden Ihren Kollegen vor. Ihr Kunde ist immer die ranghöhere Person. 4. Hier meine Visitenkarte Die Visitenkarte wird zu Beginn einer Begegnung ausgetauscht. Das ist einfach zu merken, denn die Visitenkarte kündigte ursprünglich eine Visite an. Der Ranghöchste in der Runde erhält Ihre Karte zuerst. Der Gast gibt als erster seine Karte. Ihre Visitenkarte sollte seriös vom Grafiker gestaltet und in sauberen Zustand sein, denn schließlich übergeben Sie Ihr “Gesicht” damit. Ebenso sollte auch Ihre E-Mailadresse professionell aufgebaut sein, spaßige Spitznamen sind hier fehl am Platz. (Mehr zum Thema: “Die Visitenkarte ist Ihr Gesicht“.) 5. Titel, Titel, Titel Die korrekte Anrede eines Geschäftspartners ist von großer wertschätzender Bedeutung. Sprechen Sie die Inhaber von Doktortiteln auch damit an. Der Glaube, Herr Dr. Klaus Müller hat sich ohne Titel vorgestellt, dann darf man ihn auch weglassen, ist falsch. Es gehört zum vornehmen Understatement, dass die Inhaber von Titeln auf diesen bei der eigenen Vorstellung verzichten. Treffen Sie auf Herrn Prof. Dr. Meier, wird nur der höchste Grad genannt. Also lautet die Anrede: “Guten Tag, Herr Professor Meier.” 6. Die passende Kleidung Das perfekte Business-Outfit sollte zu Ihrer Aussage als Unternehmer passen. Sowohl das Produkt als auch die Person, die Sie vertreten sollte sich in der Kleidung widerspiegeln. Kleidung sollte passen: zum Anlass und zur Figur! Oft ist eine Investition in die Kleidung auch eine Investition in Ihren Erfolg. Denken Sie also bei der Kleidung, die Sie tragen, an Qualität und einen guten Sitz. Vermeiden Sie als Mann einen schwarzen Anzug zum Erstkontakt, da dies als sehr autoritär, würdevoll und fast unnahbar wahrgenommen wird. Das wäre nicht zielführend für Ihre erste Kontaktaufnahme. 7. Nicht zu früh und nicht zu spät Fauxpas wie Unpünktlichkeit oder Unzuverlässigkeit werden von manchen Geschäftspartnern hart bestraft – zu Recht. Ein Verspäten ist manchmal nicht zu verhindern, sollte jedoch vorher angekündigt werden. Also VOR dem vereinbarten Termin anrufen, nicht fünf Minuten danach, wenn schon alle im Besprechungsraum warten. Übrigens ist es genauso unhöflich, eine halbe Stunde zu früh zu erscheinen. Wenn Sie eine Aussage wie “Ich schicke Ihnen das Angebot morgen zu” treffen, dann halten Sie sich auch daran. Oder Sie verschaffen sich gleich etwas Luft, indem Sie den Kunden fragen “Bis wann brauchen Sie denn das Angebot?” 8. Absagen nicht vergessen Übrigens: Wenn Sie Angebote von verschiedenen Dienstleistern angefordert und sich für einen Anbieter entschieden haben, sollten sie den anderen absagen.Das gebietet die Höflichkeit und ist guter Stil. 9. Nichts geht ohne Small Talk Small Talk ist gerade für Freiberufler sehr wichtig. Da Sie oftmals allein agieren, sind Sie selbst Ihr eigenes Marketing. Sprich: Sie müssen durch Ihre Persönlichkeit, Sympathie und Ihr Fachwissen überzeugen. Small Talk öffnet Ihnen die Türen zum Kunden, indem Sie eine persönliche Bindung durch das kleine Gespräch am Rande aufbauen. Merken Sie sich, was Sie mit Ihrem Kunden gesprochen haben, um es dann beim nächsten Gespräch beiläufig wieder fallen zu lassen. Sie können sich auf Ihren Small Talk mit Kunden vorbereiten. Surfen Sie durch das Netz und durchstöbern Sie die Profile Ihrer Kunden. Das ein oder andere Stichwort lässt sich dann in der Unterhaltung gut unterbringen, um daraus ein kleines Gespräch zu entwickeln. Sie sind der beste Small Talker, wenn Sie den Kunden zum Reden bringen und ihm aktiv zuhören. 10. Gute Manieren am Telefon Geschäftliche Telefonate fangen mit dem Klingelton und Ihrer Begrüßungsformel an und enden mit der Ansage auf Ihrer Mailbox. Richten Sie einen seriösen Klingelton ein und verzichten Sie auf James-Bond-Melodien. Melden Sie sich mit Tagesgruß, Vor- und Nachnamen, damit der Anrufer hört, wo er angekommen ist. Bleiben Sie freundlich, verbindlich und lösungsorientiert im Telefonat. Fassen Sie Gesagtes am Ende des Gespräch noch Mal zusammen. Lächeln Sie – denn auch das kann der Anrufer am anderen Ende “hören”. Vermeiden Sie vor allem Killerphrasen wie: “Wie war noch Mal Ihr Name?” die bessere Variante wäre: “Können Sie mir Ihren Namen noch einmal nennen, ich habe Sie nicht richtig verstanden.” Oder einfach: “Wie ist Ihr Name?” Wenn Sie einmal nicht verfügbar sind und Ihr Anrufer auf der Mailbox landet, sollten Sie mehr als nur die Telefonnummer – womöglich auch noch automatisch – ansagen. Zumindest Vor- und Nachname sollte der Anrufer hören, damit er weiß, dass er die richtige Mailbox erreicht hat. Anrufe sollten auch zeitnah, also möglichst am selben Tag beantwortet werden. Eventuell ist auch eine Antwort per Mail möglich, da Sie auf die Anfrage gleich ein Angebot verschicken. Wenn Sie an einer Telefonkonferenz mit Ihrem Handy teilnehmen und Sie keinen Beitrag abgeben, sollte Ihr Telefon auf “stumm” geschaltet sein. Es ist sehr störend die Nebengeräusche der Teilnehmer beim Einkaufen, Autofahren oder beim Kaffeetrinken zu hören.11. Briefe und E-Mails richtig verfassen Sehr häufig vermitteln Sie einen ersten Eindruck durch Ihre Korrespondenz. Heute eher durch eine E-Mail als durch einen Brief. Für beide Medien gilt: Rechtschreibung ist einzuhalten. Sinnvolle Absätze sind hilfreich für den Leser: Je kürzer der erste Absatz ist – im Brief bis zu sieben Zeilen in der E-Mail maximal fünf Zeilen – desto lieber ist der Leser bereit in Ihren Text einzusteigen. Briefe sollten möglichst einseitig sein, eine E-Mail möglichst kurz gehalten werden. Lange Texte und Erklärungen zum Produkt oder Angebot werden als Anhang versendet und im Text nur kurz erwähnt. Sowohl im Brief als auch in der E-Mail verzichten Sie auf Emoticons. Smileys haben nichts in der Geschäftskorrespondenz zu suchen. Sie können sich so klar ausdrücken, dass solche Hilfsmittel unnötig sind. Bedenken Sie, dass Sie ein Anrede und Verabschiedung haben. Diese darf gerne anders klingen als über 90 Prozent der Korrespondenz, die sonst verschickt wird. Wie wäre mit “Guten Tag, Herr Dr. Huber” (statt “Sehr geehrter Herr Dr. Huber”) oder mit “Freundliche Grüße” (statt “Mit freundlichen Grüßen”)? Oft machen so kleine Dinge den Unterschied. Was Brief- oder E-Mail-Leser immer lesen ist die P.S.-Zeile. Nutzen Sie diese ruhig für Ihr eigenes Marketing. Sie haben neue Services oder Produkte oder eine Auszeichnung erhalten? Diese Information in der P.S.-Zeile verpackt, aber nicht länger als zwei Zeilen, wird vom Empfänger gelesen. Probieren Sie es aus. Verschicken Sie zu Weihnachten persönliche Karten an Ihre Kunden? Eine handschriftliche Anrede und eine leserliche Verabschiedung neben dem gedruckten Text sind das Mininum. Der ein oder andere Kunde darf auch gerne ein paar persönliche Worte von Ihnen erhalten. Denken Sie einfach immer daran, was Sie selbst mit einer Karte machen, die Sie erhalten, und von der Sie nicht wissen, wer sie verfasst hat. 12. Besprechungen mit Stil Gerade in Besprechungen mit dem Kunden können Sie Stil beweisen. Führt eine Sekretärin Sie in den Besprechungsraum beim Kunden und bittet Sie, Platz zu nehmen, verzichten Sie besser darauf. Oder kennen Sie den Lieblingsplatz des Gastgebers? Wird eine längere Wartezeit angekündigt, fragen Sie sicherheitshalber nach: “Wo sitzt denn Ihr Chef normalerweise?” Getränke muss der Gastgeber einmal anbieten, danach darf man sich selbst bedienen. (Mehr zum Thema: “So punkten Sie im Meeting“.) 13. Mit dem Kunden essen Geschäftsessen mit Kunden sind ein “soziales Lagerfeuer” sagen Soziologen. Die Zeit für ein gemeinsames Essen zu finden, ist immer schwieriger geworden, doch es lohnt sich. Denn bei Tisch geht es nicht um pure Nahrungsaufnahme, sondern vielmehr um den sozialen Austausch mit den Geschäftspartnern. Auch wenn wir Omas Tischregeln teilweise in schlimmer Erinnerung haben, halten Sie sich daran: Die Serviette gehört auf den Schoß, sobald das Essen gebracht wird. Brot wird gebrochen und als Beilage zur Vorspeise gegessen, die Hauptspeise hat ihre eigenen “Sättigungsbeilagen” wie Kartoffeln, Nudeln oder Reis. Die Arme oder Ellenbogen gehören nicht auf den Tisch. Hände maximal bis zum Handknöchel auflegen. Mit vollem Mund spricht man nicht. Das gilt als Standard an Manieren, die man beherrschen sollte. Dazu gehört auch, nicht mit offenem Mund zu kauen. Wenn Ihr Gegenüber spricht, legen auch Sie Messer und Gabel kurz ab. Als guter Gastgeber informiert man seine Gäste – mit einer Empfehlung – über die Anzahl der Gänge und Preisgefüge. Der dezente Hinweis, für welche Vorspeise und welchen Hauptgang Sie sich entscheiden, hilft einem Gast bereits bei seiner Menüwahl. Sind Sie bei der Weinauswahl unsicher, lassen Sie sich vom Kellner etwas empfehlen. Christina Tabernig (links) und Antje Quittschau von korrekt! kennen sich aus in Sachen Business-Etikette.Wer sich noch mehr Sicherheit im Umgang mit Kunden und Geschäftspartnern wünscht, findet unter www.korrekt.de weitere Informationen. Als weiterführende Lektüre bietet sich auch “Die 100 wichtigsten Benimmregeln” von Quittschau und Tabernig, erschienen als Taschenguide bei Haufe, an. Die häufigsten Kleidungsfehler von MännernFarben und MusterEin kariertes Sakko mit Pünktchen-Hemd? Very stylish – wenn Sie in der Modebranche arbeiten. Merken Sie sich in puncto Farben und Muster: “weniger ist mehr”. Eine weitere Faustregel lautet: das Muster der Krawatte sollte stärker sein als das des Hemdes.Das SakkoHier hat sich jemand redlich bemüht, immerhin hat der Herr ein Sakko angezogen. Die schlechte Nachricht ist jedoch: Das T-Shirt geht gar nicht! Ein Hemd wäre hier angebrachter. Übrigens: Jeans und Sakko gelten nicht als “Business casual”. Dann lieber zur Cordhose greifen.Im Stehen …… sollte das Sakko NIE offen sein. Die ÄrmellängeWo wir schon beim Sakko sind: Die Ärmel sollten nicht länger als Hemdsärmel sein. Achten Sie darauf, dass die Ärmel des Hemdes immer ein bis zwei Zentimeter länger sind als die des Sakkos.Die HemdtascheSind Sie Handwerker? Oder warum stopfen Sie sich die Hemdtasche so voll? Die Hemdtasche ist reine Zierde und sollte nicht benutzt werden. Weder der persönliche Stift noch das dicke Handy oder die Zigarettenschachtel gehören hier hinein.Die ArmbanduhrAchten Sie auf Ihre Wirkung: Eine teure Markenuhr kann zwar ein schönes Smalltalk-Thema sein, aber eben nur “kann”. Dafür sollte man den Gesprächspartner und seine Interessen gut kennen. Die Uhr kann (genau wie bestimmte Autos) auch Neid auslösen. Beim Erstkontakt also am besten eine dezente Variante wählen.Das UhrenarmbandGummiarmbänder mögen modisch sein, sind aber im Business-Umfeld nicht angebracht. Greifen Sie lieber zum klassischen Lederarmband. Merke: An den Uhren sollte man nicht das Hobby ablesen können. Taucheruhren mit Kautschukarmbändern bitte nur in der Freizeit, nicht zum Anzug.Die SchuheNichts ruiniert Ihr Outfit schneller, als ein stilloser oder vernachlässigter Schuh. Achten Sie auf jeden Fall auch auf die Sohle! Eine abgelatschte Gummisohle wie hier im Bild runiniert den Gesamteindruck. Faustregel: Ein Schuh zum Anzug hat immer eine Ledersohle. Schwarz und BraunAn diese Farbkombination sollten Sie sich nur wagen, wenn Sie gebürtiger Italiener sind. Die kriegen das tatsächlich elegant hin. Für alle anderen gilt: Schwarz und Braun passen leider gar nicht zusammen. Was dagegen schon geht: Braune Schuhe zu dunkelblauen, grauen oder beigefarbenen Anzügen. Die SockenAchten Sie auf die Details: Zum einen sollten Sie Ihre Socken immer auf den Anzug abstimmen, zum anderen müssen die Socken lang genug sein. Nackte Waden und weiße Socken sind nur im Sport erlaubt.KrawattenlängeSo schlampig wie auf dem Bild geht gar nicht. Achten Sie also beim Krawattenbinden auf die richtige Länge. Die KrawatteBravo, so sieht es doch gleich viel eleganter aus. Die Krawatte reicht bis zur Gürtelschließe, so soll es sein.Der BartLässig und leger? Überlegen Sie, welchen Eindruck Sie im Geschäftsleben hinterlassen wollen. Nicht jedem steht der Bart so gut wie George Clooney. 

Knigge-Tipps nicht nur für Freiberufler: Wie Sie beim Kunden punkten​ Wie sich Gründer und Freiberufler sicher auf dem Geschäftsparkett bewegen, lesen Sie hier.
Foto: FotolEdhar – Fotolia.comDas Unternehmen ist gegründet, nun wird es ernst: Aufträge müssen akquiriert, Kunden überzeugt werden. Wer jetzt denkt, dass nur Produkte oder Dienstleistungen den Ausschlag geben, der täuscht. Denn es geht darum, das Vertrauen von Menschen zu gewinnen – mit Souveränität und Sympathie.
Was Freiberufler und Gründer tun können, um souverän aufzutreten, haben die Expertinnen Anke Quittschau und Christina Tabernig von der Benimmagentur Korrekt! zusammengestellt:
1. Der erste Eindruck …
… dauert nur wenige Sekunden. Nutzen Sie die Chance und präsentieren Sie sich offen, freundlich und wertschätzend gekleidet. Bei einem schlecht gekleideten Muffel kauft keiner gerne, da können Sie noch so kompetent sein. (Mehr zum Thema: “Dresscodes – Was ist Business casual?”)
2. Ladies first?
Die Begrüßung erfolgt nach der Reihenfolge: Bekannt grüßt Bekannt und stellt dann Unbekannt vor. “Ladies first” funktioniert also nur, wenn Sie die Dame vorher kannten. Ihr Händedruck sollte fest, trocken und mit Blickkontakt erfolgen.
3. Darf ich bekannt machen …
Beim Vorstellen von Personen handeln Sie immer nach der Regel: Die ranghöhere Person erfährt zuerst, wer die unbekannte Person ist. Wenn Sie also mit einem neuen Kollegen zum Kunden gehen, stellen Sie dem Kunden Ihren Kollegen vor. Ihr Kunde ist immer die ranghöhere Person.
4. Hier meine Visitenkarte
Die Visitenkarte wird zu Beginn einer Begegnung ausgetauscht. Das ist einfach zu merken, denn die Visitenkarte kündigte ursprünglich eine Visite an. Der Ranghöchste in der Runde erhält Ihre Karte zuerst. Der Gast gibt als erster seine Karte.
Ihre Visitenkarte sollte seriös vom Grafiker gestaltet und in sauberen Zustand sein, denn schließlich übergeben Sie Ihr “Gesicht” damit. Ebenso sollte auch Ihre E-Mailadresse professionell aufgebaut sein, spaßige Spitznamen sind hier fehl am Platz. (Mehr zum Thema: “Die Visitenkarte ist Ihr Gesicht“.)
5. Titel, Titel, Titel
Die korrekte Anrede eines Geschäftspartners ist von großer wertschätzender Bedeutung. Sprechen Sie die Inhaber von Doktortiteln auch damit an. Der Glaube, Herr Dr. Klaus Müller hat sich ohne Titel vorgestellt, dann darf man ihn auch weglassen, ist falsch. Es gehört zum vornehmen Understatement, dass die Inhaber von Titeln auf diesen bei der eigenen Vorstellung verzichten. Treffen Sie auf Herrn Prof. Dr. Meier, wird nur der höchste Grad genannt. Also lautet die Anrede: “Guten Tag, Herr Professor Meier.”
6. Die passende Kleidung
Das perfekte Business-Outfit sollte zu Ihrer Aussage als Unternehmer passen. Sowohl das Produkt als auch die Person, die Sie vertreten sollte sich in der Kleidung widerspiegeln. Kleidung sollte passen: zum Anlass und zur Figur! Oft ist eine Investition in die Kleidung auch eine Investition in Ihren Erfolg. Denken Sie also bei der Kleidung, die Sie tragen, an Qualität und einen guten Sitz.

Vermeiden Sie als Mann einen schwarzen Anzug zum Erstkontakt, da dies als sehr autoritär, würdevoll und fast unnahbar wahrgenommen wird. Das wäre nicht zielführend für Ihre erste Kontaktaufnahme.
7. Nicht zu früh und nicht zu spät
Fauxpas wie Unpünktlichkeit oder Unzuverlässigkeit werden von manchen Geschäftspartnern hart bestraft – zu Recht. Ein Verspäten ist manchmal nicht zu verhindern, sollte jedoch vorher angekündigt werden. Also VOR dem vereinbarten Termin anrufen, nicht fünf Minuten danach, wenn schon alle im Besprechungsraum warten. Übrigens ist es genauso unhöflich, eine halbe Stunde zu früh zu erscheinen.
Wenn Sie eine Aussage wie “Ich schicke Ihnen das Angebot morgen zu” treffen, dann halten Sie sich auch daran. Oder Sie verschaffen sich gleich etwas Luft, indem Sie den Kunden fragen “Bis wann brauchen Sie denn das Angebot?”
8. Absagen nicht vergessen
Übrigens: Wenn Sie Angebote von verschiedenen Dienstleistern angefordert und sich für einen Anbieter entschieden haben, sollten sie den anderen absagen.Das gebietet die Höflichkeit und ist guter Stil.
9. Nichts geht ohne Small Talk
Small Talk ist gerade für Freiberufler sehr wichtig. Da Sie oftmals allein agieren, sind Sie selbst Ihr eigenes Marketing. Sprich: Sie müssen durch Ihre Persönlichkeit, Sympathie und Ihr Fachwissen überzeugen.
Small Talk öffnet Ihnen die Türen zum Kunden, indem Sie eine persönliche Bindung durch das kleine Gespräch am Rande aufbauen. Merken Sie sich, was Sie mit Ihrem Kunden gesprochen haben, um es dann beim nächsten Gespräch beiläufig wieder fallen zu lassen.

Sie können sich auf Ihren Small Talk mit Kunden vorbereiten. Surfen Sie durch das Netz und durchstöbern Sie die Profile Ihrer Kunden. Das ein oder andere Stichwort lässt sich dann in der Unterhaltung gut unterbringen, um daraus ein kleines Gespräch zu entwickeln.
Sie sind der beste Small Talker, wenn Sie den Kunden zum Reden bringen und ihm aktiv zuhören.
10. Gute Manieren am Telefon
Geschäftliche Telefonate fangen mit dem Klingelton und Ihrer Begrüßungsformel an und enden mit der Ansage auf Ihrer Mailbox. Richten Sie einen seriösen Klingelton ein und verzichten Sie auf James-Bond-Melodien. Melden Sie sich mit Tagesgruß, Vor- und Nachnamen, damit der Anrufer hört, wo er angekommen ist. Bleiben Sie freundlich, verbindlich und lösungsorientiert im Telefonat. Fassen Sie Gesagtes am Ende des Gespräch noch Mal zusammen. Lächeln Sie – denn auch das kann der Anrufer am anderen Ende “hören”.

Vermeiden Sie vor allem Killerphrasen wie: “Wie war noch Mal Ihr Name?” die bessere Variante wäre: “Können Sie mir Ihren Namen noch einmal nennen, ich habe Sie nicht richtig verstanden.” Oder einfach: “Wie ist Ihr Name?” Wenn Sie einmal nicht verfügbar sind und Ihr Anrufer auf der Mailbox landet, sollten Sie mehr als nur die Telefonnummer – womöglich auch noch automatisch – ansagen. Zumindest Vor- und Nachname sollte der Anrufer hören, damit er weiß, dass er die richtige Mailbox erreicht hat. Anrufe sollten auch zeitnah, also möglichst am selben Tag beantwortet werden. Eventuell ist auch eine Antwort per Mail möglich, da Sie auf die Anfrage gleich ein Angebot verschicken.
Wenn Sie an einer Telefonkonferenz mit Ihrem Handy teilnehmen und Sie keinen Beitrag abgeben, sollte Ihr Telefon auf “stumm” geschaltet sein. Es ist sehr störend die Nebengeräusche der Teilnehmer beim Einkaufen, Autofahren oder beim Kaffeetrinken zu hören.11. Briefe und E-Mails richtig verfassen
Sehr häufig vermitteln Sie einen ersten Eindruck durch Ihre Korrespondenz. Heute eher durch eine E-Mail als durch einen Brief. Für beide Medien gilt:

Rechtschreibung ist einzuhalten.

Sinnvolle Absätze sind hilfreich für den Leser: Je kürzer der erste Absatz ist – im Brief bis zu sieben Zeilen in der E-Mail maximal fünf Zeilen – desto lieber ist der Leser bereit in Ihren Text einzusteigen.

Briefe sollten möglichst einseitig sein, eine E-Mail möglichst kurz gehalten werden.

Lange Texte und Erklärungen zum Produkt oder Angebot werden als Anhang versendet und im Text nur kurz erwähnt.

Sowohl im Brief als auch in der E-Mail verzichten Sie auf Emoticons. Smileys haben nichts in der Geschäftskorrespondenz zu suchen. Sie können sich so klar ausdrücken, dass solche Hilfsmittel unnötig sind.

Bedenken Sie, dass Sie ein Anrede und Verabschiedung haben. Diese darf gerne anders klingen als über 90 Prozent der Korrespondenz, die sonst verschickt wird. Wie wäre mit “Guten Tag, Herr Dr. Huber” (statt “Sehr geehrter Herr Dr. Huber”) oder mit “Freundliche Grüße” (statt “Mit freundlichen Grüßen”)? Oft machen so kleine Dinge den Unterschied.

Was Brief- oder E-Mail-Leser immer lesen ist die P.S.-Zeile. Nutzen Sie diese ruhig für Ihr eigenes Marketing. Sie haben neue Services oder Produkte oder eine Auszeichnung erhalten? Diese Information in der P.S.-Zeile verpackt, aber nicht länger als zwei Zeilen, wird vom Empfänger gelesen. Probieren Sie es aus.

Verschicken Sie zu Weihnachten persönliche Karten an Ihre Kunden? Eine handschriftliche Anrede und eine leserliche Verabschiedung neben dem gedruckten Text sind das Mininum. Der ein oder andere Kunde darf auch gerne ein paar persönliche Worte von Ihnen erhalten.
Denken Sie einfach immer daran, was Sie selbst mit einer Karte machen, die Sie erhalten, und von der Sie nicht wissen, wer sie verfasst hat.

12. Besprechungen mit Stil
Gerade in Besprechungen mit dem Kunden können Sie Stil beweisen. Führt eine Sekretärin Sie in den Besprechungsraum beim Kunden und bittet Sie, Platz zu nehmen, verzichten Sie besser darauf. Oder kennen Sie den Lieblingsplatz des Gastgebers?

Wird eine längere Wartezeit angekündigt, fragen Sie sicherheitshalber nach: “Wo sitzt denn Ihr Chef normalerweise?”
Getränke muss der Gastgeber einmal anbieten, danach darf man sich selbst bedienen. (Mehr zum Thema: “So punkten Sie im Meeting“.)
13. Mit dem Kunden essen
Geschäftsessen mit Kunden sind ein “soziales Lagerfeuer” sagen Soziologen. Die Zeit für ein gemeinsames Essen zu finden, ist immer schwieriger geworden, doch es lohnt sich. Denn bei Tisch geht es nicht um pure Nahrungsaufnahme, sondern vielmehr um den sozialen Austausch mit den Geschäftspartnern. Auch wenn wir Omas Tischregeln teilweise in schlimmer Erinnerung haben, halten Sie sich daran:

Die Serviette gehört auf den Schoß, sobald das Essen gebracht wird.

Brot wird gebrochen und als Beilage zur Vorspeise gegessen, die Hauptspeise hat ihre eigenen “Sättigungsbeilagen” wie Kartoffeln, Nudeln oder Reis.

Die Arme oder Ellenbogen gehören nicht auf den Tisch. Hände maximal bis zum Handknöchel auflegen.

Mit vollem Mund spricht man nicht. Das gilt als Standard an Manieren, die man beherrschen sollte. Dazu gehört auch, nicht mit offenem Mund zu kauen. Wenn Ihr Gegenüber spricht, legen auch Sie Messer und Gabel kurz ab.

Als guter Gastgeber informiert man seine Gäste – mit einer Empfehlung – über die Anzahl der Gänge und Preisgefüge. Der dezente Hinweis, für welche Vorspeise und welchen Hauptgang Sie sich entscheiden, hilft einem Gast bereits bei seiner Menüwahl.

Sind Sie bei der Weinauswahl unsicher, lassen Sie sich vom Kellner etwas empfehlen.

Christina Tabernig (links) und Antje Quittschau von korrekt! kennen sich aus in Sachen Business-Etikette.Wer sich noch mehr Sicherheit im Umgang mit Kunden und Geschäftspartnern wünscht, findet unter www.korrekt.de weitere Informationen. Als weiterführende Lektüre bietet sich auch “Die 100 wichtigsten Benimmregeln” von Quittschau und Tabernig, erschienen als Taschenguide bei Haufe, an.

Die häufigsten Kleidungsfehler von MännernFarben und MusterEin kariertes Sakko mit Pünktchen-Hemd? Very stylish – wenn Sie in der Modebranche arbeiten. Merken Sie sich in puncto Farben und Muster: “weniger ist mehr”. Eine weitere Faustregel lautet: das Muster der Krawatte sollte stärker sein als das des Hemdes.Das SakkoHier hat sich jemand redlich bemüht, immerhin hat der Herr ein Sakko angezogen. Die schlechte Nachricht ist jedoch: Das T-Shirt geht gar nicht! Ein Hemd wäre hier angebrachter. Übrigens: Jeans und Sakko gelten nicht als “Business casual”. Dann lieber zur Cordhose greifen.Im Stehen …… sollte das Sakko NIE offen sein. Die ÄrmellängeWo wir schon beim Sakko sind: Die Ärmel sollten nicht länger als Hemdsärmel sein. Achten Sie darauf, dass die Ärmel des Hemdes immer ein bis zwei Zentimeter länger sind als die des Sakkos.Die HemdtascheSind Sie Handwerker? Oder warum stopfen Sie sich die Hemdtasche so voll? Die Hemdtasche ist reine Zierde und sollte nicht benutzt werden. Weder der persönliche Stift noch das dicke Handy oder die Zigarettenschachtel gehören hier hinein.Die ArmbanduhrAchten Sie auf Ihre Wirkung: Eine teure Markenuhr kann zwar ein schönes Smalltalk-Thema sein, aber eben nur “kann”. Dafür sollte man den Gesprächspartner und seine Interessen gut kennen. Die Uhr kann (genau wie bestimmte Autos) auch Neid auslösen. Beim Erstkontakt also am besten eine dezente Variante wählen.Das UhrenarmbandGummiarmbänder mögen modisch sein, sind aber im Business-Umfeld nicht angebracht. Greifen Sie lieber zum klassischen Lederarmband. Merke: An den Uhren sollte man nicht das Hobby ablesen können. Taucheruhren mit Kautschukarmbändern bitte nur in der Freizeit, nicht zum Anzug.Die SchuheNichts ruiniert Ihr Outfit schneller, als ein stilloser oder vernachlässigter Schuh. Achten Sie auf jeden Fall auch auf die Sohle! Eine abgelatschte Gummisohle wie hier im Bild runiniert den Gesamteindruck. Faustregel: Ein Schuh zum Anzug hat immer eine Ledersohle. Schwarz und BraunAn diese Farbkombination sollten Sie sich nur wagen, wenn Sie gebürtiger Italiener sind. Die kriegen das tatsächlich elegant hin. Für alle anderen gilt: Schwarz und Braun passen leider gar nicht zusammen. Was dagegen schon geht: Braune Schuhe zu dunkelblauen, grauen oder beigefarbenen Anzügen. Die SockenAchten Sie auf die Details: Zum einen sollten Sie Ihre Socken immer auf den Anzug abstimmen, zum anderen müssen die Socken lang genug sein. Nackte Waden und weiße Socken sind nur im Sport erlaubt.KrawattenlängeSo schlampig wie auf dem Bild geht gar nicht. Achten Sie also beim Krawattenbinden auf die richtige Länge. Die KrawatteBravo, so sieht es doch gleich viel eleganter aus. Die Krawatte reicht bis zur Gürtelschließe, so soll es sein.Der BartLässig und leger? Überlegen Sie, welchen Eindruck Sie im Geschäftsleben hinterlassen wollen. Nicht jedem steht der Bart so gut wie George Clooney.

Knigge-Tipps nicht nur für Freiberufler: Wie Sie beim Kunden punkten​ Weiterlesen »

7 Tipps: Wie Chefs in Videokonferenzen glänzen​

Allgemein

Führungskräfte sollten ihre Videoauftritte gewissenhaft vorbereiten, um keine falschen Signale auszusenden. Foto: David Pereiras – shutterstock.comSo schnell kann es gehen: Videokonferenzen und Online-Events sind inzwischen fester Bestandteil der Unternehmenskultur. Führungskräfte sollten ihre Videoconferencing-Auftritte dabei besonders sorgfältig planen. Wir geben Ihnen sieben Tipps an die Hand, um im nächsten Online-Meeting zu glänzen.1. Wer Videokonferenzen macht, macht FernsehenIn Videokonferenzen geht es noch stärker um Aufmerksamkeit als bei Präsenzformaten. Die Engländer sagen “To Pay Attention”, Aufmerksamkeit bekommt man nicht geschenkt, sie ist eine harte Währung. Eine der wichtigsten Erkenntnisse überhaupt: Videokonferenzen sind ein optisches Format. Wer Videokonferenzen macht, macht Fernsehen. 30 Minuten Frontalbeschallung? Vergessen Sie’s. 30 Minuten Präsentation nur auf der Tonspur? Schon verloren. Denken Sie bereits bei der Aufbereitung Ihrer Inhalte permanent an die Augen Ihrer Teilnehmer: Welche Begriffe blenden Sie wann im Hintergrund ein, damit die Teilnehmer jederzeit wissen, worüber Sie gerade sprechen? Welches Bild hält die Aufmerksamkeit Ihrer Teilnehmer hoch, was hält sie wach? Tipp: Schauen Sie in den nächsten Tagen, was im Fernsehen bei der Informationsvermittlung für ein Aufwand betrieben wird: Hintergrundbilder, Einblendungen, Medienwechsel – ein guter Maßstab. 2. PowerPoint ist stark, aber Sie sind stärker“Wie präsentiere ich PowerPoint-Folien? Welchen Anteil an der Videokonferenz dürfen/sollten sie haben?” lautet immer wieder eine Frage. Und die Antwort ist stets dieselbe: Es hat sich nichts geändert. PowerPoint ist und bleibt ein Bild-Darstellungsprogramm. Das Programm soll Sie bei der Vermittlung Ihrer Botschaften unterstützen, Sie als Redner aber nicht ersetzen. Anders ausgedrückt: Wenn Bill Gates gewollt hätte, dass PowerPoint ein Textprogramm wird, hätte er Word nicht erfunden. Einfache Faustregel für den Einsatz von PowerPoint-Folien in Videokonferenzen: Immer nur dann, wenn sie wirklich Sinn machen. Also kein betreutes Lesen (einer liest laut vor, die anderen lesen leise mit), auch keine Morsezeichen Arial Schriftgröße acht und erst recht keine Bullet-Point-Schlachtfelder. Ihre Persönlichkeit ist der größte Begeisterungsfaktor und soll so oft wie möglich im Vollbild zu sehen sein.3. Handbreit Platz über dem KopfKontrollieren Sie, ob das Verhältnis Oberkörper/Bildschirm stimmt. Sitzen Sie zu weit weg von der Kamera und selbst das geschulte Teilnehmerauge kann Ihre Mimik nicht mehr erkennen? Oder sind Sie vielleicht zu nah dran und Ihr Kopf stößt am oberen Bildschirmrand an oder wird sogar ein wenig abgeschnitten? Die Segler sagen “Handbreit Wasser unterm Kiel”, bei Videokonferenzen gilt die Faustregel: “Handbreit Platz über dem Kopf”.4. Komm, lass uns kleben!Wichtig ist, souverän mit der Kamera umzugehen. Sie ist die direkte Verbindung zu den Teilnehmern und stellt Vertrauen her. Schauen Sie so oft wie möglich in die Linse. Leicht gesagt, denn bei Videokonferenzen gibt es ein kleines Problem: Viele schauen beim Sprechen gebannt auf das eigene Bild auf dem Bildschirm und verlieren dadurch den Blickkontakt zu den Teilnehmern. Suchen Sie immer wieder die Kamera. Schauen Sie der Kamera so fest ins Auge, wie Sie einem Menschen auch fest in die Augen schauen würden. Das strahlt Sicherheit aus. Marietta Slomka schaut Sie im “heute journal” an, wenn Sie mit Ihnen spricht. Claus Kleber auch. Kleiner Lifehack: Kleben Sie sich ein kleines Post-It mit einem dicken Pfeil neben das Kamera-Auge, sodass Sie immer wieder daran erinnert werden: Hier geht’s rein.5. Stimme ist MachtDie Stimme ist ein wirkungsmächtiges Instrument. Sie entscheidet oftmals darüber, ob Sie souverän und kompetent rüberkommen. Erfolgreiche Führungskräfte führen mit ihrer Stimme. Sprechen Sie kraftvoll, sind Sie gut zu verstehen? Wie ist der Ton? Gibt es störende Hintergrundgeräusche? Hallt es im Raum? Nuscheln Sie nicht, sprechen Sie laut und deutlich, artikulieren Sie. Achten Sie auf das richtige Sprechtempo und auf Ihre Satzmelodie. Setzen Sie laute Akzente, um dann wieder in die normale Lautstärke zu wechseln. Spielen Sie mit Ihrer Stimme, trainieren Sie sie. Zusätzliche Überlegung: ein externes Mikrofon.6. Das Zauberwort heißt “jetzt!”Machen wir uns nichts vor: Ihre Teilnehmer könnten theoretisch einschlafen und Sie würden es, wenn diese den Bildschirm vorher schwarz gemacht haben, nicht mal mitbekommen. Halten Sie´s interaktiv! Nutzen Sie den Chat für Abfragen oder picken Sie sich konkret jemanden aus dem Teilnehmerfeld raus und stellen ihm direkt eine Frage. Holen Sie live einen Experten in die Videokonferenz mit rein. Laden Sie die Teilnehmer zum Dialog ein, zum Mitdiskutieren. Lifehack: Wenn Sie die Wahrscheinlichkeit erhöhen wollen, dass wirklich jemand eine Frage stellt oder mitdiskutiert, benutzen Sie das Wort “jetzt”. Beginnen Sie mit den Worten “Ihre Fragen an mich zum Thema XY, bitte jetzt” oder “Ihre persönliche Meinung bitte jetzt”.(hk/fm) Die besten kostenlosen Tools für VideokonferenzenGoogle Meet Google Meet ermöglicht web-basierte Video- und Telefonkonferenzen. In der ab Mai verfügbaren Gratisversion erlaubt der Dienst Konferenzen mit bis zu 100 Teilnehmern mit einer Dauer von maximal 60 Minuten – diese Einschränkung tritt aber erst ab Oktober 2020 in Kraft. Wie die meisten Google-Dienste ist Meet für Google Chrome und andere Browser auf Chromium-Basis konzipiert und funktioniert hier ohne Plugins. Daneben sind mobile Anwendungen für Android und iOS verfügbar.Google Meet Foto: GoogleGoogle Meet ermöglicht web-basierte Video- und Telefonkonferenzen. In der ab Mai verfügbaren Gratisversion erlaubt der Dienst Konferenzen mit bis zu 100 Teilnehmern mit einer Dauer von maximal 60 Minuten – diese Einschränkung tritt aber erst ab Oktober 2020 in Kraft. Wie die meisten Google-Dienste ist Meet für Google Chrome und andere Browser auf Chromium-Basis konzipiert und funktioniert hier ohne Plugins. Daneben sind mobile Anwendungen für Android und iOS verfügbar.Facebook Messenger RoomsMit Messenger Rooms können Nutzer direkt von Messenger oder Facebook aus einen Konferenzraum einrichten und bis zu 20 – später 50 – Teilnehmer zu einem Videotelefonat einladen – auch wenn sie kein Facebook-Konto haben. Eine zeitliche Begrenzung gibt es nicht. Die Teilnahme ist via Smartphone oder PC über den Browser möglich und erfordert laut Facebook keine Downloads. Nutzer der Messenger-App haben allerdings Zugriff auf diverse AR-Effekte (z.B. Hasenohren) und neue KI-gestützte Funktionen wie immersive 360-Grad-Hintergründe und stimmungsvolle Beleuchtung.Facebook Messenger Rooms Foto: FacebookMit Messenger Rooms können Nutzer direkt von Messenger oder Facebook aus einen Konferenzraum einrichten und bis zu 20 – später 50 – Teilnehmer zu einem Videotelefonat einladen – auch wenn sie kein Facebook-Konto haben. Eine zeitliche Begrenzung gibt es nicht. Die Teilnahme ist via Smartphone oder PC über den Browser möglich und erfordert laut Facebook keine Downloads. Nutzer der Messenger-App haben allerdings Zugriff auf diverse AR-Effekte (z.B. Hasenohren) und neue KI-gestützte Funktionen wie immersive 360-Grad-Hintergründe und stimmungsvolle Beleuchtung.SkypeAls wohl bekanntester VoIP-Dienst bietet Sype auch eine Reihe von Video-Chat- sowie Videokonferenz-Funktionen. Skype for Business wurde inzwischen von Microsoft durch die Teams-Plattform ersetzt.Skype Foto: Microsoft / IDGAls wohl bekanntester VoIP-Dienst bietet Sype auch eine Reihe von Video-Chat- sowie Videokonferenz-Funktionen. Skype for Business wurde inzwischen von Microsoft durch die Teams-Plattform ersetzt.TeamsDer Nachfolger von Lync und Skype for Business ist kein alleinstehendes Produkt, sondern ein Teil der Microsoft Office 365 Suite. Allerdings ist Teams kostenlos verfügbar und eignet sich mit bis zu 300 Mitgliedern für kleine Unternehmen. Auch Gastzugang sowie Einzel- und Gruppen-Videotelefonate, Bildschirmfreigabe sind an Bord.Teams Foto: Microsoft / IDGDer Nachfolger von Lync und Skype for Business ist kein alleinstehendes Produkt, sondern ein Teil der Microsoft Office 365 Suite. Allerdings ist Teams kostenlos verfügbar und eignet sich mit bis zu 300 Mitgliedern für kleine Unternehmen. Auch Gastzugang sowie Einzel- und Gruppen-Videotelefonate, Bildschirmfreigabe sind an Bord.Google DuoGoogle Duo ist als kostenloses Videotelefonie-Tool in erster Linie für Privatanwender konzipiert. Die maximale Anzahl der Teilnehmer wurde in der Android- und iOS-App erst vor kurzem von acht auf zwölf Personen erhöht und soll laut Google weiter steigen. Duo steht als Web-Applikation für PC, Mac und Chromebook sowie als Mobile App für Android- und iOS-Geräte zur Verfügung. Google Duo Foto: Google / IDGGoogle Duo ist als kostenloses Videotelefonie-Tool in erster Linie für Privatanwender konzipiert. Die maximale Anzahl der Teilnehmer wurde in der Android- und iOS-App erst vor kurzem von acht auf zwölf Personen erhöht und soll laut Google weiter steigen. Duo steht als Web-Applikation für PC, Mac und Chromebook sowie als Mobile App für Android- und iOS-Geräte zur Verfügung. Jitsi MeetEine einfach nutzbare Lösung für Videokonferenzen, die aber dennoch viele Funktionen anbietet, ist Jitsi Meet. Die kostenlose Lösung basiert auf dem offenen WebRTC-Standard und kann auf dem PC direkt und ohne Registrierung im Browser (Chrome) genutzt werden. Für Smartphones und Tablets stehen Apps (Android, iOS) bereit.Jitsi MeetEine einfach nutzbare Lösung für Videokonferenzen, die aber dennoch viele Funktionen anbietet, ist Jitsi Meet. Die kostenlose Lösung basiert auf dem offenen WebRTC-Standard und kann auf dem PC direkt und ohne Registrierung im Browser (Chrome) genutzt werden. Für Smartphones und Tablets stehen Apps (Android, iOS) bereit.WherebyKostenlos für Videokonferenzen mit bis zu vier Teilnehmern ist der norwegische Dienst Whereby (früher appear.in). . Die Lösung ist WebRTC-basiert, das heißt, die Gäste können sich einfach und ohne Registrierung über den Browser zuschalten. Optional stehen Apps für Android und iOS zur Verfügung.Whereby Foto: WherebyKostenlos für Videokonferenzen mit bis zu vier Teilnehmern ist der norwegische Dienst Whereby (früher appear.in). . Die Lösung ist WebRTC-basiert, das heißt, die Gäste können sich einfach und ohne Registrierung über den Browser zuschalten. Optional stehen Apps für Android und iOS zur Verfügung.TinychatNach erfolgter Registrierung bietet das kostenlose Tinychat die Möglichkeit schnell und bequem eine neue Video-Konfernez zu eröffnen. Hierzu muss lediglich einen neuer “Room” erstellt und die generierte URL an die Konferenzteilnehmer verschickt werden.Tinychat Foto: Tinychat.com / IDGNach erfolgter Registrierung bietet das kostenlose Tinychat die Möglichkeit schnell und bequem eine neue Video-Konfernez zu eröffnen. Hierzu muss lediglich einen neuer “Room” erstellt und die generierte URL an die Konferenzteilnehmer verschickt werden.LifesizeLifesize bietet Unternehmen, die von der Coronavirus-Epidemie betroffen sind über einen Zeitraum von sechs Monaten kostenlose Lizenzen an. Meetings und Anrufdauer sind unbegrenzt – dabei steht die Lifesize-Lösung sowohl für Desktops, als auch für Mobilgeräte zur Verfügung.Lifesize Foto: lifesize.com / IDGLifesize bietet Unternehmen, die von der Coronavirus-Epidemie betroffen sind über einen Zeitraum von sechs Monaten kostenlose Lizenzen an. Meetings und Anrufdauer sind unbegrenzt – dabei steht die Lifesize-Lösung sowohl für Desktops, als auch für Mobilgeräte zur Verfügung.ZoomZoom positioniert sich als einer der führenden Anbieter für Videokonferenzen. Das Tool zeichnet sich in erster Linie durch die einfache Nutzung und ein attraktives Freemium-Angebot aus: Bereits mit der kostenlosen Version sind Videokonferenzen mit bis zu 100 Teilnehmern möglich.Zoom Foto: zoom.us / IDGZoom positioniert sich als einer der führenden Anbieter für Videokonferenzen. Das Tool zeichnet sich in erster Linie durch die einfache Nutzung und ein attraktives Freemium-Angebot aus: Bereits mit der kostenlosen Version sind Videokonferenzen mit bis zu 100 Teilnehmern möglich.GoToMeetingLogMeIn hat seine Videokonferenzsoftware GoToMeeting Ende 2019 komplett überarbeitet und neue Funktionen implementiert. Unter anderem funktioniert die Lösung nun im Browser via WebRTC sowie über Desktop- und Mobile-Apps. Die Abopläne beginnen bei 10,75 Euro pro Monat und Host für die Professional-Version. GoToMeeting Foto: gotomeeting.com / IDGLogMeIn hat seine Videokonferenzsoftware GoToMeeting Ende 2019 komplett überarbeitet und neue Funktionen implementiert. Unter anderem funktioniert die Lösung nun im Browser via WebRTC sowie über Desktop- und Mobile-Apps. Die Abopläne beginnen bei 10,75 Euro pro Monat und Host für die Professional-Version. WebExCisco bietet WebEx im Zuge der Coronavirus-Pandemie bis auf weiteres kostenlos an. Zeitlich unbegrenzte Meetings mit bis zu 100 Teilnehmern, HD-Video, Audio-Einwahl, persönlicher Konferenzraum, Bildschirmfreigabe auf Desktop- und Mobilgeräten, sowie 1GB Cloud-Speicher und Aufzeichnungen sind inklusive.WebEx Foto: Cisco / IDGCisco bietet WebEx im Zuge der Coronavirus-Pandemie bis auf weiteres kostenlos an. Zeitlich unbegrenzte Meetings mit bis zu 100 Teilnehmern, HD-Video, Audio-Einwahl, persönlicher Konferenzraum, Bildschirmfreigabe auf Desktop- und Mobilgeräten, sowie 1GB Cloud-Speicher und Aufzeichnungen sind inklusive. 

7 Tipps: Wie Chefs in Videokonferenzen glänzen​ Führungskräfte sollten ihre Videoauftritte gewissenhaft vorbereiten, um keine falschen Signale auszusenden.
Foto: David Pereiras – shutterstock.comSo schnell kann es gehen: Videokonferenzen und Online-Events sind inzwischen fester Bestandteil der Unternehmenskultur. Führungskräfte sollten ihre Videoconferencing-Auftritte dabei besonders sorgfältig planen. Wir geben Ihnen sieben Tipps an die Hand, um im nächsten Online-Meeting zu glänzen.1. Wer Videokonferenzen macht, macht FernsehenIn Videokonferenzen geht es noch stärker um Aufmerksamkeit als bei Präsenzformaten. Die Engländer sagen “To Pay Attention”, Aufmerksamkeit bekommt man nicht geschenkt, sie ist eine harte Währung. Eine der wichtigsten Erkenntnisse überhaupt: Videokonferenzen sind ein optisches Format. Wer Videokonferenzen macht, macht Fernsehen. 30 Minuten Frontalbeschallung? Vergessen Sie’s. 30 Minuten Präsentation nur auf der Tonspur? Schon verloren. Denken Sie bereits bei der Aufbereitung Ihrer Inhalte permanent an die Augen Ihrer Teilnehmer: Welche Begriffe blenden Sie wann im Hintergrund ein, damit die Teilnehmer jederzeit wissen, worüber Sie gerade sprechen? Welches Bild hält die Aufmerksamkeit Ihrer Teilnehmer hoch, was hält sie wach? Tipp: Schauen Sie in den nächsten Tagen, was im Fernsehen bei der Informationsvermittlung für ein Aufwand betrieben wird: Hintergrundbilder, Einblendungen, Medienwechsel – ein guter Maßstab.

2. PowerPoint ist stark, aber Sie sind stärker“Wie präsentiere ich PowerPoint-Folien? Welchen Anteil an der Videokonferenz dürfen/sollten sie haben?” lautet immer wieder eine Frage. Und die Antwort ist stets dieselbe: Es hat sich nichts geändert. PowerPoint ist und bleibt ein Bild-Darstellungsprogramm. Das Programm soll Sie bei der Vermittlung Ihrer Botschaften unterstützen, Sie als Redner aber nicht ersetzen. Anders ausgedrückt: Wenn Bill Gates gewollt hätte, dass PowerPoint ein Textprogramm wird, hätte er Word nicht erfunden. Einfache Faustregel für den Einsatz von PowerPoint-Folien in Videokonferenzen: Immer nur dann, wenn sie wirklich Sinn machen. Also kein betreutes Lesen (einer liest laut vor, die anderen lesen leise mit), auch keine Morsezeichen Arial Schriftgröße acht und erst recht keine Bullet-Point-Schlachtfelder. Ihre Persönlichkeit ist der größte Begeisterungsfaktor und soll so oft wie möglich im Vollbild zu sehen sein.3. Handbreit Platz über dem KopfKontrollieren Sie, ob das Verhältnis Oberkörper/Bildschirm stimmt. Sitzen Sie zu weit weg von der Kamera und selbst das geschulte Teilnehmerauge kann Ihre Mimik nicht mehr erkennen? Oder sind Sie vielleicht zu nah dran und Ihr Kopf stößt am oberen Bildschirmrand an oder wird sogar ein wenig abgeschnitten? Die Segler sagen “Handbreit Wasser unterm Kiel”, bei Videokonferenzen gilt die Faustregel: “Handbreit Platz über dem Kopf”.4. Komm, lass uns kleben!Wichtig ist, souverän mit der Kamera umzugehen. Sie ist die direkte Verbindung zu den Teilnehmern und stellt Vertrauen her. Schauen Sie so oft wie möglich in die Linse. Leicht gesagt, denn bei Videokonferenzen gibt es ein kleines Problem: Viele schauen beim Sprechen gebannt auf das eigene Bild auf dem Bildschirm und verlieren dadurch den Blickkontakt zu den Teilnehmern. Suchen Sie immer wieder die Kamera. Schauen Sie der Kamera so fest ins Auge, wie Sie einem Menschen auch fest in die Augen schauen würden. Das strahlt Sicherheit aus. Marietta Slomka schaut Sie im “heute journal” an, wenn Sie mit Ihnen spricht. Claus Kleber auch. Kleiner Lifehack: Kleben Sie sich ein kleines Post-It mit einem dicken Pfeil neben das Kamera-Auge, sodass Sie immer wieder daran erinnert werden: Hier geht’s rein.5. Stimme ist MachtDie Stimme ist ein wirkungsmächtiges Instrument. Sie entscheidet oftmals darüber, ob Sie souverän und kompetent rüberkommen. Erfolgreiche Führungskräfte führen mit ihrer Stimme. Sprechen Sie kraftvoll, sind Sie gut zu verstehen? Wie ist der Ton? Gibt es störende Hintergrundgeräusche? Hallt es im Raum? Nuscheln Sie nicht, sprechen Sie laut und deutlich, artikulieren Sie. Achten Sie auf das richtige Sprechtempo und auf Ihre Satzmelodie. Setzen Sie laute Akzente, um dann wieder in die normale Lautstärke zu wechseln. Spielen Sie mit Ihrer Stimme, trainieren Sie sie. Zusätzliche Überlegung: ein externes Mikrofon.6. Das Zauberwort heißt “jetzt!”Machen wir uns nichts vor: Ihre Teilnehmer könnten theoretisch einschlafen und Sie würden es, wenn diese den Bildschirm vorher schwarz gemacht haben, nicht mal mitbekommen. Halten Sie´s interaktiv! Nutzen Sie den Chat für Abfragen oder picken Sie sich konkret jemanden aus dem Teilnehmerfeld raus und stellen ihm direkt eine Frage. Holen Sie live einen Experten in die Videokonferenz mit rein. Laden Sie die Teilnehmer zum Dialog ein, zum Mitdiskutieren. Lifehack: Wenn Sie die Wahrscheinlichkeit erhöhen wollen, dass wirklich jemand eine Frage stellt oder mitdiskutiert, benutzen Sie das Wort “jetzt”. Beginnen Sie mit den Worten “Ihre Fragen an mich zum Thema XY, bitte jetzt” oder “Ihre persönliche Meinung bitte jetzt”.(hk/fm)

Die besten kostenlosen Tools für VideokonferenzenGoogle Meet Google Meet ermöglicht web-basierte Video- und Telefonkonferenzen. In der ab Mai verfügbaren Gratisversion erlaubt der Dienst Konferenzen mit bis zu 100 Teilnehmern mit einer Dauer von maximal 60 Minuten – diese Einschränkung tritt aber erst ab Oktober 2020 in Kraft. Wie die meisten Google-Dienste ist Meet für Google Chrome und andere Browser auf Chromium-Basis konzipiert und funktioniert hier ohne Plugins. Daneben sind mobile Anwendungen für Android und iOS verfügbar.Google Meet
Foto: GoogleGoogle Meet ermöglicht web-basierte Video- und Telefonkonferenzen. In der ab Mai verfügbaren Gratisversion erlaubt der Dienst Konferenzen mit bis zu 100 Teilnehmern mit einer Dauer von maximal 60 Minuten – diese Einschränkung tritt aber erst ab Oktober 2020 in Kraft. Wie die meisten Google-Dienste ist Meet für Google Chrome und andere Browser auf Chromium-Basis konzipiert und funktioniert hier ohne Plugins. Daneben sind mobile Anwendungen für Android und iOS verfügbar.Facebook Messenger RoomsMit Messenger Rooms können Nutzer direkt von Messenger oder Facebook aus einen Konferenzraum einrichten und bis zu 20 – später 50 – Teilnehmer zu einem Videotelefonat einladen – auch wenn sie kein Facebook-Konto haben. Eine zeitliche Begrenzung gibt es nicht. Die Teilnahme ist via Smartphone oder PC über den Browser möglich und erfordert laut Facebook keine Downloads. Nutzer der Messenger-App haben allerdings Zugriff auf diverse AR-Effekte (z.B. Hasenohren) und neue KI-gestützte Funktionen wie immersive 360-Grad-Hintergründe und stimmungsvolle Beleuchtung.Facebook Messenger Rooms
Foto: FacebookMit Messenger Rooms können Nutzer direkt von Messenger oder Facebook aus einen Konferenzraum einrichten und bis zu 20 – später 50 – Teilnehmer zu einem Videotelefonat einladen – auch wenn sie kein Facebook-Konto haben. Eine zeitliche Begrenzung gibt es nicht. Die Teilnahme ist via Smartphone oder PC über den Browser möglich und erfordert laut Facebook keine Downloads. Nutzer der Messenger-App haben allerdings Zugriff auf diverse AR-Effekte (z.B. Hasenohren) und neue KI-gestützte Funktionen wie immersive 360-Grad-Hintergründe und stimmungsvolle Beleuchtung.SkypeAls wohl bekanntester VoIP-Dienst bietet Sype auch eine Reihe von Video-Chat- sowie Videokonferenz-Funktionen. Skype for Business wurde inzwischen von Microsoft durch die Teams-Plattform ersetzt.Skype
Foto: Microsoft / IDGAls wohl bekanntester VoIP-Dienst bietet Sype auch eine Reihe von Video-Chat- sowie Videokonferenz-Funktionen. Skype for Business wurde inzwischen von Microsoft durch die Teams-Plattform ersetzt.TeamsDer Nachfolger von Lync und Skype for Business ist kein alleinstehendes Produkt, sondern ein Teil der Microsoft Office 365 Suite. Allerdings ist Teams kostenlos verfügbar und eignet sich mit bis zu 300 Mitgliedern für kleine Unternehmen. Auch Gastzugang sowie Einzel- und Gruppen-Videotelefonate, Bildschirmfreigabe sind an Bord.Teams
Foto: Microsoft / IDGDer Nachfolger von Lync und Skype for Business ist kein alleinstehendes Produkt, sondern ein Teil der Microsoft Office 365 Suite. Allerdings ist Teams kostenlos verfügbar und eignet sich mit bis zu 300 Mitgliedern für kleine Unternehmen. Auch Gastzugang sowie Einzel- und Gruppen-Videotelefonate, Bildschirmfreigabe sind an Bord.Google DuoGoogle Duo ist als kostenloses Videotelefonie-Tool in erster Linie für Privatanwender konzipiert. Die maximale Anzahl der Teilnehmer wurde in der Android- und iOS-App erst vor kurzem von acht auf zwölf Personen erhöht und soll laut Google weiter steigen. Duo steht als Web-Applikation für PC, Mac und Chromebook sowie als Mobile App für Android- und iOS-Geräte zur Verfügung. Google Duo
Foto: Google / IDGGoogle Duo ist als kostenloses Videotelefonie-Tool in erster Linie für Privatanwender konzipiert. Die maximale Anzahl der Teilnehmer wurde in der Android- und iOS-App erst vor kurzem von acht auf zwölf Personen erhöht und soll laut Google weiter steigen. Duo steht als Web-Applikation für PC, Mac und Chromebook sowie als Mobile App für Android- und iOS-Geräte zur Verfügung. Jitsi MeetEine einfach nutzbare Lösung für Videokonferenzen, die aber dennoch viele Funktionen anbietet, ist Jitsi Meet. Die kostenlose Lösung basiert auf dem offenen WebRTC-Standard und kann auf dem PC direkt und ohne Registrierung im Browser (Chrome) genutzt werden. Für Smartphones und Tablets stehen Apps (Android, iOS) bereit.Jitsi MeetEine einfach nutzbare Lösung für Videokonferenzen, die aber dennoch viele Funktionen anbietet, ist Jitsi Meet. Die kostenlose Lösung basiert auf dem offenen WebRTC-Standard und kann auf dem PC direkt und ohne Registrierung im Browser (Chrome) genutzt werden. Für Smartphones und Tablets stehen Apps (Android, iOS) bereit.WherebyKostenlos für Videokonferenzen mit bis zu vier Teilnehmern ist der norwegische Dienst Whereby (früher appear.in). . Die Lösung ist WebRTC-basiert, das heißt, die Gäste können sich einfach und ohne Registrierung über den Browser zuschalten. Optional stehen Apps für Android und iOS zur Verfügung.Whereby
Foto: WherebyKostenlos für Videokonferenzen mit bis zu vier Teilnehmern ist der norwegische Dienst Whereby (früher appear.in). . Die Lösung ist WebRTC-basiert, das heißt, die Gäste können sich einfach und ohne Registrierung über den Browser zuschalten. Optional stehen Apps für Android und iOS zur Verfügung.TinychatNach erfolgter Registrierung bietet das kostenlose Tinychat die Möglichkeit schnell und bequem eine neue Video-Konfernez zu eröffnen. Hierzu muss lediglich einen neuer “Room” erstellt und die generierte URL an die Konferenzteilnehmer verschickt werden.Tinychat
Foto: Tinychat.com / IDGNach erfolgter Registrierung bietet das kostenlose Tinychat die Möglichkeit schnell und bequem eine neue Video-Konfernez zu eröffnen. Hierzu muss lediglich einen neuer “Room” erstellt und die generierte URL an die Konferenzteilnehmer verschickt werden.LifesizeLifesize bietet Unternehmen, die von der Coronavirus-Epidemie betroffen sind über einen Zeitraum von sechs Monaten kostenlose Lizenzen an. Meetings und Anrufdauer sind unbegrenzt – dabei steht die Lifesize-Lösung sowohl für Desktops, als auch für Mobilgeräte zur Verfügung.Lifesize
Foto: lifesize.com / IDGLifesize bietet Unternehmen, die von der Coronavirus-Epidemie betroffen sind über einen Zeitraum von sechs Monaten kostenlose Lizenzen an. Meetings und Anrufdauer sind unbegrenzt – dabei steht die Lifesize-Lösung sowohl für Desktops, als auch für Mobilgeräte zur Verfügung.ZoomZoom positioniert sich als einer der führenden Anbieter für Videokonferenzen. Das Tool zeichnet sich in erster Linie durch die einfache Nutzung und ein attraktives Freemium-Angebot aus: Bereits mit der kostenlosen Version sind Videokonferenzen mit bis zu 100 Teilnehmern möglich.Zoom
Foto: zoom.us / IDGZoom positioniert sich als einer der führenden Anbieter für Videokonferenzen. Das Tool zeichnet sich in erster Linie durch die einfache Nutzung und ein attraktives Freemium-Angebot aus: Bereits mit der kostenlosen Version sind Videokonferenzen mit bis zu 100 Teilnehmern möglich.GoToMeetingLogMeIn hat seine Videokonferenzsoftware GoToMeeting Ende 2019 komplett überarbeitet und neue Funktionen implementiert. Unter anderem funktioniert die Lösung nun im Browser via WebRTC sowie über Desktop- und Mobile-Apps. Die Abopläne beginnen bei 10,75 Euro pro Monat und Host für die Professional-Version. GoToMeeting
Foto: gotomeeting.com / IDGLogMeIn hat seine Videokonferenzsoftware GoToMeeting Ende 2019 komplett überarbeitet und neue Funktionen implementiert. Unter anderem funktioniert die Lösung nun im Browser via WebRTC sowie über Desktop- und Mobile-Apps. Die Abopläne beginnen bei 10,75 Euro pro Monat und Host für die Professional-Version. WebExCisco bietet WebEx im Zuge der Coronavirus-Pandemie bis auf weiteres kostenlos an. Zeitlich unbegrenzte Meetings mit bis zu 100 Teilnehmern, HD-Video, Audio-Einwahl, persönlicher Konferenzraum, Bildschirmfreigabe auf Desktop- und Mobilgeräten, sowie 1GB Cloud-Speicher und Aufzeichnungen sind inklusive.WebEx
Foto: Cisco / IDGCisco bietet WebEx im Zuge der Coronavirus-Pandemie bis auf weiteres kostenlos an. Zeitlich unbegrenzte Meetings mit bis zu 100 Teilnehmern, HD-Video, Audio-Einwahl, persönlicher Konferenzraum, Bildschirmfreigabe auf Desktop- und Mobilgeräten, sowie 1GB Cloud-Speicher und Aufzeichnungen sind inklusive.

7 Tipps: Wie Chefs in Videokonferenzen glänzen​ Weiterlesen »

Huion Kamvas Pro 19 im Test: Hohe Qualität mit Mini-Tastatur zum guten Preis​

Allgemein

Jérémie Kaiser Auf einen Blick Pro Gutes Preis-Leistungs-Verhältnis Sehr gutes Display Tolles Zeichenerlebnis Gute Reaktionszeit Zwei Stifte Mini-Tastatur Kontra Firmeneigene Software müsste verbessert und erweitert werden Fazit Das Huion Kamvas Pro 19 wirkt durchdacht und ausgereift. Vom sicheren Verpackungskonzept über das kalibrierte UHD-Display bis zur hochwertigen Haptik zeigt sich: Die Nutzererfahrung stand im Fokus. Die 18,4-Zoll-Touch-Anzeige überzeugt mit guter Farbwiedergabe, präziser Stiftumsetzung und angenehmer Zeichenfläche. Damit eignet es sich gut für detailverliebte Kreative. Zwei mitgelieferte Stifte bieten Flexibilität, die Mini-Tastatur ist praktisch, zeigt aber leichte Schwächen bei Beschriftung und Profilverwaltung. Aktuell kostet das Grafiktablett im Huion-Store 1.039 Euro – inklusive Tischarm ST500. Regulär liegt der Preis bei 1.299 Euro. Nach meinem Testbericht des Kamvas 16 (Gen 3) der chinesischen Firma Huion, wurde mir angeboten, das Kamvas Pro 19 zu testen (hier auf Amazon erhältlich). Da mir das Zeichnen gefehlt und mir das Testen der letzten Grafiktabletts viel Freude gemacht hat, habe ich gerne zugesagt. Nun liegt mir das Huion Kamvas Pro 19 vor, das ich gut mit der semiprofessionellen Variante Kamvas 16 (Gen 3) sowie dem Artist Pro 22 (Gen 2) von XPPen vergleichen kann. Den Testbericht zum letzten Grafiktablett finden Sie hier. Ob Huion mit dem Branchenriesen Wacom mithalten kann, lässt sich an dieser Stelle nicht abschließend sagen. Ich selbst hatte noch nicht das Vergnügen, mit einem professionellen Wacom-Grafiktablett zu arbeiten – mein eigenes, uraltes Wacom Bamboo von 2009 hat dank Tesafilm am Stift bis heute überlebt. Die Qualität hat mich damals wie heute beeindruckt. Allerdings spielt Wacom preislich in einer ganz anderen Liga. Um die professionelle Sparte Huions anzugehen, habe ich mir vorgenommen, ein Artwork der Känguru-Comics (Carlsen Verlag) nachzuzeichnen. Die freundliche Genehmigung dazu habe ich von Marc-Uwe Kling und Bernd Kissel erhalten, einem der begabtesten Comiczeichner Deutschlands, dessen Federführung ich besonders schätze. Das Huion Kamvas Pro 19 ist da: Erster Eindruck Im Vergleich zum Kamvas 16 (Gen 3) hinterlässt das Kamvas Pro 19 einen deutlich erfreulicheren Ersteindruck. Man merkt, dass hier mehr Wert auf die Nutzererfahrung gelegt wurde. Das Huion Kamvas Pro 19 ist da.Jérémie Kaiser Anders als beim Kamvas 16 (Gen 3) wird dieses Grafiktablett in einem schlichten braunen Karton geliefert – doch das Äußere sagt bekanntlich nichts über das Innere aus. Beim Öffnen ist alles sauber und sicher verpackt, sogar besser als beim Kamvas 16 (Gen 3). Der Qualitätsunterschied wird hier deutlich sichtbar. Kamvas Pro 19: Alles ist sicher verpackt.Jérémie Kaiser Als Erstes fällt der schwarze Umschlag ins Auge. Darin befindet sich der “Huion Pen Display Color Calibration Report”, der bestätigt, dass das Display werkseitig farbkalibriert wurde. Kamvas Pro 19: Der elegante Umschlag beinhaltet den Color Calibration Report.Jérémie Kaiser Unter dem Umschlag liegt der Quick-Start-Guide, der den restlichen Inhalt abdeckt: die Mini-Tastatur, die Box mit den zwei Stiften und den Kabeln. Kamvas Pro 19: Alles sehr ordentlich.Jérémie Kaiser Der Huion-Handschuh wirkt etwas hochwertiger als der beim Kamvas 16 (Gen 3) und sitzt bei mir perfekt. Er sollte jedoch auf keinen Fall kleiner ausfallen. Zum Vergleich: Meine Hand misst etwa 19 Zentimeter. Der Handschuh ist etwas hochwertiger als beim Kamvas 16 (Gen 3)Jérémie Kaiser Bis hierhin ist also alles gut. Inbetriebnahme des Kamvas Pro 19 Für den Test des Grafiktabletts Kamvas 16 (Gen 3) von Huion hatte ich meinen Laptop genutzt. Das war sehr angenehm, denn zum Verbinden konnte ich die zwei mitgelieferten USB-C-zu-USB-C-Kabel nutzen. Kamvas Pro 19: Das Display ist groß.Jérémie Kaiser Das Grafiktablett hat zwei integrierte Füße.Jérémie Kaiser Um es etwas schwieriger zu machen, verwende ich diesmal meinen Desktop-PC ohne Bluetooth. Dieser Punkt wird später für die mitgelieferte Mini-Tastatur interessant. Hierfür verwende ich das im Paket enthaltene 3-zu-1-Kabel. Das Kamvas Pro 19 hat zwei USB-C- und einen Audio-Anschluss.Jérémie Kaiser Die zwei einzigen Knöpfe: Powerbutton und der Sperrschalter, gegen ein versehentliches Ändern der Display-Einstellungen.Jérémie Kaiser Neben dem Netzanschluss müssen zusätzlich ein HDMI- und ein USB-A-Kabel angeschlossen werden. Bei dieser Variante ist es also ratsam, noch eine weitere Anschlussmöglichkeit für einen weiteren Bildschirm zur Verfügung zu haben, wenn Sie mit zwei Bildschirmen arbeiten möchten. Sobald das getan ist, müssen Sie den aktuellen Treiber downloaden und installieren (für Windows: “Driver_15.7.6.1658”). Den finden Sie hier. In der Huion-Tablet-Software, die der vom Kamvas 16 (Gen 3) ähnelt, können Sie den Monitor kalibrieren sowie die zwei Stifte und die Mini-Tastatur einstellen. Die deutsche Übersetzung wirkt nach wie vor holprig. Zwar ist die Aussage verständlich, doch dieser Punkt stellt einen klaren Nachteil dar, der für den deutschen Markt dringend verbessert werden sollte. Zwei weitere Kritikpunkte an der Mini-Tastatur fallen zwar ins Gewicht, beeinträchtigen die Nutzung aber kaum: Zum einen lassen sich keine mehreren Arbeitsprofile speichern – eine Funktion, die beispielsweise die Mini-Tastatur des Artist Pro 22 (Gen 2) von Xppen bietet. Zum anderen fehlt eine direkte Beschriftung der Tasten. Zwar kann eine Taste so belegt werden, dass die Belegung angezeigt wird, doch sinnvoller wären permanente Beschriftungen, etwa durch mitgelieferte Aufkleber oder integrierte LEDs. Die Huion Tablet Software Die Huion Tablet Software ist übersichtlich aufgebaut und beim Kamvas Pro 19 in zwei geteilt: das Grafiktablett mit den Stiften (als Menüpunkt “Kamvas Pro 19”) und die Mini-Tastatur (als Menüpunkt “Keydial mini K20”), die Sie – leicht übersehbar – als Dropdown-Menü am unteren Fensterrand in der Mitte finden können. Die Huion Tablet Software.Jérémie Kaiser Der Menüpunkt “Kamvas Pro 19” bietet drei Hauptreiter: “Stiftanzeige”, “Digitaler Stift” und “Store”. Letzterer führt direkt in den Huion-Online-Shop und öffnet dafür den Standardbrowser. Unter dem Hauptmenüpunkt “Stiftanzeige”, der das angeschlossene Grafiktablett meint, lässt sich nichts einrichten, da es von Haus aus keine eigenen Funktionstasten neben dem Power-Button und dem Sperrschalter hat. Im Unterpunkt “Arbeitsbereich” lässt sich die Bildschirmanpassung vornehmen. Vor der ersten Nutzung sollte hier unbedingt die “Monitor-Kalibrierung” durchgeführt werden, damit der Stift korrekt auf dem Display erkannt wird. Die Monitor-Kalibrierung ist Pflicht.Jérémie Kaiser Hier können die Buttons der Stifte eingestellt werden.Jérémie Kaiser Im Reiter “Digitaler Stift” können Sie die beiden im Paket enthaltenen Stifte konfigurieren. Unter “Taste drücken” lassen sich die Funktionstasten der Stifte einstellen, und im Menüpunkt “Anpassung der Druckempfindlichkeit” ist eine Feineinstellung des Druckverhaltens möglich. Das Kalibrierungsproblem, das ich in meinem Test des Kamvas 16 (Gen 3) beschrieben hatte, trat beim Kamvas Pro 19 nicht auf. Auf meinem Desktop-PC war allerdings auch kein älterer Treiber eines Konkurrenzprodukts installiert. Wenn Sie also zwei Grafiktabletts unterschiedlicher Hersteller verwenden, sollten Sie darauf achten, dass es dabei unter Umständen zu Kompatibilitätsproblemen kommen kann. Das Grafikdisplay: Groß und klar Das Erste, was ich bei einem neuen Grafikdisplay teste, ist stets das Zeichengefühl – also die Druckempfindlichkeit und der Strich selbst. Beim Kamvas 16 (Gen 3) war ich bereits begeistert und erwartete vom Kamvas Pro 19 nicht weniger. Der Strich ist präzise und die Haptik hervorragend. Hier gibt es nichts zu beanstanden. Die erste Striche fühlen sich wunderbar an.Jérémie Kaiser Mit 18,4 Zoll in der Diagonalen bietet das Tablet eine schöne große Arbeitsfläche. Die UHD-Auflösung von 3840 × 2160 Pixeln im 16:9-Format sorgt mit 186 ppi für eine gestochen scharfe Darstellung. Besonders bei grafischen Arbeiten oder Videoschnitt macht sich das in der Detailgenauigkeit positiv bemerkbar. Der Start des Känguru-Comics-Artworks. Die Farben sind sehr schön.Jérémie Kaiser Das Display gibt 1,07 Milliarden Farben wieder, was für besonders weiche Farbverläufe und ein realistisches Bild sorgt – ideal für alle, die auf Farbtreue angewiesen sind. In Kombination mit der Volllaminierung bietet das Display einen guten Blendschutz und eine leicht raue, papierähnliche Oberfläche. Die entspiegelte Beschichtung reduziert Reflexionen und schont die Augen auch bei längerer Nutzung. Känguru-Comics: Die Vorzeichnung geht voran. Das Zeichnen fühlt sich hervorragend an.Jérémie Kaiser Zum Einsatz kommt ein IPS-LCD-Panel mit 60 Hertz, einem Kontrastverhältnis von 1000:1 und einer Helligkeit von 250 Nits. Bei direktem Sonnenlicht stößt das Display zwar an seine Grenzen, aber im Alltag reicht die Helligkeit absolut aus. Die Reaktionszeit von 15 Millisekunden ist solide. Und wirklich toll: Es ist ein Touch-Display, was beim Arbeiten äußerst angenehm ist. Känguru-Comics: Die Vorzeichnung ist so gut wie fertig.Jérémie Kaiser Das entspiegelte, geätzte Glas der zweiten Generation trägt maßgeblich zu einem guten Zeichenerlebnis bei: Es reduziert Reflexionen und bietet zugleich eine angenehme Oberfläche für den Stift. Känguru-Comics: Nach der Vorzeichnung kommt das digitale Tuschen.Jérémie Kaiser Es ist das erste Mal, dass ich mit einem 19-Zoll-Grafiktablett arbeite und für mich passt die Größe des Displays richtig gut. Es ist groß genug, um auch an umfangreicheren Projekten komfortabel zu arbeiten, aber nicht so wuchtig, dass es den ganzen Schreibtisch einnimmt. Die finale Arbeit am nachgezeichneten Artwork der Känguru-Comics finden Sie wie immer nach den technischen Daten. Zwei Stifte, zwei Formen: Gleiche Präzision Im Lieferumfang sind zwei unterschiedliche Stifte enthalten: der PW600 und der PW600S. Beide basieren auf der aktuellen Pentech-4.0-Technologie und bieten 16.384 Druckstufen, eine Neigungsunterstützung von etwa sechzig Grad sowie eine minimale Aktivierungsdynamik von zwei Gramm. Kurz gesagt: Sie reagieren äußerst präzise und vermitteln beim Zeichnen ein natürliches und direktes Gefühl. Die zwei Stifte kommen in einem hübschen Etui.Jérémie Kaiser Der PW600 ist ein klassischer Zeichenstift mit einem angenehm breiten Griff, drei programmierbaren Seitentasten und einer Radiererfunktion am Stiftende. Das ist ideal für schnelles Arbeiten in Programmen wie zum Beispiel Photoshop. Wer lieber mit einem schlankeren Werkzeug arbeitet, greift zum PW600S. Dieser ist etwas leichter und dünner, verzichtet aber auf die Radiererfunktion und hat nur zwei Seitentasten. Im Hinblick auf Technik und Druckgefühl sind beide Modelle auf Augenhöhe. Es ist also reine Geschmackssache, zu welchem man greift. So könnten die zwei Stifte im Etui ruhen.Jérémie Kaiser Den unangenehmen Geruch, den ich beim Kamvas 16 (Gen 3) bemerkt hatte, gab es beim Kamvas Pro 19 nicht. Zur Einordnung: Die Stifte sind laut Hersteller REACH-konform (die entsprechenden Dokumente wurden nachträglich zur Verfügung gestellt). Beide Stifte sind akku- und batterielos und kommen zusammen in einem stabilen Etui mit Ersatzspitzen aus Kunststoff und Filz sowie einem Spitzen-Entferner auf der Unterseite. Die Mini-Tastatur: Kompakte Hilfe mit großem Nutzen Wer häufig mit Shortcuts arbeitet, wird die Mini-Tastatur “Keydial Mini K20” schnell zu schätzen wissen. Sie ist klein, leicht und speziell für den Einsatz mit Grafiktabletts gedacht. Sie lässt sich aber genauso gut mit anderen Programmen oder Geräten verwenden. Die Mini-Tastatur ist äußerst hilfreich.Jérémie Kaiser Die Tastatur bietet 18 frei belegbare Tasten sowie einen drehbaren Multifunktionsknopf (in der Software auch “Dial” genannt). Über die Huion-Software lassen sich alle Eingaben individuell konfigurieren: zum Beispiel für Zoom, Pinselgröße oder das schnelle Wechseln von Werkzeugen. Besonders praktisch: In der Software gibt es einen Button zur Vorschau der aktuellen Belegung, was gerade bei wechselnden Set-ups hilfreich ist. Die Verbindung klappt entweder kabelgebunden via USB-C oder kabellos über Bluetooth. Bei kabelloser Nutzung hält der Akku laut Hersteller mehrere Tage durch. Einen Langzeittest konnte ich hier nicht durchführen, da die Mini-Tastatur an einem Desktop-PC ohne Bluetooth angeschlossen war. Wie bereits weiter oben erwähnt, habe ich zwei kleine Verbesserungsvorschläge zur Mini-Tastatur: Es können nicht mehrere Profile gespeichert werden, und eine direkte Tastenbeschriftung fehlt. Praktischer wären mitgelieferte Aufkleber oder integrierte LEDs. Fazit Das Huion Kamvas Pro 19 hinterlässt einen durchweg durchdachten und ausgereiften Eindruck. Von der sicheren Verpackung über das werkseitig kalibrierte Display bis hin zur hochwertigen Haptik zeigt sich deutlich, dass großer Wert auf die Nutzererfahrung gelegt wurde. Die 18,4 Zoll große UHD-Anzeige mit Touchfunktion, präziser Farbwiedergabe und angenehmer Zeichenoberfläche ist besonders für Kreative, die auf Präzision und Details achten, ein echtes Highlight. Die zwei mitgelieferten Stifte bieten Flexibilität und Komfort, und die Mini-Tastatur ist eine praktische Ergänzung – auch wenn sie bei Profilverwaltung und Beschriftung noch kleine Schwächen aufweist. Insgesamt ist das Kamvas Pro 19 ein gelungenes Arbeitsgerät, das mit viel Liebe zum Detail überzeugt. Auch preislich überzeugt das Grafiktablett: Aktuell ist es im Huion-Store für 1.039 Euro erhältlich, inklusive des Tischarms ST500, der sonst separat gekauft werden muss. Der reguläre Preis liegt bei 1.299 Euro. Technische Daten: Huion Kamvas Pro 19 Name und Modell:Kamvas Pro 19GT-1902 Größe und Gewicht:Abmessungen: 448.9 x 272.4 x 21.3 mmGewicht: 2 kg Tablet:Panelgröße: 4090 x 2300Auflösung: 3840 x 2160 (16:9 )UHDFarben: 1,07 Mrd. (8bit+FRC)Betrachtungswinkel: 89°/89°(H)/89°/89°(V) (Typ.) (CR>10)Vollständige Laminierung: JaFarbraumvolumen: 150 % sRGBAbdeckung des Farbraums: 99 % sRGB / 99 % Rec.709 / 90% Adobe RGBPixel pro Zoll: 186 PPIAktiver Bereich: 349.6 x 196.7mmLCD-Typ: IPSKontrastverhältnis: 1000:1Helligkeit: 250cd/m2(Max.)Anzeigefarbe: 2. Generation geätztes AntireflexionsglasReaktionszeit: 15msTouch: Ja Stift:Modell: PW600/PW600STechnologie: Pentech 4.0Stiftauflösung: 5080 LPIDruckstufen: 16384Genauigkeit: ~0.3mm (Mitte), ~1mm (Ecke)Lesehöhe: 10mmNeigungserkennung: ~60° Ständer:Integriert: 20° Anschlüsse, Leistung und Kompatibilität:Eingangsspannung: AC 100-240V, 50/60HzAusgangsspannung: 20V 3.25AEnergieverbrauch: ≤18WVESA-Kompatibilität: NeinVideoschnittstelle: 2x USB-CAudioanschluss: 3,5 mmKompatibilität: Windows 10 oder jünger, macOS 10.12 oder jünger, Android (6 oder jünger), Linux (Ubuntu 20.04 LTS) Känguru-Comics: Die Farben sind drauf.Jérémie Kaiser Känguru-Comics: Das finale Artwork nach Marc-Uwe Kling und Bernd Kissel.Jérémie Kaiser (PC-Welt) 

Huion Kamvas Pro 19 im Test: Hohe Qualität mit Mini-Tastatur zum guten Preis​ Jérémie Kaiser

Auf einen Blick

Pro

Gutes Preis-Leistungs-Verhältnis

Sehr gutes Display

Tolles Zeichenerlebnis

Gute Reaktionszeit

Zwei Stifte

Mini-Tastatur

Kontra

Firmeneigene Software müsste verbessert und erweitert werden

Fazit

Das Huion Kamvas Pro 19 wirkt durchdacht und ausgereift. Vom sicheren Verpackungskonzept über das kalibrierte UHD-Display bis zur hochwertigen Haptik zeigt sich: Die Nutzererfahrung stand im Fokus. Die 18,4-Zoll-Touch-Anzeige überzeugt mit guter Farbwiedergabe, präziser Stiftumsetzung und angenehmer Zeichenfläche. Damit eignet es sich gut für detailverliebte Kreative. Zwei mitgelieferte Stifte bieten Flexibilität, die Mini-Tastatur ist praktisch, zeigt aber leichte Schwächen bei Beschriftung und Profilverwaltung. Aktuell kostet das Grafiktablett im Huion-Store 1.039 Euro – inklusive Tischarm ST500. Regulär liegt der Preis bei 1.299 Euro.

Nach meinem Testbericht des Kamvas 16 (Gen 3) der chinesischen Firma Huion, wurde mir angeboten, das Kamvas Pro 19 zu testen (hier auf Amazon erhältlich). Da mir das Zeichnen gefehlt und mir das Testen der letzten Grafiktabletts viel Freude gemacht hat, habe ich gerne zugesagt.

Nun liegt mir das Huion Kamvas Pro 19 vor, das ich gut mit der semiprofessionellen Variante Kamvas 16 (Gen 3) sowie dem Artist Pro 22 (Gen 2) von XPPen vergleichen kann. Den Testbericht zum letzten Grafiktablett finden Sie hier.

Ob Huion mit dem Branchenriesen Wacom mithalten kann, lässt sich an dieser Stelle nicht abschließend sagen. Ich selbst hatte noch nicht das Vergnügen, mit einem professionellen Wacom-Grafiktablett zu arbeiten – mein eigenes, uraltes Wacom Bamboo von 2009 hat dank Tesafilm am Stift bis heute überlebt. Die Qualität hat mich damals wie heute beeindruckt. Allerdings spielt Wacom preislich in einer ganz anderen Liga.

Um die professionelle Sparte Huions anzugehen, habe ich mir vorgenommen, ein Artwork der Känguru-Comics (Carlsen Verlag) nachzuzeichnen. Die freundliche Genehmigung dazu habe ich von Marc-Uwe Kling und Bernd Kissel erhalten, einem der begabtesten Comiczeichner Deutschlands, dessen Federführung ich besonders schätze.

Das Huion Kamvas Pro 19 ist da: Erster Eindruck

Im Vergleich zum Kamvas 16 (Gen 3) hinterlässt das Kamvas Pro 19 einen deutlich erfreulicheren Ersteindruck. Man merkt, dass hier mehr Wert auf die Nutzererfahrung gelegt wurde.

Das Huion Kamvas Pro 19 ist da.Jérémie Kaiser

Anders als beim Kamvas 16 (Gen 3) wird dieses Grafiktablett in einem schlichten braunen Karton geliefert – doch das Äußere sagt bekanntlich nichts über das Innere aus. Beim Öffnen ist alles sauber und sicher verpackt, sogar besser als beim Kamvas 16 (Gen 3). Der Qualitätsunterschied wird hier deutlich sichtbar.

Kamvas Pro 19: Alles ist sicher verpackt.Jérémie Kaiser

Als Erstes fällt der schwarze Umschlag ins Auge. Darin befindet sich der “Huion Pen Display Color Calibration Report”, der bestätigt, dass das Display werkseitig farbkalibriert wurde.

Kamvas Pro 19: Der elegante Umschlag beinhaltet den Color Calibration Report.Jérémie Kaiser

Unter dem Umschlag liegt der Quick-Start-Guide, der den restlichen Inhalt abdeckt: die Mini-Tastatur, die Box mit den zwei Stiften und den Kabeln.

Kamvas Pro 19: Alles sehr ordentlich.Jérémie Kaiser

Der Huion-Handschuh wirkt etwas hochwertiger als der beim Kamvas 16 (Gen 3) und sitzt bei mir perfekt. Er sollte jedoch auf keinen Fall kleiner ausfallen. Zum Vergleich: Meine Hand misst etwa 19 Zentimeter.

Der Handschuh ist etwas hochwertiger als beim Kamvas 16 (Gen 3)Jérémie Kaiser

Bis hierhin ist also alles gut.

Inbetriebnahme des Kamvas Pro 19

Für den Test des Grafiktabletts Kamvas 16 (Gen 3) von Huion hatte ich meinen Laptop genutzt. Das war sehr angenehm, denn zum Verbinden konnte ich die zwei mitgelieferten USB-C-zu-USB-C-Kabel nutzen.

Kamvas Pro 19: Das Display ist groß.Jérémie Kaiser

Das Grafiktablett hat zwei integrierte Füße.Jérémie Kaiser

Um es etwas schwieriger zu machen, verwende ich diesmal meinen Desktop-PC ohne Bluetooth. Dieser Punkt wird später für die mitgelieferte Mini-Tastatur interessant. Hierfür verwende ich das im Paket enthaltene 3-zu-1-Kabel.

Das Kamvas Pro 19 hat zwei USB-C- und einen Audio-Anschluss.Jérémie Kaiser

Die zwei einzigen Knöpfe: Powerbutton und der Sperrschalter, gegen ein versehentliches Ändern der Display-Einstellungen.Jérémie Kaiser

Neben dem Netzanschluss müssen zusätzlich ein HDMI- und ein USB-A-Kabel angeschlossen werden. Bei dieser Variante ist es also ratsam, noch eine weitere Anschlussmöglichkeit für einen weiteren Bildschirm zur Verfügung zu haben, wenn Sie mit zwei Bildschirmen arbeiten möchten.

Sobald das getan ist, müssen Sie den aktuellen Treiber downloaden und installieren (für Windows: “Driver_15.7.6.1658”). Den finden Sie hier.

In der Huion-Tablet-Software, die der vom Kamvas 16 (Gen 3) ähnelt, können Sie den Monitor kalibrieren sowie die zwei Stifte und die Mini-Tastatur einstellen.

Die deutsche Übersetzung wirkt nach wie vor holprig. Zwar ist die Aussage verständlich, doch dieser Punkt stellt einen klaren Nachteil dar, der für den deutschen Markt dringend verbessert werden sollte.

Zwei weitere Kritikpunkte an der Mini-Tastatur fallen zwar ins Gewicht, beeinträchtigen die Nutzung aber kaum: Zum einen lassen sich keine mehreren Arbeitsprofile speichern – eine Funktion, die beispielsweise die Mini-Tastatur des Artist Pro 22 (Gen 2) von Xppen bietet. Zum anderen fehlt eine direkte Beschriftung der Tasten. Zwar kann eine Taste so belegt werden, dass die Belegung angezeigt wird, doch sinnvoller wären permanente Beschriftungen, etwa durch mitgelieferte Aufkleber oder integrierte LEDs.

Die Huion Tablet Software

Die Huion Tablet Software ist übersichtlich aufgebaut und beim Kamvas Pro 19 in zwei geteilt: das Grafiktablett mit den Stiften (als Menüpunkt “Kamvas Pro 19”) und die Mini-Tastatur (als Menüpunkt “Keydial mini K20”), die Sie – leicht übersehbar – als Dropdown-Menü am unteren Fensterrand in der Mitte finden können.

Die Huion Tablet Software.Jérémie Kaiser

Der Menüpunkt “Kamvas Pro 19” bietet drei Hauptreiter: “Stiftanzeige”, “Digitaler Stift” und “Store”. Letzterer führt direkt in den Huion-Online-Shop und öffnet dafür den Standardbrowser.

Unter dem Hauptmenüpunkt “Stiftanzeige”, der das angeschlossene Grafiktablett meint, lässt sich nichts einrichten, da es von Haus aus keine eigenen Funktionstasten neben dem Power-Button und dem Sperrschalter hat.

Im Unterpunkt “Arbeitsbereich” lässt sich die Bildschirmanpassung vornehmen. Vor der ersten Nutzung sollte hier unbedingt die “Monitor-Kalibrierung” durchgeführt werden, damit der Stift korrekt auf dem Display erkannt wird.

Die Monitor-Kalibrierung ist Pflicht.Jérémie Kaiser

Hier können die Buttons der Stifte eingestellt werden.Jérémie Kaiser

Im Reiter “Digitaler Stift” können Sie die beiden im Paket enthaltenen Stifte konfigurieren. Unter “Taste drücken” lassen sich die Funktionstasten der Stifte einstellen, und im Menüpunkt “Anpassung der Druckempfindlichkeit” ist eine Feineinstellung des Druckverhaltens möglich.

Das Kalibrierungsproblem, das ich in meinem Test des Kamvas 16 (Gen 3) beschrieben hatte, trat beim Kamvas Pro 19 nicht auf. Auf meinem Desktop-PC war allerdings auch kein älterer Treiber eines Konkurrenzprodukts installiert.

Wenn Sie also zwei Grafiktabletts unterschiedlicher Hersteller verwenden, sollten Sie darauf achten, dass es dabei unter Umständen zu Kompatibilitätsproblemen kommen kann.

Das Grafikdisplay: Groß und klar

Das Erste, was ich bei einem neuen Grafikdisplay teste, ist stets das Zeichengefühl – also die Druckempfindlichkeit und der Strich selbst. Beim Kamvas 16 (Gen 3) war ich bereits begeistert und erwartete vom Kamvas Pro 19 nicht weniger. Der Strich ist präzise und die Haptik hervorragend. Hier gibt es nichts zu beanstanden.

Die erste Striche fühlen sich wunderbar an.Jérémie Kaiser

Mit 18,4 Zoll in der Diagonalen bietet das Tablet eine schöne große Arbeitsfläche. Die UHD-Auflösung von 3840 × 2160 Pixeln im 16:9-Format sorgt mit 186 ppi für eine gestochen scharfe Darstellung. Besonders bei grafischen Arbeiten oder Videoschnitt macht sich das in der Detailgenauigkeit positiv bemerkbar.

Der Start des Känguru-Comics-Artworks. Die Farben sind sehr schön.Jérémie Kaiser

Das Display gibt 1,07 Milliarden Farben wieder, was für besonders weiche Farbverläufe und ein realistisches Bild sorgt – ideal für alle, die auf Farbtreue angewiesen sind. In Kombination mit der Volllaminierung bietet das Display einen guten Blendschutz und eine leicht raue, papierähnliche Oberfläche. Die entspiegelte Beschichtung reduziert Reflexionen und schont die Augen auch bei längerer Nutzung.

Känguru-Comics: Die Vorzeichnung geht voran. Das Zeichnen fühlt sich hervorragend an.Jérémie Kaiser

Zum Einsatz kommt ein IPS-LCD-Panel mit 60 Hertz, einem Kontrastverhältnis von 1000:1 und einer Helligkeit von 250 Nits. Bei direktem Sonnenlicht stößt das Display zwar an seine Grenzen, aber im Alltag reicht die Helligkeit absolut aus. Die Reaktionszeit von 15 Millisekunden ist solide. Und wirklich toll: Es ist ein Touch-Display, was beim Arbeiten äußerst angenehm ist.

Känguru-Comics: Die Vorzeichnung ist so gut wie fertig.Jérémie Kaiser

Das entspiegelte, geätzte Glas der zweiten Generation trägt maßgeblich zu einem guten Zeichenerlebnis bei: Es reduziert Reflexionen und bietet zugleich eine angenehme Oberfläche für den Stift.

Känguru-Comics: Nach der Vorzeichnung kommt das digitale Tuschen.Jérémie Kaiser

Es ist das erste Mal, dass ich mit einem 19-Zoll-Grafiktablett arbeite und für mich passt die Größe des Displays richtig gut. Es ist groß genug, um auch an umfangreicheren Projekten komfortabel zu arbeiten, aber nicht so wuchtig, dass es den ganzen Schreibtisch einnimmt.

Die finale Arbeit am nachgezeichneten Artwork der Känguru-Comics finden Sie wie immer nach den technischen Daten.

Zwei Stifte, zwei Formen: Gleiche Präzision

Im Lieferumfang sind zwei unterschiedliche Stifte enthalten: der PW600 und der PW600S. Beide basieren auf der aktuellen Pentech-4.0-Technologie und bieten 16.384 Druckstufen, eine Neigungsunterstützung von etwa sechzig Grad sowie eine minimale Aktivierungsdynamik von zwei Gramm. Kurz gesagt: Sie reagieren äußerst präzise und vermitteln beim Zeichnen ein natürliches und direktes Gefühl.

Die zwei Stifte kommen in einem hübschen Etui.Jérémie Kaiser

Der PW600 ist ein klassischer Zeichenstift mit einem angenehm breiten Griff, drei programmierbaren Seitentasten und einer Radiererfunktion am Stiftende. Das ist ideal für schnelles Arbeiten in Programmen wie zum Beispiel Photoshop.

Wer lieber mit einem schlankeren Werkzeug arbeitet, greift zum PW600S. Dieser ist etwas leichter und dünner, verzichtet aber auf die Radiererfunktion und hat nur zwei Seitentasten. Im Hinblick auf Technik und Druckgefühl sind beide Modelle auf Augenhöhe. Es ist also reine Geschmackssache, zu welchem man greift.

So könnten die zwei Stifte im Etui ruhen.Jérémie Kaiser

Den unangenehmen Geruch, den ich beim Kamvas 16 (Gen 3) bemerkt hatte, gab es beim Kamvas Pro 19 nicht. Zur Einordnung: Die Stifte sind laut Hersteller REACH-konform (die entsprechenden Dokumente wurden nachträglich zur Verfügung gestellt).

Beide Stifte sind akku- und batterielos und kommen zusammen in einem stabilen Etui mit Ersatzspitzen aus Kunststoff und Filz sowie einem Spitzen-Entferner auf der Unterseite.

Die Mini-Tastatur: Kompakte Hilfe mit großem Nutzen

Wer häufig mit Shortcuts arbeitet, wird die Mini-Tastatur “Keydial Mini K20” schnell zu schätzen wissen. Sie ist klein, leicht und speziell für den Einsatz mit Grafiktabletts gedacht. Sie lässt sich aber genauso gut mit anderen Programmen oder Geräten verwenden.

Die Mini-Tastatur ist äußerst hilfreich.Jérémie Kaiser

Die Tastatur bietet 18 frei belegbare Tasten sowie einen drehbaren Multifunktionsknopf (in der Software auch “Dial” genannt). Über die Huion-Software lassen sich alle Eingaben individuell konfigurieren: zum Beispiel für Zoom, Pinselgröße oder das schnelle Wechseln von Werkzeugen. Besonders praktisch: In der Software gibt es einen Button zur Vorschau der aktuellen Belegung, was gerade bei wechselnden Set-ups hilfreich ist.

Die Verbindung klappt entweder kabelgebunden via USB-C oder kabellos über Bluetooth. Bei kabelloser Nutzung hält der Akku laut Hersteller mehrere Tage durch. Einen Langzeittest konnte ich hier nicht durchführen, da die Mini-Tastatur an einem Desktop-PC ohne Bluetooth angeschlossen war.

Wie bereits weiter oben erwähnt, habe ich zwei kleine Verbesserungsvorschläge zur Mini-Tastatur: Es können nicht mehrere Profile gespeichert werden, und eine direkte Tastenbeschriftung fehlt. Praktischer wären mitgelieferte Aufkleber oder integrierte LEDs.

Fazit

Das Huion Kamvas Pro 19 hinterlässt einen durchweg durchdachten und ausgereiften Eindruck. Von der sicheren Verpackung über das werkseitig kalibrierte Display bis hin zur hochwertigen Haptik zeigt sich deutlich, dass großer Wert auf die Nutzererfahrung gelegt wurde. Die 18,4 Zoll große UHD-Anzeige mit Touchfunktion, präziser Farbwiedergabe und angenehmer Zeichenoberfläche ist besonders für Kreative, die auf Präzision und Details achten, ein echtes Highlight.

Die zwei mitgelieferten Stifte bieten Flexibilität und Komfort, und die Mini-Tastatur ist eine praktische Ergänzung – auch wenn sie bei Profilverwaltung und Beschriftung noch kleine Schwächen aufweist. Insgesamt ist das Kamvas Pro 19 ein gelungenes Arbeitsgerät, das mit viel Liebe zum Detail überzeugt.

Auch preislich überzeugt das Grafiktablett: Aktuell ist es im Huion-Store für 1.039 Euro erhältlich, inklusive des Tischarms ST500, der sonst separat gekauft werden muss. Der reguläre Preis liegt bei 1.299 Euro.

Technische Daten: Huion Kamvas Pro 19

Name und Modell:Kamvas Pro 19GT-1902

Größe und Gewicht:Abmessungen: 448.9 x 272.4 x 21.3 mmGewicht: 2 kg

Tablet:Panelgröße: 4090 x 2300Auflösung: 3840 x 2160 (16:9 )UHDFarben: 1,07 Mrd. (8bit+FRC)Betrachtungswinkel: 89°/89°(H)/89°/89°(V) (Typ.) (CR>10)Vollständige Laminierung: JaFarbraumvolumen: 150 % sRGBAbdeckung des Farbraums: 99 % sRGB / 99 % Rec.709 / 90% Adobe RGBPixel pro Zoll: 186 PPIAktiver Bereich: 349.6 x 196.7mmLCD-Typ: IPSKontrastverhältnis: 1000:1Helligkeit: 250cd/m2(Max.)Anzeigefarbe: 2. Generation geätztes AntireflexionsglasReaktionszeit: 15msTouch: Ja

Stift:Modell: PW600/PW600STechnologie: Pentech 4.0Stiftauflösung: 5080 LPIDruckstufen: 16384Genauigkeit: ~0.3mm (Mitte), ~1mm (Ecke)Lesehöhe: 10mmNeigungserkennung: ~60°

Ständer:Integriert: 20°

Anschlüsse, Leistung und Kompatibilität:Eingangsspannung: AC 100-240V, 50/60HzAusgangsspannung: 20V 3.25AEnergieverbrauch: ≤18WVESA-Kompatibilität: NeinVideoschnittstelle: 2x USB-CAudioanschluss: 3,5 mmKompatibilität: Windows 10 oder jünger, macOS 10.12 oder jünger, Android (6 oder jünger), Linux (Ubuntu 20.04 LTS)

Känguru-Comics: Die Farben sind drauf.Jérémie Kaiser

Känguru-Comics: Das finale Artwork nach Marc-Uwe Kling und Bernd Kissel.Jérémie Kaiser

(PC-Welt)

Huion Kamvas Pro 19 im Test: Hohe Qualität mit Mini-Tastatur zum guten Preis​ Weiterlesen »

Nach oben scrollen
×