Computerhaus Quickborn

Dezember 2024

Die wunderbare KI-Zukunft der Netzwerke​

Allgemein

KI erleichtert es, Netzwerke, Anwendungen und Daten zu managen, schafft aber auch neue Probleme. „Guten Morgen, Samantha“, meldet sich der KI-Assistent. „Ich hoffe, Sie hatten einen wunderschönen Urlaub. Hier ist Ihre tägliche Zusammenfassung und Ihr persönlicher Überblick über die letzten zwei Wochen. Die nächtlichen Wartungsarbeiten wurden erfolgreich und ohne Störungen abgeschlossen. Möchten Sie die neuesten Nachrichten lesen?“. „Ja, gerne“, sagt Samantha. „Hier sind die neuesten Informationen Ihrer wichtigsten Dienstleister und Themen. Außerdem wird ein neuer Sicherheitsstandard eingeführt, der für uns relevant sein könnte. Möchten Sie mehr darüber erfahren?“. So ähnlich könnte schon in einigen Jahren der erste Arbeitstag einer IT-Administratorin nach einem erholsamen Urlaub aussehen. Statt eines völlig überlaufenden und unübersichtlichen Posteingangs wird sie von einer kurzen, KI-gestützten Zusammenfassung begrüßt. Das ist für Samantha der beste Teil ihres Morgens – kein hektisches Scannen durch verschiedene Systeme, keine bösen Überraschungen, sondern nur eine klare und übersichtliche Zusammenfassung der letzten Wochen. Was für ein Unterschied zu ihren Anfängen in der IT, als jeder Tag eine Menge neuer Probleme mit sich brachte. Die Entwicklung von AIOps in Unternehmensnetzen In den letzten Jahren hat sich der Einsatz von Künstlicher Intelligenz (KI) und maschinellem Lernen (ML) erheblich weiterentwickelt. Netzwerkanbieter haben sich schon vor einiger Zeit auf den Weg gemacht, AIOps-Lösungen, die Explainable Machine Learning nutzen, in ihre Produkte zu integrieren. Solche Technologien tragen dazu bei, den Netzwerk- und Sicherheitsbetrieb zu optimieren, Prozesse zu automatisieren und Arbeitsabläufe zu vereinfachen. Gleichzeitig werden potenzielle Probleme und Störungen proaktiv erkannt. Größtenteils wird KI als Erweiterung bestehender Cloud-Management-Funktionen eingesetzt, um Routineaufgaben zu automatisieren, Probleme schneller zu lösen und die Netzwerkperformance besser zu überwachen und zu optimieren. Die nächste Stufe: KI verändert die Interaktion Die jüngsten Fortschritte in der KI werden die Art und Weise, wie wir Netzwerke, Anwendungen und Daten verwalten und mit den Systemen dieser Infrastrukturen interagieren, grundlegend verändern. Heute leben wir in einer Welt der Cloud-Anwendungen, die den Zugang zu Technologien für die Nutzer vereinfacht haben. Es bringt jedoch auch eigene Herausforderungen mit sich. Denn es gibt unzähligen Anwendungen, die isoliert und schwer zu managen sind. Ein konsistentes Benutzererlebnis ist dadurch schwer möglich, da diese Anwendungen nicht miteinander kommunizieren können, APIs aufwändig integriert werden müssen und Netzwerkumgebungen komplexer denn je sind. Auf den Punkt gebracht: mehr Infrastruktur, mehr Geräte, mehr Standorte und mehr Sicherheitsbedrohungen. In einer aktuellen Umfrage unter CIOs und IT-Entscheidern von Extreme Networks (Zugriff gegen Daten) gaben 88 Prozent der Befragten an, dass sie sich eine integrierte Plattform für Netzwerk, KI und Sicherheit wünschen. Dieses Ergebnis spiegelt die steigende Nachfrage nach Plattformlösungen, einem robusten Integrations-Ökosystem und einer konsistenten Benutzererfahrung wider. Schon bald werden die aktuellen Fortschritte in der generativen KI völlig neue Formen der Mensch-Maschine-Interaktion ermöglichen. KI entschärft Fachkräftemangel Die Integration von KI in das Netzwerk- und Sicherheitsmanagement trifft auf ein immer drängenderes Problem: den Fachkräftemangel. Viele junge IT´ler konzentrieren sich lieber auf Softwareanwendungen als auf Infrastrukturen wie Netzwerke und IT-Sicherheit. Die Anzahl qualifizierter Fachkräfte in diesem Bereich nimmt stetig ab. Es ist davon auszugehen, dass der branchenübergreifende Fachkräftemangel dieses Problem in den kommenden Jahren noch verschärfen wird. Um dem zu begegnen, bietet KI jedoch nicht nur die Möglichkeit, die Schulung und Qualifizierung für zukünftige Fachkräfte neu zu gestalten, sondern „zündet“ auch die nächste Stufe von Low-Code- und No-Code-Lösungen für die Netzwerk- und Sicherheitsautomatisierung. Dies senkt die Einstiegshürden für junge Talente und Quereinsteiger und baut den potenziellen Arbeitskräfte-Pool aus. Transformation und Change Management: KI fordert ein Umdenken Bevor Unternehmen KI-basierte Prozesse im großen Stil einführen, müssen sie sich jedoch über die Auswirkungen auf bestehende Prozesse, Dokumentationen, Governance etc. im Klaren sein. Leitplanken müssen gesetzt werden, vor allem aber ist es erforderlich, das Vertrauen der Mitarbeitenden in die neuen Technologien zu gewinnen und zu festigen. Verantwortliche sind daher dazu angehalten, den Mitarbeitenden nicht nur Zeit geben, sich mit der Technologie und den neuen Lösungen vertraut zu machen. Sie sollten sie auch ermutigen, neue Vorschläge einzubringen, wie KI neue Erfahrungen beschleunigen, ersetzen oder sogar erst schaffen kann. Nur so kann das Potenzial von KI vollständig ausgeschöpft werden, sei es in der Kundeninteraktion, im Support oder bei internen Prozessen. Ohne einen kulturellen Wandel wird es schwierig, KI in vollem Umfang zu implementieren und zu nutzen. Die Zukunft der Netzwerke ist da Zuverlässige Netzwerkverbindungen sind der Dreh- und Angelpunkt der Digitalisierung. Durch künstliche Intelligenz werden Netzwerke nicht nur intelligenter, sondern auch effizienter, skalierbarer und sicherer. Angesichts des Fachkräftemangels und der zunehmenden Anzahl von Endgeräten und Anwendungen werden KI-basierte Plattformen in naher Zukunft ein entscheidender Faktor. Indem KI reibungslos im Hintergrund arbeitet und die Interaktion mit der Plattform verbessert, ermöglicht sie es IT-Teams, sich auf strategische Prioritäten zu konzentrieren und so die Produktivität zu steigern. (mb) 

Die wunderbare KI-Zukunft der Netzwerke​ KI erleichtert es, Netzwerke, Anwendungen und Daten zu managen, schafft aber auch neue Probleme.

„Guten Morgen, Samantha“, meldet sich der KI-Assistent. „Ich hoffe, Sie hatten einen wunderschönen Urlaub. Hier ist Ihre tägliche Zusammenfassung und Ihr persönlicher Überblick über die letzten zwei Wochen. Die nächtlichen Wartungsarbeiten wurden erfolgreich und ohne Störungen abgeschlossen. Möchten Sie die neuesten Nachrichten lesen?“. „Ja, gerne“, sagt Samantha. „Hier sind die neuesten Informationen Ihrer wichtigsten Dienstleister und Themen. Außerdem wird ein neuer Sicherheitsstandard eingeführt, der für uns relevant sein könnte. Möchten Sie mehr darüber erfahren?“.

So ähnlich könnte schon in einigen Jahren der erste Arbeitstag einer IT-Administratorin nach einem erholsamen Urlaub aussehen. Statt eines völlig überlaufenden und unübersichtlichen Posteingangs wird sie von einer kurzen, KI-gestützten Zusammenfassung begrüßt.

Das ist für Samantha der beste Teil ihres Morgens – kein hektisches Scannen durch verschiedene Systeme, keine bösen Überraschungen, sondern nur eine klare und übersichtliche Zusammenfassung der letzten Wochen. Was für ein Unterschied zu ihren Anfängen in der IT, als jeder Tag eine Menge neuer Probleme mit sich brachte.

Die Entwicklung von AIOps in Unternehmensnetzen

In den letzten Jahren hat sich der Einsatz von Künstlicher Intelligenz (KI) und maschinellem Lernen (ML) erheblich weiterentwickelt. Netzwerkanbieter haben sich schon vor einiger Zeit auf den Weg gemacht, AIOps-Lösungen, die Explainable Machine Learning nutzen, in ihre Produkte zu integrieren. Solche Technologien tragen dazu bei, den Netzwerk- und Sicherheitsbetrieb zu optimieren, Prozesse zu automatisieren und Arbeitsabläufe zu vereinfachen. Gleichzeitig werden potenzielle Probleme und Störungen proaktiv erkannt. Größtenteils wird KI als Erweiterung bestehender Cloud-Management-Funktionen eingesetzt, um Routineaufgaben zu automatisieren, Probleme schneller zu lösen und die Netzwerkperformance besser zu überwachen und zu optimieren.

Die nächste Stufe: KI verändert die Interaktion

Die jüngsten Fortschritte in der KI werden die Art und Weise, wie wir Netzwerke, Anwendungen und Daten verwalten und mit den Systemen dieser Infrastrukturen interagieren, grundlegend verändern. Heute leben wir in einer Welt der Cloud-Anwendungen, die den Zugang zu Technologien für die Nutzer vereinfacht haben.

Es bringt jedoch auch eigene Herausforderungen mit sich. Denn es gibt unzähligen Anwendungen, die isoliert und schwer zu managen sind. Ein konsistentes Benutzererlebnis ist dadurch schwer möglich, da diese Anwendungen nicht miteinander kommunizieren können, APIs aufwändig integriert werden müssen und Netzwerkumgebungen komplexer denn je sind. Auf den Punkt gebracht: mehr Infrastruktur, mehr Geräte, mehr Standorte und mehr Sicherheitsbedrohungen.

In einer aktuellen Umfrage unter CIOs und IT-Entscheidern von Extreme Networks (Zugriff gegen Daten) gaben 88 Prozent der Befragten an, dass sie sich eine integrierte Plattform für Netzwerk, KI und Sicherheit wünschen. Dieses Ergebnis spiegelt die steigende Nachfrage nach Plattformlösungen, einem robusten Integrations-Ökosystem und einer konsistenten Benutzererfahrung wider. Schon bald werden die aktuellen Fortschritte in der generativen KI völlig neue Formen der Mensch-Maschine-Interaktion ermöglichen.

KI entschärft Fachkräftemangel

Die Integration von KI in das Netzwerk- und Sicherheitsmanagement trifft auf ein immer drängenderes Problem: den Fachkräftemangel. Viele junge IT´ler konzentrieren sich lieber auf Softwareanwendungen als auf Infrastrukturen wie Netzwerke und IT-Sicherheit. Die Anzahl qualifizierter Fachkräfte in diesem Bereich nimmt stetig ab. Es ist davon auszugehen, dass der branchenübergreifende Fachkräftemangel dieses Problem in den kommenden Jahren noch verschärfen wird.

Um dem zu begegnen, bietet KI jedoch nicht nur die Möglichkeit, die Schulung und Qualifizierung für zukünftige Fachkräfte neu zu gestalten, sondern „zündet“ auch die nächste Stufe von Low-Code- und No-Code-Lösungen für die Netzwerk- und Sicherheitsautomatisierung. Dies senkt die Einstiegshürden für junge Talente und Quereinsteiger und baut den potenziellen Arbeitskräfte-Pool aus.

Transformation und Change Management: KI fordert ein Umdenken

Bevor Unternehmen KI-basierte Prozesse im großen Stil einführen, müssen sie sich jedoch über die Auswirkungen auf bestehende Prozesse, Dokumentationen, Governance etc. im Klaren sein. Leitplanken müssen gesetzt werden, vor allem aber ist es erforderlich, das Vertrauen der Mitarbeitenden in die neuen Technologien zu gewinnen und zu festigen.

Verantwortliche sind daher dazu angehalten, den Mitarbeitenden nicht nur Zeit geben, sich mit der Technologie und den neuen Lösungen vertraut zu machen. Sie sollten sie auch ermutigen, neue Vorschläge einzubringen, wie KI neue Erfahrungen beschleunigen, ersetzen oder sogar erst schaffen kann. Nur so kann das Potenzial von KI vollständig ausgeschöpft werden, sei es in der Kundeninteraktion, im Support oder bei internen Prozessen. Ohne einen kulturellen Wandel wird es schwierig, KI in vollem Umfang zu implementieren und zu nutzen.

Die Zukunft der Netzwerke ist da

Zuverlässige Netzwerkverbindungen sind der Dreh- und Angelpunkt der Digitalisierung. Durch künstliche Intelligenz werden Netzwerke nicht nur intelligenter, sondern auch effizienter, skalierbarer und sicherer. Angesichts des Fachkräftemangels und der zunehmenden Anzahl von Endgeräten und Anwendungen werden KI-basierte Plattformen in naher Zukunft ein entscheidender Faktor. Indem KI reibungslos im Hintergrund arbeitet und die Interaktion mit der Plattform verbessert, ermöglicht sie es IT-Teams, sich auf strategische Prioritäten zu konzentrieren und so die Produktivität zu steigern. (mb)

Die wunderbare KI-Zukunft der Netzwerke​ Weiterlesen »

Tipps zur KI-Mitarbeiterförderung: So schließen Arbeitgeber die Digitalisierungslücke​

Allgemein

Unternehmen sind gut beraten, bei ihren Beschäftigten die sinnvolle Anwendung von KI-Tools zu fördern und die Akzeptanz für entsprechende Anwendungen zu steigern. Foto: Owlie Productions – shutterstock.com Der Mensch an sich ist in seinen Entscheidungen von vielen verschiedenen Eindrücken geprägt. Unser Gehirn ist so strukturiert, dass wir Informationen wie in “Schubladen” ablegen – ein Vorgang, der die Bildung von Stereotypen und Vorurteilen stark begünstigt. Laut einer Theorie des renommierten Psychologen Daniel Kahneman existieren in uns zwei Denksysteme. Eines funktioniert schnell und unreflektiert sowie eines langsam und reflektiert. Unsere Entscheidungen sind demnach stets eine Mischung aus objektiven Fakten und subjektiven Einflüssen. Wenn wir also eine Wahl treffen, ist diese vielleicht objektiv geprägt, aber immer auch subjektiv beeinflusst. Künstliche Intelligenz verspricht uns Objektivität und Sachlichkeit, ohne den Einfluss von menschlichen Emotionen. KI analysiert, kategorisiert und bewertet Informationen – dennoch ist die Annahme, dass sie dabei ohne Vorurteile agiert, vorschnell getroffen. Generative KI kann rassistisch sein Das wird an einem Phänomen schnell deutlich. Wenn man einen Menschen nach einem Bild einer schönen Frau fragt, wird die Wahl sehr subjektiv sein. Vielleicht wird einem das Bild der Mutter gezeigt, der Partnerin oder des Lieblingsmodels der Person. Wenn man hingegen eine generative KI fragt, so ein Bild zu erstellen, sieht die Antwort anders aus, denn das KI-generierte Bild ist fast immer: eine junge Frau, Sanduhrfigur, glatte Haut, lange Haare, perfekte Gesichtszüge, schlanke Taille, üppige Oberweite – und meistens weiße Haut, was dem Ganzen auch noch einen rassistischen Beigeschmack gibt. Dieses Schönheitsideal ist stark männlich geprägt und von Stereotypen durchzogen. Aber wie kann das sein, wenn KI doch neutral sein sollte? KI arbeitet mit dem, was sie an “Futter” bekommt, und das sind Informationen und Reaktionen. Diese sind selten neutral, außer es handelt sich um klare Fakten wie 1+1=2. Viel eher sind sie geprägt und untermauert von Meinungen, Vorurteilen und Denkmustern, welche sich konstant durch unsere Gesellschaft ziehen. Das geschieht durch das gezielte “Liken” von Bildern, der Weiterverarbeitung der KI-Inhalte und dem Feedback, was das Tool daraus generiert – ein Teufelskreis, der bestehende Vorurteile nicht neutralisiert, sondern sie vielmehr verstärkt. Männliches Verhalten prägen die KI-Tools Doch wer sind die Personen, die KI-Tools nutzen und trainieren? Tatsächlich sind es aktuell noch zum größten Teil Männer. Dadurch geben sie den Tools deutlich mehr Input und Feedback, als Frauen das tun. Das Ganze beginnt bereits im Jugendalter. Es sind eher Jungs, die Interesse an KI-Tools zeigen, wie eine Studie des Medienpädagogischen Forschungsverbunds Südwest zeigt. Die Konsequenz: Da KI-Tools konstant lernen, wird ihre Entwicklung einseitig geprägt durch männliches Verhalten – wodurch dann zum Beispiel KI-generierte Bilder eher dem männlichen Schönheitsideal entsprechen. Hinzu kommt, dass nicht nur die Nutzung, sondern auch die Entwicklung und Programmierung der Tools eher männlich orientiert ist, da wesentlich mehr Männer in diesen Berufen arbeiten. Und auch auf Unternehmensebene sind die negativen Konsequenzen der Verstärkung von Stereotypen und Vorurteilen durch KI zu spüren: Bereits 2018 konnte dies beobachtet werden, als Amazon ihr KI-basiertes Recruiting Tool einstellen musste, da es Männer für technische Jobs bevorzugte. Das Tool hatte gelernt, dass sich deutlich mehr Männer auf diese Stellen bewerben und sie somit folglich präferiert, während Bewerbungen, die Begriffe wie “women’s” enthielten, abgestraft wurden. Dem kann entgegengewirkt werden – und zwar auf vielen Ebenen. Frühkindliche Bildung, die besonders Mädchen beim Umgang mit KI ermutigt und ihnen starke weibliche Vorbilder an die Hand gibt, wäre ein Gedanke. Auch sind Frauen im MINT-Bereich immer noch unterrepräsentiert. Laut Daten des Statistischen Bundesamts lag der Anteil an MINT-Studentinnen an deutschen Hochschulen zum Wintersemester 2022/23 bei etwa 32 Prozent – zwar mit den Vorjahren verglichen eine steigende Tendenz, aber immer noch nicht ausgeglichen. Ich sehe aber in einem Bereich einen besonderen Spielraum, den vor allem Führungskräfte zukünftig nutzen sollten: Unternehmen als KI-Enabler für Frauen. Folgende vier Punkte lege ich Arbeitgebern ans Herz: 1. Schließt euer Digitalisierungs-Gap Unternehmen müssen noch wettbewerbsfähiger werden, um sich auf dem Markt zu behaupten und mit den neuesten Technologien mitzuhalten. Dennoch hängen viele hinterher und setzen eher auf analoge Papierwirtschaft statt auf digitale Vereinfachung. Auch in den Unternehmen selbst lässt sich dieses “Digitalisierungs-Gap” beobachten: Jüngere Mitarbeitende sind deutlich sicherer im Umgang mit neuen technischen Systemen, während ältere Kollegen und Kolleginnen eher überfordert sind. Hier liegt die Kunst darin, diese Lücke im ersten Schritt zu schließen. Unternehmen müssen ihre gesamte Belegschaft – Frauen und Männer, jung und alt – zum Umgang mit neuen Technologien ermutigen und auch für KI fit machen. 2. Bietet Schulungen für den Umgang an Der nächste Schritt liegt darin, den Umgang mit KI zu erlernen. Viele Unternehmen scheuen sich aus Datenschutzgründen oder aus Unsicherheit noch davor, KI-Tools für die Prozesse zu nutzen. Einige setzen daher auf eine unternehmensinterne KI-Variante, die diesen Datenschutz garantieren kann. So oder so gilt es, sowohl Männer als auch Frauen beim Umgang mit den Tools abzuholen. Hierfür könnte es verpflichtende Schulungen in allen Abteilungen geben, die zusätzlich für die Gefahr der Verstärkung von Vorurteilen sensibilisieren und somit einen starken Motivator für Frauen zur Nutzung liefern. 3. Errichtet “Safe Spaces” zum Austausch Weibliche Führungskräfte, die selbst schon sicher im Umgang mit KI-Tools sind, können ihr Wissen mit Kolleginnen in sogenannten “Safe Spaces” teilen. Hierdurch entsteht ein geschützter Raum für Rückfragen, zum Üben vom Schreiben von Prompts und ein Verständnis für die Bedenken bei der Nutzung. Auch mit Männern sollte es diese Möglichkeit des Austausches geben, damit alle Perspektiven in einen Dialog miteinander treten können. 4. Fördert “menschliche” Fähigkeiten Ein wichtiger Punkt ist zusätzlich, dass Unternehmen bei der Nutzung von KI auch die “menschlichen” Fähigkeiten – Soft Skills – ihrer Mitarbeitenden schulen. Diese beziehen sich auf Kompetenzen, die den Menschen in den Mittelpunkt stellen wie Empathie, Kommunikation oder kritisches Denken. In Zeiten von KI gewinnen menschenzentrierte Fähigkeiten immer mehr an Bedeutung und ergänzen die Technologie auf einzigartige Weise. Sie können zukünftig ein wichtiges Gegengewicht zur Vermeidung von Vorurteilen in KI-Systemen darstellen. Unternehmen und Führungskräfte haben einen gewaltigen Spielraum, wenn es darum geht, den Umgang mit KI zu verbessern und Vorurteile bei der Nutzung nicht weiter zu verstärken, sondern auszugleichen. Dafür muss die Angst vor der KI einer gesunden Neugier und dem Willen zum Wandel weichen. Künstliche Intelligenz: Tipps zur Entwicklung neuer KI-ProjekteWie Sie Mitarbeiter für Künstliche Intelligenz begeisternIm Zuge der digitalen Transformation halten immer mehr KI-Anwendungen Einzug ins Arbeitsleben. Um bei möglichst vielen Mitarbeitern die Akzeptanz für die KI-Technologie zu wecken, rät Skillsoft-CEO Jeff Tarr zu folgenden Maßnahmen. Wie Sie Mitarbeiter für Künstliche Intelligenz begeistern Foto: Runa0410 – shutterstock.comIm Zuge der digitalen Transformation halten immer mehr KI-Anwendungen Einzug ins Arbeitsleben. Um bei möglichst vielen Mitarbeitern die Akzeptanz für die KI-Technologie zu wecken, rät Skillsoft-CEO Jeff Tarr zu folgenden Maßnahmen. 1. Sichere Trainingsumgebung bereitstellenMan sollte zunächst die Möglichkeit geben, KI spielerisch auszuprobieren. Genauso wichtig, wenn nicht sogar noch wichtiger, ist es, parallel dazu Leitlinien bereitzustellen. Neben der Förderung von Innovation durch Kreativität sollte verantwortungsvolles, ethisches und umsichtiges Handeln ein fester Bestandteilt bei der Anwendung von KI sein. Entwerfen und teilen Sie die Richtlinien Ihrer Organisation, bieten Sie angemessene Schulungen an.1. Sichere Trainingsumgebung bereitstellen Foto: Alexander Supertramp – shutterstock.comMan sollte zunächst die Möglichkeit geben, KI spielerisch auszuprobieren. Genauso wichtig, wenn nicht sogar noch wichtiger, ist es, parallel dazu Leitlinien bereitzustellen. Neben der Förderung von Innovation durch Kreativität sollte verantwortungsvolles, ethisches und umsichtiges Handeln ein fester Bestandteilt bei der Anwendung von KI sein. Entwerfen und teilen Sie die Richtlinien Ihrer Organisation, bieten Sie angemessene Schulungen an.2. Benchmarking vorhandener FähigkeitenPrüfen und erfassen Sie die vorhandenen KI-Fähigkeiten Ihrer Belegschaft und welche Skills ergänzt oder ausgebaut werden müssen. Im Wettlauf um die Nutzung des Potenzials von GenAI beruht der Erfolg maßgeblich auf Qualifikationen. Dabei sind technische Fähigkeiten von großer Bedeutung, aber Skills wie emotionale Intelligenz, Agilität, Kreativität und effektive Kommunikation sind sogar noch wichtiger, wenn Sie GenAI-Strategien entwickeln, verwalten und implementieren. Bieten Sie Ihrer bestehenden Belegschaft die Möglichkeit, sich im Zuge ihres Wachstums in neue Rollen weiterzuentwickeln.2. Benchmarking vorhandener Fähigkeiten Foto: Jirsak – shutterstock.comPrüfen und erfassen Sie die vorhandenen KI-Fähigkeiten Ihrer Belegschaft und welche Skills ergänzt oder ausgebaut werden müssen. Im Wettlauf um die Nutzung des Potenzials von GenAI beruht der Erfolg maßgeblich auf Qualifikationen. Dabei sind technische Fähigkeiten von großer Bedeutung, aber Skills wie emotionale Intelligenz, Agilität, Kreativität und effektive Kommunikation sind sogar noch wichtiger, wenn Sie GenAI-Strategien entwickeln, verwalten und implementieren. Bieten Sie Ihrer bestehenden Belegschaft die Möglichkeit, sich im Zuge ihres Wachstums in neue Rollen weiterzuentwickeln.3. Interne Experten einbeziehenNutzen Sie das Wissen, die Erfahrung und die Fähigkeiten Ihrer internen KI-Fachexperten. Beziehen Sie sie in Anwendungsempfehlungen und unternehmenspolitische Entscheidungen ein. 3. Interne Experten einbeziehen Foto: SuPatMaN – shutterstock.comNutzen Sie das Wissen, die Erfahrung und die Fähigkeiten Ihrer internen KI-Fachexperten. Beziehen Sie sie in Anwendungsempfehlungen und unternehmenspolitische Entscheidungen ein. 4. Umfassende Beteiligung anstrebenErwägen Sie Angebote wie KI-fokussierte “Lunch and Learns” sowie unternehmensweite “Innovation Challenges”, “Hackathons” oder “Sprints”. KI-Integrationen können aus solchen Aktivitäten hervorgehen. Und das Wichtigste: Helfen Sie Ihren Mitarbeitern, ihre Ängste vor einer KI-gesteuerten dystopischen Zukunft zu überwinden. Eine der besten Möglichkeiten, Ängste zu besiegen, besteht darin, Neugier zu wecken, fundierte Lernerfahrungen anzubieten und Möglichkeiten zum spielerischen Ausprobieren zu schaffen.4. Umfassende Beteiligung anstreben Foto: fotogestoeber – shutterstock.comErwägen Sie Angebote wie KI-fokussierte “Lunch and Learns” sowie unternehmensweite “Innovation Challenges”, “Hackathons” oder “Sprints”. KI-Integrationen können aus solchen Aktivitäten hervorgehen. Und das Wichtigste: Helfen Sie Ihren Mitarbeitern, ihre Ängste vor einer KI-gesteuerten dystopischen Zukunft zu überwinden. Eine der besten Möglichkeiten, Ängste zu besiegen, besteht darin, Neugier zu wecken, fundierte Lernerfahrungen anzubieten und Möglichkeiten zum spielerischen Ausprobieren zu schaffen. 

Tipps zur KI-Mitarbeiterförderung: So schließen Arbeitgeber die Digitalisierungslücke​ Unternehmen sind gut beraten, bei ihren Beschäftigten die sinnvolle Anwendung von KI-Tools zu fördern und die Akzeptanz für entsprechende Anwendungen zu steigern.
Foto: Owlie Productions – shutterstock.com

Der Mensch an sich ist in seinen Entscheidungen von vielen verschiedenen Eindrücken geprägt. Unser Gehirn ist so strukturiert, dass wir Informationen wie in “Schubladen” ablegen – ein Vorgang, der die Bildung von Stereotypen und Vorurteilen stark begünstigt. Laut einer Theorie des renommierten Psychologen Daniel Kahneman existieren in uns zwei Denksysteme. Eines funktioniert schnell und unreflektiert sowie eines langsam und reflektiert. Unsere Entscheidungen sind demnach stets eine Mischung aus objektiven Fakten und subjektiven Einflüssen. Wenn wir also eine Wahl treffen, ist diese vielleicht objektiv geprägt, aber immer auch subjektiv beeinflusst.

Künstliche Intelligenz verspricht uns Objektivität und Sachlichkeit, ohne den Einfluss von menschlichen Emotionen. KI analysiert, kategorisiert und bewertet Informationen – dennoch ist die Annahme, dass sie dabei ohne Vorurteile agiert, vorschnell getroffen.

Generative KI kann rassistisch sein

Das wird an einem Phänomen schnell deutlich. Wenn man einen Menschen nach einem Bild einer schönen Frau fragt, wird die Wahl sehr subjektiv sein. Vielleicht wird einem das Bild der Mutter gezeigt, der Partnerin oder des Lieblingsmodels der Person. Wenn man hingegen eine generative KI fragt, so ein Bild zu erstellen, sieht die Antwort anders aus, denn das KI-generierte Bild ist fast immer: eine junge Frau, Sanduhrfigur, glatte Haut, lange Haare, perfekte Gesichtszüge, schlanke Taille, üppige Oberweite – und meistens weiße Haut, was dem Ganzen auch noch einen rassistischen Beigeschmack gibt. Dieses Schönheitsideal ist stark männlich geprägt und von Stereotypen durchzogen. Aber wie kann das sein, wenn KI doch neutral sein sollte?

KI arbeitet mit dem, was sie an “Futter” bekommt, und das sind Informationen und Reaktionen. Diese sind selten neutral, außer es handelt sich um klare Fakten wie 1+1=2. Viel eher sind sie geprägt und untermauert von Meinungen, Vorurteilen und Denkmustern, welche sich konstant durch unsere Gesellschaft ziehen. Das geschieht durch das gezielte “Liken” von Bildern, der Weiterverarbeitung der KI-Inhalte und dem Feedback, was das Tool daraus generiert – ein Teufelskreis, der bestehende Vorurteile nicht neutralisiert, sondern sie vielmehr verstärkt.

Männliches Verhalten prägen die KI-Tools

Doch wer sind die Personen, die KI-Tools nutzen und trainieren? Tatsächlich sind es aktuell noch zum größten Teil Männer. Dadurch geben sie den Tools deutlich mehr Input und Feedback, als Frauen das tun. Das Ganze beginnt bereits im Jugendalter. Es sind eher Jungs, die Interesse an KI-Tools zeigen, wie eine Studie des Medienpädagogischen Forschungsverbunds Südwest zeigt.

Die Konsequenz: Da KI-Tools konstant lernen, wird ihre Entwicklung einseitig geprägt durch männliches Verhalten – wodurch dann zum Beispiel KI-generierte Bilder eher dem männlichen Schönheitsideal entsprechen. Hinzu kommt, dass nicht nur die Nutzung, sondern auch die Entwicklung und Programmierung der Tools eher männlich orientiert ist, da wesentlich mehr Männer in diesen Berufen arbeiten.

Und auch auf Unternehmensebene sind die negativen Konsequenzen der Verstärkung von Stereotypen und Vorurteilen durch KI zu spüren: Bereits 2018 konnte dies beobachtet werden, als Amazon ihr KI-basiertes Recruiting Tool einstellen musste, da es Männer für technische Jobs bevorzugte. Das Tool hatte gelernt, dass sich deutlich mehr Männer auf diese Stellen bewerben und sie somit folglich präferiert, während Bewerbungen, die Begriffe wie “women’s” enthielten, abgestraft wurden.

Dem kann entgegengewirkt werden – und zwar auf vielen Ebenen. Frühkindliche Bildung, die besonders Mädchen beim Umgang mit KI ermutigt und ihnen starke weibliche Vorbilder an die Hand gibt, wäre ein Gedanke. Auch sind Frauen im MINT-Bereich immer noch unterrepräsentiert.

Laut Daten des Statistischen Bundesamts lag der Anteil an MINT-Studentinnen an deutschen Hochschulen zum Wintersemester 2022/23 bei etwa 32 Prozent – zwar mit den Vorjahren verglichen eine steigende Tendenz, aber immer noch nicht ausgeglichen. Ich sehe aber in einem Bereich einen besonderen Spielraum, den vor allem Führungskräfte zukünftig nutzen sollten: Unternehmen als KI-Enabler für Frauen.

Folgende vier Punkte lege ich Arbeitgebern ans Herz:

1. Schließt euer Digitalisierungs-Gap

Unternehmen müssen noch wettbewerbsfähiger werden, um sich auf dem Markt zu behaupten und mit den neuesten Technologien mitzuhalten. Dennoch hängen viele hinterher und setzen eher auf analoge Papierwirtschaft statt auf digitale Vereinfachung.

Auch in den Unternehmen selbst lässt sich dieses “Digitalisierungs-Gap” beobachten: Jüngere Mitarbeitende sind deutlich sicherer im Umgang mit neuen technischen Systemen, während ältere Kollegen und Kolleginnen eher überfordert sind. Hier liegt die Kunst darin, diese Lücke im ersten Schritt zu schließen. Unternehmen müssen ihre gesamte Belegschaft – Frauen und Männer, jung und alt – zum Umgang mit neuen Technologien ermutigen und auch für KI fit machen.

2. Bietet Schulungen für den Umgang an

Der nächste Schritt liegt darin, den Umgang mit KI zu erlernen. Viele Unternehmen scheuen sich aus Datenschutzgründen oder aus Unsicherheit noch davor, KI-Tools für die Prozesse zu nutzen. Einige setzen daher auf eine unternehmensinterne KI-Variante, die diesen Datenschutz garantieren kann. So oder so gilt es, sowohl Männer als auch Frauen beim Umgang mit den Tools abzuholen. Hierfür könnte es verpflichtende Schulungen in allen Abteilungen geben, die zusätzlich für die Gefahr der Verstärkung von Vorurteilen sensibilisieren und somit einen starken Motivator für Frauen zur Nutzung liefern.

3. Errichtet “Safe Spaces” zum Austausch

Weibliche Führungskräfte, die selbst schon sicher im Umgang mit KI-Tools sind, können ihr Wissen mit Kolleginnen in sogenannten “Safe Spaces” teilen. Hierdurch entsteht ein geschützter Raum für Rückfragen, zum Üben vom Schreiben von Prompts und ein Verständnis für die Bedenken bei der Nutzung. Auch mit Männern sollte es diese Möglichkeit des Austausches geben, damit alle Perspektiven in einen Dialog miteinander treten können.

4. Fördert “menschliche” Fähigkeiten

Ein wichtiger Punkt ist zusätzlich, dass Unternehmen bei der Nutzung von KI auch die “menschlichen” Fähigkeiten – Soft Skills – ihrer Mitarbeitenden schulen. Diese beziehen sich auf Kompetenzen, die den Menschen in den Mittelpunkt stellen wie Empathie, Kommunikation oder kritisches Denken. In Zeiten von KI gewinnen menschenzentrierte Fähigkeiten immer mehr an Bedeutung und ergänzen die Technologie auf einzigartige Weise. Sie können zukünftig ein wichtiges Gegengewicht zur Vermeidung von Vorurteilen in KI-Systemen darstellen.

Unternehmen und Führungskräfte haben einen gewaltigen Spielraum, wenn es darum geht, den Umgang mit KI zu verbessern und Vorurteile bei der Nutzung nicht weiter zu verstärken, sondern auszugleichen. Dafür muss die Angst vor der KI einer gesunden Neugier und dem Willen zum Wandel weichen.

Künstliche Intelligenz: Tipps zur Entwicklung neuer KI-ProjekteWie Sie Mitarbeiter für Künstliche Intelligenz begeisternIm Zuge der digitalen Transformation halten immer mehr KI-Anwendungen Einzug ins Arbeitsleben. Um bei möglichst vielen Mitarbeitern die Akzeptanz für die KI-Technologie zu wecken, rät Skillsoft-CEO Jeff Tarr zu folgenden Maßnahmen. Wie Sie Mitarbeiter für Künstliche Intelligenz begeistern
Foto: Runa0410 – shutterstock.comIm Zuge der digitalen Transformation halten immer mehr KI-Anwendungen Einzug ins Arbeitsleben. Um bei möglichst vielen Mitarbeitern die Akzeptanz für die KI-Technologie zu wecken, rät Skillsoft-CEO Jeff Tarr zu folgenden Maßnahmen. 1. Sichere Trainingsumgebung bereitstellenMan sollte zunächst die Möglichkeit geben, KI spielerisch auszuprobieren. Genauso wichtig, wenn nicht sogar noch wichtiger, ist es, parallel dazu Leitlinien bereitzustellen. Neben der Förderung von Innovation durch Kreativität sollte verantwortungsvolles, ethisches und umsichtiges Handeln ein fester Bestandteilt bei der Anwendung von KI sein. Entwerfen und teilen Sie die Richtlinien Ihrer Organisation, bieten Sie angemessene Schulungen an.1. Sichere Trainingsumgebung bereitstellen
Foto: Alexander Supertramp – shutterstock.comMan sollte zunächst die Möglichkeit geben, KI spielerisch auszuprobieren. Genauso wichtig, wenn nicht sogar noch wichtiger, ist es, parallel dazu Leitlinien bereitzustellen. Neben der Förderung von Innovation durch Kreativität sollte verantwortungsvolles, ethisches und umsichtiges Handeln ein fester Bestandteilt bei der Anwendung von KI sein. Entwerfen und teilen Sie die Richtlinien Ihrer Organisation, bieten Sie angemessene Schulungen an.2. Benchmarking vorhandener FähigkeitenPrüfen und erfassen Sie die vorhandenen KI-Fähigkeiten Ihrer Belegschaft und welche Skills ergänzt oder ausgebaut werden müssen. Im Wettlauf um die Nutzung des Potenzials von GenAI beruht der Erfolg maßgeblich auf Qualifikationen. Dabei sind technische Fähigkeiten von großer Bedeutung, aber Skills wie emotionale Intelligenz, Agilität, Kreativität und effektive Kommunikation sind sogar noch wichtiger, wenn Sie GenAI-Strategien entwickeln, verwalten und implementieren. Bieten Sie Ihrer bestehenden Belegschaft die Möglichkeit, sich im Zuge ihres Wachstums in neue Rollen weiterzuentwickeln.2. Benchmarking vorhandener Fähigkeiten
Foto: Jirsak – shutterstock.comPrüfen und erfassen Sie die vorhandenen KI-Fähigkeiten Ihrer Belegschaft und welche Skills ergänzt oder ausgebaut werden müssen. Im Wettlauf um die Nutzung des Potenzials von GenAI beruht der Erfolg maßgeblich auf Qualifikationen. Dabei sind technische Fähigkeiten von großer Bedeutung, aber Skills wie emotionale Intelligenz, Agilität, Kreativität und effektive Kommunikation sind sogar noch wichtiger, wenn Sie GenAI-Strategien entwickeln, verwalten und implementieren. Bieten Sie Ihrer bestehenden Belegschaft die Möglichkeit, sich im Zuge ihres Wachstums in neue Rollen weiterzuentwickeln.3. Interne Experten einbeziehenNutzen Sie das Wissen, die Erfahrung und die Fähigkeiten Ihrer internen KI-Fachexperten. Beziehen Sie sie in Anwendungsempfehlungen und unternehmenspolitische Entscheidungen ein. 3. Interne Experten einbeziehen
Foto: SuPatMaN – shutterstock.comNutzen Sie das Wissen, die Erfahrung und die Fähigkeiten Ihrer internen KI-Fachexperten. Beziehen Sie sie in Anwendungsempfehlungen und unternehmenspolitische Entscheidungen ein. 4. Umfassende Beteiligung anstrebenErwägen Sie Angebote wie KI-fokussierte “Lunch and Learns” sowie unternehmensweite “Innovation Challenges”, “Hackathons” oder “Sprints”. KI-Integrationen können aus solchen Aktivitäten hervorgehen. Und das Wichtigste: Helfen Sie Ihren Mitarbeitern, ihre Ängste vor einer KI-gesteuerten dystopischen Zukunft zu überwinden. Eine der besten Möglichkeiten, Ängste zu besiegen, besteht darin, Neugier zu wecken, fundierte Lernerfahrungen anzubieten und Möglichkeiten zum spielerischen Ausprobieren zu schaffen.4. Umfassende Beteiligung anstreben
Foto: fotogestoeber – shutterstock.comErwägen Sie Angebote wie KI-fokussierte “Lunch and Learns” sowie unternehmensweite “Innovation Challenges”, “Hackathons” oder “Sprints”. KI-Integrationen können aus solchen Aktivitäten hervorgehen. Und das Wichtigste: Helfen Sie Ihren Mitarbeitern, ihre Ängste vor einer KI-gesteuerten dystopischen Zukunft zu überwinden. Eine der besten Möglichkeiten, Ängste zu besiegen, besteht darin, Neugier zu wecken, fundierte Lernerfahrungen anzubieten und Möglichkeiten zum spielerischen Ausprobieren zu schaffen.

Tipps zur KI-Mitarbeiterförderung: So schließen Arbeitgeber die Digitalisierungslücke​ Weiterlesen »

Kollaborative Führung als Motor der IT-Transformation​

Allgemein

Kollaborative Führung bedeutet, Teammitglieder bei Entscheidungen mit einzubeziehen und an den eigenen Gedanken teilhaben zu lassen.insta_photos – shutterstock.com Innovationstreiber KI, die NIS2-Richtlinie und eine rasant zunehmende Zahl der Cyberangriffe üben Druck auf Unternehmen aus, ihre IT-Infrastruktur zu modernisieren und die eigene Resilienz zu stärken. CIOs stehen vor der Herausforderung, eine Strategie zu implementieren, die diesen Kriterien nachkommt. Eine agile Transformation der IT-Abteilung und New Leadership helfen zugleich dabei, die nötige Veränderungsflexibilität zu wahren. Auf operativer Ebene bedeutet das auch einen Shift in der Mitarbeiterführung. Per Role Modeling Weichen stellen Unternehmen müssen sich flexibel an den Markt anpassen und genügend Ideenreichtum zeigen, ihn aktiv mitzugestalten. Andernfalls laufen sie Gefahr, den Anschluss zu verlieren und im Wettbewerb zurückzufallen – ein Rückstand, den nur wenige Firmen wieder aufholen. Eine Transition hin zu agiler Arbeitsorganisation löst starre Strukturen in Unternehmen oder einzelnen Abteilungen auf. Der Erfolg dieses Wandels hängt jedoch nicht allein davon ab, neuartige Methodiken konsequent im Arbeitsalltag umzusetzen. Ausschlaggebend ist auch, dass die Führung aktiv zu einem positiven Entwicklungsverlauf beiträgt. Groß angelegte Veränderungen verlangen von Menschen, die eigene Komfortzone zu verlassen, und rufen als erste Reaktion mehrheitlich Unmut auf den Plan. Erfahren sie inmitten des Umbruchs keine Unterstützung durch ihre Führungsmannschaft, droht der agile Change zu scheitern. IT-Leiterinnen und -Leiter agieren in diesem Kontext als Schrittmacher. Sie befeuern den Turnaround mit großem Engagement und ermutigen gleichzeitig ihre Mitarbeitenden, den neuen Weg mitzugehen. Entscheidungskompetenz teilen Die beschleunigte Digitalisierung und das angespannte Weltgeschehen erschwert es CIO, den Überblick zu behalten. Ständiger Mangel an Kapazitäten unterstreicht die Notwendigkeit, Mitarbeitende in Beschlussfassungen einzubeziehen oder diese an sie abzutreten. Kollaborative Führung beteiligt die Teammitglieder an gewichtigen Abläufen sowie Entscheidungsfragen. Sie steigert die Zielidentifikation und auf lange Sicht intrinsische Motivation, Arbeitsplatzzufriedenheit und Loyalität den Vorgesetzten und Unternehmen gegenüber. Entgegen ihrer Befürchtungen verlieren IT-Manager nicht an Einfluss, sobald sie einen Teil ihrer Entscheidungsverantwortung abgeben. Im Gegenteil – sie gewinnen sogar doppelt. Erstens: Motivierte und arbeitsame Mitarbeitende performen besser und beeinflussen die Arbeitsatmosphäre positiv. Zweitens: Freigewordene Kapazitäten setzen CIOs künftig für die Weiterentwicklung des eigenen Bereichs ein und kurbeln darüber die Gesamtperformance an. Aktives Loslassen festigt und fördert also die eigene Führungsposition innerhalb der Company. Vertrauensbasierte Teamkultur aufbauen Ein kollaborativer Führungsansatz baut Barrieren ab, sofern IT-Leader Bereitschaft zeigen, ihren Teams Vertrauen zu schenken und sich mehr als Leuchtturm, denn als Antreiber zu positionieren. Dies erfordert, dass Entscheidungsträger ihre Mitarbeitenden auf übergeordnete Visionen einschwören und sie durch gezielte Förderung und Wissensvermittlung aktiv am Abteilungserfolg beteiligen. Eine offene Feedbackkultur verschafft dabei unterschiedlichen Sichtweisen Gehör und identifiziert Konflikte frühzeitig. Agile Leader pflegen Offenheit über anstehende Aufgaben und delegieren diese unter Zusicherung ihrer Unterstützung an die Teams. Sie wissen, dass einige Situationen und Persönlichkeiten nicht mit einem kollaborativen Ansatz matchen. Aufkeimende Uneinigkeiten oder Krisen bedürfen einer klaren Orientierungshilfe durch den Führungsstab. Vermengen sich agile und traditionelle Führungsmodelle, sorgt das für Kontroversen innerhalb der Mannschaft. Ein Beispiel: Gibt ein agiler Entscheider viel Selbstständigkeit ins Team, während ein traditioneller Leader strikte Anweisungen erteilt und Reportings erwartet, bleibt auf Mitarbeiterseite die Frage offen, welches System schwerer wiegt. An dieser Stelle müssen CIOs einhaken, das Machtgerangel eindämmen und eine Marschrichtung vorgeben. Die eigene Führungsrolle stärken Wenn eine agile Transformation die Führungsspanne ausweitet, heißt es, Micromanagement aufzugeben und den Teams mehr Verantwortung für Problemlösung zu überlassen. IT-Leiter übernehmen die Rolle von Mentoren, die gezielt die Potenziale ihrer Mitarbeitenden ausschöpfen und deren Eigeninitiative anspornen. Weitsicht und Empathie sichern langfristig ihre Position als erfolgreiche Leader. Wichtige Kompetenzen dabei umfassen: Tool- und virtuelle Kompetenz: Remotearbeit, freie Arbeitsplatzwahl, globale Teams – die Pandemie prägte die Arbeitswelt nachhaltig. Um große räumliche Distanzen zu überbrücken und gleichzeitig nicht an Ergebnisstärke einzubüßen, spielen Tool- und virtuelle Kompetenz eine große Rolle. Persönlichkeitskompetenz: Agilität bedarf insbesondere einer starken eigenen Reflexionsfähigkeit und einem starken Weiterentwicklungswillen. Erst eine konstruktive Fehler- und Lernkultur ermöglicht Dynamik hinsichtlich Innovation. Ohne Feedback keine Agilität! Beziehungskompetenz: Kollaborativ arbeitende, selbstorganisierte Teams leben von starken Beziehungen. Nur so erreichen ihre Mitglieder gemeinsame Ziele. Die Fähigkeit zum Networking hilft, die eigenen Teams zu unterstützen, über die Führungskräfte keine direkte Entscheidungsbefugnis innehaben. Vor allem letzterer Punkt birgt Herausforderungen in der Umsetzung. CIO sollten nicht zögern, selbst auf ein Coaching zurückzugreifen, um in diese Rolle zu wachsen. Darüber hinaus gilt: Transparenz und eine offene Feedbackkultur müssen in beide Richtungen funktionieren – von IT-Manager zu Mitarbeiter und umgekehrt. Hierbei ist es wichtig, dass Führungspersonen lernen, Erkundigungen über die Zufriedenheit einzelner Teammitglieder in der neuen Situation einzuholen, sie an den eigenen Gedanken teilhaben zu lassen und sich Veränderungswünsche anzuhören. Das erscheint auf den ersten Blick aufwendig, unterstützt die Mitarbeitenden allerdings darin, die täglichen Prozesse zu verstehen und bei der Erledigung eigener Themen vorausschauend zu denken. (jd) (cio.de) 

Kollaborative Führung als Motor der IT-Transformation​ Kollaborative Führung bedeutet, Teammitglieder bei Entscheidungen mit einzubeziehen und an den eigenen Gedanken teilhaben zu lassen.insta_photos – shutterstock.com

Innovationstreiber KI, die NIS2-Richtlinie und eine rasant zunehmende Zahl der Cyberangriffe üben Druck auf Unternehmen aus, ihre IT-Infrastruktur zu modernisieren und die eigene Resilienz zu stärken. CIOs stehen vor der Herausforderung, eine Strategie zu implementieren, die diesen Kriterien nachkommt.

Eine agile Transformation der IT-Abteilung und New Leadership helfen zugleich dabei, die nötige Veränderungsflexibilität zu wahren. Auf operativer Ebene bedeutet das auch einen Shift in der Mitarbeiterführung.

Per Role Modeling Weichen stellen

Unternehmen müssen sich flexibel an den Markt anpassen und genügend Ideenreichtum zeigen, ihn aktiv mitzugestalten. Andernfalls laufen sie Gefahr, den Anschluss zu verlieren und im Wettbewerb zurückzufallen – ein Rückstand, den nur wenige Firmen wieder aufholen.

Eine Transition hin zu agiler Arbeitsorganisation löst starre Strukturen in Unternehmen oder einzelnen Abteilungen auf. Der Erfolg dieses Wandels hängt jedoch nicht allein davon ab, neuartige Methodiken konsequent im Arbeitsalltag umzusetzen. Ausschlaggebend ist auch, dass die Führung aktiv zu einem positiven Entwicklungsverlauf beiträgt.

Groß angelegte Veränderungen verlangen von Menschen, die eigene Komfortzone zu verlassen, und rufen als erste Reaktion mehrheitlich Unmut auf den Plan. Erfahren sie inmitten des Umbruchs keine Unterstützung durch ihre Führungsmannschaft, droht der agile Change zu scheitern.

IT-Leiterinnen und -Leiter agieren in diesem Kontext als Schrittmacher. Sie befeuern den Turnaround mit großem Engagement und ermutigen gleichzeitig ihre Mitarbeitenden, den neuen Weg mitzugehen.

Entscheidungskompetenz teilen

Die beschleunigte Digitalisierung und das angespannte Weltgeschehen erschwert es CIO, den Überblick zu behalten. Ständiger Mangel an Kapazitäten unterstreicht die Notwendigkeit, Mitarbeitende in Beschlussfassungen einzubeziehen oder diese an sie abzutreten.

Kollaborative Führung beteiligt die Teammitglieder an gewichtigen Abläufen sowie Entscheidungsfragen. Sie steigert die Zielidentifikation und auf lange Sicht intrinsische Motivation, Arbeitsplatzzufriedenheit und Loyalität den Vorgesetzten und Unternehmen gegenüber.

Entgegen ihrer Befürchtungen verlieren IT-Manager nicht an Einfluss, sobald sie einen Teil ihrer Entscheidungsverantwortung abgeben. Im Gegenteil – sie gewinnen sogar doppelt. Erstens: Motivierte und arbeitsame Mitarbeitende performen besser und beeinflussen die Arbeitsatmosphäre positiv. Zweitens: Freigewordene Kapazitäten setzen CIOs künftig für die Weiterentwicklung des eigenen Bereichs ein und kurbeln darüber die Gesamtperformance an. Aktives Loslassen festigt und fördert also die eigene Führungsposition innerhalb der Company.

Vertrauensbasierte Teamkultur aufbauen

Ein kollaborativer Führungsansatz baut Barrieren ab, sofern IT-Leader Bereitschaft zeigen, ihren Teams Vertrauen zu schenken und sich mehr als Leuchtturm, denn als Antreiber zu positionieren. Dies erfordert, dass Entscheidungsträger ihre Mitarbeitenden auf übergeordnete Visionen einschwören und sie durch gezielte Förderung und Wissensvermittlung aktiv am Abteilungserfolg beteiligen. Eine offene Feedbackkultur verschafft dabei unterschiedlichen Sichtweisen Gehör und identifiziert Konflikte frühzeitig.

Agile Leader pflegen Offenheit über anstehende Aufgaben und delegieren diese unter Zusicherung ihrer Unterstützung an die Teams. Sie wissen, dass einige Situationen und Persönlichkeiten nicht mit einem kollaborativen Ansatz matchen.

Aufkeimende Uneinigkeiten oder Krisen bedürfen einer klaren Orientierungshilfe durch den Führungsstab. Vermengen sich agile und traditionelle Führungsmodelle, sorgt das für Kontroversen innerhalb der Mannschaft.

Ein Beispiel: Gibt ein agiler Entscheider viel Selbstständigkeit ins Team, während ein traditioneller Leader strikte Anweisungen erteilt und Reportings erwartet, bleibt auf Mitarbeiterseite die Frage offen, welches System schwerer wiegt. An dieser Stelle müssen CIOs einhaken, das Machtgerangel eindämmen und eine Marschrichtung vorgeben.

Die eigene Führungsrolle stärken

Wenn eine agile Transformation die Führungsspanne ausweitet, heißt es, Micromanagement aufzugeben und den Teams mehr Verantwortung für Problemlösung zu überlassen. IT-Leiter übernehmen die Rolle von Mentoren, die gezielt die Potenziale ihrer Mitarbeitenden ausschöpfen und deren Eigeninitiative anspornen. Weitsicht und Empathie sichern langfristig ihre Position als erfolgreiche Leader.

Wichtige Kompetenzen dabei umfassen:

Tool- und virtuelle Kompetenz: Remotearbeit, freie Arbeitsplatzwahl, globale Teams – die Pandemie prägte die Arbeitswelt nachhaltig. Um große räumliche Distanzen zu überbrücken und gleichzeitig nicht an Ergebnisstärke einzubüßen, spielen Tool- und virtuelle Kompetenz eine große Rolle.

Persönlichkeitskompetenz: Agilität bedarf insbesondere einer starken eigenen Reflexionsfähigkeit und einem starken Weiterentwicklungswillen. Erst eine konstruktive Fehler- und Lernkultur ermöglicht Dynamik hinsichtlich Innovation. Ohne Feedback keine Agilität!

Beziehungskompetenz: Kollaborativ arbeitende, selbstorganisierte Teams leben von starken Beziehungen. Nur so erreichen ihre Mitglieder gemeinsame Ziele. Die Fähigkeit zum Networking hilft, die eigenen Teams zu unterstützen, über die Führungskräfte keine direkte Entscheidungsbefugnis innehaben.

Vor allem letzterer Punkt birgt Herausforderungen in der Umsetzung. CIO sollten nicht zögern, selbst auf ein Coaching zurückzugreifen, um in diese Rolle zu wachsen. Darüber hinaus gilt: Transparenz und eine offene Feedbackkultur müssen in beide Richtungen funktionieren – von IT-Manager zu Mitarbeiter und umgekehrt.

Hierbei ist es wichtig, dass Führungspersonen lernen, Erkundigungen über die Zufriedenheit einzelner Teammitglieder in der neuen Situation einzuholen, sie an den eigenen Gedanken teilhaben zu lassen und sich Veränderungswünsche anzuhören. Das erscheint auf den ersten Blick aufwendig, unterstützt die Mitarbeitenden allerdings darin, die täglichen Prozesse zu verstehen und bei der Erledigung eigener Themen vorausschauend zu denken. (jd)

(cio.de)

Kollaborative Führung als Motor der IT-Transformation​ Weiterlesen »

Mitarbeiter ungleich behandeln bringt Erfolg​

Allgemein

Teams werden zu mehr Leistung angestachelt, indem der Trainer die Mitglieder unterschiedlich behandelt.Marco Iacobucci Epp – shutterstock.com Ein seit Jahren immer gleiches Mantra von Manager-Seminaren und Führungskräfte-Schulungen ist die Aufforderung, alle Mitarbeiter mit dem gleichen Respekt zu behandeln. Niemanden zu benachteiligen oder zu bevorzugen. “Vom moralischen Standpunkt aus betrachtet ist diese Forderung sicher berechtigt”, sagt Christian Tröster, Professor an der Kühne Logistics University in Hamburg. “Dass die völlige Gleichbehandlung aber psychologisch der richtige Weg ist, dass sie der Gruppe insgesamt den größten Erfolg bringt, das glauben wir eher nicht.” Mit wir meint Tröster eine Gruppe von Forschern aus Deutschland, Großbritannien und Kanada, die sich der Frage nach dem Gleich oder lieber Ungleich in einer aufwändigen, vierstufigen Studie gewidmet haben. Resultate theoretischer Überlegungen und von Literaturrecherchen wurden durch Umfragen und Experimente überprüft und verifiziert. Respekt und Selbstwertgefühl Die Ergebnisse deuten darauf hin, dass jene Mitarbeiter, die mit mehr Respekt behandelt wurden als andere, nicht nur ein größeres Selbstwertgefühl entwickeln, sondern sich auch besser an allgemeine Regeln halten und vermehrt Aufgaben übernehmen, die der Gruppe insgesamt zugutekommen. Bevorzugung bedeutet nicht, anderen den Respekt zu versagen.g-stockstudio – shutterstock.com Christian Tröster: “Die Forderung, dass es wichtig ist, alle in jeder Situation immer gleich zu behandeln, wird übertrieben. Wir konnten zeigen, dass Bevorzugte keineswegs zu Egomanen werden.” Experiment mit gezieltem Lob Beispielsweise hatten die Forscher während eines Experiments bestimmte Teilnehmer durch Lob und Interesse an ihren Beiträgen gezielt bevorzugt. Anschließend kam die Bitte, bei der Vorbereitung der nächsten Aufgabe mitzuhelfen. “Hier zeigten die zuvor besonders gut Behandelten eine größere Bereitschaft zur Hilfe.” Tröster und seine Kollegen sind davon überzeugt, dass sich auch Unternehmen diesen Effekt zunutze machen sollten. “Die Art, wie ein Mitarbeiter behandelt wird, ist deshalb so wichtig, weil er daraus seinen Status innerhalb der Gruppe ableitet.” Offensichtliche Ungleichheit wird natürlich dann nicht gutgeheißen, wenn sich einige offen benachteiligt fühlen. Deshalb möchten die Forscher ihre Ergebnisse auch keinesfalls als Aufforderung verstanden wissen, einen Teil der Mitarbeiter respektlos zu behandeln. Bevorzugen, ohne andere zu diskriminieren Christian Tröster: “Die Kunst besteht darin, einigen den Eindruck zu vermitteln, dass sie bevorzugt werden, ohne dass sich dadurch jemand diskriminiert fühlt. Respekt bleibt natürlich eine gültige Währung. Unterschiede machen zu können, gibt dem Chef ein Instrument in die Hand, mit dem er gewisse positive Effekte erzielen kann.” Lob muss nachvollziehbar sein Konflikte durch Ungleichbehandlung gibt es dann nicht, wenn der Anlass dafür transparent und nachvollziehbar ist. Niemand wird etwas dagegen haben, wenn der Chef Einzelne wegen besonders guter Arbeitsergebnisse lobt. Wer auch mal bevorzugt wird, engagiert sich stärker für die ganze Gruppe.Dmitry Molchanov – shutterstock.com Wirklich wertvoll ist solches Lob aber nur dann, wenn es nicht alle bekommen, weil anderenfalls die Gelobten keine herausgehobene, einzigartige Stellung mehr einnehmen. Solche Effekte und Verhaltensmuster finden sich nicht nur in Unternehmen, sondern zum Beispiel auch im Verhältnis zwischen Männern und Frauen, sagt Christian Tröster. Bei der Formulierung der Ausgangsthese der zitierten Studie – Ungleichbehandlung motiviert – halfen auch Untersuchungen im Zusammenhang mit dem sogenannten Speed-Dating, bei dem Singles in kurzer Zeit möglichst viele andere Singles einzeln kennenlernen. Tröster: “Wollte sich ein Kandidat hinterher mit einer der Damen verabreden, dann freute die sich deutlich mehr darüber, wenn sie nicht wusste, dass er alle anderen auch treffen wollte.” (cio.de) 

Mitarbeiter ungleich behandeln bringt Erfolg​ Teams werden zu mehr Leistung angestachelt, indem der Trainer die Mitglieder unterschiedlich behandelt.Marco Iacobucci Epp – shutterstock.com

Ein seit Jahren immer gleiches Mantra von Manager-Seminaren und Führungskräfte-Schulungen ist die Aufforderung, alle Mitarbeiter mit dem gleichen Respekt zu behandeln. Niemanden zu benachteiligen oder zu bevorzugen.

“Vom moralischen Standpunkt aus betrachtet ist diese Forderung sicher berechtigt”, sagt Christian Tröster, Professor an der Kühne Logistics University in Hamburg. “Dass die völlige Gleichbehandlung aber psychologisch der richtige Weg ist, dass sie der Gruppe insgesamt den größten Erfolg bringt, das glauben wir eher nicht.”

Mit wir meint Tröster eine Gruppe von Forschern aus Deutschland, Großbritannien und Kanada, die sich der Frage nach dem Gleich oder lieber Ungleich in einer aufwändigen, vierstufigen Studie gewidmet haben. Resultate theoretischer Überlegungen und von Literaturrecherchen wurden durch Umfragen und Experimente überprüft und verifiziert.

Respekt und Selbstwertgefühl

Die Ergebnisse deuten darauf hin, dass jene Mitarbeiter, die mit mehr Respekt behandelt wurden als andere, nicht nur ein größeres Selbstwertgefühl entwickeln, sondern sich auch besser an allgemeine Regeln halten und vermehrt Aufgaben übernehmen, die der Gruppe insgesamt zugutekommen.

Bevorzugung bedeutet nicht, anderen den Respekt zu versagen.g-stockstudio – shutterstock.com

Christian Tröster: “Die Forderung, dass es wichtig ist, alle in jeder Situation immer gleich zu behandeln, wird übertrieben. Wir konnten zeigen, dass Bevorzugte keineswegs zu Egomanen werden.”

Experiment mit gezieltem Lob

Beispielsweise hatten die Forscher während eines Experiments bestimmte Teilnehmer durch Lob und Interesse an ihren Beiträgen gezielt bevorzugt. Anschließend kam die Bitte, bei der Vorbereitung der nächsten Aufgabe mitzuhelfen. “Hier zeigten die zuvor besonders gut Behandelten eine größere Bereitschaft zur Hilfe.”

Tröster und seine Kollegen sind davon überzeugt, dass sich auch Unternehmen diesen Effekt zunutze machen sollten. “Die Art, wie ein Mitarbeiter behandelt wird, ist deshalb so wichtig, weil er daraus seinen Status innerhalb der Gruppe ableitet.”

Offensichtliche Ungleichheit wird natürlich dann nicht gutgeheißen, wenn sich einige offen benachteiligt fühlen. Deshalb möchten die Forscher ihre Ergebnisse auch keinesfalls als Aufforderung verstanden wissen, einen Teil der Mitarbeiter respektlos zu behandeln.

Bevorzugen, ohne andere zu diskriminieren

Christian Tröster: “Die Kunst besteht darin, einigen den Eindruck zu vermitteln, dass sie bevorzugt werden, ohne dass sich dadurch jemand diskriminiert fühlt. Respekt bleibt natürlich eine gültige Währung. Unterschiede machen zu können, gibt dem Chef ein Instrument in die Hand, mit dem er gewisse positive Effekte erzielen kann.”

Lob muss nachvollziehbar sein

Konflikte durch Ungleichbehandlung gibt es dann nicht, wenn der Anlass dafür transparent und nachvollziehbar ist. Niemand wird etwas dagegen haben, wenn der Chef Einzelne wegen besonders guter Arbeitsergebnisse lobt.

Wer auch mal bevorzugt wird, engagiert sich stärker für die ganze Gruppe.Dmitry Molchanov – shutterstock.com

Wirklich wertvoll ist solches Lob aber nur dann, wenn es nicht alle bekommen, weil anderenfalls die Gelobten keine herausgehobene, einzigartige Stellung mehr einnehmen. Solche Effekte und Verhaltensmuster finden sich nicht nur in Unternehmen, sondern zum Beispiel auch im Verhältnis zwischen Männern und Frauen, sagt Christian Tröster.

Bei der Formulierung der Ausgangsthese der zitierten Studie – Ungleichbehandlung motiviert – halfen auch Untersuchungen im Zusammenhang mit dem sogenannten Speed-Dating, bei dem Singles in kurzer Zeit möglichst viele andere Singles einzeln kennenlernen. Tröster: “Wollte sich ein Kandidat hinterher mit einer der Damen verabreden, dann freute die sich deutlich mehr darüber, wenn sie nicht wusste, dass er alle anderen auch treffen wollte.”

(cio.de)

Mitarbeiter ungleich behandeln bringt Erfolg​ Weiterlesen »

Die 4 schlimmsten Kleinkriege unter IT-lern​

Allgemein

Kleinkriege unter IT-Mitarbeitern führen nicht weiter.fizkes – shutterstock.com Was früher eine IT-Abteilung war, ist heute das reinste Schlachtfeld. Das behauptet zumindest Dan Tynan von unserer Schwesterpublikation Infoworld. Glaubt man Tynan, bekriegen sich Programmierer mit Infrastruktur-Freaks, kämpfen Entwickler gegen ihre Chefs und rangeln System-Administratoren um die Vormacht. Immerhin in einem Punkt herrscht Geschlossenheit: Alle hassen die Security-Typen. Die üblichen Probleme mit Cyber-Kriminellen, unbedarften Anwendern und instabiler Hardware seien dagegen fast eine Kleinigkeit. Dynan skizziert die vier Hauptschauplätze wie folgt: Die Antwort ist: Nein 1. Alle gegen die IT-Security: Mark White, Chief Technology Officer (CTO) bei Deloitte, witzelt: “Von den IT-Sicherheitsfachleuten heißt es, sie stünden für das “No” im Wort Innovation.” Jon Heimerl nimmt es mit Humor. Er verantwortete bei der CIA den Datentransfer zwischen den Standorten auf verschiedenen Kontinenten und hatte in seinem Büroflur ein Schild hängen mit dem Spruch: “Die Antwort ist Nein.” Heimerl arbeitet heute bei einem privatwirtschaftlichen Sicherheitsspezialisten und berichtet von einem Kunden, dessen Marketingabteilung eine neue Konsumenten-Website eingerichtet hatte – ohne die IT-Security darüber zu informieren. Als Heimerl und sein Team bei einer Routine-Kontrolle davon erfuhren, handelten sie pragmatisch: Sie loggten sich ein und veränderten die Preise der angebotenen Ware. Die Lektion wirkte. 2. Operations gegen Entwicklung: Die Einen arbeiten stetig daran, die Systeme so störungsfrei und kostengünstig laufen zu lassen wie möglich. Die anderen wollen entwickeln, was das Zeug hält. “Das kommt daher, wenn man die IT nur als Kostenstelle sieht”, sagt Ted Shelton, CEO bei der Beraterfirma Open-First. Andererseits, fügt Steve Shalita vom Dienstleister NetScout Systems an, verharren Entwickler in ihrer Isolation. Seine Erfahrung: Da werden Anwendungen kreiert, die Implementierung aber den Kollegen überlassen. Entwickler interessierten sich zu wenig für die Frage, ob ihre Apps in das Firmen-Netzwerk passen. Diese Silo-Mentalität müssen Unternehmen aufbrechen, so Shalita. 3. Admin gegen Admin: 99,999 Prozent der Administratoren seien schwer in Ordnung, so Sicherheitsfachmann Heimerl. Der Rest mache Probleme und bringe alle anderen in Verruf. Glaubt man Heimerls Erfahrung, kommt Missbrauch von Administratoren-Rechten immer wieder vor. Schwierig werde es beispielsweise bei Kündigungen. Will sich ein entlassener Administrator rächen, kann er dem Ex-Arbeitgeber erheblichen Schaden zufügen. Berater Shelton empfiehlt daher, Verantwortung auf mehrere Menschen zu verteilen. Wenn IT-ler den Chef nicht anerkennen 4. IT-Belegschaft gegen IT-Management: Der für einen IT-Entscheider vielleicht schlimmste Konflikt betrifft den mit seinem eigenen Personal. Nach Darstellung von Dan Tynan ist der Rollenwandel des CIOs bei der Belegschaft noch nicht angekommen. Konkret: Die Leute verstehen nicht, dass der CIO Partner des Business sein muss und nicht in erster Linie Informatik-Freak. Das kann dazu führen, dass sie die Autorität des IT-Managements nicht anerkennen. Hier hilft nur: Sich der eigenen Rolle bewusst sein und das Team entsprechend führen. (cio.de) 

Die 4 schlimmsten Kleinkriege unter IT-lern​ Kleinkriege unter IT-Mitarbeitern führen nicht weiter.fizkes – shutterstock.com

Was früher eine IT-Abteilung war, ist heute das reinste Schlachtfeld. Das behauptet zumindest Dan Tynan von unserer Schwesterpublikation Infoworld. Glaubt man Tynan, bekriegen sich Programmierer mit Infrastruktur-Freaks, kämpfen Entwickler gegen ihre Chefs und rangeln System-Administratoren um die Vormacht. Immerhin in einem Punkt herrscht Geschlossenheit: Alle hassen die Security-Typen.

Die üblichen Probleme mit Cyber-Kriminellen, unbedarften Anwendern und instabiler Hardware seien dagegen fast eine Kleinigkeit. Dynan skizziert die vier Hauptschauplätze wie folgt:

Die Antwort ist: Nein

1. Alle gegen die IT-Security: Mark White, Chief Technology Officer (CTO) bei Deloitte, witzelt: “Von den IT-Sicherheitsfachleuten heißt es, sie stünden für das “No” im Wort Innovation.” Jon Heimerl nimmt es mit Humor. Er verantwortete bei der CIA den Datentransfer zwischen den Standorten auf verschiedenen Kontinenten und hatte in seinem Büroflur ein Schild hängen mit dem Spruch: “Die Antwort ist Nein.”

Heimerl arbeitet heute bei einem privatwirtschaftlichen Sicherheitsspezialisten und berichtet von einem Kunden, dessen Marketingabteilung eine neue Konsumenten-Website eingerichtet hatte – ohne die IT-Security darüber zu informieren. Als Heimerl und sein Team bei einer Routine-Kontrolle davon erfuhren, handelten sie pragmatisch: Sie loggten sich ein und veränderten die Preise der angebotenen Ware. Die Lektion wirkte.

2. Operations gegen Entwicklung: Die Einen arbeiten stetig daran, die Systeme so störungsfrei und kostengünstig laufen zu lassen wie möglich. Die anderen wollen entwickeln, was das Zeug hält. “Das kommt daher, wenn man die IT nur als Kostenstelle sieht”, sagt Ted Shelton, CEO bei der Beraterfirma Open-First.

Andererseits, fügt Steve Shalita vom Dienstleister NetScout Systems an, verharren Entwickler in ihrer Isolation. Seine Erfahrung: Da werden Anwendungen kreiert, die Implementierung aber den Kollegen überlassen. Entwickler interessierten sich zu wenig für die Frage, ob ihre Apps in das Firmen-Netzwerk passen. Diese Silo-Mentalität müssen Unternehmen aufbrechen, so Shalita.

3. Admin gegen Admin: 99,999 Prozent der Administratoren seien schwer in Ordnung, so Sicherheitsfachmann Heimerl. Der Rest mache Probleme und bringe alle anderen in Verruf. Glaubt man Heimerls Erfahrung, kommt Missbrauch von Administratoren-Rechten immer wieder vor. Schwierig werde es beispielsweise bei Kündigungen. Will sich ein entlassener Administrator rächen, kann er dem Ex-Arbeitgeber erheblichen Schaden zufügen. Berater Shelton empfiehlt daher, Verantwortung auf mehrere Menschen zu verteilen.

Wenn IT-ler den Chef nicht anerkennen

4. IT-Belegschaft gegen IT-Management: Der für einen IT-Entscheider vielleicht schlimmste Konflikt betrifft den mit seinem eigenen Personal. Nach Darstellung von Dan Tynan ist der Rollenwandel des CIOs bei der Belegschaft noch nicht angekommen. Konkret: Die Leute verstehen nicht, dass der CIO Partner des Business sein muss und nicht in erster Linie Informatik-Freak.

Das kann dazu führen, dass sie die Autorität des IT-Managements nicht anerkennen. Hier hilft nur: Sich der eigenen Rolle bewusst sein und das Team entsprechend führen.

(cio.de)

Die 4 schlimmsten Kleinkriege unter IT-lern​ Weiterlesen »

Redesign: Aus Microsoft 365 wird Microsoft 365 Copilot​

Allgemein

Anwender müssen sich umstellen. Microsoft will Mitte Januar 2025 die Benutzeroberfläche von Microsoft 365 überarbeiten. Screenshot IDG Wie unsere Schwesterpublikation PCWorld und die Website Neowin berichten, will Microsoft Anfang 2025 die Benutzeroberfläche der Microsoft-365-App überarbeiten. Zudem erhalte die App ein neues Symbol. Des Weiteren sei eine Namensänderung im Gespräch. Ab Mitte Januar 2025 heißt die App dann wohl „Microsoft 365 Copilot“. Die Vermutungen basieren auf zwei Posting unter der ID MC958905 and MC958903 im M365 Message Center. Hier informiert Microsoft in der Regel Admins über neue oder geänderte Features. Diesen Einträgen zufolge plant Microsoft folgende Veränderungen: Die App wird keine Kopfzeile mehr haben. Stattdessen werden Tools wie das Benutzerprofil, Einstellungen und Feedback in die Symbolleiste unten links verschoben. Die Feedback-Schaltfläche wird im Abschnitt „Einstellungen und mehr“ in der Symbolleiste unten links verfügbar sein. Das Suchfeld erscheint künftig auf der Homepage der User, so dass Benutzer ihre Inhalte über mehrere Dateitypen und Speicherorte hinweg finden können. Die Suchfunktion selbst ändert sich nicht– nur die Platzierung. Alle Apps auf der linken Symbolleiste wandern nach oben. KI-Tools wie Microsoft 365 Copilot Chat und Copilot Pages werden zusammen präsentiert, um eine Korrelation herzustellen. Das Organisationslogo, das zuvor in der oberen Kopfzeile unter dem Thema Organisation angezeigt wurde, ist in der App nicht mehr sichtbar. Hinweis: Diese Änderung hat keine Auswirkungen auf andere Microsoft-365-Apps, bei denen das Organisationslogo weiterhin in der Kopfzeile angezeigt wird. Die Schaltfläche „Zurück“ in der Windows-Microsoft-365-Copilot-App wird nicht verfügbar sein. Benutzer können dafür weiterhin die linke App-Bar verwenden, um zwischen den Seiten zu navigieren. Die Funktion „Mein Tag“ wird aus der App entfernt, und Benutzer sehen in der Microsoft 365 Copilot-App keine Schaltfläche mehr, um den Kalender und die Aufgabenliste zu starten. Diese Änderung soll aber keine Auswirkungen auf andere Microsoft 365-Apps haben, in denen die Funktion „Mein Tag“ verfügbar ist. Die Funktion „Hilfe beim Erstellen“ wird aus der Microsoft 365 Copilot-App entfernt. Das Feature wurde im Februar 2024 eingeführt und sollte den Nutzern dabei helfen, Dokumente mit Hilfe eines LLM zu erstellen. Die KI-gestützte Dokumenterstellung wandert in die Registerkarte „Copilot“, da die Microsoft 365 Copilot-App zum Ziel von Copilot wird. Nach bislang vorliegenden Informationen sollen diese Änderungen Mitte Januar 2025 eingeführt werden. 

Redesign: Aus Microsoft 365 wird Microsoft 365 Copilot​ Anwender müssen sich umstellen. Microsoft will Mitte Januar 2025 die Benutzeroberfläche von Microsoft 365 überarbeiten.
Screenshot IDG

Wie unsere Schwesterpublikation PCWorld und die Website Neowin berichten, will Microsoft Anfang 2025 die Benutzeroberfläche der Microsoft-365-App überarbeiten. Zudem erhalte die App ein neues Symbol.

Des Weiteren sei eine Namensänderung im Gespräch. Ab Mitte Januar 2025 heißt die App dann wohl „Microsoft 365 Copilot“. Die Vermutungen basieren auf zwei Posting unter der ID MC958905 and MC958903 im M365 Message Center. Hier informiert Microsoft in der Regel Admins über neue oder geänderte Features.

Diesen Einträgen zufolge plant Microsoft folgende Veränderungen:

Die App wird keine Kopfzeile mehr haben. Stattdessen werden Tools wie das Benutzerprofil, Einstellungen und Feedback in die Symbolleiste unten links verschoben. Die Feedback-Schaltfläche wird im Abschnitt „Einstellungen und mehr“ in der Symbolleiste unten links verfügbar sein.

Das Suchfeld erscheint künftig auf der Homepage der User, so dass Benutzer ihre Inhalte über mehrere Dateitypen und Speicherorte hinweg finden können. Die Suchfunktion selbst ändert sich nicht– nur die Platzierung.

Alle Apps auf der linken Symbolleiste wandern nach oben. KI-Tools wie Microsoft 365 Copilot Chat und Copilot Pages werden zusammen präsentiert, um eine Korrelation herzustellen.

Das Organisationslogo, das zuvor in der oberen Kopfzeile unter dem Thema Organisation angezeigt wurde, ist in der App nicht mehr sichtbar. Hinweis: Diese Änderung hat keine Auswirkungen auf andere Microsoft-365-Apps, bei denen das Organisationslogo weiterhin in der Kopfzeile angezeigt wird.

Die Schaltfläche „Zurück“ in der Windows-Microsoft-365-Copilot-App wird nicht verfügbar sein. Benutzer können dafür weiterhin die linke App-Bar verwenden, um zwischen den Seiten zu navigieren.

Die Funktion „Mein Tag“ wird aus der App entfernt, und Benutzer sehen in der Microsoft 365 Copilot-App keine Schaltfläche mehr, um den Kalender und die Aufgabenliste zu starten. Diese Änderung soll aber keine Auswirkungen auf andere Microsoft 365-Apps haben, in denen die Funktion „Mein Tag“ verfügbar ist.

Die Funktion „Hilfe beim Erstellen“ wird aus der Microsoft 365 Copilot-App entfernt. Das Feature wurde im Februar 2024 eingeführt und sollte den Nutzern dabei helfen, Dokumente mit Hilfe eines LLM zu erstellen. Die KI-gestützte Dokumenterstellung wandert in die Registerkarte „Copilot“, da die Microsoft 365 Copilot-App zum Ziel von Copilot wird.

Nach bislang vorliegenden Informationen sollen diese Änderungen Mitte Januar 2025 eingeführt werden.

Redesign: Aus Microsoft 365 wird Microsoft 365 Copilot​ Weiterlesen »

Belohnt SAP systematisches Mobbing?​

Allgemein

„Boys Club“-Vorwürfe sind in Zusammenhang mit SAP nichts Neues.Tada Images | shutterstock.com Ein leitender SAP-, respektive Signavio-Manager soll systematisch Mitarbeiterinnen gemobbt, sexuell belästigt und manipuliert haben. Die Unternehmensleitung soll das trotz diverser Beschwerden nicht nur tatenlos hingenommen, sondern ihn auch noch befördert haben. Zumindest legen das die Vorwürfe nahe, die fünf (ehemalige) Mitarbeiterinnen der in Berlin ansässigen BPM-Sparte des größten deutschen Softwarekonzerns im Rahmen eines Exklusiv-Reports des US-Nachrichtenportals Bloomberg erheben. Die neuerlichen Vorwürfe werden nur wenige Monate nach dem Abgang von Ex-CTO-Jürgen Müller bekannt. Er musste Anfang September 2024 seinen Hut nehmen, nachdem er sich auf einer SAP-Firmenveranstaltung „unangemessen verhalten” hatte.   Mobbing, Manipulationen, Mysogynie Die fünf Betroffenen berichten gegenüber Bloomberg von systematischen Mobbing-Aktionen ihres Vorgesetzten, die sie entweder dazu bewegt hätten, das Team zu wechseln – oder das Unternehmen ganz zu verlassen. Dabei habe der Vorgesetzte auch ausgenutzt, dass die Mitarbeiterinnen nicht aus Westeuropa stammten und kein Deutsch sprachen. In einigen Fällen hing ihr Aufenthaltsstatus auch von der Beschäftigung bei SAP ab, wie Bloomberg berichtet. Die konkreten Vorwürfe gegen den leitenden Signavio-Manager sind breitgefächert. Dazu zählen beispielweise: willkürliche Kritik an Arbeitsergebnissen, ohne konkretes Feedback zu liefern, Sabotageakte an der Arbeit der Betroffenen,   die grundlose Zuweisung „niederer“ Tätigkeiten, Lügen und Intrigen, um die Betroffenen von ihrem Team zu isolieren, verbale Erniedrigungen und diskriminierende Beleidigungen, sowie sexuelle Belästigung. Zahlreichen Beschwerden bei der Personalabteilung zum Trotz, seien laut den Betroffenen seitens der Compliance-Abteilung von SAP keinerlei Maßnahmen ergriffen worden, um das Verhalten der Führungskraft abzustellen. Stattdessen habe man einer Betroffenen empfohlen, sich nach einer Position außerhalb ihres Teams umzusehen. Lediglich Ende 2023 seien disziplinarische Maßnahmen ergriffen worden und die Signavio-Führungskraft in zwei Fällen angewiesen worden, ausschließlich über die Personalabteilung mit den betroffenen Mitarbeiterinnen zu kommunizieren. Am Verhalten des Managers habe das jedoch nichts geändert, schreibt Bloomberg und beruft sich dabei auf Gespräche mit den Ex-Mitarbeiterinnen.   Im Gegenteil habe der Konzern den Beschuldigten Mitte 2024 schließlich zum „Director“ befördert. Dieser Umstand hat laut dem Bloomberg-Bericht eine der Betroffenen dazu veranlasst, letztendlich ihre Kündigung einzureichen – und einen Whistleblower-Bericht an die Compliance-Abteilung von SAP zu übermitteln. Mit dem Resultat, dass ihr zwei Compliance-Beauftragte gesagt hätten, dass ihre Anschuldigungen nicht aufrechterhalten werden könnten und dass der Manager, selbst wenn dies der Fall wäre, nicht gegen die SAP-Richtlinien verstoßen habe. Bevor die Mitarbeiterin Signavio verließ, fasste sie die Vorwürfe gegen ihren Vorgesetzten außerdem in einer E-Mail zusammen und schickte diese an 62 weibliche Kollegen im Unternehmen. Gegenüber Bloomberg wollten sich weder SAP noch der Manager selbst zu den Anschuldigungen äußern. Auf eine Nachfrage der Computerwoche teilte SAP lediglich mit: “Wir nehmen alle Hinweise auf Fehlverhalten außerordentlich ernst und setzen bei jeglicher Belästigung auf eine Null-Toleranz-Politik. SAP verfügt über ein zuverlässiges Verfahren, um alle gemeldeten Vorwürfe zu untersuchen. Sollte das Verhalten eines Mitarbeitenden nicht unseren Richtlinien und Werten entsprechen, ergreifen wir umgehend entsprechende Maßnahmen. Zu individuellen Untersuchungen oder disziplinarischen Vorgängen äußern wir uns grundsätzlich nicht.” Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Belohnt SAP systematisches Mobbing?​ „Boys Club“-Vorwürfe sind in Zusammenhang mit SAP nichts Neues.Tada Images | shutterstock.com

Ein leitender SAP-, respektive Signavio-Manager soll systematisch Mitarbeiterinnen gemobbt, sexuell belästigt und manipuliert haben. Die Unternehmensleitung soll das trotz diverser Beschwerden nicht nur tatenlos hingenommen, sondern ihn auch noch befördert haben.

Zumindest legen das die Vorwürfe nahe, die fünf (ehemalige) Mitarbeiterinnen der in Berlin ansässigen BPM-Sparte des größten deutschen Softwarekonzerns im Rahmen eines Exklusiv-Reports des US-Nachrichtenportals Bloomberg erheben.

Die neuerlichen Vorwürfe werden nur wenige Monate nach dem Abgang von Ex-CTO-Jürgen Müller bekannt. Er musste Anfang September 2024 seinen Hut nehmen, nachdem er sich auf einer SAP-Firmenveranstaltung „unangemessen verhalten” hatte.  

Mobbing, Manipulationen, Mysogynie

Die fünf Betroffenen berichten gegenüber Bloomberg von systematischen Mobbing-Aktionen ihres Vorgesetzten, die sie entweder dazu bewegt hätten, das Team zu wechseln – oder das Unternehmen ganz zu verlassen. Dabei habe der Vorgesetzte auch ausgenutzt, dass die Mitarbeiterinnen nicht aus Westeuropa stammten und kein Deutsch sprachen. In einigen Fällen hing ihr Aufenthaltsstatus auch von der Beschäftigung bei SAP ab, wie Bloomberg berichtet.

Die konkreten Vorwürfe gegen den leitenden Signavio-Manager sind breitgefächert. Dazu zählen beispielweise:

willkürliche Kritik an Arbeitsergebnissen, ohne konkretes Feedback zu liefern,

Sabotageakte an der Arbeit der Betroffenen,  

die grundlose Zuweisung „niederer“ Tätigkeiten,

Lügen und Intrigen, um die Betroffenen von ihrem Team zu isolieren,

verbale Erniedrigungen und diskriminierende Beleidigungen, sowie

sexuelle Belästigung.

Zahlreichen Beschwerden bei der Personalabteilung zum Trotz, seien laut den Betroffenen seitens der Compliance-Abteilung von SAP keinerlei Maßnahmen ergriffen worden, um das Verhalten der Führungskraft abzustellen. Stattdessen habe man einer Betroffenen empfohlen, sich nach einer Position außerhalb ihres Teams umzusehen.

Lediglich Ende 2023 seien disziplinarische Maßnahmen ergriffen worden und die Signavio-Führungskraft in zwei Fällen angewiesen worden, ausschließlich über die Personalabteilung mit den betroffenen Mitarbeiterinnen zu kommunizieren. Am Verhalten des Managers habe das jedoch nichts geändert, schreibt Bloomberg und beruft sich dabei auf Gespräche mit den Ex-Mitarbeiterinnen.  

Im Gegenteil habe der Konzern den Beschuldigten Mitte 2024 schließlich zum „Director“ befördert. Dieser Umstand hat laut dem Bloomberg-Bericht eine der Betroffenen dazu veranlasst, letztendlich ihre Kündigung einzureichen – und einen Whistleblower-Bericht an die Compliance-Abteilung von SAP zu übermitteln. Mit dem Resultat, dass ihr zwei Compliance-Beauftragte gesagt hätten, dass ihre Anschuldigungen nicht aufrechterhalten werden könnten und dass der Manager, selbst wenn dies der Fall wäre, nicht gegen die SAP-Richtlinien verstoßen habe. Bevor die Mitarbeiterin Signavio verließ, fasste sie die Vorwürfe gegen ihren Vorgesetzten außerdem in einer E-Mail zusammen und schickte diese an 62 weibliche Kollegen im Unternehmen. Gegenüber Bloomberg wollten sich weder SAP noch der Manager selbst zu den Anschuldigungen äußern.

Auf eine Nachfrage der Computerwoche teilte SAP lediglich mit: “Wir nehmen alle Hinweise auf Fehlverhalten außerordentlich ernst und setzen bei jeglicher Belästigung auf eine Null-Toleranz-Politik. SAP verfügt über ein zuverlässiges Verfahren, um alle gemeldeten Vorwürfe zu untersuchen. Sollte das Verhalten eines Mitarbeitenden nicht unseren Richtlinien und Werten entsprechen, ergreifen wir umgehend entsprechende Maßnahmen. Zu individuellen Untersuchungen oder disziplinarischen Vorgängen äußern wir uns grundsätzlich nicht.”

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Belohnt SAP systematisches Mobbing?​ Weiterlesen »

OpenTelemetry wird 2025 groß​

Allgemein

OpenTelemetry – das “next big thing” im Open-Source-Bereich?BG-Studio | shutterstock.com Einige Projekte aus dem Open-Source-Bereich sind echte Erfolgs-Stories und haben sich zu Standardkomponenten der IT-Infrastruktur entwickelt. Linux oder Kubernetes zum Beispiel. OpenTelemetry, ein Projekt der Cloud Native Computing Foundation (CNCF), ist derzeit auf dem besten Weg, daran anzuknüpfen. Das quelloffene Observability-Framework adressiert ein wesentliches Problem vieler Netzwerkprofis: Ausfälle zu vermeiden und parallel eine gleichbleibend hohe Performance der Applikationen über zunehmend komplexe und undurchsichtige Multi-Cloud-Umgebungen hinweg sicherzustellen. Casber Wang, Partner bei der Risikokapitalgesellschaft Sapphire Ventures, ordnet ein: „Bislang wurde der Observability-Markt von etablierten Unternehmen und ihren proprietären Datenformaten dominiert. Das hat zu einem Lock-in-Szenario geführt, das Unternehmen dazu zwingt, unzusammenhängende Monitoring-Lösungen zu integrieren und zu managen.“ Im Gegensatz dazu ermöglicht es OpenTelemetry – oder OTel – , drei grundlegende Arten von Telemetriedaten anbieterunabhängig einzuholen: Logs (Zeitstempel von Ereignissen), Metriken (Kennzahlen zur Ressourcennutzung und Anwendungsleistung), und Traces (bieten in verteilten Cloud-Umgebungen Einblicke in die Performance auf Anwendungsebene). Diese Daten aggregiert OTel in einer Single Source of Truth. Da das Framework weder Informationen speichert noch eine Möglichkeit bietet, diese zu analysieren, abzufragen oder zu präsentieren, werden die gesammelten Informationen anschließend an ein Backend-System übertragen, das Observability, Netzwerk-Monitoring oder Application Performance Management bereitstellt. Im Folgenden haben wir fünf Gründe zusammengetragen, die dafürsprechen, dass 2025 für OpenTelemetry das Jahr des Durchbruchs wird. 1. OpenTelemetry erfährt breite Akzeptanz Dafür spricht zunächst einmal, dass inzwischen nahezu alle relevanten Anbieter von Observability-Plattformen integrierten Support für das Open-Source-Framework bieten. Dazu gehören laut Gartners Magic Quadrant für Observability-Plattformen vom August 2024 führende Anbieter wie: Chronosphere, New Relic, Datadog, Dynatrace, ServiceNow, Splunk und SumoLogic. Microsoft wird hingegen von den Auguren dafür kritisiert, über Azure Monitor bislang nicht zu ermöglichen, OTel-Daten automatisiert zu erfassen. Dazu ist ein dediziertes Export-Tool notwendig. 2. OTel-Zertifizierung im Anmarsch Zertifizierungsprogramme bieten IT-Profis einen formalisierten Prozess, um sich neue Fähigkeiten anzueignen. Das wird bald auch mit Blick auf OpenTelemetry möglich sein: Sowohl die CNCF als auch die Linux Foundation haben eine OTel-Zertifizierung angekündigt. Sie zielt darauf ab, die Skills auszubauen, die nötig sind, um Telemetriedaten in verteilten Systemen zu nutzen. Die Zertifizierung zum OpenTelemetry Certified Associate (OTCA) richtet sich in erster Linie an: Anwendungsingenieure, DevOps-Spezialisten, System-Reliability-Profis, Plattform-Engineers, und IT-Fachkräfte. „Ein OTCA-Zertifikat vermittelt Ihnen gefragte Fähigkeiten für moderne IT-Prozesse“, argumentiert Clyde Seepersad, Senior Vice President und General Manager der „Education“-Abteilung der Linux Foundation. Er fügt hinzu: „Mit diesen Skills positionieren Sie sich in einer Zeit zunehmend komplexer und verteilter Systeme als proaktiver Problemlöser mit Expertenwissen.“ Eine OTCA-Prüfung abzulegen, ist bei der Linux Foundation ab Januar 2025 möglich. Die Kosten dafür liegen bei 250 Dollar. 3. OpenTelemetry wird zum Ende-zu-Ende-Tool Ursprünglich war OpenTelemetry für Cloud-Native-Applikationen konzipiert. Allerdings hat sich das Open-Source-Framework inzwischen zu einem wesentlich mächtigeren Ende-zu-Ende-Tool entwickelt. Dazu hat insbesondere die Gründung einer Special Interest Group innerhalb der OTel-Community beigetragen, die sich der CI/CD-Pipeline verschrieben hat. Projektleiter Dotan Horovits liefert Kontext: „CI/CD-Observability ist unerlässlich, um sicherzustellen, dass Software effizient und zuverlässig für die Produktion freigegeben wird. Indem sie Observability in CI/CD-Workflows integrieren, können Teams den Zustand und die Leistung ihrer Pipelines in Echtzeit überwachen und so Engpässe und verbesserungswürdige Bereiche identifizieren.“ An dieser Stelle seien offene Standards von entscheidender Bedeutung, so der Experte: „Sie schaffen eine einheitliche, Tool- und Anbieter-unabhängige Sprache, die eine kohärente Observability ermöglicht.“ 4. OTel integriert Business-Daten Telemetrie-Rohdaten mit der Netzwerk-Performance zu korrelieren ist wichtig – OpenTelemetry-Daten aus geschäftlicher Perspektive zu analysieren, ist für Unternehmen allerdings noch wichtiger. Das belegt auch eine aktuelle Umfrage (Download gegen Daten) des Observability-Anbieters New Relic. Risikokapital-Experte Wang erklärt die Hintergründe: „Tools für Product Experience und System Monitoring wurden traditionell in Silos betrieben. In jüngster Zeit beobachten wir, dass diese Bereiche zusammengeführt werden, um besser zu durchdringen, wie Endbenutzerverhalten und Signale auf Systemebene zusammenhängen.“ OTel ermöglicht genau das. 5. OpenTelemetry liefert AIOps-Grundlage Das explosionsartig gestiegene Interesse an generativer, künstlicher Intelligenz und Large Language Models (LLMs) hat auch dazu geführt, dass das Datenvolumen, das innerhalb von Unternehmensnetzwerken generiert, verarbeitet und übertragen wird, drastisch gestiegen ist. Um sicherzustellen, dass die KI-Systeme effizient arbeiten, muss dann auch ein entsprechend höheres Volumen an Telemetriedaten gesammelt werden. Als herstellerneutraler, branchenübergreifend anerkannter Standard kommt OpenTelemetry eine entscheidende Bedeutung zu, wenn es darum geht, Bottlenecks oder andere Performance-Probleme in Zusammenhang mit datenintensiven KI-Apps zu erkennen. Die anbieterneutralen Kern-Telemetriedaten, die OTel liefert, sind ein grundlegendes Element für AIOps – und damit für performante KI-Analysen, die Netzwerkmanager dabei unterstützen, ihre täglichen Arbeitsabläufe zu automatisieren und zu optimieren. The #OpenTelemetry End-User SIG surveyed the community on how user-friendly our documentation is! You can read the insights from the survey in our latest blog post:[image or embed]— OpenTelemetry (@opentelemetry.io) 19. Dezember 2024 um 11:25 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

OpenTelemetry wird 2025 groß​ OpenTelemetry – das “next big thing” im Open-Source-Bereich?BG-Studio | shutterstock.com

Einige Projekte aus dem Open-Source-Bereich sind echte Erfolgs-Stories und haben sich zu Standardkomponenten der IT-Infrastruktur entwickelt. Linux oder Kubernetes zum Beispiel. OpenTelemetry, ein Projekt der Cloud Native Computing Foundation (CNCF), ist derzeit auf dem besten Weg, daran anzuknüpfen. Das quelloffene Observability-Framework adressiert ein wesentliches Problem vieler Netzwerkprofis: Ausfälle zu vermeiden und parallel eine gleichbleibend hohe Performance der Applikationen über zunehmend komplexe und undurchsichtige Multi-Cloud-Umgebungen hinweg sicherzustellen.

Casber Wang, Partner bei der Risikokapitalgesellschaft Sapphire Ventures, ordnet ein: „Bislang wurde der Observability-Markt von etablierten Unternehmen und ihren proprietären Datenformaten dominiert. Das hat zu einem Lock-in-Szenario geführt, das Unternehmen dazu zwingt, unzusammenhängende Monitoring-Lösungen zu integrieren und zu managen.“

Im Gegensatz dazu ermöglicht es OpenTelemetry – oder OTel – , drei grundlegende Arten von Telemetriedaten anbieterunabhängig einzuholen:

Logs (Zeitstempel von Ereignissen),

Metriken (Kennzahlen zur Ressourcennutzung und Anwendungsleistung), und

Traces (bieten in verteilten Cloud-Umgebungen Einblicke in die Performance auf Anwendungsebene).

Diese Daten aggregiert OTel in einer Single Source of Truth. Da das Framework weder Informationen speichert noch eine Möglichkeit bietet, diese zu analysieren, abzufragen oder zu präsentieren, werden die gesammelten Informationen anschließend an ein Backend-System übertragen, das Observability, Netzwerk-Monitoring oder Application Performance Management bereitstellt.

Im Folgenden haben wir fünf Gründe zusammengetragen, die dafürsprechen, dass 2025 für OpenTelemetry das Jahr des Durchbruchs wird.

1. OpenTelemetry erfährt breite Akzeptanz

Dafür spricht zunächst einmal, dass inzwischen nahezu alle relevanten Anbieter von Observability-Plattformen integrierten Support für das Open-Source-Framework bieten. Dazu gehören laut Gartners Magic Quadrant für Observability-Plattformen vom August 2024 führende Anbieter wie:

Chronosphere,

New Relic,

Datadog,

Dynatrace,

ServiceNow,

Splunk und

SumoLogic.

Microsoft wird hingegen von den Auguren dafür kritisiert, über Azure Monitor bislang nicht zu ermöglichen, OTel-Daten automatisiert zu erfassen. Dazu ist ein dediziertes Export-Tool notwendig.

2. OTel-Zertifizierung im Anmarsch

Zertifizierungsprogramme bieten IT-Profis einen formalisierten Prozess, um sich neue Fähigkeiten anzueignen. Das wird bald auch mit Blick auf OpenTelemetry möglich sein: Sowohl die CNCF als auch die Linux Foundation haben eine OTel-Zertifizierung angekündigt. Sie zielt darauf ab, die Skills auszubauen, die nötig sind, um Telemetriedaten in verteilten Systemen zu nutzen.

Die Zertifizierung zum OpenTelemetry Certified Associate (OTCA) richtet sich in erster Linie an:

Anwendungsingenieure,

DevOps-Spezialisten,

System-Reliability-Profis,

Plattform-Engineers, und

IT-Fachkräfte.

„Ein OTCA-Zertifikat vermittelt Ihnen gefragte Fähigkeiten für moderne IT-Prozesse“, argumentiert Clyde Seepersad, Senior Vice President und General Manager der „Education“-Abteilung der Linux Foundation. Er fügt hinzu: „Mit diesen Skills positionieren Sie sich in einer Zeit zunehmend komplexer und verteilter Systeme als proaktiver Problemlöser mit Expertenwissen.“

Eine OTCA-Prüfung abzulegen, ist bei der Linux Foundation ab Januar 2025 möglich. Die Kosten dafür liegen bei 250 Dollar.

3. OpenTelemetry wird zum Ende-zu-Ende-Tool

Ursprünglich war OpenTelemetry für Cloud-Native-Applikationen konzipiert. Allerdings hat sich das Open-Source-Framework inzwischen zu einem wesentlich mächtigeren Ende-zu-Ende-Tool entwickelt. Dazu hat insbesondere die Gründung einer Special Interest Group innerhalb der OTel-Community beigetragen, die sich der CI/CD-Pipeline verschrieben hat.

Projektleiter Dotan Horovits liefert Kontext: „CI/CD-Observability ist unerlässlich, um sicherzustellen, dass Software effizient und zuverlässig für die Produktion freigegeben wird. Indem sie Observability in CI/CD-Workflows integrieren, können Teams den Zustand und die Leistung ihrer Pipelines in Echtzeit überwachen und so Engpässe und verbesserungswürdige Bereiche identifizieren.“

An dieser Stelle seien offene Standards von entscheidender Bedeutung, so der Experte: „Sie schaffen eine einheitliche, Tool- und Anbieter-unabhängige Sprache, die eine kohärente Observability ermöglicht.“

4. OTel integriert Business-Daten

Telemetrie-Rohdaten mit der Netzwerk-Performance zu korrelieren ist wichtig – OpenTelemetry-Daten aus geschäftlicher Perspektive zu analysieren, ist für Unternehmen allerdings noch wichtiger. Das belegt auch eine aktuelle Umfrage (Download gegen Daten) des Observability-Anbieters New Relic.

Risikokapital-Experte Wang erklärt die Hintergründe: „Tools für Product Experience und System Monitoring wurden traditionell in Silos betrieben. In jüngster Zeit beobachten wir, dass diese Bereiche zusammengeführt werden, um besser zu durchdringen, wie Endbenutzerverhalten und Signale auf Systemebene zusammenhängen.“

OTel ermöglicht genau das.

5. OpenTelemetry liefert AIOps-Grundlage

Das explosionsartig gestiegene Interesse an generativer, künstlicher Intelligenz und Large Language Models (LLMs) hat auch dazu geführt, dass das Datenvolumen, das innerhalb von Unternehmensnetzwerken generiert, verarbeitet und übertragen wird, drastisch gestiegen ist. Um sicherzustellen, dass die KI-Systeme effizient arbeiten, muss dann auch ein entsprechend höheres Volumen an Telemetriedaten gesammelt werden.

Als herstellerneutraler, branchenübergreifend anerkannter Standard kommt OpenTelemetry eine entscheidende Bedeutung zu, wenn es darum geht, Bottlenecks oder andere Performance-Probleme in Zusammenhang mit datenintensiven KI-Apps zu erkennen. Die anbieterneutralen Kern-Telemetriedaten, die OTel liefert, sind ein grundlegendes Element für AIOps – und damit für performante KI-Analysen, die Netzwerkmanager dabei unterstützen, ihre täglichen Arbeitsabläufe zu automatisieren und zu optimieren.

The #OpenTelemetry End-User SIG surveyed the community on how user-friendly our documentation is! You can read the insights from the survey in our latest blog post:[image or embed]— OpenTelemetry (@opentelemetry.io) 19. Dezember 2024 um 11:25

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

OpenTelemetry wird 2025 groß​ Weiterlesen »

Zehn IT-Trends, auf die Sie 2025 vergeblich warten​

Allgemein

Auch 2025 warten Anbieter und Anwender vergebens auf den Durchbruch bei wichtigen Technologieentwicklungen. PeopleImages.com – Yuri A/Shutterstock.com Herausforderungen wie globale Konflikte, die angespannte Wirtschaftslage, politische Veränderungen, Fachkräftemangel, aber auch neue Risiken und Regularien werden auch im kommenden Jahr dazu führen, dass Hersteller- und Anwenderunternehmen Technologieentscheidungen verstärkt auf den Prüfstand stellen. Gleichzeitig gibt es eine ganze Reihe neuer Entwicklungen, die das Potenzial haben, ganze Branchen zu transformieren – darunter (generative) künstliche Intelligenz, 5G/6G, Extended Reality (XR) oder Robotics. Welche IT-Trends das kommende Jahr prägen werden – und welche (noch) nicht – haben die Marktforscher von ABI Research in einem umfangreichen Arbeitspapier (Download gegen Daten) zusammengestellt. Wir fassen die wichtigsten Fehlanzeigen für das Jahr  2025 für Sie zusammen. 1. Nvidia bleibt ohne Herausforderer Auch wenn AMD mit seiner Instinct-Plattform und einer ehrgeizigen Hardware-Roadmap Fortschritte macht und andere Player Erfolge erzielen: ABI Research geht davon aus, dass Nvidia das Feld weiterhin dominieren wird. Dies gelte – insbesondere beim Training von Workloads – für die Datenverarbeitung, die GPU- sowie die Netzwerkskalierung für große Chips-Cluster, so die Analysten. Treiber sei zum Teil Nvidias neue Blackwell-Plattform, die in verschiedenen Instanzen von Cloud-Anbietern hochgefahren werde. Die Anbieter würden darum wetteifern, wer sie zuerst einsetzt. 2. Noch kein KI-Regulierungs-Impact Obwohl das KI-Gesetz der Europäischen Union (EU) im August 2024 formell verabschiedet wurde, werden die vollen rechtlichen Auswirkungen des AI Act erst in eineinhalb Jahren (August 2026) greifen. Im Jahr 2025 werden daher die meisten Kontrollen der KI-Entwicklung und -Bereitstellung noch immer von Datenvorschriften wie der Datenschutzgrundverordnung (DSGVO) ausgehen. Als Beispiel verweisen die Marktforscher auf Google AI und Apple Intelligence, deren jeweilige Einführung in der EU mit Problemen konfrontiert ist. Die Konsequenz für Unternehmen, so ABI Research: Aufgrund der Verwirrung über die Risiken von KI-Anwendungsfällen sei es für Unternehmen schwieriger als erwartet, eine effektive, langfristige KI-Strategie zu etablieren, die mit der sich abzeichnenden Regulierung in Einklang steht. 3. GenAI weiterhin ohne (großen) Mehrwert Auch wenn viele Unternehmen bis 2025 GenAI-Lösungen in verschiedenen Geschäftsprozessen implementiert haben: Die hohen Erwartungen an diese vermeintlich revolutionäre Technologie werden weiterhin nicht erfüllt werden, prognostiziert ABI Research. Der Grund: Technologische und geschäftliche Herausforderungen sowie unerwartet hohe Implementierungskosten schränkten die Wertschöpfung ein. Die Auguren verweisen dabei auf die zum Teil erheblichen Vorlaufkosten, etwa für die Aufbereitung der Daten, das Feintuning, den Cloud-Speicher und technische Anpassungen. Zudem beschränkten sich die meisten Implementierungen aufgrund von Risikoscheu und anderen Faktoren auf wenig riskante Anwendungsfälle mit geringem Nutzen. Erfüllt GenAI die Erwartungen nicht, rechnet ABI Research damit, dass Projekte abgebrochen werden und sich viele Unternehmen darauf konzentrieren, schnelle und einfache Erfolge zu erzielen. 4. Kein neuer Rechenzentrums-Boom Nachdem in den Jahren 2023 bis 2024 in allen Regionen und Sektoren massiv in Rechenzentrumsprojekte investiert wurde, wird der Boom nach Einschätzung von ABI Research im kommenden Jahr abebben. Als Grund nennen die Auguren Einschränkungen in der Lieferkette.  So sei die Dominanz von NVIDIA bei KI-Beschleunigern der erste Engpass, gefolgt von der Kontrolle von TSMC über die fortgeschrittene Chipfertigung und der exklusiven Position von ASML bei Lithografieanlagen. Diese vielschichtigen Kapazitätsengpässe führen den Forschern zufolge dazu, dass Großkunden bevorzugt werden, wodurch kleinere Akteure und Initiativen für Datensouveränität an den Rand gedrängt werden könnten. Als weiteren Hemmschuh identifiziert ABI Research den steigenden Energiebedarf dieser Rechenzentren. Die Energieversorger hätten Schwierigkeiten, mit dem explosionsartigen Anstieg des Strombedarfs Schritt zu halten, weshalb eher in die Optimierung bestehender Anlagen als in den Bau neuer Rechenzentren investiert werde. 5. Cloud wird On-Premises nicht vollständig verdrängen Trotz des unbestreitbaren Aufschwungs hybrider Cloud-Modelle hält ABI Research es aus mehreren Gründen für unwahrscheinlich, dass lokale Infrastrukturen vollständig verdrängt werden. So verließen sich viele Unternehmen nach wie vor auf Legacy-Systeme, die tief in ihre Geschäftsprozesse eingebettet seien. Diese Systeme, insbesondere in Branchen wie Finanzen, Fertigung und Gesundheitswesen, seien oft zu komplex oder zu teuer, um vollständig in die Cloud migriert zu werden. Das würde eine umfassende Umstrukturierung erfordern und die potenziellen Störungen während der Migration könnten die kurzfristigen Vorteile überwiegen. Darüber hinaus sehen die Analysten eine Reihe technischer, regulatorischer und betrieblicher Faktoren, die einen vollständigen Umstieg auf reine Cloud-Modelle unpraktikabel machen. So gebe es in stark regulierten Branchen wie dem Banken- oder Gesundheitssektor sowie bei Behörden Gesetze, die vorschrieben, Daten innerhalb bestimmter Jurisdiktionen zu speichern und zu verarbeiten. 6. Keine großen Digitalisierungsprojekte Aus Sicht von ABI Research wird das Jahr 2025 dadurch geprägt sein, dass Unternehmen zwar die Notwendigkeit von Veränderungen erkennen, sich aber mit der Konzeption von Projekten und dem Einsatz von Technologien schwer tun. Der Grund, so die Auguren: Um erfolgreich zu sein, müssten Unternehmen bei großen, digitalen Transformationsprojekten das volle Potenzial einer Vielzahl von Technologien ausschöpfen, die ihre Betriebsabläufe potenziell verbessern könnten. Laut einer Umfrage von ABI Research ist dies jedoch das größte Hindernis bei der Umsetzung. Da es unter diesen Umständen schwierig sei, einen Return on Investment (ROI) zu gewährleisten, würden Projekte erst gar nicht in Angriff genommen. 7. Mittelstand hält sich bei Industrie 4.0 zurück Laut ABI Research sind kleine und mittlere Fertigungsunternehmen seit jeher Nachzügler bei der Einführung neuer Technologien. Die Gründe: Preissensibilität gegenüber teurer Technologie, Ambivalenz gegenüber neuen Prozessen, und das Risiko der Unsicherheit, dass Veränderungen in der Produktion nur eine geringe oder gar keine Rendite (ROI) bringen. Obwohl dies für Mittelständler schon lange ein Problem sei, werde es sich bis 2025 noch verschärfen, prognostizieren die Analysten. Der Grund: Bei der nächsten Technologiewelle (GenAI, Digital Threads und Industrial Metaverse) handle es sich um kostspielige Vorhaben, die mit vielen Fragezeichen behaftet seien. So sind diese Technologien laut den Analysten noch nicht weit genug entwickelt und wurden von den großen Herstellern noch nicht ausgiebig in der Praxis getestet, um das Vertrauen der kleineren Unternehmen zu gewinnen. 8. Die Weltherrschaft humanoider Roboter bleibt (vorerst) aus Inzwischen gibt es ein Dutzend Humanoide, die so weit entwickelt sind wie Atlas von Boston Dynamics – und auch die Fernsteuerung macht beeindruckende Fortschritte. Allerdings gehen die Marktforscher davon aus, dass Humanoide ohne einen radikalen Wandel in der KI kaum über diesen Punkt hinauskommen werden. ABI Research prognostiziert daher einen KI-bedingten Wendepunkt für Humanoide erst zwischen 2026 und 2027. Bis dahin sollten Anbieter dem erfolgreichen Beispiel von Agility Robotics folgen und das Mietmodell Robots as a Service (RaaS) übernehmen, empfehlen die Analysten. Dabei wird die Arbeit von Robotern mit dem Stundenlohn menschlicher Arbeitskräfte gleichgesetzt und Metriken zur Quantifizierung der Roboterleistung erstellt. Außerdem sollten sie Teleoperationsfähigkeiten entwickeln, um Grenzfälle während des Einsatzes zu bewältigen und Entscheidungsträgern dabei zu helfen, den Nutzen zu ermitteln und die Risiken bei der Einführung zu minimieren. 9. Monetarisierung von Daten bleibt schwierig Unternehmen wollen die riesigen Datenmengen, über die sie verfügen, monetarisieren und sehen in Enterprise Data Fabric die Wunderwaffe dafür. ABI Research prognostiziert jedoch, dass sich in diesem Bereich bis 2025 nicht viel tun wird: Der Markt für Enterprise Data Fabric sei noch relativ jung und die Anbieter konzentrierten sich im ersten Schritt zur Monetarisierung von Daten auf Datenmanagementlösungen, die unterschiedliche und über verschiedene Umgebungen verteilte Datenquellen verbinden und integrieren können. Nach Ansicht der Marktforscher ist dies jedoch nicht ausreichend. Künftig müssten Anbieter von Datenmanagementlösungen auch KI-Lösungen bereitstellen, die Unternehmen bei der Verbesserung der Datenverfolgung und der Datenherkunftsanalyse unterstützen. Dies werde ein wichtiger Schritt hin zur Bereitstellung von Datenmonetarisierungsdiensten wie Data-as-a-Service oder KI/ML-Predictive-Analytics-Modellen sein. 10. Kaum KI-basierte Lösungen in der Lieferkette Auch wenn KI und GenAI in allen Branchen Einzug halten, werden KI-gestützte Lösungen laut ABI Research in der Lieferkette nur begrenzt und vereinzelt zum Einsatz kommen. Traditionelle KI werde hauptsächlich für fortgeschrittene Datenanalysen eingesetzt, während führende Anbieter damit beginnen würden, auch prädiktive Analysen und systemgenerierte Problemlösungen zur Entscheidungsunterstützung anzubieten. Diese Lösungen werden laut ABI Research nach und nach auch von Anwenderunternehmen eingesetzt. Allerdings befänden sich die Implementierungen noch in einem frühen Stadium, in dem die Effizienz durch schlechte Datenqualität, unzureichende Systemintegration, fehlendes internes Know-how und mangelndes Vertrauen in KI eingeschränkt werde. Laut den Analysten gibt es auch GenAI-Lösungen, hauptsächlich in Form von Copiloten und Chatbots, deren Hauptfunktion darin besteht, Daten auf intuitivere Weise abzufragen. Die Lösungen hätten jedoch Schwierigkeiten, einen radikalen Return on Investment (ROI) zu erzielen, um eine breitere Anwendung zu fördern. Laut ABI Research führen viele große Softwareanbieter derzeit gemeinsame Entwicklungsprojekte mit Kunden rund um die Supply Chain durch. Die Suche nach den besten Lösungen wird jedoch Zeit in Anspruch nehmen, so dass 2025 weiterhin ein Testjahr für KI und GenAI in der Lieferkette sein wird. 

Zehn IT-Trends, auf die Sie 2025 vergeblich warten​ Auch 2025 warten Anbieter und Anwender vergebens auf den Durchbruch bei wichtigen Technologieentwicklungen. PeopleImages.com – Yuri A/Shutterstock.com

Herausforderungen wie globale Konflikte, die angespannte Wirtschaftslage, politische Veränderungen, Fachkräftemangel, aber auch neue Risiken und Regularien werden auch im kommenden Jahr dazu führen, dass Hersteller- und Anwenderunternehmen Technologieentscheidungen verstärkt auf den Prüfstand stellen. Gleichzeitig gibt es eine ganze Reihe neuer Entwicklungen, die das Potenzial haben, ganze Branchen zu transformieren – darunter (generative) künstliche Intelligenz, 5G/6G, Extended Reality (XR) oder Robotics.

Welche IT-Trends das kommende Jahr prägen werden – und welche (noch) nicht – haben die Marktforscher von ABI Research in einem umfangreichen Arbeitspapier (Download gegen Daten) zusammengestellt. Wir fassen die wichtigsten Fehlanzeigen für das Jahr  2025 für Sie zusammen.

1. Nvidia bleibt ohne Herausforderer

Auch wenn AMD mit seiner Instinct-Plattform und einer ehrgeizigen Hardware-Roadmap Fortschritte macht und andere Player Erfolge erzielen: ABI Research geht davon aus, dass Nvidia das Feld weiterhin dominieren wird. Dies gelte – insbesondere beim Training von Workloads – für die Datenverarbeitung, die GPU- sowie die Netzwerkskalierung für große Chips-Cluster, so die Analysten.

Treiber sei zum Teil Nvidias neue Blackwell-Plattform, die in verschiedenen Instanzen von Cloud-Anbietern hochgefahren werde. Die Anbieter würden darum wetteifern, wer sie zuerst einsetzt.

2. Noch kein KI-Regulierungs-Impact

Obwohl das KI-Gesetz der Europäischen Union (EU) im August 2024 formell verabschiedet wurde, werden die vollen rechtlichen Auswirkungen des AI Act erst in eineinhalb Jahren (August 2026) greifen. Im Jahr 2025 werden daher die meisten Kontrollen der KI-Entwicklung und -Bereitstellung noch immer von Datenvorschriften wie der Datenschutzgrundverordnung (DSGVO) ausgehen.

Als Beispiel verweisen die Marktforscher auf Google AI und Apple Intelligence, deren jeweilige Einführung in der EU mit Problemen konfrontiert ist. Die Konsequenz für Unternehmen, so ABI Research: Aufgrund der Verwirrung über die Risiken von KI-Anwendungsfällen sei es für Unternehmen schwieriger als erwartet, eine effektive, langfristige KI-Strategie zu etablieren, die mit der sich abzeichnenden Regulierung in Einklang steht.

3. GenAI weiterhin ohne (großen) Mehrwert

Auch wenn viele Unternehmen bis 2025 GenAI-Lösungen in verschiedenen Geschäftsprozessen implementiert haben: Die hohen Erwartungen an diese vermeintlich revolutionäre Technologie werden weiterhin nicht erfüllt werden, prognostiziert ABI Research. Der Grund: Technologische und geschäftliche Herausforderungen sowie unerwartet hohe Implementierungskosten schränkten die Wertschöpfung ein.

Die Auguren verweisen dabei auf die zum Teil erheblichen Vorlaufkosten, etwa für die Aufbereitung der Daten, das Feintuning, den Cloud-Speicher und technische Anpassungen. Zudem beschränkten sich die meisten Implementierungen aufgrund von Risikoscheu und anderen Faktoren auf wenig riskante Anwendungsfälle mit geringem Nutzen. Erfüllt GenAI die Erwartungen nicht, rechnet ABI Research damit, dass Projekte abgebrochen werden und sich viele Unternehmen darauf konzentrieren, schnelle und einfache Erfolge zu erzielen.

4. Kein neuer Rechenzentrums-Boom

Nachdem in den Jahren 2023 bis 2024 in allen Regionen und Sektoren massiv in Rechenzentrumsprojekte investiert wurde, wird der Boom nach Einschätzung von ABI Research im kommenden Jahr abebben. Als Grund nennen die Auguren Einschränkungen in der Lieferkette.  So sei die Dominanz von NVIDIA bei KI-Beschleunigern der erste Engpass, gefolgt von der Kontrolle von TSMC über die fortgeschrittene Chipfertigung und der exklusiven Position von ASML bei Lithografieanlagen. Diese vielschichtigen Kapazitätsengpässe führen den Forschern zufolge dazu, dass Großkunden bevorzugt werden, wodurch kleinere Akteure und Initiativen für Datensouveränität an den Rand gedrängt werden könnten.

Als weiteren Hemmschuh identifiziert ABI Research den steigenden Energiebedarf dieser Rechenzentren. Die Energieversorger hätten Schwierigkeiten, mit dem explosionsartigen Anstieg des Strombedarfs Schritt zu halten, weshalb eher in die Optimierung bestehender Anlagen als in den Bau neuer Rechenzentren investiert werde.

5. Cloud wird On-Premises nicht vollständig verdrängen

Trotz des unbestreitbaren Aufschwungs hybrider Cloud-Modelle hält ABI Research es aus mehreren Gründen für unwahrscheinlich, dass lokale Infrastrukturen vollständig verdrängt werden. So verließen sich viele Unternehmen nach wie vor auf Legacy-Systeme, die tief in ihre Geschäftsprozesse eingebettet seien.

Diese Systeme, insbesondere in Branchen wie Finanzen, Fertigung und Gesundheitswesen, seien oft zu komplex oder zu teuer, um vollständig in die Cloud migriert zu werden. Das würde eine umfassende Umstrukturierung erfordern und die potenziellen Störungen während der Migration könnten die kurzfristigen Vorteile überwiegen.

Darüber hinaus sehen die Analysten eine Reihe technischer, regulatorischer und betrieblicher Faktoren, die einen vollständigen Umstieg auf reine Cloud-Modelle unpraktikabel machen. So gebe es in stark regulierten Branchen wie dem Banken- oder Gesundheitssektor sowie bei Behörden Gesetze, die vorschrieben, Daten innerhalb bestimmter Jurisdiktionen zu speichern und zu verarbeiten.

6. Keine großen Digitalisierungsprojekte

Aus Sicht von ABI Research wird das Jahr 2025 dadurch geprägt sein, dass Unternehmen zwar die Notwendigkeit von Veränderungen erkennen, sich aber mit der Konzeption von Projekten und dem Einsatz von Technologien schwer tun.

Der Grund, so die Auguren: Um erfolgreich zu sein, müssten Unternehmen bei großen, digitalen Transformationsprojekten das volle Potenzial einer Vielzahl von Technologien ausschöpfen, die ihre Betriebsabläufe potenziell verbessern könnten. Laut einer Umfrage von ABI Research ist dies jedoch das größte Hindernis bei der Umsetzung. Da es unter diesen Umständen schwierig sei, einen Return on Investment (ROI) zu gewährleisten, würden Projekte erst gar nicht in Angriff genommen.

7. Mittelstand hält sich bei Industrie 4.0 zurück

Laut ABI Research sind kleine und mittlere Fertigungsunternehmen seit jeher Nachzügler bei der Einführung neuer Technologien. Die Gründe:

Preissensibilität gegenüber teurer Technologie,

Ambivalenz gegenüber neuen Prozessen, und

das Risiko der Unsicherheit, dass Veränderungen in der Produktion nur eine geringe oder gar keine Rendite (ROI) bringen.

Obwohl dies für Mittelständler schon lange ein Problem sei, werde es sich bis 2025 noch verschärfen, prognostizieren die Analysten. Der Grund: Bei der nächsten Technologiewelle (GenAI, Digital Threads und Industrial Metaverse) handle es sich um kostspielige Vorhaben, die mit vielen Fragezeichen behaftet seien. So sind diese Technologien laut den Analysten noch nicht weit genug entwickelt und wurden von den großen Herstellern noch nicht ausgiebig in der Praxis getestet, um das Vertrauen der kleineren Unternehmen zu gewinnen.

8. Die Weltherrschaft humanoider Roboter bleibt (vorerst) aus

Inzwischen gibt es ein Dutzend Humanoide, die so weit entwickelt sind wie Atlas von Boston Dynamics – und auch die Fernsteuerung macht beeindruckende Fortschritte. Allerdings gehen die Marktforscher davon aus, dass Humanoide ohne einen radikalen Wandel in der KI kaum über diesen Punkt hinauskommen werden.

ABI Research prognostiziert daher einen KI-bedingten Wendepunkt für Humanoide erst zwischen 2026 und 2027. Bis dahin sollten Anbieter dem erfolgreichen Beispiel von Agility Robotics folgen und das Mietmodell Robots as a Service (RaaS) übernehmen, empfehlen die Analysten. Dabei wird die Arbeit von Robotern mit dem Stundenlohn menschlicher Arbeitskräfte gleichgesetzt und Metriken zur Quantifizierung der Roboterleistung erstellt. Außerdem sollten sie Teleoperationsfähigkeiten entwickeln, um Grenzfälle während des Einsatzes zu bewältigen und Entscheidungsträgern dabei zu helfen, den Nutzen zu ermitteln und die Risiken bei der Einführung zu minimieren.

9. Monetarisierung von Daten bleibt schwierig

Unternehmen wollen die riesigen Datenmengen, über die sie verfügen, monetarisieren und sehen in Enterprise Data Fabric die Wunderwaffe dafür. ABI Research prognostiziert jedoch, dass sich in diesem Bereich bis 2025 nicht viel tun wird: Der Markt für Enterprise Data Fabric sei noch relativ jung und die Anbieter konzentrierten sich im ersten Schritt zur Monetarisierung von Daten auf Datenmanagementlösungen, die unterschiedliche und über verschiedene Umgebungen verteilte Datenquellen verbinden und integrieren können.

Nach Ansicht der Marktforscher ist dies jedoch nicht ausreichend. Künftig müssten Anbieter von Datenmanagementlösungen auch KI-Lösungen bereitstellen, die Unternehmen bei der Verbesserung der Datenverfolgung und der Datenherkunftsanalyse unterstützen. Dies werde ein wichtiger Schritt hin zur Bereitstellung von Datenmonetarisierungsdiensten wie Data-as-a-Service oder KI/ML-Predictive-Analytics-Modellen sein.

10. Kaum KI-basierte Lösungen in der Lieferkette

Auch wenn KI und GenAI in allen Branchen Einzug halten, werden KI-gestützte Lösungen laut ABI Research in der Lieferkette nur begrenzt und vereinzelt zum Einsatz kommen. Traditionelle KI werde hauptsächlich für fortgeschrittene Datenanalysen eingesetzt, während führende Anbieter damit beginnen würden, auch prädiktive Analysen und systemgenerierte Problemlösungen zur Entscheidungsunterstützung anzubieten.

Diese Lösungen werden laut ABI Research nach und nach auch von Anwenderunternehmen eingesetzt. Allerdings befänden sich die Implementierungen noch in einem frühen Stadium, in dem die Effizienz durch schlechte Datenqualität, unzureichende Systemintegration, fehlendes internes Know-how und mangelndes Vertrauen in KI eingeschränkt werde. Laut den Analysten gibt es auch GenAI-Lösungen, hauptsächlich in Form von Copiloten und Chatbots, deren Hauptfunktion darin besteht, Daten auf intuitivere Weise abzufragen. Die Lösungen hätten jedoch Schwierigkeiten, einen radikalen Return on Investment (ROI) zu erzielen, um eine breitere Anwendung zu fördern.

Laut ABI Research führen viele große Softwareanbieter derzeit gemeinsame Entwicklungsprojekte mit Kunden rund um die Supply Chain durch. Die Suche nach den besten Lösungen wird jedoch Zeit in Anspruch nehmen, so dass 2025 weiterhin ein Testjahr für KI und GenAI in der Lieferkette sein wird.

Zehn IT-Trends, auf die Sie 2025 vergeblich warten​ Weiterlesen »

Büropflicht verprellt die besten Mitarbeiter​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?quality=50&strip=all 5499w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Vor allem Frauen verlassen bei einer strikten Büropflicht das Unternehmen.DimaBerlin/Shutterstock.com Unternehmen, die zu einer rigiden Return-to-Office-Policy (RTO) zurückkehren, riskieren dadurch, ihre besten Talente zu verlieren. Sie verprellen damit insbesondere Frauen, langjährig Beschäftigte und höher Qualifizierte. Zu diesem Ergebnis kommt eine im November 2024 veröffentlichte Studie (PDF) der Universität Pittsburg und anderer Hochschulen.   Die Forscher hatten bereits Anfang 2024 in einer Untersuchung festgestellt, dass Bürozwang nicht nur der Mitarbeiterzufriedenheit schadet, sondern auch nicht zu höheren Gewinnen führt. Sie waren zu dem Schluss gekommen, dass „Manager RTO nutzen, um Macht zu demonstrieren und Mitarbeiter für schlechte Leistungen verantwortlich zu machen“.  Das Gegenteil von Win-Win  In der neuen Studie verfolgte das Forschungsteam die Beschäftigungshistorie von mehr als drei Millionen Arbeitnehmern aus dem Technologie- und Finanzsektor auf LinkedIn, um die Auswirkungen von RTO-Policies in S&P-500-Unternehmen zu analysieren. Anhand der von Revelio Labs bereitgestellten Informationen aus Linkedin-Profilen identifizierten die Forscher Mitarbeiter, die ein Unternehmen in jedem Zeitraum verlassen haben, und berechneten auf dieser Grundlage die Fluktuationsrate.   Zusätzlich werteten sie auch Informationen wie das Geschlecht der Mitarbeiter, die Dauer der Betriebszugehörigkeit und die Anzahl der in den individuellen LinkedIn-Profilen aufgeführten Fähigkeiten aus, die als Indikator für das Qualifikationsniveau der Mitarbeiter dienen.  Das Resultat: Die Forscher stellten fest, dass die Kündigungsrate nach Einführung einer Return-to-Office-Policy im Schnitt um 14 Prozent anstieg. Dabei verließen fast dreimal so viele Frauen wie Männer das Unternehmen. Außerdem zeigte die Auswertung einen höheren Anteil der Kündigungen bei Mitarbeitern mit längerer Betriebszugehörigkeit und Angestellten aus dem mittleren und höheren Management.   width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1zIzX2zyDVyU2gw07GJUO8?utm_source=oembed”> Schwierigkeiten bei der Nachbesetzung Neben der hohen Fluktuation stellten die Forscher fest, dass auch die Einstellungsquoten nach RTO-Mandaten deutlich zurückgingen – offensichtlich, weil die Unternehmen Schwierigkeiten haben, zu diesen Konditionen neue Mitarbeiter zu finden. Wie die Auswertung von zwei Millionen Stellenanzeigen ergab, verlängerte sich die Zeit bis zur Besetzung offener Stellen im Durchschnitt um 23 Prozent, und die Einstellungsquote sank um 17 Prozent.  Die Forscher stellten auch „signifikant höhere Einstellungskosten durch RTO-Mandate“ fest, was sie zu der Schlussfolgerung veranlasste, „dass Unternehmen ihre besten Talente nach RTO-Mandaten verlieren und erhebliche Schwierigkeiten haben, sie zu ersetzen“.  Allerdings ist der Verdacht nicht unbegründet, dass Unternehmen häufig gar keinen Ersatz für Abgänge suchen. Vielmehr wird die Büropflicht als Instrument genutzt, um den Headcount zu reduzieren ohne teure Abfindungen für betriebsbedingte Kündigungen zahlen zu müssen.   In Anlehnung an diesen Trend in der Privatwirtschaft haben erst kürzlich Elon Musk und Vivek Ramaswamy RTO-Mandate für die Regierungsbehörden vorgeschlagen, um „freiwillige Kündigungen“ zu erreichen. Wenn die Bundesbedienstete nicht kommen wollen, sollten die amerikanischen Steuerzahler sie nicht für das Privileg der Covid-Ära, zu Hause zu bleiben, bezahlen, erklärten die künftigen Leiter des vorgeschlagenen Ministeriums für Regierungseffizienz (Department of Government Efficiency – DOGE) im Rahmen eines Gastbeitrags für das Wall Street Journal.  

Büropflicht verprellt die besten Mitarbeiter​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?quality=50&strip=all 5499w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/shutterstock_2090795446_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Vor allem Frauen verlassen bei einer strikten Büropflicht das Unternehmen.DimaBerlin/Shutterstock.com

Unternehmen, die zu einer rigiden Return-to-Office-Policy (RTO) zurückkehren, riskieren dadurch, ihre besten Talente zu verlieren. Sie verprellen damit insbesondere Frauen, langjährig Beschäftigte und höher Qualifizierte. Zu diesem Ergebnis kommt eine im November 2024 veröffentlichte Studie (PDF) der Universität Pittsburg und anderer Hochschulen.  

Die Forscher hatten bereits Anfang 2024 in einer Untersuchung festgestellt, dass Bürozwang nicht nur der Mitarbeiterzufriedenheit schadet, sondern auch nicht zu höheren Gewinnen führt. Sie waren zu dem Schluss gekommen, dass „Manager RTO nutzen, um Macht zu demonstrieren und Mitarbeiter für schlechte Leistungen verantwortlich zu machen“. 

Das Gegenteil von Win-Win 

In der neuen Studie verfolgte das Forschungsteam die Beschäftigungshistorie von mehr als drei Millionen Arbeitnehmern aus dem Technologie- und Finanzsektor auf LinkedIn, um die Auswirkungen von RTO-Policies in S&P-500-Unternehmen zu analysieren. Anhand der von Revelio Labs bereitgestellten Informationen aus Linkedin-Profilen identifizierten die Forscher Mitarbeiter, die ein Unternehmen in jedem Zeitraum verlassen haben, und berechneten auf dieser Grundlage die Fluktuationsrate.  

Zusätzlich werteten sie auch Informationen wie das Geschlecht der Mitarbeiter, die Dauer der Betriebszugehörigkeit und die Anzahl der in den individuellen LinkedIn-Profilen aufgeführten Fähigkeiten aus, die als Indikator für das Qualifikationsniveau der Mitarbeiter dienen. 

Das Resultat: Die Forscher stellten fest, dass die Kündigungsrate nach Einführung einer Return-to-Office-Policy im Schnitt um 14 Prozent anstieg. Dabei verließen fast dreimal so viele Frauen wie Männer das Unternehmen. Außerdem zeigte die Auswertung einen höheren Anteil der Kündigungen bei Mitarbeitern mit längerer Betriebszugehörigkeit und Angestellten aus dem mittleren und höheren Management.  

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1zIzX2zyDVyU2gw07GJUO8?utm_source=oembed”>

Schwierigkeiten bei der Nachbesetzung

Neben der hohen Fluktuation stellten die Forscher fest, dass auch die Einstellungsquoten nach RTO-Mandaten deutlich zurückgingen – offensichtlich, weil die Unternehmen Schwierigkeiten haben, zu diesen Konditionen neue Mitarbeiter zu finden. Wie die Auswertung von zwei Millionen Stellenanzeigen ergab, verlängerte sich die Zeit bis zur Besetzung offener Stellen im Durchschnitt um 23 Prozent, und die Einstellungsquote sank um 17 Prozent. 

Die Forscher stellten auch „signifikant höhere Einstellungskosten durch RTO-Mandate“ fest, was sie zu der Schlussfolgerung veranlasste, „dass Unternehmen ihre besten Talente nach RTO-Mandaten verlieren und erhebliche Schwierigkeiten haben, sie zu ersetzen“. 

Allerdings ist der Verdacht nicht unbegründet, dass Unternehmen häufig gar keinen Ersatz für Abgänge suchen. Vielmehr wird die Büropflicht als Instrument genutzt, um den Headcount zu reduzieren ohne teure Abfindungen für betriebsbedingte Kündigungen zahlen zu müssen.  

In Anlehnung an diesen Trend in der Privatwirtschaft haben erst kürzlich Elon Musk und Vivek Ramaswamy RTO-Mandate für die Regierungsbehörden vorgeschlagen, um „freiwillige Kündigungen“ zu erreichen. Wenn die Bundesbedienstete nicht kommen wollen, sollten die amerikanischen Steuerzahler sie nicht für das Privileg der Covid-Ära, zu Hause zu bleiben, bezahlen, erklärten die künftigen Leiter des vorgeschlagenen Ministeriums für Regierungseffizienz (Department of Government Efficiency – DOGE) im Rahmen eines Gastbeitrags für das Wall Street Journal. 

Büropflicht verprellt die besten Mitarbeiter​ Weiterlesen »

OKR: Was ist Objectives and Key Results?​

Allgemein

Ziele werden auf Unternehmens-, Team- und Mitarbeiterebene formuliert und mit messbaren Kennzahlen hinterlegt Transparenz ist wichtig: Jeder hat Zugriff auf die OKRs der anderen, nichts bleibt im Verborgenen OKRs werden ehrgeizig formuliert und prinzipiell nicht mit Belohnungs- oder Bestrafungsmechanismen verknüpft Vor allem im Silicon Valley, zunehmend aber auch in deutschen Industrieunternehmen kommt die Methode Objective & Key Results (OKR) zum Einsatz. Foto: Bimbim – shutterstock.comObjectives and Key Results (OKR) ist eine Methode, mit der sich Unternehmens-, Team- und Mitarbeiterziele planen und die Fortschritte auf dem Weg dorthin messen lassen. Objectives beantwortet die Frage: Was will ich erreichen? Es geht dabei in erster Linie um qualitative Ziele. Hinter Key Results steckt die Frage: Wie muss ich vorgehen, um dorthin zu gelangen und wie kann ich meine Fortschritte messen?Bei den Objectives steht also die Beantwortung der Frage nach dem Was im Vordergrund. Sie drücken Ziele aus, sind ambitioniert, aber realistisch und müssen objektiv sowie eindeutig sein. Außenstehende Beobachter müssen klar erkennen können, ob die Ziele erreicht wurden. Und wenn das geschehen ist, muss ein eindeutiger Wert für das Unternehmen entstanden sein. Bei den Key Results geht es um das Wie. Hier werden messbare Etappenziele genannt. OKR-Pionier Google (siehe unten) rät dringend dazu, nicht Aktivitäten, sondern Ergebnisse zu formulieren. Begriffe wie “Beraten, Helfen, Analysieren oder Teilnehmen” seien nicht sinnvoll, wenn es gelte Key Results zu nennen. Anstatt zu sagen “Bewerten Sie die Performance des Prozesses xyz” wäre demnach folgende Formulierung besser: “Verkürzen Sie die Verzögerungszeiten im Prozess xyz in den Produktionsphasen abc bis zum 1. Februar um zehn Prozent”. OKR im UnternehmenUnternehmens-OKRs konzentrieren sich zunächst auf übergeordnete Ziele, zum Beispiel: Ein Touristikunternehmen will seine neue Reise-App unter die Top-fünf der meistgenutzten Reise-Apps bringen. Der Weg dorthin wird mit messbaren Etappenzielen beschrieben, die in diesem Fall etwa Sichtbarkeit, Nutzerfreundlichkeit oder User-Bewertungen in einschlägigen Portalen betreffen können. In den jeweiligen Abteilungen oder Teams für Marketing, IT oder Social Media werden nun weitere Zwischenziele festgelegt, die das übergeordnete Ziel unterstützen. Schließlich einigen sich auch die einzelnen Mitarbeiter mit ihren Vorgesetzten auf individuelle Ziele und Messpunkte.So entstehen Unternehmens-, Team- und Individual-OKRs, die miteinander verknüpft sind und sich gegenseitig unterstützen. Mitarbeiterziele sollten sich an Teamzielen orientieren, die ihrerseits auf Unternehmensziele einzahlen. Es geht also darum, mit individuellen Leistungen die gemeinsame Vision umzusetzen und so das Unternehmen insgesamt voranzubringen.OKRs enthalten in der Regel drei bis fünf Ziele. Jedem dieser Ziele werden wiederum drei bis fünf messbare Key Results zugeordnet. Auch in großen Konzernen ist es wichtig, nicht mehr als fünf OKRs auf einmal zu haben. In kleineren Teams und Organisationen sollten die OKRs auf maximal drei beschränkt sein.Ein wichtiger Aspekt ist Transparenz. Nicht nur Manager und Führungskräfte, sondern jeder im Unternehmen hat Zugang zu öffentlichen Listen aller OKRs, auch den persönlichen. So könnne sich alle Beschäftigten ein Bild davon machen, woran andere arbeiten und welche Ziele sie verfolgen. Im Idealfall unterstützt man sich auf diese Weise gegenseitig, im weniger günstigen Fall überwacht man sich.Intel und Google sind OKR-PioniereOKR gibt es seit den 1970er Jahren. Das Konzept wurde von Intel-Chef Andy Grove entwickelt und später von John Doerr populär gemacht, der zu den ersten Investoren von Google zählte. Die Methodik wurde bald zu einem der wichtigsten Managementinstrumente bei Google. Unternehmen wie LinkedIn, Twitter, Dropbox, Spotify, AirBnB und Uber haben sich ebenfalls angeschlossen. Die Technologieunternehmen setzen auf OKRs, um in einer sich rasant verändernden Welt in wichtigen Fragen Kurs zu halten, Ablenkungen zu vermeiden und Innovationen gezielt voranzubringen.OKRs werden nicht vorgegeben, sondern im Dialog zwischen Führungskräften und Mitarbeitenden erarbeitet. Experten empfehlen, dass die Beschäftigten in den Teams aufgefordert werden sollten, selbst OKRs zu erstellen und in Abstimmung mit Kollegen und Vorgesetzten zu Teamzielen zu kommen. Mindestens 60 Prozent der Ziele sollten auf diese Weise festgelegt und nicht top-down vorgegeben werden. Die Ziele dürfen nicht an Vergütungen, Provisionen oder Leistungsbeurteilungen geknüpft werden.Die Früchte hängen immer hochIn der Fachliteratur herrscht Einigkeit darin, dass OKR-Ziele ehrgeizig gesteckt sein sollten. Es gehe auch darum, die Mitarbeiter aus ihrer Komfortzone zu locken und dazu anzuhalten, Lösungsansätze zu entwickeln, die das Unternehmen dauerhaft voranbringen. Individuelle Mitarbeiter-OKRs sollten herausfordernd, aber erreichbar sein, damit es nicht zu Überforderung und Demotivation kommt.Ein Scoring-System hilft, die Erreichung der Ziele zu beurteilen. Wird beispielsweise ein Ziel zu 30 Prozent erreicht, gilt es als verfehlt. 70 Prozent bedeuten, dass gute Fortschritte erzielt wurden. 100 Prozent ist das Maximum, das aber nicht zu oft erreicht werden sollte. Wichtig ist, dass die Ziele klar messbar und nach Möglichkeit mit Zahlen (Prozentsatz, Geld, Fälligkeitstermin) hinterlegt werden.Einmal im Monat sollten die OKRs ausgewertet werden. Das schafft die Möglichkeit, Probleme frühzeitig zu erkennen und Prioritäten gegebenenfalls zu verlagern.OKRs gehen über KPIs hinaus OKRs und Key Performance Indicators (KPIs) ähneln sich auf den ersten Blick, doch es gibt Unterschiede. KPIs dienen lediglich dazu, bestimmte Kennzahlen zu erreichen. Bei OKRs geht es darum, anhand von Kennzahlen und Zwischenergebnissen bestimmte Unternehmensziele anzusteuern. Diese sind ebenso wie die Messpunkte für alle Mitarbeiter im Unternehmen einsehbar. Sobald Unternehmen, Teams und Individuen ihre Ziele festgelegt haben, müssen sie ihre Etappenziele festlegen. Dabei geht es darum, Prioritäten festzulegen, die auf die Geschäftsziele einzahlen. Ein Beispiel liefert das Softwarehaus Atlassian: Nicht zielführend wäre es demnach zu sagen: “Feature X muss bis Ende des Quartals ausgeliefert sein”. Besser ist die Formulierung: “Die Auslieferung von Feature X wird die Anzahl registrierter Besucher auf unserer Website bis Ende des Quartals um zehn Prozent erhöhen.” Gute weiterführende Erklärungen finden sich hier:OKR für die Quartalsplanung nutzen (Wrike.com)Beispiele für Berufsgruppen und Führungspositionen (Workpath.com)Beispiele für gute und schlechte OKRs (murakamy.com)OKR-Basiswissen (okr.beautifulfuture.de)Wie werden OKRs in der unternehmerischen Praxis umgesetzt? Eine Antwort hat Pete Zabroszky, Gründer von BestVPN, der von CIO.com befragt wurde: “Wir verwenden OKRs, um unsere Geschäftsziele über das Jahr hinweg zu gestalten. Wenn wir dann unsere High-Level-Ziele definiert haben, brechen wir sie herunter auf unsere Projekte und Teams. So sind wir sicher, dass jedes Vorhaben auf ein übergeordnetes Unternehmensziel einzahlt.”Verschiedene Quellen bieten Checklisten zum Aufsetzen von OKRs an. Dort finden sich immer dieselben Hinweise wie:den Kunden in den Mittelpunkt stellen;Ehrgeizig sein und Ziele nicht zu einfach gestalten;Transparente Einsicht in alle OKRs;Abstimmung von individuellen und teambezogenen OKRs mit den Unternehmenszielen;Wenige Objectives und Key Results sind besser als viele;Was sich nicht messen lässt, ist kein gutes Key Result;Key Results sind Ergebnisse, keine Aufgaben;Key Results müssen Personen (Ownern) zugeordnet werden. 

OKR: Was ist Objectives and Key Results?​ Ziele werden auf Unternehmens-, Team- und Mitarbeiterebene formuliert und mit messbaren Kennzahlen hinterlegt

Transparenz ist wichtig: Jeder hat Zugriff auf die OKRs der anderen, nichts bleibt im Verborgenen

OKRs werden ehrgeizig formuliert und prinzipiell nicht mit Belohnungs- oder Bestrafungsmechanismen verknüpft

Vor allem im Silicon Valley, zunehmend aber auch in deutschen Industrieunternehmen kommt die Methode Objective & Key Results (OKR) zum Einsatz.
Foto: Bimbim – shutterstock.comObjectives and Key Results (OKR) ist eine Methode, mit der sich Unternehmens-, Team- und Mitarbeiterziele planen und die Fortschritte auf dem Weg dorthin messen lassen. Objectives beantwortet die Frage: Was will ich erreichen? Es geht dabei in erster Linie um qualitative Ziele. Hinter Key Results steckt die Frage: Wie muss ich vorgehen, um dorthin zu gelangen und wie kann ich meine Fortschritte messen?Bei den Objectives steht also die Beantwortung der Frage nach dem Was im Vordergrund. Sie drücken Ziele aus, sind ambitioniert, aber realistisch und müssen objektiv sowie eindeutig sein. Außenstehende Beobachter müssen klar erkennen können, ob die Ziele erreicht wurden. Und wenn das geschehen ist, muss ein eindeutiger Wert für das Unternehmen entstanden sein. Bei den Key Results geht es um das Wie. Hier werden messbare Etappenziele genannt. OKR-Pionier Google (siehe unten) rät dringend dazu, nicht Aktivitäten, sondern Ergebnisse zu formulieren. Begriffe wie “Beraten, Helfen, Analysieren oder Teilnehmen” seien nicht sinnvoll, wenn es gelte Key Results zu nennen. Anstatt zu sagen “Bewerten Sie die Performance des Prozesses xyz” wäre demnach folgende Formulierung besser: “Verkürzen Sie die Verzögerungszeiten im Prozess xyz in den Produktionsphasen abc bis zum 1. Februar um zehn Prozent”. OKR im UnternehmenUnternehmens-OKRs konzentrieren sich zunächst auf übergeordnete Ziele, zum Beispiel: Ein Touristikunternehmen will seine neue Reise-App unter die Top-fünf der meistgenutzten Reise-Apps bringen. Der Weg dorthin wird mit messbaren Etappenzielen beschrieben, die in diesem Fall etwa Sichtbarkeit, Nutzerfreundlichkeit oder User-Bewertungen in einschlägigen Portalen betreffen können. In den jeweiligen Abteilungen oder Teams für Marketing, IT oder Social Media werden nun weitere Zwischenziele festgelegt, die das übergeordnete Ziel unterstützen. Schließlich einigen sich auch die einzelnen Mitarbeiter mit ihren Vorgesetzten auf individuelle Ziele und Messpunkte.So entstehen Unternehmens-, Team- und Individual-OKRs, die miteinander verknüpft sind und sich gegenseitig unterstützen. Mitarbeiterziele sollten sich an Teamzielen orientieren, die ihrerseits auf Unternehmensziele einzahlen. Es geht also darum, mit individuellen Leistungen die gemeinsame Vision umzusetzen und so das Unternehmen insgesamt voranzubringen.OKRs enthalten in der Regel drei bis fünf Ziele. Jedem dieser Ziele werden wiederum drei bis fünf messbare Key Results zugeordnet. Auch in großen Konzernen ist es wichtig, nicht mehr als fünf OKRs auf einmal zu haben. In kleineren Teams und Organisationen sollten die OKRs auf maximal drei beschränkt sein.Ein wichtiger Aspekt ist Transparenz. Nicht nur Manager und Führungskräfte, sondern jeder im Unternehmen hat Zugang zu öffentlichen Listen aller OKRs, auch den persönlichen. So könnne sich alle Beschäftigten ein Bild davon machen, woran andere arbeiten und welche Ziele sie verfolgen. Im Idealfall unterstützt man sich auf diese Weise gegenseitig, im weniger günstigen Fall überwacht man sich.Intel und Google sind OKR-PioniereOKR gibt es seit den 1970er Jahren. Das Konzept wurde von Intel-Chef Andy Grove entwickelt und später von John Doerr populär gemacht, der zu den ersten Investoren von Google zählte. Die Methodik wurde bald zu einem der wichtigsten Managementinstrumente bei Google. Unternehmen wie LinkedIn, Twitter, Dropbox, Spotify, AirBnB und Uber haben sich ebenfalls angeschlossen. Die Technologieunternehmen setzen auf OKRs, um in einer sich rasant verändernden Welt in wichtigen Fragen Kurs zu halten, Ablenkungen zu vermeiden und Innovationen gezielt voranzubringen.OKRs werden nicht vorgegeben, sondern im Dialog zwischen Führungskräften und Mitarbeitenden erarbeitet. Experten empfehlen, dass die Beschäftigten in den Teams aufgefordert werden sollten, selbst OKRs zu erstellen und in Abstimmung mit Kollegen und Vorgesetzten zu Teamzielen zu kommen. Mindestens 60 Prozent der Ziele sollten auf diese Weise festgelegt und nicht top-down vorgegeben werden. Die Ziele dürfen nicht an Vergütungen, Provisionen oder Leistungsbeurteilungen geknüpft werden.Die Früchte hängen immer hochIn der Fachliteratur herrscht Einigkeit darin, dass OKR-Ziele ehrgeizig gesteckt sein sollten. Es gehe auch darum, die Mitarbeiter aus ihrer Komfortzone zu locken und dazu anzuhalten, Lösungsansätze zu entwickeln, die das Unternehmen dauerhaft voranbringen. Individuelle Mitarbeiter-OKRs sollten herausfordernd, aber erreichbar sein, damit es nicht zu Überforderung und Demotivation kommt.Ein Scoring-System hilft, die Erreichung der Ziele zu beurteilen. Wird beispielsweise ein Ziel zu 30 Prozent erreicht, gilt es als verfehlt. 70 Prozent bedeuten, dass gute Fortschritte erzielt wurden. 100 Prozent ist das Maximum, das aber nicht zu oft erreicht werden sollte. Wichtig ist, dass die Ziele klar messbar und nach Möglichkeit mit Zahlen (Prozentsatz, Geld, Fälligkeitstermin) hinterlegt werden.Einmal im Monat sollten die OKRs ausgewertet werden. Das schafft die Möglichkeit, Probleme frühzeitig zu erkennen und Prioritäten gegebenenfalls zu verlagern.OKRs gehen über KPIs hinaus

OKRs und Key Performance Indicators (KPIs) ähneln sich auf den ersten Blick, doch es gibt Unterschiede. KPIs dienen lediglich dazu, bestimmte Kennzahlen zu erreichen. Bei OKRs geht es darum, anhand von Kennzahlen und Zwischenergebnissen bestimmte Unternehmensziele anzusteuern. Diese sind ebenso wie die Messpunkte für alle Mitarbeiter im Unternehmen einsehbar. Sobald Unternehmen, Teams und Individuen ihre Ziele festgelegt haben, müssen sie ihre Etappenziele festlegen. Dabei geht es darum, Prioritäten festzulegen, die auf die Geschäftsziele einzahlen. Ein Beispiel liefert das Softwarehaus Atlassian: Nicht zielführend wäre es demnach zu sagen: “Feature X muss bis Ende des Quartals ausgeliefert sein”. Besser ist die Formulierung: “Die Auslieferung von Feature X wird die Anzahl registrierter Besucher auf unserer Website bis Ende des Quartals um zehn Prozent erhöhen.” Gute weiterführende Erklärungen finden sich hier:OKR für die Quartalsplanung nutzen (Wrike.com)Beispiele für Berufsgruppen und Führungspositionen (Workpath.com)Beispiele für gute und schlechte OKRs (murakamy.com)OKR-Basiswissen (okr.beautifulfuture.de)Wie werden OKRs in der unternehmerischen Praxis umgesetzt? Eine Antwort hat Pete Zabroszky, Gründer von BestVPN, der von CIO.com befragt wurde: “Wir verwenden OKRs, um unsere Geschäftsziele über das Jahr hinweg zu gestalten. Wenn wir dann unsere High-Level-Ziele definiert haben, brechen wir sie herunter auf unsere Projekte und Teams. So sind wir sicher, dass jedes Vorhaben auf ein übergeordnetes Unternehmensziel einzahlt.”Verschiedene Quellen bieten Checklisten zum Aufsetzen von OKRs an. Dort finden sich immer dieselben Hinweise wie:den Kunden in den Mittelpunkt stellen;Ehrgeizig sein und Ziele nicht zu einfach gestalten;Transparente Einsicht in alle OKRs;Abstimmung von individuellen und teambezogenen OKRs mit den Unternehmenszielen;Wenige Objectives und Key Results sind besser als viele;Was sich nicht messen lässt, ist kein gutes Key Result;Key Results sind Ergebnisse, keine Aufgaben;Key Results müssen Personen (Ownern) zugeordnet werden.

OKR: Was ist Objectives and Key Results?​ Weiterlesen »

Damit lockt man Hochschulabsolventen​

Allgemein

Der IT-Nachwuchs hat klare Vorstellungen, was Tätigkeit und Arbeitsplatz betrifft.FOTOGRIN / Shutterstock Angesichts des Fachkräftemangels sind Hochschulabsolventen aus den Bereichen Ingenieurwesen, IT und MINT bei Unternehmen besonders gefragt. Was im Umkehrschluss allerdings bedeutet, dass sich die Absolventen nicht mit einem x-beliebigen Job zufriedengeben müssen, sondern sich ihr Tätigkeitsfeld und ihren Arbeitgeber aussuchen können. Der Management- und Technologieberater Sopra Steria hat in einer internationalen Umfrage den Wünschen von Hochschulabsolventen aus Europa und Indien auf den Zahn gefühlt. Befragt wurden dazu 3.200 Hochschulabsolventen aus den Bereichen Ingenieurwesen, IT und innovative Technologien mit bis zu drei Jahren Berufserfahrung. Bei der Umfrage zeigte sich laut Sopra Steria unter anderem, dass neue Technologien – zumindest bei der ersten Auseinandersetzung – eine größere Anziehungskraft ausüben als solche, die sich bereits in der Industrialisierungsphase befinden. So sehen weltweit 60 Prozent der Hochschulabsolventen Quantencomputing als das attraktivste Arbeitsgebiet an, gefolgt von Green IT (54 Prozent) und Cloud Computing (53 Prozent). Auch in Deutschland ist Quantencomputing die Technologie, mit der sich die meisten Absolventen (58 Prozent) beschäftigen möchten. Green-IT wurde ebenso häufig genannt, gefolgt von Cloud-Computing (51 Prozent). Gehalt für jeden Zweiten wichtigstes Kriterium Abgesehen von ihren technologischen Präferenzen haben die Befragten auch klare Erwartungen an ihre künftigen Arbeitgeber: Für 47 Prozent der Absolventen ist dabei die Vergütung am wichtigsten. In Deutschland sind es sogar 52 Prozent. Für 36 Prozent der Befragten (47 Prozent in Deutschland) ist die Work-Life-Balance ein relevanter Faktor. Ebenfalls von 36 Prozent der Befragten, sowohl international als auch in Deutschland, werden Karrierechancen hervorgehoben.  Einmal im Arbeitsleben angekommen, ändern sich die Erwartungen der Hochschulabsolventen jedoch, fand Sopra Steria heraus: So werde die Vereinbarkeit von Beruf- und Privatleben der bevorzugte Faktor (53 Prozent), auf den die Befragten achten, gefolgt von Karriere-Entwicklungsprogrammen (48 Prozent) und Schulungen (43 Prozent). Bei den deutschen Studienteilnehmern liegen die Prioritäten leicht anders – hier sind Work-Life-Balance (62 Prozent), Schulungen (47 Prozent) und (nach wie vor) Vergütung (47 Prozent) besonders relevant. Homeoffice und Workation besonders beliebt Große Gemeinsamkeiten zwischen den internationalen und deutschen Resultaten gibt es, was das Thema Work-Life-Balance betrifft: Für eine gute Vereinbarkeit von Berufs- und Privatleben wünschen sich die Befragten insbesondere zwei oder drei Tage pro Woche Homeoffice (85 Prozent, beziehungsweise 89 Prozent), sowie die Möglichkeit, mit Workation den Arbeitsplatz zumindest zeitweise ins Ausland zu verlegen (85 Prozent, beziehungsweise 84 Prozent). Darüber hinaus interessiert sich der internationale Tech-Nachwuchs für die Möglichkeit, freiberuflich zu arbeiten (81Prozent). In Deutschland sind es sogar 89 Prozent. „Die Ergebnisse dieser Studie verdeutlichen die wachsende Bedeutung disruptiver Technologien und gesellschaftlicher Werte bei Tech-Absolventen“, erklärt Isabel Feller, Head of Talent Management bei Sopra Steria Deutschland.  

Damit lockt man Hochschulabsolventen​ Der IT-Nachwuchs hat klare Vorstellungen, was Tätigkeit und Arbeitsplatz betrifft.FOTOGRIN / Shutterstock

Angesichts des Fachkräftemangels sind Hochschulabsolventen aus den Bereichen Ingenieurwesen, IT und MINT bei Unternehmen besonders gefragt. Was im Umkehrschluss allerdings bedeutet, dass sich die Absolventen nicht mit einem x-beliebigen Job zufriedengeben müssen, sondern sich ihr Tätigkeitsfeld und ihren Arbeitgeber aussuchen können.

Der Management- und Technologieberater Sopra Steria hat in einer internationalen Umfrage den Wünschen von Hochschulabsolventen aus Europa und Indien auf den Zahn gefühlt. Befragt wurden dazu 3.200 Hochschulabsolventen aus den Bereichen Ingenieurwesen, IT und innovative Technologien mit bis zu drei Jahren Berufserfahrung.

Bei der Umfrage zeigte sich laut Sopra Steria unter anderem, dass neue Technologien – zumindest bei der ersten Auseinandersetzung – eine größere Anziehungskraft ausüben als solche, die sich bereits in der Industrialisierungsphase befinden.

So sehen weltweit 60 Prozent der Hochschulabsolventen Quantencomputing als das attraktivste Arbeitsgebiet an, gefolgt von Green IT (54 Prozent) und Cloud Computing (53 Prozent). Auch in Deutschland ist Quantencomputing die Technologie, mit der sich die meisten Absolventen (58 Prozent) beschäftigen möchten. Green-IT wurde ebenso häufig genannt, gefolgt von Cloud-Computing (51 Prozent).

Gehalt für jeden Zweiten wichtigstes Kriterium

Abgesehen von ihren technologischen Präferenzen haben die Befragten auch klare Erwartungen an ihre künftigen Arbeitgeber:

Für 47 Prozent der Absolventen ist dabei die Vergütung am wichtigsten. In Deutschland sind es sogar 52 Prozent.

Für 36 Prozent der Befragten (47 Prozent in Deutschland) ist die Work-Life-Balance ein relevanter Faktor.

Ebenfalls von 36 Prozent der Befragten, sowohl international als auch in Deutschland, werden Karrierechancen hervorgehoben. 

Einmal im Arbeitsleben angekommen, ändern sich die Erwartungen der Hochschulabsolventen jedoch, fand Sopra Steria heraus: So werde die Vereinbarkeit von Beruf- und Privatleben der bevorzugte Faktor (53 Prozent), auf den die Befragten achten, gefolgt von Karriere-Entwicklungsprogrammen (48 Prozent) und Schulungen (43 Prozent). Bei den deutschen Studienteilnehmern liegen die Prioritäten leicht anders – hier sind Work-Life-Balance (62 Prozent), Schulungen (47 Prozent) und (nach wie vor) Vergütung (47 Prozent) besonders relevant.

Homeoffice und Workation besonders beliebt

Große Gemeinsamkeiten zwischen den internationalen und deutschen Resultaten gibt es, was das Thema Work-Life-Balance betrifft: Für eine gute Vereinbarkeit von Berufs- und Privatleben wünschen sich die Befragten insbesondere

zwei oder drei Tage pro Woche Homeoffice (85 Prozent, beziehungsweise 89 Prozent), sowie

die Möglichkeit, mit Workation den Arbeitsplatz zumindest zeitweise ins Ausland zu verlegen (85 Prozent, beziehungsweise 84 Prozent).

Darüber hinaus interessiert sich der internationale Tech-Nachwuchs für die Möglichkeit, freiberuflich zu arbeiten (81Prozent). In Deutschland sind es sogar 89 Prozent.

„Die Ergebnisse dieser Studie verdeutlichen die wachsende Bedeutung disruptiver Technologien und gesellschaftlicher Werte bei Tech-Absolventen“, erklärt Isabel Feller, Head of Talent Management bei Sopra Steria Deutschland. 

Damit lockt man Hochschulabsolventen​ Weiterlesen »

GenAI kann schneller gesunde Zähne​

Allgemein

Generative AI unterstützt Liberty Dental Plan dabei, schneller zu ermitteln, welche Zahnbehandlung angebracht ist.Funda Demirkaya | shutterstock.com Als Versicherungsunternehmen mit Schwerpunkt Zahngesundheit betreut Liberty Dental Plan in den USA rund sieben Millionen Menschen. In meiner Rolle als CIO und Senior VP of Health Plan Operations gehören Technologie und Cybersicherheit zu meinen wesentlichen Aufgaben. Im Laufe der Zeit habe ich zudem mehr Verantwortung in operativen Bereichen übernommen. Darunter mit Leistungsanspruchs- und Nutzungsmanagement auch zwei Schlüsselbereiche für jede Versicherungsgesellschaft. Insofern bietet meine Rolle eine ausgewogene Balance zwischen strategischen Technologieentscheidungen und ihrer Anwendung auf die operativen Bereiche. Das war für mich persönlich auch eine hervorragende Gelegenheit, um das gesamte Unternehmen kennenzulernen und zu verstehen. Präventionsmanagement 4.0 Präventionsmanagement ist für jeden Krankenversicherer entscheidend, um die Kosten niedrig zu halten. Der Schlüssel zu niedrigen Kosten: Eine möglichst geringe Zahl an Leistungsansprüchen. Die zentrale Frage ist dabei: Wie viel Präventivversorgung ist im Sinne der Versicherten leistbar, während paralleldie Leistungsansprüche und Kosten möglichst niedrig gehalten werden? Um diese zu beantworten, kommen im Regelfall sogenannte Care oder Case Manager zum Einsatz – so auch bei Liberty Dental Plan. Diese Prozesse liefen über viele Jahre auf manueller Basis, unter Beteiligung von Microsoft Excel, Access und Outlook. Unser erster Schritt bestand folglich darin, diese Abläufe durchgängig zu automatisieren. Im nächsten Schritt ging es darum, individuelle Pflegepläne zu erstellen. Diese beinhalten Zielsetzungen sowie mögliche Hindernisse und ermitteln die erforderlichen Maßnahmen für den jeweiligen Versicherungsnehmer. Dieser Prozess nahm auf manueller Ebene für jeden einzelnen Fall zwischen 60 und 90 Minuten in Anspruch. Mit Hilfe von Machine-Learning-Algorithmen haben wir die entsprechenden Daten in Large Language Models (LLMs) eingespeist. Inzwischen werden die individuellen Pflegepläne in wenigen Minuten komplett mit Generative AI (GenAI) erzeugt – und zwar mit deutlich höherer Geschwindigkeit und Genauigkeit als zuvor.    Rajendra Kadam ist seit 2021 Senior Vice President für Health Plan Operations und Chief Information Officer bei Liberty Dental Plan.Rajendra Kadam Das Projekt, für das wir 2024 mit dem CIO 100 Award ausgezeichnet wurden, befähigt vor allem unsere Care-Manager, mehr zu leisten. Jeder Einzelne von ihnen betreut Tausende von Versicherten. Der ROI ist über alle Zweifel erhaben Als ich 2021 zu Liberty Dental Plan gestoßen bin, erkannte ich in den verfügbaren Daten eine große Chance. Mein erstes Projekt war deshalb, das bisherige On-Premises-Data-Warehouse in die Cloud zu überführen – allerdings beschränkt auf die wirklich essenziellen Komponenten. Unser Datenmodell haben wir entsprechend auf die Anforderungen unserer Vision angepasst. Noch bevor generative KI ein großes Thema wurde, waren wir vollständig in der Azure Cloud live. Das bildete die Grundlage für unser Projekt und ermöglichte es uns, unser GenAI-Projekt bereits sechs Monate „nach ChatGPT“ an den Start zu bringen. Ein entscheidender Punkt war dabei die Data Governance: Man kann Daten überall hosten – wenn die Datenqualität nicht stimmt, ist das alles umsonst. Ein anderer bedeutender Aspekt bestand darin, sämtliche Beteiligten inklusive des Vorstands aufzuklären. Nicht nur über Data Governance, sondern ganz allgemein über unsere Pläne und die erwarteten Vorteile für unsere Organisation. Weil vor allem über den zu erwartenden ROI Zweifel herrschten, war es wichtig, insbesondere das Senior Management genau darüber zu informieren, wie beispielsweise ChatGPT funktioniert und wie wir unsere Prompts zu designen gedenken. Bei Generative AI geht es in erster Linie darum, den richtigen Use Case zu identifizieren, der den gewünschten ROI erzielt. Im Fall von Liberty Dental Plan lag dieser bei etwa 400 Prozent und wurde äußerst schnell realisiert. Das ist in weiten Teilen unserer gemeinschaftlichen Vorarbeit zu verdanken. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

GenAI kann schneller gesunde Zähne​ Generative AI unterstützt Liberty Dental Plan dabei, schneller zu ermitteln, welche Zahnbehandlung angebracht ist.Funda Demirkaya | shutterstock.com

Als Versicherungsunternehmen mit Schwerpunkt Zahngesundheit betreut Liberty Dental Plan in den USA rund sieben Millionen Menschen. In meiner Rolle als CIO und Senior VP of Health Plan Operations gehören Technologie und Cybersicherheit zu meinen wesentlichen Aufgaben. Im Laufe der Zeit habe ich zudem mehr Verantwortung in operativen Bereichen übernommen. Darunter mit Leistungsanspruchs- und Nutzungsmanagement auch zwei Schlüsselbereiche für jede Versicherungsgesellschaft.

Insofern bietet meine Rolle eine ausgewogene Balance zwischen strategischen Technologieentscheidungen und ihrer Anwendung auf die operativen Bereiche. Das war für mich persönlich auch eine hervorragende Gelegenheit, um das gesamte Unternehmen kennenzulernen und zu verstehen.

Präventionsmanagement 4.0

Präventionsmanagement ist für jeden Krankenversicherer entscheidend, um die Kosten niedrig zu halten. Der Schlüssel zu niedrigen Kosten: Eine möglichst geringe Zahl an Leistungsansprüchen. Die zentrale Frage ist dabei: Wie viel Präventivversorgung ist im Sinne der Versicherten leistbar, während paralleldie Leistungsansprüche und Kosten möglichst niedrig gehalten werden? Um diese zu beantworten, kommen im Regelfall sogenannte Care oder Case Manager zum Einsatz – so auch bei Liberty Dental Plan. Diese Prozesse liefen über viele Jahre auf manueller Basis, unter Beteiligung von Microsoft Excel, Access und Outlook.

Unser erster Schritt bestand folglich darin, diese Abläufe durchgängig zu automatisieren. Im nächsten Schritt ging es darum, individuelle Pflegepläne zu erstellen. Diese beinhalten Zielsetzungen sowie mögliche Hindernisse und ermitteln die erforderlichen Maßnahmen für den jeweiligen Versicherungsnehmer. Dieser Prozess nahm auf manueller Ebene für jeden einzelnen Fall zwischen 60 und 90 Minuten in Anspruch. Mit Hilfe von Machine-Learning-Algorithmen haben wir die entsprechenden Daten in Large Language Models (LLMs) eingespeist. Inzwischen werden die individuellen Pflegepläne in wenigen Minuten komplett mit Generative AI (GenAI) erzeugt – und zwar mit deutlich höherer Geschwindigkeit und Genauigkeit als zuvor.   

Rajendra Kadam ist seit 2021 Senior Vice President für Health Plan Operations und Chief Information Officer bei Liberty Dental Plan.Rajendra Kadam

Das Projekt, für das wir 2024 mit dem CIO 100 Award ausgezeichnet wurden, befähigt vor allem unsere Care-Manager, mehr zu leisten. Jeder Einzelne von ihnen betreut Tausende von Versicherten.

Der ROI ist über alle Zweifel erhaben

Als ich 2021 zu Liberty Dental Plan gestoßen bin, erkannte ich in den verfügbaren Daten eine große Chance. Mein erstes Projekt war deshalb, das bisherige On-Premises-Data-Warehouse in die Cloud zu überführen – allerdings beschränkt auf die wirklich essenziellen Komponenten. Unser Datenmodell haben wir entsprechend auf die Anforderungen unserer Vision angepasst.

Noch bevor generative KI ein großes Thema wurde, waren wir vollständig in der Azure Cloud live. Das bildete die Grundlage für unser Projekt und ermöglichte es uns, unser GenAI-Projekt bereits sechs Monate „nach ChatGPT“ an den Start zu bringen. Ein entscheidender Punkt war dabei die Data Governance: Man kann Daten überall hosten – wenn die Datenqualität nicht stimmt, ist das alles umsonst.

Ein anderer bedeutender Aspekt bestand darin, sämtliche Beteiligten inklusive des Vorstands aufzuklären. Nicht nur über Data Governance, sondern ganz allgemein über unsere Pläne und die erwarteten Vorteile für unsere Organisation. Weil vor allem über den zu erwartenden ROI Zweifel herrschten, war es wichtig, insbesondere das Senior Management genau darüber zu informieren, wie beispielsweise ChatGPT funktioniert und wie wir unsere Prompts zu designen gedenken.

Bei Generative AI geht es in erster Linie darum, den richtigen Use Case zu identifizieren, der den gewünschten ROI erzielt. Im Fall von Liberty Dental Plan lag dieser bei etwa 400 Prozent und wurde äußerst schnell realisiert. Das ist in weiten Teilen unserer gemeinschaftlichen Vorarbeit zu verdanken. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

GenAI kann schneller gesunde Zähne​ Weiterlesen »

Legacy-Systeme brauchen eine Frischzellenkur​

Allgemein

loading=”lazy” width=”400px”>enterlinedesign – shutterstock.com “Modernisierung” ist derzeit nicht nur beim Schienennetz der Bahn und bei der Bundeswehr angesagt. Auch 72 Prozent Unternehmen und Organisationen in Deutschland stehen vor dieser Herausforderung, allerdings in einem anderen Bereich: Sie müssen geschäftskritische Bestandssysteme in ihren IT-Umgebungen auf den neuesten Stand bringen. Das ist ein zentrales Ergebnis der Studie “Legacy-Modernisierung 2024”, die das Custom Research Team von CIO, CSO und Computerwoche in Zusammenarbeit mit Hyland, T-Systems, SPIRIT/21 und Thinkwise erstellt hat. Wenn Ihre PostgreSQL-Instanz mit sich selbst kämpft, kann das unter anderem ihrer Konfiguration oder ihrem Design geschuldet sein. John Carnemolla | shutterstock.com Ein Grund für den Modernisierungsdruck ist, dass es an Fachleuten fehlt, die noch mit älteren Systemplattformen und Programmiersprachen wie Cobol vertraut sind. Rund ein Drittel Firmen hat mit einem Mangel an entsprechendem Know-how zu kämpfen. Research Services: Christine Plote Geschäftstätigkeit leidet Die Idee, jüngere IT-Spezialisten für das Management und die Wartung von Legacy-Umgebungen zu gewinnen, ist wenig erfolgversprechend. Es ist eher davon auszugehen, dass für IT-Nachwuchskräfte Themen wie künstliche Intelligenz, Robotik, Digital Twins und autonome Agenten deutlich interessanter sind als Mainframe-Betriebssysteme und Programmiersprachen wie Cobol, PL1 und Ada. Schwerer als der allgegenwärtige Fachkräftemangel wiegt jedoch, dass sich technische Einschränkungen von Bestandssystemen negativ auf die Geschäftstätigkeit und die Digitalisierungsstrategie auswirken. Diese Erfahrung haben über 40 Prozent der befragten Unternehmen gemacht. Darüber hinaus beklagen die Betriebe außerdem die unzureichende Zuverlässigkeit und Performance ihrer Legacy-IT sowie die mangelnde Nutzerfreundlichkeit und Defizite bei der Umsetzung von Compliance- und Security-Vorgaben. Research Services: Christine Plote Vor diesem Hintergrund hat fast die Hälfte der Führungskräfte, CIOs und Beschäftigten in den Fachbereichen Zweifel daran, dass die IT-Umgebung in ihrem Unternehmen zukunftsfähig ist. Diese Warnsignale sollten Firmenverantwortliche ernst nehmen, wenn das Thema Legacy-Modernisierung auf den Tisch kommt. Denn letztlich geht es dabei nicht in erster Linie um die Befindlichkeiten und den Komfort von Fachabteilungen, sondern die Fähigkeit eines Unternehmens, in der digitalen Welt zu bestehen. Cloud ist gesetzt – aber bitte mit dem Großrechner Die gute Nachricht ist, dass Unternehmen erkannt haben, wie wichtig es ist, Bestandssysteme zu modernisieren. Ein Fünftel der Befragten hat entsprechende Projekte bereits abgeschlossen oder ist derzeit dabei, Legacy-Umgebungen zu aktualisieren. Rund 60 Prozent wollen bis spätestens in den kommenden zwei Jahren solche Vorhaben durchführen. Diese stehen vor allen in den Bereichen Workforce-Management, Einkauf und Beschaffung wie der Optimierung der Kundenerfahrung (Customer Experience) an. Die wichtigste Zielplattform bei der Legacy-Modernisierung ist die Cloud. Für über 60 Prozent der Unternehmen ist das eine Private Cloud, für rund die Hälfte eine Public Cloud. In der Praxis dürften häufig hybride Cloud-Umgebungen zum Zug kommen. Workloads mit hohen Anforderungen in Bezug auf Sicherheit und Compliance werden in Private Clouds in eigenen Datacentern oder in Colocation-Rechenzentren vorgehalten. Weniger kritische IT-Ressourcen beziehen Nutzer als Public-Cloud-Dienste. Research Services: Christine Plote Interessant ist, dass über ein Viertel der Unternehmen bei Modernisierungsprojekten Mainframes als Zielplattform wählt. Dies gilt gleichermaßen für kleinere, mittelständische und große Firmen. Ein Grund dürften die bisher getätigten Investitionen der Unternehmen in solche Systeme sein, insbesondere in anwendungsspezifische Software. Solche Plattformen auszutauschen, erfordert einen erheblichen finanziellen und organisatorischen Aufwand. KI und DevOps für Mainframes Hinzu kommt, dass IBM als letzter verbliebener Hersteller von Großrechnern und die Anbieter von Software für solche Systeme ihre Produkte in den vergangenen Jahren an die veränderten Wünsche von Anwendern angepasst haben. So unterstützen die Mainframes der Reihe IBM Z Hybrid Clouds, künstliche Intelligenz, Microservices sowie Entwicklungs- und Bereitstellungsmethoden wie AIOps, DevOps und CI/CD-Pipelines (Continuous Integration, Continuous Delivery). Bei der Modernisierung von Mainframe-Anwendungen kommen mittlerweile Ansätze wie Generative KI (GenAI) und DevOps zum Einsatz. Nutzer können dadurch den Zeitpunkt hinausschieben, bis sie ihre Mainframes außer Dienst stellen müssen. Das dürfte vielen Unternehmen gelegen kommen, weil dadurch mehr IT-Budget für andere Aufgaben bereitsteht, etwa im Bereich Digitalisierung. Legacy-Modernisierung: “Wer die Modernisierung verschläft, wird morgen von der Konkurrenz überholt!” Auch Cloud-Applikationen müssen erneuert werden Die Studie „Legacy-Modernisierung 2024“ von CIO, CSO und Computerwoche macht allerdings auch deutlich, dass eine Legacy-Modernisierung einen ganzheitlichen Ansatz verfolgen sollte. Das heißt, es sollten nicht nur Anwendungen und IT-Ressourcen berücksichtigt werden, die das hauseigene Datacenter bereitstellt. Zu berücksichtigen sind auch IT-Ressourcen, die ein Unternehmen über eine Cloud bezieht. Mehr als Hälfte (55 Prozent) der Befragten stuft beispielsweise eine oder mehrere der instanzenbasierten Cloud-Ressourcen in ihrem Unternehmen bereits als veraltet ein. Bei den Software-as-a-Service-Angeboten (SaaS) liegt der Legacy-Anteil schon bei über 40 Prozent. Vermutlich wird ein Teil dieser Services über private Cloud-Umgebungen zur Verfügung gestellt. Das heißt, es liegt in der Verantwortung der Anwender beziehungsweise von deren IT-Abteilungen, Upgrades durchzuführen. Doch dürften auch etliche Dienste aus Public Clouds eine Auffrischung benötigen. Wichtig ist daher ein systematisches Monitoring von Cloud-Anwendungen, speziell unter dem Aspekt, ob diese den Geschäftsanforderungen des Unternehmens noch gerecht werden. Breite Palette von Methoden Beim Blick auf die Methoden und Technologien, die die befragten Unternehmen beim Modernisieren eingesetzt werden, dominieren Cloud-native Ansätze (rund 50 Prozent). Allerdings gibt es offenkundig keinen “Königsweg”. Vielmehr entscheiden Unternehmen anhand ihrer individuellen IT-Umgebungen und Anforderungen, welche Methoden sie verwenden. Zum Zug kommen beispielsweise Microservices, ein API-Management und DevOps, aber auch KI und Machine Learning. So nutzen vor allem Großunternehmen und kleinere Firmen Generative KI beim Re-Engineering, als dem Neuaufbau von Anwendungen mit modernen Frameworks und Programmiersprachen. Auch beim Transcoding ist GenAI auf dem Vormarsch, also beim Update von Datenformaten, Schnittstellen (APIs) und Sicherheitsfunktionen. Beratungsleistungen unverzichtbar In der Praxis kommen laut der Studie meist mehrere Ansätze parallel zum Einsatz. Das hat allerdings auch Nachteile. Denn speziell die mittelgroßen Unternehmen mit 500 bis 999 Beschäftigten sowie kleinere Unternehmen mit bis zu 500 Beschäftigten verfügen oft nicht über IT-Abteilungen mit der personellen Ausstattung und dem Know-how. Das erklärt auch, weshalb die Hälfte der Befragten auf Dienstleister zurückgreift. Diese können aufzeigen, welche Vorgehensweisen (Best Practices), Technologien und Tools sich für den Transformationsprozess am besten eignen. Die Umsetzung der Modernisierung und den Betrieb der – erneuerten – System- und Anwendungsumgebung wollen Unternehmen dagegen nicht aus der Hand geben. Das Modell “Managed Services”, das IT-Dienstleister derzeit forcieren, stößt offenkundig nur in begrenztem Maß auf Gegenliebe. Möglicherweise scheut ein Teil der potenziellen Nutzer die Kosten für solche Dienstleistungen. Hinzu dürfte die Furcht kommen, sich von einem IT-Serviceprovider abhängig zu machen. Ob diese Haltung angesichts des Mangels an IT-Fachkräften auf Dauer durchzuhalten ist, wird sich zeigen. Fazit: Modernisieren lohnt sich Bleibt noch die Frage, ob sich denn der Aufwand lohnt, Bestandssysteme zu erneuern. Das Studienergebnis ist in diesem Punkt klar: Über 95 Prozent der Unternehmen sind mit den Ergebnissen des Umbaus (sehr/eher) zufrieden. Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: Hyland Software Germany GmbH; T-Systems International GmbH; SPIRIT/21 GmbH; Thinkwise Software BV Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 320 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 23. bis 30. Juli 2024 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

Legacy-Systeme brauchen eine Frischzellenkur​ loading=”lazy” width=”400px”>enterlinedesign – shutterstock.com

“Modernisierung” ist derzeit nicht nur beim Schienennetz der Bahn und bei der Bundeswehr angesagt. Auch 72 Prozent Unternehmen und Organisationen in Deutschland stehen vor dieser Herausforderung, allerdings in einem anderen Bereich: Sie müssen geschäftskritische Bestandssysteme in ihren IT-Umgebungen auf den neuesten Stand bringen. Das ist ein zentrales Ergebnis der Studie “Legacy-Modernisierung 2024”, die das Custom Research Team von CIO, CSO und Computerwoche in Zusammenarbeit mit Hyland, T-Systems, SPIRIT/21 und Thinkwise erstellt hat.

Wenn Ihre PostgreSQL-Instanz mit sich selbst kämpft, kann das unter anderem ihrer Konfiguration oder ihrem Design geschuldet sein.
John Carnemolla | shutterstock.com

Ein Grund für den Modernisierungsdruck ist, dass es an Fachleuten fehlt, die noch mit älteren Systemplattformen und Programmiersprachen wie Cobol vertraut sind. Rund ein Drittel Firmen hat mit einem Mangel an entsprechendem Know-how zu kämpfen.

Research Services: Christine Plote

Geschäftstätigkeit leidet

Die Idee, jüngere IT-Spezialisten für das Management und die Wartung von Legacy-Umgebungen zu gewinnen, ist wenig erfolgversprechend. Es ist eher davon auszugehen, dass für IT-Nachwuchskräfte Themen wie künstliche Intelligenz, Robotik, Digital Twins und autonome Agenten deutlich interessanter sind als Mainframe-Betriebssysteme und Programmiersprachen wie Cobol, PL1 und Ada.

Schwerer als der allgegenwärtige Fachkräftemangel wiegt jedoch, dass sich technische Einschränkungen von Bestandssystemen negativ auf die Geschäftstätigkeit und die Digitalisierungsstrategie auswirken. Diese Erfahrung haben über 40 Prozent der befragten Unternehmen gemacht. Darüber hinaus beklagen die Betriebe außerdem die unzureichende Zuverlässigkeit und Performance ihrer Legacy-IT sowie die mangelnde Nutzerfreundlichkeit und Defizite bei der Umsetzung von Compliance- und Security-Vorgaben.

Research Services: Christine Plote

Vor diesem Hintergrund hat fast die Hälfte der Führungskräfte, CIOs und Beschäftigten in den Fachbereichen Zweifel daran, dass die IT-Umgebung in ihrem Unternehmen zukunftsfähig ist. Diese Warnsignale sollten Firmenverantwortliche ernst nehmen, wenn das Thema Legacy-Modernisierung auf den Tisch kommt. Denn letztlich geht es dabei nicht in erster Linie um die Befindlichkeiten und den Komfort von Fachabteilungen, sondern die Fähigkeit eines Unternehmens, in der digitalen Welt zu bestehen.

Cloud ist gesetzt – aber bitte mit dem Großrechner

Die gute Nachricht ist, dass Unternehmen erkannt haben, wie wichtig es ist, Bestandssysteme zu modernisieren. Ein Fünftel der Befragten hat entsprechende Projekte bereits abgeschlossen oder ist derzeit dabei, Legacy-Umgebungen zu aktualisieren. Rund 60 Prozent wollen bis spätestens in den kommenden zwei Jahren solche Vorhaben durchführen. Diese stehen vor allen in den Bereichen Workforce-Management, Einkauf und Beschaffung wie der Optimierung der Kundenerfahrung (Customer Experience) an.

Die wichtigste Zielplattform bei der Legacy-Modernisierung ist die Cloud. Für über 60 Prozent der Unternehmen ist das eine Private Cloud, für rund die Hälfte eine Public Cloud. In der Praxis dürften häufig hybride Cloud-Umgebungen zum Zug kommen. Workloads mit hohen Anforderungen in Bezug auf Sicherheit und Compliance werden in Private Clouds in eigenen Datacentern oder in Colocation-Rechenzentren vorgehalten. Weniger kritische IT-Ressourcen beziehen Nutzer als Public-Cloud-Dienste.

Research Services: Christine Plote

Interessant ist, dass über ein Viertel der Unternehmen bei Modernisierungsprojekten Mainframes als Zielplattform wählt. Dies gilt gleichermaßen für kleinere, mittelständische und große Firmen. Ein Grund dürften die bisher getätigten Investitionen der Unternehmen in solche Systeme sein, insbesondere in anwendungsspezifische Software. Solche Plattformen auszutauschen, erfordert einen erheblichen finanziellen und organisatorischen Aufwand.

KI und DevOps für Mainframes

Hinzu kommt, dass IBM als letzter verbliebener Hersteller von Großrechnern und die Anbieter von Software für solche Systeme ihre Produkte in den vergangenen Jahren an die veränderten Wünsche von Anwendern angepasst haben. So unterstützen die Mainframes der Reihe IBM Z Hybrid Clouds, künstliche Intelligenz, Microservices sowie Entwicklungs- und Bereitstellungsmethoden wie AIOps, DevOps und CI/CD-Pipelines (Continuous Integration, Continuous Delivery).

Bei der Modernisierung von Mainframe-Anwendungen kommen mittlerweile Ansätze wie Generative KI (GenAI) und DevOps zum Einsatz. Nutzer können dadurch den Zeitpunkt hinausschieben, bis sie ihre Mainframes außer Dienst stellen müssen. Das dürfte vielen Unternehmen gelegen kommen, weil dadurch mehr IT-Budget für andere Aufgaben bereitsteht, etwa im Bereich Digitalisierung.

Legacy-Modernisierung: “Wer die Modernisierung verschläft, wird morgen von der Konkurrenz überholt!”

Auch Cloud-Applikationen müssen erneuert werden

Die Studie „Legacy-Modernisierung 2024“ von CIO, CSO und Computerwoche macht allerdings auch deutlich, dass eine Legacy-Modernisierung einen ganzheitlichen Ansatz verfolgen sollte. Das heißt, es sollten nicht nur Anwendungen und IT-Ressourcen berücksichtigt werden, die das hauseigene Datacenter bereitstellt. Zu berücksichtigen sind auch IT-Ressourcen, die ein Unternehmen über eine Cloud bezieht.

Mehr als Hälfte (55 Prozent) der Befragten stuft beispielsweise eine oder mehrere der instanzenbasierten Cloud-Ressourcen in ihrem Unternehmen bereits als veraltet ein. Bei den Software-as-a-Service-Angeboten (SaaS) liegt der Legacy-Anteil schon bei über 40 Prozent.

Vermutlich wird ein Teil dieser Services über private Cloud-Umgebungen zur Verfügung gestellt. Das heißt, es liegt in der Verantwortung der Anwender beziehungsweise von deren IT-Abteilungen, Upgrades durchzuführen. Doch dürften auch etliche Dienste aus Public Clouds eine Auffrischung benötigen. Wichtig ist daher ein systematisches Monitoring von Cloud-Anwendungen, speziell unter dem Aspekt, ob diese den Geschäftsanforderungen des Unternehmens noch gerecht werden.

Breite Palette von Methoden

Beim Blick auf die Methoden und Technologien, die die befragten Unternehmen beim Modernisieren eingesetzt werden, dominieren Cloud-native Ansätze (rund 50 Prozent). Allerdings gibt es offenkundig keinen “Königsweg”. Vielmehr entscheiden Unternehmen anhand ihrer individuellen IT-Umgebungen und Anforderungen, welche Methoden sie verwenden. Zum Zug kommen beispielsweise Microservices, ein API-Management und DevOps, aber auch KI und Machine Learning.

So nutzen vor allem Großunternehmen und kleinere Firmen Generative KI beim Re-Engineering, als dem Neuaufbau von Anwendungen mit modernen Frameworks und Programmiersprachen. Auch beim Transcoding ist GenAI auf dem Vormarsch, also beim Update von Datenformaten, Schnittstellen (APIs) und Sicherheitsfunktionen.

Beratungsleistungen unverzichtbar

In der Praxis kommen laut der Studie meist mehrere Ansätze parallel zum Einsatz. Das hat allerdings auch Nachteile. Denn speziell die mittelgroßen Unternehmen mit 500 bis 999 Beschäftigten sowie kleinere Unternehmen mit bis zu 500 Beschäftigten verfügen oft nicht über IT-Abteilungen mit der personellen Ausstattung und dem Know-how. Das erklärt auch, weshalb die Hälfte der Befragten auf Dienstleister zurückgreift. Diese können aufzeigen, welche Vorgehensweisen (Best Practices), Technologien und Tools sich für den Transformationsprozess am besten eignen.

Die Umsetzung der Modernisierung und den Betrieb der – erneuerten – System- und Anwendungsumgebung wollen Unternehmen dagegen nicht aus der Hand geben. Das Modell “Managed Services”, das IT-Dienstleister derzeit forcieren, stößt offenkundig nur in begrenztem Maß auf Gegenliebe. Möglicherweise scheut ein Teil der potenziellen Nutzer die Kosten für solche Dienstleistungen. Hinzu dürfte die Furcht kommen, sich von einem IT-Serviceprovider abhängig zu machen. Ob diese Haltung angesichts des Mangels an IT-Fachkräften auf Dauer durchzuhalten ist, wird sich zeigen.

Fazit: Modernisieren lohnt sich

Bleibt noch die Frage, ob sich denn der Aufwand lohnt, Bestandssysteme zu erneuern. Das Studienergebnis ist in diesem Punkt klar: Über 95 Prozent der Unternehmen sind mit den Ergebnissen des Umbaus (sehr/eher) zufrieden.

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: Hyland Software Germany GmbH; T-Systems International GmbH; SPIRIT/21 GmbH; Thinkwise Software BV

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 320 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 23. bis 30. Juli 2024

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

Legacy-Systeme brauchen eine Frischzellenkur​ Weiterlesen »

IT-Infrastruktur optimieren: Am Anfang steht die Transparenz​

Allgemein

loading=”lazy” width=”400px”>Viele Unternehmen wissen, dass sie auf der Baustelle IT-Infrastruktur eigentlich etwas tun müssten, schieben die notwendigen Projekte aber auf die lange Bank. JU.STOCKER – shutterstock.com Mit Infrastruktur ist es so eine Sache – sie fällt einem vor allem dann auf, wenn es mal nicht so richtig läuft. Dann schimpft der Deutsche gern über die marode Bahn, kaputte Straßen oder zu schmale Radwege. Und wenn sich dann mal etwas tut, löst das in der Regel auch keine Begeisterung aus – unnötig, laut, zu teuer. Warum sollte das in der IT eigentlich anders sein? Und tatsächlich zieht Alexander Huhn, Principal Sales Engineer von Zcaler, zu Beginn des COMPUTERWOCHE-Roundtables zum Thema “IT-Infrastrukturoptimierung” eine erste Parallele in die analoge Welt: “Für viele Firmen ist es wie mit Autobahnbrücken: Sie wissen, man müsste langsam mal wieder was machen, aber am Ende schleppt man doch alles hinterher, weil man keinen konkreten Anlass zur Investition findet.” Informationen zu den Partner-Paketen der Studie ‘IT-Infrastruktur-Optimierung 2025’ Keine Optimierung ohne Überblick Wenn sich dann doch mal ein Unternehmen dazu entscheidet, seine IT-Infrastruktur anzugehen, stehen die Verantwortlichen oft vor der Frage: Woher weiß ich überhaupt, wie wir aufgestellt sind? An welchen KPIs und Benchmarks kann ich mich orientieren und wo lassen sich Effizienzen finden? Bei vielen scheitern derartige Überlegungen jedoch bereits an der mangelnden Transparenz. “Die allererste Frage muss sein: Kann ich mir diese Fragen überhaupt beantworten?”, erklärt Mark Hlawatschek, Vorstand der ATIX AG. Zuallererst müssten Unternehmen demnach dafür Sorge tragen, dass sie die nötige Übersicht über ihre Infrastruktur herstellen können. Ist das geschehen, müssen Unternehmen für sich beantworten, wo sie konkret besser werden wollen. Nur so ließen sich sinnvolle Vergleiche anstellen, ergänzt Hlawatschek. Einen “One size fits all”-Ansatz gebe es ohnehin nicht, wie Oliver Lucht, IT-Automation Technical Sales Manager von IBM, betont: “Man muss differenzieren: Was für eine Art Unternehmen bin ich?” Während im öffentlichen Sektor oder im Bildungsbereich beispielsweise vor allem sicherheitsrelevante KPIs eine Rolle spielen, gehe es in der Privatwirtschaft vorrangig um Faktoren wie Performance und Kundenzufriedenheit.  Allen gemein ist jedoch eins: Der Druck auf IT-Budgets steigt. Und vor allem im Bereich der Infrastruktur heißt das schnell: Anpassungen werden vorgenommen, um Kosten zu senken, und weniger, um sich zukunftsfähiger aufzustellen. “Ich glaube nach wie vor, dass oft der Druck erst so richtig klar wird, wenn mal etwas nicht funktioniert – oder wenn es den ersten großen Sicherheitsvorfall gab”, sagt Thomas Leichtweiss, Director Architecture, Data & Analytics Central Europe bei Teradata. Infrastruktur werde noch immer selten als Teil der Wertschöpfungskette betrachtet. Studie “IT-Infrastruktur-Optimierung 2025”: Sie können sich noch beteiligen!Zum Thema IT-Infrastruktur-Optimierung führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). KI kann helfen – ist jedoch kein Wundermittel Es ist daher auch nicht verwunderlich, dass auch im Bereich IT-Infrastruktur das Gespenst “Künstliche Intelligenz” verheißungsvoll durch den Raum wabert – und sich Entscheider von ihr ungeahnte Effizienzsteigerungen sowie Einsparungen bei Technologie und Personal gleichermaßen erhoffen.  Doch nicht wenige haben viel zu hohe Erwartungen an das, was KI tatsächlich leisten kann. Hier braucht es Klarheit, wie Hlawatschek von der ATIX AG hervorhebt: “Die Erwartungen auf Entscheiderebene sind oft hoch, jedoch nur selten gut mit der IT-Abteilung abgesprochen.” Der Manager fordert mehr und bessere Kommunikation von Entscheidern mit Fachpersonal, um durchdacht und in realistischen Szenarien zu arbeiten.  Zumal das Thema KI nicht nur Hoffnungen weckt, sondern gerade beim Fachpersonal ein ganz anderes Gefühl hervorruft: Unsicherheit. “Viele fragen sich: Was passiert mit meinem Job? Werde ich jetzt bald durch KI ersetzt?”, beschreibt Lucht die Reaktion vieler Nutzer, wenn das Thema KI auf den Tisch kommt. Hier sei es wichtig, genau aufzuzeigen, wie die Technologie Menschen bei der Erledigung zeitaufwendiger Routineaufgaben unterstützt, was sie leisten kann – und vor allem auch: was sie nicht kann. Doch Aufklärung braucht es nicht nur, um Ängste zu nehmen, wie Hlawatschek hervorhebt: Denn kennen Nutzer die Grenzen von KI nicht, akzeptieren sie schnell Outputs der Lösung als korrekt, ohne diese selbst zu prüfen. “Vorschläge kann man sich geben lassen, aber diese kritisch zu hinterfragen, kann einem keiner nehmen”, sagt Hlawatschek. “Dazu braucht es immer den Menschen. Und diese Kultur, mit KI zu arbeiten, ohne das kritische Denken aufzugeben, kann man aufbauen.” Die Trend zur Cloud ist ungebrochen Ungeachtet des Reifegrades und des Wissensstandes in den Unternehmen ist eines jedoch klar: Künstliche Intelligenz ist gekommen, um zu bleiben. Und dabei geht es auch um Datensouveränität, wie Thomas Wuckel, CEO von BW.Tech, erklärt: “KI wird immer präsenter werden, und damit auch die Frage: Wo läuft die eigentlich? Wie werden die Daten analysiert, und wer hat am Ende Zugriff darauf?”  Nicht zuletzt vor dem Hintergrund der politischen Weltlage wird daher das Thema digitale Souveränität auch über die rechtlichen Regularien hinaus wichtiger. Doch das haben deutsche Unternehmen weitestgehend erkannt, wie Leichtweiss von Teradata feststellt: “Firmen schauen in der Regel schon sehr genau darauf, wo sie ihre Daten verarbeiten und hosten wollen.” Auch gebe es erste Ansätze, interne Regularien zur Nutzung von Tools wie Co-Pilot und ChatGPT durchzusetzen. Podcast Digitale Souveränität Der Trend zur Cloud bleibt von diesen Bedenken jedoch unberührt. Doch während die Flexibilität und die Fülle an Möglichkeiten klar auf der Haben-Seite verbucht werden können, entsteht auch schnell das Risiko, das Kosten explodieren – schließlich lassen sich sehr schnell neue Services zu für die Entwickler zunächst erst einmal unerheblichen Kosten hochziehen. Doch dieser Gefahr lässt sich laut Huhn mit ausreichend Transparenz begegnen: “Nur wenn klar ist, welche Lösung wie vielen Nutzern welchen Wert bringt, lassen sich die Mehrwerte auch wirklich schöpfen”, erklärt der Manager. “Unternehmen, die das einschätzen können, können auch effizient agieren.” Es bleibt also dabei: Transparenz zu schaffen, ist nicht nur ein notwendiger erster Schritt, um die eigene IT-Infrastruktur weiterzuentwickeln. Ohne den richtigen Durchblick sind auch Trendthemen wie KI kein geeigneter Weg zur Optimierung.  Zu guter Letzt sollten Unternehmen aufhören, ihre Infrastruktur als reinen Kostenverursacher zu begreifen, den es in akzeptable Sphären zu sparen gilt. “Infrastrukturoptimierung ist so viel mehr. Wichtig ist, genau aufzuzeigen, welchen Business Value meine IT liefert”, erklärt Lucht. Wem das gelingt, der kann an den richtigen Stellen investieren und optimieren.” Informationen zu den Partner-Paketen der Studie ‘IT-Infrastruktur-Optimierung 2025’ Roundtable “IT-Infrastruktur-Optimierung” Mark Hlawatschek, Atix “Aus Business-Sicht muss IT-Infrastruktur vor allem eines bieten: Sicherheit, Verfügbarkeit und Skalierbarkeit. Gleichzeitig muss sichergestellt werden, dass Projekte in der geplanten Zeit abgeschlossen werden können. Hier ist Automatisierung die Antwort, auch, um zu evaluieren, wo sich Einsparungen erzielen lassen und wie man steigende Kosten bei gleicher Leistung vermeiden kann.” ATIX Informationstechnologie und Consulting AG Thomas Wuckel, BW.Tech „IT-Optimierung beginnt immer an der Basis – im Netzwerk. Jedes Unternehmen ist anders, und es macht keinen Sinn, mit komplexen Lösungen zu starten, bevor die fundamentalen Systeme auf den individuellen Bedarf ausgerichtet sind. Die richtige Lösung ist immer die, die sich an den spezifischen Gegebenheiten und Zielen des Unternehmens orientiert.“ Philipp Bachhuber / BW-TECH GmbH Oliver Lucht, IBM „Wichtig ist, genau aufzuzeigen, welchen Business Value meine IT liefert. Wem das gelingt, der kann an den richtigen Stellen investieren und optimieren.“ IBM Deutschland GmbH Thomas Leichtweiss, Teradata „Unternehmen betrachten IT-Infrastruktur häufig nicht als strategischen Wertbeitrag, sondern als reine Kostenstelle. Notwendige Investitionen werden oft aufgeschoben, bis der Handlungsbedarf erst durch einen ernsthafter Vorfall sichtbar wird. Durch diese Reaktivität bleiben viele Chancen liegen, die man nutzen kann, wenn IT als Enabler für das Business wahrgenommen wird.“ Teradata GmbH Alexander Huhn, Zscaler „Unternehmen sind im Risikomanagement teilweise mit tausenden potenziellen Schwachstellen, Alarmen und gemeldeten Risiken konfrontiert. Die Frage ist: Wo fängt man an? Oft ist nicht das im Ranking höchste Risiko das Wichtigste, sondern das, was für die eigenen Anwendungen eine direkte und unmittelbare Relevanz hat. Um hier effizient zu handeln, braucht es KI-gestützte Lösungen wie ein Unified Vulnerability Management (UVM), welches hilft Schwachstellen zu priorisieren, prädiktive Analysen bietet und effektiv helfen kann, Sicherheitsvorfälle zu verhindern.“ Zscaler Germany GmbH 

IT-Infrastruktur optimieren: Am Anfang steht die Transparenz​ loading=”lazy” width=”400px”>Viele Unternehmen wissen, dass sie auf der Baustelle IT-Infrastruktur eigentlich etwas tun müssten, schieben die notwendigen Projekte aber auf die lange Bank. JU.STOCKER – shutterstock.com

Mit Infrastruktur ist es so eine Sache – sie fällt einem vor allem dann auf, wenn es mal nicht so richtig läuft. Dann schimpft der Deutsche gern über die marode Bahn, kaputte Straßen oder zu schmale Radwege. Und wenn sich dann mal etwas tut, löst das in der Regel auch keine Begeisterung aus – unnötig, laut, zu teuer.

Warum sollte das in der IT eigentlich anders sein? Und tatsächlich zieht Alexander Huhn, Principal Sales Engineer von Zcaler, zu Beginn des COMPUTERWOCHE-Roundtables zum Thema “IT-Infrastrukturoptimierung” eine erste Parallele in die analoge Welt: “Für viele Firmen ist es wie mit Autobahnbrücken: Sie wissen, man müsste langsam mal wieder was machen, aber am Ende schleppt man doch alles hinterher, weil man keinen konkreten Anlass zur Investition findet.”

Informationen zu den Partner-Paketen der Studie ‘IT-Infrastruktur-Optimierung 2025’

Keine Optimierung ohne Überblick

Wenn sich dann doch mal ein Unternehmen dazu entscheidet, seine IT-Infrastruktur anzugehen, stehen die Verantwortlichen oft vor der Frage: Woher weiß ich überhaupt, wie wir aufgestellt sind? An welchen KPIs und Benchmarks kann ich mich orientieren und wo lassen sich Effizienzen finden?

Bei vielen scheitern derartige Überlegungen jedoch bereits an der mangelnden Transparenz. “Die allererste Frage muss sein: Kann ich mir diese Fragen überhaupt beantworten?”, erklärt Mark Hlawatschek, Vorstand der ATIX AG. Zuallererst müssten Unternehmen demnach dafür Sorge tragen, dass sie die nötige Übersicht über ihre Infrastruktur herstellen können. Ist das geschehen, müssen Unternehmen für sich beantworten, wo sie konkret besser werden wollen. Nur so ließen sich sinnvolle Vergleiche anstellen, ergänzt Hlawatschek.

Einen “One size fits all”-Ansatz gebe es ohnehin nicht, wie Oliver Lucht, IT-Automation Technical Sales Manager von IBM, betont: “Man muss differenzieren: Was für eine Art Unternehmen bin ich?” Während im öffentlichen Sektor oder im Bildungsbereich beispielsweise vor allem sicherheitsrelevante KPIs eine Rolle spielen, gehe es in der Privatwirtschaft vorrangig um Faktoren wie Performance und Kundenzufriedenheit. 

Allen gemein ist jedoch eins: Der Druck auf IT-Budgets steigt. Und vor allem im Bereich der Infrastruktur heißt das schnell: Anpassungen werden vorgenommen, um Kosten zu senken, und weniger, um sich zukunftsfähiger aufzustellen. “Ich glaube nach wie vor, dass oft der Druck erst so richtig klar wird, wenn mal etwas nicht funktioniert – oder wenn es den ersten großen Sicherheitsvorfall gab”, sagt Thomas Leichtweiss, Director Architecture, Data & Analytics Central Europe bei Teradata. Infrastruktur werde noch immer selten als Teil der Wertschöpfungskette betrachtet.

Studie “IT-Infrastruktur-Optimierung 2025”: Sie können sich noch beteiligen!Zum Thema IT-Infrastruktur-Optimierung führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

KI kann helfen – ist jedoch kein Wundermittel

Es ist daher auch nicht verwunderlich, dass auch im Bereich IT-Infrastruktur das Gespenst “Künstliche Intelligenz” verheißungsvoll durch den Raum wabert – und sich Entscheider von ihr ungeahnte Effizienzsteigerungen sowie Einsparungen bei Technologie und Personal gleichermaßen erhoffen. 

Doch nicht wenige haben viel zu hohe Erwartungen an das, was KI tatsächlich leisten kann. Hier braucht es Klarheit, wie Hlawatschek von der ATIX AG hervorhebt: “Die Erwartungen auf Entscheiderebene sind oft hoch, jedoch nur selten gut mit der IT-Abteilung abgesprochen.” Der Manager fordert mehr und bessere Kommunikation von Entscheidern mit Fachpersonal, um durchdacht und in realistischen Szenarien zu arbeiten. 

Zumal das Thema KI nicht nur Hoffnungen weckt, sondern gerade beim Fachpersonal ein ganz anderes Gefühl hervorruft: Unsicherheit. “Viele fragen sich: Was passiert mit meinem Job? Werde ich jetzt bald durch KI ersetzt?”, beschreibt Lucht die Reaktion vieler Nutzer, wenn das Thema KI auf den Tisch kommt. Hier sei es wichtig, genau aufzuzeigen, wie die Technologie Menschen bei der Erledigung zeitaufwendiger Routineaufgaben unterstützt, was sie leisten kann – und vor allem auch: was sie nicht kann.

Doch Aufklärung braucht es nicht nur, um Ängste zu nehmen, wie Hlawatschek hervorhebt: Denn kennen Nutzer die Grenzen von KI nicht, akzeptieren sie schnell Outputs der Lösung als korrekt, ohne diese selbst zu prüfen. “Vorschläge kann man sich geben lassen, aber diese kritisch zu hinterfragen, kann einem keiner nehmen”, sagt Hlawatschek. “Dazu braucht es immer den Menschen. Und diese Kultur, mit KI zu arbeiten, ohne das kritische Denken aufzugeben, kann man aufbauen.”

Die Trend zur Cloud ist ungebrochen

Ungeachtet des Reifegrades und des Wissensstandes in den Unternehmen ist eines jedoch klar: Künstliche Intelligenz ist gekommen, um zu bleiben. Und dabei geht es auch um Datensouveränität, wie Thomas Wuckel, CEO von BW.Tech, erklärt: “KI wird immer präsenter werden, und damit auch die Frage: Wo läuft die eigentlich? Wie werden die Daten analysiert, und wer hat am Ende Zugriff darauf?” 

Nicht zuletzt vor dem Hintergrund der politischen Weltlage wird daher das Thema digitale Souveränität auch über die rechtlichen Regularien hinaus wichtiger. Doch das haben deutsche Unternehmen weitestgehend erkannt, wie Leichtweiss von Teradata feststellt: “Firmen schauen in der Regel schon sehr genau darauf, wo sie ihre Daten verarbeiten und hosten wollen.” Auch gebe es erste Ansätze, interne Regularien zur Nutzung von Tools wie Co-Pilot und ChatGPT durchzusetzen.

Podcast Digitale Souveränität

Der Trend zur Cloud bleibt von diesen Bedenken jedoch unberührt. Doch während die Flexibilität und die Fülle an Möglichkeiten klar auf der Haben-Seite verbucht werden können, entsteht auch schnell das Risiko, das Kosten explodieren – schließlich lassen sich sehr schnell neue Services zu für die Entwickler zunächst erst einmal unerheblichen Kosten hochziehen. Doch dieser Gefahr lässt sich laut Huhn mit ausreichend Transparenz begegnen: “Nur wenn klar ist, welche Lösung wie vielen Nutzern welchen Wert bringt, lassen sich die Mehrwerte auch wirklich schöpfen”, erklärt der Manager. “Unternehmen, die das einschätzen können, können auch effizient agieren.”

Es bleibt also dabei: Transparenz zu schaffen, ist nicht nur ein notwendiger erster Schritt, um die eigene IT-Infrastruktur weiterzuentwickeln. Ohne den richtigen Durchblick sind auch Trendthemen wie KI kein geeigneter Weg zur Optimierung. 

Zu guter Letzt sollten Unternehmen aufhören, ihre Infrastruktur als reinen Kostenverursacher zu begreifen, den es in akzeptable Sphären zu sparen gilt. “Infrastrukturoptimierung ist so viel mehr. Wichtig ist, genau aufzuzeigen, welchen Business Value meine IT liefert”, erklärt Lucht. Wem das gelingt, der kann an den richtigen Stellen investieren und optimieren.”

Informationen zu den Partner-Paketen der Studie ‘IT-Infrastruktur-Optimierung 2025’

Roundtable “IT-Infrastruktur-Optimierung”

Mark Hlawatschek, Atix
“Aus Business-Sicht muss IT-Infrastruktur vor allem eines bieten: Sicherheit, Verfügbarkeit und Skalierbarkeit. Gleichzeitig muss sichergestellt werden, dass Projekte in der geplanten Zeit abgeschlossen werden können. Hier ist Automatisierung die Antwort, auch, um zu evaluieren, wo sich Einsparungen erzielen lassen und wie man steigende Kosten bei gleicher Leistung vermeiden kann.”
ATIX Informationstechnologie und Consulting AG

Thomas Wuckel, BW.Tech
„IT-Optimierung beginnt immer an der Basis – im Netzwerk. Jedes Unternehmen ist anders, und es macht keinen Sinn, mit komplexen Lösungen zu starten, bevor die fundamentalen Systeme auf den individuellen Bedarf ausgerichtet sind. Die richtige Lösung ist immer die, die sich an den spezifischen Gegebenheiten und Zielen des Unternehmens orientiert.“
Philipp Bachhuber / BW-TECH GmbH

Oliver Lucht, IBM
„Wichtig ist, genau aufzuzeigen, welchen Business Value meine IT liefert. Wem das gelingt, der kann an den richtigen Stellen investieren und optimieren.“
IBM Deutschland GmbH

Thomas Leichtweiss, Teradata
„Unternehmen betrachten IT-Infrastruktur häufig nicht als strategischen Wertbeitrag, sondern als reine Kostenstelle. Notwendige Investitionen werden oft aufgeschoben, bis der Handlungsbedarf erst durch einen ernsthafter Vorfall sichtbar wird. Durch diese Reaktivität bleiben viele Chancen liegen, die man nutzen kann, wenn IT als Enabler für das Business wahrgenommen wird.“
Teradata GmbH

Alexander Huhn, Zscaler
„Unternehmen sind im Risikomanagement teilweise mit tausenden potenziellen Schwachstellen, Alarmen und gemeldeten Risiken konfrontiert. Die Frage ist: Wo fängt man an? Oft ist nicht das im Ranking höchste Risiko das Wichtigste, sondern das, was für die eigenen Anwendungen eine direkte und unmittelbare Relevanz hat. Um hier effizient zu handeln, braucht es KI-gestützte Lösungen wie ein Unified Vulnerability Management (UVM), welches hilft Schwachstellen zu priorisieren, prädiktive Analysen bietet und effektiv helfen kann, Sicherheitsvorfälle zu verhindern.“
Zscaler Germany GmbH

IT-Infrastruktur optimieren: Am Anfang steht die Transparenz​ Weiterlesen »

Trotz Sanktionen: Neue Netztechnologien von Huawei​

Allgemein

In seinen Ausstellungsräumen gab uns Huawei einen Einblick in die Netzwerktechnik von morgen. Hill Eigentlich wollte der damalige und neue US-Präsident Trump den ungeliebten Netzkonkurrenten Huawei 2019 mit seinen Sanktionen in die Knie zwingen. Doch er scheint genau das Gegenteil erreicht zu haben. Sieht man einmal von der Diversifizierung des Konzerns mit neuen Geschäftsfeldern wie Intelligent Automotive Solutions oder Digital Power ab, hat das Unternehmen in Sachen Networking- und ICT-Business einige Asse, sprich pfiffige Ideen, im Ärmel. Unter dem Motto „IP on Everything“ arbeitet man etwa an passiven IoT-Tags für 5G Advanced (5.5G), die ohne Batterien und Sim-Karten auskommen. Ihre Energie beziehen sie dabei direkt aus den Mobilfunkwellen beziehen. Passive IoT-Sensoren für 5.5G Dennoch sollen die Tags in der Lages sein, einfache Aufgaben wie Temperatur- oder Vibrationsmessung oder Erschütterungsmeldung zu übernehmen. Diese Sensoren könnten etwa in Fabriken eingesetzt werden, um die Produktion zu überwachen, den Lagerbestand zu verfolgen oder die Logistik zu optimieren. Apropos Wireless – während im Business-Umfeld gerade das erste Wi-Fi-7-Equipment auf den Markt kommt, arbeiten die Forscher bei Huawei schon an der nächsten Generation, sprich Wi-Fi 8. Der Fokus liegt dabei weniger auf mehr Geschwindigkeit. Vielmehr will man die WLAN-Technologie zu einer integrierten Plattform für Kommunikation, Sensorik und Sicherheit weiterentwickeln. WLAN lernt Microsensing Passive IoT-Tags für 5G Advanced. Hill Unter dem Stichwort Microsensing arbeitet man an Systemen, die in der Lage sind, die Umgebung zu erfassen und Informationen über die Position und Bewegung von Personen und Objekten zu liefern. Eine mögliche Anwendung könnte die Sturzerkennung von Personen in Badezimmern oder Seniorenheimen sein. Zudem soll die Technik dank der Verwendung von Microwaves in der Lage sein, etwa auch die Atem- oder Herzfrequenz einer Person zu überwachen. Diese Einsatzideen sind sicher nicht neu. Die bisher angedachten Verfahren hatten jedoch den Nachteil, dass sie Videokameras verwenden und damit mit Blick auf die Privatsphäre zumindest diskussionswürdig waren. Mehr Security fürs WLAN In Sachen WLAN-Sicherheit setzt Huawei künftig auf ein sogenanntes „Wi-Fi Shield“. Dabei wird dem WLAN-Signal ein weißes Rauschen hinzugefügt. So sollen Hacker daran gehindert werden, Datenpakete abzufangen. Mit „Wi-Fi Share“ arbeitet man an einer weiteren Schutzmaßnahme. Dabei soll die Übertragung von Datenpaketen zum Schutz vor unbefugtem Zugriff verschleiert werden. In sensiblen Bereichen dürfte noch eine andere Neuerung von Interesse sein: Zukünftiges Wi-Fi soll auch erkennen, ob unerlaubt Fotos oder Videos aufgenommen werden. IoT meets Wi-Fi Analog zu den passiven IoT-Tags für Advanced 5G will Huawei künftig auch IoT-fähige Access Points produzieren. Ziel ist die nahtlose Integration von IoT-Geräten in ein Campus-Netzwerk. Angesichts der konkurrierenden Technologien stellt sich dabei die Frage, ob Unternehmen nun eher auf Wi-Fi 7 oder Private 5G setzen sollten. Huawei sieht das ganz pragmatisch: Indoor sei Wi-Fi 7 die erste Wahl, da nur ein Zehntel der Kosten von Private 5G anfallen würden. Zudem sei Wi-Fi unter dem Gesichtspunkt der Nachhaltigkeit zu bevorzugen. Hier stehe ein Energieverbrauch von 20 Watt gegenüber einem Energiebedarf von 60 Watt bei Private 5G. Kabel mit bis zu 224Gbit/s Neue Wege will das Unternehmen auch im LAN gehen. Um künftige Router der Terabit/s-Generation anzubinden, sind neue Kabel im Gespräch. Durch die Verwendung von Silber-Verbund-Sandwich-Schichten in den Kabeln seien künftig Datenübertragungsraten von bis zu 224 Gbit/s pro Kabel möglich, heißt es. Allen neuen Technologien ist aber auch eine andere Herausforderung gemein: Der Stromverbrauch und damit die Wärmeentwicklung steigt. Dem rückt Huawei mit verschiedenen Maßnahmen zu Leibe. Neues Platinen-Design Eine Lösung könnte aus Huawei-Sicht ein neues Platinen-Design sein. Bei der angedachten Architektur werden das Netzteil sowie alle stromführenden Leiterbahnen auf der Rückseite platziert. Dadurch wird auf der Vorderseite mehr Platz für Chips frei, was eine höhere Packungsdichte erlaubt. Zudem, so die Techniker, könnten durch die vertikale Stromversorgung die Zuverlässigkeit und Energieeffizienz erhöht werden. Doch alle Energieeffizienz kann nicht verhindern, dass die Chips Wärme produzieren. Um diese möglichst schnell abzutransportieren, arbeitet man an einem dreischichtigen System: Statt herkömmlich Silikon-basierter Wärmeleitpads soll künftig Graphit verwendet werden. Ferner ist der Einsatz von effizienteren Dampfkammerkühlern geplant. Diese werden dann durch neue Lüfter unterstützt, deren verändertes Design ein höheren Luftdurchsatz ermöglicht. 

Trotz Sanktionen: Neue Netztechnologien von Huawei​ In seinen Ausstellungsräumen gab uns Huawei einen Einblick in die Netzwerktechnik von morgen.
Hill

Eigentlich wollte der damalige und neue US-Präsident Trump den ungeliebten Netzkonkurrenten Huawei 2019 mit seinen Sanktionen in die Knie zwingen. Doch er scheint genau das Gegenteil erreicht zu haben. Sieht man einmal von der Diversifizierung des Konzerns mit neuen Geschäftsfeldern wie Intelligent Automotive Solutions oder Digital Power ab, hat das Unternehmen in Sachen Networking- und ICT-Business einige Asse, sprich pfiffige Ideen, im Ärmel.

Unter dem Motto „IP on Everything“ arbeitet man etwa an passiven IoT-Tags für 5G Advanced (5.5G), die ohne Batterien und Sim-Karten auskommen. Ihre Energie beziehen sie dabei direkt aus den Mobilfunkwellen beziehen.

Passive IoT-Sensoren für 5.5G

Dennoch sollen die Tags in der Lages sein, einfache Aufgaben wie Temperatur- oder Vibrationsmessung oder Erschütterungsmeldung zu übernehmen. Diese Sensoren könnten etwa in Fabriken eingesetzt werden, um die Produktion zu überwachen, den Lagerbestand zu verfolgen oder die Logistik zu optimieren.

Apropos Wireless – während im Business-Umfeld gerade das erste Wi-Fi-7-Equipment auf den Markt kommt, arbeiten die Forscher bei Huawei schon an der nächsten Generation, sprich Wi-Fi 8. Der Fokus liegt dabei weniger auf mehr Geschwindigkeit. Vielmehr will man die WLAN-Technologie zu einer integrierten Plattform für Kommunikation, Sensorik und Sicherheit weiterentwickeln.

WLAN lernt Microsensing

Passive IoT-Tags für 5G Advanced.
Hill

Unter dem Stichwort Microsensing arbeitet man an Systemen, die in der Lage sind, die Umgebung zu erfassen und Informationen über die Position und Bewegung von Personen und Objekten zu liefern. Eine mögliche Anwendung könnte die Sturzerkennung von Personen in Badezimmern oder Seniorenheimen sein.

Zudem soll die Technik dank der Verwendung von Microwaves in der Lage sein, etwa auch die Atem- oder Herzfrequenz einer Person zu überwachen. Diese Einsatzideen sind sicher nicht neu. Die bisher angedachten Verfahren hatten jedoch den Nachteil, dass sie Videokameras verwenden und damit mit Blick auf die Privatsphäre zumindest diskussionswürdig waren.

Mehr Security fürs WLAN

In Sachen WLAN-Sicherheit setzt Huawei künftig auf ein sogenanntes „Wi-Fi Shield“. Dabei wird dem WLAN-Signal ein weißes Rauschen hinzugefügt. So sollen Hacker daran gehindert werden, Datenpakete abzufangen.

Mit „Wi-Fi Share“ arbeitet man an einer weiteren Schutzmaßnahme. Dabei soll die Übertragung von Datenpaketen zum Schutz vor unbefugtem Zugriff verschleiert werden. In sensiblen Bereichen dürfte noch eine andere Neuerung von Interesse sein: Zukünftiges Wi-Fi soll auch erkennen, ob unerlaubt Fotos oder Videos aufgenommen werden.

IoT meets Wi-Fi

Analog zu den passiven IoT-Tags für Advanced 5G will Huawei künftig auch IoT-fähige Access Points produzieren. Ziel ist die nahtlose Integration von IoT-Geräten in ein Campus-Netzwerk.

Angesichts der konkurrierenden Technologien stellt sich dabei die Frage, ob Unternehmen nun eher auf Wi-Fi 7 oder Private 5G setzen sollten. Huawei sieht das ganz pragmatisch: Indoor sei Wi-Fi 7 die erste Wahl, da nur ein Zehntel der Kosten von Private 5G anfallen würden. Zudem sei Wi-Fi unter dem Gesichtspunkt der Nachhaltigkeit zu bevorzugen. Hier stehe ein Energieverbrauch von 20 Watt gegenüber einem Energiebedarf von 60 Watt bei Private 5G.

Kabel mit bis zu 224Gbit/s

Neue Wege will das Unternehmen auch im LAN gehen. Um künftige Router der Terabit/s-Generation anzubinden, sind neue Kabel im Gespräch. Durch die Verwendung von Silber-Verbund-Sandwich-Schichten in den Kabeln seien künftig Datenübertragungsraten von bis zu 224 Gbit/s pro Kabel möglich, heißt es.

Allen neuen Technologien ist aber auch eine andere Herausforderung gemein: Der Stromverbrauch und damit die Wärmeentwicklung steigt. Dem rückt Huawei mit verschiedenen Maßnahmen zu Leibe.

Neues Platinen-Design

Eine Lösung könnte aus Huawei-Sicht ein neues Platinen-Design sein. Bei der angedachten Architektur werden das Netzteil sowie alle stromführenden Leiterbahnen auf der Rückseite platziert. Dadurch wird auf der Vorderseite mehr Platz für Chips frei, was eine höhere Packungsdichte erlaubt. Zudem, so die Techniker, könnten durch die vertikale Stromversorgung die Zuverlässigkeit und Energieeffizienz erhöht werden.

Doch alle Energieeffizienz kann nicht verhindern, dass die Chips Wärme produzieren. Um diese möglichst schnell abzutransportieren, arbeitet man an einem dreischichtigen System: Statt herkömmlich Silikon-basierter Wärmeleitpads soll künftig Graphit verwendet werden. Ferner ist der Einsatz von effizienteren Dampfkammerkühlern geplant. Diese werden dann durch neue Lüfter unterstützt, deren verändertes Design ein höheren Luftdurchsatz ermöglicht.

Trotz Sanktionen: Neue Netztechnologien von Huawei​ Weiterlesen »

NIS2 fordert Security-Spezialisten neue Skills ab​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?quality=50&strip=all 2490w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=2048%2C1151&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die NIS2-Richtlinie verändert den IT-Arbeitsmarkt nachhaltig. Unternehmen müssen ihre Rekrutierungsstrategien anpassen, auf Weiterbildung setzen und Automatisierungstechnologien nutzen, um den gestiegenen Anforderungen gerecht zu werden. konstakorhonen – shutterstock 2471338245 In einer Zeit, in der Cyberangriffe zunehmen und digitale Infrastrukturen immer komplexer werden, stellt sich die Frage: Welche Skills sind jetzt besonders gefragt und wie können Unternehmen auf die NIS2-Herausforderungen reagieren?  Die NIS2-Richtlinie erhöht die Sicherheitsstandards in Europa deutlich. Ziel ist es, Unternehmen in kritischen und nicht kritischen Sektoren dazu zu bringen, ihre IT-Sicherheitsmaßnahmen zu modernisieren. Dies führt zu einem Anstieg der Nachfrage nach IT-Experten mit Kenntnissen und Erfahrungen in den Bereichen Cybersicherheit, Risikomanagement und Compliance.  Besonders wichtig sind Kenntnisse in Programmiersprachen, die Fähigkeit, komplexe IT-Infrastrukturen zu analysieren und ein Verständnis für rechtliche und strategische Aspekte der Informationssicherheit. In Ländern wie Deutschland sind zudem fundierte Kenntnisse der ICT-Sicherheitsgesetzgebung relevant. Darüber hinaus ist die Bereitschaft von zentraler Bedeutung, Sicherheitsstrategien zu entwickeln. Skills wie analytisches Denken, Excel-Kompetenzen und ein Verständnis von Geschäftsprozessen runden das Profil ab.  Die Nachfrage nach Skills in Sachen Cybersecurity steigt seit 2019 rasant. In Ländern wie Deutschland und Frankreich konzentrieren sich Stellenangebote verstärkt auf technische Fachkräfte, insbesondere in den Bereichen Cyberabwehr und Compliance. Diese Entwicklung spiegelt den wachsenden Bedarf an spezialisierten Kompetenzen wider, um den komplexer werdenden Bedrohungen im Cyberraum effektiv begegnen zu können.  Laut der 2024 ISC Cybersecurity Workforce Study sind global 5,5 Millionen Menschen im Bereich Cybersicherheit tätig und dennoch besteht eine Lücke von 4,8 Millionen Fachkräften. Diese Diskrepanz unterstreicht den dringenden Bedarf an Sicherheitsspezialisten. Zudem zeigt die Studie, dass 34 Prozent der befragten Experten für Cybersicherheit einen Mangel an Fähigkeiten im Bereich Künstlicher Intelligenz (KI) in ihren Unternehmen feststellen, was die höchste Bedarfskategorie darstellt.      Um Unternehmen vor Cyberangriffen zu schützen, werden weltweit Sicherheitsspezialisten gesucht. Zoomik – shutterstock.com Worauf beim IT-Hiring zu achten ist Die Suche nach qualifizierten IT-Talenten, wie zum Beispiel auch Sicherheitsexperten, war noch nie so herausfordernd. Laut einer Bitkom-Studie gab es 2023 in Deutschland 149.000 offene Stellen in der IT-Branche – ein Anstieg um 12.000 im Vergleich zum Vorjahr. Unternehmen stehen also vor der Aufgabe, nicht nur Kandidaten mit den richtigen technischen Fähigkeiten zu finden, sondern auch mit strategischem Weitblick, um diese Lücken dauerhaft zu schließen.  Bei der Einstellung neuer IT-Mitarbeiter mit Security-Aufgaben sollten Arbeitgeber auf folgende Aspekte achten:  1. Technische Expertise: Kandidaten sollten Erfahrung in Cybersicherheits-Technologien und Automatisierungs-Tools mitbringen. Kenntnisse über Bedrohungsmanagement, Verschlüsselung und Patch-Management sind essenziell.  2. Erfahrung in Risiko- und Compliance-Management: Mit der Einführung der NIS2 wird die Fähigkeit, Risiken zu bewerten und Compliance-Anforderungen zu erfüllen, zu einer Kernkompetenz. Auch rechtliche Kenntnisse gehören dazu.  3. Flexibilität in der Ausbildung: Während ein Bachelor-Abschluss in Deutschland weiterhin häufig gefordert wird, setzen viele Unternehmen verstärkt auf praktische Erfahrung und informelle Bildungswege, um Skills in Cybersicherheit nachzuweisen.  Um wettbewerbsfähig zu bleiben, müssen Betriebe verstärkt in innovative Rekrutierungsstrategien investieren und ihre Erwartungen an formale Abschlüsse überdenken. Gleichzeitig sollten sie attraktive Entwicklungsmöglichkeiten bieten, um Kandidaten langfristig zu binden.    Die Rolle der Unternehmen bei der Weiterbildung Angesichts des Fachkräftemangels können Unternehmen nicht ausschließlich auf externe Rekrutierung setzen, sondern zusätzlich auf die Weiterbildung ihrer bestehenden Belegschaft. Das Ziel ist es, eine Sicherheitskultur zu schaffen, in der alle Mitarbeiter – nicht nur die IT-Abteilung – ein Bewusstsein für Cybersicherheit entwickeln.  Maßnahmen zur Weiterbildung könnten zum Beispiel sein:  – Regelmäßige Schulungen: Unternehmen sollten interne Programme anbieten, um ihre Mitarbeiter auf die Anforderungen der NIS2 vorzubereiten. Dazu gehören Kurse zu neuen Sicherheitsstandards, Compliance-Vorgaben und Best Practices im Umgang mit Social Engineering.  – Automatisierung als Unterstützung: Automatisierte Tools reduzieren die Arbeitslast von Spezialisten und minimieren menschliche Fehler, etwa durch regelmäßige Updates oder automatisierte Sicherheitsprüfungen.  – Förderung einer Sicherheitskultur: Jeder Mitarbeiter sollte dazu befähigt werden, potenzielle Bedrohungen zu erkennen und darauf zu reagieren. Dies umfasst etwa die Schulung im Umgang mit Phishing-Mails und verdächtigen Links sowie die Einführung klarer Prozesse für den Umgang mit Vorfällen.  Die Anforderungen der NIS2 stellen viele Unternehmen vor besondere Herausforderungen, insbesondere wenn sie nicht über die nötige IT-Expertise verfügen. Hier bieten zum Beispiel spezialisierte Firmen Lösungen an, welche die Einhaltung von Sicherheitsrichtlinien, das Patch-Management und die Bereitstellung automatisierter Tools beinhalten. So können Unternehmen sicherstellen, dass sie die NIS2-Vorgaben erfüllen, ohne eine eigene IT-Abteilung aufbauen zu müssen und sind deutlich weniger vom Fachkräftemangel betroffen.  Die Nachfrage nach IT-Spezialisten im Allgemeinen, aber auch im Security-Umfeld wird weiter steigen, insbesondere in den Bereichen:  – Cybersecurity: Rollen wie Cybersecurity-Analysten, Compliance-Manager und Incident-Response-Experten werden besonders gefragt sein.  – Automatisierung: Experten für Automatisierungs-Tools und -prozesse spielen eine Schlüsselrolle bei der Optimierung von IT-Operations.  – Strategisches Risikomanagement: Unternehmen suchen verstärkt nach Fachkräften, die technische und betriebswirtschaftliche Fähigkeiten kombinieren.    Fazit Die NIS2-Richtlinie verändert den IT-Arbeitsmarkt nachhaltig. Unternehmen müssen ihre Rekrutierungsstrategien anpassen, auf Weiterbildung setzen und Automatisierungstechnologien nutzen, um den gestiegenen Anforderungen gerecht zu werden. Externe Lösungen etwa bieten einen Weg, den Fachkräftemangel zu umgehen und gleichzeitig höchste Sicherheitsstandards zu gewährleisten.  

NIS2 fordert Security-Spezialisten neue Skills ab​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?quality=50&strip=all 2490w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=2048%2C1151&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/NSI2.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die NIS2-Richtlinie verändert den IT-Arbeitsmarkt nachhaltig. Unternehmen müssen ihre Rekrutierungsstrategien anpassen, auf Weiterbildung setzen und Automatisierungstechnologien nutzen, um den gestiegenen Anforderungen gerecht zu werden. konstakorhonen – shutterstock 2471338245

In einer Zeit, in der Cyberangriffe zunehmen und digitale Infrastrukturen immer komplexer werden, stellt sich die Frage: Welche Skills sind jetzt besonders gefragt und wie können Unternehmen auf die NIS2-Herausforderungen reagieren? 

Die NIS2-Richtlinie erhöht die Sicherheitsstandards in Europa deutlich. Ziel ist es, Unternehmen in kritischen und nicht kritischen Sektoren dazu zu bringen, ihre IT-Sicherheitsmaßnahmen zu modernisieren. Dies führt zu einem Anstieg der Nachfrage nach IT-Experten mit Kenntnissen und Erfahrungen in den Bereichen Cybersicherheit, Risikomanagement und Compliance. 

Besonders wichtig sind Kenntnisse in Programmiersprachen, die Fähigkeit, komplexe IT-Infrastrukturen zu analysieren und ein Verständnis für rechtliche und strategische Aspekte der Informationssicherheit. In Ländern wie Deutschland sind zudem fundierte Kenntnisse der ICT-Sicherheitsgesetzgebung relevant. Darüber hinaus ist die Bereitschaft von zentraler Bedeutung, Sicherheitsstrategien zu entwickeln. Skills wie analytisches Denken, Excel-Kompetenzen und ein Verständnis von Geschäftsprozessen runden das Profil ab. 

Die Nachfrage nach Skills in Sachen Cybersecurity steigt seit 2019 rasant. In Ländern wie Deutschland und Frankreich konzentrieren sich Stellenangebote verstärkt auf technische Fachkräfte, insbesondere in den Bereichen Cyberabwehr und Compliance. Diese Entwicklung spiegelt den wachsenden Bedarf an spezialisierten Kompetenzen wider, um den komplexer werdenden Bedrohungen im Cyberraum effektiv begegnen zu können. 

Laut der 2024 ISC Cybersecurity Workforce Study sind global 5,5 Millionen Menschen im Bereich Cybersicherheit tätig und dennoch besteht eine Lücke von 4,8 Millionen Fachkräften. Diese Diskrepanz unterstreicht den dringenden Bedarf an Sicherheitsspezialisten. Zudem zeigt die Studie, dass 34 Prozent der befragten Experten für Cybersicherheit einen Mangel an Fähigkeiten im Bereich Künstlicher Intelligenz (KI) in ihren Unternehmen feststellen, was die höchste Bedarfskategorie darstellt.   

 

Um Unternehmen vor Cyberangriffen zu schützen, werden weltweit Sicherheitsspezialisten gesucht. Zoomik – shutterstock.com

Worauf beim IT-Hiring zu achten ist

Die Suche nach qualifizierten IT-Talenten, wie zum Beispiel auch Sicherheitsexperten, war noch nie so herausfordernd. Laut einer Bitkom-Studie gab es 2023 in Deutschland 149.000 offene Stellen in der IT-Branche – ein Anstieg um 12.000 im Vergleich zum Vorjahr. Unternehmen stehen also vor der Aufgabe, nicht nur Kandidaten mit den richtigen technischen Fähigkeiten zu finden, sondern auch mit strategischem Weitblick, um diese Lücken dauerhaft zu schließen. 

Bei der Einstellung neuer IT-Mitarbeiter mit Security-Aufgaben sollten Arbeitgeber auf folgende Aspekte achten: 

1. Technische Expertise: Kandidaten sollten Erfahrung in Cybersicherheits-Technologien und Automatisierungs-Tools mitbringen. Kenntnisse über Bedrohungsmanagement, Verschlüsselung und Patch-Management sind essenziell. 

2. Erfahrung in Risiko- und Compliance-Management: Mit der Einführung der NIS2 wird die Fähigkeit, Risiken zu bewerten und Compliance-Anforderungen zu erfüllen, zu einer Kernkompetenz. Auch rechtliche Kenntnisse gehören dazu. 

3. Flexibilität in der Ausbildung: Während ein Bachelor-Abschluss in Deutschland weiterhin häufig gefordert wird, setzen viele Unternehmen verstärkt auf praktische Erfahrung und informelle Bildungswege, um Skills in Cybersicherheit nachzuweisen. 

Um wettbewerbsfähig zu bleiben, müssen Betriebe verstärkt in innovative Rekrutierungsstrategien investieren und ihre Erwartungen an formale Abschlüsse überdenken. Gleichzeitig sollten sie attraktive Entwicklungsmöglichkeiten bieten, um Kandidaten langfristig zu binden. 

 

Die Rolle der Unternehmen bei der Weiterbildung

Angesichts des Fachkräftemangels können Unternehmen nicht ausschließlich auf externe Rekrutierung setzen, sondern zusätzlich auf die Weiterbildung ihrer bestehenden Belegschaft. Das Ziel ist es, eine Sicherheitskultur zu schaffen, in der alle Mitarbeiter – nicht nur die IT-Abteilung – ein Bewusstsein für Cybersicherheit entwickeln. 

Maßnahmen zur Weiterbildung könnten zum Beispiel sein: 

– Regelmäßige Schulungen: Unternehmen sollten interne Programme anbieten, um ihre Mitarbeiter auf die Anforderungen der NIS2 vorzubereiten. Dazu gehören Kurse zu neuen Sicherheitsstandards, Compliance-Vorgaben und Best Practices im Umgang mit Social Engineering. 

– Automatisierung als Unterstützung: Automatisierte Tools reduzieren die Arbeitslast von Spezialisten und minimieren menschliche Fehler, etwa durch regelmäßige Updates oder automatisierte Sicherheitsprüfungen. 

– Förderung einer Sicherheitskultur: Jeder Mitarbeiter sollte dazu befähigt werden, potenzielle Bedrohungen zu erkennen und darauf zu reagieren. Dies umfasst etwa die Schulung im Umgang mit Phishing-Mails und verdächtigen Links sowie die Einführung klarer Prozesse für den Umgang mit Vorfällen. 

Die Anforderungen der NIS2 stellen viele Unternehmen vor besondere Herausforderungen, insbesondere wenn sie nicht über die nötige IT-Expertise verfügen. Hier bieten zum Beispiel spezialisierte Firmen Lösungen an, welche die Einhaltung von Sicherheitsrichtlinien, das Patch-Management und die Bereitstellung automatisierter Tools beinhalten. So können Unternehmen sicherstellen, dass sie die NIS2-Vorgaben erfüllen, ohne eine eigene IT-Abteilung aufbauen zu müssen und sind deutlich weniger vom Fachkräftemangel betroffen. 

Die Nachfrage nach IT-Spezialisten im Allgemeinen, aber auch im Security-Umfeld wird weiter steigen, insbesondere in den Bereichen: 

– Cybersecurity: Rollen wie Cybersecurity-Analysten, Compliance-Manager und Incident-Response-Experten werden besonders gefragt sein. 

– Automatisierung: Experten für Automatisierungs-Tools und -prozesse spielen eine Schlüsselrolle bei der Optimierung von IT-Operations. 

– Strategisches Risikomanagement: Unternehmen suchen verstärkt nach Fachkräften, die technische und betriebswirtschaftliche Fähigkeiten kombinieren. 

 

Fazit

Die NIS2-Richtlinie verändert den IT-Arbeitsmarkt nachhaltig. Unternehmen müssen ihre Rekrutierungsstrategien anpassen, auf Weiterbildung setzen und Automatisierungstechnologien nutzen, um den gestiegenen Anforderungen gerecht zu werden. Externe Lösungen etwa bieten einen Weg, den Fachkräftemangel zu umgehen und gleichzeitig höchste Sicherheitsstandards zu gewährleisten. 

NIS2 fordert Security-Spezialisten neue Skills ab​ Weiterlesen »

Wie KI den Wohnungsbau voranbringt​

Allgemein

Neben KI setzt die Stadt Wien auch auf Augmented Reality (AR) zur Visualisierung von Bauvorhaben.Stadt Wien/Schaub-Walzer Neubau und Sanierung gelten weltweit als probates Mittel gegen Wohnungsnot. Doch bei der Beantragung und Erteilung von Baugenehmigungen stößt die Dynamik an ihre Grenzen. Künstliche Intelligenz (KI) kann hier helfen, Genehmigungszeiten zu verkürzen und den Prozess für Antragsteller und Sachbearbeiter zu erleichtern, wie Projekte in Wien, Vancouver und Kelowna zeigen. Frische Brise für den Wohnungsbau Die Stadt Wien ist in den letzten zehn Jahren um rund 300.000 Menschen gewachsen. Mit der Bevölkerung steigt auch die Bautätigkeit. Jährlich werden rund 13.000 Bauanträge bearbeitet. Dabei stellt die Stadt wegen ihres großen Altbaubestands hohe soziale, architektonische und ökologische Anforderungen an Neubauten. Diese zunehmende Komplexität führt zu einer Verfahrensdauer von bis zu einem Jahr bei Bauanträgen in Papierform. Mit dem von der EU-Initiative „Urban Innovative Actions“ geförderten Projekt BRISE (Building Regulations Information for Submission Envolvement) hat sich Wien zum Ziel gesetzt, dieses Verfahren durch Digitalisierung um bis zu 50 Prozent zu beschleunigen. KI wird bei BRISE als Kombination aus maschinellem Lernen und intelligenter semantischer Suche eingesetzt. Zu Beginn des Antragsverfahrens laden die Antragsteller die Dokumente für die Genehmigung hoch. Das System bereitet die Dokumente dann in der Vorverarbeitung automatisch auf, indem es beispielsweise den Schriftkontrast erhöht. BRISE klassifiziert die Dokumente in vordefinierte Kategorien und hilft so, zu überprüfen, ob alle erforderlichen Dateien im Genehmigungsantrag enthalten sind.Parallel dazu stellt NER (Named-Entity Recognition) Zusammenhänge zwischen dem Text und seiner Bedeutung her: Adressen, Namen von Personen und Firmen werden als solche erkannt und kategorisiert. Anschließend extrahiert das System mit Hilfe von KI-Methoden die wichtigsten Informationen und schlägt sie dem Antragsteller zur automatischen Vervollständigung vor. Dadurch wird der Antragsprozess für den Antragsteller einfacher und schneller, während die Qualität des Antrags für die Sachbearbeiter der Stadt steigt, die dadurch Zeit und manuelle Arbeit sparen. Vancouver setzt auf Chatbots Die kanadische Regierung unter Premierminister Justin Trudeau hat es sich zum Ziel gesetzt, bis 2031 fast vier Millionen neue Wohnungen zu schaffen. Damit steigt auch in Nordamerika der Druck, die geplante Immobilienentwicklung durch verbesserte Genehmigungsverfahren zu beschleunigen. Die Stadt Vancouver hat sich zu diesem Zweck im Jahr 2023 neue Bearbeitungsfristen auferlegt. Das Framework sieht vor: drei Tage für die Genehmigung von Renovierungsarbeiten an Wohngebäuden, drei Wochen für die Genehmigung von Einfamilienhäusern und Reihenhäusern, drei Monate für bestimmte Mehrfamilienhäuser und Projekte mittlerer Höhe, sowie ein Jahr für Hochhaus- oder Großprojekte. Das Permit Requirements Exploration Tool (PRET), eComply und das 3-3-3-1-Dashboard sollen der Stadtverwaltung dabei helfen, die Fristen einzuhalten. PRET ermöglicht es Antragstellern die Vorschriften und Anforderungen für Standorte in Vancouver zu erkunden und zu verstehen. Antragsteller können dabei potenzielle Kosten ermitteln, Zeitpläne erstellen und die Durchführbarkeit von Projekten bestimmen – bevor sie einen potenziellen Antrag einreichen. eComply ist ein vom australischen Softwareanbieter Archistar entwickeltes Online-Tool zur Überprüfung der Konformität von Entwürfen. Es ermöglicht Antragstellern, ihre Entwürfe und Zeichnungen hochzuladen und mit den Vorschriften zu vergleichen. Das 3-3-3-1-Dashboard bietet einen Überblick über die Fortschritte der Stadt bei der Erreichung der 3-3-3-1-Ziele. Anhand einer Reihe von Kennzahlen zeigt das Dashboard die jeweiligen Bearbeitungszeiten der Stadt und der Antragsteller im Genehmigungsprozess an. Im knapp 400 Kilometer entfernten Kelowna, der am schnellsten wachsenden Stadt Kanadas, suchte man bereits vor rund fünf Jahren nach Möglichkeiten, Bauvorschriften effizienter und benutzerfreundlicher zu gestalten. Die Stadt wandte sich mit dieser Idee an Microsoft, das bei der Implementierung eines Chatbots unterstützte. Dieser gibt Ratschläge zu Bebauungsgebieten und Feedback zu geplanten Bauprojekten. Kelowna implementierte auch das Instandhaltungsmanagementsystem (CMMS) CityWorks, um seine kommunalen Einrichtungen zu verwalten und instand zu halten, darunter Wasser, Abwasser, Entwässerung, Verkehr, Freizeit und kommunale Infrastruktur. Teil der Lösung ist ein Chatbot, der die Erstellung digitaler Bauanträge unterstützt. Die Software ermöglicht auch die digitale Prüfung von Plänen, und Bauinspektoren können ihre Inspektionen sogar online verwalten. KI als Empfehlungssystem „Das Besondere an KI ist, dass die Qualität der Informationen, die die Community in das System einspeist, die Qualität der Informationen ist, die der Nutzer am Ende erhält“, erklärt Tegan Smith, CEO von Channel Consulting, gegenüber Biv.com. „Je mehr aktuelle Informationen die Community hat, desto mehr können sie KI und Chatbots nutzen, um Antragstellern spezifisches Feedback bis hinunter auf die Standortebene zu geben.“ Smith blickt aber noch weiter. In Zukunft könnte KI eingesetzt werden, um Empfehlungen für die Erteilung von Baugenehmigungen zu geben, Marktzyklen vorherzusagen oder die Nutzung öffentlicher Grundstücke für erschwinglichen Wohnraum zu optimieren. KI könnte auch Empfehlungen für die bestmögliche Neuentwicklung eines Grundstücks auf der Grundlage der Anforderungen der Kommune geben, zusammen mit sofortigen Angeboten von geeigneten Bauunternehmen und Finanziers. Ganz ohne menschliches Zutun werde es aber auch künftig nicht funktionieren, so Smith. „KI bringt mich auf dem Weg dorthin ein gutes Stück voran, weil ich eine gewisse Erfolgswahrscheinlichkeit habe. Ich kann sagen, dass es wahrscheinlich richtig ist, und dann kann ich losziehen und es überprüfen. Aber man muss tatsächlich über das Fachwissen verfügen, um zu wissen, was man fragen und was man überprüfen muss. Ich denke, kritisches Denken und menschliches Engagement werden weiterhin wichtig sein.“ Die Stadt Vancouver sieht das ähnlich.  „KI kann zwar Planungsprozesse beschleunigen und neue Erkenntnisse liefern, aber ihre Ergebnisse müssen mit anderen Datenquellen kombiniert und von professionellen Planern und Entscheidungsträgern bewertet werden“, so die Stadtverwaltung gegenüber Biv.com. „Sich ausschließlich auf KI oder eine einzige Informationsquelle zu verlassen, kann bei komplexen, weitreichenden Entscheidungen Risiken bergen.“ 

Wie KI den Wohnungsbau voranbringt​ Neben KI setzt die Stadt Wien auch auf Augmented Reality (AR) zur Visualisierung von Bauvorhaben.Stadt Wien/Schaub-Walzer

Neubau und Sanierung gelten weltweit als probates Mittel gegen Wohnungsnot. Doch bei der Beantragung und Erteilung von Baugenehmigungen stößt die Dynamik an ihre Grenzen. Künstliche Intelligenz (KI) kann hier helfen, Genehmigungszeiten zu verkürzen und den Prozess für Antragsteller und Sachbearbeiter zu erleichtern, wie Projekte in Wien, Vancouver und Kelowna zeigen.

Frische Brise für den Wohnungsbau

Die Stadt Wien ist in den letzten zehn Jahren um rund 300.000 Menschen gewachsen. Mit der Bevölkerung steigt auch die Bautätigkeit. Jährlich werden rund 13.000 Bauanträge bearbeitet. Dabei stellt die Stadt wegen ihres großen Altbaubestands hohe soziale, architektonische und ökologische Anforderungen an Neubauten. Diese zunehmende Komplexität führt zu einer Verfahrensdauer von bis zu einem Jahr bei Bauanträgen in Papierform.

Mit dem von der EU-Initiative „Urban Innovative Actions“ geförderten Projekt BRISE (Building Regulations Information for Submission Envolvement) hat sich Wien zum Ziel gesetzt, dieses Verfahren durch Digitalisierung um bis zu 50 Prozent zu beschleunigen.

KI wird bei BRISE als Kombination aus maschinellem Lernen und intelligenter semantischer Suche eingesetzt. Zu Beginn des Antragsverfahrens laden die Antragsteller die Dokumente für die Genehmigung hoch. Das System bereitet die Dokumente dann in der Vorverarbeitung automatisch auf, indem es beispielsweise den Schriftkontrast erhöht. BRISE klassifiziert die Dokumente in vordefinierte Kategorien und hilft so, zu überprüfen, ob alle erforderlichen Dateien im Genehmigungsantrag enthalten sind.Parallel dazu stellt NER (Named-Entity Recognition) Zusammenhänge zwischen dem Text und seiner Bedeutung her: Adressen, Namen von Personen und Firmen werden als solche erkannt und kategorisiert. Anschließend extrahiert das System mit Hilfe von KI-Methoden die wichtigsten Informationen und schlägt sie dem Antragsteller zur automatischen Vervollständigung vor. Dadurch wird der Antragsprozess für den Antragsteller einfacher und schneller, während die Qualität des Antrags für die Sachbearbeiter der Stadt steigt, die dadurch Zeit und manuelle Arbeit sparen.

Vancouver setzt auf Chatbots

Die kanadische Regierung unter Premierminister Justin Trudeau hat es sich zum Ziel gesetzt, bis 2031 fast vier Millionen neue Wohnungen zu schaffen. Damit steigt auch in Nordamerika der Druck, die geplante Immobilienentwicklung durch verbesserte Genehmigungsverfahren zu beschleunigen.

Die Stadt Vancouver hat sich zu diesem Zweck im Jahr 2023 neue Bearbeitungsfristen auferlegt. Das Framework sieht vor:

drei Tage für die Genehmigung von Renovierungsarbeiten an Wohngebäuden,

drei Wochen für die Genehmigung von Einfamilienhäusern und Reihenhäusern,

drei Monate für bestimmte Mehrfamilienhäuser und Projekte mittlerer Höhe, sowie

ein Jahr für Hochhaus- oder Großprojekte.

Das Permit Requirements Exploration Tool (PRET), eComply und das 3-3-3-1-Dashboard sollen der Stadtverwaltung dabei helfen, die Fristen einzuhalten.

PRET ermöglicht es Antragstellern die Vorschriften und Anforderungen für Standorte in Vancouver zu erkunden und zu verstehen. Antragsteller können dabei potenzielle Kosten ermitteln, Zeitpläne erstellen und die Durchführbarkeit von Projekten bestimmen – bevor sie einen potenziellen Antrag einreichen.

eComply ist ein vom australischen Softwareanbieter Archistar entwickeltes Online-Tool zur Überprüfung der Konformität von Entwürfen. Es ermöglicht Antragstellern, ihre Entwürfe und Zeichnungen hochzuladen und mit den Vorschriften zu vergleichen.

Das 3-3-3-1-Dashboard bietet einen Überblick über die Fortschritte der Stadt bei der Erreichung der 3-3-3-1-Ziele. Anhand einer Reihe von Kennzahlen zeigt das Dashboard die jeweiligen Bearbeitungszeiten der Stadt und der Antragsteller im Genehmigungsprozess an.

Im knapp 400 Kilometer entfernten Kelowna, der am schnellsten wachsenden Stadt Kanadas, suchte man bereits vor rund fünf Jahren nach Möglichkeiten, Bauvorschriften effizienter und benutzerfreundlicher zu gestalten. Die Stadt wandte sich mit dieser Idee an Microsoft, das bei der Implementierung eines Chatbots unterstützte. Dieser gibt Ratschläge zu Bebauungsgebieten und Feedback zu geplanten Bauprojekten.

Kelowna implementierte auch das Instandhaltungsmanagementsystem (CMMS) CityWorks, um seine kommunalen Einrichtungen zu verwalten und instand zu halten, darunter Wasser, Abwasser, Entwässerung, Verkehr, Freizeit und kommunale Infrastruktur. Teil der Lösung ist ein Chatbot, der die Erstellung digitaler Bauanträge unterstützt. Die Software ermöglicht auch die digitale Prüfung von Plänen, und Bauinspektoren können ihre Inspektionen sogar online verwalten.

KI als Empfehlungssystem

„Das Besondere an KI ist, dass die Qualität der Informationen, die die Community in das System einspeist, die Qualität der Informationen ist, die der Nutzer am Ende erhält“, erklärt Tegan Smith, CEO von Channel Consulting, gegenüber Biv.com. „Je mehr aktuelle Informationen die Community hat, desto mehr können sie KI und Chatbots nutzen, um Antragstellern spezifisches Feedback bis hinunter auf die Standortebene zu geben.“

Smith blickt aber noch weiter. In Zukunft könnte KI eingesetzt werden, um Empfehlungen für die Erteilung von Baugenehmigungen zu geben, Marktzyklen vorherzusagen oder die Nutzung öffentlicher Grundstücke für erschwinglichen Wohnraum zu optimieren. KI könnte auch Empfehlungen für die bestmögliche Neuentwicklung eines Grundstücks auf der Grundlage der Anforderungen der Kommune geben, zusammen mit sofortigen Angeboten von geeigneten Bauunternehmen und Finanziers.

Ganz ohne menschliches Zutun werde es aber auch künftig nicht funktionieren, so Smith. „KI bringt mich auf dem Weg dorthin ein gutes Stück voran, weil ich eine gewisse Erfolgswahrscheinlichkeit habe. Ich kann sagen, dass es wahrscheinlich richtig ist, und dann kann ich losziehen und es überprüfen. Aber man muss tatsächlich über das Fachwissen verfügen, um zu wissen, was man fragen und was man überprüfen muss. Ich denke, kritisches Denken und menschliches Engagement werden weiterhin wichtig sein.“

Die Stadt Vancouver sieht das ähnlich.  „KI kann zwar Planungsprozesse beschleunigen und neue Erkenntnisse liefern, aber ihre Ergebnisse müssen mit anderen Datenquellen kombiniert und von professionellen Planern und Entscheidungsträgern bewertet werden“, so die Stadtverwaltung gegenüber Biv.com. „Sich ausschließlich auf KI oder eine einzige Informationsquelle zu verlassen, kann bei komplexen, weitreichenden Entscheidungen Risiken bergen.“

Wie KI den Wohnungsbau voranbringt​ Weiterlesen »

Digitalisierung heißt von China lernen​

Allgemein

Die chinesische Millionenmetropole Shenzhen hat sich mittlerweile von der Werkbank der Welt zum Silicon Valley Asiens entwickelt und ist ein Lehrstück in Sachen Digitalisierung. Hill Autonome Drohnenlieferdienste? Geht nicht, die Drohne könnte ja beim Überfliegen der Privatgrundstücke die Privatsphäre verletzen. Vernetzte Videokameras im öffentlichen Raum? Nein, schließlich sind wir ja kein Überwachungsstaat. Bargeldlos mit dem Smartphone bezahlen? Von wegen, da könnte ja das Einkaufs- und Konsumverhalten getrackt werden, so hierzulande die Argumentation der Bargeld-Befürworter. Ganz anders die Situation in China. Selbst beim Straßenhändler wird per Smartphone und Alipay bezahlt – Bargeld und Kreditkarte sind out und gelten als old fashioned. Die Liste der digitalen Techniken, die aus Datenschutz- oder anderen Gründen hierzulande nicht eingeführt werden können, ließe sich fast beliebig verlängern. Shenzhen – das neue Silicon Valley? Sicher, viele Einwände sind berechtigt. Doch die Bedenkenträger hierzulande sollten einmal in Erwägung ziehen, dass sich die Welt um uns herum weiterentwickelt – auch in Sachen Digitalisierung. Und hier droht Deutschland hoffnungslos abgehängt zu werden. Das verdeutlicht etwa ein Besuch in der südchinesischen Millionenmetropole Shenzhen, die sich von der Werkbank der Welt zum Silicon Valley Asiens entwickelt hat. Hier wird nicht, in nicht endendwollenden Diskussionen, ewig über die Risiken einer digitalen Technologie debattiert. Hier wird nach dem Nutzen, dem Vorteil einer digitalen Technologie gefragt und wie sich daraus ein Business-Modell entwickeln lässt? Agilität statt Bedenkenträger Dieser agile Mindset zieht sich nicht nur durch die Unternehmen, sondern durch die gesamte Stadt. Es wird nicht endlos diskutiert, sondern agiert. Drohnenlieferstation in einem Park von Shenzhen. Hill Dabei muss nicht immer alles sophisticated High-Tech sein – der Nutzen zählt. Womit wir wieder bei den eingangs angesprochenen Drohnen sind. Drohnenstation im Park Mitten in einem Park – vergleichbar mit dem Englischen Garten in München – steht ein kleines Häuschen mit Touchscreen. Seine Bedeutung? Es ist die Landestation für autonom fliegende Lieferdrohnen. Per Smartphone oder über den Touchscreen der Station kann sich der Parkbesucher bei den teilnehmenden Restaurantketten im Umkreis Essen und Getränke bestellen. Zehn bis 15 Minuten später liefern die autonom fliegenden Drohnen die Bestellung direkt in den Park. Lieferdrohne im Anflug. Hill Dazu öffnet sich das Dach der Station und die Drohne lässt die Lieferung ins Innere fallen. Per Code, den der Besteller auf sein Smartphone erhalten hat, kann er nun die Lieferung der Station entnehmen. Dabei kommt auch das Recycling nicht zu kurz. Das Verpackungsmaterial kommt zusammengefaltet in eine Box neben der Station und wird wiederverwendet. Laut Angaben unserer chinesischen Begleiter scheint sich der Lieferdienst zu rechnen, denn er sei in vielen Parks Shenzhens zu finden. Mit Kameras zum Digitalen Zwilling Für europäische, insbesondere deutsche Augen ungewohnt sind die vielen Kameras im Stadtbild Shenzhens. Doch die Bürgerinnen und Bürger scheint das weniger zu stören und auch vor dem im Westen immer wieder berichteten Social Punishment scheint man keine große Angst zu haben. Rote Ampeln werden von Fußgängern, Rad- und Rollerfahrern mit der gleichen Selbstverständlichkeit wie etwa in München ignoriert. Dagegen wird ein anderer Vorteil der Kameras unterstrichen – mit ihrer Hilfe entsteht aus ganz Shenzhen ein Digitaler Zwilling. So lässt sich beispielsweise der Verkehrsfluss entsprechend digital anpassen. Passiert ein Unfall können die Rettungskräfte, egal ob Polizei, Krankenwagen oder Feuerwehr, dank dieser Video-Informationen gezielt und in ausreichender Stärke an den Ort des Geschehens beordert werden. Effizienter dank Digitalem Zwilling Videokameras gehören in Shenzhen zum Stadtbild und bilden die Grundlage des Digitalen Zwillings der Stadt. Hill Gleiches gilt im Falle eines Brandes. Die Frage, ob eine Drehleiter etc. benötigt werden, stellt sich nicht. Dank Videobild und Digitalem Zwilling sieht die Feuerwehr schon vor dem Ausrücken, welches Einsatzgerät sie zum Löschen benötigt. Die Stadtverwaltung selbst nutzt die Technik, um ihre Reinigungskräfte gezielt und bedarfsgerecht an den jeweiligen verschmutzten Stellen in der Stadt einzusetzen. Noch erledigen diese Aufgabe Menschen, doch es gibt bereits Pläne, dies künftig von Robotern autonom erledigen zu lassen. Automatisierung in Restaurant und Industrie Apropos Roboter – auch in den Restaurants haben sie bereits teilweise Einzug gehalten und liefern die Bestellung an den Tisch. Vorteil für den Gast: Die Bedienung hat mehr Zeit zur Beratung bei der Bestellung. Lieferroboter in einem Restaurant in Shenzhen. Hill Bezüglich Roboter und Automatisierung – richtig enttäuschend war hier der Besuch einer Smartphone-Fabrik von Huawei. Wer hier noch – vorbelastet durch Filmberichte über Auftragsfertiger wie Foxconn – eine Heerschar an emsig entlang der Montagelinie wuselnden Arbeiter erwartet, wird eines Besseren belehrt. 14 Beschäftigte bauen ein Smartphone Ganze 14 Beschäftigte stehen noch an der Montagelinie. Die Linie selbst besteht aus über 100 einzelnen Fertigungsmodulen. Durch diesen modularen Aufbau können diese schnell und flexibel zu neuen Montagelinien zusammengestellt werden, um etwa geänderte Smartphone-Modelle zu fertigen. Dabei dauert der Bau eines Smartphones – ohne das automatisierte Testen der Produkte – rund zwei Stunden. Das umfasst alle Arbeitsschritte wie Verkabelung, Kamerainstallation, Verkleben der Batterie, Touchscreen-Installation etc. Angesichts dieses Automatisierungsgrades sollten sich Wirtschaft und Politik hierzulande wirklich einmal ernsthaft fragen, ob wirklich nur die hohen Lohnkosten der einzige Wettbewerbsnachteil des Standorts Deutschland sind? Oder fehlt es eventuell gar an agilem und digitalem Mindset sowie Innovationskraft? Die dazu von einer überbordenden Bürokratie und Regulatorik abgeschnürt werden? Autark durch Sanktionen Bleiben wir bei Huawei. Ja, der Konzern wurde durch die Trump-Sanktionen 2019 hartgetroffen und sah sich in seiner Existenz bedroht. Doch statt lang zu lamentieren und nach Subventionen zu rufen, konzentrierte das Unternehmen seine Kräfte und fokussierte sich darauf, unabhängig zu werden. Letztlich, so ist in Gesprächen immer wieder zu hören, sei man aus der Krise gestärkt hervorgegangen und sei unabhängiger als zuvor. Huawei hat sich innerhalb von vier Jahren zu einem umfassenden Autozulieferer gemausert. Hill Das zeigt auch ein zweiter Blick auf die Smartphone-Fertigung. Viele der Fertigungsmodule sind heute Huawei-Eigenentwicklungen und müssen nicht mehr zugekauft werden. Ebenso bei der Chipproduktion. Nach eigenen Angaben ist der Konzern mittlerweile in der Lage, Lithographie-Geräte für den 7-nm-Fertigungsprozess selbst zu bauen. Dank physikalischer Tricks könne man so Chips bauen, die Halbleitern der 3-nm- oder 5-nm-Generation ebenbürtig seien. Genauere Details herzu nennen die Chinesen aber nicht, da sie sich hier nicht in die Karten schauen lassen – es könnte ja jemand die IP klauen. Vom Netzwerker zum Autozulieferer Huawei DriveOne statt BMW iDrive oder Mercedes-Benz Drive Pilot. Europas Autobauer sollten sich in Sachen Digitalisierung sputen. Hill Und noch in einem anderen Digitalisierungsbereich hat China aufgeholt – dem Automobilbau. Während hierzulande nach wie vor der unerbittliche Glaubenskrieg zwischen Verbrenner- und Batteriefahrzeug die Diskussion beherrscht, handeln die Chinesen ganz pragmatisch. Die Wertschöpfung versprechenden digitalen Systeme werden einfach für beide Plattformen entwickelt. So fuhr uns ein aktueller Aito M9 nach der Zieleingabe ins Navi vollautonom durch den Stadtverkehr Shenzhens ans Ziel. Angesichts dieser Erfahrungen bleibt nur zu hoffen, dass sich Deutschland 2025 wieder besinnt. Und sich endlich den wichtigen Herausforderungen annimmt, nämlich der Digitalisierung von Wirtschaft und Gesellschaft. Angesichts der Geschwindigkeit, mit der globale Player wie China das Thema Digitalisierung angehen, hat Deutschland eigentlich keine Zeit mehr für Luxusdiskussionen wie über Gendersternchen. Unser Wohlstand ist schlicht in Gefahr, wenn sich nicht endlich ein anderer Mindset durchsetzt. 

Digitalisierung heißt von China lernen​ Die chinesische Millionenmetropole Shenzhen hat sich mittlerweile von der Werkbank der Welt zum Silicon Valley Asiens entwickelt und ist ein Lehrstück in Sachen Digitalisierung.
Hill

Autonome Drohnenlieferdienste? Geht nicht, die Drohne könnte ja beim Überfliegen der Privatgrundstücke die Privatsphäre verletzen. Vernetzte Videokameras im öffentlichen Raum? Nein, schließlich sind wir ja kein Überwachungsstaat.

Bargeldlos mit dem Smartphone bezahlen? Von wegen, da könnte ja das Einkaufs- und Konsumverhalten getrackt werden, so hierzulande die Argumentation der Bargeld-Befürworter. Ganz anders die Situation in China. Selbst beim Straßenhändler wird per Smartphone und Alipay bezahlt – Bargeld und Kreditkarte sind out und gelten als old fashioned. Die Liste der digitalen Techniken, die aus Datenschutz- oder anderen Gründen hierzulande nicht eingeführt werden können, ließe sich fast beliebig verlängern.

Shenzhen – das neue Silicon Valley?

Sicher, viele Einwände sind berechtigt. Doch die Bedenkenträger hierzulande sollten einmal in Erwägung ziehen, dass sich die Welt um uns herum weiterentwickelt – auch in Sachen Digitalisierung. Und hier droht Deutschland hoffnungslos abgehängt zu werden.

Das verdeutlicht etwa ein Besuch in der südchinesischen Millionenmetropole Shenzhen, die sich von der Werkbank der Welt zum Silicon Valley Asiens entwickelt hat. Hier wird nicht, in nicht endendwollenden Diskussionen, ewig über die Risiken einer digitalen Technologie debattiert. Hier wird nach dem Nutzen, dem Vorteil einer digitalen Technologie gefragt und wie sich daraus ein Business-Modell entwickeln lässt?

Agilität statt Bedenkenträger

Dieser agile Mindset zieht sich nicht nur durch die Unternehmen, sondern durch die gesamte Stadt. Es wird nicht endlos diskutiert, sondern agiert.

Drohnenlieferstation in einem Park von Shenzhen.
Hill

Dabei muss nicht immer alles sophisticated High-Tech sein – der Nutzen zählt. Womit wir wieder bei den eingangs angesprochenen Drohnen sind.

Drohnenstation im Park

Mitten in einem Park – vergleichbar mit dem Englischen Garten in München – steht ein kleines Häuschen mit Touchscreen. Seine Bedeutung? Es ist die Landestation für autonom fliegende Lieferdrohnen.

Per Smartphone oder über den Touchscreen der Station kann sich der Parkbesucher bei den teilnehmenden Restaurantketten im Umkreis Essen und Getränke bestellen. Zehn bis 15 Minuten später liefern die autonom fliegenden Drohnen die Bestellung direkt in den Park.

Lieferdrohne im Anflug.
Hill

Dazu öffnet sich das Dach der Station und die Drohne lässt die Lieferung ins Innere fallen. Per Code, den der Besteller auf sein Smartphone erhalten hat, kann er nun die Lieferung der Station entnehmen. Dabei kommt auch das Recycling nicht zu kurz. Das Verpackungsmaterial kommt zusammengefaltet in eine Box neben der Station und wird wiederverwendet. Laut Angaben unserer chinesischen Begleiter scheint sich der Lieferdienst zu rechnen, denn er sei in vielen Parks Shenzhens zu finden.

Mit Kameras zum Digitalen Zwilling

Für europäische, insbesondere deutsche Augen ungewohnt sind die vielen Kameras im Stadtbild Shenzhens. Doch die Bürgerinnen und Bürger scheint das weniger zu stören und auch vor dem im Westen immer wieder berichteten Social Punishment scheint man keine große Angst zu haben. Rote Ampeln werden von Fußgängern, Rad- und Rollerfahrern mit der gleichen Selbstverständlichkeit wie etwa in München ignoriert.

Dagegen wird ein anderer Vorteil der Kameras unterstrichen – mit ihrer Hilfe entsteht aus ganz Shenzhen ein Digitaler Zwilling. So lässt sich beispielsweise der Verkehrsfluss entsprechend digital anpassen. Passiert ein Unfall können die Rettungskräfte, egal ob Polizei, Krankenwagen oder Feuerwehr, dank dieser Video-Informationen gezielt und in ausreichender Stärke an den Ort des Geschehens beordert werden.

Effizienter dank Digitalem Zwilling

Videokameras gehören in Shenzhen zum Stadtbild und bilden die Grundlage des Digitalen Zwillings der Stadt.
Hill

Gleiches gilt im Falle eines Brandes. Die Frage, ob eine Drehleiter etc. benötigt werden, stellt sich nicht. Dank Videobild und Digitalem Zwilling sieht die Feuerwehr schon vor dem Ausrücken, welches Einsatzgerät sie zum Löschen benötigt.

Die Stadtverwaltung selbst nutzt die Technik, um ihre Reinigungskräfte gezielt und bedarfsgerecht an den jeweiligen verschmutzten Stellen in der Stadt einzusetzen. Noch erledigen diese Aufgabe Menschen, doch es gibt bereits Pläne, dies künftig von Robotern autonom erledigen zu lassen.

Automatisierung in Restaurant und Industrie

Apropos Roboter – auch in den Restaurants haben sie bereits teilweise Einzug gehalten und liefern die Bestellung an den Tisch. Vorteil für den Gast: Die Bedienung hat mehr Zeit zur Beratung bei der Bestellung.

Lieferroboter in einem Restaurant in Shenzhen.
Hill

Bezüglich Roboter und Automatisierung – richtig enttäuschend war hier der Besuch einer Smartphone-Fabrik von Huawei. Wer hier noch – vorbelastet durch Filmberichte über Auftragsfertiger wie Foxconn – eine Heerschar an emsig entlang der Montagelinie wuselnden Arbeiter erwartet, wird eines Besseren belehrt.

14 Beschäftigte bauen ein Smartphone

Ganze 14 Beschäftigte stehen noch an der Montagelinie. Die Linie selbst besteht aus über 100 einzelnen Fertigungsmodulen. Durch diesen modularen Aufbau können diese schnell und flexibel zu neuen Montagelinien zusammengestellt werden, um etwa geänderte Smartphone-Modelle zu fertigen. Dabei dauert der Bau eines Smartphones – ohne das automatisierte Testen der Produkte – rund zwei Stunden. Das umfasst alle Arbeitsschritte wie Verkabelung, Kamerainstallation, Verkleben der Batterie, Touchscreen-Installation etc.

Angesichts dieses Automatisierungsgrades sollten sich Wirtschaft und Politik hierzulande wirklich einmal ernsthaft fragen, ob wirklich nur die hohen Lohnkosten der einzige Wettbewerbsnachteil des Standorts Deutschland sind? Oder fehlt es eventuell gar an agilem und digitalem Mindset sowie Innovationskraft? Die dazu von einer überbordenden Bürokratie und Regulatorik abgeschnürt werden?

Autark durch Sanktionen

Bleiben wir bei Huawei. Ja, der Konzern wurde durch die Trump-Sanktionen 2019 hartgetroffen und sah sich in seiner Existenz bedroht. Doch statt lang zu lamentieren und nach Subventionen zu rufen, konzentrierte das Unternehmen seine Kräfte und fokussierte sich darauf, unabhängig zu werden. Letztlich, so ist in Gesprächen immer wieder zu hören, sei man aus der Krise gestärkt hervorgegangen und sei unabhängiger als zuvor.

Huawei hat sich innerhalb von vier Jahren zu einem umfassenden Autozulieferer gemausert.
Hill

Das zeigt auch ein zweiter Blick auf die Smartphone-Fertigung. Viele der Fertigungsmodule sind heute Huawei-Eigenentwicklungen und müssen nicht mehr zugekauft werden. Ebenso bei der Chipproduktion. Nach eigenen Angaben ist der Konzern mittlerweile in der Lage, Lithographie-Geräte für den 7-nm-Fertigungsprozess selbst zu bauen. Dank physikalischer Tricks könne man so Chips bauen, die Halbleitern der 3-nm- oder 5-nm-Generation ebenbürtig seien. Genauere Details herzu nennen die Chinesen aber nicht, da sie sich hier nicht in die Karten schauen lassen – es könnte ja jemand die IP klauen.

Vom Netzwerker zum Autozulieferer

Huawei DriveOne statt BMW iDrive oder Mercedes-Benz Drive Pilot. Europas Autobauer sollten sich in Sachen Digitalisierung sputen.
Hill

Und noch in einem anderen Digitalisierungsbereich hat China aufgeholt – dem Automobilbau. Während hierzulande nach wie vor der unerbittliche Glaubenskrieg zwischen Verbrenner- und Batteriefahrzeug die Diskussion beherrscht, handeln die Chinesen ganz pragmatisch. Die Wertschöpfung versprechenden digitalen Systeme werden einfach für beide Plattformen entwickelt. So fuhr uns ein aktueller Aito M9 nach der Zieleingabe ins Navi vollautonom durch den Stadtverkehr Shenzhens ans Ziel.

Angesichts dieser Erfahrungen bleibt nur zu hoffen, dass sich Deutschland 2025 wieder besinnt. Und sich endlich den wichtigen Herausforderungen annimmt, nämlich der Digitalisierung von Wirtschaft und Gesellschaft. Angesichts der Geschwindigkeit, mit der globale Player wie China das Thema Digitalisierung angehen, hat Deutschland eigentlich keine Zeit mehr für Luxusdiskussionen wie über Gendersternchen. Unser Wohlstand ist schlicht in Gefahr, wenn sich nicht endlich ein anderer Mindset durchsetzt.

Digitalisierung heißt von China lernen​ Weiterlesen »

Konkurrenz für Starlink: EU sagt Musk mit IRIS2 den Kampf an​

Allgemein

Mit IRIS2 will die EU ein eigenes Satellitennetz für Kommunikation und Datenübertragung aufbauen. Gorodenkoff – shutterstock.com In ihren Bemühungen um mehr Digitale Souveränität und sichere Connectivity und weniger Abhängigkeit von den USA ist die EU jetzt einen entscheidenden Schritt weitergekommen. Sie hat die Verträge zum Aufbau des europäischen Satellitennetzwerks IRIS2 unterzeichnet. IRIS2, die Infrastructure for Resilience, Interconnectivity and Security by Satellite, ist Europas Antwort auf das Starlink-Satellitennetz von Elon Musk. Es soll ab 2030 eine sichere, von US-Technologie unabhängige Kommunikation in Europa gewährleisten. Für die EU ist das Netz „der Grundstein für die strategische Autonomie Europas in einer digitalisierten Welt“. Sichere Kommunikation über IRIS2 Dabei betont die EU, dass Daten, die künftig über IRIS2 transferiert werden, den europäischen Rechtsraum nicht verlassen. Neben der Sicherheit verfolgt die EU mit IRIS2 noch ein weiteres Ziel: Das Satellitennetz soll auch in schlecht ausgebauten Gegenden eine Versorgung mit Breitband-Internet sicherstellen. Als potenzielle Nutzer sieht man sowohl staatliche Stellen als auch Unternehmen und Consumer. Dementsprechend sollen bis 2030 sowohl staatliche als auch kommerzielle Connectivity-Dienste entstehen. SpaceRISE als Betreiber Aufbauen und betreiben soll das Satellitennetz das Konsortium SpaceRISE (Space Consortium for a Resilient, Interconnected and Secure Europe). Der jetzt hierzu unterzeichnete Konzessionsvertrag hat eine Laufzeit von 12 Jahren. Zu dem Konsortium gehören unter anderem drei führende europäische Satellitennetzbetreiber – SES SA, Eutelsat SA und Hispasat S.A. Diesen zur Seite stehen wiederum etliche europäische Subunternehmer. Die Partner Zu den wichtigsten Partnern gehören Thales Alenia Space, OHB, Airbus Defence and Space, Telespazio, Deutsche Telekom, Orange, Hisdesat und Thales SIX. In den Orbit sollen die IRIS2-Satelliten mit europäischen Raketen geschossen werden. Im Gegensatz zu Elon Musks Starlink, das derzeit mit rund 7.000 Satelliten operiert, soll IRIS2 mit 290 Satelliten auskommen. Dennoch erreiche man eine mit Starlink vergleichbare Leistung, behauptet das Konsortium. Multi-Orbit-Strategie Im Gegensatz zu Starlink, das seine Satelliten in einer LEO-Umlaufbahn (Low Earth Orbit) betreibt, verfolgt die EU bei IRIS2 eine Multi-Orbit-Strategie. Mit Blick auf die Latenzzeiten sollen dazu 272 Satelliten in einer LEO-Bahn um die Erde kreisen. Für eine größere Abdeckung sind dann 18 Systeme im MEO (Medium Earth Orbit) gedacht. Darüber hinaus ist eine zusätzliche Ebene im Low LEO für weitere Dienste angedacht. 10,6 Milliarden Euro Kosten Für das Projekt veranschlagt die EU Kosten in Höhe von 10,6 Milliarden Euro. 6,5 Milliarden Euro will die EU dabei bereitstellen. Die restlichen vier Milliarden Euro soll die Industrie stemmen. Experten gehen ferner davon aus, dass der spätere Betrieb des Netzes mit jährlich rund einer Milliarde Euro zu Buche schlägt. 

Konkurrenz für Starlink: EU sagt Musk mit IRIS2 den Kampf an​ Mit IRIS2 will die EU ein eigenes Satellitennetz für Kommunikation und Datenübertragung aufbauen.
Gorodenkoff – shutterstock.com

In ihren Bemühungen um mehr Digitale Souveränität und sichere Connectivity und weniger Abhängigkeit von den USA ist die EU jetzt einen entscheidenden Schritt weitergekommen. Sie hat die Verträge zum Aufbau des europäischen Satellitennetzwerks IRIS2 unterzeichnet.

IRIS2, die Infrastructure for Resilience, Interconnectivity and Security by Satellite, ist Europas Antwort auf das Starlink-Satellitennetz von Elon Musk. Es soll ab 2030 eine sichere, von US-Technologie unabhängige Kommunikation in Europa gewährleisten. Für die EU ist das Netz „der Grundstein für die strategische Autonomie Europas in einer digitalisierten Welt“.

Sichere Kommunikation über IRIS2

Dabei betont die EU, dass Daten, die künftig über IRIS2 transferiert werden, den europäischen Rechtsraum nicht verlassen. Neben der Sicherheit verfolgt die EU mit IRIS2 noch ein weiteres Ziel: Das Satellitennetz soll auch in schlecht ausgebauten Gegenden eine Versorgung mit Breitband-Internet sicherstellen.

Als potenzielle Nutzer sieht man sowohl staatliche Stellen als auch Unternehmen und Consumer. Dementsprechend sollen bis 2030 sowohl staatliche als auch kommerzielle Connectivity-Dienste entstehen.

SpaceRISE als Betreiber

Aufbauen und betreiben soll das Satellitennetz das Konsortium SpaceRISE (Space Consortium for a Resilient, Interconnected and Secure Europe). Der jetzt hierzu unterzeichnete Konzessionsvertrag hat eine Laufzeit von 12 Jahren.

Zu dem Konsortium gehören unter anderem drei führende europäische Satellitennetzbetreiber – SES SA, Eutelsat SA und Hispasat S.A. Diesen zur Seite stehen wiederum etliche europäische Subunternehmer.

Die Partner

Zu den wichtigsten Partnern gehören Thales Alenia Space, OHB, Airbus Defence and Space, Telespazio, Deutsche Telekom, Orange, Hisdesat und Thales SIX. In den Orbit sollen die IRIS2-Satelliten mit europäischen Raketen geschossen werden.

Im Gegensatz zu Elon Musks Starlink, das derzeit mit rund 7.000 Satelliten operiert, soll IRIS2 mit 290 Satelliten auskommen. Dennoch erreiche man eine mit Starlink vergleichbare Leistung, behauptet das Konsortium.

Multi-Orbit-Strategie

Im Gegensatz zu Starlink, das seine Satelliten in einer LEO-Umlaufbahn (Low Earth Orbit) betreibt, verfolgt die EU bei IRIS2 eine Multi-Orbit-Strategie. Mit Blick auf die Latenzzeiten sollen dazu 272 Satelliten in einer LEO-Bahn um die Erde kreisen.

Für eine größere Abdeckung sind dann 18 Systeme im MEO (Medium Earth Orbit) gedacht. Darüber hinaus ist eine zusätzliche Ebene im Low LEO für weitere Dienste angedacht.

10,6 Milliarden Euro Kosten

Für das Projekt veranschlagt die EU Kosten in Höhe von 10,6 Milliarden Euro. 6,5 Milliarden Euro will die EU dabei bereitstellen. Die restlichen vier Milliarden Euro soll die Industrie stemmen. Experten gehen ferner davon aus, dass der spätere Betrieb des Netzes mit jährlich rund einer Milliarde Euro zu Buche schlägt.

Konkurrenz für Starlink: EU sagt Musk mit IRIS2 den Kampf an​ Weiterlesen »

Nach oben scrollen
×