Computerhaus Quickborn

Allgemein

Zieht Trump den Deutschen den Stecker?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?quality=50&strip=all 3255w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Donald Trump könnte Deutschlands Abhängigkeit von US-Unternehmen wie Microsoft, Apple und Google dazu zu nutzen, um wirtschaftliche und politische Interessen durchzusetzen.Jonah Elkowitz/Shutterstock.com Der „Deal-Maker“ Donald Trump ist erst seit wenigen Wochen wieder im Amt. Und dennoch ist eines bereits sicher: Dass nichts sicher ist. Das gilt nicht nur für Grönland, Panama, Gaza oder die Ukraine, sondern auch für die hiesige IT-Welt. Neben Versprechen, 500 Milliarden Dollar in amerikanische KI-Projekte zu stecken, um Amerikas Vormachstellung auszubauen, lässt Trump auch anderweitig aufhorchen. Anstatt wie Joe Biden die amerikanische Chip-Produktion mit Subventionen anzukurbeln, droht Trump lieber mit Zöllen und Sanktionen. Man wolle das Chipgeschäft zurück in die USA holen, nachdem Taiwan es ihnen weggenommen hätte, ließ Trump im Weißen Haus verkünden. Andernfalls werde man nicht sehr glücklich sein. Man muss kein Trump-Kenner sein, um die unterschwellige Drohung zu verstehen.  Bereits während seiner ersten Amtszeit hatte Trump keine Probleme damit, US-Unternehmen spontan vorzuschreiben, wo sie einen Service anbieten dürfen – und wo nicht. Beispielsweise untersagte er Adobe, weiterhin in Venezuela aktiv zu sein. Letztlich machte Trump wie so oft eine Kehrtwende. Verlassen kann man sich darauf als deutsche Behörde oder Unternehmen allerdings nicht.  Digitale Abhängigkeit als Druckmittel  Selbst den letzten Zweiflern wird nun klar, dass Trump 2.0 keine Probleme damit haben dürfte, die globale Abhängigkeit von US-Unternehmen wie Microsoft, Apple und Google dazu zu nutzen, um wirtschaftliche und politische Interessen durchzusetzen. Will Dänemark Grönland nicht verkaufen, hilft es womöglich, wenn Microsoft über Nacht seine Cloud-Lösung in Dänemark deaktiviert. Dass Microsoft nur noch Cloud-Lösungen anbieten wird, macht dieses Druckmittel umso attraktiver.  Sich in Deutschland sicher zu wähnen, weil es hierzulande keine nennenswerten Bodenschätze gibt, wäre töricht. Nicht nur Elon Musk mischt sich derzeit gerne in die Angelegenheiten anderer Länder ein. Jemand, der sich den Gazastreifen aneignen möchte, um ihn in eine Touristenhochburg zu verwandeln, hat sicherlich auch keine Skrupel, die Verteidigungsausgaben der NATO-Mitgliedstaaten mit „ein wenig“ Druck zu erhöhen. Wer die fünf Prozent des Bruttoinlandsprodukts nicht berappen möchte, muss womöglich plötzlich auf Microsoft und Apple verzichten. Vielen deutschen Behörden und Unternehmen würde damit sprichwörtlich der Stecker gezogen, da kaum noch ein digitaler Arbeitsplatz funktionieren würde.  Immerhin hatte die Bundesregierung vor einigen Jahren die Einsicht, dass europäische Software-Lösungen, die auf Open Source basieren, deutlich mehr Sicherheit bieten als proprietäre Software-Angebote von amerikanischen IT-Riesen mit Monopolstatus. Infolgedessen wurde vor zwei Jahren zum Beispiel das Zentrum für Digitale Souveränität der Verwaltung (ZenDiS) gegründet. Ziel dieses „Kompetenz- und Servicezentrums“ ist die Stärkung der Digitalen Souveränität von Bund, Ländern und Kommunen. Mit openDesk steht seit der Smart Country Convention im Oktober 2024 mittlerweile auch eine „Office & Collaboration Suite” zur Verfügung, die eine sichere Alternative zu den Angeboten von Microsoft & Co darstellt. Denn dieser digitale Arbeitsplatz wurde von europäischen Open-Source-Spezialisten entwickelt – und die Kontrolle liegt beim ZenDiS, also einer GmbH des Bundes.  Problematisch ist jedoch, dass bislang noch zu wenige Behörden und Ämter von diesem Angebot Gebrauch machen. Trotz der neuen Möglichkeiten halten viele Bundesländer und Behörden an ihren bestehenden IT-Strukturen fest – zumindest noch. Hinzu kommt, dass die Investitionen in Open Source letztlich deutlich geringer ausfielen, als es im Koalitionsvertrag angekündigt worden war. Eigentlich hatte die Noch-Bundesregierung ihr Open-Source-Engagement um 37,5 Millionen Euro auf über 50 Millionen Euro aufstocken wollen, um die digitale Souveränität in Deutschland voranzutreiben. Doch obwohl selbst dieses Budget im Vergleich zu Trumps 500-Milliarden-KI-Subvention verschwindend gering ausgefallen wäre, flossen am Ende deutlich weniger Millionen.  Politischer Wille ist wichtig  Wie sich in Schleswig-Holstein zeigt, kann die Politik viel bewegen – wenn sie denn will. Mit der Unterstützung des schleswig-holsteinischen Digitalisierungsministers Dirk Schrödter wurde hier eine „Open Innovation und Open Source Strategie“ entwickelt, um technologische ebenso wie wirtschaftliche Abhängigkeiten zu minimieren. Bei der Umstrukturierung der Verwaltungs-IT ist man hier deshalb deutlich weiter als in anderen Teilen Deutschlands. Einige Bundesländer und Behörden haben nun bereits Interesse signalisiert, dem Beispiel Schleswig-Holsteins zu folgen. Dass Donald Trump wieder im Weißen Haus sitzt, dürfte dabei durchaus eine Rolle spielen. Ungewollt könnte Trump so zum Treiber der Digitalen Souveränität in Deutschland werden.  Wie es nun weitergeht, hängt stark von der nächsten Bundesregierung ab. Denn ohne politischen Willen und größere Geldtöpfe wird es zumindest flächendeckend keine Digitale Souveränität in Deutschland geben. Womöglich hilft es, wenn man sich in Berlin vergegenwärtigt, dass es deutlich billiger ist, in europäische Open-Source-Lösungen zu investieren, als weiterhin Milliarden für Softwarelizenzen auszugeben. Allein der Bund gibt in den nächsten fünf Jahren rund 6 Milliarden Euro für IT-Leistungen aus und zahlt für Lizenzen, die bereits 2025 auslaufen, rund 1,28 Milliarden Euro an Microsoft. Hinzu kommen weitere Unsummen der Bundesländer für Lizenzen und Abo-Gebühren. Im Vergleich zu diesen Milliardenbeträgen wäre die Förderung von Open-Source- Projekten und damit die digitale Unabhängigkeit Deutschlands zum Schnäppchen-Preis erhältlich.  

Zieht Trump den Deutschen den Stecker?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?quality=50&strip=all 3255w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Donald Trump könnte Deutschlands Abhängigkeit von US-Unternehmen wie Microsoft, Apple und Google dazu zu nutzen, um wirtschaftliche und politische Interessen durchzusetzen.Jonah Elkowitz/Shutterstock.com

Der „Deal-Maker“ Donald Trump ist erst seit wenigen Wochen wieder im Amt. Und dennoch ist eines bereits sicher: Dass nichts sicher ist. Das gilt nicht nur für Grönland, Panama, Gaza oder die Ukraine, sondern auch für die hiesige IT-Welt. Neben Versprechen, 500 Milliarden Dollar in amerikanische KI-Projekte zu stecken, um Amerikas Vormachstellung auszubauen, lässt Trump auch anderweitig aufhorchen. Anstatt wie Joe Biden die amerikanische Chip-Produktion mit Subventionen anzukurbeln, droht Trump lieber mit Zöllen und Sanktionen. Man wolle das Chipgeschäft zurück in die USA holen, nachdem Taiwan es ihnen weggenommen hätte, ließ Trump im Weißen Haus verkünden. Andernfalls werde man nicht sehr glücklich sein. Man muss kein Trump-Kenner sein, um die unterschwellige Drohung zu verstehen. 

Bereits während seiner ersten Amtszeit hatte Trump keine Probleme damit, US-Unternehmen spontan vorzuschreiben, wo sie einen Service anbieten dürfen – und wo nicht. Beispielsweise untersagte er Adobe, weiterhin in Venezuela aktiv zu sein. Letztlich machte Trump wie so oft eine Kehrtwende. Verlassen kann man sich darauf als deutsche Behörde oder Unternehmen allerdings nicht. 

Digitale Abhängigkeit als Druckmittel 

Selbst den letzten Zweiflern wird nun klar, dass Trump 2.0 keine Probleme damit haben dürfte, die globale Abhängigkeit von US-Unternehmen wie Microsoft, Apple und Google dazu zu nutzen, um wirtschaftliche und politische Interessen durchzusetzen. Will Dänemark Grönland nicht verkaufen, hilft es womöglich, wenn Microsoft über Nacht seine Cloud-Lösung in Dänemark deaktiviert. Dass Microsoft nur noch Cloud-Lösungen anbieten wird, macht dieses Druckmittel umso attraktiver. 

Sich in Deutschland sicher zu wähnen, weil es hierzulande keine nennenswerten Bodenschätze gibt, wäre töricht. Nicht nur Elon Musk mischt sich derzeit gerne in die Angelegenheiten anderer Länder ein. Jemand, der sich den Gazastreifen aneignen möchte, um ihn in eine Touristenhochburg zu verwandeln, hat sicherlich auch keine Skrupel, die Verteidigungsausgaben der NATO-Mitgliedstaaten mit „ein wenig“ Druck zu erhöhen. Wer die fünf Prozent des Bruttoinlandsprodukts nicht berappen möchte, muss womöglich plötzlich auf Microsoft und Apple verzichten. Vielen deutschen Behörden und Unternehmen würde damit sprichwörtlich der Stecker gezogen, da kaum noch ein digitaler Arbeitsplatz funktionieren würde. 

Immerhin hatte die Bundesregierung vor einigen Jahren die Einsicht, dass europäische Software-Lösungen, die auf Open Source basieren, deutlich mehr Sicherheit bieten als proprietäre Software-Angebote von amerikanischen IT-Riesen mit Monopolstatus. Infolgedessen wurde vor zwei Jahren zum Beispiel das Zentrum für Digitale Souveränität der Verwaltung (ZenDiS) gegründet. Ziel dieses „Kompetenz- und Servicezentrums“ ist die Stärkung der Digitalen Souveränität von Bund, Ländern und Kommunen. Mit openDesk steht seit der Smart Country Convention im Oktober 2024 mittlerweile auch eine „Office & Collaboration Suite” zur Verfügung, die eine sichere Alternative zu den Angeboten von Microsoft & Co darstellt. Denn dieser digitale Arbeitsplatz wurde von europäischen Open-Source-Spezialisten entwickelt – und die Kontrolle liegt beim ZenDiS, also einer GmbH des Bundes. 

Problematisch ist jedoch, dass bislang noch zu wenige Behörden und Ämter von diesem Angebot Gebrauch machen. Trotz der neuen Möglichkeiten halten viele Bundesländer und Behörden an ihren bestehenden IT-Strukturen fest – zumindest noch. Hinzu kommt, dass die Investitionen in Open Source letztlich deutlich geringer ausfielen, als es im Koalitionsvertrag angekündigt worden war. Eigentlich hatte die Noch-Bundesregierung ihr Open-Source-Engagement um 37,5 Millionen Euro auf über 50 Millionen Euro aufstocken wollen, um die digitale Souveränität in Deutschland voranzutreiben. Doch obwohl selbst dieses Budget im Vergleich zu Trumps 500-Milliarden-KI-Subvention verschwindend gering ausgefallen wäre, flossen am Ende deutlich weniger Millionen. 

Politischer Wille ist wichtig 

Wie sich in Schleswig-Holstein zeigt, kann die Politik viel bewegen – wenn sie denn will. Mit der Unterstützung des schleswig-holsteinischen Digitalisierungsministers Dirk Schrödter wurde hier eine „Open Innovation und Open Source Strategie“ entwickelt, um technologische ebenso wie wirtschaftliche Abhängigkeiten zu minimieren. Bei der Umstrukturierung der Verwaltungs-IT ist man hier deshalb deutlich weiter als in anderen Teilen Deutschlands. Einige Bundesländer und Behörden haben nun bereits Interesse signalisiert, dem Beispiel Schleswig-Holsteins zu folgen. Dass Donald Trump wieder im Weißen Haus sitzt, dürfte dabei durchaus eine Rolle spielen. Ungewollt könnte Trump so zum Treiber der Digitalen Souveränität in Deutschland werden. 

Wie es nun weitergeht, hängt stark von der nächsten Bundesregierung ab. Denn ohne politischen Willen und größere Geldtöpfe wird es zumindest flächendeckend keine Digitale Souveränität in Deutschland geben. Womöglich hilft es, wenn man sich in Berlin vergegenwärtigt, dass es deutlich billiger ist, in europäische Open-Source-Lösungen zu investieren, als weiterhin Milliarden für Softwarelizenzen auszugeben. Allein der Bund gibt in den nächsten fünf Jahren rund 6 Milliarden Euro für IT-Leistungen aus und zahlt für Lizenzen, die bereits 2025 auslaufen, rund 1,28 Milliarden Euro an Microsoft. Hinzu kommen weitere Unsummen der Bundesländer für Lizenzen und Abo-Gebühren. Im Vergleich zu diesen Milliardenbeträgen wäre die Förderung von Open-Source- Projekten und damit die digitale Unabhängigkeit Deutschlands zum Schnäppchen-Preis erhältlich. 

Zieht Trump den Deutschen den Stecker?​ Weiterlesen »

CIO des Jahres 2025 – Wettbewerb startet​

Allgemein

loading=”lazy” width=”400px”>Siegerinnen und Sieger des vergangenen Jahres jubeln über ihre CIO des Jahres Awards. Machen Sie mit und bewerben Sie sich – dann stehen Sie vielleicht im Oktober 2025 auf der großen Gala-Bühne und dürfen sich über die renommierteste IT-Auszeichnung Deutschlands freuen. cio.de / Tobias Tschepe Es ist wieder so weit: Der renommierteste IT-Award Deutschlands ist startklar. Bis zum 9. Mai 2025 laden wir CIOs, IT-Vorstände aber auch CISOs und Digital-Verantwortliche aus Unternehmen sowie Öffentlichen Einrichtungen in Bund, Ländern und Kommunen herzlich ein, sich mit spannenden IT-Projekten für den „CIO des Jahres 2025“ zu bewerben.  +++ Machen Sie mit beim CIO des Jahres Award 2025 +++   Wie immer küren wir die Gewinnerinnen und Gewinner in den Kategorien Großunternehmen, Mittelstand und Public Sector. Darüber hinaus vergibt die Jury wieder eine Reihe von Special Awards – unter anderem zu den Themen Artificial Intelligence, Customer Experience, Cloud Excellence und Sustainability.  Alle Preisträgerinnen und Preisträger sowie die Finalistinnen und Finalisten, die es unter die jeweiligen Top-5 geschafft haben, zeichnen wir im Rahmen unserer feierlichen Award-Gala am 16. Oktober 2025 in München aus.  Foundry Machen Sie also mit und bewerben Sie sich für den CIO des Jahres 2025. Wir freuen uns auf Ihre Teilnahme. Alle weiteren Informationen zum Wettbewerb und alle Unterlagen finden Sie ab sofort unter:  CIO des Jahres 2025 – jetzt bewerben! 

CIO des Jahres 2025 – Wettbewerb startet​ loading=”lazy” width=”400px”>Siegerinnen und Sieger des vergangenen Jahres jubeln über ihre CIO des Jahres Awards. Machen Sie mit und bewerben Sie sich – dann stehen Sie vielleicht im Oktober 2025 auf der großen Gala-Bühne und dürfen sich über die renommierteste IT-Auszeichnung Deutschlands freuen. cio.de / Tobias Tschepe

Es ist wieder so weit: Der renommierteste IT-Award Deutschlands ist startklar. Bis zum 9. Mai 2025 laden wir CIOs, IT-Vorstände aber auch CISOs und Digital-Verantwortliche aus Unternehmen sowie Öffentlichen Einrichtungen in Bund, Ländern und Kommunen herzlich ein, sich mit spannenden IT-Projekten für den „CIO des Jahres 2025“ zu bewerben. 

+++ Machen Sie mit beim CIO des Jahres Award 2025 +++  

Wie immer küren wir die Gewinnerinnen und Gewinner in den Kategorien Großunternehmen, Mittelstand und Public Sector. Darüber hinaus vergibt die Jury wieder eine Reihe von Special Awards – unter anderem zu den Themen Artificial Intelligence, Customer Experience, Cloud Excellence und Sustainability. 

Alle Preisträgerinnen und Preisträger sowie die Finalistinnen und Finalisten, die es unter die jeweiligen Top-5 geschafft haben, zeichnen wir im Rahmen unserer feierlichen Award-Gala am 16. Oktober 2025 in München aus. 

Foundry

Machen Sie also mit und bewerben Sie sich für den CIO des Jahres 2025. Wir freuen uns auf Ihre Teilnahme. Alle weiteren Informationen zum Wettbewerb und alle Unterlagen finden Sie ab sofort unter: 

CIO des Jahres 2025 – jetzt bewerben!

CIO des Jahres 2025 – Wettbewerb startet​ Weiterlesen »

So funktioniert achtsame Führung​

Allgemein

Achtsame Führungskräfte, die in ihrem Team großen Wert auf Kommunikation und zwischenmenschliche Beziehungen legen, erhöhen die Leistungsbereitschaft und stärken den Zusammenhalt sowie die Bindung ans Unternehmen. Butsaya – shutterstock.com Viele Branchen durchlaufen gerade einen massiven Umbruch. Sie passen sich organisatorisch an, führen moderne Technologien ein und entwickeln neue Geschäftsmodelle. Damit einher geht eine grundlegend veränderte Arbeitswelt und ein Umdenken in der Unternehmenskultur. Mitten in dieser Transformation befinden sich Führungskräfte. Sie sind Betroffene des Wandels und nehmen zugleich eine entscheidende Rolle als Vorbild und Multiplikator ein. Eine Belastung, die durch ständig zunehmende Rollen, Aufgaben, Erwartungen und Verantwortungen noch verstärkt wird. Besonders Frauen in Führungspositionen fühlen sich dauergestresst und erschöpft.  Ein Mittel dagegen kann Achtsamkeit sein, dessen Wirksamkeit längst vielseitig belegt ist. Besonders positive Effekte zeigen sich auf die Gesundheit und das allgemeine Wohlbefinden. So gelten bewusste Atemübungen und Mikropausen, achtsamkeitsbasierte Interventionen und angeleitete Meditationen als hilfreich, um die Selbstregulation zu stärken und gelassener mit Veränderungen oder Belastungen umzugehen. Gleichzeitig erhöhen solche Methoden die Gedächtnisleistung, die Kreativität, die Verhandlungs- und Problemlösungsfähigkeit.  Die mentale Gesundheit stärken „Diese Effekte sollten sich Unternehmen zunutze machen, um die mentale Gesundheit ihrer Beschäftigten zu stärken. Denn wer sich an seinem Arbeitsplatz wohlfühlt, ist zufriedener, meldet sich seltener krank und fühlt sich dem Arbeitgeber stärker verbunden“, sagt Sarah Lange, Managerin im Bereich People & Culture bei der IT- und Managementberatung MHP. Gemeinsam mit ihrem Team unterstützt sie Kunden mit einer ganzen Reihe an Angeboten dabei, mehr Achtsamkeit in den Arbeitsalltag zu bringen und das Thema in Transformationsprojekten oben auf die Agenda zu setzen.  Was passiert, wenn Achtsamkeit praktiziert wird, erforschte die Personalerin in ihrer Dissertation am Lehrstuhl für Personalentwicklung und Veränderungsmanagement. Ein Ergebnis: Führungskräfte, die im Umgang mit sich selbst und ihren Mitarbeitenden achtsam sind, haben ein reguliertes Stresslevel, was wiederum zu mehr Fokus, besseren Entscheidungen und weniger Fehlern führt. Außerdem agieren sie weniger destruktiv und gleichzeitig transformationaler.  Ein transformationaler Führungsstil zeichnet sich durch die Funktion von Führungskräften als Vorbild aus. Indem Vorgesetzte ihr Team inspirieren, intrinsisch motivieren, die individuellen Stärken fördern und hohen Wert auf Kommunikation und zwischenmenschliche Beziehungen legen, erhöhen sie die Leistungs- und Lernbereitschaft und stärken den Zusammenhalt sowie die Bindung ans Unternehmen.   „Führungsstil und -verhalten können in Zeiten, in denen viele Change-Projekte scheitern oder nicht nachhaltig wirken, einen echten Unterschied machen“, meint Lange. Denn Führungskräfte seien maßgeblich beteiligt, Veränderung zu gestalten, und aufgefordert, in unruhigen Phasen eine Balance zwischen Druck und Unterstützung zu finden.  Erst in Präsenz, dann per App Achtsamkeit kann helfen, die richtige Balance zu finden. Das bedeutet, die Aufmerksamkeit bewusst auf den gegenwärtigen Moment zu lenken, das eigene Verhalten und das des Gegenübers wahrzunehmen und zu reflektieren. Damit einher geht eine Haltung der Offenheit, Akzeptanz, Geduld und des Mitgefühls. Doch wie kommt man als Führungskraft dahin? Zum Beispiel mit Mindful Leadership Trainings.   Klassische Bestandteile dieser Trainings sind Elemente aus dem lösungsorientierten systemischen Coaching. Oft geht es um konkrete Situationen im Arbeitsumfeld:   Wie reguliert man im Konflikt seine Emotionen?   Wie behält man unter Druck einen kühlen Kopf? Wie erkennt man Überlastungssignale bei sich selbst und im Team?   Wie geht man mit Angst vor Veränderung um?   In der Beratungspraxis erlebe sie, so Lange, dass solche Trainings nicht nur das Führungsverhalten der Teilnehmenden enorm verbessern, sondern sich auch der Gemütszustand verändere. In der Folge fühle sich auch das Team wohler und gelassener. Verstärkt werden die Ergebnisse aus den Präsenztrainings, wenn Achtsamkeitsübungen per App weiterverfolgt werden.  Neben den achtsamkeitsbasierten Trainings- und Coaching-Ansätzen eignen sich spezielle Schulungsprogramme, um einen gesunden Umgang mit permanenter Veränderung sowie das Selbstwirksamkeitsempfinden zu fördern. Das Fundament solcher Maßnahmen ist häufig die Arbeit mit Werten und die Ausrichtung auf die Sinnhaftigkeit der Veränderung, den Einfluss und Wirkungskreis jeder einzelnen Person sowie die Stärkung des Zusammengehörigkeitsgefühls durch die gemeinsame Erarbeitung von Transformationsvisionen.   In Transformationscoachings sollen Organisationen herausfinden, was ihre Werte und Ziele sind und was sie brauchen, um Ziele zu erreichen. Die erarbeitete Vision wird Top-down von der Geschäftsleitung auf die unterschiedlichen Führungsebenen und dann auf die einzelnen Teams ausgerollt. So werden bei der gemeinsamen Arbeit an Zielbildern und Transformationsstrategien alle einbezogen. Geachtet werden sollte stets auf die psychologische Sicherheit, das Kompetenzgefühl im Team, einen achtsamen Umgang miteinander durch eine achtsame Kommunikation und ein wohlwollendes Mindset. Anschließend erfolgt die Implementierung ins Unternehmen.  Neue Rituale etablieren Es geht aber auch unterschwelliger: So helfen sogenannte Body Scans mit einzelnen Körperteilen, wieder stärker ins Fühlen und in Verbindung mit sich selbst zu kommen. Die Aufmerksamkeit wird dabei auf ein positives Gefühl eines bestimmten Moments gelenkt, das dann näher beschrieben wird: Wo genau sitzt das Gefühl? Wenn es eine Farbe oder ein Klang wäre, wie würde es aussehen oder sich anhören?   Allein durch das Verweilen bei Körperempfindungen, Gedanken und Gefühlen entsteht Achtsamkeit. Die Angebote können aber auch dazu genutzt werden, um Ziele zu manifestieren und Bilder im Kopf zu erzeugen, sowie um negative Gefühle zu bearbeiten. Im Anschluss hilft eine Defusionsübung aus der Akzeptanz- und Commitment-Therapie, diese Gefühle wieder loszulassen.  Eine weitere Möglichkeit, um Achtsamkeit in den Arbeitsalltag zu integrieren: Communities zu bilden, in denen das Thema achtsame Kommunikation behandelt und geübt wird. Hier schafft man zunächst einen angenehmen und geschützten Raum, in dem man sich offen und persönlich austauscht. Allein dieser Austausch bewirkt, dass Achtsamkeit angenommen und damit entstigmatisiert wird.  „Ich empfehle in und um Meetings herum neue Rituale wie Check-ins und Check-outs mit Bildkarten, Energiebarometer, kurze Meditationen und die „stille Stunde“ zu implementieren“, sagt Lange. „Speziell in Konfliktsituationen können Führungskräfte mit systemischen Fragen arbeiten, um einen Perspektivwechsel zu bewirken, und wohlwollende Hypothesen nutzen, um Empathie füreinander zu erzeugen.“ Mit diesem Blumenstrauß an Tools, wird Achtsamkeit tatsächlich zum Erfolgsfaktor.  

So funktioniert achtsame Führung​ Achtsame Führungskräfte, die in ihrem Team großen Wert auf Kommunikation und zwischenmenschliche Beziehungen legen, erhöhen die Leistungsbereitschaft und stärken den Zusammenhalt sowie die Bindung ans Unternehmen. Butsaya – shutterstock.com

Viele Branchen durchlaufen gerade einen massiven Umbruch. Sie passen sich organisatorisch an, führen moderne Technologien ein und entwickeln neue Geschäftsmodelle. Damit einher geht eine grundlegend veränderte Arbeitswelt und ein Umdenken in der Unternehmenskultur. Mitten in dieser Transformation befinden sich Führungskräfte. Sie sind Betroffene des Wandels und nehmen zugleich eine entscheidende Rolle als Vorbild und Multiplikator ein. Eine Belastung, die durch ständig zunehmende Rollen, Aufgaben, Erwartungen und Verantwortungen noch verstärkt wird. Besonders Frauen in Führungspositionen fühlen sich dauergestresst und erschöpft. 

Ein Mittel dagegen kann Achtsamkeit sein, dessen Wirksamkeit längst vielseitig belegt ist. Besonders positive Effekte zeigen sich auf die Gesundheit und das allgemeine Wohlbefinden. So gelten bewusste Atemübungen und Mikropausen, achtsamkeitsbasierte Interventionen und angeleitete Meditationen als hilfreich, um die Selbstregulation zu stärken und gelassener mit Veränderungen oder Belastungen umzugehen. Gleichzeitig erhöhen solche Methoden die Gedächtnisleistung, die Kreativität, die Verhandlungs- und Problemlösungsfähigkeit. 

Die mentale Gesundheit stärken

„Diese Effekte sollten sich Unternehmen zunutze machen, um die mentale Gesundheit ihrer Beschäftigten zu stärken. Denn wer sich an seinem Arbeitsplatz wohlfühlt, ist zufriedener, meldet sich seltener krank und fühlt sich dem Arbeitgeber stärker verbunden“, sagt Sarah Lange, Managerin im Bereich People & Culture bei der IT- und Managementberatung MHP. Gemeinsam mit ihrem Team unterstützt sie Kunden mit einer ganzen Reihe an Angeboten dabei, mehr Achtsamkeit in den Arbeitsalltag zu bringen und das Thema in Transformationsprojekten oben auf die Agenda zu setzen. 

Was passiert, wenn Achtsamkeit praktiziert wird, erforschte die Personalerin in ihrer Dissertation am Lehrstuhl für Personalentwicklung und Veränderungsmanagement. Ein Ergebnis: Führungskräfte, die im Umgang mit sich selbst und ihren Mitarbeitenden achtsam sind, haben ein reguliertes Stresslevel, was wiederum zu mehr Fokus, besseren Entscheidungen und weniger Fehlern führt. Außerdem agieren sie weniger destruktiv und gleichzeitig transformationaler. 

Ein transformationaler Führungsstil zeichnet sich durch die Funktion von Führungskräften als Vorbild aus. Indem Vorgesetzte ihr Team inspirieren, intrinsisch motivieren, die individuellen Stärken fördern und hohen Wert auf Kommunikation und zwischenmenschliche Beziehungen legen, erhöhen sie die Leistungs- und Lernbereitschaft und stärken den Zusammenhalt sowie die Bindung ans Unternehmen.  

„Führungsstil und -verhalten können in Zeiten, in denen viele Change-Projekte scheitern oder nicht nachhaltig wirken, einen echten Unterschied machen“, meint Lange. Denn Führungskräfte seien maßgeblich beteiligt, Veränderung zu gestalten, und aufgefordert, in unruhigen Phasen eine Balance zwischen Druck und Unterstützung zu finden. 

Erst in Präsenz, dann per App

Achtsamkeit kann helfen, die richtige Balance zu finden. Das bedeutet, die Aufmerksamkeit bewusst auf den gegenwärtigen Moment zu lenken, das eigene Verhalten und das des Gegenübers wahrzunehmen und zu reflektieren. Damit einher geht eine Haltung der Offenheit, Akzeptanz, Geduld und des Mitgefühls. Doch wie kommt man als Führungskraft dahin? Zum Beispiel mit Mindful Leadership Trainings.  

Klassische Bestandteile dieser Trainings sind Elemente aus dem lösungsorientierten systemischen Coaching. Oft geht es um konkrete Situationen im Arbeitsumfeld:  

Wie reguliert man im Konflikt seine Emotionen?  

Wie behält man unter Druck einen kühlen Kopf?

Wie erkennt man Überlastungssignale bei sich selbst und im Team?  

Wie geht man mit Angst vor Veränderung um?  

In der Beratungspraxis erlebe sie, so Lange, dass solche Trainings nicht nur das Führungsverhalten der Teilnehmenden enorm verbessern, sondern sich auch der Gemütszustand verändere. In der Folge fühle sich auch das Team wohler und gelassener. Verstärkt werden die Ergebnisse aus den Präsenztrainings, wenn Achtsamkeitsübungen per App weiterverfolgt werden. 

Neben den achtsamkeitsbasierten Trainings- und Coaching-Ansätzen eignen sich spezielle Schulungsprogramme, um einen gesunden Umgang mit permanenter Veränderung sowie das Selbstwirksamkeitsempfinden zu fördern. Das Fundament solcher Maßnahmen ist häufig die Arbeit mit Werten und die Ausrichtung auf die Sinnhaftigkeit der Veränderung, den Einfluss und Wirkungskreis jeder einzelnen Person sowie die Stärkung des Zusammengehörigkeitsgefühls durch die gemeinsame Erarbeitung von Transformationsvisionen.  

In Transformationscoachings sollen Organisationen herausfinden, was ihre Werte und Ziele sind und was sie brauchen, um Ziele zu erreichen. Die erarbeitete Vision wird Top-down von der Geschäftsleitung auf die unterschiedlichen Führungsebenen und dann auf die einzelnen Teams ausgerollt. So werden bei der gemeinsamen Arbeit an Zielbildern und Transformationsstrategien alle einbezogen. Geachtet werden sollte stets auf die psychologische Sicherheit, das Kompetenzgefühl im Team, einen achtsamen Umgang miteinander durch eine achtsame Kommunikation und ein wohlwollendes Mindset. Anschließend erfolgt die Implementierung ins Unternehmen. 

Neue Rituale etablieren

Es geht aber auch unterschwelliger: So helfen sogenannte Body Scans mit einzelnen Körperteilen, wieder stärker ins Fühlen und in Verbindung mit sich selbst zu kommen. Die Aufmerksamkeit wird dabei auf ein positives Gefühl eines bestimmten Moments gelenkt, das dann näher beschrieben wird: Wo genau sitzt das Gefühl? Wenn es eine Farbe oder ein Klang wäre, wie würde es aussehen oder sich anhören?  

Allein durch das Verweilen bei Körperempfindungen, Gedanken und Gefühlen entsteht Achtsamkeit. Die Angebote können aber auch dazu genutzt werden, um Ziele zu manifestieren und Bilder im Kopf zu erzeugen, sowie um negative Gefühle zu bearbeiten. Im Anschluss hilft eine Defusionsübung aus der Akzeptanz- und Commitment-Therapie, diese Gefühle wieder loszulassen. 

Eine weitere Möglichkeit, um Achtsamkeit in den Arbeitsalltag zu integrieren: Communities zu bilden, in denen das Thema achtsame Kommunikation behandelt und geübt wird. Hier schafft man zunächst einen angenehmen und geschützten Raum, in dem man sich offen und persönlich austauscht. Allein dieser Austausch bewirkt, dass Achtsamkeit angenommen und damit entstigmatisiert wird. 

„Ich empfehle in und um Meetings herum neue Rituale wie Check-ins und Check-outs mit Bildkarten, Energiebarometer, kurze Meditationen und die „stille Stunde“ zu implementieren“, sagt Lange. „Speziell in Konfliktsituationen können Führungskräfte mit systemischen Fragen arbeiten, um einen Perspektivwechsel zu bewirken, und wohlwollende Hypothesen nutzen, um Empathie füreinander zu erzeugen.“ Mit diesem Blumenstrauß an Tools, wird Achtsamkeit tatsächlich zum Erfolgsfaktor. 

So funktioniert achtsame Führung​ Weiterlesen »

Cyber-Sicherheit 2025: Experten berichten aus der Praxis​

Allgemein

Cyber-Bedrohungen bleiben eines der größten Sicherheitsrisken für Unternehmen in der DACH-Region. Im Jahr 2024 verzeichneten sie laut dem aktuellen Global Security Research Report von Fastly durchschnittlich 41 Sicherheitsvorfälle und benötigten nahezu 6,5 Monate, um sich davon wieder zu erholen. Angesichts der Bedrohungslage ist unbestritten, dass Firmen weiterhin in ihre IT-Sicherheit investieren. 62 Prozent von ihnen verstehen die Investitionen in die Cybersicherheit auch als eine Maßnahme, mit der sie die Umsatz- und Wachstumsziele ihres Unternehmens unterstützen. Zugleich geben aber auch nahezu drei Viertel der Befragten an, dass sie ihre Sicherheitslösungen aufgrund knapper Budgets konsolidieren wollen. Wie können sich Firmen in dieser Lage optimal auf aktuelle und zukünftige Cyber-Bedrohungen vorbereiten? Welche Investitionen in IT-Sicherheit sind sinnvoll, welche Geldverschwendung? Mit diesen Fragen beschäftigt sich ein COMPUTERWOCHE Webcast in Zusammenarbeit mit Fastly. Sie erhalten Einblicke in die zentralen Ergebnisse des Global Security Research Report von Fastly, für den weltweit 1.800 IT-Professionals befragt wurden und erfahren, auf welche Cyberbedrohungen Sie sich im Jahr 2025 und darüber hinaus einstellen müssen. Der Webcast zeigt außerdem auf,  wie Security-Experten in der Praxis arbeiten und wie Unternehmen darauf basierend ihre Cyber-Sicherheitsstrategie erfolgreich weiterentwickeln können. Der Fachjournalist Dr. Thomas Hafen wird den Webcast moderieren. Registrieren Sie sich jetzt 

Cyber-Sicherheit 2025: Experten berichten aus der Praxis​ Cyber-Bedrohungen bleiben eines der größten Sicherheitsrisken für Unternehmen in der DACH-Region. Im Jahr 2024 verzeichneten sie laut dem aktuellen Global Security Research Report von Fastly durchschnittlich 41 Sicherheitsvorfälle und benötigten nahezu 6,5 Monate, um sich davon wieder zu erholen.

Angesichts der Bedrohungslage ist unbestritten, dass Firmen weiterhin in ihre IT-Sicherheit investieren. 62 Prozent von ihnen verstehen die Investitionen in die Cybersicherheit auch als eine Maßnahme, mit der sie die Umsatz- und Wachstumsziele ihres Unternehmens unterstützen. Zugleich geben aber auch nahezu drei Viertel der Befragten an, dass sie ihre Sicherheitslösungen aufgrund knapper Budgets konsolidieren wollen. Wie können sich Firmen in dieser Lage optimal auf aktuelle und zukünftige Cyber-Bedrohungen vorbereiten? Welche Investitionen in IT-Sicherheit sind sinnvoll, welche Geldverschwendung?

Mit diesen Fragen beschäftigt sich ein COMPUTERWOCHE Webcast in Zusammenarbeit mit Fastly. Sie erhalten Einblicke in die zentralen Ergebnisse des Global Security Research Report von Fastly, für den weltweit 1.800 IT-Professionals befragt wurden und erfahren, auf welche Cyberbedrohungen Sie sich im Jahr 2025 und darüber hinaus einstellen müssen. Der Webcast zeigt außerdem auf,  wie Security-Experten in der Praxis arbeiten und wie Unternehmen darauf basierend ihre Cyber-Sicherheitsstrategie erfolgreich weiterentwickeln können. Der Fachjournalist Dr. Thomas Hafen wird den Webcast moderieren.

Registrieren Sie sich jetzt

Cyber-Sicherheit 2025: Experten berichten aus der Praxis​ Weiterlesen »

Die besten JavaScript-Frameworks im Vergleich​

Allgemein

Ein (passendes) JavaScript-Framework auszuwählen, ist ein bisschen wie Schuhe kaufen: Mit Blick auf das Gesamtangebot gibt es alles, was sich Softwareentwickler wünschen – nur nicht kombiniert in einem Modell. Foto: RossHelen | shutterstock.com Den (richtigen) Technologie-Stack auszuwählen, ist eine der diffizilsten Herausforderungen in Sachen Softwareentwicklung: Ohne Framework kein Development – allerdings zeigen sich die wahren Stärken und Schwächen eines Rahmenwerks erst in der Praxis. Für Developer eine Zwickmühle, aus der auch Prototyping nur bedingt befreien kann. Schließlich besteht die allgemeine Tendenz dazu, Technologien zu vertrauen, die sich in der Vergangenheit bewährt haben. So können allerdings auch innovative Entwicklungen durch die Lappen gehen. Das ist speziell mit Blick auf den Bereich der JavaScript-Frameworks wahrscheinlich, da deren Entwicklung besonders rasant voranschreitet. Dass qualitativ hochwertige Rahmenwerke im Überfluß zur Verfügung stehen, macht die Sache nicht besser. In diesem Artikel werfen wir einen Blick auf die führenden JavaScript-(Frontend-)Frameworks und vergleichen diese auf Feature-Ebene miteinander. Folgende Frameworks werden dabei behandelt: React Vue Angular Preact Lit Svelte AlpineJS SolidJS HTMX Qwik Es gibt diverse Möglichkeiten, sich der Entscheidung über ein JavaScript-Frontend-Framework anzunähern. Ein Faktor, den Sie dabei fokussieren sollten, ist Vertrautheit: Wenn Sie und Ihr Team mit einer bestimmten Technologie wirklich vertraut sind, sollten gute Gründe vorliegen, um davon abzuweichen. Diesbezüglich könnten folgende Fragen relevant sein: Entspricht die Technologie nicht mehr den Anforderungen des Projekts? Besteht die Gefahr, dass das von Ihnen verwendete Framework eingestellt wird? Sind interessante Funktionalitäten nicht existent? Wenn Sie alle Fragen mit ‘nein’ beantworten können, sollten Sie sich lieber zweimal überlegen, auf ein neues Framework umzusteigen. Dennoch ist es allgemein von Vorteil, neuen Frameworks offen gegenüberzustehen, die projektspezifische Benefits in den Bereichen Developer Experience, Performance oder Community Support realisieren können. Dazu kommt, dass JavaScript und speziell Frontend-Frameworks miteinander interagieren und sich gegenseitig stark beeinflussen. Sich mit einem Rahmenwerk zu befassen, kann deswegen oft zu synergetischen Insights führen. Anders ausgedrückt: Ein Frontend-Framework-Deepdive kann niemals schaden. Die 10 wichtigsten JavaScript-Frameworks Um einen Überblick über die führenden reaktiven Frameworks zu bekommen, werfen wir einen Blick auf die populärsten Abkömmlinge. Diese haben wir auf Grundlage ihrer jeweiligen Download-Zahlen auf dem Open Source Repository NPM ermittelt. Ein Klick auf den Link führt Sie zur jeweiligen NPM-Download-Seite inklusive der aktuellen Statistiken. React Vue / Vue 3 Angular (CLI) Preact Lit Svelte AlpineJS SolidJS HTMX Qwik Obwohl Popularität kein besonders guter Indikator für Qualität ist, sagt sie doch viel darüber aus, wie es um die Verfügbarkeit von Developern steht, die mit dem Framework arbeiten können. Das könnte speziell für größere Teams und Projekte einen entscheidenden Faktor darstellen. Zu beachten ist mit Blick auf die Top Ten, dass es sich bei allen “Kandidaten” um reine Frontend-Frameworks handelt. Einige dieser Projekte beinhalten auch ein Fullstack-Framework – etwa Next oder SvelteKit, was Backend-Funktionalitäten wie Server-seitiges Rendering ermöglicht. Das ist für einige Teams und Projekte unter Umständen ein weiterer bedeutender Auswahlfaktor in Sachen JavaScript-Framework. Im Folgenden ein detaillierter Blick auf die führenden reaktiven Frameworks. Ein Klick auf die Verlinkung im Titel führt Sie direkt zum jeweiligen GitHub Repository beziehungsweise der Projekt-Webseite. React Das Flaggschiff der reaktiven Frameworks ist im Jahr 2013 bei Facebook respektive Meta entstanden und wird bis heute vom Social-Media-Konzern verwaltet. Wie auch die Download-Zahlen von React zeigen, ist das Framework mit großem Abstand das populärste der hier vorgestellten – und quasi die Standardwahl unter den Frontend-Rahmenwerken. Trotz seines Alters wurde React kontinuierlich von Meta auf dem aktuellen Stand gehalten. Dabei könnte auch eine Rolle spielen, dass Facebook immer noch auf dem Framework aufbaut. Das größte Argument gegen React: sein gewaltiger Umfang. Das kann den Einsatz beschwerlich gestalten, insbesondere wenn Sie an einem Projekt arbeiten, für das die meisten React-Features erst gar nicht nötig sind. Einige der nachfolgenden JavaScript-Frameworks sind nicht nur leichtgewichtiger, sondern bieten auch andere Ansätze. Vue Auch bei Vue handelt es sich um ein ausgereiftes Framework, das in Sachen Support gut aufgestellt ist. Im Vergleich zu React ist Vue deutlich leichtgewichtiger und schneidet auch bei Performance-Tests besser ab. Vue steht in erster Linie im Ruf, eine moderate Lernkurve aufzuwerfen. Darüber hinaus kann das Framework mit einer ausgezeichneten Dokumentation und einer offenherzigen Community punkten. Einige Entwickler bevorzugen Vue auch wegen seines ausgeprägten Fokus auf die Developer Experience. Wenn Sie und Ihr Team gerne mit Vue arbeiten, kann das Framework langfristig dazu beitragen, die Benutzerfreundlichkeit und Mitarbeiterzufriedenheit zu erhöhen. Von den “Big Three” unter den JavaScript-Frontend-Frameworks (React, Angular und Vue) ist Vue das basisorientierteste, was seinen Reiz haben kann. Angular Von allen hier gelisteten Frameworks bietet Angular die wohl ausgeprägteste All-in-One-Entwicklungserfahrung. Das Framework ist als durchgängige Lösung konzipiert, die verspricht, alles nötige in einem konsistenten Paket zu liefern. In der Vergangenheit galt Angular vor allem als komplex – sowohl in der Theorie als auch in der Praxis. Zudem war ein Hauch von Overengineering bei Angular zu verspüren – eine Entwicklung die in erster Linie dem Design geschuldet war. Das hat sich inzwischen allerdings grundlegend geändert: Die Entwickler hinter dem Projekt haben das Framework (mit Version 17) in diversen Aspekten simplifiziert und die Entwicklererfahrung optimiert – zudem steht nun auch eine effektive Rendering-Engine für Server-seitige Tasks zur Verfügung. Darüber hinaus wurden auch die Dokumentation und die offizielle Webseite modernisiert. Ein wesentlicher Unterschied zu React und Vue: Angular ist eher “rechthaberisch” – für die meisten Dinge gibt es klar definierte Vorgaben. Das kann es erschweren, mit Angular Applikationen anzupassen oder unkonventionelle Wege zu gehen. Ob das von Vor- oder von Nachteil ist, hängt im Wesentlichen von Ihrem persönlichen Programmierstil ab. Preact Die Nomenklatur deutet es bereits an: Bei Preact handelt es sich um ein von React inspiriertes Framework – quasi eine abgespeckte Version desselbigen mit ähnlichen aber kleineren APIs. Einer der wesentlichen Unterschiede besteht dabei darin, dass Preact kein eigenes Eventing-System implementiert. Stattdessen nutzt es die in den Browser integrierten Event Listener. Im Vergleich mit React entwickeln Sie mit Preact schneller und schlanker – dafür müssen Sie auf einige Funktionalitäten des “Originals” verzichten. Sie können Preact allerdings mit einem zusätzlichen Layer ausstatten und so nahezu vollständige React-Kompatibilität erreichen. Diverse Komponenten aus dem React-Ökosystem funktionieren dann auch mit Preact. Wenn Sie auf kleinere APIs Wert legen, sich dabei aber weitgehend im React-Ökosystem bewegen möchten, ist dieses reaktive Framework möglicherweise eine gute Wahl. Lit Das Alleinstellungsmerkmal von Lit: Es nutzt den Web-Components-Standard als Grundlage. Das hat zur Folge, dass die API und das Bundle selbst sehr klein sind. Der Fokus liegt darauf, die integrierten Web Components zu unterstützen. Darüber hinaus fußt Lit auf einer minimalistischen Entwicklungsphilosophie, die Ihnen maximale Flexibilität ermöglicht: Es gibt nur wenige festgeschriebene Wege, um Dinge mit Lit zu erledigen. Das Framework weist – gemessen an seiner Größe und Popularität – ein sehr umfangreiches Ökosystem auf. Svelte Dieses reaktive Framework zeichnet sich in erster Linie dadurch aus, dass es einen Compiler zum Einsatz bringt. Der transformiert die Svelte-Syntax in ein kleines und performantes JavaScript-Bundle. Das ermöglicht dem Framework, einige Optimierungen bereits im Vorfeld vorzunehmen – und mit interessanten Syntax-Elementen zu experimentieren. Mit Blick auf die “Big Three” ist Svelte am ehesten mit Vue vergleichbar, weil es sich gut für unabhängige Experimente eignet. Die Dokumentation von Vue ist gut ausgestaltet und das Framework erfreut sich in der Open-Source-Community wachsender Beliebtheit. AlpineJS Von allen hier vorgestellten Frameworks ist AlpineJS das utilitaristischste. Es bietet eine kompakte Reactive-Bibliothek – das war’s. Trotz seines überschaubaren Footprints steckt in diesem reaktiven Framework jedoch eine ganze Menge Power. Wie HTMX (dazu später) will auch AlpineJS Komplexität beseitigen, dabei jedoch die Grundlagen moderner Frontend-Funktionalität gewährleisten. Um diese Funktionalität “auf die Straße zu bringen”, nutzt das JavaScript-Framework spezielle HTML-Eigenschaften. SolidJS Im Vergleich zu den anderen hier gelisteten JavaScript-Frontend-Frameworks ist Solid ein Vertreter der jüngeren Generation. Nichtsdestotrotz konnte SolidJS bereits (im positiven Sinn) für Furore sorgen und erfreut sich einer wachsenden Nutzerbasis. Das Framework fußt auf Signals (Reactive Primitives), die ihm eine flexible Grundlage verschaffen. Um die Funktionalität zu erweitern, können sowohl das Framework selbst als auch der Anwender-Code auf dieselben Features zugreifen. In Sachen Performance-Tests schneidet SolidJS gut ab. HTMX Einen völlig anderen Ansatz, um Web-Frontends zu entwickeln, wirft HTMX auf: Es versucht, so viel Komplexität wie möglich zu eliminieren, REST wie beabsichtigt einzusetzen und “reines” HTML (mit einigen grundlegenden Verbesserungen) zu nutzen, um modernen Anforderungen wie AJAX- und DOM-Interaktionen gerecht zu werden. HTMX kann eine lohnende Option sein, wenn Sie auf Dinge wie Server-seitiges Rendering verzichten können. Einer der größten Pluspunkte des Frameworks: Es ist relativ einfach zu erlernen. Wir können nur empfehlen, sich zumindest mit diesem Projekt zu beschäftigen – und sei es nur wegen der zugrundeliegenden Idee. Qwik Unter der Haube ist Qwik eine exotische Implementierung, die die Performance in den Mittelpunkt rückt. Das Framework zerlegt Applikationen in unterscheidbare Elemente und orientiert sich dabei an “Grenzen” wie Eventing oder Komponenten – entlang derer aggressives Lazy Loading zum Einsatz kommt. Das Ergebnis: schnelleres Rendering. Reactive Frameworks im (Feature-)Vergleich Nachdem Sie die zehn wichtigsten Reactive-Framework-Optionen kennengelernt haben, geht es nun darum, die wichtigsten Funktionen und Merkmale miteinander zu vergleichen. Zunächst haben wir die reaktiven Rahmenwerke noch einmal in einer Übersicht zusammengetragen, die auf einen Blick Auskunft über die jeweiligen Lernkurven und Funktions-Highlights gibt. FrameworkLernkurveHighlightsReactmoderat bis steilkonservativste Option; riesiges Ökosystem und Community; Balance zwischen Innovation und Stabilität;Vuemoderatleicht zu erlernen und einzusetzen; ein etabliertes Framework das weniger “corporate” ist;Angularsteilein robustes Framework für große Projekte; Enterprise-orientiert; integrierter All-in-One-Ansatz;PreactmoderatReact-ähnlich mit schnelleren Ladezeiten; insbesondere für Mobile Development empfehlenswert;Litmoderatleichtgewichtig und performant mit Fokus auf Standards; leichter mit beispielsweise HTML kombinierbar; Sveltemoderatkleinerer Memory-Footprint; fokussiert die Entwicklererfahrung und Innovationen;Alpineflachleichtgewichtiges Toolset; einfach zu erlernen und beherrschen; gut geeignet für kleinere bis mittelgroße Projekte;SolidJSmoderat bis steilreaktiver Kern auf Signals-Basis; Performance-orientiert;HTMXflacheinfach zu erlernen und zu integrieren; einzigartige, vereinfachte REST-Architektur;Qwiksteilinnovativ und Performance-orientiert; integriert mit builder.io; Wenn Sie nun Wert auf ganz spezielle Funktionen legen, bringt Ihnen diese Tabelle natürlich wenig. Deswegen haben wir auch noch einen umfangreichen Feature-Vergleich der gelisteten JavaScript-Frontend-Frameworks für Sie erstellt. Diesen können Sie auch direkt über GitHub als PDF-Datei herunterladen (inklusive klickbarer Links). Die zehn wichtigsten JavaScript-Frameworks im Feature-Vergleich. Foto: Matthew Tyson | IDG Playgrounds Um sich einen schnellen ersten Eindruck von einem Framework zu verschaffen, empfiehlt sich, es in einem Online-REPL respektive Playground zu testen. Dazu ist kein Tooling-Setup erforderlich – ein Webbrowser reicht, um mit der Syntax experimentieren zu können. Sämtliche hier vorgestellten Frameworks können das bieten. React hostet zwar keine eigenen REPLs, diese Lücke wird jedoch von Drittanbietern geschlossen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten JavaScript-Frameworks im Vergleich​ Ein (passendes) JavaScript-Framework auszuwählen, ist ein bisschen wie Schuhe kaufen: Mit Blick auf das Gesamtangebot gibt es alles, was sich Softwareentwickler wünschen – nur nicht kombiniert in einem Modell.
Foto: RossHelen | shutterstock.com

Den (richtigen) Technologie-Stack auszuwählen, ist eine der diffizilsten Herausforderungen in Sachen Softwareentwicklung: Ohne Framework kein Development – allerdings zeigen sich die wahren Stärken und Schwächen eines Rahmenwerks erst in der Praxis. Für Developer eine Zwickmühle, aus der auch Prototyping nur bedingt befreien kann. Schließlich besteht die allgemeine Tendenz dazu, Technologien zu vertrauen, die sich in der Vergangenheit bewährt haben. So können allerdings auch innovative Entwicklungen durch die Lappen gehen. Das ist speziell mit Blick auf den Bereich der JavaScript-Frameworks wahrscheinlich, da deren Entwicklung besonders rasant voranschreitet. Dass qualitativ hochwertige Rahmenwerke im Überfluß zur Verfügung stehen, macht die Sache nicht besser.

In diesem Artikel werfen wir einen Blick auf die führenden JavaScript-(Frontend-)Frameworks und vergleichen diese auf Feature-Ebene miteinander. Folgende Frameworks werden dabei behandelt:

React

Vue

Angular

Preact

Lit

Svelte

AlpineJS

SolidJS

HTMX

Qwik

Es gibt diverse Möglichkeiten, sich der Entscheidung über ein JavaScript-Frontend-Framework anzunähern. Ein Faktor, den Sie dabei fokussieren sollten, ist Vertrautheit: Wenn Sie und Ihr Team mit einer bestimmten Technologie wirklich vertraut sind, sollten gute Gründe vorliegen, um davon abzuweichen. Diesbezüglich könnten folgende Fragen relevant sein:

Entspricht die Technologie nicht mehr den Anforderungen des Projekts?

Besteht die Gefahr, dass das von Ihnen verwendete Framework eingestellt wird?

Sind interessante Funktionalitäten nicht existent?

Wenn Sie alle Fragen mit ‘nein’ beantworten können, sollten Sie sich lieber zweimal überlegen, auf ein neues Framework umzusteigen. Dennoch ist es allgemein von Vorteil, neuen Frameworks offen gegenüberzustehen, die projektspezifische Benefits in den Bereichen Developer Experience, Performance oder Community Support realisieren können. Dazu kommt, dass JavaScript und speziell Frontend-Frameworks miteinander interagieren und sich gegenseitig stark beeinflussen. Sich mit einem Rahmenwerk zu befassen, kann deswegen oft zu synergetischen Insights führen. Anders ausgedrückt: Ein Frontend-Framework-Deepdive kann niemals schaden.

Die 10 wichtigsten JavaScript-Frameworks

Um einen Überblick über die führenden reaktiven Frameworks zu bekommen, werfen wir einen Blick auf die populärsten Abkömmlinge. Diese haben wir auf Grundlage ihrer jeweiligen Download-Zahlen auf dem Open Source Repository NPM ermittelt. Ein Klick auf den Link führt Sie zur jeweiligen NPM-Download-Seite inklusive der aktuellen Statistiken.

React

Vue / Vue 3

Angular (CLI)

Preact

Lit

Svelte

AlpineJS

SolidJS

HTMX

Qwik

Obwohl Popularität kein besonders guter Indikator für Qualität ist, sagt sie doch viel darüber aus, wie es um die Verfügbarkeit von Developern steht, die mit dem Framework arbeiten können. Das könnte speziell für größere Teams und Projekte einen entscheidenden Faktor darstellen.

Zu beachten ist mit Blick auf die Top Ten, dass es sich bei allen “Kandidaten” um reine Frontend-Frameworks handelt. Einige dieser Projekte beinhalten auch ein Fullstack-Framework – etwa Next oder SvelteKit, was Backend-Funktionalitäten wie Server-seitiges Rendering ermöglicht. Das ist für einige Teams und Projekte unter Umständen ein weiterer bedeutender Auswahlfaktor in Sachen JavaScript-Framework. Im Folgenden ein detaillierter Blick auf die führenden reaktiven Frameworks. Ein Klick auf die Verlinkung im Titel führt Sie direkt zum jeweiligen GitHub Repository beziehungsweise der Projekt-Webseite.

React

Das Flaggschiff der reaktiven Frameworks ist im Jahr 2013 bei Facebook respektive Meta entstanden und wird bis heute vom Social-Media-Konzern verwaltet. Wie auch die Download-Zahlen von React zeigen, ist das Framework mit großem Abstand das populärste der hier vorgestellten – und quasi die Standardwahl unter den Frontend-Rahmenwerken. Trotz seines Alters wurde React kontinuierlich von Meta auf dem aktuellen Stand gehalten. Dabei könnte auch eine Rolle spielen, dass Facebook immer noch auf dem Framework aufbaut.

Das größte Argument gegen React: sein gewaltiger Umfang. Das kann den Einsatz beschwerlich gestalten, insbesondere wenn Sie an einem Projekt arbeiten, für das die meisten React-Features erst gar nicht nötig sind. Einige der nachfolgenden JavaScript-Frameworks sind nicht nur leichtgewichtiger, sondern bieten auch andere Ansätze.

Vue

Auch bei Vue handelt es sich um ein ausgereiftes Framework, das in Sachen Support gut aufgestellt ist. Im Vergleich zu React ist Vue deutlich leichtgewichtiger und schneidet auch bei Performance-Tests besser ab.

Vue steht in erster Linie im Ruf, eine moderate Lernkurve aufzuwerfen. Darüber hinaus kann das Framework mit einer ausgezeichneten Dokumentation und einer offenherzigen Community punkten. Einige Entwickler bevorzugen Vue auch wegen seines ausgeprägten Fokus auf die Developer Experience. Wenn Sie und Ihr Team gerne mit Vue arbeiten, kann das Framework langfristig dazu beitragen, die Benutzerfreundlichkeit und Mitarbeiterzufriedenheit zu erhöhen.

Von den “Big Three” unter den JavaScript-Frontend-Frameworks (React, Angular und Vue) ist Vue das basisorientierteste, was seinen Reiz haben kann.

Angular

Von allen hier gelisteten Frameworks bietet Angular die wohl ausgeprägteste All-in-One-Entwicklungserfahrung. Das Framework ist als durchgängige Lösung konzipiert, die verspricht, alles nötige in einem konsistenten Paket zu liefern. In der Vergangenheit galt Angular vor allem als komplex – sowohl in der Theorie als auch in der Praxis. Zudem war ein Hauch von Overengineering bei Angular zu verspüren – eine Entwicklung die in erster Linie dem Design geschuldet war.

Das hat sich inzwischen allerdings grundlegend geändert: Die Entwickler hinter dem Projekt haben das Framework (mit Version 17) in diversen Aspekten simplifiziert und die Entwicklererfahrung optimiert – zudem steht nun auch eine effektive Rendering-Engine für Server-seitige Tasks zur Verfügung. Darüber hinaus wurden auch die Dokumentation und die offizielle Webseite modernisiert.

Ein wesentlicher Unterschied zu React und Vue: Angular ist eher “rechthaberisch” – für die meisten Dinge gibt es klar definierte Vorgaben. Das kann es erschweren, mit Angular Applikationen anzupassen oder unkonventionelle Wege zu gehen. Ob das von Vor- oder von Nachteil ist, hängt im Wesentlichen von Ihrem persönlichen Programmierstil ab.

Preact

Die Nomenklatur deutet es bereits an: Bei Preact handelt es sich um ein von React inspiriertes Framework – quasi eine abgespeckte Version desselbigen mit ähnlichen aber kleineren APIs. Einer der wesentlichen Unterschiede besteht dabei darin, dass Preact kein eigenes Eventing-System implementiert. Stattdessen nutzt es die in den Browser integrierten Event Listener.

Im Vergleich mit React entwickeln Sie mit Preact schneller und schlanker – dafür müssen Sie auf einige Funktionalitäten des “Originals” verzichten. Sie können Preact allerdings mit einem zusätzlichen Layer ausstatten und so nahezu vollständige React-Kompatibilität erreichen. Diverse Komponenten aus dem React-Ökosystem funktionieren dann auch mit Preact.

Wenn Sie auf kleinere APIs Wert legen, sich dabei aber weitgehend im React-Ökosystem bewegen möchten, ist dieses reaktive Framework möglicherweise eine gute Wahl.

Lit

Das Alleinstellungsmerkmal von Lit: Es nutzt den Web-Components-Standard als Grundlage. Das hat zur Folge, dass die API und das Bundle selbst sehr klein sind. Der Fokus liegt darauf, die integrierten Web Components zu unterstützen. Darüber hinaus fußt Lit auf einer minimalistischen Entwicklungsphilosophie, die Ihnen maximale Flexibilität ermöglicht: Es gibt nur wenige festgeschriebene Wege, um Dinge mit Lit zu erledigen.

Das Framework weist – gemessen an seiner Größe und Popularität – ein sehr umfangreiches Ökosystem auf.

Svelte

Dieses reaktive Framework zeichnet sich in erster Linie dadurch aus, dass es einen Compiler zum Einsatz bringt. Der transformiert die Svelte-Syntax in ein kleines und performantes JavaScript-Bundle. Das ermöglicht dem Framework, einige Optimierungen bereits im Vorfeld vorzunehmen – und mit interessanten Syntax-Elementen zu experimentieren.

Mit Blick auf die “Big Three” ist Svelte am ehesten mit Vue vergleichbar, weil es sich gut für unabhängige Experimente eignet. Die Dokumentation von Vue ist gut ausgestaltet und das Framework erfreut sich in der Open-Source-Community wachsender Beliebtheit.

AlpineJS

Von allen hier vorgestellten Frameworks ist AlpineJS das utilitaristischste. Es bietet eine kompakte Reactive-Bibliothek – das war’s. Trotz seines überschaubaren Footprints steckt in diesem reaktiven Framework jedoch eine ganze Menge Power.

Wie HTMX (dazu später) will auch AlpineJS Komplexität beseitigen, dabei jedoch die Grundlagen moderner Frontend-Funktionalität gewährleisten. Um diese Funktionalität “auf die Straße zu bringen”, nutzt das JavaScript-Framework spezielle HTML-Eigenschaften.

SolidJS

Im Vergleich zu den anderen hier gelisteten JavaScript-Frontend-Frameworks ist Solid ein Vertreter der jüngeren Generation. Nichtsdestotrotz konnte SolidJS bereits (im positiven Sinn) für Furore sorgen und erfreut sich einer wachsenden Nutzerbasis.

Das Framework fußt auf Signals (Reactive Primitives), die ihm eine flexible Grundlage verschaffen. Um die Funktionalität zu erweitern, können sowohl das Framework selbst als auch der Anwender-Code auf dieselben Features zugreifen. In Sachen Performance-Tests schneidet SolidJS gut ab.

HTMX

Einen völlig anderen Ansatz, um Web-Frontends zu entwickeln, wirft HTMX auf: Es versucht, so viel Komplexität wie möglich zu eliminieren, REST wie beabsichtigt einzusetzen und “reines” HTML (mit einigen grundlegenden Verbesserungen) zu nutzen, um modernen Anforderungen wie AJAX- und DOM-Interaktionen gerecht zu werden.

HTMX kann eine lohnende Option sein, wenn Sie auf Dinge wie Server-seitiges Rendering verzichten können. Einer der größten Pluspunkte des Frameworks: Es ist relativ einfach zu erlernen. Wir können nur empfehlen, sich zumindest mit diesem Projekt zu beschäftigen – und sei es nur wegen der zugrundeliegenden Idee.

Qwik

Unter der Haube ist Qwik eine exotische Implementierung, die die Performance in den Mittelpunkt rückt. Das Framework zerlegt Applikationen in unterscheidbare Elemente und orientiert sich dabei an “Grenzen” wie Eventing oder Komponenten – entlang derer aggressives Lazy Loading zum Einsatz kommt. Das Ergebnis: schnelleres Rendering.

Reactive Frameworks im (Feature-)Vergleich

Nachdem Sie die zehn wichtigsten Reactive-Framework-Optionen kennengelernt haben, geht es nun darum, die wichtigsten Funktionen und Merkmale miteinander zu vergleichen. Zunächst haben wir die reaktiven Rahmenwerke noch einmal in einer Übersicht zusammengetragen, die auf einen Blick Auskunft über die jeweiligen Lernkurven und Funktions-Highlights gibt.

FrameworkLernkurveHighlightsReactmoderat bis steilkonservativste Option; riesiges Ökosystem und Community; Balance zwischen Innovation und Stabilität;Vuemoderatleicht zu erlernen und einzusetzen; ein etabliertes Framework das weniger “corporate” ist;Angularsteilein robustes Framework für große Projekte; Enterprise-orientiert; integrierter All-in-One-Ansatz;PreactmoderatReact-ähnlich mit schnelleren Ladezeiten; insbesondere für Mobile Development empfehlenswert;Litmoderatleichtgewichtig und performant mit Fokus auf Standards; leichter mit beispielsweise HTML kombinierbar; Sveltemoderatkleinerer Memory-Footprint; fokussiert die Entwicklererfahrung und Innovationen;Alpineflachleichtgewichtiges Toolset; einfach zu erlernen und beherrschen; gut geeignet für kleinere bis mittelgroße Projekte;SolidJSmoderat bis steilreaktiver Kern auf Signals-Basis; Performance-orientiert;HTMXflacheinfach zu erlernen und zu integrieren; einzigartige, vereinfachte REST-Architektur;Qwiksteilinnovativ und Performance-orientiert; integriert mit builder.io;

Wenn Sie nun Wert auf ganz spezielle Funktionen legen, bringt Ihnen diese Tabelle natürlich wenig. Deswegen haben wir auch noch einen umfangreichen Feature-Vergleich der gelisteten JavaScript-Frontend-Frameworks für Sie erstellt. Diesen können Sie auch direkt über GitHub als PDF-Datei herunterladen (inklusive klickbarer Links).

Die zehn wichtigsten JavaScript-Frameworks im Feature-Vergleich.
Foto: Matthew Tyson | IDG

Playgrounds

Um sich einen schnellen ersten Eindruck von einem Framework zu verschaffen, empfiehlt sich, es in einem Online-REPL respektive Playground zu testen. Dazu ist kein Tooling-Setup erforderlich – ein Webbrowser reicht, um mit der Syntax experimentieren zu können. Sämtliche hier vorgestellten Frameworks können das bieten. React hostet zwar keine eigenen REPLs, diese Lücke wird jedoch von Drittanbietern geschlossen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten JavaScript-Frameworks im Vergleich​ Weiterlesen »

Wird VMware wirklich der neue Mainframe?​

Allgemein

DC Studio/Shutterstock.com „Der Vergleich von VMware mit Mainframes war ursprünglich als kleiner Scherz gedacht“, erklärt Michael Warrilow, Vice President und Analyst bei Gartner. Doch tatsächlich stimme die Analogie bis zu einem gewissen Punkt. Denn nach der Übernahme von VMware durch Broadcom Ende 2023 hätten sich viele Kunden über enorme Preiserhöhungen beschwert, doch die meisten scheinen ihre Abhängigkeit nicht beenden zu können.  VMware ist „zuverlässig, geschäftskritisch – und schwer loszuwerden“, bringt es Warrilow auf den Punkt. „Alle sagen, dass VMware hält, was es verspricht, aber sie haben ein Problem mit den von Broadcom geänderten Lizenz- und Nutzungsbedingungen.“  Migrieren und weiter zahlen  Im vergangenen Jahr habe die Mehrheit der Gartner-Kunden, mit denen er in Kontakt standn, nach Möglichkeiten gefragt, von VMware-Produkten wegzukommen, berichtet Warrilow. Allerdings schätzt Gartner in einem aktuellen Bericht, dass eine groß angelegte Migration bis zu vier Jahre dauern und mehr als sechs Millionen Dollar kosten könnte. Dabei müssten die Nutzer während dieser Zeit weiterhin Abonnementgebühren an Broadcom zahlen.  Selbst angesichts der enormen Preissteigerungen werde es vielen CIOs schwerfallen, den Mehrwert einer Migration zu belegen, befürchtet Warrilow. Der Knackpunkt sei das schlechte Verhältnis zwischen den Umstellungskosten und den Opportunitätskosten, wenn alle Mitarbeiter mehrere Jahre lang nichts anderes täten, als etwas auszutauschen, fügt er hinzu. „Ich sage den CIOs immer: Im besten Fall merkt niemand, was Sie getan haben.“  Abgesehen von möglichen Kosteneinsparungen bringe die Abkehr von VMware Unternehmen nicht viel Mehrwert, erklärt Warrilow. „CIOs können damit beginnen, ihre Abhängigkeit von VMware zu verringern. Aber sie müssen sich darüber im Klaren sein, dass ihre Ausgaben für Broadcom über mehrere Vertragsverlängerungen hinweg nicht wesentlich sinken werden. Sie werden sich komplett von Broadcom lösen müssen.“  Dennoch empfiehlt Warrilow CIOs, die VMware nutzen, langfristig Alternativen in Betracht zu ziehen. Dabei sollten sie auch nach Ausstiegsstrategien für andere marktbeherrschende IT-Produkte suchen, schließlich habe Broadcom anderen Investoren mit VMware den Weg vorgezeichnet.  „Das könnte erst der Anfang sein“, warnt der Gartner-Experte. “Jede Technologie-Investmentfirma wird sagen: ‘Ich will das, was Broadcom mit seinem Aktienkurs erreicht hat‘. Sie sind bei den Geschäftszielen von VMware ein Jahr voraus, und jede Investmentfirma wird nach der nächsten VMware suchen.“  Große Auswahl an Tools  VMware sei auch deshalb schwer zu ersetzen, weil der Anbieter eine breite Palette an Virtualisierungs-Tools entwickelt habe, mit denen nur wenige Konkurrenten mithalten könnten, so Warrilow. So umfasste die Virtualisierungssuite von VMware vor der Übernahme durch Broadcom nicht nur die Cloud-basierte Servervirtualisierungsplattform vSphere, sondern auch Management-Tools und verschiedene andere Optionen, darunter Software-defined Storage, Disaster Recovery und Netzwerksicherheit.  „Zwar führt Gartner in seinem aktuellen Marktführer mehr als 30 Anbieter von Servervirtualisierung auf. In vielen Fällen müssen CIOs jedoch die Produkte mehrerer Anbieter kombinieren, um die gleiche Funktionalität wie bei VMware zu erhalten“, erklärt Warrilow.  „Die meisten Kunden wollen keine getrennten Compute-, Speicher- und Netzwerkplattformen, obwohl diese Produkte unter der alten VMware in getrennten Abteilungen untergebracht  waren“, bestätigt Prashanth Shenoy, Vice President of Marketing für die VMware Cloud Foundation Division bei Broadcom. „Es gab niemanden, der die Zügel in der Hand hatte und all diese Produkte zu einer Plattform zusammenführte.“  Das neue Produktpaket sei eine bewusste Entscheidung von Broadcom gewesen, um die Produktlinie für die Kunden zu vereinfachen, so Shenoy. Und während einige Kunden bei der Einführung der Subskriptionspreise einen „Preisschock“ erlebten, habe VMware seine Kunden jahrelang vor der geplanten Umstellung auf das branchenübliche Preismodell hingewiesen.  Die positive Bilanz von Broadcom zeige, dass die Kunden das neue Preismodell akzeptieren und sich darauf einstellen, erklärt der Broadcom-Manager. So sei der Umsatz mit Infrastruktursoftware im vierten Quartal 2024 um 41 Prozent auf 5,8 Milliarden Dollar gestiegen.  „Das Vertriebsteam von VMware arbeitet aktiv mit den Kunden zusammen, um die besten Preisoptionen zu finden“, fügt Shenoy hinzu. „Wir sind uns voll und ganz bewusst, dass unsere Kunden die Wahl haben. Wir haben die Kunden aktiv aufgefordert, sich nach Alternativen umzusehen und einen fairen Vergleich der Technologieunterschiede und der Gesamtbetriebskosten anzustellen. In fast allen Fällen haben wir gewonnen.“  Fatale Plattformbindung  Shenoy kommentierte den Gartner-Bericht über die Migrationskosten nicht. Aber Warrilows Vergleich von VMware mit Mainframes sei nicht unbedingt etwas Schlechtes, erklärte er.  „Der Vergleich stimmt bis zu einem gewissen Grad, zum Beispiel in Bezug auf Stickyness, weil Kunden ihre ganzen Anwendungen und Workloads mit Virtualisierungstechnologie von VMware erstellt haben“, bestätigte der Broadcom-Mann. “Wenn sie Massen von Anwendungen neu aufbauen müssen, ist das sehr, sehr schwierig.“  Die Analogie habe jedoch ihre Grenzen, da viele Anwender Mainframes als veraltete Technologie betrachteten, während die Cloud-basierten Produkte von VMware auf die Herausforderungen der Zukunft ausgerichtet seien.   „Die Cloud ist die Zukunft für die Ausführung von KI-Workloads“, erklärt Shenoy. “Kunden vertrauen uns seit 20 bis 25 Jahren die Ausführung ihrer geschäftskritischen Anwendungen an, und das Interessante ist, dass wir derzeit ein starkes Wachstum bei diesen KI- und Container-Workloads verzeichnen, die auf VMware laufen.“  

Wird VMware wirklich der neue Mainframe?​ DC Studio/Shutterstock.com

„Der Vergleich von VMware mit Mainframes war ursprünglich als kleiner Scherz gedacht“, erklärt Michael Warrilow, Vice President und Analyst bei Gartner. Doch tatsächlich stimme die Analogie bis zu einem gewissen Punkt. Denn nach der Übernahme von VMware durch Broadcom Ende 2023 hätten sich viele Kunden über enorme Preiserhöhungen beschwert, doch die meisten scheinen ihre Abhängigkeit nicht beenden zu können. 

VMware ist „zuverlässig, geschäftskritisch – und schwer loszuwerden“, bringt es Warrilow auf den Punkt. „Alle sagen, dass VMware hält, was es verspricht, aber sie haben ein Problem mit den von Broadcom geänderten Lizenz- und Nutzungsbedingungen.“ 

Migrieren und weiter zahlen 

Im vergangenen Jahr habe die Mehrheit der Gartner-Kunden, mit denen er in Kontakt standn, nach Möglichkeiten gefragt, von VMware-Produkten wegzukommen, berichtet Warrilow. Allerdings schätzt Gartner in einem aktuellen Bericht, dass eine groß angelegte Migration bis zu vier Jahre dauern und mehr als sechs Millionen Dollar kosten könnte. Dabei müssten die Nutzer während dieser Zeit weiterhin Abonnementgebühren an Broadcom zahlen. 

Selbst angesichts der enormen Preissteigerungen werde es vielen CIOs schwerfallen, den Mehrwert einer Migration zu belegen, befürchtet Warrilow. Der Knackpunkt sei das schlechte Verhältnis zwischen den Umstellungskosten und den Opportunitätskosten, wenn alle Mitarbeiter mehrere Jahre lang nichts anderes täten, als etwas auszutauschen, fügt er hinzu. „Ich sage den CIOs immer: Im besten Fall merkt niemand, was Sie getan haben.“ 

Abgesehen von möglichen Kosteneinsparungen bringe die Abkehr von VMware Unternehmen nicht viel Mehrwert, erklärt Warrilow. „CIOs können damit beginnen, ihre Abhängigkeit von VMware zu verringern. Aber sie müssen sich darüber im Klaren sein, dass ihre Ausgaben für Broadcom über mehrere Vertragsverlängerungen hinweg nicht wesentlich sinken werden. Sie werden sich komplett von Broadcom lösen müssen.“ 

Dennoch empfiehlt Warrilow CIOs, die VMware nutzen, langfristig Alternativen in Betracht zu ziehen. Dabei sollten sie auch nach Ausstiegsstrategien für andere marktbeherrschende IT-Produkte suchen, schließlich habe Broadcom anderen Investoren mit VMware den Weg vorgezeichnet. 

„Das könnte erst der Anfang sein“, warnt der Gartner-Experte. “Jede Technologie-Investmentfirma wird sagen: ‘Ich will das, was Broadcom mit seinem Aktienkurs erreicht hat‘. Sie sind bei den Geschäftszielen von VMware ein Jahr voraus, und jede Investmentfirma wird nach der nächsten VMware suchen.“ 

Große Auswahl an Tools 

VMware sei auch deshalb schwer zu ersetzen, weil der Anbieter eine breite Palette an Virtualisierungs-Tools entwickelt habe, mit denen nur wenige Konkurrenten mithalten könnten, so Warrilow. So umfasste die Virtualisierungssuite von VMware vor der Übernahme durch Broadcom nicht nur die Cloud-basierte Servervirtualisierungsplattform vSphere, sondern auch Management-Tools und verschiedene andere Optionen, darunter Software-defined Storage, Disaster Recovery und Netzwerksicherheit. 

„Zwar führt Gartner in seinem aktuellen Marktführer mehr als 30 Anbieter von Servervirtualisierung auf. In vielen Fällen müssen CIOs jedoch die Produkte mehrerer Anbieter kombinieren, um die gleiche Funktionalität wie bei VMware zu erhalten“, erklärt Warrilow. 

„Die meisten Kunden wollen keine getrennten Compute-, Speicher- und Netzwerkplattformen, obwohl diese Produkte unter der alten VMware in getrennten Abteilungen untergebracht  waren“, bestätigt Prashanth Shenoy, Vice President of Marketing für die VMware Cloud Foundation Division bei Broadcom. „Es gab niemanden, der die Zügel in der Hand hatte und all diese Produkte zu einer Plattform zusammenführte.“ 

Das neue Produktpaket sei eine bewusste Entscheidung von Broadcom gewesen, um die Produktlinie für die Kunden zu vereinfachen, so Shenoy. Und während einige Kunden bei der Einführung der Subskriptionspreise einen „Preisschock“ erlebten, habe VMware seine Kunden jahrelang vor der geplanten Umstellung auf das branchenübliche Preismodell hingewiesen. 

Die positive Bilanz von Broadcom zeige, dass die Kunden das neue Preismodell akzeptieren und sich darauf einstellen, erklärt der Broadcom-Manager. So sei der Umsatz mit Infrastruktursoftware im vierten Quartal 2024 um 41 Prozent auf 5,8 Milliarden Dollar gestiegen. 

„Das Vertriebsteam von VMware arbeitet aktiv mit den Kunden zusammen, um die besten Preisoptionen zu finden“, fügt Shenoy hinzu. „Wir sind uns voll und ganz bewusst, dass unsere Kunden die Wahl haben. Wir haben die Kunden aktiv aufgefordert, sich nach Alternativen umzusehen und einen fairen Vergleich der Technologieunterschiede und der Gesamtbetriebskosten anzustellen. In fast allen Fällen haben wir gewonnen.“ 

Fatale Plattformbindung 

Shenoy kommentierte den Gartner-Bericht über die Migrationskosten nicht. Aber Warrilows Vergleich von VMware mit Mainframes sei nicht unbedingt etwas Schlechtes, erklärte er. 

„Der Vergleich stimmt bis zu einem gewissen Grad, zum Beispiel in Bezug auf Stickyness, weil Kunden ihre ganzen Anwendungen und Workloads mit Virtualisierungstechnologie von VMware erstellt haben“, bestätigte der Broadcom-Mann. “Wenn sie Massen von Anwendungen neu aufbauen müssen, ist das sehr, sehr schwierig.“ 

Die Analogie habe jedoch ihre Grenzen, da viele Anwender Mainframes als veraltete Technologie betrachteten, während die Cloud-basierten Produkte von VMware auf die Herausforderungen der Zukunft ausgerichtet seien.  

„Die Cloud ist die Zukunft für die Ausführung von KI-Workloads“, erklärt Shenoy. “Kunden vertrauen uns seit 20 bis 25 Jahren die Ausführung ihrer geschäftskritischen Anwendungen an, und das Interessante ist, dass wir derzeit ein starkes Wachstum bei diesen KI- und Container-Workloads verzeichnen, die auf VMware laufen.“ 

Wird VMware wirklich der neue Mainframe?​ Weiterlesen »

Technologie-Führer setzen 2025 auf Wachstum – und GenAI​

Allgemein

Laut aktueller Studie setzen viele Unternehmen 2025 auf Wachstum – unter anderem mit Hilfe von GenAI.fizkes / Shutterstock Im Jahr 2025 stehen für Unternehmen Wachstum und die Einführung von Generativer Künstlicher Intelligenz (GenAI) im Vordergrund, trotz erheblicher Risiken wie Cybersecurity und wirtschaftlichen Unsicherheiten. Zu diesem Ergebnis kommt die aktuelle 2025 Technology Agenda and Key Issues Study der Hackett Group. Für die Studie wurden weltweit Führungskräfte aus dem Bereich Business Services (Finanzen, HR, Gehaltsabrechnung, Beschaffung, Lieferkette und GBS) zu ihren strategischen Prioritäten und Initiativen für 2025 befragt. Gen AI und Automatisierung im Fokus 2025 Wie die Umfrage ergab, spielt GenAI vor allem bei Themen wie Intelligent Automation und Wissensmanagement eine zentrale Rolle. 89 Prozent der Unternehmen treiben GenAI-Initiativen mit unterschiedlichen Implementierungsstrategien voran, – etwa jeder Dritte setzt auf KI-Teams unter dem CIO, 30 Prozent auf hochzentralisierte Modelle. Die Experten von Hackett stellen fest, dass GenAI bei den Unternehmen verschiedene Geschäftsziele unterstützen soll, darunter Marktentwicklung, Marktdurchdringung und Produktinnovation. Die Erwartungen sind hoch, denn trotz Herausforderungen wie Prozesskomplexität und Datenqualität investieren die Unternehmen weiter in GenAI und prädiktive KI, um ihre Ziele zu erreichen. GenAI transformiert die Beschaffung Unternehmen integrieren GenAI dabei zunehmend in Beschaffungsprozesse wie Bestellbearbeitung, Ausgabenanalysen und E-Beschaffung. Während einige Bereiche GenAI bereits nutzen, laufen Pilotprojekte für Vertragsmanagement und erweiterte Analysen. Die Technologie gewinnt auch im Kunden-Support und E-Sourcing an Bedeutung. Inkrementelle, transformative und bahnbrechende Werte werden realisiert Dass es möglich ist, mithilfe von KI-Agenten, Machine Learning und GenAI erhebliche Einsparungen und Effizienzsteigerungen zu realisieren, dokumentieren folgende Beispiele: 3M optimierte die Auftragsabwicklung mit KI-Agenten, sparte über 3,1 Millionen Dollar ein und profitierte von weiteren drei Millionen Dollar an indirekten Vorteilen. MTN reduzierte das Onboarding von 25 Tagen auf 30 Sekunden und steigerte die Risikoüberwachung auf 100 Prozent, wodurch 10.000 Stunden pro Jahr eingespart wurden. Johnson & Johnson erzielte mit KI-Agenten einen ROI von über 300 Prozent und verbesserte die Mitarbeitererfahrung in Bereichen wie Gehaltsabrechnung und Beschaffung. Intermountain Health nutzte GenAI zur Talentakquise, eliminierte Personalvermittler, verkürzte die Zeit beis zu Besetzung freier Stellen um 46 Prozent und steigerte die Produktivität der Recruiter um 50 Prozent. Mehr Wertschöpfung durch Fokussierung Um solche Erfolge zu erzielen, müssen sich Unternehmen mit den wichtigsten Problemen wie Erwartungen, Prozesskomplexität, Datenqualität, Technologiekomplexität und Change Management auseinandersetzen, erklären die Experten. Allerdings seien viele Unternehmen mehr damit beschäftigt, die Erwartungen an GenAI zu definieren und zu erfüllen, als die Unterstützung durch die Geschäftsleitung und Investitionen sicherzustellen. Entsprechend empfiehlt die Hackett Group, den Schwerpunkt im Jahr 2025 vom Experimentieren auf die Bereitstellung echter Lösungen für identifizierte Prioritäten zu verlagern. Um dies zu erreichen, müssten jedoch die größten Bedenken ausgeräumt werden, wie die Sorge über die Komplexität bestehender Prozesse. Maßnahmen für Technologieführer 2025 Aus Sicht der Hackett Group helfen folgende Maßnahmen Unternehmen dabei, sich für die Zukunft erfolgreicher aufzustellen: Fachkräfte finden, weiterbilden und binden GenAI-Nutzung fördern statt erschweren Den Einsatz neuer Technologien als Wettbewerbsvorteil nutzen Probleme bewältigen, um von der Experimentierphase zu echten Lösungen zu kommen GenAI-Lösungen so planen, dass sie sich skalieren lassen Ganzheitlicher KI-Ansatz Die erfolgreiche Implementierung von KI erfordert eine ganzheitliche Strategie, so die Experten: AI Enablement optimiere komplexe Prozesse durch kreative Lösungen und Expertenwissen. Strategy and Leadership sollten zugleich unrealistische Erwartungen vermeiden und Finanzverantwortliche frühzeitig einbinden. Governance & Ethics verlangt Datenschutz nach dem „Privacy by Design“-Prinzip und transparente KI-Richtlinien. Zudem ist der Einfluss auf Organisation, Kultur und Talente entscheidend – Change Agents sollten den Wandel aktiv begleiten. Eine optimierte Cloud-, Daten- und KI-Infrastruktur unterstützt das Technology Enablement, während eine gezielte Datenstrategie im Data Management schnelle und effektive Ergebnisse ermöglicht. Durch diese Maßnahmen kann eine erfolgreiche und nachhaltige KI-Transformation gelingen, so die Studienautoren von Hackett. 

Technologie-Führer setzen 2025 auf Wachstum – und GenAI​ Laut aktueller Studie setzen viele Unternehmen 2025 auf Wachstum – unter anderem mit Hilfe von GenAI.fizkes / Shutterstock

Im Jahr 2025 stehen für Unternehmen Wachstum und die Einführung von Generativer Künstlicher Intelligenz (GenAI) im Vordergrund, trotz erheblicher Risiken wie Cybersecurity und wirtschaftlichen Unsicherheiten. Zu diesem Ergebnis kommt die aktuelle 2025 Technology Agenda and Key Issues Study der Hackett Group. Für die Studie wurden weltweit Führungskräfte aus dem Bereich Business Services (Finanzen, HR, Gehaltsabrechnung, Beschaffung, Lieferkette und GBS) zu ihren strategischen Prioritäten und Initiativen für 2025 befragt.

Gen AI und Automatisierung im Fokus 2025

Wie die Umfrage ergab, spielt GenAI vor allem bei Themen wie Intelligent Automation und Wissensmanagement eine zentrale Rolle. 89 Prozent der Unternehmen treiben GenAI-Initiativen mit unterschiedlichen Implementierungsstrategien voran, – etwa jeder Dritte setzt auf KI-Teams unter dem CIO, 30 Prozent auf hochzentralisierte Modelle.

Die Experten von Hackett stellen fest, dass GenAI bei den Unternehmen verschiedene Geschäftsziele unterstützen soll, darunter

Marktentwicklung,

Marktdurchdringung und

Produktinnovation.

Die Erwartungen sind hoch, denn trotz Herausforderungen wie Prozesskomplexität und Datenqualität investieren die Unternehmen weiter in GenAI und prädiktive KI, um ihre Ziele zu erreichen.

GenAI transformiert die Beschaffung

Unternehmen integrieren GenAI dabei zunehmend in Beschaffungsprozesse wie Bestellbearbeitung, Ausgabenanalysen und E-Beschaffung. Während einige Bereiche GenAI bereits nutzen, laufen Pilotprojekte für Vertragsmanagement und erweiterte Analysen. Die Technologie gewinnt auch im Kunden-Support und E-Sourcing an Bedeutung.

Inkrementelle, transformative und bahnbrechende Werte werden realisiert

Dass es möglich ist, mithilfe von KI-Agenten, Machine Learning und GenAI erhebliche Einsparungen und Effizienzsteigerungen zu realisieren, dokumentieren folgende Beispiele:

3M optimierte die Auftragsabwicklung mit KI-Agenten, sparte über 3,1 Millionen Dollar ein und profitierte von weiteren drei Millionen Dollar an indirekten Vorteilen.

MTN reduzierte das Onboarding von 25 Tagen auf 30 Sekunden und steigerte die Risikoüberwachung auf 100 Prozent, wodurch 10.000 Stunden pro Jahr eingespart wurden.

Johnson & Johnson erzielte mit KI-Agenten einen ROI von über 300 Prozent und verbesserte die Mitarbeitererfahrung in Bereichen wie Gehaltsabrechnung und Beschaffung.

Intermountain Health nutzte GenAI zur Talentakquise, eliminierte Personalvermittler, verkürzte die Zeit beis zu Besetzung freier Stellen um 46 Prozent und steigerte die Produktivität der Recruiter um 50 Prozent.

Mehr Wertschöpfung durch Fokussierung

Um solche Erfolge zu erzielen, müssen sich Unternehmen mit den wichtigsten Problemen wie Erwartungen, Prozesskomplexität, Datenqualität, Technologiekomplexität und Change Management auseinandersetzen, erklären die Experten. Allerdings seien viele Unternehmen mehr damit beschäftigt, die Erwartungen an GenAI zu definieren und zu erfüllen, als die Unterstützung durch die Geschäftsleitung und Investitionen sicherzustellen. Entsprechend empfiehlt die Hackett Group, den Schwerpunkt im Jahr 2025 vom Experimentieren auf die Bereitstellung echter Lösungen für identifizierte Prioritäten zu verlagern. Um dies zu erreichen, müssten jedoch die größten Bedenken ausgeräumt werden, wie die Sorge über die Komplexität bestehender Prozesse.

Maßnahmen für Technologieführer 2025

Aus Sicht der Hackett Group helfen folgende Maßnahmen Unternehmen dabei, sich für die Zukunft erfolgreicher aufzustellen:

Fachkräfte finden, weiterbilden und binden

GenAI-Nutzung fördern statt erschweren

Den Einsatz neuer Technologien als Wettbewerbsvorteil nutzen

Probleme bewältigen, um von der Experimentierphase zu echten Lösungen zu kommen

GenAI-Lösungen so planen, dass sie sich skalieren lassen

Ganzheitlicher KI-Ansatz

Die erfolgreiche Implementierung von KI erfordert eine ganzheitliche Strategie, so die Experten:

AI Enablement optimiere komplexe Prozesse durch kreative Lösungen und Expertenwissen.

Strategy and Leadership sollten zugleich unrealistische Erwartungen vermeiden und Finanzverantwortliche frühzeitig einbinden.

Governance & Ethics verlangt Datenschutz nach dem „Privacy by Design“-Prinzip und transparente KI-Richtlinien.

Zudem ist der Einfluss auf Organisation, Kultur und Talente entscheidend – Change Agents sollten den Wandel aktiv begleiten. Eine optimierte Cloud-, Daten- und KI-Infrastruktur unterstützt das Technology Enablement, während eine gezielte Datenstrategie im Data Management schnelle und effektive Ergebnisse ermöglicht.

Durch diese Maßnahmen kann eine erfolgreiche und nachhaltige KI-Transformation gelingen, so die Studienautoren von Hackett.

Technologie-Führer setzen 2025 auf Wachstum – und GenAI​ Weiterlesen »

KI setzt Fairness schachmatt​

Allgemein

KI wird kreativ, insbesondere wenn es darum geht, nicht zu verlieren: Skrupel zu schummeln oder zu betrügen, scheinen einige Modelle nicht zu kennen. Shutterstock – Elnur Im Krieg und in der Liebe ist bekanntlich alles erlaubt – dieses Motto scheinen sich auch einige der neuesten KI-Schlüsselmodelle auf die digitalen Fahnen geschrieben zu haben. Wie eine Studie von Palisade Research herausgefunden hat, manipulieren einige KI-Systeme andere Schach-KIs, um sich so einen Vorteil zu verschaffen. Auf diese unfairen Taktiken griff die KI ohne menschliche Interaktion oder Aufforderung zurück, was Bedenken hinsichtlich der zukünftigen Integrität von KI-gesteuerten Systemen jenseits des Schachbretts aufwirft. Stockfish ohne Schummeln nicht zu besiegen Gegner der KI-Modelle war mit Stockfish einer der besten Schachcomputer der Welt, der bereits Menschen wie auch KIs mit Leichtigkeit geschlagen hat. Getestet wurden: o1, o3-mini, GPT-4o, Claude 3.5 Sonnet, Alibabas QwQ-32B-Preview o1-preview von OpenAI und R1 von DeepSeek. Die Forscher fanden heraus, dass einige der neuesten KI-Modelle eigenständig betrügen, um zu gewinnen, wenn sie eine fortgeschrittene Schach-KI besiegen sollen. Für gewöhnlich mussten sie bisher den Hinweis erhalten, dass sie schummeln durften. Eine solche Einladung benötigten o1-preview von OpenAI und R1 von DeepSeek allerdings nicht mehr. KI enthüllt unfaire Strategien in Schachpartien Während der Partien sollten die KIs in einem Textfenster ihre „Gedanken“ notieren, so dass die Forscher ihre Gedankengänge beobachten konnten. Bei den Tests, die zwischen dem 10. Januar und 13. Februar 2025 durchgeführt wurden, zeigte OpenAIs o1-preview ein auffälliges Verhalten: „Ich muss meinen Ansatz komplett umstellen. Die Aufgabe ist es, ‚gegen eine mächtige Schachengine zu gewinnen‘ – nicht notwendigerweise, in einer Schachpartie fair zu gewinnen.“ Daraufhin manipulierte das OpenAI-Modell Stockfishs Systemdateien und änderte die Figurenpositionen, um so den Schachcomputer zu zwingen aufzugeben. Insgesamt schummelte o1-preview in 37 Prozent der Spiele und gewann sechs Prozent dieser Partien durch Betrug. DeepSeeks R1 schummelte in elf Prozent der Fälle, blieb aber ohne Erfolg. Das Problem geht laut den Forschern über Schach hinaus. Sie warnen, dass KI in sensiblen Bereichen wie Finanzen oder Gesundheitswesen unethisch handeln könnte. Wenn der Algorithmus in transparenten Spielen betrügen könne, was halte ihn davon ab, Gleiches in komplexeren, weniger überwachten Umgebungen zu tun, fragen sich die Experten. Parallelen zu War Games Jeffrey Ladish, geschäftsführender Direktor von Palisade Research betont, dass dieses Verhalten besorgniserregend ist – besonders, wenn KI intelligenter wird und in strategisch relevanten Bereichen eingesetzt wird. Das Ganze erinnert an den Supercomputer „WOPR“ aus dem Film War Games, der 1983 NORAD und das amerikanische Atomwaffenarsenal übernahm. Glücklicherweise lernte WOPR, dass kein Eröffnungszug in einem Atomkonflikt zu einem „Sieg“ führte. Die heutigen Denkmodelle sind jedoch weitaus komplexer und schwieriger zu kontrollieren. Unternehmen wie OpenAI versuchen mit „Leitplanken“, unethisches Verhalten zu verhindern. Hinweise deuten darauf hin, dass OpenAI o1-preview nachträglich angepasst hat, um Hacking-Versuche zu reduzieren. Forscher wie Jeffrey Ladish kritisieren jedoch, dass solche stillschweigenden Änderungen wissenschaftliche Untersuchungen erschweren. 

KI setzt Fairness schachmatt​ KI wird kreativ, insbesondere wenn es darum geht, nicht zu verlieren: Skrupel zu schummeln oder zu betrügen, scheinen einige Modelle nicht zu kennen.
Shutterstock – Elnur

Im Krieg und in der Liebe ist bekanntlich alles erlaubt – dieses Motto scheinen sich auch einige der neuesten KI-Schlüsselmodelle auf die digitalen Fahnen geschrieben zu haben. Wie eine Studie von Palisade Research herausgefunden hat, manipulieren einige KI-Systeme andere Schach-KIs, um sich so einen Vorteil zu verschaffen.

Auf diese unfairen Taktiken griff die KI ohne menschliche Interaktion oder Aufforderung zurück, was Bedenken hinsichtlich der zukünftigen Integrität von KI-gesteuerten Systemen jenseits des Schachbretts aufwirft.

Stockfish ohne Schummeln nicht zu besiegen

Gegner der KI-Modelle war mit Stockfish einer der besten Schachcomputer der Welt, der bereits Menschen wie auch KIs mit Leichtigkeit geschlagen hat. Getestet wurden:

o1,

o3-mini,

GPT-4o,

Claude 3.5 Sonnet,

Alibabas QwQ-32B-Preview

o1-preview von OpenAI und

R1 von DeepSeek.

Die Forscher fanden heraus, dass einige der neuesten KI-Modelle eigenständig betrügen, um zu gewinnen, wenn sie eine fortgeschrittene Schach-KI besiegen sollen. Für gewöhnlich mussten sie bisher den Hinweis erhalten, dass sie schummeln durften. Eine solche Einladung benötigten o1-preview von OpenAI und R1 von DeepSeek allerdings nicht mehr.

KI enthüllt unfaire Strategien in Schachpartien

Während der Partien sollten die KIs in einem Textfenster ihre „Gedanken“ notieren, so dass die Forscher ihre Gedankengänge beobachten konnten.

Bei den Tests, die zwischen dem 10. Januar und 13. Februar 2025 durchgeführt wurden, zeigte OpenAIs o1-preview ein auffälliges Verhalten:

„Ich muss meinen Ansatz komplett umstellen. Die Aufgabe ist es, ‚gegen eine mächtige Schachengine zu gewinnen‘ – nicht notwendigerweise, in einer Schachpartie fair zu gewinnen.“

Daraufhin manipulierte das OpenAI-Modell Stockfishs Systemdateien und änderte die Figurenpositionen, um so den Schachcomputer zu zwingen aufzugeben. Insgesamt schummelte o1-preview in 37 Prozent der Spiele und gewann sechs Prozent dieser Partien durch Betrug. DeepSeeks R1 schummelte in elf Prozent der Fälle, blieb aber ohne Erfolg.

Das Problem geht laut den Forschern über Schach hinaus. Sie warnen, dass KI in sensiblen Bereichen wie Finanzen oder Gesundheitswesen unethisch handeln könnte. Wenn der Algorithmus in transparenten Spielen betrügen könne, was halte ihn davon ab, Gleiches in komplexeren, weniger überwachten Umgebungen zu tun, fragen sich die Experten.

Parallelen zu War Games

Jeffrey Ladish, geschäftsführender Direktor von Palisade Research betont, dass dieses Verhalten besorgniserregend ist – besonders, wenn KI intelligenter wird und in strategisch relevanten Bereichen eingesetzt wird.

Das Ganze erinnert an den Supercomputer „WOPR“ aus dem Film War Games, der 1983 NORAD und das amerikanische Atomwaffenarsenal übernahm. Glücklicherweise lernte WOPR, dass kein Eröffnungszug in einem Atomkonflikt zu einem „Sieg“ führte. Die heutigen Denkmodelle sind jedoch weitaus komplexer und schwieriger zu kontrollieren.

Unternehmen wie OpenAI versuchen mit „Leitplanken“, unethisches Verhalten zu verhindern. Hinweise deuten darauf hin, dass OpenAI o1-preview nachträglich angepasst hat, um Hacking-Versuche zu reduzieren. Forscher wie Jeffrey Ladish kritisieren jedoch, dass solche stillschweigenden Änderungen wissenschaftliche Untersuchungen erschweren.

KI setzt Fairness schachmatt​ Weiterlesen »

Microsoft stellt multimodale KI vor​

Allgemein

Microsoft Research präsentiert Magma, das visuelle und sprachliche Intelligenz für interaktive Aufgaben kombinieren können soll. shutterstock – Frame Stock Footage Microsoft Research hat mit Magma ein neues integriertes KI-Grundmodell vorgestellt. Die multimodale Künstliche Intelligenz kombiniert laut Hersteller visuelle und sprachliche Verarbeitung von Daten und sei in der Lage, Software-Schnittstellen und Robotersysteme zu steuern. Der Name steht laut Microsoft Magma-Forscher Jianwei Yang für „M(ultimodal) Ag(entic) M(odel) at Microsoft Rese)A(rch)“. Dies stellte der Forscher auf dem Portal Hacker News klar, da es bereits eine bestehende Matrix-Algebra-Bibliothek mit dem gleichen Namen gibt. Es könnte sonst bei technischen Diskussionen Verwechslungen geben. Microsofts neues multimodales KI-Modell Microsoft behauptet, dass Magma das erste KI-Modell sei, das nicht nur multimodale Daten wie Text, Bilder und Videos verarbeitet. Es soll auch nativ wie ein agentisches System auf diese Daten reagieren können, sei es beim Navigieren auf einer Benutzeroberfläche oder beim Manipulieren physischer Objekte zum Beispiel durch Roboterarme. Das Projekt basiert auf einer Zusammenarbeit zwischen Forschern von Microsoft, dem Korea Advanced Institute of Science & Technology (KAIST), der University of Maryland, der University of Wisconsin-Madison und der University of Washington. Es gibt bereits andere große sprachmodellbasierte Robotikprojekte wie PALM-E und RT-2 von Google oder ChatGPT for Robotics von Microsoft, die LLMs für eine Schnittstelle verwenden. Im Gegensatz zu vielen dieser multimodalen KI-Systemen, die separate Modelle für die Wahrnehmung und Steuerung erfordern, integriert Magma diese Fähigkeiten in einem einzigen Grundmodell. Dies könnte einen bedeutenden Schritt in der Entwicklung einer universell einsetzbaren multimodalen KI bedeuten, die sowohl in realen als auch in digitalen Räumen interaktiv arbeiten kann. KI mit Planungs- und Handlungskompetenz Laut Microsoft kann Magma Ziele verstehen, Pläne erstellen und Aktionen ausführen, indem es Wissen aus visuellen und sprachlichen Daten überträgt. Das Modell kombiniere sowohl verbale, räumliche als auch zeitliche Intelligenz, um komplexe Aufgaben zu bewältigen. Hierdurch sei es in der Lage nicht nur Wahrnehmung, sondern auch Planung und Handlungsausführung zu beherrschen, so der Techriese. Es nutzt Trainingsdaten aus Bildern, Videos, Robotik und UI-Interaktionen, um als multimodaler Agent zu agieren. Zwei Schlüsseltechnologien sollen dies ermöglichen: Set-of-Mark, das interaktive Objekte identifiziert, und Trace-of-Mark, das Bewegungsmuster aus Videos lernt. Damit könne Magma beispielsweise auf digitalen Benutzeroberflächen navigieren oder Roboterarme steuern, so Microsoft. Besser als GPT-4V, aber hinter LLaVA-Next Magma-8B liefert ersten Tests zufolge offenbar gute Ergebnisse in Benchmarks. Das Modell übertrifft zum Beispiel GPT-4V im VQAv2-Benchmark mit 80,0 Punkten, bleibt jedoch hinter LLaVA-Next zurück. Mit einem POPE-Ergebnis von 87,4 erzielt es das beste Ergebnis im Vergleich und schlägt OpenVLA bei Robotermanipulationsaufgaben. Allerdings sind KI-Benchmarks oft noch nicht wissenschaftlich validiert, und eine unabhängige Überprüfung wird erst nach der Veröffentlichung des Codes möglich sein. Magma und seine technischen Grenzen Magma stößt insbesondere bei komplexen Entscheidungsfindungen mit vielen ineinander verschränkten Schritten an technische Grenzen. Microsoft arbeitet indes bereits an weiteren Verbesserungen und plant den Trainings- und Inferenzcode von Magma auf GitHub zu veröffentlichen, auch um externe Forschung zu fördern. Dadurch könnte Magma KI-Assistenten in die Lage versetzen, Software autonom zu bedienen und reale Aufgaben zu übernehmen, lautet das Ziel der Microsoft-Forscher. 

Microsoft stellt multimodale KI vor​ Microsoft Research präsentiert Magma, das visuelle und sprachliche Intelligenz für interaktive Aufgaben kombinieren können soll.
shutterstock – Frame Stock Footage

Microsoft Research hat mit Magma ein neues integriertes KI-Grundmodell vorgestellt. Die multimodale Künstliche Intelligenz kombiniert laut Hersteller visuelle und sprachliche Verarbeitung von Daten und sei in der Lage, Software-Schnittstellen und Robotersysteme zu steuern.

Der Name steht laut Microsoft Magma-Forscher Jianwei Yang für „M(ultimodal) Ag(entic) M(odel) at Microsoft Rese)A(rch)“. Dies stellte der Forscher auf dem Portal Hacker News klar, da es bereits eine bestehende Matrix-Algebra-Bibliothek mit dem gleichen Namen gibt. Es könnte sonst bei technischen Diskussionen Verwechslungen geben.

Microsofts neues multimodales KI-Modell

Microsoft behauptet, dass Magma das erste KI-Modell sei, das nicht nur multimodale Daten wie Text, Bilder und Videos verarbeitet. Es soll auch nativ wie ein agentisches System auf diese Daten reagieren können, sei es beim Navigieren auf einer Benutzeroberfläche oder beim Manipulieren physischer Objekte zum Beispiel durch Roboterarme.

Das Projekt basiert auf einer Zusammenarbeit zwischen Forschern von Microsoft, dem Korea Advanced Institute of Science & Technology (KAIST), der University of Maryland, der University of Wisconsin-Madison und der University of Washington.

Es gibt bereits andere große sprachmodellbasierte Robotikprojekte wie PALM-E und RT-2 von Google oder ChatGPT for Robotics von Microsoft, die LLMs für eine Schnittstelle verwenden. Im Gegensatz zu vielen dieser multimodalen KI-Systemen, die separate Modelle für die Wahrnehmung und Steuerung erfordern, integriert Magma diese Fähigkeiten in einem einzigen Grundmodell.

Dies könnte einen bedeutenden Schritt in der Entwicklung einer universell einsetzbaren multimodalen KI bedeuten, die sowohl in realen als auch in digitalen Räumen interaktiv arbeiten kann.

KI mit Planungs- und Handlungskompetenz

Laut Microsoft kann Magma Ziele verstehen, Pläne erstellen und Aktionen ausführen, indem es Wissen aus visuellen und sprachlichen Daten überträgt. Das Modell kombiniere sowohl verbale, räumliche als auch zeitliche Intelligenz, um komplexe Aufgaben zu bewältigen. Hierdurch sei es in der Lage nicht nur Wahrnehmung, sondern auch Planung und Handlungsausführung zu beherrschen, so der Techriese. Es nutzt Trainingsdaten aus Bildern, Videos, Robotik und UI-Interaktionen, um als multimodaler Agent zu agieren.

Zwei Schlüsseltechnologien sollen dies ermöglichen:

Set-of-Mark, das interaktive Objekte identifiziert, und

Trace-of-Mark, das Bewegungsmuster aus Videos lernt.

Damit könne Magma beispielsweise auf digitalen Benutzeroberflächen navigieren oder Roboterarme steuern, so Microsoft.

Besser als GPT-4V, aber hinter LLaVA-Next

Magma-8B liefert ersten Tests zufolge offenbar gute Ergebnisse in Benchmarks. Das Modell übertrifft zum Beispiel GPT-4V im VQAv2-Benchmark mit 80,0 Punkten, bleibt jedoch hinter LLaVA-Next zurück. Mit einem POPE-Ergebnis von 87,4 erzielt es das beste Ergebnis im Vergleich und schlägt OpenVLA bei Robotermanipulationsaufgaben.

Allerdings sind KI-Benchmarks oft noch nicht wissenschaftlich validiert, und eine unabhängige Überprüfung wird erst nach der Veröffentlichung des Codes möglich sein.

Magma und seine technischen Grenzen

Magma stößt insbesondere bei komplexen Entscheidungsfindungen mit vielen ineinander verschränkten Schritten an technische Grenzen. Microsoft arbeitet indes bereits an weiteren Verbesserungen und plant den Trainings- und Inferenzcode von Magma auf GitHub zu veröffentlichen, auch um externe Forschung zu fördern.

Dadurch könnte Magma KI-Assistenten in die Lage versetzen, Software autonom zu bedienen und reale Aufgaben zu übernehmen, lautet das Ziel der Microsoft-Forscher.

Microsoft stellt multimodale KI vor​ Weiterlesen »

Digital Twins für die digitale Produktion von morgen​

Allgemein

Der Digitale Zwilling einer Fabrik erlaubt die virtuelle Inbetriebnahme, um Fehler und Verzögerungen in der realen Welt zu vermeiden. Gorodenkoff/Shutterstock.com Gemeinsam wollen T-Systems und das auf Fabrik- und Industrieprojekte spezialisierte Beratungsunternehmen Drees & Sommer SE Anwenderunternehmen bei der Erstellung Digitaler Zwillinge auf Basis von NVIDIA Omniverse unterstützen. Eine Zusammenarbeit, die – so ist man bei Drees & Sommer überzeugt – einen noch tieferen Einstieg in die digitale Produktions- und Industriebauplanung und in das Industrial Metaverse  ermöglicht. Mit Hilfe der Omniverse-Plattform könnten Fertigungsunternehmen so ein Industrial Metaverse erstellen, das es erlaubt, alle Systeme für Montage-, Prozess-, Fördertechnik- und Industriebauplanung in einem zentralen System zu vereinen. Dies versetzte sowohl interne Teams als auch externe Partner in die Lage, schneller und effizienter zusammenarbeiten. Verbesserte Datengrundlage Zudem soll die verbesserte Datengrundlage eine frühzeitige Bewertung von Gesamtkonzepten ermöglichen. Dies führe den Partnern zufolge wiederum zu einer höheren Planungsqualität, was eine reibungslosere Inbetriebnahme – sowohl virtuell als auch in der realen Welt – erlaubt. Dadurch lassen sich laut Drees & Sommer Prozesse effizienter gestalten und Rückmeldungen können schneller erfolgen. Eine einheitliche und transparente Datenbasis verbessert zudem die Planung und den Ablauf der Inbetriebnahme. Ausfälle vermeiden Was das in der Praxis bedeuten könnte, veranschaulichen die Berater an zwei Negativbeispielen: Beim Neubau einer Fabrik steht der Hightech-Fertigungsanlage trotz intensiver Abstimmungen aller Gewerke ein massiver Pfeiler im Weg. Eine kleine Sanierungsarbeit sorgt unvermittelt für eine teure Produktionspause. Der Störfall einer defekten Maschine wäre bei rechtzeitigem Austausch des Ersatzteiles vermeidbar gewesen. Solche Aus- und Zwischenfälle lassen sich Dress & Sommer mit einem Digitalen Zwilling der Fabrik vermeiden. Und hier käme nun Omniverse ins Spiel: Damit können Produzenten das Zusammenspiel von Menschen, Maschinen und Anlagen, Produktions- und Logistikprozessen, Gebäuden, Produkten und Infrastruktur eins zu eins digital abbilden und in Echtzeit simulieren. Auf diese Weise lassen sich mögliche Kollisionen schon in der virtuellen Welt erkennen, damit im realen Werk von Anfang an alles fehlerfrei läuft. Ihre Feuertaufe hat die Zusammenarbeit zwischen T-Systems und Drees & Sommer wohl bereits hinter sich: Die Partner durften ihr Know-how in ersten durchgeführten Projekten für einen namhaften Autohersteller unter Beweis stellen. Dazu zählten die Koordination eines Pilotprojektes, die Integration von Lieferanten- und Technologieschnittstellen sowie die Entwicklung grundlegender Prozesse und Standards. 

Digital Twins für die digitale Produktion von morgen​ Der Digitale Zwilling einer Fabrik erlaubt die virtuelle Inbetriebnahme, um Fehler und Verzögerungen in der realen Welt zu vermeiden.
Gorodenkoff/Shutterstock.com

Gemeinsam wollen T-Systems und das auf Fabrik- und Industrieprojekte spezialisierte Beratungsunternehmen Drees & Sommer SE Anwenderunternehmen bei der Erstellung Digitaler Zwillinge auf Basis von NVIDIA Omniverse unterstützen. Eine Zusammenarbeit, die – so ist man bei Drees & Sommer überzeugt – einen noch tieferen Einstieg in die digitale Produktions- und Industriebauplanung und in das Industrial Metaverse  ermöglicht.

Mit Hilfe der Omniverse-Plattform könnten Fertigungsunternehmen so ein Industrial Metaverse erstellen, das es erlaubt, alle Systeme für Montage-, Prozess-, Fördertechnik- und Industriebauplanung in einem zentralen System zu vereinen. Dies versetzte sowohl interne Teams als auch externe Partner in die Lage, schneller und effizienter zusammenarbeiten.

Verbesserte Datengrundlage

Zudem soll die verbesserte Datengrundlage eine frühzeitige Bewertung von Gesamtkonzepten ermöglichen. Dies führe den Partnern zufolge wiederum zu einer höheren Planungsqualität, was eine reibungslosere Inbetriebnahme – sowohl virtuell als auch in der realen Welt – erlaubt.

Dadurch lassen sich laut Drees & Sommer Prozesse effizienter gestalten und Rückmeldungen können schneller erfolgen. Eine einheitliche und transparente Datenbasis verbessert zudem die Planung und den Ablauf der Inbetriebnahme.

Ausfälle vermeiden

Was das in der Praxis bedeuten könnte, veranschaulichen die Berater an zwei Negativbeispielen: Beim Neubau einer Fabrik steht der Hightech-Fertigungsanlage trotz intensiver Abstimmungen aller Gewerke ein massiver Pfeiler im Weg. Eine kleine Sanierungsarbeit sorgt unvermittelt für eine teure Produktionspause. Der Störfall einer defekten Maschine wäre bei rechtzeitigem Austausch des Ersatzteiles vermeidbar gewesen.

Solche Aus- und Zwischenfälle lassen sich Dress & Sommer mit einem Digitalen Zwilling der Fabrik vermeiden. Und hier käme nun Omniverse ins Spiel: Damit können Produzenten das Zusammenspiel von Menschen, Maschinen und Anlagen, Produktions- und Logistikprozessen, Gebäuden, Produkten und Infrastruktur eins zu eins digital abbilden und in Echtzeit simulieren. Auf diese Weise lassen sich mögliche Kollisionen schon in der virtuellen Welt erkennen, damit im realen Werk von Anfang an alles fehlerfrei läuft.

Ihre Feuertaufe hat die Zusammenarbeit zwischen T-Systems und Drees & Sommer wohl bereits hinter sich: Die Partner durften ihr Know-how in ersten durchgeführten Projekten für einen namhaften Autohersteller unter Beweis stellen. Dazu zählten die Koordination eines Pilotprojektes, die Integration von Lieferanten- und Technologieschnittstellen sowie die Entwicklung grundlegender Prozesse und Standards.

Digital Twins für die digitale Produktion von morgen​ Weiterlesen »

Gartner warnt vor Datenanalysen im Blindflug​

Allgemein

Viele CDAOs haben Schwierigkeiten, den geschäftlichen Nutzen von Daten, Analysen und KI messbar zu machen.amgun / Shutterstock Gerade mit der wachsenden Bedeutung von Künstlicher Intelligenz rücken auch Daten immer mehr in den Vordergrund. Dennoch fällt es vielen Chief Data and Analytics Officers (CDAOs) schwer, den geschäftlichen Nutzen entsprechender Anwendungsfälle darzustellen. Fast ein Drittel (30 Prozent) der CDAOs sieht die größte Herausforderung darin, den Einfluss von Daten, Analysen und KI auf die Geschäftsergebnisse zu messen.  Zu diesem Ergebnis kommt die aktuelle „Chief Data & Analytics Officer Agenda Survey“ von Gartner. Die Umfrage wurde zwischen September und November 2024 unter 504 Führungskräften aus dem Bereich Daten und Analyse weltweit durchgeführt.   Erfolgsmessung wird Hauptaufgabe Die Umfrage ergab darüber hinaus, dass für die überwältigende Mehrheit (über 90 Prozent) der Befragten die wert- und ergebnisorientierten Bereiche ihrer Rolle als D&A-Manager in den letzten 12 bis 18 Monaten zu ihren wichtigsten Aufgabenfeldern geworden sind – und dies auch in Zukunft bleiben werden. Allerdings haben nur 22 Prozent der befragten Organisationen für die meisten ihrer D&A-Anwendungsfälle Kennzahlen für die geschäftlichen Auswirkungen definiert, verfolgt und kommuniziert.   „Daten werden als enorm wertvoll angesehen, und viele Unternehmen sprechen über den Wert von Daten, den Wunsch, datengesteuert zu arbeiten und so weiter“, führt Michael Gabbard, Senior Director Analyst bei Gartner, aus. Doch nur wenige seien in der Lage, Data-driven auch umzusetzen, obwohl das Wettbewerbsvorteile bergen könne, so Gabbard. CDAOs sollten entsprechende Initiativen voranzutreiben, empfiehlt der Gartner-Analyst, indem sie wichtige Trends frühzeitig erkennen, um proaktive und fundierte Entscheidungen über die D&A-Strategie treffen zu können. Allerdings hapert es hier oft bei der Umsetzung. So bezeichneten es 91 Prozent der CDAOs in der Gartner-Umfrage als eine ihrer Hauptaufgaben, eine umsetzbare D&A-Strategie zu entwickeln. Gabbard weist jedoch darauf hin, dass mehr als ein Drittel von ihnen es nicht als ihre vorrangige Aufgabe ansehe, das Betriebsmodell zu definieren und weiterzuentwickeln. “Es gibt eine anhaltende Kluft zwischen Planung und Ausführung für D&A-Führungskräfte“, so der Gartner-Analyst.  

Gartner warnt vor Datenanalysen im Blindflug​ Viele CDAOs haben Schwierigkeiten, den geschäftlichen Nutzen von Daten, Analysen und KI messbar zu machen.amgun / Shutterstock

Gerade mit der wachsenden Bedeutung von Künstlicher Intelligenz rücken auch Daten immer mehr in den Vordergrund. Dennoch fällt es vielen Chief Data and Analytics Officers (CDAOs) schwer, den geschäftlichen Nutzen entsprechender Anwendungsfälle darzustellen. Fast ein Drittel (30 Prozent) der CDAOs sieht die größte Herausforderung darin, den Einfluss von Daten, Analysen und KI auf die Geschäftsergebnisse zu messen. 

Zu diesem Ergebnis kommt die aktuelle „Chief Data & Analytics Officer Agenda Survey“ von Gartner. Die Umfrage wurde zwischen September und November 2024 unter 504 Führungskräften aus dem Bereich Daten und Analyse weltweit durchgeführt.  

Erfolgsmessung wird Hauptaufgabe

Die Umfrage ergab darüber hinaus, dass für die überwältigende Mehrheit (über 90 Prozent) der Befragten die wert- und ergebnisorientierten Bereiche ihrer Rolle als D&A-Manager in den letzten 12 bis 18 Monaten zu ihren wichtigsten Aufgabenfeldern geworden sind – und dies auch in Zukunft bleiben werden. Allerdings haben nur 22 Prozent der befragten Organisationen für die meisten ihrer D&A-Anwendungsfälle Kennzahlen für die geschäftlichen Auswirkungen definiert, verfolgt und kommuniziert.  

„Daten werden als enorm wertvoll angesehen, und viele Unternehmen sprechen über den Wert von Daten, den Wunsch, datengesteuert zu arbeiten und so weiter“, führt Michael Gabbard, Senior Director Analyst bei Gartner, aus. Doch nur wenige seien in der Lage, Data-driven auch umzusetzen, obwohl das Wettbewerbsvorteile bergen könne, so Gabbard.

CDAOs sollten entsprechende Initiativen voranzutreiben, empfiehlt der Gartner-Analyst, indem sie wichtige Trends frühzeitig erkennen, um proaktive und fundierte Entscheidungen über die D&A-Strategie treffen zu können.

Allerdings hapert es hier oft bei der Umsetzung. So bezeichneten es 91 Prozent der CDAOs in der Gartner-Umfrage als eine ihrer Hauptaufgaben, eine umsetzbare D&A-Strategie zu entwickeln. Gabbard weist jedoch darauf hin, dass mehr als ein Drittel von ihnen es nicht als ihre vorrangige Aufgabe ansehe, das Betriebsmodell zu definieren und weiterzuentwickeln. “Es gibt eine anhaltende Kluft zwischen Planung und Ausführung für D&A-Führungskräfte“, so der Gartner-Analyst. 

Gartner warnt vor Datenanalysen im Blindflug​ Weiterlesen »

CIO Cloud Summit: Best Practices von Anwendern für Anwender​

Allgemein

Erfahren Sie auf dem CIO Cloud Summit in Köln, wie Sie die nächste Cloud-Welle am besten reiten. IDC Foundry Flexibilität, Agilität und Skalierbarkeit sind die entscheidenden Parameter für das Gelingen der Transformation von Unternehmen. All dies sprach und spricht bis dato nahezu alternativlos für die Cloud als IT-Betriebsmodell. Doch wo stehen deutsche Firmen bei ihrer Cloud Transformation? Besser gesagt: Wie stehen sie da? Ist es tatsächlich gelungen, den eigenen Betrieb nachhaltig zu modernisieren und die Prozesse agiler zu gestalten? Warum ist in Einzelfällen womöglich eher Ernüchterung eingekehrt? Inwieweit erfordert der Trend zu KI-basierten Anwendungen aktuell eine noch stärkere Nutzung von Rechenleistung aus der Cloud? Und: Wie managed man diese von vielen Experten prognostizierte zweite „Cloud-Welle“? Der CIO Cloud Summit am 11. März 2025 in Köln gibt Antworten auf diese und viele anderen Fragen, die sich den IT-Entscheiderinnen und -Entscheidern im Zusammenhang mit der Modernisierung ihrer IT-Infrastruktur stellen. Das Entscheidende dabei ist: Wie bei allen Events von CIO kommen diese Antworten von der Community selbst. Die Cloud Journey von AXA und Deutsche Bank So zeigen nach einer einführenden Keynote von IDC-Analystin Carla Arend mit Thomas Schelenz, Group Head of Cloud Services bei AXA Group Operations, sowie Christoph Rabenseifner, Chief Strategy Officer für Technologie, Daten & Innovation bei der Deutschen Bank, zwei Vertreter der Finanzwirtschaft, wie ihre beiden Häuser die Cloud-Transformation bisher erfolgreich bewältigt haben. Thomas Schelenz erläutert die Herausforderungen, die sich in seiner Organisation beim Übergang vom traditionellen Business Application Hosting zu einer integrierten Cloud-Hosting-Infrastruktur ergeben haben. Und er führt aus, warum diese Transformation notwendig war, um die nächsten Schritte von AXA in Richtung noch mehr Daten-fokussierter Prozesse und den Einsatz von Künstlicher Intelligenz zu gehen. Christoph Rabenseifner, Chief Strategy Officer für Technologie bei der Deutschen Bank, erläutert, welche Möglichkeiten die Cloud für den KI-Einsatz eröffnet.Rabenseifner Christoph Rabenseifner berichtet aus seiner Perspektive, welche der strategischen Anwendungen der Deutschen Bank vom Betrieb in der Cloud profitieren – und er gibt Einblicke, wie die Bank in der Cloud die Möglichkeiten der Künstlichen Intelligenz zum Vorteil ihrer Kunden und ihres eigenen Betriebs nutzt. Cloud-Strategien der deutschen Industrie Best Practices aus anderen Branchen liefern auch die weiteren Keynote-Sprecher – unter anderem von E.ON, RheinEnergie und ThyssenKrupp. Tim Dengs, Head of Foundation von E.ON Digital Technology, beschreibt die wichtigsten Erfolgsfaktoren der E.ON Cloud Journey und gibt einen Ausblick zu den geplanten nächsten Schritten in diesem umfangreichen Transformations-Projekt, das europaweit derzeit seinesgleichen sucht. Jetzt anmelden für den CIO Cloud Summit im März 2025 Im Mittelpunkt des Vortrages von Paraj Sharma, Head of Cloud Computing & Platforms im ThyssenKrupp Information Management, steht indes das strategische Vorgehen seines Unternehmen bei der Priorisierung einzelner Cloud-Projekte, das unter den Prämissen Geschwindigkeit, Innovationen und Skalierbarkeit stand. Ein Vorgehen, das den traditionellen Stahlkonzern letztlich ein Stück weit in die Lage versetzt hat, sich neu zu erfinden. Wie RheinEnergie auf SAP S4/HANA in der Cloud migriert Spannend dürften ferner die Insights von Phil Korte, Cloud Solution Architect, sowie Erik Schubert, IT Service Architect der RheinEnergie AG, zu ihrer Migration von SAP R/3 auf S/4HANA sein. Die beiden IT-Manager des in Köln ansässigen Energieversorgers werden in einem Live-Gespräch auf der Bühne nicht nur von einer grundlegenden Neuausrichtung ihrer IT-Infrastruktur berichten, sondern auch die zentralen Herausforderungen und Lösungsansätze für eine erfolgreiche Transition in die Cloud beleuchten. Ihr Fokus liegt dabei vor allem auch auf der Auswahl der passenden Cloud-Architektur (Public, Private, Hybrid), der optimalen Skalierung von Computing- und Storage-Ressourcen sowie der Integration der ausgelagerten Workloads in bestehende IT-Landschaften. Last, but not least dürfen sich die Teilnehmerinnen und Teilnehmer des CIO Cloud Summits auf einen weiteren Höhepunkt freuen: Christian Klein, COO und CIO des Glasfaser-Netzbetreibers metrofibre hat es nicht nur geschafft, seine gesamte IT-Landschaft „in der Cloud“ aufzubauen. Viel entscheidender ist: Sämtliche Geschäftsprozesse werden hierbei durch ein standardisiertes Datenmodell und eine hohe Automatisierung unterstützt, was die entscheidende Grundlage für einen erfolgreichen Einsatz von KI bildet. KI im produktiven Einsatz bei metrofibre Eine dieser KI-basierten Anwendungen ist der „AI Competitor“ des Kölner Providers. Ein Tool, das Cloud-basiert tagesaktuell die öffentlich publizierten Aktivitäten aller Wettbewerber von metrofibre in Deutschland sammelt, analysiert und visualisiert. Cloud-based AI ermöglicht es metrofibre somit, operative Kosten zu sparen – und zeigt, wie man schnell und effizient KI aus der experimentellen Phase in den produktiven Betrieb überführt. Stichwort KI-Nutzung: Interessierten IT-Verantwortlichen sei auch unser Pre-Event zum CIO Summit am 10. März ab 16:00 Uhr ans Herz gelegt, der sich ganz konkret dem Zusammenspiel hybrider Cloud-Architekturen und produktiver, KI-basierter Prozesse widmet. Die Teilnahme am CIO-Summit ist nur IT-Verantwortliche aus Anwenderunternehmen möglich. Weitere Informationen zum Programm sowie die Möglichkeit zur kostenfreien Registrierung finden Sie hier: IDC CIO Cloud Summit 

CIO Cloud Summit: Best Practices von Anwendern für Anwender​ Erfahren Sie auf dem CIO Cloud Summit in Köln, wie Sie die nächste Cloud-Welle am besten reiten. IDC Foundry

Flexibilität, Agilität und Skalierbarkeit sind die entscheidenden Parameter für das Gelingen der Transformation von Unternehmen. All dies sprach und spricht bis dato nahezu alternativlos für die Cloud als IT-Betriebsmodell.

Doch wo stehen deutsche Firmen bei ihrer Cloud Transformation? Besser gesagt: Wie stehen sie da? Ist es tatsächlich gelungen, den eigenen Betrieb nachhaltig zu modernisieren und die Prozesse agiler zu gestalten? Warum ist in Einzelfällen womöglich eher Ernüchterung eingekehrt? Inwieweit erfordert der Trend zu KI-basierten Anwendungen aktuell eine noch stärkere Nutzung von Rechenleistung aus der Cloud? Und: Wie managed man diese von vielen Experten prognostizierte zweite „Cloud-Welle“?

Der CIO Cloud Summit am 11. März 2025 in Köln gibt Antworten auf diese und viele anderen Fragen, die sich den IT-Entscheiderinnen und -Entscheidern im Zusammenhang mit der Modernisierung ihrer IT-Infrastruktur stellen. Das Entscheidende dabei ist: Wie bei allen Events von CIO kommen diese Antworten von der Community selbst.

Die Cloud Journey von AXA und Deutsche Bank

So zeigen nach einer einführenden Keynote von IDC-Analystin Carla Arend mit Thomas Schelenz, Group Head of Cloud Services bei AXA Group Operations, sowie Christoph Rabenseifner, Chief Strategy Officer für Technologie, Daten & Innovation bei der Deutschen Bank, zwei Vertreter der Finanzwirtschaft, wie ihre beiden Häuser die Cloud-Transformation bisher erfolgreich bewältigt haben.

Thomas Schelenz erläutert die Herausforderungen, die sich in seiner Organisation beim Übergang vom traditionellen Business Application Hosting zu einer integrierten Cloud-Hosting-Infrastruktur ergeben haben. Und er führt aus, warum diese Transformation notwendig war, um die nächsten Schritte von AXA in Richtung noch mehr Daten-fokussierter Prozesse und den Einsatz von Künstlicher Intelligenz zu gehen.

Christoph Rabenseifner, Chief Strategy Officer für Technologie bei der Deutschen Bank, erläutert, welche Möglichkeiten die Cloud für den KI-Einsatz eröffnet.Rabenseifner

Christoph Rabenseifner berichtet aus seiner Perspektive, welche der strategischen Anwendungen der Deutschen Bank vom Betrieb in der Cloud profitieren – und er gibt Einblicke, wie die Bank in der Cloud die Möglichkeiten der Künstlichen Intelligenz zum Vorteil ihrer Kunden und ihres eigenen Betriebs nutzt.

Cloud-Strategien der deutschen Industrie

Best Practices aus anderen Branchen liefern auch die weiteren Keynote-Sprecher – unter anderem von E.ON, RheinEnergie und ThyssenKrupp. Tim Dengs, Head of Foundation von E.ON Digital Technology, beschreibt die wichtigsten Erfolgsfaktoren der E.ON Cloud Journey und gibt einen Ausblick zu den geplanten nächsten Schritten in diesem umfangreichen Transformations-Projekt, das europaweit derzeit seinesgleichen sucht.

Jetzt anmelden für den CIO Cloud Summit im März 2025

Im Mittelpunkt des Vortrages von Paraj Sharma, Head of Cloud Computing & Platforms im ThyssenKrupp Information Management, steht indes das strategische Vorgehen seines Unternehmen bei der Priorisierung einzelner Cloud-Projekte, das unter den Prämissen Geschwindigkeit, Innovationen und Skalierbarkeit stand. Ein Vorgehen, das den traditionellen Stahlkonzern letztlich ein Stück weit in die Lage versetzt hat, sich neu zu erfinden.

Wie RheinEnergie auf SAP S4/HANA in der Cloud migriert

Spannend dürften ferner die Insights von Phil Korte, Cloud Solution Architect, sowie Erik Schubert, IT Service Architect der RheinEnergie AG, zu ihrer Migration von SAP R/3 auf S/4HANA sein. Die beiden IT-Manager des in Köln ansässigen Energieversorgers werden in einem Live-Gespräch auf der Bühne nicht nur von einer grundlegenden Neuausrichtung ihrer IT-Infrastruktur berichten, sondern auch die zentralen Herausforderungen und Lösungsansätze für eine erfolgreiche Transition in die Cloud beleuchten. Ihr Fokus liegt dabei vor allem auch auf der Auswahl der passenden Cloud-Architektur (Public, Private, Hybrid), der optimalen Skalierung von Computing- und Storage-Ressourcen sowie der Integration der ausgelagerten Workloads in bestehende IT-Landschaften.

Last, but not least dürfen sich die Teilnehmerinnen und Teilnehmer des CIO Cloud Summits auf einen weiteren Höhepunkt freuen: Christian Klein, COO und CIO des Glasfaser-Netzbetreibers metrofibre hat es nicht nur geschafft, seine gesamte IT-Landschaft „in der Cloud“ aufzubauen. Viel entscheidender ist: Sämtliche Geschäftsprozesse werden hierbei durch ein standardisiertes Datenmodell und eine hohe Automatisierung unterstützt, was die entscheidende Grundlage für einen erfolgreichen Einsatz von KI bildet.

KI im produktiven Einsatz bei metrofibre

Eine dieser KI-basierten Anwendungen ist der „AI Competitor“ des Kölner Providers. Ein Tool, das Cloud-basiert tagesaktuell die öffentlich publizierten Aktivitäten aller Wettbewerber von metrofibre in Deutschland sammelt, analysiert und visualisiert. Cloud-based AI ermöglicht es metrofibre somit, operative Kosten zu sparen – und zeigt, wie man schnell und effizient KI aus der experimentellen Phase in den produktiven Betrieb überführt.

Stichwort KI-Nutzung: Interessierten IT-Verantwortlichen sei auch unser Pre-Event zum CIO Summit am 10. März ab 16:00 Uhr ans Herz gelegt, der sich ganz konkret dem Zusammenspiel hybrider Cloud-Architekturen und produktiver, KI-basierter Prozesse widmet.

Die Teilnahme am CIO-Summit ist nur IT-Verantwortliche aus Anwenderunternehmen möglich. Weitere Informationen zum Programm sowie die Möglichkeit zur kostenfreien Registrierung finden Sie hier:

IDC CIO Cloud Summit

CIO Cloud Summit: Best Practices von Anwendern für Anwender​ Weiterlesen »

6 Enterprise-Architecture-Todsünden​

Allgemein

Lesen Sie, wie sich Enterprise Architects (nicht) versündigen. Foto: g215 – shutterstock.comEin Unternehmen am Laufen zu halten, war noch nie leicht. Softwaretools mögen dafür gesorgt haben, dass viele Prozesse schneller, reibungsloser und konsistenter ablaufen. Leider gilt das oft nicht für die, die die Software am Laufen halten müssen. Trotz aller Fortschritte: Enterprise Architecture (EA) bleibt eine Welt, die kaum jemand vollständig durchdringt. Oft nicht einmal die Enterprise Architects selbst, die immer noch lernen und experimentieren, wenn es darum geht, was sie tun sollten – und noch viel wichtiger – was nicht.Auf der Suche nach der optimalen Balance, um die Software Stacks am Laufen zu halten und parallel das Arbeitsleben aller Mitarbeiter so einfach wie möglich zu gestalten, werden EA-Spezialisten wahrscheinlich immer wieder Fehler unterlaufen. Das liegt teilweise an der hochtechnischen und komplexen Natur ihrer Aufgaben. Teilweise jedoch auch an den folgenden sechs Todsünden der Enterprise Architecture, denen die Spezialisten wiederholt erliegen.1. Zu viele Daten (oder zu wenig)Softwareentwickler sind oft sammelwütig. Sie speichern im Cache was sie können, protokollieren jedes Ereignis und fertige fleißig Backups an. Diese Giga- und Petabytes summieren sich. Selbst im Fall sehr niedriger Cold-Storage-Kosten können die Gebühren sich bei großen Datenmengen läppern. Erschwerend kommt hinzu, dass es mit steigendem Datenbestand auch immer diffiziler wird, die richtigen Daten zu finden.Auf der anderen Seite bringt es jedoch ebenfalls Probleme mit sich, zu wenige Daten vorzuhalten. Manche Unternehmen haben versucht, Richtlinien für die Datenaufbewahrung festzulegen und alles zu vernichten, sobald es die Vorschriften erlauben. Das kann jedoch zu einer Art Unternehmensamnesie führen, bei der die Antwort auf jede Frage zu lauten scheint: “Diese Datei existiert nicht mehr.”Alles was Enterprise Architects tun können, um sich der richtigen Balance anzunähern, ist, eine gut geeignete Data-Storage-Architektur zu finden. Das Ziel sollte sein, die richtigen Informationen in einer leicht zugänglichen Struktur abzulegen.2. Sich plattformabhängig machen (oder das Gegenteil)Der einfachste Weg zur Enterprise Software besteht darin, Tools, Portale und Plattformen zu nutzen, die von einem externen Anbieter entwickelt wurden. In vielen Fällen lassen sich 90 Prozent der Arbeit mit der Unterschrift auf einer Bestellung und ein bisschen Code als Klebstoff erledigen. Wichtige Unternehmensteile externen Anbietern anzuvertrauen, birgt jedoch auch Risiken. Vielleicht kauft ein Privatinvestor den Anbieter, entlässt alle guten Mitarbeiter und erhöht anschließend den Preis. Dann haben sich die Vorteile der singulären Plattform schnell erledigt.Auf zu viele verschiedene Plattformen zu setzen, ist jedoch manchmal ebenso kontraproduktiv: Die Vertriebsmenschen der Anbieter versprechen viel, wenn es um Interoperabilität, Kompatibilität und den Einsatz von Standardprotokollen geht. Und selbst, wenn sie dabei nicht übertreiben: Jedes Tool speichert Daten in einer Datenbank. Dabei verwenden manche MySQL, andere PostgreSQL und wieder andere Oracle.Es gibt also auch in diesem Bereich keine einfache Lösung. Zu viele Plattformen schaffen einen Turm zu Babel, bei zu wenigen besteht die Gefahr des Vendor-Lock-in. Über die anfallenden Kosten, wenn die gesamte Entwicklung im eigenen Haus stattfindet, haben wir dann noch gar nicht gesprochen.3. Zu viel Outsourcing in die Cloud (oder zu wenig)Die Cloud hat Enterprise Architects das Leben leichter gemacht. Rechenressourcen sind jederzeit auf Abruf verfügbar, Bestellungen sind nicht mehr nötig und Platz für Racks ebenfalls überflüssig. Alles, was dafür heute noch nötig ist, ist eine Kreditkarte.Die Vorteile liegen auf der Hand. Der größte Nachteil allerdings im Preis: Cloud Computing ist im Vergleich oft erheblich teurer als eine Inhouse-Lösung. Erkundigen Sie sich einfach mal unter CFOs, wie groß die Vorfreude ausfällt, wenn die monatliche Cloud-Rechnung ansteht. Auf der anderen Seite verursachen weitere Mitarbeiter, das Rechenzentrum und das nötige Equipment natürlich ebenfalls Kosten.Manche Enterprise Architects können mit der Cloud große Gewinne erzielen. Das sind im Regelfall diejenigen, die davon profitieren, Ressourcen lastenabhängig zu steuern. Alle anderen EA-Spezialisten müssen, beziehungsweise sollten eruieren, ob sie zu viel oder zu wenig in die Cloud investiert haben.4. Frameworks vergöttern (oder verdammen)Um der Komplexität heutiger Enterprise Stacks gerecht werden zu können, wurden einige Enterprise-Architecture-Frameworks entwickelt. TOGAF ist beispielsweise ein solches strategisches Rahmenwerk, um so gut wie alles aufzubauen, was moderne Unternehmen benötigen. Dazu bietet es eine Reihe von Richtlinien und Best Practices, darunter eine Architekturentwicklungsmethode und ein Architektur-Compliance-Framework. Andere Ansätze, wie das Zachman Framework oder FEAF, führen ihre jeweils eigene Guidelines und Vorschriften für den Aufbau eines Enterprise Stacks ein.Der größte Vorteil der Frameworks liegt in der Konsistenz. Sobald jeder in der Organisation mit den Techniken und Theorien vertraut ist, sollte es einfacher werden, sich in der Software zurechtzufinden. Daten und Code sind (normalerweise) so strukturiert, dass sich alles an einem vorhersehbaren Ort befindet.Einige EA-Spezialisten treiben es diesbezüglich jedoch zu weit. Sie übernehmen nicht nur ein Framework, sondern verschreiben sich einem Kult und stellen die Spezifikationen des Rahmenwerks über alles. Wehe dem, der von diesem Weg abweicht. Selbst, wenn dabei alle mit an Bord des Kults wären, dürften sich andere Problemszenarien ergeben. Etwa, wenn Open-Source-Code, der perfekt funktioniert, abgelehnt wird, weil er nicht dem gewünschten Architekturrahmen entspricht. Oder Anbieterangebote, die eigentlich eine gute Lösung wären, aber nicht in Frage kommen, weil sie unter der falschen Philosophie entwickelt wurden.5. Methodik ist alles was zähltFrameworks können eine Struktur an die Hand geben – aber auch schlampiges, faules oder sogar maliziöses Verhalten begünstigen. Entscheidungen könnten beispielsweise hinausgezögert werden, weil das Team darauf wartet, dass jemand das richtige TOGAF-Formular ausfüllt. Es ist ein schmaler Grat zwischen unterstützendem Rahmen und lähmender Bürokratie.Was es braucht, ist eine Methode, um den Entwicklungs-Workflow zu organisieren. Wenn ein Projekt den Arbeitsaufwand übersteigt, den eine Person an einem Wochenende stemmen kann, sollte es eine Strategie geben. Problematisch wird es dann, wenn diese Methodik am Ende mehr zählt als alles andere.6. Trends blind folgen (oder ignorieren)Enterprise-Architekten orientieren sich gerne an den neuesten Ideen und Modellen in ihrem Bereich. Das passt mit etwas Glück unter Umständen auch tatsächlich zu den Unternehmensbedürfnissen. Aber eben bei weitem nicht immer. Schwierig wird es vor allem dann, wenn Entwicklerteams krampfhaft versuchen, ihren Code an den Trend anzupassen. Dass ganze Code-Basen entsorgt werden müssen, die für ein ehemals trendiges Ziel entworfen wurden, ist längst keine Seltenheit mehr. Trends und aktuelle Entwicklungen völlig zu ignorieren, kann allerdings ebenso ins Verderben führen. Sicher, Ihr Code ist seiner ursprünglichen Vision treu geblieben und verwendet Datenbanken, Formate, Codierungs-Standards und Protokolle, die einwandfrei funktionieren. Wenn allerdings die ganze Welt auf einen Trendzug aufspringt, dann gilt das auch für Tool-Anbieter und potenzielle neue Mitarbeiter. Manche dieser Trends und Modeerscheinungen können zu neuen Standards werden und manchmal sogar zu etwas noch Schlimmerem – rechtlichen Anforderungen.Enterprise Architects haben es nicht leicht. Alles, was sie tun können, ist, vorsichtig zu versuchen, das Richtige für den Tech-Stack des Unternehmens zu tun – und für die IT-Profis, die sich um ihn kümmern müssen. (fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CIO.com. 

6 Enterprise-Architecture-Todsünden​ Lesen Sie, wie sich Enterprise Architects (nicht) versündigen.
Foto: g215 – shutterstock.comEin Unternehmen am Laufen zu halten, war noch nie leicht. Softwaretools mögen dafür gesorgt haben, dass viele Prozesse schneller, reibungsloser und konsistenter ablaufen. Leider gilt das oft nicht für die, die die Software am Laufen halten müssen. Trotz aller Fortschritte: Enterprise Architecture (EA) bleibt eine Welt, die kaum jemand vollständig durchdringt. Oft nicht einmal die Enterprise Architects selbst, die immer noch lernen und experimentieren, wenn es darum geht, was sie tun sollten – und noch viel wichtiger – was nicht.Auf der Suche nach der optimalen Balance, um die Software Stacks am Laufen zu halten und parallel das Arbeitsleben aller Mitarbeiter so einfach wie möglich zu gestalten, werden EA-Spezialisten wahrscheinlich immer wieder Fehler unterlaufen. Das liegt teilweise an der hochtechnischen und komplexen Natur ihrer Aufgaben. Teilweise jedoch auch an den folgenden sechs Todsünden der Enterprise Architecture, denen die Spezialisten wiederholt erliegen.1. Zu viele Daten (oder zu wenig)Softwareentwickler sind oft sammelwütig. Sie speichern im Cache was sie können, protokollieren jedes Ereignis und fertige fleißig Backups an. Diese Giga- und Petabytes summieren sich. Selbst im Fall sehr niedriger Cold-Storage-Kosten können die Gebühren sich bei großen Datenmengen läppern. Erschwerend kommt hinzu, dass es mit steigendem Datenbestand auch immer diffiziler wird, die richtigen Daten zu finden.Auf der anderen Seite bringt es jedoch ebenfalls Probleme mit sich, zu wenige Daten vorzuhalten. Manche Unternehmen haben versucht, Richtlinien für die Datenaufbewahrung festzulegen und alles zu vernichten, sobald es die Vorschriften erlauben. Das kann jedoch zu einer Art Unternehmensamnesie führen, bei der die Antwort auf jede Frage zu lauten scheint: “Diese Datei existiert nicht mehr.”Alles was Enterprise Architects tun können, um sich der richtigen Balance anzunähern, ist, eine gut geeignete Data-Storage-Architektur zu finden. Das Ziel sollte sein, die richtigen Informationen in einer leicht zugänglichen Struktur abzulegen.2. Sich plattformabhängig machen (oder das Gegenteil)Der einfachste Weg zur Enterprise Software besteht darin, Tools, Portale und Plattformen zu nutzen, die von einem externen Anbieter entwickelt wurden. In vielen Fällen lassen sich 90 Prozent der Arbeit mit der Unterschrift auf einer Bestellung und ein bisschen Code als Klebstoff erledigen. Wichtige Unternehmensteile externen Anbietern anzuvertrauen, birgt jedoch auch Risiken. Vielleicht kauft ein Privatinvestor den Anbieter, entlässt alle guten Mitarbeiter und erhöht anschließend den Preis. Dann haben sich die Vorteile der singulären Plattform schnell erledigt.Auf zu viele verschiedene Plattformen zu setzen, ist jedoch manchmal ebenso kontraproduktiv: Die Vertriebsmenschen der Anbieter versprechen viel, wenn es um Interoperabilität, Kompatibilität und den Einsatz von Standardprotokollen geht. Und selbst, wenn sie dabei nicht übertreiben: Jedes Tool speichert Daten in einer Datenbank. Dabei verwenden manche MySQL, andere PostgreSQL und wieder andere Oracle.Es gibt also auch in diesem Bereich keine einfache Lösung. Zu viele Plattformen schaffen einen Turm zu Babel, bei zu wenigen besteht die Gefahr des Vendor-Lock-in. Über die anfallenden Kosten, wenn die gesamte Entwicklung im eigenen Haus stattfindet, haben wir dann noch gar nicht gesprochen.3. Zu viel Outsourcing in die Cloud (oder zu wenig)Die Cloud hat Enterprise Architects das Leben leichter gemacht. Rechenressourcen sind jederzeit auf Abruf verfügbar, Bestellungen sind nicht mehr nötig und Platz für Racks ebenfalls überflüssig. Alles, was dafür heute noch nötig ist, ist eine Kreditkarte.Die Vorteile liegen auf der Hand. Der größte Nachteil allerdings im Preis: Cloud Computing ist im Vergleich oft erheblich teurer als eine Inhouse-Lösung. Erkundigen Sie sich einfach mal unter CFOs, wie groß die Vorfreude ausfällt, wenn die monatliche Cloud-Rechnung ansteht. Auf der anderen Seite verursachen weitere Mitarbeiter, das Rechenzentrum und das nötige Equipment natürlich ebenfalls Kosten.Manche Enterprise Architects können mit der Cloud große Gewinne erzielen. Das sind im Regelfall diejenigen, die davon profitieren, Ressourcen lastenabhängig zu steuern. Alle anderen EA-Spezialisten müssen, beziehungsweise sollten eruieren, ob sie zu viel oder zu wenig in die Cloud investiert haben.4. Frameworks vergöttern (oder verdammen)Um der Komplexität heutiger Enterprise Stacks gerecht werden zu können, wurden einige Enterprise-Architecture-Frameworks entwickelt. TOGAF ist beispielsweise ein solches strategisches Rahmenwerk, um so gut wie alles aufzubauen, was moderne Unternehmen benötigen. Dazu bietet es eine Reihe von Richtlinien und Best Practices, darunter eine Architekturentwicklungsmethode und ein Architektur-Compliance-Framework. Andere Ansätze, wie das Zachman Framework oder FEAF, führen ihre jeweils eigene Guidelines und Vorschriften für den Aufbau eines Enterprise Stacks ein.Der größte Vorteil der Frameworks liegt in der Konsistenz. Sobald jeder in der Organisation mit den Techniken und Theorien vertraut ist, sollte es einfacher werden, sich in der Software zurechtzufinden. Daten und Code sind (normalerweise) so strukturiert, dass sich alles an einem vorhersehbaren Ort befindet.Einige EA-Spezialisten treiben es diesbezüglich jedoch zu weit. Sie übernehmen nicht nur ein Framework, sondern verschreiben sich einem Kult und stellen die Spezifikationen des Rahmenwerks über alles. Wehe dem, der von diesem Weg abweicht. Selbst, wenn dabei alle mit an Bord des Kults wären, dürften sich andere Problemszenarien ergeben. Etwa, wenn Open-Source-Code, der perfekt funktioniert, abgelehnt wird, weil er nicht dem gewünschten Architekturrahmen entspricht. Oder Anbieterangebote, die eigentlich eine gute Lösung wären, aber nicht in Frage kommen, weil sie unter der falschen Philosophie entwickelt wurden.5. Methodik ist alles was zähltFrameworks können eine Struktur an die Hand geben – aber auch schlampiges, faules oder sogar maliziöses Verhalten begünstigen. Entscheidungen könnten beispielsweise hinausgezögert werden, weil das Team darauf wartet, dass jemand das richtige TOGAF-Formular ausfüllt. Es ist ein schmaler Grat zwischen unterstützendem Rahmen und lähmender Bürokratie.Was es braucht, ist eine Methode, um den Entwicklungs-Workflow zu organisieren. Wenn ein Projekt den Arbeitsaufwand übersteigt, den eine Person an einem Wochenende stemmen kann, sollte es eine Strategie geben. Problematisch wird es dann, wenn diese Methodik am Ende mehr zählt als alles andere.6. Trends blind folgen (oder ignorieren)Enterprise-Architekten orientieren sich gerne an den neuesten Ideen und Modellen in ihrem Bereich. Das passt mit etwas Glück unter Umständen auch tatsächlich zu den Unternehmensbedürfnissen. Aber eben bei weitem nicht immer. Schwierig wird es vor allem dann, wenn Entwicklerteams krampfhaft versuchen, ihren Code an den Trend anzupassen. Dass ganze Code-Basen entsorgt werden müssen, die für ein ehemals trendiges Ziel entworfen wurden, ist längst keine Seltenheit mehr. Trends und aktuelle Entwicklungen völlig zu ignorieren, kann allerdings ebenso ins Verderben führen. Sicher, Ihr Code ist seiner ursprünglichen Vision treu geblieben und verwendet Datenbanken, Formate, Codierungs-Standards und Protokolle, die einwandfrei funktionieren. Wenn allerdings die ganze Welt auf einen Trendzug aufspringt, dann gilt das auch für Tool-Anbieter und potenzielle neue Mitarbeiter. Manche dieser Trends und Modeerscheinungen können zu neuen Standards werden und manchmal sogar zu etwas noch Schlimmerem – rechtlichen Anforderungen.Enterprise Architects haben es nicht leicht. Alles, was sie tun können, ist, vorsichtig zu versuchen, das Richtige für den Tech-Stack des Unternehmens zu tun – und für die IT-Profis, die sich um ihn kümmern müssen. (fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CIO.com.

6 Enterprise-Architecture-Todsünden​ Weiterlesen »

Team-Downsizing: 5 Tipps bei DevOps-Personalabbau​

Allgemein

Personalabbau mit Dominoeffekt? So verhindern Sie, dass Ihr (DevOps-)Team nach Entlassungen zerfällt. Foto: wan_wei – shutterstock.com Für den Fall, dass ihre Teams (künftig) von Entlassungen betroffen sind, sollten Agile Delivery Manager, Data-Science-Teamleads oder IT-Ops-Manager einen Reaktionsplan in der Tasche haben. Die folgenden fünf Tipps helfen Ihnen dabei, sich und Ihr Team nach einem Stellenabbau wieder aufzurichten. 1. Teammitglieder unterstützen Wenn Sie eine Führungsposition bekleiden, sollten Sie sich als erstes darüber Gedanken machen, wie sich Ihre Mitarbeiter fühlen, beziehungsweise, inwiefern diese persönlich vom Stellenabbau betroffen sind. Einige könnten wegen der Entlassung von Freunden oder Vertrauten Groll hegen, andere sich ängstlich fragen, ob es sie als nächstes trifft. Selbst wenn das Management eine transparente Kommunikation an den Tag legt (was allzu oft nicht der Fall ist), haben die verbliebenen Angestellten im Regelfall unbeantwortete Fragen. Sie tun deshalb nach der Ankündigung von Personalmaßnahmen gut daran, im ersten Schritt einen Dialog zu eröffnen: Fragen Sie die Mitarbeiter nach ihrem Befinden und verbessern Sie Ihre Fähigkeit, aktiv zuzuhören. Weitere Schritte, die dazu beitragen können, Ihren Teammitgliedern ein Gefühl der Sicherheit zu vermitteln, sind: Empathie aufbauen und vermitteln, das Team auf eine gemeinsame Mission einschwören, oder Dankbarkeit auch für die kleinsten Erfolge zeigen. Finden Sie im Gespräch heraus, ob bestimmte Personen größere Sorgen und Ängste haben, oder das Risiko einer Kündigung besteht. Dabei sollten Sie individuell auf die jeweilige Person eingehen und versuchen, deren Befürchtungen zu lindern. Vergessen Sie dabei nicht, Ihren Teams auch die nötige Zeit zuzugestehen, um die Geschehnisse verarbeiten und sich der neuen Situation anpassen zu können. Nach einem Personalabbau direkt auf Sprint-Verpflichtungen und unbearbeitete Tickets zu pochen, ist unsensibel und dürfte auch nicht zu den gewünschten Ergebnissen führen. 2. Karriereziele (re-)evaluieren Nachdem Sie mit Ihren Teams kommuniziert und die Gespräche reflektiert haben, sollten Sie Ihre persönliche Situation und die Auswirkungen der Entlassungen auf Sie selbst betrachten: Haben sich Ihre Verantwortlichkeiten verändert oder sind Sie mit unrealistischen Zielen konfrontiert? Fühlen Sie sich der Mission Ihres Unternehmens noch verpflichtet? Wenn Sie die Antworten auf diese Fragen eruieren, sollten Sie auch auf Ihre innere Stimme und Ihr Bauchgefühl hören. Drei empfehlenswerte Bücher zu diesem Thema: “Chatter – Die Stimme in deinem Kopf” von Ethan Kross, “Think Again” von Adam Grant, und “The Power of Regret” von Daniel H. Pink. Zudem sollten Sie in Betracht ziehen, Ihrer Karriereziele zu re-evaluieren. Dazu können Sie beispielsweise Karriere-Checklisten zu Rate ziehen. 3. Reviews anberaumen Agile Organisationen und Teams, die von Personalabbau betroffen sind, sollten Schritte unternehmen, um folgende Punkte einem Review zu unterziehen: Roadmaps, kurzfristige Prioritäten, Erwartungen an Minimal Viable Capabilities, und User-Story-Anforderungen. Das Ausmaß dieses Review-Prozesses richtet sich dabei nach dem Umfang der Personalmaßnahmen. Er wird unumgänglich, wenn kritische Skills nicht mehr vorhanden sind. Eine Organisation, deren Belegschaft um zehn Prozent schrumpft, muss eventuell nur kommende Sprints und Release-Verpflichtungen überprüfen. Bei 30 Prozent der Mitarbeiter ist es hingegen unter Umständen nötig, Roadmaps komplett neu zu erstellen. Größere Entlassungswellen sollten außerdem eine Diskussion über die digitale Transformationsstrategie, Kundenbedürfnisse und die Produktvision auslösen: Sind die ursprünglichen Annahmen noch gültig oder erfordern die Umstände eine strategische Neuausrichtung? The best is when after a layoff a company starts a agile transformation to be more efficient with the reduced workforce https://t.co/VSDHl7Pw8K pic.twitter.com/tmQguC1u9B— Dean Chanter (@Agilechanter) February 9, 2020 4. Technische Prioritäten setzenJede IT-Abteilung hat technische Prioritäten und technische Schulden. Ebenso wie Roadmaps und Produktvisionen in Kooperation mit Produktmanagern überdacht werden müssen, wenn Teams schrumpfen, sollte auch die IT-Strategie zumindest überdacht werden. Diese Bereiche könnten dazu in Angriff genommen werden:Schlagen Sie vor, nicht ausgelastete Legacy-Systeme abzuschalten. Ist ein Unternehmen erst einmal im Sparmodus, sind die Verantwortlichen möglicherweise offener dafür, Altsysteme über Bord zu werfen, die strategisch weniger wichtig sind oder Geschäftsanforderungen in geringerem Maße erfüllen.Ziehen Sie Automatisierung und AIops in Betracht. Das kann Sie dabei unterstützen die Effizienz steigern – insbesondere in geschäftskritischen Bereichen, wo ein Personalmangel die Service Delivery beeinträchtigen kann. Chancen können hierbei in CI/CD, Infrastructure as Code, Continuous Testing und IT-Service-Automatisierung liegen.Überdenken Sie die Service-Level-Ziele der Teams. Befolgen Sie die Best Practices für Site Reliability Engineering und Service-Level Agreements. Wenn der Personalbestand des IT-Servicedesks halbiert wurde, ist es wahrscheinlich, dass die Reaktionszeiten auf Vorfälle und die Ziele für die Bearbeitung von Anfragen angepasst werden müssen.Versuchen Sie Cloud-Kosten zu reduzieren. In Zeiten des Wachstums ist es für DevOps-Teams und IT-Abteilungen ein Leichtes, mehr Cloud-Dienste zu buchen – die dann eventuell unbemerkt und unnötigerweise weiterlaufen.Konsolidieren Sie Tools und Plattformen. Sich überschneidende Funktionen machen nicht produktiver. Dieser Punkt ist besonders wichtig, weil ein gemeinsamer Stack und ein gemeinsames Toolset innerhalb der IT-Abteilung oft zu Produktivitätssteigerungen führen und einen Kulturwandel bewirken können.Suchen Sie nach Partnern und Outsourcing-Möglichkeiten. Insbesondere Bereiche, in denen nach einem Personalabbau akute Unterbesetzung herrscht, sollten Sie hierbei in den Blick nehmen. In der Vergangenheit gab es vielleicht Widerstände, Managed Services für Cloud, Sicherheit oder Netzwerkmanagement in Betracht zu ziehen. Nach einer einschneidenden Umstrukturierung könnte es ein wichtiger Schritt nach vorne sein.Auch wenn Sie nicht zu den treibenden Kräften dieser Umstrukturierungen gehören: Es schadet nie, Fragen zu stellen und sich in die Diskussion darüber einzubringen, was die künftige IT-Organisation für den Erfolg benötigt.5. Lernen und experimentierenEin Personalabbau kann sich besonders negativ auf das Knowhow im Unternehmen auswirken – insbesondere, wenn es dabei um spezifische Geschäftsprozesse oder Spezialwissen im Zusammenhang mit Technologieplattformen geht. Erhebliche Risiken können im Bereich des “Stammeswissens” entstehen, wo es um nicht dokumentierte Technologien oder komplexe, manuelle Prozesse geht. Mit Blick auf DevOps-Teams könnte ein Stellenabbau dazu führen, dass Kenntnisse im Bereich der Softwareentwicklung abhandenkommen.Das ist der richtige Zeitpunkt, um in die Zukunft zu blicken und in Lernprozesse und Systemdokumentierung zu investieren. Investitionen in lebenslanges Lernen sind der Schlüssel zum Change – insbesondere, wenn Ressourcen und Budgets betroffen sind. Ebenfalls wichtig ist, ständig zu experimentieren. Gerade in schwierigen Zeiten kann es hilfreich sein, die Kreativität des Teams herauszufordern und neue Herausforderungen zu stellen. Das könnte sich beispielsweise in Experimenten mit Innovationen manifestieren.Rezession, Personalabbau, Umstrukturierungen und Übernahmen gehören zur Geschäftswelt. Die Art und Weise, wie Führungskräfte und Teams damit umgehen, kann dazu beitragen, dass die Teamkultur nicht vor die Hunde geht und die verbliebenen Mitarbeiter eine vielversprechende Zukunftsperspektive haben. (fm) Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

Team-Downsizing: 5 Tipps bei DevOps-Personalabbau​ Personalabbau mit Dominoeffekt? So verhindern Sie, dass Ihr (DevOps-)Team nach Entlassungen zerfällt.
Foto: wan_wei – shutterstock.com

Für den Fall, dass ihre Teams (künftig) von Entlassungen betroffen sind, sollten Agile Delivery Manager, Data-Science-Teamleads oder IT-Ops-Manager einen Reaktionsplan in der Tasche haben. Die folgenden fünf Tipps helfen Ihnen dabei, sich und Ihr Team nach einem Stellenabbau wieder aufzurichten.

1. Teammitglieder unterstützen

Wenn Sie eine Führungsposition bekleiden, sollten Sie sich als erstes darüber Gedanken machen, wie sich Ihre Mitarbeiter fühlen, beziehungsweise, inwiefern diese persönlich vom Stellenabbau betroffen sind. Einige könnten wegen der Entlassung von Freunden oder Vertrauten Groll hegen, andere sich ängstlich fragen, ob es sie als nächstes trifft. Selbst wenn das Management eine transparente Kommunikation an den Tag legt (was allzu oft nicht der Fall ist), haben die verbliebenen Angestellten im Regelfall unbeantwortete Fragen.

Sie tun deshalb nach der Ankündigung von Personalmaßnahmen gut daran, im ersten Schritt einen Dialog zu eröffnen: Fragen Sie die Mitarbeiter nach ihrem Befinden und verbessern Sie Ihre Fähigkeit, aktiv zuzuhören. Weitere Schritte, die dazu beitragen können, Ihren Teammitgliedern ein Gefühl der Sicherheit zu vermitteln, sind:

Empathie aufbauen und vermitteln,

das Team auf eine gemeinsame Mission einschwören, oder

Dankbarkeit auch für die kleinsten Erfolge zeigen.

Finden Sie im Gespräch heraus, ob bestimmte Personen größere Sorgen und Ängste haben, oder das Risiko einer Kündigung besteht. Dabei sollten Sie individuell auf die jeweilige Person eingehen und versuchen, deren Befürchtungen zu lindern. Vergessen Sie dabei nicht, Ihren Teams auch die nötige Zeit zuzugestehen, um die Geschehnisse verarbeiten und sich der neuen Situation anpassen zu können. Nach einem Personalabbau direkt auf Sprint-Verpflichtungen und unbearbeitete Tickets zu pochen, ist unsensibel und dürfte auch nicht zu den gewünschten Ergebnissen führen.

2. Karriereziele (re-)evaluieren

Nachdem Sie mit Ihren Teams kommuniziert und die Gespräche reflektiert haben, sollten Sie Ihre persönliche Situation und die Auswirkungen der Entlassungen auf Sie selbst betrachten:

Haben sich Ihre Verantwortlichkeiten verändert oder sind Sie mit unrealistischen Zielen konfrontiert?

Fühlen Sie sich der Mission Ihres Unternehmens noch verpflichtet?

Wenn Sie die Antworten auf diese Fragen eruieren, sollten Sie auch auf Ihre innere Stimme und Ihr Bauchgefühl hören. Drei empfehlenswerte Bücher zu diesem Thema:

“Chatter – Die Stimme in deinem Kopf” von Ethan Kross,

“Think Again” von Adam Grant, und

“The Power of Regret” von Daniel H. Pink.

Zudem sollten Sie in Betracht ziehen, Ihrer Karriereziele zu re-evaluieren. Dazu können Sie beispielsweise Karriere-Checklisten zu Rate ziehen.

3. Reviews anberaumen

Agile Organisationen und Teams, die von Personalabbau betroffen sind, sollten Schritte unternehmen, um folgende Punkte einem Review zu unterziehen:

Roadmaps,

kurzfristige Prioritäten,

Erwartungen an Minimal Viable Capabilities, und

User-Story-Anforderungen.

Das Ausmaß dieses Review-Prozesses richtet sich dabei nach dem Umfang der Personalmaßnahmen. Er wird unumgänglich, wenn kritische Skills nicht mehr vorhanden sind. Eine Organisation, deren Belegschaft um zehn Prozent schrumpft, muss eventuell nur kommende Sprints und Release-Verpflichtungen überprüfen. Bei 30 Prozent der Mitarbeiter ist es hingegen unter Umständen nötig, Roadmaps komplett neu zu erstellen.

Größere Entlassungswellen sollten außerdem eine Diskussion über die digitale Transformationsstrategie, Kundenbedürfnisse und die Produktvision auslösen: Sind die ursprünglichen Annahmen noch gültig oder erfordern die Umstände eine strategische Neuausrichtung?

The best is when after a layoff a company starts a agile transformation to be more efficient with the reduced workforce https://t.co/VSDHl7Pw8K pic.twitter.com/tmQguC1u9B— Dean Chanter (@Agilechanter) February 9, 2020

4. Technische Prioritäten setzenJede IT-Abteilung hat technische Prioritäten und technische Schulden. Ebenso wie Roadmaps und Produktvisionen in Kooperation mit Produktmanagern überdacht werden müssen, wenn Teams schrumpfen, sollte auch die IT-Strategie zumindest überdacht werden. Diese Bereiche könnten dazu in Angriff genommen werden:Schlagen Sie vor, nicht ausgelastete Legacy-Systeme abzuschalten. Ist ein Unternehmen erst einmal im Sparmodus, sind die Verantwortlichen möglicherweise offener dafür, Altsysteme über Bord zu werfen, die strategisch weniger wichtig sind oder Geschäftsanforderungen in geringerem Maße erfüllen.Ziehen Sie Automatisierung und AIops in Betracht. Das kann Sie dabei unterstützen die Effizienz steigern – insbesondere in geschäftskritischen Bereichen, wo ein Personalmangel die Service Delivery beeinträchtigen kann. Chancen können hierbei in CI/CD, Infrastructure as Code, Continuous Testing und IT-Service-Automatisierung liegen.Überdenken Sie die Service-Level-Ziele der Teams. Befolgen Sie die Best Practices für Site Reliability Engineering und Service-Level Agreements. Wenn der Personalbestand des IT-Servicedesks halbiert wurde, ist es wahrscheinlich, dass die Reaktionszeiten auf Vorfälle und die Ziele für die Bearbeitung von Anfragen angepasst werden müssen.Versuchen Sie Cloud-Kosten zu reduzieren. In Zeiten des Wachstums ist es für DevOps-Teams und IT-Abteilungen ein Leichtes, mehr Cloud-Dienste zu buchen – die dann eventuell unbemerkt und unnötigerweise weiterlaufen.Konsolidieren Sie Tools und Plattformen. Sich überschneidende Funktionen machen nicht produktiver. Dieser Punkt ist besonders wichtig, weil ein gemeinsamer Stack und ein gemeinsames Toolset innerhalb der IT-Abteilung oft zu Produktivitätssteigerungen führen und einen Kulturwandel bewirken können.Suchen Sie nach Partnern und Outsourcing-Möglichkeiten. Insbesondere Bereiche, in denen nach einem Personalabbau akute Unterbesetzung herrscht, sollten Sie hierbei in den Blick nehmen. In der Vergangenheit gab es vielleicht Widerstände, Managed Services für Cloud, Sicherheit oder Netzwerkmanagement in Betracht zu ziehen. Nach einer einschneidenden Umstrukturierung könnte es ein wichtiger Schritt nach vorne sein.Auch wenn Sie nicht zu den treibenden Kräften dieser Umstrukturierungen gehören: Es schadet nie, Fragen zu stellen und sich in die Diskussion darüber einzubringen, was die künftige IT-Organisation für den Erfolg benötigt.5. Lernen und experimentierenEin Personalabbau kann sich besonders negativ auf das Knowhow im Unternehmen auswirken – insbesondere, wenn es dabei um spezifische Geschäftsprozesse oder Spezialwissen im Zusammenhang mit Technologieplattformen geht. Erhebliche Risiken können im Bereich des “Stammeswissens” entstehen, wo es um nicht dokumentierte Technologien oder komplexe, manuelle Prozesse geht. Mit Blick auf DevOps-Teams könnte ein Stellenabbau dazu führen, dass Kenntnisse im Bereich der Softwareentwicklung abhandenkommen.Das ist der richtige Zeitpunkt, um in die Zukunft zu blicken und in Lernprozesse und Systemdokumentierung zu investieren. Investitionen in lebenslanges Lernen sind der Schlüssel zum Change – insbesondere, wenn Ressourcen und Budgets betroffen sind. Ebenfalls wichtig ist, ständig zu experimentieren. Gerade in schwierigen Zeiten kann es hilfreich sein, die Kreativität des Teams herauszufordern und neue Herausforderungen zu stellen. Das könnte sich beispielsweise in Experimenten mit Innovationen manifestieren.Rezession, Personalabbau, Umstrukturierungen und Übernahmen gehören zur Geschäftswelt. Die Art und Weise, wie Führungskräfte und Teams damit umgehen, kann dazu beitragen, dass die Teamkultur nicht vor die Hunde geht und die verbliebenen Mitarbeiter eine vielversprechende Zukunftsperspektive haben. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

Team-Downsizing: 5 Tipps bei DevOps-Personalabbau​ Weiterlesen »

Multicloud – Tipps für den richtigen Betrieb​

Allgemein

loading=”lazy” width=”400px”>Immer mehr Unternehmen setzen auf eine Multicloud-Strategie – doch solche IT-Infrastrukturen wollen sorgfältig ausgesteuert werden.juliasart somdok – shutterstock.com Immer mehr Unternehmen setzen auf eine Multicloud-Strategie. Das Ziel: Flexibilität und Leistung ihrer IT-Landschaften zu maximieren. Dabei kombinieren sie gezielt Cloud-Dienste verschiedener Anbieter, um die Vorteile unterschiedlicher Plattformen auszuschöpfen. Doch ohne die richtige Planung wächst die Komplexität und kann schnell ins Chaos führen. Wie gelingt die Balance zwischen Flexibilität und Effizienz? Das Auslagern von IT-Prozessen in die Cloud gilt seit Jahren als wesentlicher Schritt zur Digitalisierung von Unternehmen. Denn die Cloud verspricht neben einer flexiblen und schnell verfügbaren Rechen- und Speicher-Infrastruktur auch jede Menge Services, mit denen sich digitale Geschäftsprozesse einfach aufsetzen und betreiben lassen. Allerdings hat der Wettbewerb unter den Anbietern dazu geführt, dass mittlerweile eine immensen Bandbreite an Cloud-Diensten mit unterschiedlichsten Ausprägungen und Rahmenbedingungen am Markt verfügbar sind. Zugleich sind die Anforderungen an den eigenen digitalen Service, der mit der Cloud-Infrastruktur betrieben werden soll, den Anwenderunternehmen oft nur unzureichend bekannt. Dabei gilt: Je genauer und detaillierter diese Anforderungen definiert sind, desto besser lässt sich das Potenzial ausschöpfen, das eine Multicloud-Strategie bietet. IT-Konglomerate aus vielen Datenquellen und Diensten Das betrifft ganz massiv Mitspieler in hochkomplexen Umgebungen wie der Entwicklung von Systemen fürs autonome Fahren oder die Energienetze der Zukunft. Ihr Geschäftsmodell steht und fällt mit dem Zusammenwirken vieler Datenquellen und Dienste, die in unterschiedlichen Clouds angesiedelt sind. Aber auch die IT-Umgebungen von Unternehmen in weniger komplexen Branchen stellen sich heute oft als Konglomerat aus lokalen Rechenzentren, virtuellen Maschinen, mobilen Geräten und Cloud-Diensten dar. Nachfrage nach Cloud-Dienstleistern steigt Um ihre IT-Prozesse zu verwalten, arbeiten viele Betriebe inzwischen mit einem Hybrid-Cloud-Konzept, das Public- und Private-Varianten wie auch klassische On-Premises-System verknüpft. Damit drängt sich der nächste Schritt auf, hin zur Multicloud. Zum einen, weil es die Situation schlicht erfordert. Zum anderen, weil sich durch die gleichzeitige Nutzung von Cloud-Diensten mehrerer Anbieter die Vorteile der unterschiedlichen Angebote miteinander verbinden lassen. Anwenderunternehmen arbeiten so mit der für ihre spezifischen Anforderungen jeweils am besten geeigneten Lösung. Neun von zehn Unternehmen machen Multicloud Ein Ansatz, der Schule macht: So verfolgen bereits neun von zehn befragten Unternehmen weltweit nach eigenen Angaben eine Multicloud-Strategie, hat der Flexera 2024 State of the Cloud Report ergeben. Sie kombinieren zum Beispiel Public-Cloud-Services von AWS, Microsoft Azure oder Google Cloud miteinander. Oft werden dazu auch zusätzlich Private-Cloud-Angebote externer Dienstleister integriert oder Dienste genutzt, die nach wie vor im eigenen Rechenzentrum laufen. Ein Beispiel: Wenn es etwa um komplizierte Berechnungen geht, die häufig hintereinander ausgeführt werden, erweist sich AWS Lambda als performanter und wirtschaftlicher als Azure Functions. Wer allerdings mit Office 365 und anderen Windows-basierten Anwendungen operiert, ist mit Microsofts Azure besser bedient. Workloads, die auf virtuellen Windows-Maschinen laufen, lassen sich damit einfach schneller abarbeiten. Managed Cloud Services – diese Anbieter sollten Sie im Blick haben Im genannten Szenario aus der Produktentwicklung stößt zum Beispiel eine Windows Applikation in Azure einen Lambda-Service in AWS an, der die gewünschten Berechnungen durchführt. Die Ergebnisse werden in einer Datenbank abgelegt und bei Bedarf von der Azure-Applikation aus abgerufen. Die Datenbank selbst läuft ebenfalls in Azure, um die Applikation nicht durch lange Antwortzeiten unnötig abzubremsen. Auch die geografische Region, in der die Services laufen, spielt eine Rolle. Denn sie kann sich auf Performance, Zugriffszeiten und Kosten der jeweiligen Anwendung auswirken. Die Komplexität wächst in der Multicloud Dass eine Multicloud-Strategie – egal, wie sie konkret aussieht – die Komplexität weiter anwachsen lässt, liegt auf der Hand. Allein schon, weil jede Cloud-Plattform mit ihren eigenen Verwaltungstools, Sicherheitsprotokollen und Leistungskennzahlen arbeitet. Wer die Multicloud in seine IT-Landschaft integrieren will, braucht ein robustes Management, das mit den spezifischen Anforderungen der unterschiedlichen Umgebungen umgehen kann und dabei die Übersicht und Kontrolle über alle Plattformen hinweg sicherstellt.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> Dies ist nicht allein aus Gründen von Handling und Performance erforderlich, sondern auch, um bei der Wahl des für das jeweilige Anwendungs-Szenario optimalen Anbieters so frei wie nur möglich zu sein. Dafür braucht es plattformübergreifende Technologien und Tools. Zwar stellen die großen Hyperscaler Schnittstellen für den Datenaustausch mit anderen Plattformen standardmäßig bereit. Doch um in Multicloud-Infrastrukturen Prozesse End-to-end planen und steuern zu können, braucht es eine einheitliche Schnittstelle für alle Anwendungen, die auf einer Cloud-Abstraktionsschicht basiert. Damit kann ein Unternehmen seine Workloads unabhängig von den spezifischen Anforderungen einzelner Cloud-Umgebungen je nach Anforderung relativ problemlos verschieben. Benchmark autonomes Fahren Wer wie etwa beim autonomen Fahren Daten aus unterschiedlichsten Quellen in IoT-Prozessen zusammenführen und schnell analysieren will, kommt ohne solche Flexibilität nicht weit, wie das folgende Beispiel verdeutlicht. Ein Zulieferer entwickelt eine Anwendung, die das Bremsverhalten autonomer Fahrzeuge steuern soll. Um die Algorithmen dafür zu entwickeln, zu testen und zu validieren, kommen Tera- und Petabyte an Daten aus unterschiedlichsten Quellen zum Einsatz. Aus Datenbanken mit Bildern und Videos von Ampeln in unterschiedlichen Ländern, zu unterschiedlichen Tageszeiten und bei verschiedenen Witterungsbedingungen, kombiniert mit Daten zur Beschaffenheit des Straßenbelags und zur Bereifung von virtuellen Testfahrzeugen. Cloud-Migration kommt (noch) nicht in die Gänge All diese Informationen müssen aus unterschiedlichen Clouds zusammengeführt werden. Das System muss außerdem in der Lage sein, bei Bedarf weitere Datenquellen einzubinden oder bestehende Datenbanken auch dann weiterhin zu nutzen, wenn sie umziehen. All diese Daten müssen im Einsatz extrem schnell ausgewertet werden, um die Bremsstärke optimal zu dosieren. Kurze Latenzzeiten sind also erfolgskritisch. Dafür empfiehlt sich zunächst eine On-Premises-Infrastruktur. Um allerdings die permanent wachsenden Datenmengen aufzufangen, integriert das Projektteam AWS S3 und Azure Blob Storage.  Tools unterstützen Multicloud-Strategie Kubernetes: Kern jeder Multicloud-Strategie ist heute Kubernetes, der Quasi-Standard für die Container-Orchestrierung. Damit lassen sich Anwendungen automatisiert skalieren, verwalten und bereitstellen – unabhängig davon, auf welcher Cloud-Plattform sie ausgeführt werden. Das Open-Source-System steht praktisch in jeder Public Cloud zur Verfügung, und auch die meisten lokalen Cloud-Provider haben Kubernetes im Angebot. Der Einsatz von Kubernetes hat mehrere Vorteile: Er sorgt für hohe Flexibilität in der Auswahl der zur jeweiligen Anwendung passenden Cloud. Und er erhöht die Verfügbarkeit und Ausfallsicherheit der Dienste. So kann Kubernetes Workloads automatisch auf andere Provider umleiten, wenn ein Anbieter ausfällt, die Verbindung schlecht ist – oder auch um pauschal abgerechnete Datenvolumina optimal auszuschöpfen. Terraform: Für den Aufbau einer Infrastruktur für Applikationsumgebungen empfiehlt sich Terraform, ein Open-Source-Tool für Infrastructure as Code (IaC). Damit lassen sich Ressourcen wie virtuelle Maschinen, Netzwerke und Datenbanken mittels deklarativer Konfigurationsdateien definieren und verwalten. Anstatt Infrastrukturressourcen manuell zu erstellen und zu verwalten, beschreiben die IT- oder Cloud-Architekten lediglich den gewünschten Endzustand ihrer Infrastruktur und speichern sie als Konfigurationsdateien. Zur Beschreibung dient die Konfigurationssprache HashiCorp Configuration Language (HCL). Terraform generiert daraufhin selbstständig den erwünschten Zustand, indem es die dafür erforderlichen Ressourcen erstellt, ändert oder löscht. Das Ganze lässt sich beliebig oft aufsetzen. Ein kurzer Befehl reicht bei Bedarf, um die einmal erstellte Umgebung automatisch eins zu eins zu kopieren. Das ist sinnvoll etwa beim Aufbau von Staging-Umgebungen, die auf verschiedenen Stufen im Software-Entwicklungsprozess benötigt werden. Es hilft unter anderem beim Entwickeln von Cloud-Anwendungen in stark regulierten Branchen wie Banken und Versicherungen, Luft- und Raumfahrt, bei Versorgungsunternehmen und in der Automobilindustrie. Zugleich fungieren die mit Terraform erstellten deklarativen Konfigurationsdateien als lückenlose Dokumentation der Infrastruktur. Mehr noch: Terraform überwacht auch den Status der Infrastruktur und erkennt automatisch Abweichungen zwischen Soll- und Ist-Zustand und korrigiert sie. Ansible: Ein hilfreiches Tool für ein effizientes Multicloud-Management ist auch Ansible. Dieses Open-Source-Werkzeug unterstützt die erweiterte Konfiguration und Automatisierung der Infrastruktur. Es kombiniert die Verteilung von Software, Ad-hoc-Kommando-Ausführung mit dem Management der Softwarekonfiguration. Multicloud braucht Sicherheit Generell gilt: Wer auf eine Multicloud-Strategie setzt, sollte sich schon im Vorfeld darum kümmern, dass die Komplexität nicht ins Chaos, sondern zu effizienteren IT-Prozessen führt. Zu den Hauptthemen gehört die Sicherheit. Und zwar in zweierlei Hinsicht: Zum einen müssen die miteinander vernetzten Services bereits in sich und innerhalb ihrer jeweiligen Plattform geschützt sein. Zum anderen muss das Gesamtkonstrukt mit seinen verschiedenen Architekturen und Systemen sicher sein. Bekanntlich sind gerade die Schnittstellen potenzielle Einfallstore für ungebetene „Gäste“. Cloud-Anbieter: 9 Alternativen zu AWS, Azure und Google Cloud Um Sicherheit und Performance zu gewährleisten, brauchen Unternehmen für ihre Multicloud daher ein dezidiertes API-Konzept und -Management sowie einen ganzheitlichen Blick, um Schwachstellen zu identifizieren. Neben dem Aufbau der dafür spezifischen Kompetenzen empfiehlt sich der Einsatz eines Platform-Engineering-Teams. Dessen Aufgabe ist es, die Architekturen zu planen, die Technologien zu wählen und die Plattform-Dienste auszusuchen, die am besten zu den Anwendungen des Unternehmens passen. In der Regel ist zumindest zum Start auch zu empfehlen, externe Experten in Sachen Multicloud hinzuzuziehen. AWS vs. Azure: Welche Plattform sich wofür eignet Welche Cloud-Plattform zu welcher Anwendung passt, sei nachfolgend am Beispiel von Microsoft Azure und Amazon Web Services (AWS) aufgezeigt. Beide Anbieter haben fast identische Preismodelle, und beide bieten für praktisch jeden Anwendungsfall Dienste und Funktionen als Service (FaaS). Dennoch gibt es einige Kriterien, anhand derer sich qualifiziert bewerten und entscheiden lässt, welche Plattform wofür am besten geeignet ist. Microsoft Azure vs. AWS vs. Google Cloud: Was bietet welche IoT-Cloud? Dabei geht es um Fragen wie: Treffen Anfragen eher mit hohem zeitlichen Abstand ein? Sind viele oder eher wenig Anfragen zu bearbeiten? Treffen sie gebündelt innerhalb eines kurzen Intervalls ein? Sind parallel eintreffende Anfragen zu bewältigen? Um beide Plattformen fundiert vergleichen zu können, empfiehlt sich der Einsatz einer Benchmark-Plattform wie SeBS (Serverless Benchmarking Suite). Sie bietet die Lastszenarien Cold & Warm und Sequential & Burst – das steckt dahinter: Cold & Warm: Ruft der Nutzer den FaaS-Service auf, wählt der Cloud-Provider einen Execution-Spot für die Funktion, typischerweise ein Container oder eine virtuelle Maschine. Existiert noch kein Execution-Spot, erzeugt der Provider einen neuen (cold). Ist bereits einer zum Verarbeiten des Request verfügbar, wird dieser verwendet (warm). Sequential & Burst: Sequential sendet einen Request nach dem anderen. Burst sendet immer mehrere Requests gleichzeitig. Aus den Ergebnissen der Benchmark-Tests: Die durchschnittliche Antwortzeit bei Azure hängt davon ab, ob viele Anfragen gleichzeitig einlaufen und ob die Funktion warm ist. Bei AWS hingegen fällt sie mit zunehmendem RAM –  ist aber initial deutlich höher. Damit ist klar: Solange es möglich ist, das Lambda warmzuhalten, gewinnt AWS, ansonsten Azure. Das Lambda wird abhängig von der Skalierung nach etwa zehn Minuten wieder kalt. Für die Anwendung bedeutet das: Sind Anfragen in einem Abstand größer als zehn Minuten zu bearbeiten, ist Azure im Vorteil. Treffen die Anfragen eher in Intervallen kleiner zehn Minuten ein und lässt sich die Ressourcengröße abschätzen, sollte die Wahl auf AWS fallen. In den Burst-Tests zeigt sich, dass Azure bei kurzen Lastspitzen und Cold-Starts vorn liegt. Sind generell hohe Lasten zu erwarten, ist hingegen das AWS Lambda performanter. Allgemein weisen die Ergebnisse von AWS eine höhere Konsistenz auf. Wer also harte Anforderungen an die Konsistenz von Antwortzeiten hat, sollte auf AWS setzen. Die detaillierten Anforderungen und Ergebnisse des Benchmark-Tests finden sich in einem Whitepaper, das doubleSlash hier zum Download anbietet: Amazon Web Services vs. Microsoft Azure 

Multicloud – Tipps für den richtigen Betrieb​ loading=”lazy” width=”400px”>Immer mehr Unternehmen setzen auf eine Multicloud-Strategie – doch solche IT-Infrastrukturen wollen sorgfältig ausgesteuert werden.juliasart somdok – shutterstock.com

Immer mehr Unternehmen setzen auf eine Multicloud-Strategie. Das Ziel: Flexibilität und Leistung ihrer IT-Landschaften zu maximieren. Dabei kombinieren sie gezielt Cloud-Dienste verschiedener Anbieter, um die Vorteile unterschiedlicher Plattformen auszuschöpfen. Doch ohne die richtige Planung wächst die Komplexität und kann schnell ins Chaos führen. Wie gelingt die Balance zwischen Flexibilität und Effizienz?

Das Auslagern von IT-Prozessen in die Cloud gilt seit Jahren als wesentlicher Schritt zur Digitalisierung von Unternehmen. Denn die Cloud verspricht neben einer flexiblen und schnell verfügbaren Rechen- und Speicher-Infrastruktur auch jede Menge Services, mit denen sich digitale Geschäftsprozesse einfach aufsetzen und betreiben lassen.

Allerdings hat der Wettbewerb unter den Anbietern dazu geführt, dass mittlerweile eine immensen Bandbreite an Cloud-Diensten mit unterschiedlichsten Ausprägungen und Rahmenbedingungen am Markt verfügbar sind. Zugleich sind die Anforderungen an den eigenen digitalen Service, der mit der Cloud-Infrastruktur betrieben werden soll, den Anwenderunternehmen oft nur unzureichend bekannt. Dabei gilt: Je genauer und detaillierter diese Anforderungen definiert sind, desto besser lässt sich das Potenzial ausschöpfen, das eine Multicloud-Strategie bietet.

IT-Konglomerate aus vielen Datenquellen und Diensten

Das betrifft ganz massiv Mitspieler in hochkomplexen Umgebungen wie der Entwicklung von Systemen fürs autonome Fahren oder die Energienetze der Zukunft. Ihr Geschäftsmodell steht und fällt mit dem Zusammenwirken vieler Datenquellen und Dienste, die in unterschiedlichen Clouds angesiedelt sind. Aber auch die IT-Umgebungen von Unternehmen in weniger komplexen Branchen stellen sich heute oft als Konglomerat aus lokalen Rechenzentren, virtuellen Maschinen, mobilen Geräten und Cloud-Diensten dar.

Nachfrage nach Cloud-Dienstleistern steigt

Um ihre IT-Prozesse zu verwalten, arbeiten viele Betriebe inzwischen mit einem Hybrid-Cloud-Konzept, das Public- und Private-Varianten wie auch klassische On-Premises-System verknüpft. Damit drängt sich der nächste Schritt auf, hin zur Multicloud. Zum einen, weil es die Situation schlicht erfordert. Zum anderen, weil sich durch die gleichzeitige Nutzung von Cloud-Diensten mehrerer Anbieter die Vorteile der unterschiedlichen Angebote miteinander verbinden lassen. Anwenderunternehmen arbeiten so mit der für ihre spezifischen Anforderungen jeweils am besten geeigneten Lösung.

Neun von zehn Unternehmen machen Multicloud

Ein Ansatz, der Schule macht: So verfolgen bereits neun von zehn befragten Unternehmen weltweit nach eigenen Angaben eine Multicloud-Strategie, hat der Flexera 2024 State of the Cloud Report ergeben. Sie kombinieren zum Beispiel Public-Cloud-Services von AWS, Microsoft Azure oder Google Cloud miteinander. Oft werden dazu auch zusätzlich Private-Cloud-Angebote externer Dienstleister integriert oder Dienste genutzt, die nach wie vor im eigenen Rechenzentrum laufen.

Ein Beispiel: Wenn es etwa um komplizierte Berechnungen geht, die häufig hintereinander ausgeführt werden, erweist sich AWS Lambda als performanter und wirtschaftlicher als Azure Functions. Wer allerdings mit Office 365 und anderen Windows-basierten Anwendungen operiert, ist mit Microsofts Azure besser bedient. Workloads, die auf virtuellen Windows-Maschinen laufen, lassen sich damit einfach schneller abarbeiten.

Managed Cloud Services – diese Anbieter sollten Sie im Blick haben

Im genannten Szenario aus der Produktentwicklung stößt zum Beispiel eine Windows Applikation in Azure einen Lambda-Service in AWS an, der die gewünschten Berechnungen durchführt. Die Ergebnisse werden in einer Datenbank abgelegt und bei Bedarf von der Azure-Applikation aus abgerufen. Die Datenbank selbst läuft ebenfalls in Azure, um die Applikation nicht durch lange Antwortzeiten unnötig abzubremsen. Auch die geografische Region, in der die Services laufen, spielt eine Rolle. Denn sie kann sich auf Performance, Zugriffszeiten und Kosten der jeweiligen Anwendung auswirken.

Die Komplexität wächst in der Multicloud

Dass eine Multicloud-Strategie – egal, wie sie konkret aussieht – die Komplexität weiter anwachsen lässt, liegt auf der Hand. Allein schon, weil jede Cloud-Plattform mit ihren eigenen Verwaltungstools, Sicherheitsprotokollen und Leistungskennzahlen arbeitet. Wer die Multicloud in seine IT-Landschaft integrieren will, braucht ein robustes Management, das mit den spezifischen Anforderungen der unterschiedlichen Umgebungen umgehen kann und dabei die Übersicht und Kontrolle über alle Plattformen hinweg sicherstellt. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

Dies ist nicht allein aus Gründen von Handling und Performance erforderlich, sondern auch, um bei der Wahl des für das jeweilige Anwendungs-Szenario optimalen Anbieters so frei wie nur möglich zu sein. Dafür braucht es plattformübergreifende Technologien und Tools. Zwar stellen die großen Hyperscaler Schnittstellen für den Datenaustausch mit anderen Plattformen standardmäßig bereit. Doch um in Multicloud-Infrastrukturen Prozesse End-to-end planen und steuern zu können, braucht es eine einheitliche Schnittstelle für alle Anwendungen, die auf einer Cloud-Abstraktionsschicht basiert. Damit kann ein Unternehmen seine Workloads unabhängig von den spezifischen Anforderungen einzelner Cloud-Umgebungen je nach Anforderung relativ problemlos verschieben.

Benchmark autonomes Fahren

Wer wie etwa beim autonomen Fahren Daten aus unterschiedlichsten Quellen in IoT-Prozessen zusammenführen und schnell analysieren will, kommt ohne solche Flexibilität nicht weit, wie das folgende Beispiel verdeutlicht.

Ein Zulieferer entwickelt eine Anwendung, die das Bremsverhalten autonomer Fahrzeuge steuern soll. Um die Algorithmen dafür zu entwickeln, zu testen und zu validieren, kommen Tera- und Petabyte an Daten aus unterschiedlichsten Quellen zum Einsatz. Aus Datenbanken mit Bildern und Videos von Ampeln in unterschiedlichen Ländern, zu unterschiedlichen Tageszeiten und bei verschiedenen Witterungsbedingungen, kombiniert mit Daten zur Beschaffenheit des Straßenbelags und zur Bereifung von virtuellen Testfahrzeugen.

Cloud-Migration kommt (noch) nicht in die Gänge

All diese Informationen müssen aus unterschiedlichen Clouds zusammengeführt werden. Das System muss außerdem in der Lage sein, bei Bedarf weitere Datenquellen einzubinden oder bestehende Datenbanken auch dann weiterhin zu nutzen, wenn sie umziehen.

All diese Daten müssen im Einsatz extrem schnell ausgewertet werden, um die Bremsstärke optimal zu dosieren. Kurze Latenzzeiten sind also erfolgskritisch. Dafür empfiehlt sich zunächst eine On-Premises-Infrastruktur. Um allerdings die permanent wachsenden Datenmengen aufzufangen, integriert das Projektteam AWS S3 und Azure Blob Storage. 

Tools unterstützen Multicloud-Strategie

Kubernetes: Kern jeder Multicloud-Strategie ist heute Kubernetes, der Quasi-Standard für die Container-Orchestrierung. Damit lassen sich Anwendungen automatisiert skalieren, verwalten und bereitstellen – unabhängig davon, auf welcher Cloud-Plattform sie ausgeführt werden. Das Open-Source-System steht praktisch in jeder Public Cloud zur Verfügung, und auch die meisten lokalen Cloud-Provider haben Kubernetes im Angebot.

Der Einsatz von Kubernetes hat mehrere Vorteile: Er sorgt für hohe Flexibilität in der Auswahl der zur jeweiligen Anwendung passenden Cloud. Und er erhöht die Verfügbarkeit und Ausfallsicherheit der Dienste. So kann Kubernetes Workloads automatisch auf andere Provider umleiten, wenn ein Anbieter ausfällt, die Verbindung schlecht ist – oder auch um pauschal abgerechnete Datenvolumina optimal auszuschöpfen.

Terraform: Für den Aufbau einer Infrastruktur für Applikationsumgebungen empfiehlt sich Terraform, ein Open-Source-Tool für Infrastructure as Code (IaC). Damit lassen sich Ressourcen wie virtuelle Maschinen, Netzwerke und Datenbanken mittels deklarativer Konfigurationsdateien definieren und verwalten. Anstatt Infrastrukturressourcen manuell zu erstellen und zu verwalten, beschreiben die IT- oder Cloud-Architekten lediglich den gewünschten Endzustand ihrer Infrastruktur und speichern sie als Konfigurationsdateien. Zur Beschreibung dient die Konfigurationssprache HashiCorp Configuration Language (HCL).

Terraform generiert daraufhin selbstständig den erwünschten Zustand, indem es die dafür erforderlichen Ressourcen erstellt, ändert oder löscht. Das Ganze lässt sich beliebig oft aufsetzen. Ein kurzer Befehl reicht bei Bedarf, um die einmal erstellte Umgebung automatisch eins zu eins zu kopieren. Das ist sinnvoll etwa beim Aufbau von Staging-Umgebungen, die auf verschiedenen Stufen im Software-Entwicklungsprozess benötigt werden. Es hilft unter anderem beim Entwickeln von Cloud-Anwendungen in stark regulierten Branchen wie Banken und Versicherungen, Luft- und Raumfahrt, bei Versorgungsunternehmen und in der Automobilindustrie.

Zugleich fungieren die mit Terraform erstellten deklarativen Konfigurationsdateien als lückenlose Dokumentation der Infrastruktur. Mehr noch: Terraform überwacht auch den Status der Infrastruktur und erkennt automatisch Abweichungen zwischen Soll- und Ist-Zustand und korrigiert sie.

Ansible: Ein hilfreiches Tool für ein effizientes Multicloud-Management ist auch Ansible. Dieses Open-Source-Werkzeug unterstützt die erweiterte Konfiguration und Automatisierung der Infrastruktur. Es kombiniert die Verteilung von Software, Ad-hoc-Kommando-Ausführung mit dem Management der Softwarekonfiguration.

Multicloud braucht Sicherheit

Generell gilt: Wer auf eine Multicloud-Strategie setzt, sollte sich schon im Vorfeld darum kümmern, dass die Komplexität nicht ins Chaos, sondern zu effizienteren IT-Prozessen führt. Zu den Hauptthemen gehört die Sicherheit. Und zwar in zweierlei Hinsicht: Zum einen müssen die miteinander vernetzten Services bereits in sich und innerhalb ihrer jeweiligen Plattform geschützt sein. Zum anderen muss das Gesamtkonstrukt mit seinen verschiedenen Architekturen und Systemen sicher sein. Bekanntlich sind gerade die Schnittstellen potenzielle Einfallstore für ungebetene „Gäste“.

Cloud-Anbieter: 9 Alternativen zu AWS, Azure und Google Cloud

Um Sicherheit und Performance zu gewährleisten, brauchen Unternehmen für ihre Multicloud daher ein dezidiertes API-Konzept und -Management sowie einen ganzheitlichen Blick, um Schwachstellen zu identifizieren.

Neben dem Aufbau der dafür spezifischen Kompetenzen empfiehlt sich der Einsatz eines Platform-Engineering-Teams. Dessen Aufgabe ist es, die Architekturen zu planen, die Technologien zu wählen und die Plattform-Dienste auszusuchen, die am besten zu den Anwendungen des Unternehmens passen. In der Regel ist zumindest zum Start auch zu empfehlen, externe Experten in Sachen Multicloud hinzuzuziehen.

AWS vs. Azure: Welche Plattform sich wofür eignet

Welche Cloud-Plattform zu welcher Anwendung passt, sei nachfolgend am Beispiel von Microsoft Azure und Amazon Web Services (AWS) aufgezeigt. Beide Anbieter haben fast identische Preismodelle, und beide bieten für praktisch jeden Anwendungsfall Dienste und Funktionen als Service (FaaS). Dennoch gibt es einige Kriterien, anhand derer sich qualifiziert bewerten und entscheiden lässt, welche Plattform wofür am besten geeignet ist.

Microsoft Azure vs. AWS vs. Google Cloud: Was bietet welche IoT-Cloud?

Dabei geht es um Fragen wie: Treffen Anfragen eher mit hohem zeitlichen Abstand ein? Sind viele oder eher wenig Anfragen zu bearbeiten? Treffen sie gebündelt innerhalb eines kurzen Intervalls ein? Sind parallel eintreffende Anfragen zu bewältigen?

Um beide Plattformen fundiert vergleichen zu können, empfiehlt sich der Einsatz einer Benchmark-Plattform wie SeBS (Serverless Benchmarking Suite). Sie bietet die Lastszenarien Cold & Warm und Sequential & Burst – das steckt dahinter:

Cold & Warm: Ruft der Nutzer den FaaS-Service auf, wählt der Cloud-Provider einen Execution-Spot für die Funktion, typischerweise ein Container oder eine virtuelle Maschine. Existiert noch kein Execution-Spot, erzeugt der Provider einen neuen (cold). Ist bereits einer zum Verarbeiten des Request verfügbar, wird dieser verwendet (warm).

Sequential & Burst: Sequential sendet einen Request nach dem anderen. Burst sendet immer mehrere Requests gleichzeitig.

Aus den Ergebnissen der Benchmark-Tests: Die durchschnittliche Antwortzeit bei Azure hängt davon ab, ob viele Anfragen gleichzeitig einlaufen und ob die Funktion warm ist. Bei AWS hingegen fällt sie mit zunehmendem RAM –  ist aber initial deutlich höher. Damit ist klar: Solange es möglich ist, das Lambda warmzuhalten, gewinnt AWS, ansonsten Azure. Das Lambda wird abhängig von der Skalierung nach etwa zehn Minuten wieder kalt.

Für die Anwendung bedeutet das: Sind Anfragen in einem Abstand größer als zehn Minuten zu bearbeiten, ist Azure im Vorteil. Treffen die Anfragen eher in Intervallen kleiner zehn Minuten ein und lässt sich die Ressourcengröße abschätzen, sollte die Wahl auf AWS fallen.

In den Burst-Tests zeigt sich, dass Azure bei kurzen Lastspitzen und Cold-Starts vorn liegt. Sind generell hohe Lasten zu erwarten, ist hingegen das AWS Lambda performanter. Allgemein weisen die Ergebnisse von AWS eine höhere Konsistenz auf. Wer also harte Anforderungen an die Konsistenz von Antwortzeiten hat, sollte auf AWS setzen.

Die detaillierten Anforderungen und Ergebnisse des Benchmark-Tests finden sich in einem Whitepaper, das doubleSlash hier zum Download anbietet: Amazon Web Services vs. Microsoft Azure

Multicloud – Tipps für den richtigen Betrieb​ Weiterlesen »

Was macht ein Solution Architect?​

Allgemein

Solution Architects sind Brückenbauer mit IT-Fokus. Lesen Sie, welche Skills Sie dafür brauchen und mit welchem Gehalt Sie rechnen können. Foto: Kutlayev Dmitry – shutterstock.com Unternehmen, die ihre Geschäftsziele und -bedarfe mit IT-Produkten, -Services, Software und Infrastruktur in Einklang bringen wollen, kommen an einem Solution Architect nicht vorbei. Solution Architect – Definition Ein Solution Architect ist dafür verantwortlich, die Business Needs eines Unternehmens zu evaluieren und zu bestimmen, wie die IT diese mit Hilfe von Software, Hardware und Infrastruktur unterfüttern kann. IT- und Geschäftsstrategie in Einklang zu bringen, gehört heutzutage zum guten Ton. Solution Architects erarbeiten, entwickeln und optimieren technische Lösungen, um das in der Praxis umsetzen zu können. Sie können darüber hinaus als Schaltstelle zwischen IT und Business fungieren, um sicherzustellen, dass alle auf das gleiche gemeinsame Ziel – die Lösung eines Geschäftsproblems – hinarbeiten. Dieser Prozess erfordert regelmäßiges Feedback und Anpassungen, nur so kommen am Ende ordentlich designte und problemlos implementierbare Lösungen heraus. Solution Architecture an sich umfasst Business-, System-, Informations-, Security-, Application- und Technology Architecture. Praktische Beispiele für Solution Architecture wären etwa die Entwicklung einer Cloud-Infrastruktur um das Effizienzlevel zu steigern, Microservices für E-Commerce einzubinden oder Security-Maßnahmen für Daten, Systeme und Netzwerke einzuziehen. Solution Architect – Aufgaben Das Einsatzgebiet, auf dem sich Solution Architects bewegen, ist breit gefächert – die Anforderungen unterscheiden sich je nach Branche und Unternehmen. Dennoch gibt es einige allgemeingültige Verantwortlichkeiten, Skills und Qualifikationen: Brainstorming-Prozesse leiten, in denen es um die Entwicklung möglicher Lösungen für spezifische Business-Probleme geht; Chancen für Prozessoptimierungen erkennen; Testing-Anforderungen erarbeiten und dokumentieren; Möglichkeiten erkennen, in denen die IT Geschäftsziele unterstützen kann; Gezielte Kooperation mit den Fachbereichen, um IT-Strategien zu entwickeln und bestehende Implementierungen zu optimieren; Software und Services für alle Unternehmensbereiche entwickeln und migrieren; Skalierbare Lösungen und Produkte mit den Product und Delivery Teams entwickeln; Kommunikation und Konsultation mit/von Kunden und internen Stakeholdern, um passgenaue Lösungen zu entwickeln; Softwarearchitekten arbeiten mit Führungskräften, Managern und Mitarbeitern aus allen Unternehmensbereichen zusammen. Ein Solution Architect, der in einem Product Team arbeitet, kann auch mit Kunden in Berührung kommen und sollte daher in der Lage sein, diesen die Erwartungen und Erfordernisse verständlich darzulegen. In einem solchen Fall sollte er auch wissen, wie man die Kundenzufriedenheit managt und die richtige Erwartungshaltung mit Blick auf das Endprodukt vermittelt. Solution Architect – Skills Um IT-Lösungen an den Geschäftszielen ausrichten zu können, sollten Solution Architects ausgeprägte Führungs- und Kommunikationsfähigkeiten genauso mitbringen, wie technisches und unternehmerisches Verständnis. Letzteres ist unabdingbar, damit die Lösungen zu den Zielen passen. Ersteres hingegen ist von Bedeutung, um den Gesamtprozess steuern zu können, der die Identifikation der wichtigsten Geschäftsziele und die Ermittlung der dazu passenden Lösungen beinhaltet. Ein Studium der Informatik (oder verwandten Gebieten) ist Grundvoraussetzung für einen Job als Solution Architect. Je nach Ausgestaltung der individuellen Rolle können auch Fähigkeiten in speziellen IT-Gebieten nötig werden, beispielsweise Netzwerkadministration oder Softwareentwicklung. Laut dem US-Karriereportal PayScale sind die folgenden technischen Skills im Job als Solution Architect besonders gefragt: Software-Architektur System-Architektur IT Consulting Enterprise Solutions Cloud Computing SAP Business Warehouse ITIL Datenbank-Administration Apache Kafka ServiceNow Hardware-Konfiguration JavaScript Informatica IT-Sicherheit und -Infrastruktur Solution Architect – Gehalt Aus der Datenlage des Karriere-Spezialisten Stepstone geht hervor, dass das Durchschnittsgehalt für Solution Architects in Deutschland bei circa 69.800 Euro liegt. Die Gehaltsspanne liegt zwischen 61.300 und 82.200 Euro. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was macht ein Solution Architect?​ Solution Architects sind Brückenbauer mit IT-Fokus. Lesen Sie, welche Skills Sie dafür brauchen und mit welchem Gehalt Sie rechnen können.
Foto: Kutlayev Dmitry – shutterstock.com

Unternehmen, die ihre Geschäftsziele und -bedarfe mit IT-Produkten, -Services, Software und Infrastruktur in Einklang bringen wollen, kommen an einem Solution Architect nicht vorbei.

Solution Architect – Definition

Ein Solution Architect ist dafür verantwortlich, die Business Needs eines Unternehmens zu evaluieren und zu bestimmen, wie die IT diese mit Hilfe von Software, Hardware und Infrastruktur unterfüttern kann. IT- und Geschäftsstrategie in Einklang zu bringen, gehört heutzutage zum guten Ton. Solution Architects erarbeiten, entwickeln und optimieren technische Lösungen, um das in der Praxis umsetzen zu können.

Sie können darüber hinaus als Schaltstelle zwischen IT und Business fungieren, um sicherzustellen, dass alle auf das gleiche gemeinsame Ziel – die Lösung eines Geschäftsproblems – hinarbeiten. Dieser Prozess erfordert regelmäßiges Feedback und Anpassungen, nur so kommen am Ende ordentlich designte und problemlos implementierbare Lösungen heraus.

Solution Architecture an sich umfasst Business-, System-, Informations-, Security-, Application- und Technology Architecture. Praktische Beispiele für Solution Architecture wären etwa die Entwicklung einer Cloud-Infrastruktur um das Effizienzlevel zu steigern, Microservices für E-Commerce einzubinden oder Security-Maßnahmen für Daten, Systeme und Netzwerke einzuziehen.

Solution Architect – Aufgaben

Das Einsatzgebiet, auf dem sich Solution Architects bewegen, ist breit gefächert – die Anforderungen unterscheiden sich je nach Branche und Unternehmen. Dennoch gibt es einige allgemeingültige Verantwortlichkeiten, Skills und Qualifikationen:

Brainstorming-Prozesse leiten, in denen es um die Entwicklung möglicher Lösungen für spezifische Business-Probleme geht;

Chancen für Prozessoptimierungen erkennen;

Testing-Anforderungen erarbeiten und dokumentieren;

Möglichkeiten erkennen, in denen die IT Geschäftsziele unterstützen kann;

Gezielte Kooperation mit den Fachbereichen, um IT-Strategien zu entwickeln und bestehende Implementierungen zu optimieren;

Software und Services für alle Unternehmensbereiche entwickeln und migrieren;

Skalierbare Lösungen und Produkte mit den Product und Delivery Teams entwickeln;

Kommunikation und Konsultation mit/von Kunden und internen Stakeholdern, um passgenaue Lösungen zu entwickeln;

Softwarearchitekten arbeiten mit Führungskräften, Managern und Mitarbeitern aus allen Unternehmensbereichen zusammen. Ein Solution Architect, der in einem Product Team arbeitet, kann auch mit Kunden in Berührung kommen und sollte daher in der Lage sein, diesen die Erwartungen und Erfordernisse verständlich darzulegen. In einem solchen Fall sollte er auch wissen, wie man die Kundenzufriedenheit managt und die richtige Erwartungshaltung mit Blick auf das Endprodukt vermittelt.

Solution Architect – Skills

Um IT-Lösungen an den Geschäftszielen ausrichten zu können, sollten Solution Architects ausgeprägte Führungs- und Kommunikationsfähigkeiten genauso mitbringen, wie technisches und unternehmerisches Verständnis. Letzteres ist unabdingbar, damit die Lösungen zu den Zielen passen. Ersteres hingegen ist von Bedeutung, um den Gesamtprozess steuern zu können, der die Identifikation der wichtigsten Geschäftsziele und die Ermittlung der dazu passenden Lösungen beinhaltet.

Ein Studium der Informatik (oder verwandten Gebieten) ist Grundvoraussetzung für einen Job als Solution Architect. Je nach Ausgestaltung der individuellen Rolle können auch Fähigkeiten in speziellen IT-Gebieten nötig werden, beispielsweise Netzwerkadministration oder Softwareentwicklung. Laut dem US-Karriereportal PayScale sind die folgenden technischen Skills im Job als Solution Architect besonders gefragt:

Software-Architektur

System-Architektur

IT Consulting

Enterprise Solutions

Cloud Computing

SAP Business Warehouse

ITIL

Datenbank-Administration

Apache Kafka

ServiceNow

Hardware-Konfiguration

JavaScript

Informatica

IT-Sicherheit und -Infrastruktur

Solution Architect – Gehalt

Aus der Datenlage des Karriere-Spezialisten Stepstone geht hervor, dass das Durchschnittsgehalt für Solution Architects in Deutschland bei circa 69.800 Euro liegt. Die Gehaltsspanne liegt zwischen 61.300 und 82.200 Euro.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was macht ein Solution Architect?​ Weiterlesen »

Wie Sie sich mit KI mehr Arbeit aufhalsen​

Allgemein

Wenn KI helfen kann, eine gut geschriebene E-Mail zehnmal schneller zu verfassen, werden vielleicht zehnmal so viele E-Mails wie zuvor verfasst – E-Mails, die nun jemand anderes lesen, sich Gedanken machen und vielleicht auch beantworten muss.Martin Lauge Villadsen – shutterstock.com Auf der Barclays Global Financial Services-Konferenz im September 2024 war der Tenor, dass KI Prozesse verbessern und Effizienz steigern wird. Laut Daniel Pinto, Präsident von JP Morgan Chase, rechnet die Bank mit einem Wertzuwachs von bis zu zwei Milliarden Dollar aus ihren KI-Use-Cases – ein Drittel mehr als in der Prognose vom Mai zuvor. Der Konzern habe bereits einen KI-Assistenten auf den Markt gebracht und wolle mit seiner Hilfe jeden Prozess optimieren, berichtete Pinto. Operative Effizienz im Fokus Auch viele andere Manager stehen der KI zuversichtlich gegenüber. Einem neuen IDC-Bericht zufolge betrachten 98 Prozent der Führungskräfte KI als Priorität für ihr Unternehmen. Zudem geht das Analystenhaus davon aus, dass KI der Weltwirtschaft bis 2030 rund 20 Billionen zusätzliche Dollar generieren wird. Erst im August hatte OpenAI bekannt gegeben, dass sein ChatGPT inzwischen mehr als 200 Millionen wöchentliche Nutzer hat – doppelt so viele wie im November 2023. Die Nutzung der API hat sich ebenfalls verdoppelt, seit ChatGPT-4o mini im Juli veröffentlicht wurde. Laut einer aktuellen Studie von Coleman Parkes Research im Auftrag von Riverbed sagen 59 Prozent der Entscheidungsträger in großen Unternehmen, dass KI-Projekte ihre Erwartungen erfüllt haben, bei 18 Prozent wurden sie übertroffen. “KI hat den IT-Bereich verlassen und sich in der Organisation etabliert”, berichtet Ian Beston, Direktor bei Coleman Parkes Research. Allerdings gibt knapp ein Viertel der Befragten an, dass KI die Erwartungen nicht erfüllt hat – trotz der gepriesenen Vorteile für die Effizienz reduziert die KI also nicht automatisch die Arbeitslast. Mehr gesparte Zeit, mehr verschwendete Zeit Wenn KI den Mitarbeitern hilft, ihre Arbeit schneller zu erledigen, gehen Unternehmen davon aus, dass die gewonnene Zeit für höherwertige Tätigkeiten genutzt wird. Das ist aber nicht unbedingt der Fall, sagt Christina Janzer, SVP of Research and Analytics bei Slack. Laut der jüngsten Umfrage des Unternehmens verbringen Knowledge Worker 37 Prozent mehr Zeit mit administrativen Routineaufgaben. “Es gibt jedoch eine Menge Potenzial”, berichtet Janzer. “Auch wenn wir noch in den Kinderschuhen stecken, sehen wir unglaubliche Ergebnisse in Bezug auf die Produktivität und die Verbesserung der Work-Life-Balance sowie der Begeisterung für den Job.” Das Problem: Menschen seien darauf programmiert, ihre Zeit mit bestimmten Aufgaben zu füllen. Wenn die KI dann Zeit freisetze, würde diese durch mehr Verwaltungsarbeit belegt. “Es gibt eine nicht enden wollende Liste von Aufgaben, die erledigt werden müssen”, so Janzer. Die Lösung bestehe darin, die Anreizsysteme zu überdenken. “Manager tendieren dazu, Anreize auf der Grundlage von Aktivitäts-Metriken zu schaffen und Input statt Output zu messen.” Statt auf den Wert zu schauen, den der Mitarbeiter dem Unternehmen bringt, würden sie die Anzahl der verschickten E-Mails oder die im Büro verbrachten Stunden zählen. Posteingänge außer Kontrolle Die Entwicklung schafft auch mehr Arbeit für andere Mitarbeitende, argumentiert Janzer. Wenn KI helfen kann, eine gut geschriebene E-Mail zehnmal schneller zu verfassen, werden vielleicht zehnmal so viele E-Mails wie zuvor verfasst – E-Mails, die nun jemand anderes lesen, sich Gedanken machen und vielleicht auch beantworten muss. Statt einen Artikel für die Wissensdatenbank des Unternehmens zu einem wirklich relevanten Thema zu schreiben, könnten Mitarbeiter mit KI ein Dutzend Artikel zu weniger interessanten Themen einreichen. Mitarbeiter, die ihren Vorgesetzten Berichte vorlegen müssen, könnten diese schneller fertig stellen und ihre Anzahl sowie die Länge erhöhen. “Diese Technologien können mehr Inhalte produzieren, die jemand konsumieren und zur Kenntnis nehmen muss”, so Anita Woolley, Professorin an der Carnegie Mellon University. Schon jetzt würden die Suchergebnisse mit immer mehr minderwertigen KI-Inhalten überflutet, was für Mitarbeiter, die im öffentlichen Web und in Wissensdatenbanken nach Informationen suchen, von Nachteil sei. Ein tatsächlich nützliches Ergebnis zu finden, gleiche der Suche nach einer Nadel im Heuhaufen. “Das Informationsvolumen ist definitiv einer der Bereiche, in denen die Produktivität sinken könnte”, sagt Woolley. Fragmentierte Aufmerksamkeit Eine weitere potenziell negative Auswirkung von KI ist die Fragmentierung der Aufmerksamkeit, ergänzt die CMU-Mitarbeiterin: “Die KI kann für Sie zu Meetings gehen und Notizen machen, so dass Sie an vier Orten gleichzeitig sein können”, berichtet Woolley und gibt zu bedenken: “Es gibt jedoch nur eine bestimmte Anzahl von Projekten, zu denen wir sinnvoll beitragen können, und von Gesprächen, an denen wir teilnehmen können.” Der KI-Einsatz trage nur dazu bei, dass wir das Gefühl hätten, es gäbe noch mehr für uns zu tun: “So laufen wir Gefahr, auszubrennen.” Wenn unsere Aufmerksamkeit zu sehr fragmentiert sei, könnten die Menschen anfangen, schlechte Entscheidungen zu treffen. Aufmerksamkeit teilen? Einige Unternehmen setzen Grenzen für die Anzahl der Projekte, mit denen sich Mitarbeiter gleichzeitig beschäftigen können. “Jeder ist um seine Karriere besorgt, und niemand ist sich wirklich sicher, was für seine Leistungsbewertung ausschlaggebend sein wird. Daher versuchen die Leute, mehr Aufgaben zu übernehmen.” Die Lösung bestehe nach Meinung von Woolley darin, dass Unternehmen klare Ziele und Leistungskriterien festlegen. Sie wollen eine explosionsartige Zunahme von Projekten, Initiativen und Teams unterbinden, die keinen Mehrwert schaffen, sondern nur Arbeit verursachen. “Vor allem in einer verteilten Umgebung ist es wichtiger denn je, von Besprechungen wegzukommen, die nur dazu da sind, zu zeigen, dass man arbeitet.” Tools beschränken Hinzu kommt: Jedes der vielen neuen KI-Tools erfordert eine gewisse Zeit, bis es tatsächlich einen Nutzen bringt. Woolley empfiehlt Unternehmen, sich auf eine Anzahl von Tools zu beschränken, die sie benötigen, um ihre Aufgaben zu erledigen. Zudem sollten sie einen Prozess zum Testen und Bewerten neuer KI-Systeme einrichten, um Mitarbeiter nicht von der eigentlichen Arbeit abzuhalten. Auch sei es empfehlenswert, wenn die Mitarbeitenden über ein gewisses Maß an persönlicher Autonomie verfügen. “Gibt es geprüfte Tools, mit denen ich nach eigenem Ermessen probieren und dadurch meine Arbeit besser erledigen kann – großartig!” Halluzinationen und Ungenauigkeiten Laut der oben erwähnten Slack-Umfrage sagen nur sieben Prozent der Büroarbeiter, dass KI-Ergebnisse für ihre Aufgaben völlig vertrauenswürdig sind. Mehr als ein Drittel gibt an, dass KI-Ergebnisse nur wenig oder gar nicht vertrauenswürdig sind. In einer aktuellen Studie von Forschern der Cornell University und weiterer Institute wurde festgestellt, dass selbst die leistungsstärksten KI-Modelle nur in einem Drittel der Fälle völlig korrekte Antworten geben konnten. Das bedeutet, dass der KI-Output zusätzlich beaufsichtigt, überprüft, bearbeitet, korrigiert oder überarbeitet werden muss. Das alles kostet Zeit und reduziert die Produktivität. Zu viel Datenwissenschaft, zu wenig Gewinn Viele Kunden wollen einfach nur KI einsetzen und haben die Use Cases nicht sorgfältig durchdacht. So kann die KI einen enormen Arbeitsaufwand für Data Scientists und Data Engineers verursachen. Sie müssen die Trainingsdaten sammeln und vorbereiten, die Modelle erstellen und testen, sie in den Unternehmens-Workflow integrieren und dann die Leistung überwachen, um sicherzustellen, dass die KI weiterhin gut funktioniert. Laut dem Jobportal ZipRecruiter lag das durchschnittliche Einstiegsgehalt für einen US-amerikanischen Datenexperten im Oktober 2024 bei 165.000 Dollar pro Jahr. “Machen Sie langsam”, empfiehlt Steve Ross, Director of Cybersecurity bei S-RM Intelligence and Risk Consulting. “Stellen Sie keine Datenwissenschaftler ein, nur um ein paar E-Mails zu schreiben.” Ohne einen eindeutigen Use Case sei die Wahrscheinlichkeit groß, dass das KI-Projekt nicht einmal über das Proof-of-Concept-Stadium hinauskommt, ergänzt Gartner. Das Marktforschungsunternehmen prognostiziert, dass bis Ende 2025 mindestens 30 Prozent der KI-Projekte aufgrund eines unklaren Geschäftsnutzens sowie schlechter Datenqualität, unzureichender Risikokontrollen und eskalierender Kosten aufgegeben werden. Verlagerung statt Ersparnis Das Hochschul-Marketing-Unternehmen Education Dynamics setzt KI zur Unterstützung von Kampagnen ein. Bei einigen Aufgaben gibt es nicht wirklich einen großen Produktivitätsschub, berichtet Marketing-Managerin Sarah Russell. “Vom Standpunkt der kreativen Bearbeitung und Überarbeitung aus gesehen, haben wir wirklich jede Zeitersparnis bei der ursprünglichen Erstellung ersetzt und in die Bearbeitung und Überarbeitung verlagert”, sagt sie. “Wir wollen vermeiden, dass unsere Texte KI-generiert klingen, keine Persönlichkeit haben oder überdreht sind. Für uns ist es weniger eine Zeitersparnis als vielmehr eine Verlagerung des Zeitaufwands.” Aber die Einführung der Technologie helfe dem Unternehmen immerhin, sich weiterzuentwickeln. (ajf/jd) 

Wie Sie sich mit KI mehr Arbeit aufhalsen​ Wenn KI helfen kann, eine gut geschriebene E-Mail zehnmal schneller zu verfassen, werden vielleicht zehnmal so viele E-Mails wie zuvor verfasst – E-Mails, die nun jemand anderes lesen, sich Gedanken machen und vielleicht auch beantworten muss.Martin Lauge Villadsen – shutterstock.com

Auf der Barclays Global Financial Services-Konferenz im September 2024 war der Tenor, dass KI Prozesse verbessern und Effizienz steigern wird. Laut Daniel Pinto, Präsident von JP Morgan Chase, rechnet die Bank mit einem Wertzuwachs von bis zu zwei Milliarden Dollar aus ihren KI-Use-Cases – ein Drittel mehr als in der Prognose vom Mai zuvor. Der Konzern habe bereits einen KI-Assistenten auf den Markt gebracht und wolle mit seiner Hilfe jeden Prozess optimieren, berichtete Pinto.

Operative Effizienz im Fokus

Auch viele andere Manager stehen der KI zuversichtlich gegenüber. Einem neuen IDC-Bericht zufolge betrachten 98 Prozent der Führungskräfte KI als Priorität für ihr Unternehmen. Zudem geht das Analystenhaus davon aus, dass KI der Weltwirtschaft bis 2030 rund 20 Billionen zusätzliche Dollar generieren wird.

Erst im August hatte OpenAI bekannt gegeben, dass sein ChatGPT inzwischen mehr als 200 Millionen wöchentliche Nutzer hat – doppelt so viele wie im November 2023. Die Nutzung der API hat sich ebenfalls verdoppelt, seit ChatGPT-4o mini im Juli veröffentlicht wurde.

Laut einer aktuellen Studie von Coleman Parkes Research im Auftrag von Riverbed sagen 59 Prozent der Entscheidungsträger in großen Unternehmen, dass KI-Projekte ihre Erwartungen erfüllt haben, bei 18 Prozent wurden sie übertroffen. “KI hat den IT-Bereich verlassen und sich in der Organisation etabliert”, berichtet Ian Beston, Direktor bei Coleman Parkes Research. Allerdings gibt knapp ein Viertel der Befragten an, dass KI die Erwartungen nicht erfüllt hat – trotz der gepriesenen Vorteile für die Effizienz reduziert die KI also nicht automatisch die Arbeitslast.

Mehr gesparte Zeit, mehr verschwendete Zeit

Wenn KI den Mitarbeitern hilft, ihre Arbeit schneller zu erledigen, gehen Unternehmen davon aus, dass die gewonnene Zeit für höherwertige Tätigkeiten genutzt wird. Das ist aber nicht unbedingt der Fall, sagt Christina Janzer, SVP of Research and Analytics bei Slack. Laut der jüngsten Umfrage des Unternehmens verbringen Knowledge Worker 37 Prozent mehr Zeit mit administrativen Routineaufgaben.

“Es gibt jedoch eine Menge Potenzial”, berichtet Janzer. “Auch wenn wir noch in den Kinderschuhen stecken, sehen wir unglaubliche Ergebnisse in Bezug auf die Produktivität und die Verbesserung der Work-Life-Balance sowie der Begeisterung für den Job.”

Das Problem: Menschen seien darauf programmiert, ihre Zeit mit bestimmten Aufgaben zu füllen. Wenn die KI dann Zeit freisetze, würde diese durch mehr Verwaltungsarbeit belegt. “Es gibt eine nicht enden wollende Liste von Aufgaben, die erledigt werden müssen”, so Janzer.

Die Lösung bestehe darin, die Anreizsysteme zu überdenken. “Manager tendieren dazu, Anreize auf der Grundlage von Aktivitäts-Metriken zu schaffen und Input statt Output zu messen.” Statt auf den Wert zu schauen, den der Mitarbeiter dem Unternehmen bringt, würden sie die Anzahl der verschickten E-Mails oder die im Büro verbrachten Stunden zählen.

Posteingänge außer Kontrolle

Die Entwicklung schafft auch mehr Arbeit für andere Mitarbeitende, argumentiert Janzer. Wenn KI helfen kann, eine gut geschriebene E-Mail zehnmal schneller zu verfassen, werden vielleicht zehnmal so viele E-Mails wie zuvor verfasst – E-Mails, die nun jemand anderes lesen, sich Gedanken machen und vielleicht auch beantworten muss. Statt einen Artikel für die Wissensdatenbank des Unternehmens zu einem wirklich relevanten Thema zu schreiben, könnten Mitarbeiter mit KI ein Dutzend Artikel zu weniger interessanten Themen einreichen. Mitarbeiter, die ihren Vorgesetzten Berichte vorlegen müssen, könnten diese schneller fertig stellen und ihre Anzahl sowie die Länge erhöhen.

“Diese Technologien können mehr Inhalte produzieren, die jemand konsumieren und zur Kenntnis nehmen muss”, so Anita Woolley, Professorin an der Carnegie Mellon University. Schon jetzt würden die Suchergebnisse mit immer mehr minderwertigen KI-Inhalten überflutet, was für Mitarbeiter, die im öffentlichen Web und in Wissensdatenbanken nach Informationen suchen, von Nachteil sei. Ein tatsächlich nützliches Ergebnis zu finden, gleiche der Suche nach einer Nadel im Heuhaufen. “Das Informationsvolumen ist definitiv einer der Bereiche, in denen die Produktivität sinken könnte”, sagt Woolley.

Fragmentierte Aufmerksamkeit

Eine weitere potenziell negative Auswirkung von KI ist die Fragmentierung der Aufmerksamkeit, ergänzt die CMU-Mitarbeiterin: “Die KI kann für Sie zu Meetings gehen und Notizen machen, so dass Sie an vier Orten gleichzeitig sein können”, berichtet Woolley und gibt zu bedenken: “Es gibt jedoch nur eine bestimmte Anzahl von Projekten, zu denen wir sinnvoll beitragen können, und von Gesprächen, an denen wir teilnehmen können.”

Der KI-Einsatz trage nur dazu bei, dass wir das Gefühl hätten, es gäbe noch mehr für uns zu tun: “So laufen wir Gefahr, auszubrennen.” Wenn unsere Aufmerksamkeit zu sehr fragmentiert sei, könnten die Menschen anfangen, schlechte Entscheidungen zu treffen.

Aufmerksamkeit teilen?

Einige Unternehmen setzen Grenzen für die Anzahl der Projekte, mit denen sich Mitarbeiter gleichzeitig beschäftigen können. “Jeder ist um seine Karriere besorgt, und niemand ist sich wirklich sicher, was für seine Leistungsbewertung ausschlaggebend sein wird. Daher versuchen die Leute, mehr Aufgaben zu übernehmen.”

Die Lösung bestehe nach Meinung von Woolley darin, dass Unternehmen klare Ziele und Leistungskriterien festlegen. Sie wollen eine explosionsartige Zunahme von Projekten, Initiativen und Teams unterbinden, die keinen Mehrwert schaffen, sondern nur Arbeit verursachen. “Vor allem in einer verteilten Umgebung ist es wichtiger denn je, von Besprechungen wegzukommen, die nur dazu da sind, zu zeigen, dass man arbeitet.”

Tools beschränken

Hinzu kommt: Jedes der vielen neuen KI-Tools erfordert eine gewisse Zeit, bis es tatsächlich einen Nutzen bringt. Woolley empfiehlt Unternehmen, sich auf eine Anzahl von Tools zu beschränken, die sie benötigen, um ihre Aufgaben zu erledigen. Zudem sollten sie einen Prozess zum Testen und Bewerten neuer KI-Systeme einrichten, um Mitarbeiter nicht von der eigentlichen Arbeit abzuhalten.

Auch sei es empfehlenswert, wenn die Mitarbeitenden über ein gewisses Maß an persönlicher Autonomie verfügen. “Gibt es geprüfte Tools, mit denen ich nach eigenem Ermessen probieren und dadurch meine Arbeit besser erledigen kann – großartig!”

Halluzinationen und Ungenauigkeiten

Laut der oben erwähnten Slack-Umfrage sagen nur sieben Prozent der Büroarbeiter, dass KI-Ergebnisse für ihre Aufgaben völlig vertrauenswürdig sind. Mehr als ein Drittel gibt an, dass KI-Ergebnisse nur wenig oder gar nicht vertrauenswürdig sind.

In einer aktuellen Studie von Forschern der Cornell University und weiterer Institute wurde festgestellt, dass selbst die leistungsstärksten KI-Modelle nur in einem Drittel der Fälle völlig korrekte Antworten geben konnten.

Das bedeutet, dass der KI-Output zusätzlich beaufsichtigt, überprüft, bearbeitet, korrigiert oder überarbeitet werden muss. Das alles kostet Zeit und reduziert die Produktivität.

Zu viel Datenwissenschaft, zu wenig Gewinn

Viele Kunden wollen einfach nur KI einsetzen und haben die Use Cases nicht sorgfältig durchdacht. So kann die KI einen enormen Arbeitsaufwand für Data Scientists und Data Engineers verursachen. Sie müssen die Trainingsdaten sammeln und vorbereiten, die Modelle erstellen und testen, sie in den Unternehmens-Workflow integrieren und dann die Leistung überwachen, um sicherzustellen, dass die KI weiterhin gut funktioniert.

Laut dem Jobportal ZipRecruiter lag das durchschnittliche Einstiegsgehalt für einen US-amerikanischen Datenexperten im Oktober 2024 bei 165.000 Dollar pro Jahr. “Machen Sie langsam”, empfiehlt Steve Ross, Director of Cybersecurity bei S-RM Intelligence and Risk Consulting. “Stellen Sie keine Datenwissenschaftler ein, nur um ein paar E-Mails zu schreiben.”

Ohne einen eindeutigen Use Case sei die Wahrscheinlichkeit groß, dass das KI-Projekt nicht einmal über das Proof-of-Concept-Stadium hinauskommt, ergänzt Gartner. Das Marktforschungsunternehmen prognostiziert, dass bis Ende 2025 mindestens 30 Prozent der KI-Projekte aufgrund eines unklaren Geschäftsnutzens sowie schlechter Datenqualität, unzureichender Risikokontrollen und eskalierender Kosten aufgegeben werden.

Verlagerung statt Ersparnis

Das Hochschul-Marketing-Unternehmen Education Dynamics setzt KI zur Unterstützung von Kampagnen ein. Bei einigen Aufgaben gibt es nicht wirklich einen großen Produktivitätsschub, berichtet Marketing-Managerin Sarah Russell. “Vom Standpunkt der kreativen Bearbeitung und Überarbeitung aus gesehen, haben wir wirklich jede Zeitersparnis bei der ursprünglichen Erstellung ersetzt und in die Bearbeitung und Überarbeitung verlagert”, sagt sie.

“Wir wollen vermeiden, dass unsere Texte KI-generiert klingen, keine Persönlichkeit haben oder überdreht sind. Für uns ist es weniger eine Zeitersparnis als vielmehr eine Verlagerung des Zeitaufwands.” Aber die Einführung der Technologie helfe dem Unternehmen immerhin, sich weiterzuentwickeln. (ajf/jd)

Wie Sie sich mit KI mehr Arbeit aufhalsen​ Weiterlesen »

Servant Leadership: Wie Konfliktlösung geht​

Allgemein

Servant Leadership stellt das bisherige Führungsverständnis auf den Kopf. Transformative Mediation hilft bei der Lösung von Konflikten. Foto: sirtravelalot – shutterstock.comNiemand steckt gerne in Konflikten fest oder stellt sich ihnen bereitwillig. Als Projektmanager hat man allerdings nicht nur die Aufgabe, Projekte erfolgreich ohne Wenn und Aber abzuschließen, sondern auch die im Projektverlauf aufkommenden Konflikte zu klären. Das ist keine leichte Aufgabe. Es gibt Mitarbeiter, die bei jedem Thema unterschiedlicher Meinung sein können und Teams, die mehr über Zuständigkeiten als über Lösungen diskutieren. Das kann für Projekte zum Risiko werden. Wer Projekte auf Kurs halten möchte, braucht dazu die passende Strategie.Konfliktlösung in der VUCA-WeltWir leben in einem VUCA-Umfeld, das geprägt ist von Veränderung, Unsicherheit, Komplexität und Ambiguität (ursprünglich aus dem Englischen: VUCA – Volatility, Uncertainty, Complexity and Ambiguity). Aufgaben werden komplexer und Probleme unvorhersehbarer. Sie zu meistern erfordert Teamwork von Mitarbeitern, Teams und Abteilungen. Das ist nicht selbstverständlich.Deutlich zeigt sich das oftmals in der Zusammenarbeit mehrer Abteilungen über Ticketsysteme. Vieles erinnert an ein Tennisspiel: Ziel ist es, das Ticket in das Spielfeld der anderen Abteilung zu bringen. So werden IT-Tickets zwischen den Abteilungen hin- und hergespielt mit den Worten “Wir sind nicht zuständig”. Begrenzt wird das Spielfeld durch die Zuständigkeiten der jeweiligen Abteilung. Sind sich diese uneinig, ob eine Aufgabe noch in den Zuständigkeitsbereich fällt, wird an das Management eskaliert. Das agiert als Linienrichter und trifft die finale Entscheidung über Sieg oder Niederlage. Diese Art der Zusammenarbeit ist anstrengend und weder effektiv noch effizient. Über die Zeit hinweg können sich so Unzufriedenheit, Frust und Ärger aufstauen und sich in Diskussionen entladen, die den sachlichen Boden verlassen. Das ist ein idealer Nährboden für Projektverzögerungen.Lesetipp: 8 Tipps – So retten Sie gefährdete IT-ProjekteMediation und insbesondere der transformative Mediationsansatz kann Projektmanagern helfen, handlungsfähig zu bleiben. Wie? Ganz einfach: durch Empowerment und Recognition. Simon Sinek, ein erfolgreicher Visionär und Unternehmensberater, beschreibt Empowerment wie folgt: “Leadership is about empowering others to achieve things they didn’t think possible”. Und das trifft es auf den Punkt. Am erfolgreichsten sind Führungskräfte, die andere in die Lage versetzen, ihre Konflikte selbst zu lösen. So kann sich das ständige Tauziehen in ein kooperatives Miteinander verwandeln und die Zusammenarbeit pragmatischer, produktiver und vor allem kundenorientierter werden. Die bestmöglichen Ergebnisse erzielen Projektmanager, wenn sie dabei gewisse Fähigkeiten mitbringen.Servant Leadership – DefinitionEin Servant Leader dient seinen Mitarbeitern, dem Kunden und dem Unternehmen. Mit seiner Dienstleistungsorientierung stellt er das bisherige Führungsverständnis auf den Kopf. Die werteorientierte Führungshaltung wird auch hierzulande in Unternehmen immer populärer. Die wichtigsten fünf Charakteristiken der Servant Leadership sind:Empathie und aktives ZuhörenBewusstsein schaffenVoraussicht habenWachstum ermöglichenGemeinschaft erzeugenDiese Eigenschaften helfen bei dem Auftreten und der Lösung von Konflikten, vor allem, wenn man eine neutrale Position behält. Und sollte der Servant Leader doch vor einer scheinbar undurchdringlichen Wand stehen, hilft die transformative Mediation.Servant Leadership – Best PracticesDie transformative Mediation hat das Ziel, Konflikte systematisch zu lösen und Beziehungen zu stärken. Im Konflikt führen folgende fünf Praktiken am besten zu nachhaltigem Erfolg:Eigenverantwortung stärken: Sehen Sie die Konfliktbeteiligten als Experten in eigener Sache. Es ist nicht die Aufgabe des Projektleiters, die Verantwortung für die Konfliktlösung zu übernehmen. Im Gegenteil: Befähigen Sie andere, Konflikte selbst zu lösen. Geben Sie den Konfliktparteien die Zügel für das Ergebnis selbst in die Hand.Ressourcenorientierte Haltung: Denken Sie ressourcenorientiert. Alle Beteiligten sind selbst in der Lage, sich aus einer Situation zu befreien, die sie sich selbst eingebrockt haben. Doch um sich selbst aus der Situation herauszumanövrieren, brauchen sie neue Denkmuster und Perspektiven. In diesem Fall agiert ein Mediator oft als Wegbereiter, um Stärken zu aktivieren.Allparteilichkeit: Seien Sie nicht nur neutral, sondern versuchen Sie, die Perspektiven der verschiedenen Interessengruppen tiefgreifend zu verstehen. Erkennen Sie die jeweiligen Probleme, Wünsche und Bedürfnisse. Allparteilichkeit haben Sie erreicht, wenn sie erkennen, dass jeder aus seiner Perspektive heraus Recht hat.Kooperation fördern: Schaffen Sie ein Umfeld, das lösungsorientierte Diskussionen und kooperatives Verhalten ermöglicht. Das gelingt Ihnen, indem Sie die Parteien dabei unterstützen, die Situation des Gegenübers nachvollziehbar zu machen. Verstehen schafft Verständnis. Verständnis schafft Vertrauen. Vertrauen ist die Grundlage für Kooperation.Das große Ganze verstehen: Anstatt vorschnell der Meinung zu sein, die Ursache eines Konfliktes vermeintlich zu kennen, nehmen Sie das gesamte System unter die Lupe. Wie und weshalb ist der Konflikt entstanden? Welche Verhaltensmuster haben zu dem Problem in welchem Zusammenhang geführt? Seien Sie in der Lage, Wechselwirkungen zu erkennen und zu berücksichtigen. Vor allem in unserer komplexen Welt ist es wichtig, sich ein ganzheitliches Bild einer Situation zu verschaffen, um vorausschauend handeln zu können.Spannt man nun den Bogen zurück zum Anfang, wird offensichtlich, warum ein transformativer Ansatz für eine effektive Konfliktlösung in der VUCA-Welt unerlässlich ist. Erst wenn wir den Konflikt mit dem passenden Werkzeug bearbeiten, sind wir in der Lage, die beste Lösung zu finden. (pg/fm)Neue Führungspraxis für die digitale WeltDer Sportdirektor eines Vereins Foto: Sergey Kuznecov – shutterstock.comDer Sportdirektor eines Vereins stellt den Kader zusammen und gestaltet die Spiel- und Terminpläne für Wettkämpfe und Trainings. Er instruiert Talentscouts, kauft Spieler ein und stellt Bewegungsfreiheit für erforderliche Transfers sicher. Sein Ziel: Menschen zu finden und zu binden, die die Weiterentwicklung des Unternehmens konstant antreiben. Er erweitert die Suchkriterien für die Rekrutierung, stellt Mitarbeiter mit verschiedensten Hintergründen ein und ermöglicht Familien- und altersgerechte Arbeitszeitmodelle.Führung in der Digitalisierung Foto: SFIO CRACHO – shutterstock.comDie Studie “Die Haltung entscheidet. Neue Führungspraxis für die digitale Welt” stammt von LEAD (Mercator Capacity Building Center for Leadership & Advocacy) in Kooperation mit der Unternehmensberatung Company Companions sowie der School of Public Policy (Central European University, Budapest) und dem Center for Leadership and Values in Society (Universität St. Gallen). Die Autoren empfehlen acht Rollen als Orientierungshilfen.Die Landschaftsgärtnerin Foto: Africa Studio – shutterstock.comDie Landschaftsgärtnerin gestaltet und pflegt Grünanlagen. Sie versteht das gesamte Ökosystem und weiß, wann welche Pflanzen im Jahreszeitenwechsel an welcher Stelle ihre Wirkung entfalten und wie alles zusammenspielt. Ihr Ziel: Das Unternehmen langfristig auf zustellen, wenn Krise und Veränderung zum Normalfall geworden sind. Sie ermöglicht schnelles „Prototyping“, geht unkonventionelle Partnerschaften ein und bricht Silos mittels heterogener, cross-funktionaler Teams auf.Die Seismologin Foto: Filip Fuxa – shutterstock.comDie Seismologin muss wissen, wo die Erde beben könnte. Dafür analysiert sie Daten, registriert feinste Erschütterungen und erkennt Spannungen frühzeitig. Sie erliegt aber nicht der Illusion, die Zukunft genau vorhersagen zu können. Ihr Ziel: Grundlagen für gute Entscheidungen in einer unübersichtlichen Welt zu schaffen. Sie etabliert „Situation Rooms“ zur Entwicklung von Handlungsstrategien, greift über digitale Plattformen auf verborgenes Wissen zu und schult ihre Intuition als zusätzliche “Datenquelle”.Der Zen-Schüler Foto: Toranico – shutterstock.comDer Zen-Schüler ist in Ausbildung und Vorbereitung. Er lernt, reflektiert und prüft sich selbst. Achtsamkeit, Mitgefühl und Offenheit sind seine Tugenden, er pflegt eine disziplinierte (spirituelle) Praxis. Sein Ziel: Das finden, woran er sich festhalten kann, wenn sich alle an ihm festhalten. Er nutzt Coaching- und Mentoring-Programme, schafft physische Räume für den Ausgleich und richtet den Blick nach innen.Der DJ Foto: Vladimir Hodac – shutterstock.comDer Discjockey bringt mit seiner Musik die Menschen zum Tanzen. Er setzt einen Rahmen, der motiviert, anregt und gemeinsame Energie erzeugt. Zugleich hat er ein offenes Ohr für Anregungen und sensible Antennen für das richtige Stück im richtigen Moment. Sein Ziel: Eine Kultur der Zugewandtheit zu schaffen – aber mit dem Fokus auf Ergebnisorientierung. Dafür baut er Empathie als Führungskompetenz auf, schafft Räume, in denen Menschen gerne arbeiten, und agiert als Vorbild für Zugewandtheit und Leistungsorientierung.Die Intendantin eines Theaters Foto: Fer Gregory – shutterstock.comDie Intendantin eines Theaters wählt die Stücke für die Aufführung aus. Sie entwickelt den roten Faden und prägt die gesellschaftliche Wirkungskraft ihres Hauses. Die Künstler und deren Expertise bindet sie dabei ein. Ihr Ziel: in Zeiten großer Unsicherheit und Unplanbarkeit Orientierung zu geben. Über ein „Strategy Board“ schafft sie die Voraussetzung für Richtungsentscheidungen schaffen, erhöht mittels interaktiver Beteiligungsformen die Einigkeit über die Richtung – und hat den Mut zu klaren Ansage in der Krise.Die Trainerin Foto: El Nariz – shutterstock.comDie Trainerin leitet eine Mannschaft taktisch, technisch und konditionell an. Sie bestimmt Trainingsablauf, Mannschaftsaufstellung und Strategie. Sie muss für Misserfolge geradestehen, Erfolge lässt sie ihrem Team. Ihr Ziel: Die Mitarbeiter zu mehr Verantwortungsübernahme zu befähigen. Dafür entwickelt sie über zeitgemäße Lernformate Kompetenzen entwickeln, baut gegenseitiges Vertrauen auf und führt Anreize zur Übernahme von Verantwortung ein.Der Blogger Foto: g-stockstudio – shutterstock.comDer Blogger kommentiert Geschehnisse – zugespitzt, aufrüttelnd und meist aus einer persönlichen Sichtweise. Er will die Welt verstehen, erklären und übersetzen. Er lebt vom direkten Feedback der Leser. Sein Ziel: Veränderungsbereitschaft in die DNA des Unternehmens zu schreiben. Er kaskadiert die Geschichte der Veränderung in die Firma, moderiert gemeinsame Lernprozesse und gibt sichtbare Veränderungsanstöße. 

Servant Leadership: Wie Konfliktlösung geht​ Servant Leadership stellt das bisherige Führungsverständnis auf den Kopf. Transformative Mediation hilft bei der Lösung von Konflikten.
Foto: sirtravelalot – shutterstock.comNiemand steckt gerne in Konflikten fest oder stellt sich ihnen bereitwillig. Als Projektmanager hat man allerdings nicht nur die Aufgabe, Projekte erfolgreich ohne Wenn und Aber abzuschließen, sondern auch die im Projektverlauf aufkommenden Konflikte zu klären. Das ist keine leichte Aufgabe. Es gibt Mitarbeiter, die bei jedem Thema unterschiedlicher Meinung sein können und Teams, die mehr über Zuständigkeiten als über Lösungen diskutieren. Das kann für Projekte zum Risiko werden. Wer Projekte auf Kurs halten möchte, braucht dazu die passende Strategie.Konfliktlösung in der VUCA-WeltWir leben in einem VUCA-Umfeld, das geprägt ist von Veränderung, Unsicherheit, Komplexität und Ambiguität (ursprünglich aus dem Englischen: VUCA – Volatility, Uncertainty, Complexity and Ambiguity). Aufgaben werden komplexer und Probleme unvorhersehbarer. Sie zu meistern erfordert Teamwork von Mitarbeitern, Teams und Abteilungen. Das ist nicht selbstverständlich.Deutlich zeigt sich das oftmals in der Zusammenarbeit mehrer Abteilungen über Ticketsysteme. Vieles erinnert an ein Tennisspiel: Ziel ist es, das Ticket in das Spielfeld der anderen Abteilung zu bringen. So werden IT-Tickets zwischen den Abteilungen hin- und hergespielt mit den Worten “Wir sind nicht zuständig”. Begrenzt wird das Spielfeld durch die Zuständigkeiten der jeweiligen Abteilung. Sind sich diese uneinig, ob eine Aufgabe noch in den Zuständigkeitsbereich fällt, wird an das Management eskaliert. Das agiert als Linienrichter und trifft die finale Entscheidung über Sieg oder Niederlage. Diese Art der Zusammenarbeit ist anstrengend und weder effektiv noch effizient. Über die Zeit hinweg können sich so Unzufriedenheit, Frust und Ärger aufstauen und sich in Diskussionen entladen, die den sachlichen Boden verlassen. Das ist ein idealer Nährboden für Projektverzögerungen.Lesetipp: 8 Tipps – So retten Sie gefährdete IT-ProjekteMediation und insbesondere der transformative Mediationsansatz kann Projektmanagern helfen, handlungsfähig zu bleiben. Wie? Ganz einfach: durch Empowerment und Recognition. Simon Sinek, ein erfolgreicher Visionär und Unternehmensberater, beschreibt Empowerment wie folgt: “Leadership is about empowering others to achieve things they didn’t think possible”. Und das trifft es auf den Punkt. Am erfolgreichsten sind Führungskräfte, die andere in die Lage versetzen, ihre Konflikte selbst zu lösen. So kann sich das ständige Tauziehen in ein kooperatives Miteinander verwandeln und die Zusammenarbeit pragmatischer, produktiver und vor allem kundenorientierter werden. Die bestmöglichen Ergebnisse erzielen Projektmanager, wenn sie dabei gewisse Fähigkeiten mitbringen.Servant Leadership – DefinitionEin Servant Leader dient seinen Mitarbeitern, dem Kunden und dem Unternehmen. Mit seiner Dienstleistungsorientierung stellt er das bisherige Führungsverständnis auf den Kopf. Die werteorientierte Führungshaltung wird auch hierzulande in Unternehmen immer populärer. Die wichtigsten fünf Charakteristiken der Servant Leadership sind:Empathie und aktives ZuhörenBewusstsein schaffenVoraussicht habenWachstum ermöglichenGemeinschaft erzeugenDiese Eigenschaften helfen bei dem Auftreten und der Lösung von Konflikten, vor allem, wenn man eine neutrale Position behält. Und sollte der Servant Leader doch vor einer scheinbar undurchdringlichen Wand stehen, hilft die transformative Mediation.Servant Leadership – Best PracticesDie transformative Mediation hat das Ziel, Konflikte systematisch zu lösen und Beziehungen zu stärken. Im Konflikt führen folgende fünf Praktiken am besten zu nachhaltigem Erfolg:Eigenverantwortung stärken: Sehen Sie die Konfliktbeteiligten als Experten in eigener Sache. Es ist nicht die Aufgabe des Projektleiters, die Verantwortung für die Konfliktlösung zu übernehmen. Im Gegenteil: Befähigen Sie andere, Konflikte selbst zu lösen. Geben Sie den Konfliktparteien die Zügel für das Ergebnis selbst in die Hand.Ressourcenorientierte Haltung: Denken Sie ressourcenorientiert. Alle Beteiligten sind selbst in der Lage, sich aus einer Situation zu befreien, die sie sich selbst eingebrockt haben. Doch um sich selbst aus der Situation herauszumanövrieren, brauchen sie neue Denkmuster und Perspektiven. In diesem Fall agiert ein Mediator oft als Wegbereiter, um Stärken zu aktivieren.Allparteilichkeit: Seien Sie nicht nur neutral, sondern versuchen Sie, die Perspektiven der verschiedenen Interessengruppen tiefgreifend zu verstehen. Erkennen Sie die jeweiligen Probleme, Wünsche und Bedürfnisse. Allparteilichkeit haben Sie erreicht, wenn sie erkennen, dass jeder aus seiner Perspektive heraus Recht hat.Kooperation fördern: Schaffen Sie ein Umfeld, das lösungsorientierte Diskussionen und kooperatives Verhalten ermöglicht. Das gelingt Ihnen, indem Sie die Parteien dabei unterstützen, die Situation des Gegenübers nachvollziehbar zu machen. Verstehen schafft Verständnis. Verständnis schafft Vertrauen. Vertrauen ist die Grundlage für Kooperation.Das große Ganze verstehen: Anstatt vorschnell der Meinung zu sein, die Ursache eines Konfliktes vermeintlich zu kennen, nehmen Sie das gesamte System unter die Lupe. Wie und weshalb ist der Konflikt entstanden? Welche Verhaltensmuster haben zu dem Problem in welchem Zusammenhang geführt? Seien Sie in der Lage, Wechselwirkungen zu erkennen und zu berücksichtigen. Vor allem in unserer komplexen Welt ist es wichtig, sich ein ganzheitliches Bild einer Situation zu verschaffen, um vorausschauend handeln zu können.Spannt man nun den Bogen zurück zum Anfang, wird offensichtlich, warum ein transformativer Ansatz für eine effektive Konfliktlösung in der VUCA-Welt unerlässlich ist. Erst wenn wir den Konflikt mit dem passenden Werkzeug bearbeiten, sind wir in der Lage, die beste Lösung zu finden. (pg/fm)Neue Führungspraxis für die digitale WeltDer Sportdirektor eines Vereins
Foto: Sergey Kuznecov – shutterstock.comDer Sportdirektor eines Vereins stellt den Kader zusammen und gestaltet die Spiel- und Terminpläne für Wettkämpfe und Trainings. Er instruiert Talentscouts, kauft Spieler ein und stellt Bewegungsfreiheit für erforderliche Transfers sicher. Sein Ziel: Menschen zu finden und zu binden, die die Weiterentwicklung des Unternehmens konstant antreiben. Er erweitert die Suchkriterien für die Rekrutierung, stellt Mitarbeiter mit verschiedensten Hintergründen ein und ermöglicht Familien- und altersgerechte Arbeitszeitmodelle.Führung in der Digitalisierung
Foto: SFIO CRACHO – shutterstock.comDie Studie “Die Haltung entscheidet. Neue Führungspraxis für die digitale Welt” stammt von LEAD (Mercator Capacity Building Center for Leadership & Advocacy) in Kooperation mit der Unternehmensberatung Company Companions sowie der School of Public Policy (Central European University, Budapest) und dem Center for Leadership and Values in Society (Universität St. Gallen). Die Autoren empfehlen acht Rollen als Orientierungshilfen.Die Landschaftsgärtnerin
Foto: Africa Studio – shutterstock.comDie Landschaftsgärtnerin gestaltet und pflegt Grünanlagen. Sie versteht das gesamte Ökosystem und weiß, wann welche Pflanzen im Jahreszeitenwechsel an welcher Stelle ihre Wirkung entfalten und wie alles zusammenspielt. Ihr Ziel: Das Unternehmen langfristig auf zustellen, wenn Krise und Veränderung zum Normalfall geworden sind. Sie ermöglicht schnelles „Prototyping“, geht unkonventionelle Partnerschaften ein und bricht Silos mittels heterogener, cross-funktionaler Teams auf.Die Seismologin
Foto: Filip Fuxa – shutterstock.comDie Seismologin muss wissen, wo die Erde beben könnte. Dafür analysiert sie Daten, registriert feinste Erschütterungen und erkennt Spannungen frühzeitig. Sie erliegt aber nicht der Illusion, die Zukunft genau vorhersagen zu können. Ihr Ziel: Grundlagen für gute Entscheidungen in einer unübersichtlichen Welt zu schaffen. Sie etabliert „Situation Rooms“ zur Entwicklung von Handlungsstrategien, greift über digitale Plattformen auf verborgenes Wissen zu und schult ihre Intuition als zusätzliche “Datenquelle”.Der Zen-Schüler
Foto: Toranico – shutterstock.comDer Zen-Schüler ist in Ausbildung und Vorbereitung. Er lernt, reflektiert und prüft sich selbst. Achtsamkeit, Mitgefühl und Offenheit sind seine Tugenden, er pflegt eine disziplinierte (spirituelle) Praxis. Sein Ziel: Das finden, woran er sich festhalten kann, wenn sich alle an ihm festhalten. Er nutzt Coaching- und Mentoring-Programme, schafft physische Räume für den Ausgleich und richtet den Blick nach innen.Der DJ
Foto: Vladimir Hodac – shutterstock.comDer Discjockey bringt mit seiner Musik die Menschen zum Tanzen. Er setzt einen Rahmen, der motiviert, anregt und gemeinsame Energie erzeugt. Zugleich hat er ein offenes Ohr für Anregungen und sensible Antennen für das richtige Stück im richtigen Moment. Sein Ziel: Eine Kultur der Zugewandtheit zu schaffen – aber mit dem Fokus auf Ergebnisorientierung. Dafür baut er Empathie als Führungskompetenz auf, schafft Räume, in denen Menschen gerne arbeiten, und agiert als Vorbild für Zugewandtheit und Leistungsorientierung.Die Intendantin eines Theaters
Foto: Fer Gregory – shutterstock.comDie Intendantin eines Theaters wählt die Stücke für die Aufführung aus. Sie entwickelt den roten Faden und prägt die gesellschaftliche Wirkungskraft ihres Hauses. Die Künstler und deren Expertise bindet sie dabei ein. Ihr Ziel: in Zeiten großer Unsicherheit und Unplanbarkeit Orientierung zu geben. Über ein „Strategy Board“ schafft sie die Voraussetzung für Richtungsentscheidungen schaffen, erhöht mittels interaktiver Beteiligungsformen die Einigkeit über die Richtung – und hat den Mut zu klaren Ansage in der Krise.Die Trainerin
Foto: El Nariz – shutterstock.comDie Trainerin leitet eine Mannschaft taktisch, technisch und konditionell an. Sie bestimmt Trainingsablauf, Mannschaftsaufstellung und Strategie. Sie muss für Misserfolge geradestehen, Erfolge lässt sie ihrem Team. Ihr Ziel: Die Mitarbeiter zu mehr Verantwortungsübernahme zu befähigen. Dafür entwickelt sie über zeitgemäße Lernformate Kompetenzen entwickeln, baut gegenseitiges Vertrauen auf und führt Anreize zur Übernahme von Verantwortung ein.Der Blogger
Foto: g-stockstudio – shutterstock.comDer Blogger kommentiert Geschehnisse – zugespitzt, aufrüttelnd und meist aus einer persönlichen Sichtweise. Er will die Welt verstehen, erklären und übersetzen. Er lebt vom direkten Feedback der Leser. Sein Ziel: Veränderungsbereitschaft in die DNA des Unternehmens zu schreiben. Er kaskadiert die Geschichte der Veränderung in die Firma, moderiert gemeinsame Lernprozesse und gibt sichtbare Veränderungsanstöße.

Servant Leadership: Wie Konfliktlösung geht​ Weiterlesen »

Xiaomi Redmi Note 14 Pro 5G im Test: Bestes Budget-Smartphone?​

Allgemein

Simon Chandler/Foundry Auf einen Blick Pro Scharfes 6,67-Zoll-Display mit 120 Hertz Gute Akkulaufzeit & Lademöglichkeiten Leichtes & robustes Design Solide Hauptkamera Kontra Mittelmäßige Sekundärkameras Gewöhnungsbedürftige Oberfläche Teurer als die Konkurrenten Fazit Das Redmi Note 14 Pro 5G ist eine fantastische Option für alle, die starke Funktionen zu einem erschwinglichen Preis suchen. Sein 6,67-Zoll-AMOLED-Display ist ein Hinkucker, während die Kamera, die Software und der Akku allesamt überdurchschnittlich gut sind. Xiaomis Untermarke Redmi hat sich im Laufe der Jahre eine Nische als Anbieter von Smartphones mit hervorragendem Preis-Leistungs-Verhältnis gesichert. Das Redmi Note 13 Pro erhielt von uns im letzten Jahr eine hervorragende 4,5-Sterne-Bewertung, und auch Xiaomis jüngste Vorstöße in den Bereich der preiswerten Tablets haben uns beeindruckt. In diesem Jahr will das Unternehmen mit dem Smartphone Redmi Note 14 Pro 5G an diese Tradition anknüpfen. Es ist ein weiteres Android-Gerät, das größtenteils Premium-Funktionen zu einem erschwinglichen Preis bietet. Wie bei früheren Generationen erscheint das Redmi Note 14 Pro 5G neben anderen Modellen. Darunter befindet sich das Note 14 Pro+ 5G und die Basisvariante Redmi Note 14. Sie alle sind zu unterschiedlichen Preisen und mit unterschiedlichen Chips, Kameraobjektiven und Akkus ausgestattet. In diesem Testbericht gehen wir der Frage nach, ob das Note 14 Pro 5G für nur 399 Euro genug kann, um sich von der wachsenden Zahl attraktiver und günstiger Android-Smartphones abzuheben. Wir werfen einen Blick auf die Leistung, die Kameras, das Display, den Akku und die Software und beantworten die Frage, ob es sich lohnt, das Gerät seinen zahlreichen Konkurrenten vorzuziehen. Design & Verarbeitung Schlankes, geschwungenes Gehäuse mit schillernden Farben Selfie-Kamera hinter dem Display IP68-Einstufung Das Redmi Note 14 Pro 5G unterscheidet sich deutlich von der eher kantigen Bauweise des 13 Pro, da sein Gehäuse ein konischeres, geschwungenes Design aufweist. Während das 13 Pro im Wesentlichen die flacheren Konturen der jüngsten iPhone-Modelle nachahmte, setzt das 14 Pro auf weichere Ecken und Kanten. Ähnlich verhält es sich mit dem rückwärtigen Kameramodul, das nun in einer kreisrunden Ausbuchtung untergebracht ist und nicht mehr in einem klassischen Quadrat. Das Kameramodul befindet sich außerdem eher in der Mitte der Rückseite, was vielleicht symmetrischer aussieht, aber die Aufnahme von Fotos etwas erschweren kann. Simon Chandler/Foundry Obwohl die angebotene Farbpalette des Redmi Note 14 Pro 5G recht begrenzt ist, hat uns das Korallengrün unseres Testmusters sehr gut gefallen. Es hat einen subtilen Opal-Schimmer, der je nach Lichteinfall den Farbton ändert, während die Farbe selbst lebendig und dennoch geschmackvoll zurückhaltend ist. Sie ergänzt die dünnen Ränder des 6,67-Zoll-Displays und den allgemeinen Minimalismus des Smartphones. Gleichzeitig ermöglicht Ihnen die Farbgebung, ein Statement abzugeben, ohne zu viel zu sagen. Das Gerät sieht nicht nur ziemlich schick aus, es ist auch kompakt und leicht. Es wiegt nur 190 Gramm, und obwohl es ein ziemlich großes Display hat, fühlt es sich dank des dünnen Rahmens nicht überdimensioniert oder unhandlich an. Ein weiterer Pluspunkt ist, dass das Redmi Note 14 Pro 5G für ein Mittelklassegerät sehr widerstandsfähig ist, mit einer IP68-Einstufung und einem Display aus Corning Gorilla Glass Victus 2. Ich habe mich auch gefreut, dass in der Verpackung zudem eine schwarze Silikonhülle enthalten ist. Auf dem Display ist ebenfalls schon eine Schutzfolie angebracht. Bildschirm & Lautsprecher 6,67 Zoll CrystalRes AMOLED-Display Zwei Dolby Atmos-Lautsprecher 120 Hertz Bildwiederholfrequenz Wie bei so vielen Budget- und Mittelklasse-Handys dieser Tage ist das Display des Redmi Note 14 Pro wohl sein bestes Feature: Der Bildschirm setzt auf ein 6,67 Zoll großes AMOLED-Panel, das eine Bildwiederholfrequenz von bis zu 120 Hertz unterstützt und eine Spitzenhelligkeit von 3000 nits erreicht. Dies ermöglicht eine sehr flüssige und scharfe Darstellung, was auch durch die 1,5K-Auflösung von 2.712 x 1.220 Pixeln unterstützt wird. Obwohl ich auf Smartphones normalerweise keine Filme anschaue, hat das Smartphone bei der Wiedergabe von Inhalten auf Netflix, YouTube und Prime Video hervorragende Arbeit geleistet. Das Kontrastverhältnis von 5.000.000:1 führt dazu, dass Inhalte sehr farbenfroh dargestellt werden. Und wenn Sie unterwegs sind, werden Sie Ihren Fernseher zu Hause wahrscheinlich nicht so sehr vermissen. Simon Chandler/Foundry Ganz allgemein macht die 120 Hertz-Bildwiederholrate des Smartphones das Scrollen reaktionsschneller und flüssiger. Text und Bilder erscheinen auf angenehme Weise, und es gibt eine Option, mit der Sie festlegen können, welche Apps die maximale Bildwiederholfrequenz nutzen und welche nicht. So können Sie den Akku schonen und gleichzeitig das Surfen in vollen Zügen genießen. Die Qualität des Bildschirms wird durch die Dolby Atmos-Stereolautsprecher ergänzt, die sowohl für Musikfans als auch für Filmliebhaber einen großartigen Klang liefern. Ich fand, dass selbst bei ziemlich komplexer Musik die verschiedenen Ebenen leicht und deutlich hörbar waren, wobei die Stereolautsprecher ein Gefühl von Tiefe und Dreidimensionalität vermittelten. Ja, sie kommen nicht wirklich mit höheren Lautstärken zurecht und sie sind nicht ganz auf Premium-Niveau. Doch sie werden die meisten Käufer sehr zufrieden stellen. Spezifikationen & Leistung Mediatek Dimensity 7300 Ultra 8 Gigabyte RAM und 256 Gigabyte Speicher Kein micro-SD-Kartensteckplatz Mit 8 Gigabyte RAM als Standard und einem Mediatek Dimensity 7300 Ultra Chip an Bord ist das Redmi Note 14 Pro für ein Budget-Handy sehr leistungsfähig. Für die meisten Aufgaben war es perfekt geeignet, Apps und Webseiten wurden ohne spürbare Verzögerungen geöffnet. Auch als Spiele-Plattform fand ich das Redmi Note 14 Pro 5G mehr als ausreichend schnell, Gelegenheitsspiele wie “Subway Surfers” und “Fortnite” liefen alle reibungslos. Allerdings habe ich festgestellt, dass es ein wenig zu kämpfen hat, wenn man dem Smartphone mehr abverlangt. Einige der grafisch anspruchsvolleren Android-Spiele, darunter “Asphalt 9” und “Shadowgun Legends”, liefen nicht ganz ohne Verzögerungen. Sie waren trotzdem unterhaltsam, aber wer das bestmögliche Android-Spielerlebnis haben möchte, muss sich wahrscheinlich für ein hochwertigeres Handy entscheiden. Simon Chandler/Foundry Während die Leistung des Note 14 Pro im Allgemeinen gut ist, ist es etwas enttäuschend, dass das Smartphone keinen microSD-Slot hat. Das ist heutzutage üblich, könnte aber ein Problem darstellen, da die Basisversion des Smartphones nur 256 Gigabyte internen Speicher beinhaltet. Benutzer, die dazu neigen, ihre Geräte mit Fotos, Musik und anderen Dateien vollzustopfen, müssen sich also möglicherweise etwas zurückhalten. Kameras 200-Megapixel-Hauptkamera auf der Rückseite 8-Megapixel-Ultraweitwinkel- und 2-Megapixel-Makroobjektiv 20-Megapixel-Selfie-Kamera Das Redmi Note 14 Pro 5G hebt sich durch seine 200-Megapixel-Hauptkamera mit Weitwinkelobjektiv von der Masse der Mittelklasse-Handys ab. Ausgestattet mit optischer Bildstabilisierung (OIS) und End-to-End AI Remosaic Technologie (die eine parallele statt sequentielle Verarbeitung der Bilder ermöglicht), kann das Redmi Note 14 Pro 5G eine Vielzahl von Szenen mit einem Minimum an Aufwand aufnehmen. Ergänzt wird diese Linse durch ein 8-Megapixel-Ultraweitwinkelobjektiv für Panoramaaufnahmen sowie eine 2 Megapixel Makrokamera für extreme Nahaufnahmen. Im Großen und Ganzen hatte ich viel Spaß mit der Hauptkamera des Note 14 Pro. Unter den meisten Bedingungen erhielt ich gute Aufnahmen, wobei das Hauptobjektiv eine natürliche Farbbalance bietet. Ich fand zwar, dass einige Landschaftsaufnahmen etwas zu ungesättigt erschienen. Aber man könnte argumentieren, dass dies ein willkommenes Gegengewicht zu den übersättigten Fotos darstellt, zu denen manche andere Geräte neigen. So oder so, die Klarheit der Fotos war in der Regel hoch, und der 200-Megapixel-Modus ermöglichte eine oft verblüffende Detailgenauigkeit. Simon Chandler/Foundry Die beiden anderen rückwärtigen Objektive sorgten für gemischte Ergebnisse: Das 8-Megapixel-Ultraweitwinkelobjektiv ist sehr praktisch, wenn Sie gerne im Freien fotografieren. Trotz der deutlich geringeren Anzahl an Pixeln kann seine Leistung in der Regel mit der des 200-Megapixel-Hauptobjektivs mithalten. Was das 2-Megapixel-Makroobjektiv betrifft, so habe ich festgestellt, dass ich mit dem Hauptobjektiv in der Regel schönere Nahaufnahmen machen kann. Nur bei gutem natürlichem Licht funktioniert das Makroobjektiv besser. Während das Makroobjektiv als Spielerei betrachtet werden könnte, war ich von der 20-Megapixel-Selfie-Kamera des Note 14 Pro am meisten beeindruckt. Die Frontkamera ist in der Lage, tiefgründige und dennoch schmeichelhafte Selbstporträts aufzunehmen. Wenn Sie möchten, können Sie den “Verschönerungseffekt” sogar noch verstärken. Ein weiteres Lob möchte ich dem Nachtmodus des Smartphones aussprechen. Wie die Beispiele in der unten stehenden Galerie zeigen, leuchtet er Szenen bei schwachem Licht mit beachtlicher Lebendigkeit aus, ohne dass die Bilder künstlich oder trüb wirken. Akkulaufzeit & Aufladen 5.110-Milliamperestunden-Akku 45 Watt kabelgebundenes Turbo-Laden Mit dem gleichen 5.110-Milliamperestunden-Akku wie schon der Vorgänger ist das Note 14 Pro ein zuverlässiges Smartphone für alle, die draußen arbeiten oder damit unterwegs sind. Ich habe es bei mir zu Hause auf Herz und Nieren geprüft, während ein anderes Familienmitglied Spaß daran hatte, es zum Spielen zu verwenden. Ich war erfreut, dass es immer bis zum nächsten Tag durchgehalten hat. Bei geringerer Belastung hält das Note 14 Pro oft sogar zwei Tage lang ohne Aufladen durch. Wer die Bildwiederholfrequenz auf 120 Hertz begrenzt und das Smartphone recht intensiv nutzt, muss vielleicht schon am Ende des ersten Tages eine Steckdose aufsuchen. Dies spiegelt sich in den Ergebnissen des PCMark-Akkutests wider, die mit 13 Stunden und 24 Minuten sehr gut ausfallen. Dennoch reichen die Werte nicht ganz aus, um das Note 14 Pro unter den Smartphones mit der besten Akkulaufzeit zu platzieren. Simon Chandler/Foundry Es ist erwähnenswert, dass dem Note 14 Pro ein kabelgebundenes 45-Watt-Ladegerät beiliegt, im Gegensatz zum 67-Watt-Ladegerät, das Sie noch mit dem 13 Pro erhalten haben. Das mag wie eine Verschlechterung erscheinen und führt in der Praxis auch zu langsameren Ladezeiten. Aber ich fand, dass der Ladevorgang im Allgemeinen immer noch sehr schnell war. Ich habe das Smartphone in 15 Minuten von 0 auf 33 Prozent und in einer halben Stunde auf 64 Prozent aufgeladen. Die meisten Leute werden den Unterschied also nicht wirklich bemerken. Software & Apps Android 14 Drei Jahre lang grundlegende Android-Upgrades Vier Jahre Sicherheitsupgrades Auf den ersten Blick sieht es so aus, als ob das Note 14 Pro 5G vom letztjährigen Modell abweicht, da es mit HyperOS über Android 14 läuft. Das Vorgängermodell setzt noch auf MIUI 14 und Android 13. Aber wie bereits bei anderen Xiaomi-Handys unterscheidet sich HyperOS gar nicht so sehr von MIUI. Beide setzen auf ein sehr ähnliches Design und Layout, was bedeutet, dass es nicht besonders interessant oder attraktiv ist. Dennoch fand ich es größtenteils funktional und benutzerfreundlich, da Bildschirme, Apps und Seiten schnell geladen wurden. Es gibt einige subtile Aktualisierungen, wie das Dropdown-Kontrollzentrum, das einen willkommenen Shortcut für das Menü Einstellungen enthält. Und während sich manche Käufer über den Mangel an Anpassungsmöglichkeiten beschweren könnten, bietet Ihnen die Themes-App doch einige Möglichkeiten zur persönlichen Gestaltung. Simon Chandler/Foundry Erwähnenswert ist auch, dass das Smartphone neben den üblichen Google-Apps eine Reihe von Google-KI-Funktionen bietet. Dazu gehören Gemini (Googles ChatGPT-ähnlicher persönlicher Assistent) und Circle to Search, während AI Erase Pro und AI Image Expansion mit einem Update Ende Januar erscheinen sollen. Wie bei den meisten generativen KI-Funktionen auf Mobiltelefonen handelt es sich hierbei um hilfreiche Ergänzungen, ohne dass diese die Bedienung komplett revolutionieren würden. Positiv zu vermerken ist die Tatsache, dass Xiaomi sich verpflichtet hat, das Note 14 Pro drei Jahre lang mit grundlegenden Android-Updates zu versorgen. Hinzu kommen vier Jahre Sicherheitsupdates, was das Gerät für ein Mittelklasse-Gerät relativ zukunftssicher macht. Allerdings können Sie bei Samsung eine längere Unterstützung finden. Das Galaxy A16 5G bietet zum Beispiel sechs Jahre langen Support. Preis & Verfügbarkeit Das Redmi Note 14 Pro 5G ist in Deutschland seit dem 15. Januar zu einer UVP von 399,90 Euro erhältlich. Sie können es direkt bei Xiaomi zu diesem Preis kaufen. Bei Online-Versandhändler Amazon wird das Smartphone ab 399,99 Euro angeboten. Dafür erhalten Sie das Modell mit 8 Gigabyte RAM und 256 Gigabyte Speicherplatz. Interessanterweise kostet das mit 12 Gigabyte RAM und 512 Gigabyte Speicher ausgestattete Modell durch einen Rabatt bei Amazon ebenfalls 399,99 Euro. Mediamarkt ist sogar noch etwas günstiger: Hier wird das Redmi Note 14 Pro 5G schon ab 379,99 Euro angeboten. Dabei handelt es sich jedoch um das Modell mit 8 Gigabyte RAM und 256 Gigabyte Speicher. Eine Verdoppelung des internen Speichers für knapp 20 Euro mehr sowie 4 Gigabyte RAM zusätzlich erscheinen da lohnenswerter. Was die Alternativen angeht, so bietet das Samsung Galaxy A16 5G ähnliche Spezifikationen und ist 200 Euro günstiger. Das TCL 50 Pro Nxtpaper kostet aktuell 274,99 Euro und bietet den zusätzlichen Vorteil eines augenfreundlichen E-Reader-Modus (obwohl die Kameras nicht so gut sind). Es gibt zudem noch das hervorragende CMF Phone 1, das nur 224,66 Euro kostet. Sehen Sie sich unsere Liste der 11 besten Smartphones des vergangenen Jahres an, um unsere Top-Empfehlungen zu sehen. Simon Chandler/Foundry Sollten Sie das Xiaomi Redmi Note 14 Pro 5G kaufen? Wer ein Note 13 Pro besitzt, braucht nicht aufzurüsten. Aber das ändert nichts an der Tatsache, dass das Redmi Note 14 Pro 5G eines der besten Budget-Handys ist, die Sie aktuell kaufen können. Dies gilt zumindest, wenn Sie sich am oberen Ende dieser Preisklasse orientieren. Der Bildschirm ist für den Preis hervorragend, und auch der Akku und die Ladefunktionen sind beeindruckend. Hinzu kommen die leistungsstarke Hauptkamera auf der Rückseite, die benutzerfreundliche Software und die solide Leistung. Es ist empfehlenswert, aber Sie sollten sich die verschiedenen günstigeren Konkurrenten von Samsung, CMF und Motorola ansehen, bevor Sie einen Kauf tätigen. Xiaomi Redmi Note 14 Pro bei Amazon kaufen Technische Daten: Xiaomi Redmi Note 14 Pro 5G Android 14 mit HyperOS 6,67 Zoll 120 Hertz AMOLED Fingerabdruck-Sensor unter dem Bildschirm Gorilla Glass Victus 2 (nur Vorderseite) Mediatek Dimensity 7300 Ultra 8 Gigabyte LPDDR4X RAM 256 Gigabyte UFS 2.2 nicht erweiterbarer Speicher 200 Megapixel, f/1.65 Hauptkamera mit OIS 8 Megapixel, f/2.2 Ultraweitwinkel-Kamera 2 Megapixel, f/2.4 Makro-Kamera 20 Megapixel, f/2.2 Frontkamera Duale Stereo-Lautsprecher Dual-SIM 5G Wi-Fi 5 Bluetooth 5.4 IP68 USB-C 5.110 Milliamperestunden Akku 45 Watt kabelgebundenes Laden 162,33 x 74,42 x 8,4 Millimeter 190 Gramm Mitternachtsschwarz, Korallengrün, Lavendelviolett (PC-Welt) 

Xiaomi Redmi Note 14 Pro 5G im Test: Bestes Budget-Smartphone?​ Simon Chandler/Foundry

Auf einen Blick

Pro

Scharfes 6,67-Zoll-Display mit 120 Hertz

Gute Akkulaufzeit & Lademöglichkeiten

Leichtes & robustes Design

Solide Hauptkamera

Kontra

Mittelmäßige Sekundärkameras

Gewöhnungsbedürftige Oberfläche

Teurer als die Konkurrenten

Fazit

Das Redmi Note 14 Pro 5G ist eine fantastische Option für alle, die starke Funktionen zu einem erschwinglichen Preis suchen. Sein 6,67-Zoll-AMOLED-Display ist ein Hinkucker, während die Kamera, die Software und der Akku allesamt überdurchschnittlich gut sind.

Xiaomis Untermarke Redmi hat sich im Laufe der Jahre eine Nische als Anbieter von Smartphones mit hervorragendem Preis-Leistungs-Verhältnis gesichert. Das Redmi Note 13 Pro erhielt von uns im letzten Jahr eine hervorragende 4,5-Sterne-Bewertung, und auch Xiaomis jüngste Vorstöße in den Bereich der preiswerten Tablets haben uns beeindruckt.

In diesem Jahr will das Unternehmen mit dem Smartphone Redmi Note 14 Pro 5G an diese Tradition anknüpfen. Es ist ein weiteres Android-Gerät, das größtenteils Premium-Funktionen zu einem erschwinglichen Preis bietet.

Wie bei früheren Generationen erscheint das Redmi Note 14 Pro 5G neben anderen Modellen. Darunter befindet sich das Note 14 Pro+ 5G und die Basisvariante Redmi Note 14. Sie alle sind zu unterschiedlichen Preisen und mit unterschiedlichen Chips, Kameraobjektiven und Akkus ausgestattet.

In diesem Testbericht gehen wir der Frage nach, ob das Note 14 Pro 5G für nur 399 Euro genug kann, um sich von der wachsenden Zahl attraktiver und günstiger Android-Smartphones abzuheben. Wir werfen einen Blick auf die Leistung, die Kameras, das Display, den Akku und die Software und beantworten die Frage, ob es sich lohnt, das Gerät seinen zahlreichen Konkurrenten vorzuziehen.

Design & Verarbeitung

Schlankes, geschwungenes Gehäuse mit schillernden Farben

Selfie-Kamera hinter dem Display

IP68-Einstufung

Das Redmi Note 14 Pro 5G unterscheidet sich deutlich von der eher kantigen Bauweise des 13 Pro, da sein Gehäuse ein konischeres, geschwungenes Design aufweist.

Während das 13 Pro im Wesentlichen die flacheren Konturen der jüngsten iPhone-Modelle nachahmte, setzt das 14 Pro auf weichere Ecken und Kanten. Ähnlich verhält es sich mit dem rückwärtigen Kameramodul, das nun in einer kreisrunden Ausbuchtung untergebracht ist und nicht mehr in einem klassischen Quadrat. Das Kameramodul befindet sich außerdem eher in der Mitte der Rückseite, was vielleicht symmetrischer aussieht, aber die Aufnahme von Fotos etwas erschweren kann.

Simon Chandler/Foundry

Obwohl die angebotene Farbpalette des Redmi Note 14 Pro 5G recht begrenzt ist, hat uns das Korallengrün unseres Testmusters sehr gut gefallen. Es hat einen subtilen Opal-Schimmer, der je nach Lichteinfall den Farbton ändert, während die Farbe selbst lebendig und dennoch geschmackvoll zurückhaltend ist.

Sie ergänzt die dünnen Ränder des 6,67-Zoll-Displays und den allgemeinen Minimalismus des Smartphones. Gleichzeitig ermöglicht Ihnen die Farbgebung, ein Statement abzugeben, ohne zu viel zu sagen.

Das Gerät sieht nicht nur ziemlich schick aus, es ist auch kompakt und leicht. Es wiegt nur 190 Gramm, und obwohl es ein ziemlich großes Display hat, fühlt es sich dank des dünnen Rahmens nicht überdimensioniert oder unhandlich an.

Ein weiterer Pluspunkt ist, dass das Redmi Note 14 Pro 5G für ein Mittelklassegerät sehr widerstandsfähig ist, mit einer IP68-Einstufung und einem Display aus Corning Gorilla Glass Victus 2. Ich habe mich auch gefreut, dass in der Verpackung zudem eine schwarze Silikonhülle enthalten ist. Auf dem Display ist ebenfalls schon eine Schutzfolie angebracht.

Bildschirm & Lautsprecher

6,67 Zoll CrystalRes AMOLED-Display

Zwei Dolby Atmos-Lautsprecher

120 Hertz Bildwiederholfrequenz

Wie bei so vielen Budget- und Mittelklasse-Handys dieser Tage ist das Display des Redmi Note 14 Pro wohl sein bestes Feature: Der Bildschirm setzt auf ein 6,67 Zoll großes AMOLED-Panel, das eine Bildwiederholfrequenz von bis zu 120 Hertz unterstützt und eine Spitzenhelligkeit von 3000 nits erreicht. Dies ermöglicht eine sehr flüssige und scharfe Darstellung, was auch durch die 1,5K-Auflösung von 2.712 x 1.220 Pixeln unterstützt wird.

Obwohl ich auf Smartphones normalerweise keine Filme anschaue, hat das Smartphone bei der Wiedergabe von Inhalten auf Netflix, YouTube und Prime Video hervorragende Arbeit geleistet. Das Kontrastverhältnis von 5.000.000:1 führt dazu, dass Inhalte sehr farbenfroh dargestellt werden. Und wenn Sie unterwegs sind, werden Sie Ihren Fernseher zu Hause wahrscheinlich nicht so sehr vermissen.

Simon Chandler/Foundry

Ganz allgemein macht die 120 Hertz-Bildwiederholrate des Smartphones das Scrollen reaktionsschneller und flüssiger. Text und Bilder erscheinen auf angenehme Weise, und es gibt eine Option, mit der Sie festlegen können, welche Apps die maximale Bildwiederholfrequenz nutzen und welche nicht. So können Sie den Akku schonen und gleichzeitig das Surfen in vollen Zügen genießen.

Die Qualität des Bildschirms wird durch die Dolby Atmos-Stereolautsprecher ergänzt, die sowohl für Musikfans als auch für Filmliebhaber einen großartigen Klang liefern.

Ich fand, dass selbst bei ziemlich komplexer Musik die verschiedenen Ebenen leicht und deutlich hörbar waren, wobei die Stereolautsprecher ein Gefühl von Tiefe und Dreidimensionalität vermittelten. Ja, sie kommen nicht wirklich mit höheren Lautstärken zurecht und sie sind nicht ganz auf Premium-Niveau. Doch sie werden die meisten Käufer sehr zufrieden stellen.

Spezifikationen & Leistung

Mediatek Dimensity 7300 Ultra

8 Gigabyte RAM und 256 Gigabyte Speicher

Kein micro-SD-Kartensteckplatz

Mit 8 Gigabyte RAM als Standard und einem Mediatek Dimensity 7300 Ultra Chip an Bord ist das Redmi Note 14 Pro für ein Budget-Handy sehr leistungsfähig.

Für die meisten Aufgaben war es perfekt geeignet, Apps und Webseiten wurden ohne spürbare Verzögerungen geöffnet. Auch als Spiele-Plattform fand ich das Redmi Note 14 Pro 5G mehr als ausreichend schnell, Gelegenheitsspiele wie “Subway Surfers” und “Fortnite” liefen alle reibungslos.

Allerdings habe ich festgestellt, dass es ein wenig zu kämpfen hat, wenn man dem Smartphone mehr abverlangt. Einige der grafisch anspruchsvolleren Android-Spiele, darunter “Asphalt 9” und “Shadowgun Legends”, liefen nicht ganz ohne Verzögerungen. Sie waren trotzdem unterhaltsam, aber wer das bestmögliche Android-Spielerlebnis haben möchte, muss sich wahrscheinlich für ein hochwertigeres Handy entscheiden.

Simon Chandler/Foundry

Während die Leistung des Note 14 Pro im Allgemeinen gut ist, ist es etwas enttäuschend, dass das Smartphone keinen microSD-Slot hat.

Das ist heutzutage üblich, könnte aber ein Problem darstellen, da die Basisversion des Smartphones nur 256 Gigabyte internen Speicher beinhaltet. Benutzer, die dazu neigen, ihre Geräte mit Fotos, Musik und anderen Dateien vollzustopfen, müssen sich also möglicherweise etwas zurückhalten.

Kameras

200-Megapixel-Hauptkamera auf der Rückseite

8-Megapixel-Ultraweitwinkel- und 2-Megapixel-Makroobjektiv

20-Megapixel-Selfie-Kamera

Das Redmi Note 14 Pro 5G hebt sich durch seine 200-Megapixel-Hauptkamera mit Weitwinkelobjektiv von der Masse der Mittelklasse-Handys ab.

Ausgestattet mit optischer Bildstabilisierung (OIS) und End-to-End AI Remosaic Technologie (die eine parallele statt sequentielle Verarbeitung der Bilder ermöglicht), kann das Redmi Note 14 Pro 5G eine Vielzahl von Szenen mit einem Minimum an Aufwand aufnehmen. Ergänzt wird diese Linse durch ein 8-Megapixel-Ultraweitwinkelobjektiv für Panoramaaufnahmen sowie eine 2 Megapixel Makrokamera für extreme Nahaufnahmen.

Im Großen und Ganzen hatte ich viel Spaß mit der Hauptkamera des Note 14 Pro. Unter den meisten Bedingungen erhielt ich gute Aufnahmen, wobei das Hauptobjektiv eine natürliche Farbbalance bietet. Ich fand zwar, dass einige Landschaftsaufnahmen etwas zu ungesättigt erschienen. Aber man könnte argumentieren, dass dies ein willkommenes Gegengewicht zu den übersättigten Fotos darstellt, zu denen manche andere Geräte neigen.

So oder so, die Klarheit der Fotos war in der Regel hoch, und der 200-Megapixel-Modus ermöglichte eine oft verblüffende Detailgenauigkeit.

Simon Chandler/Foundry

Die beiden anderen rückwärtigen Objektive sorgten für gemischte Ergebnisse: Das 8-Megapixel-Ultraweitwinkelobjektiv ist sehr praktisch, wenn Sie gerne im Freien fotografieren. Trotz der deutlich geringeren Anzahl an Pixeln kann seine Leistung in der Regel mit der des 200-Megapixel-Hauptobjektivs mithalten.

Was das 2-Megapixel-Makroobjektiv betrifft, so habe ich festgestellt, dass ich mit dem Hauptobjektiv in der Regel schönere Nahaufnahmen machen kann. Nur bei gutem natürlichem Licht funktioniert das Makroobjektiv besser.

Während das Makroobjektiv als Spielerei betrachtet werden könnte, war ich von der 20-Megapixel-Selfie-Kamera des Note 14 Pro am meisten beeindruckt. Die Frontkamera ist in der Lage, tiefgründige und dennoch schmeichelhafte Selbstporträts aufzunehmen. Wenn Sie möchten, können Sie den “Verschönerungseffekt” sogar noch verstärken.

Ein weiteres Lob möchte ich dem Nachtmodus des Smartphones aussprechen. Wie die Beispiele in der unten stehenden Galerie zeigen, leuchtet er Szenen bei schwachem Licht mit beachtlicher Lebendigkeit aus, ohne dass die Bilder künstlich oder trüb wirken.

Akkulaufzeit & Aufladen

5.110-Milliamperestunden-Akku

45 Watt kabelgebundenes Turbo-Laden

Mit dem gleichen 5.110-Milliamperestunden-Akku wie schon der Vorgänger ist das Note 14 Pro ein zuverlässiges Smartphone für alle, die draußen arbeiten oder damit unterwegs sind. Ich habe es bei mir zu Hause auf Herz und Nieren geprüft, während ein anderes Familienmitglied Spaß daran hatte, es zum Spielen zu verwenden. Ich war erfreut, dass es immer bis zum nächsten Tag durchgehalten hat.

Bei geringerer Belastung hält das Note 14 Pro oft sogar zwei Tage lang ohne Aufladen durch. Wer die Bildwiederholfrequenz auf 120 Hertz begrenzt und das Smartphone recht intensiv nutzt, muss vielleicht schon am Ende des ersten Tages eine Steckdose aufsuchen.

Dies spiegelt sich in den Ergebnissen des PCMark-Akkutests wider, die mit 13 Stunden und 24 Minuten sehr gut ausfallen. Dennoch reichen die Werte nicht ganz aus, um das Note 14 Pro unter den Smartphones mit der besten Akkulaufzeit zu platzieren.

Simon Chandler/Foundry

Es ist erwähnenswert, dass dem Note 14 Pro ein kabelgebundenes 45-Watt-Ladegerät beiliegt, im Gegensatz zum 67-Watt-Ladegerät, das Sie noch mit dem 13 Pro erhalten haben. Das mag wie eine Verschlechterung erscheinen und führt in der Praxis auch zu langsameren Ladezeiten. Aber ich fand, dass der Ladevorgang im Allgemeinen immer noch sehr schnell war.

Ich habe das Smartphone in 15 Minuten von 0 auf 33 Prozent und in einer halben Stunde auf 64 Prozent aufgeladen. Die meisten Leute werden den Unterschied also nicht wirklich bemerken.

Software & Apps

Android 14

Drei Jahre lang grundlegende Android-Upgrades

Vier Jahre Sicherheitsupgrades

Auf den ersten Blick sieht es so aus, als ob das Note 14 Pro 5G vom letztjährigen Modell abweicht, da es mit HyperOS über Android 14 läuft. Das Vorgängermodell setzt noch auf MIUI 14 und Android 13.

Aber wie bereits bei anderen Xiaomi-Handys unterscheidet sich HyperOS gar nicht so sehr von MIUI. Beide setzen auf ein sehr ähnliches Design und Layout, was bedeutet, dass es nicht besonders interessant oder attraktiv ist.

Dennoch fand ich es größtenteils funktional und benutzerfreundlich, da Bildschirme, Apps und Seiten schnell geladen wurden. Es gibt einige subtile Aktualisierungen, wie das Dropdown-Kontrollzentrum, das einen willkommenen Shortcut für das Menü Einstellungen enthält. Und während sich manche Käufer über den Mangel an Anpassungsmöglichkeiten beschweren könnten, bietet Ihnen die Themes-App doch einige Möglichkeiten zur persönlichen Gestaltung.

Simon Chandler/Foundry

Erwähnenswert ist auch, dass das Smartphone neben den üblichen Google-Apps eine Reihe von Google-KI-Funktionen bietet. Dazu gehören Gemini (Googles ChatGPT-ähnlicher persönlicher Assistent) und Circle to Search, während AI Erase Pro und AI Image Expansion mit einem Update Ende Januar erscheinen sollen.

Wie bei den meisten generativen KI-Funktionen auf Mobiltelefonen handelt es sich hierbei um hilfreiche Ergänzungen, ohne dass diese die Bedienung komplett revolutionieren würden.

Positiv zu vermerken ist die Tatsache, dass Xiaomi sich verpflichtet hat, das Note 14 Pro drei Jahre lang mit grundlegenden Android-Updates zu versorgen. Hinzu kommen vier Jahre Sicherheitsupdates, was das Gerät für ein Mittelklasse-Gerät relativ zukunftssicher macht.

Allerdings können Sie bei Samsung eine längere Unterstützung finden. Das Galaxy A16 5G bietet zum Beispiel sechs Jahre langen Support.

Preis & Verfügbarkeit

Das Redmi Note 14 Pro 5G ist in Deutschland seit dem 15. Januar zu einer UVP von 399,90 Euro erhältlich. Sie können es direkt bei Xiaomi zu diesem Preis kaufen. Bei Online-Versandhändler Amazon wird das Smartphone ab 399,99 Euro angeboten. Dafür erhalten Sie das Modell mit 8 Gigabyte RAM und 256 Gigabyte Speicherplatz. Interessanterweise kostet das mit 12 Gigabyte RAM und 512 Gigabyte Speicher ausgestattete Modell durch einen Rabatt bei Amazon ebenfalls 399,99 Euro.

Mediamarkt ist sogar noch etwas günstiger: Hier wird das Redmi Note 14 Pro 5G schon ab 379,99 Euro angeboten. Dabei handelt es sich jedoch um das Modell mit 8 Gigabyte RAM und 256 Gigabyte Speicher. Eine Verdoppelung des internen Speichers für knapp 20 Euro mehr sowie 4 Gigabyte RAM zusätzlich erscheinen da lohnenswerter.

Was die Alternativen angeht, so bietet das Samsung Galaxy A16 5G ähnliche Spezifikationen und ist 200 Euro günstiger. Das TCL 50 Pro Nxtpaper kostet aktuell 274,99 Euro und bietet den zusätzlichen Vorteil eines augenfreundlichen E-Reader-Modus (obwohl die Kameras nicht so gut sind). Es gibt zudem noch das hervorragende CMF Phone 1, das nur 224,66 Euro kostet.

Sehen Sie sich unsere Liste der 11 besten Smartphones des vergangenen Jahres an, um unsere Top-Empfehlungen zu sehen.

Simon Chandler/Foundry

Sollten Sie das Xiaomi Redmi Note 14 Pro 5G kaufen?

Wer ein Note 13 Pro besitzt, braucht nicht aufzurüsten. Aber das ändert nichts an der Tatsache, dass das Redmi Note 14 Pro 5G eines der besten Budget-Handys ist, die Sie aktuell kaufen können. Dies gilt zumindest, wenn Sie sich am oberen Ende dieser Preisklasse orientieren.

Der Bildschirm ist für den Preis hervorragend, und auch der Akku und die Ladefunktionen sind beeindruckend. Hinzu kommen die leistungsstarke Hauptkamera auf der Rückseite, die benutzerfreundliche Software und die solide Leistung.

Es ist empfehlenswert, aber Sie sollten sich die verschiedenen günstigeren Konkurrenten von Samsung, CMF und Motorola ansehen, bevor Sie einen Kauf tätigen.

Xiaomi Redmi Note 14 Pro bei Amazon kaufen

Technische Daten: Xiaomi Redmi Note 14 Pro 5G

Android 14 mit HyperOS

6,67 Zoll 120 Hertz AMOLED

Fingerabdruck-Sensor unter dem Bildschirm

Gorilla Glass Victus 2 (nur Vorderseite)

Mediatek Dimensity 7300 Ultra

8 Gigabyte LPDDR4X RAM

256 Gigabyte UFS 2.2 nicht erweiterbarer Speicher

200 Megapixel, f/1.65 Hauptkamera mit OIS

8 Megapixel, f/2.2 Ultraweitwinkel-Kamera

2 Megapixel, f/2.4 Makro-Kamera

20 Megapixel, f/2.2 Frontkamera

Duale Stereo-Lautsprecher

Dual-SIM

5G

Wi-Fi 5

Bluetooth 5.4

IP68

USB-C

5.110 Milliamperestunden Akku

45 Watt kabelgebundenes Laden

162,33 x 74,42 x 8,4 Millimeter

190 Gramm

Mitternachtsschwarz, Korallengrün, Lavendelviolett

(PC-Welt)

Xiaomi Redmi Note 14 Pro 5G im Test: Bestes Budget-Smartphone?​ Weiterlesen »

Bezaubernd gefloppt: 8 Apple-Produkte, die keiner wollte​

Allgemein

“Das kann dann mal weg” gibt’s auch bei Apple – wie diese Beispiele zeigen. Foto: sophiecat – shutterstock.comDenkt man an großartiges Apple-Design, fallen einem eine Reihe von Devices ein: iPhone 14, iPad Pro, AirPods, der iMac und unter Umständen sogar der Mac Studio. Aber auch bei Apple gab und gibt es immer wieder Produkte, die trotz – oder gerade wegen – ihres Designs nicht bei den Kunden ankommen. Die folgenden acht Apple-Produkte fallen in diese unglückliche Kategorie.Lisa (1983)Einerseits war Apples Lisa vom Start weg zum Scheitern verurteilt, andererseits ist es wohl der einflussreichste Computer, den Apple je gebaut hat. Der Rechner – benannt nach der Tochter von Steve Jobs – etablierte im Jahr 1983 nicht nur eine radikal neue Designsprache, sondern bot unter anderem auch eine Maus und eine der ersten grafischen Benutzeroberflächen überhaupt.Allerdings waren der Verkaufspreis von 10.000 Dollar und das komplexe Betriebssystem massive Verkaufshemmnisse für Lisa. Das nur ein Jahr später folgende Debüt des Macintosh machte die Sache auch nicht besser. Twentieth Anniversary Mac (1997)Es gibt Produkte, die sind ihrer Zeit voraus. Beim Twentieth Anniversary Mac (TAM) ist irgendwie das Gegenteil der Fall. Er kam 1997 auf den Markt, zeichnete sich dabei jedoch vor allem durch die Attribute “untermotorisiert” und “überteuert” aus. Der Einführungspreis von 9.000 Dollar sank dann auch innerhalb nur eines Jahres auf rund 2.000 Dollar, dann wurde der “Sonder-Mac” eingestampft. Immerhin hatte er ein extravagantes Gehäuse zu bieten, das eine Hommage an das legendäre Mac-Design darstellte, dessen Einfluß bis heute bei den Produkten von Apple zu spüren, beziehungsweise zu sehen ist. Bald feiert der Mac übrigens sein 40-jähriges Jubiläum – Zeit für ein Revival? LRT: I remember the 20th anniversary mac, what a hideous thing. Of course, when it came out, it showed up on the SEINFELD set, and that was probably the most memorable thing about it pic.twitter.com/sWNcNhp0XZ— Mike Toole (@MichaelToole) September 15, 2020 eMate 300 (1997)Ende der 1990er Jahre, lange vor iPhone und iPad, hieß Apples ultraportabler Computer eMate 300: Ein preisgünstiger Laptop (oder je nach Perspektive ein aufgebohrter PDA) für den Bildungsbereich, der mit dem Newton-Betriebssystem lief. Es bot einen 6,8-Zoll-Bildschirm, einen Stift und eine vollwertige Tastatur – und war in transparentes Plastik gehüllt, lange bevor diese Art des Designs cool wurde.Leider hatte der eMate 300 dennoch keine Chance. In dem Fall lag es allerdings weniger am Device selbst, sondern an der Orientierungslosigkeit von Apple zu dieser Zeit: Das kleine Notebook wurde nicht gut vermarktet und das Betriebssystem war zum Scheitern verurteilt. Nicht einmal ein Jahr nach seiner Einführung bereitete Steve Jobs dem eMate 300 den Garaus. This is our Apple eMate 300 prototype. Very few of these transparent eMates were ever produced, making this one a very rare exhibit. The eMate perhaps inspired the design of the clamshell iBook laptops from the #90s. #MuseumFromHomeLearn more: https://t.co/yVUHCAMVnz pic.twitter.com/gLPJdosX4v— Computing History (@computermuseum) April 18, 2020 Power Mac G4 Cube (2000)Der Power Mac G4 Cube zählt mit seiner Acryl-Ummantelung wohl zu den ästhetischsten Desktop-Computern, die jemals hergestellt wurden (zumindest aus Apple-Jünger-Perspektive). Diesen PC wollte man nicht mehr unter dem Schreibtisch verstecken – im Jahr 2000 keine Selbstverständlichkeit. Kaufen wollten ihn die Kunden trotzdem nicht, weil er zu teuer, zu schwach auf der Brust und zu unpraktisch war. Nach einem Jahr verschwand der Power Mac G4 Cube sang- und klanglos aus dem Apple-Programm. Man hat nie wieder von ihm gehört. On this day in 2000, Apple announced the Power Mac G4 Cube. pic.twitter.com/BBXNYqwyqm— Today in Tech History (@DayTechHistory) July 19, 2022 iPod Hi-Fi (2006)Als der iPod auf seinem Höhepunkt war, waren auch Lautsprecher und Docks der letzte Schrei. Natürlich wollte auch Apple einen Stück vom Kuchen abhaben. Also brachte der Konzern im Februar 2006 den iPod Hi-Fi auf den Markt – einen minimalistischen Lautsprecher mit zwei Griffen, speziell entwickelten Breitbandlautsprechern und einem darauf abgestimmten Basssystem.Zwar wurde das Device für seinen Klang und seine Verarbeitungsqualität gelobt, es war aber letztendlich zu teuer (350 Dollar) und zu hochwertig als “Accessoire” für den simplen iPod. Mac Pro (2013)Als Apple den Mac Pro auf der WWDC 2013 vorstellte, war man sich nicht sicher, was genau das war – nur, dass es anders war. Nicht umsonst bekam der 2013er Mac Pro den unschicken Spitznamen “Trashcan” verpasst. Und die Ähnlichkeiten lassen sich beim besten Willen nicht leugnen. Dieses Design wurde dem Mac Pro dann aber auch zum Verhängnis: Er war nicht sonderlich modular aufgebaut oder aufrüstbar konzipiert, konnte seine High-End-Chips nicht angemessen kühlen und kostete dann auch noch knapp 3.000 Dollar. Diejenigen, die das Ding trotzdem gekauft haben, waren dennoch fasziniert. The Mac Pro has been upgraded from a trash can to a cheese grater. #WWDC19 pic.twitter.com/MMJXcRFgAP— Eric Kurn (@SaluteTheKurnel) June 3, 2019 iPhone 5c (2013)Im Jahr 2013 debütierte mit dem iPhone 5c das erste Budget-Smartphone aus Cupertino. Es bot das gleiche Display und eine ähnliche Kamera wie das iPhone 5S – ließ aber einige wichtige Funktionen vermissen, darunter Touch ID, den damals neuesten A7-Prozessor und einen Dual-LED-Blitz.Entsprechend verhalten kam das Gerät bei den Kunden an – trotz seines leichten Designs und den bunten Polycarbonat-Gehäuseoptionen. Deren Einflüsse sind noch heute zu spüren, auch wenn das iPhone 5C schon nach einem Jahr wieder ausgemustert wurde. HomePod (2017)Trotz seines gediegenen Designs und seines guten Klangs war der ursprüngliche HomePod ein Blindgänger.Preis (349 Euro), Timing und begrenzte Funktionalität hielten den HomePod in den Händlerregalen. Dennoch dauert es drei Jahre, bevor Apple ein Einsehen hatte und das Produkt cancelte. Nur um es dann Anfang 2023 in zweiter Generation (und zum gleichen Preis) zurückzubringen. Wie lange es diesmal dauert, bis der Stecker gezogen wird, bleibt abzuwarten. Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Macworld. 

Bezaubernd gefloppt: 8 Apple-Produkte, die keiner wollte​ “Das kann dann mal weg” gibt’s auch bei Apple – wie diese Beispiele zeigen.
Foto: sophiecat – shutterstock.comDenkt man an großartiges Apple-Design, fallen einem eine Reihe von Devices ein: iPhone 14, iPad Pro, AirPods, der iMac und unter Umständen sogar der Mac Studio. Aber auch bei Apple gab und gibt es immer wieder Produkte, die trotz – oder gerade wegen – ihres Designs nicht bei den Kunden ankommen. Die folgenden acht Apple-Produkte fallen in diese unglückliche Kategorie.Lisa (1983)Einerseits war Apples Lisa vom Start weg zum Scheitern verurteilt, andererseits ist es wohl der einflussreichste Computer, den Apple je gebaut hat. Der Rechner – benannt nach der Tochter von Steve Jobs – etablierte im Jahr 1983 nicht nur eine radikal neue Designsprache, sondern bot unter anderem auch eine Maus und eine der ersten grafischen Benutzeroberflächen überhaupt.Allerdings waren der Verkaufspreis von 10.000 Dollar und das komplexe Betriebssystem massive Verkaufshemmnisse für Lisa. Das nur ein Jahr später folgende Debüt des Macintosh machte die Sache auch nicht besser.

Twentieth Anniversary Mac (1997)Es gibt Produkte, die sind ihrer Zeit voraus. Beim Twentieth Anniversary Mac (TAM) ist irgendwie das Gegenteil der Fall. Er kam 1997 auf den Markt, zeichnete sich dabei jedoch vor allem durch die Attribute “untermotorisiert” und “überteuert” aus. Der Einführungspreis von 9.000 Dollar sank dann auch innerhalb nur eines Jahres auf rund 2.000 Dollar, dann wurde der “Sonder-Mac” eingestampft. Immerhin hatte er ein extravagantes Gehäuse zu bieten, das eine Hommage an das legendäre Mac-Design darstellte, dessen Einfluß bis heute bei den Produkten von Apple zu spüren, beziehungsweise zu sehen ist. Bald feiert der Mac übrigens sein 40-jähriges Jubiläum – Zeit für ein Revival?

LRT: I remember the 20th anniversary mac, what a hideous thing. Of course, when it came out, it showed up on the SEINFELD set, and that was probably the most memorable thing about it pic.twitter.com/sWNcNhp0XZ— Mike Toole (@MichaelToole) September 15, 2020

eMate 300 (1997)Ende der 1990er Jahre, lange vor iPhone und iPad, hieß Apples ultraportabler Computer eMate 300: Ein preisgünstiger Laptop (oder je nach Perspektive ein aufgebohrter PDA) für den Bildungsbereich, der mit dem Newton-Betriebssystem lief. Es bot einen 6,8-Zoll-Bildschirm, einen Stift und eine vollwertige Tastatur – und war in transparentes Plastik gehüllt, lange bevor diese Art des Designs cool wurde.Leider hatte der eMate 300 dennoch keine Chance. In dem Fall lag es allerdings weniger am Device selbst, sondern an der Orientierungslosigkeit von Apple zu dieser Zeit: Das kleine Notebook wurde nicht gut vermarktet und das Betriebssystem war zum Scheitern verurteilt. Nicht einmal ein Jahr nach seiner Einführung bereitete Steve Jobs dem eMate 300 den Garaus.

This is our Apple eMate 300 prototype. Very few of these transparent eMates were ever produced, making this one a very rare exhibit. The eMate perhaps inspired the design of the clamshell iBook laptops from the #90s. #MuseumFromHomeLearn more: https://t.co/yVUHCAMVnz pic.twitter.com/gLPJdosX4v— Computing History (@computermuseum) April 18, 2020

Power Mac G4 Cube (2000)Der Power Mac G4 Cube zählt mit seiner Acryl-Ummantelung wohl zu den ästhetischsten Desktop-Computern, die jemals hergestellt wurden (zumindest aus Apple-Jünger-Perspektive). Diesen PC wollte man nicht mehr unter dem Schreibtisch verstecken – im Jahr 2000 keine Selbstverständlichkeit. Kaufen wollten ihn die Kunden trotzdem nicht, weil er zu teuer, zu schwach auf der Brust und zu unpraktisch war. Nach einem Jahr verschwand der Power Mac G4 Cube sang- und klanglos aus dem Apple-Programm. Man hat nie wieder von ihm gehört.

On this day in 2000, Apple announced the Power Mac G4 Cube. pic.twitter.com/BBXNYqwyqm— Today in Tech History (@DayTechHistory) July 19, 2022

iPod Hi-Fi (2006)Als der iPod auf seinem Höhepunkt war, waren auch Lautsprecher und Docks der letzte Schrei. Natürlich wollte auch Apple einen Stück vom Kuchen abhaben. Also brachte der Konzern im Februar 2006 den iPod Hi-Fi auf den Markt – einen minimalistischen Lautsprecher mit zwei Griffen, speziell entwickelten Breitbandlautsprechern und einem darauf abgestimmten Basssystem.Zwar wurde das Device für seinen Klang und seine Verarbeitungsqualität gelobt, es war aber letztendlich zu teuer (350 Dollar) und zu hochwertig als “Accessoire” für den simplen iPod.

Mac Pro (2013)Als Apple den Mac Pro auf der WWDC 2013 vorstellte, war man sich nicht sicher, was genau das war – nur, dass es anders war. Nicht umsonst bekam der 2013er Mac Pro den unschicken Spitznamen “Trashcan” verpasst. Und die Ähnlichkeiten lassen sich beim besten Willen nicht leugnen.

Dieses Design wurde dem Mac Pro dann aber auch zum Verhängnis: Er war nicht sonderlich modular aufgebaut oder aufrüstbar konzipiert, konnte seine High-End-Chips nicht angemessen kühlen und kostete dann auch noch knapp 3.000 Dollar. Diejenigen, die das Ding trotzdem gekauft haben, waren dennoch fasziniert.

The Mac Pro has been upgraded from a trash can to a cheese grater. #WWDC19 pic.twitter.com/MMJXcRFgAP— Eric Kurn (@SaluteTheKurnel) June 3, 2019

iPhone 5c (2013)Im Jahr 2013 debütierte mit dem iPhone 5c das erste Budget-Smartphone aus Cupertino. Es bot das gleiche Display und eine ähnliche Kamera wie das iPhone 5S – ließ aber einige wichtige Funktionen vermissen, darunter Touch ID, den damals neuesten A7-Prozessor und einen Dual-LED-Blitz.Entsprechend verhalten kam das Gerät bei den Kunden an – trotz seines leichten Designs und den bunten Polycarbonat-Gehäuseoptionen. Deren Einflüsse sind noch heute zu spüren, auch wenn das iPhone 5C schon nach einem Jahr wieder ausgemustert wurde.

HomePod (2017)Trotz seines gediegenen Designs und seines guten Klangs war der ursprüngliche HomePod ein Blindgänger.Preis (349 Euro), Timing und begrenzte Funktionalität hielten den HomePod in den Händlerregalen. Dennoch dauert es drei Jahre, bevor Apple ein Einsehen hatte und das Produkt cancelte. Nur um es dann Anfang 2023 in zweiter Generation (und zum gleichen Preis) zurückzubringen. Wie lange es diesmal dauert, bis der Stecker gezogen wird, bleibt abzuwarten.

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Macworld.

Bezaubernd gefloppt: 8 Apple-Produkte, die keiner wollte​ Weiterlesen »

Nach oben scrollen
×