Computerhaus Quickborn

Mai 2025

Mitarbeiterüberwachung im Homeoffice: Tools gegen Chefs im Kontrollwahn​

Allgemein

loading=”lazy” width=”400px”>Eingeschlafen, betrunken oder gar abwesend: Das Misstrauen gegenüber Mitarbeitern im Homeoffice nimmt mitunter seltsame Züge an.Pheelings media – shutterstock.com Trotz zahlreichen Vorteilen für Mensch, Unternehmen und Umwelt, hadern viele Firmenchefs mit der Arbeit im Homeoffice und wollen ihre Mitarbeiter wieder so oft wie möglich im Büro sehen.  Vertrauen ist gut, Kontrolle ist besser?  Schaffen es Firmenchefs nicht, ihre Mitarbeiter komplett zurück ins Büro zu beordern, führt dies in harmloseren Fällen zu Kontrollanrufen, wenn die Präsenzanzeige in Teams oder einem anderen Messaging-Dienst längere Zeit auf Inaktiv (Gelb) steht. In besonders schlimmen Fällen kommt dabei – in der EU aus Datenschutzgründen verbotene – sogenannte „Bossware“ zum Einsatz. Dabei handelt es sich um Software, um Tastaturen oder Mäuse zu überwachen. Ziel ist es, sicherzustellen, dass die Mitarbeiter auch im Homeoffice während ihrer gesamten Arbeitszeit arbeiten.  Die arbeitnehmernahe US-Organisation Coworker.org hat bereits 2021 in ihrer Bossware- und Employment-Tech-Datenbank mehr als 550 Produkte aufgeführt, die Techniken wie KI, Standortverfolgung und Biometrie nutzen, um Mitarbeiter zu „verwalten“ und ihre Daten zu sammeln – oft ohne ihr Wissen.  Immer in Bewegung bleiben  In den USA, wo auch rigidere Kontrollmaßnahmen vollkommen legal sind, war die Überwachung von Firmencomputern schon lange vor 2020 und COVID-19 ein Problem. Erst Corona führte jedoch zu einem Boom bei Lösungen, um diesem Kontrollwahn Grenzen zu setzen, berichtet das Online-Magazin Vice. So seien die Suchanfragen nach sogenannten “mouse mover”- und “mouse jiggler”-Lösungen ab März 2020 sprunghaft angestiegen, als viele Schreibtischarbeiter zu Beginn der Pandemie vom Büro nach Hause wechselten – , und blieben seitdem konstant hoch.  Auch die virtuellen Regale von Online-Händlern wie Amazon sind voll mit Plug-and-Play-Mouse-Mover-Devices, mit denen sich der Mauszeiger von unten drehen lässt, oder USB-Sticks, auf denen eine Software vorinstalliert ist, die Mausbewegungen nachahmt. Durch Einstecken des Sticks wird dem Computer vorgegaukelt, dass es sich um eine aktive Maus handelt.  Auch „Simulations“-Software verfügbar   In manchen Fällen muss man aber nicht einmal ein Gerät kaufen, um eine sich bewegende Maus zu imitieren. Im Internet werden zu diesem Zweck zahlreiche Programme zum kostenlosen Download angeboten. Der Haken dabei: Ein Mitarbeiter, der solche Geräte benötigt, weil sein Arbeitgeber ihm so stark misstraut, besitzt wahrscheinlich auch keine Admin-Rechte, um neue Software auf seinem Firmen-PC zu installieren.  Generell sollte man der Wirkung dieser Arbeitsmittel nicht volles Vertrauen schenken. So berichtete Bloomberg im Juni 2024, dass die US-Investment-Bank Wells Fargo & Co. mehr als ein Dutzend Mitarbeiter entlassen hat, weil sie ihre Arbeit angeblich nur vorgetäuscht hätten. „Die Mitarbeiter wurden “nach der Überprüfung von Vorwürfen entlassen, sie simulierten Tastaturaktivitäten simuliert haben, um den Eindruck aktiver Arbeit zu erwecken” zitiert die Agentur Bloomberg aus einer Mitteilung von Wells Fargo an die US-Finanzaufsichtsbehörde (Finra) vom 6. Mai.   Aus den Angaben von Wells Fargo geht allerdings nicht eindeutig hervor, ob die gefeuerten Mitarbeiter, die allesamt in der Vermögens- und Investmentmanagement-Abteilung des Unternehmens tätig waren, Mouse Jiggler und andere Geräte im Home-Office eingesetzt haben.  

Mitarbeiterüberwachung im Homeoffice: Tools gegen Chefs im Kontrollwahn​ loading=”lazy” width=”400px”>Eingeschlafen, betrunken oder gar abwesend: Das Misstrauen gegenüber Mitarbeitern im Homeoffice nimmt mitunter seltsame Züge an.Pheelings media – shutterstock.com

Trotz zahlreichen Vorteilen für Mensch, Unternehmen und Umwelt, hadern viele Firmenchefs mit der Arbeit im Homeoffice und wollen ihre Mitarbeiter wieder so oft wie möglich im Büro sehen. 

Vertrauen ist gut, Kontrolle ist besser? 

Schaffen es Firmenchefs nicht, ihre Mitarbeiter komplett zurück ins Büro zu beordern, führt dies in harmloseren Fällen zu Kontrollanrufen, wenn die Präsenzanzeige in Teams oder einem anderen Messaging-Dienst längere Zeit auf Inaktiv (Gelb) steht. In besonders schlimmen Fällen kommt dabei – in der EU aus Datenschutzgründen verbotene – sogenannte „Bossware“ zum Einsatz. Dabei handelt es sich um Software, um Tastaturen oder Mäuse zu überwachen. Ziel ist es, sicherzustellen, dass die Mitarbeiter auch im Homeoffice während ihrer gesamten Arbeitszeit arbeiten. 

Die arbeitnehmernahe US-Organisation Coworker.org hat bereits 2021 in ihrer Bossware- und Employment-Tech-Datenbank mehr als 550 Produkte aufgeführt, die Techniken wie KI, Standortverfolgung und Biometrie nutzen, um Mitarbeiter zu „verwalten“ und ihre Daten zu sammeln – oft ohne ihr Wissen. 

Immer in Bewegung bleiben 

In den USA, wo auch rigidere Kontrollmaßnahmen vollkommen legal sind, war die Überwachung von Firmencomputern schon lange vor 2020 und COVID-19 ein Problem. Erst Corona führte jedoch zu einem Boom bei Lösungen, um diesem Kontrollwahn Grenzen zu setzen, berichtet das Online-Magazin Vice. So seien die Suchanfragen nach sogenannten “mouse mover”- und “mouse jiggler”-Lösungen ab März 2020 sprunghaft angestiegen, als viele Schreibtischarbeiter zu Beginn der Pandemie vom Büro nach Hause wechselten – , und blieben seitdem konstant hoch. 

Auch die virtuellen Regale von Online-Händlern wie Amazon sind voll mit Plug-and-Play-Mouse-Mover-Devices, mit denen sich der Mauszeiger von unten drehen lässt, oder USB-Sticks, auf denen eine Software vorinstalliert ist, die Mausbewegungen nachahmt. Durch Einstecken des Sticks wird dem Computer vorgegaukelt, dass es sich um eine aktive Maus handelt. 

Auch „Simulations“-Software verfügbar  

In manchen Fällen muss man aber nicht einmal ein Gerät kaufen, um eine sich bewegende Maus zu imitieren. Im Internet werden zu diesem Zweck zahlreiche Programme zum kostenlosen Download angeboten. Der Haken dabei: Ein Mitarbeiter, der solche Geräte benötigt, weil sein Arbeitgeber ihm so stark misstraut, besitzt wahrscheinlich auch keine Admin-Rechte, um neue Software auf seinem Firmen-PC zu installieren. 

Generell sollte man der Wirkung dieser Arbeitsmittel nicht volles Vertrauen schenken. So berichtete Bloomberg im Juni 2024, dass die US-Investment-Bank Wells Fargo & Co. mehr als ein Dutzend Mitarbeiter entlassen hat, weil sie ihre Arbeit angeblich nur vorgetäuscht hätten. „Die Mitarbeiter wurden “nach der Überprüfung von Vorwürfen entlassen, sie simulierten Tastaturaktivitäten simuliert haben, um den Eindruck aktiver Arbeit zu erwecken” zitiert die Agentur Bloomberg aus einer Mitteilung von Wells Fargo an die US-Finanzaufsichtsbehörde (Finra) vom 6. Mai.  

Aus den Angaben von Wells Fargo geht allerdings nicht eindeutig hervor, ob die gefeuerten Mitarbeiter, die allesamt in der Vermögens- und Investmentmanagement-Abteilung des Unternehmens tätig waren, Mouse Jiggler und andere Geräte im Home-Office eingesetzt haben. 

Mitarbeiterüberwachung im Homeoffice: Tools gegen Chefs im Kontrollwahn​ Weiterlesen »

UniCredit will sich in der Google-Cloud transformieren​

Allgemein

width=”2336″ height=”1314″ sizes=”(max-width: 2336px) 100vw, 2336px”>Die italienische UniCredit setzt für ihre digitale Transformation ganz auf die Google-Cloud.andersphoto – shutterstock.com UniCredit und Google Cloud haben ein Memorandum of Understanding (MoU) unterzeichnet, mit dem Ziel, die digitale Transformation der Geschäftsbank zu beschleunigen. Die Kooperation ist zunächst auf zehn Jahre und die 13 Kernmärkte der Bank befristet, hieß es in einer Mitteilung. Im Rahmen dieser Zusammenarbeit will UniCredit auf die Infrastruktur, Künstliche Intelligenz (KI) und Datenanalyselösungen von Google Cloud zurückgreifen, um seine digitale Architektur zu optimieren sowie Produkte und Services der Bank zu verbessern.  Die UniCredit-Verantwortlichen sprechen im Zusammenhang der Partnerschaft mit dem Cloud-Hyperscaler von einer bedeutenden Investition in die eigene Cloud-Infrastruktur. Welches Volumen der Deal konkret hat, wollten sie jedoch nicht verraten.  Die Partnerschaft bilde einen zentralen Pfeiler der eigenen Digitalstrategie, ließen die Bänker verlauten. Große Teile der Anwendungslandschaft der Bank sollen demzufolge in die Google Cloud migriert werden, einschließlich veralteter Systeme im gesamten Konzern. Der Kooperationsplan sieht vor, dass die 13 Banken der UniCredit-Gruppe schrittweise auf die Google Cloud umgestellt werden sollen. Mit Google-KI zu neuen Banking-Services Darüber hinaus will UniCredit die Google Cloud auch als neue Plattform für KI-Anwendungen nutzen. Konkret ist wohl geplant, Googles Vertex AI-Plattform und die Gemini-Modelle einzusetzen. Das Ziel mit diesen Technologien: neue Services entwickeln, interne Effizienz steigern und verbesserte Kundenerlebnisse schaffen. Als potenzielle Einsatzbereiche wurden Investment-Banking-Analysen, eine optimierte Kundenkommunikation, Prozessautomatisierung, die Bekämpfung von Finanzkriminalität und die Entwicklung neuer KI-gestützter Finanzprodukte ausgegeben.  Insgesamt zielen die UniCredit-Verantwortlichen mit der Google Cloud auf eine einheitliche Basis mit höherer Skalierbarkeit und Agilität. Dies sei entscheidend für die ehrgeizigen Wachstums- und Innovationspläne der Bank, hieß es. Die technologische Flexibilität von Google Cloud erlaube es, sich bei Marktveränderungen oder Übernahmen schnell anzupassen und zu skalieren. UniCredit will schneller auf Marktveränderungen reagieren können UniCredit tastet sich seit Herbst 2024, nach dem Teilausstieg des Bundes, an eine Übernahme der deutschen Commerzbank heran. Eigenen Angaben zufolge kontrollieren die Italiener inzwischen gut 28 Prozent der Commerzbank-Anteile. Ab einem 30-Prozent-Anteil wäre die Unicredit verpflichtet, den übrigen Commerzbank-Aktionären ein Kaufangebot zu unterbreiten.  Die Commerzbank punktete allerdings zuletzt mit guten Zahlen. Außerdem will das Bankhaus tausende Stellen abbauen, um sich im Abwehrkampf gegen die Großbank aus Mailand Luft zu verschaffen.  Commerzbank arbeitet seit Jahren in der Google-Cloud Aus Cloud-Perspektive würden beide Geldhäuser zumindest in Teilen gut zusammenpassen. Die Commerzbank hatte bereits vor gut vier Jahren eine strategische Cloud-Partnerschaft mit Google verkündet. Es gehe darum, eine signifikante Anzahl der Bankanwendungen in die Cloud verlagern, hieß es in einer Mitteilung. Beide Unternehmen sprachen im März 2021 von einer strategischen Partnerschaft für die digitale Transformation des Bankinstituts.  Die Cloud-Kooperation mit Google ist für die Commerzbank allerdings nicht exklusiv. Das Finanzinstitut arbeitet in Sachen Cloud auch eng mit Microsoft zusammen. Ebenfalls Anfang 2021 wurde dafür eine weitere strategische Partnerschaft vereinbart. Davon versprachen sich die Verantwortlichen damals mehr Automatisierung und Standardisierung bei insgesamt niedrigeren Kosten. Es solle ein „signifikanter Teil der Anwendungen“ auf die Azure-Plattform migriert werden, hatte es geheißen.  UniCredit verfolgt Single-Cloud-Ansatz UniCredit verfolgt in Sachen Cloud-Partner jedoch keinen Multi-Vendor-Ansatz. „Im Einklang mit unserem Single-Partner-Ansatz für strategische Kooperationen haben wir uns für den Besten entschieden – und gehen nun gemeinsam mit ihm den Weg zur Exzellenz“, sagte Andrea Orcel, CEO von UniCredit. Diese strategische Partnerschaft mit Google Cloud sei ein zentraler Schritt in unserer Strategie, die Bank der Zukunft Europas zu sein. „Die fortschrittliche Cloud-, KI- und Datenanalytik-Technologie von Google Cloud wird unsere digitale Transformation entscheidend vorantreiben – unsere Kundenangebote verbessern, Prozesse effizienter gestalten und eine neue Ära datengetriebener Innovation einläuten.“  Die KI-Technik in der Google-Cloud wird die digitale Transformation der UniCredit entscheidend vorantreiben, ist CEO Andrea Orcel überzeugt.UniCredit „Google Cloud ist führend darin, Finanzinstituten in ganz Europa leistungsstarke und zugleich sichere KI-Technologien bereitzustellen“, ergänzte Tara Brady, President EMEA, Google Cloud. „Damit kann UniCredit Innovation beschleunigen, Effizienzen heben und seine digitale Transformation vorantreiben – für nachhaltigen Erfolg in einem dynamischen Marktumfeld.“  Viele Banken setzen auf die Google-Cloud Mit der UniCredit angelt sich Google einen weiteren wichtigen Cloud-Kunden aus dem Finanzsektor. Auch die Deutsche Bank arbeitet bereits seit Jahren eng mit Google zusammen, um Applikationen in die Cloud zu migrieren beziehungsweise neue Anwendungen direkt in der Google Cloud zu entwickeln. Für seine Cloud-Journey wurde Bernd Leukert, Technologievorstand der Deutschen Bank, beim CIO des Jahres 2024 mit dem Sonderpreis Cloud Excellence ausgezeichnet. +++ CIO des Jahres 2025 – jetzt mitmachen und bis Ende Mai bewerben +++ 

UniCredit will sich in der Google-Cloud transformieren​ width=”2336″ height=”1314″ sizes=”(max-width: 2336px) 100vw, 2336px”>Die italienische UniCredit setzt für ihre digitale Transformation ganz auf die Google-Cloud.andersphoto – shutterstock.com

UniCredit und Google Cloud haben ein Memorandum of Understanding (MoU) unterzeichnet, mit dem Ziel, die digitale Transformation der Geschäftsbank zu beschleunigen. Die Kooperation ist zunächst auf zehn Jahre und die 13 Kernmärkte der Bank befristet, hieß es in einer Mitteilung. Im Rahmen dieser Zusammenarbeit will UniCredit auf die Infrastruktur, Künstliche Intelligenz (KI) und Datenanalyselösungen von Google Cloud zurückgreifen, um seine digitale Architektur zu optimieren sowie Produkte und Services der Bank zu verbessern. 

Die UniCredit-Verantwortlichen sprechen im Zusammenhang der Partnerschaft mit dem Cloud-Hyperscaler von einer bedeutenden Investition in die eigene Cloud-Infrastruktur. Welches Volumen der Deal konkret hat, wollten sie jedoch nicht verraten. 

Die Partnerschaft bilde einen zentralen Pfeiler der eigenen Digitalstrategie, ließen die Bänker verlauten. Große Teile der Anwendungslandschaft der Bank sollen demzufolge in die Google Cloud migriert werden, einschließlich veralteter Systeme im gesamten Konzern. Der Kooperationsplan sieht vor, dass die 13 Banken der UniCredit-Gruppe schrittweise auf die Google Cloud umgestellt werden sollen.

Mit Google-KI zu neuen Banking-Services

Darüber hinaus will UniCredit die Google Cloud auch als neue Plattform für KI-Anwendungen nutzen. Konkret ist wohl geplant, Googles Vertex AI-Plattform und die Gemini-Modelle einzusetzen. Das Ziel mit diesen Technologien: neue Services entwickeln, interne Effizienz steigern und verbesserte Kundenerlebnisse schaffen. Als potenzielle Einsatzbereiche wurden Investment-Banking-Analysen, eine optimierte Kundenkommunikation, Prozessautomatisierung, die Bekämpfung von Finanzkriminalität und die Entwicklung neuer KI-gestützter Finanzprodukte ausgegeben. 

Insgesamt zielen die UniCredit-Verantwortlichen mit der Google Cloud auf eine einheitliche Basis mit höherer Skalierbarkeit und Agilität. Dies sei entscheidend für die ehrgeizigen Wachstums- und Innovationspläne der Bank, hieß es. Die technologische Flexibilität von Google Cloud erlaube es, sich bei Marktveränderungen oder Übernahmen schnell anzupassen und zu skalieren.

UniCredit will schneller auf Marktveränderungen reagieren können

UniCredit tastet sich seit Herbst 2024, nach dem Teilausstieg des Bundes, an eine Übernahme der deutschen Commerzbank heran. Eigenen Angaben zufolge kontrollieren die Italiener inzwischen gut 28 Prozent der Commerzbank-Anteile. Ab einem 30-Prozent-Anteil wäre die Unicredit verpflichtet, den übrigen Commerzbank-Aktionären ein Kaufangebot zu unterbreiten. 

Die Commerzbank punktete allerdings zuletzt mit guten Zahlen. Außerdem will das Bankhaus tausende Stellen abbauen, um sich im Abwehrkampf gegen die Großbank aus Mailand Luft zu verschaffen. 

Commerzbank arbeitet seit Jahren in der Google-Cloud

Aus Cloud-Perspektive würden beide Geldhäuser zumindest in Teilen gut zusammenpassen. Die Commerzbank hatte bereits vor gut vier Jahren eine strategische Cloud-Partnerschaft mit Google verkündet. Es gehe darum, eine signifikante Anzahl der Bankanwendungen in die Cloud verlagern, hieß es in einer Mitteilung. Beide Unternehmen sprachen im März 2021 von einer strategischen Partnerschaft für die digitale Transformation des Bankinstituts. 

Die Cloud-Kooperation mit Google ist für die Commerzbank allerdings nicht exklusiv. Das Finanzinstitut arbeitet in Sachen Cloud auch eng mit Microsoft zusammen. Ebenfalls Anfang 2021 wurde dafür eine weitere strategische Partnerschaft vereinbart. Davon versprachen sich die Verantwortlichen damals mehr Automatisierung und Standardisierung bei insgesamt niedrigeren Kosten. Es solle ein „signifikanter Teil der Anwendungen“ auf die Azure-Plattform migriert werden, hatte es geheißen. 

UniCredit verfolgt Single-Cloud-Ansatz

UniCredit verfolgt in Sachen Cloud-Partner jedoch keinen Multi-Vendor-Ansatz. „Im Einklang mit unserem Single-Partner-Ansatz für strategische Kooperationen haben wir uns für den Besten entschieden – und gehen nun gemeinsam mit ihm den Weg zur Exzellenz“, sagte Andrea Orcel, CEO von UniCredit. Diese strategische Partnerschaft mit Google Cloud sei ein zentraler Schritt in unserer Strategie, die Bank der Zukunft Europas zu sein. „Die fortschrittliche Cloud-, KI- und Datenanalytik-Technologie von Google Cloud wird unsere digitale Transformation entscheidend vorantreiben – unsere Kundenangebote verbessern, Prozesse effizienter gestalten und eine neue Ära datengetriebener Innovation einläuten.“ 

Die KI-Technik in der Google-Cloud wird die digitale Transformation der UniCredit entscheidend vorantreiben, ist CEO Andrea Orcel überzeugt.UniCredit

„Google Cloud ist führend darin, Finanzinstituten in ganz Europa leistungsstarke und zugleich sichere KI-Technologien bereitzustellen“, ergänzte Tara Brady, President EMEA, Google Cloud. „Damit kann UniCredit Innovation beschleunigen, Effizienzen heben und seine digitale Transformation vorantreiben – für nachhaltigen Erfolg in einem dynamischen Marktumfeld.“ 

Viele Banken setzen auf die Google-Cloud

Mit der UniCredit angelt sich Google einen weiteren wichtigen Cloud-Kunden aus dem Finanzsektor. Auch die Deutsche Bank arbeitet bereits seit Jahren eng mit Google zusammen, um Applikationen in die Cloud zu migrieren beziehungsweise neue Anwendungen direkt in der Google Cloud zu entwickeln. Für seine Cloud-Journey wurde Bernd Leukert, Technologievorstand der Deutschen Bank, beim CIO des Jahres 2024 mit dem Sonderpreis Cloud Excellence ausgezeichnet.

+++ CIO des Jahres 2025 – jetzt mitmachen und bis Ende Mai bewerben +++

UniCredit will sich in der Google-Cloud transformieren​ Weiterlesen »

So gefährden Netzwerkfehler den Betrieb von Rechenzentren​

Allgemein

Die Zuverlässigkeit von Rechenzentren gefährden vor allem drei Ursachen: Stromausfälle, Netzprobleme sowie menschliche Fehler. Maximumm – shutterstock.com Stromausfälle sind nach wie vor die häufigste Ursache für größere Ausfälle in Rechenzentren. Sie machen mehr als die Hälfte aller Fälle aus, die das Uptime Institute in seinem „Annual Outage Analysis Report 2025“ erfasst hat. Netzwerk- und IT-Systemprobleme waren dagegen für zwölf beziehungsweise elf Prozent der schwerwiegenden Ausfälle in Rechenzentren verantwortlich. Dabei machten dem Bericht zufolge Netzwerk-/Konnektivitätsprobleme 30 Prozent der End-to-End-Ausfälle von IT-Diensten aus. Methodik Uptime führte die Analyse anhand aktueller Daten aus mehreren eigenen Berichten und Umfragen aus den Jahren 2024 und 2025 durch. Ein Vergleich mit den Vorjahren zeigt, dass die Häufigkeit von Ausfällen zurückgeht. So gaben in einer Umfrage aus dem Jahr 2024 etwas über 50 Prozent der Betreiber an, in den letzten drei Jahren einen Ausfall gehabt zu haben. Im Jahr 2023 waren es noch 55 Prozent, die einen Ausfall meldeten. Im Jahr 2022 gaben 60 Prozent Ausfälle an, 2021 waren es 69 Prozent. Fast 80 Prozent meldeten im Jahr 2020 einen Ausfall in den letzten drei Jahren. Energieversorgung als Sorgenkind „Insgesamt hat sich der Zahl der Ausfälle verringert“, analysiert Andy Lawrence, Gründungsmitglied und Geschäftsführer von Uptime Intelligence, die Situation. Anlass zur Entwarnung ist das allerdings nicht, wie Lawrence anlässlich der Veröffentlichung des aktuellen Reports erklärte: „Die Betreiber von Rechenzentren sehen sich einer wachsenden Zahl externer Risiken gegenüber, die außerhalb ihrer Kontrolle liegen.“ Dazu zählen für ihn Einschränkungen des Stromnetzes, extreme Wetterbedingungen, Ausfälle von Netzbetreibern und Probleme mit Software von Drittanbietern. Dabei ist die Stromversorgung nach wie vor die häufigste Ursache für schwerwiegende Ausfälle. Zu den Gründen für Stromausfälle zählen: Ausfall der USV: 42 Prozent, Ausfall eines Umschalters: 36 Prozent, Ausfall eines Generators: 28 Prozent, Ausfall eines Umschalters zwischen verschiedenen Leitungen: 23 Prozent, Ausfall der Steuerungen: 15 Prozent, Ausfall eines einzelnen kabelgebundenen IT-Geräts: 11 Prozent, Ausfall deines Stromverteilers: 11 Prozent. Strom bleibt kritisch “Strom ist die Hauptursache. Strom wird auch in absehbarer Zukunft die Hauptursache sein“, prognostiziert Chris Brown, Chief Technical Officer beim Uptime Institute. Und das ist zu erwarten, denn jedes Gerät im Rechenzentrum, egal, ob es sich um eine Anlage oder ein IT-Gerät handelt, benötigt Strom, um zu funktionieren. Positiv zu vermerken ist jedoch, dass es Anzeichen dafür gibt, dass die Schwere der Ausfälle abnimmt. Laut Uptime wurden 2024 nur neun Prozent der gemeldeten Vorfälle als schwerwiegend oder kritisch eingestuft. „Etwas mehr als die Hälfte gab an, in den letzten drei Jahren einen Ausfall gehabt zu haben, und von denen, die dies bejahten, waren insgesamt etwa drei Viertel nicht signifikant“, ergänzt Lawrence. Das Netz als Problemursache Dennoch nahmen laut Uptime Institute die IT- und Netzwerkprobleme im Jahr 2024 zu. Der Report führt den Anstieg der Ausfälle auf die zunehmende Komplexität der IT sowie der Netzwerke zurück. Dies gelte insbesondere für das Änderungsmanagement und Fehlkonfigurationen. „Insbesondere bei verteilten Diensten und Cloud-Diensten stellen wir fest, dass es häufig zu Kettenausfällen kommt, wenn Netzwerkgeräte über ein gesamtes Netzwerk repliziert werden“, geht Lawrence ins Detail, „manchmal führt der Ausfall eines Geräts dazu, dass der Datenverkehr nur in eine Richtung fließt und die Kapazität eines anderen Rechenzentrums überlastet wird.“ Häufige Netzfehler Als häufigste Ursachen für größere, netzwerkbezogene Ausfälle nennt das Uptime Institute: Konfigurations- und Änderungsmanagementfehler: 50 Prozent, Ausfall eines Drittanbieters: 34 Prozent, Hardwarefehler: 31 Prozent, Firmware- und Softwarefehler: 26 Prozent, Leitungsunterbrechungen: 17 Prozent, Böswillige Cyberangriffe: 17 Prozent, Netzwerküberlastung: 13 Prozent, Probleme mit beschädigten Firewall- und Routing-Tabellen: acht Prozent, Wetterbedingte Vorfälle: sieben Prozent. Laut der Analyse von Uptime zählen menschliche Fehler weiterhin zu den „größten Herausforderungen im Rechenzentrumsbetrieb“. Hauptproblem dabei ist dem Bericht zufolge, dass die Mitarbeiter der Rechenzentren die festgelegten Verfahren nicht einhalten. Im Vergleich zu 2023 habe dies um etwa zehn Prozentpunkte zugenommen. Der Faktor Mensch als Fehler Die häufigsten Ursachen für größere Ausfälle aufgrund menschlicher Fehler waren: Nichtbefolgung von Verfahren durch Datenpersonal: 58 Prozent, Falsche Prozesse/Verfahren des Personals: 45 Prozent, Installationsprobleme: 24 Prozent, Probleme während des Betriebs: 19 Prozent, Zu wenig Personal: 18 Prozent, Probleme mit der Häufigkeit der vorbeugenden Wartung: 16 Prozent, Designfehler oder Mängel des Rechenzentrums: 14 Prozent. Cheftechniker Brown erklärt diese Fehler unter anderem damit, dass die Betreiber von Rechenzentren Schwierigkeiten haben, adäquate Prozesse zu erstellen und angemessene Schulungen anzubieten. Erschwert werde die Situation durch die Geschwindigkeit, mit der Rechenzentren expandierten. Zudem hätten neue Mitarbeiter nur begrenzte Erfahrung. Die Uptime-Analysten kommen deshalb zu dem Schluss, dass menschliches Versagen der Bereich ist, in dem sich Ausfälle am einfachsten und kostengünstigsten vermeiden lassen. 

So gefährden Netzwerkfehler den Betrieb von Rechenzentren​ Die Zuverlässigkeit von Rechenzentren gefährden vor allem drei Ursachen: Stromausfälle, Netzprobleme sowie menschliche Fehler.
Maximumm – shutterstock.com

Stromausfälle sind nach wie vor die häufigste Ursache für größere Ausfälle in Rechenzentren. Sie machen mehr als die Hälfte aller Fälle aus, die das Uptime Institute in seinem „Annual Outage Analysis Report 2025“ erfasst hat.

Netzwerk- und IT-Systemprobleme waren dagegen für zwölf beziehungsweise elf Prozent der schwerwiegenden Ausfälle in Rechenzentren verantwortlich. Dabei machten dem Bericht zufolge Netzwerk-/Konnektivitätsprobleme 30 Prozent der End-to-End-Ausfälle von IT-Diensten aus.

Methodik

Uptime führte die Analyse anhand aktueller Daten aus mehreren eigenen Berichten und Umfragen aus den Jahren 2024 und 2025 durch. Ein Vergleich mit den Vorjahren zeigt, dass die Häufigkeit von Ausfällen zurückgeht.

So gaben in einer Umfrage aus dem Jahr 2024 etwas über 50 Prozent der Betreiber an, in den letzten drei Jahren einen Ausfall gehabt zu haben. Im Jahr 2023 waren es noch 55 Prozent, die einen Ausfall meldeten. Im Jahr 2022 gaben 60 Prozent Ausfälle an, 2021 waren es 69 Prozent. Fast 80 Prozent meldeten im Jahr 2020 einen Ausfall in den letzten drei Jahren.

Energieversorgung als Sorgenkind

„Insgesamt hat sich der Zahl der Ausfälle verringert“, analysiert Andy Lawrence, Gründungsmitglied und Geschäftsführer von Uptime Intelligence, die Situation. Anlass zur Entwarnung ist das allerdings nicht, wie Lawrence anlässlich der Veröffentlichung des aktuellen Reports erklärte: „Die Betreiber von Rechenzentren sehen sich einer wachsenden Zahl externer Risiken gegenüber, die außerhalb ihrer Kontrolle liegen.“ Dazu zählen für ihn Einschränkungen des Stromnetzes, extreme Wetterbedingungen, Ausfälle von Netzbetreibern und Probleme mit Software von Drittanbietern.

Dabei ist die Stromversorgung nach wie vor die häufigste Ursache für schwerwiegende Ausfälle. Zu den Gründen für Stromausfälle zählen:

Ausfall der USV: 42 Prozent,

Ausfall eines Umschalters: 36 Prozent,

Ausfall eines Generators: 28 Prozent,

Ausfall eines Umschalters zwischen verschiedenen Leitungen: 23 Prozent,

Ausfall der Steuerungen: 15 Prozent,

Ausfall eines einzelnen kabelgebundenen IT-Geräts: 11 Prozent,

Ausfall deines Stromverteilers: 11 Prozent.

Strom bleibt kritisch

“Strom ist die Hauptursache. Strom wird auch in absehbarer Zukunft die Hauptursache sein“, prognostiziert Chris Brown, Chief Technical Officer beim Uptime Institute. Und das ist zu erwarten, denn jedes Gerät im Rechenzentrum, egal, ob es sich um eine Anlage oder ein IT-Gerät handelt, benötigt Strom, um zu funktionieren.

Positiv zu vermerken ist jedoch, dass es Anzeichen dafür gibt, dass die Schwere der Ausfälle abnimmt. Laut Uptime wurden 2024 nur neun Prozent der gemeldeten Vorfälle als schwerwiegend oder kritisch eingestuft. „Etwas mehr als die Hälfte gab an, in den letzten drei Jahren einen Ausfall gehabt zu haben, und von denen, die dies bejahten, waren insgesamt etwa drei Viertel nicht signifikant“, ergänzt Lawrence.

Das Netz als Problemursache

Dennoch nahmen laut Uptime Institute die IT- und Netzwerkprobleme im Jahr 2024 zu. Der Report führt den Anstieg der Ausfälle auf die zunehmende Komplexität der IT sowie der Netzwerke zurück. Dies gelte insbesondere für das Änderungsmanagement und Fehlkonfigurationen.

„Insbesondere bei verteilten Diensten und Cloud-Diensten stellen wir fest, dass es häufig zu Kettenausfällen kommt, wenn Netzwerkgeräte über ein gesamtes Netzwerk repliziert werden“, geht Lawrence ins Detail, „manchmal führt der Ausfall eines Geräts dazu, dass der Datenverkehr nur in eine Richtung fließt und die Kapazität eines anderen Rechenzentrums überlastet wird.“

Häufige Netzfehler

Als häufigste Ursachen für größere, netzwerkbezogene Ausfälle nennt das Uptime Institute:

Konfigurations- und Änderungsmanagementfehler: 50 Prozent,

Ausfall eines Drittanbieters: 34 Prozent,

Hardwarefehler: 31 Prozent,

Firmware- und Softwarefehler: 26 Prozent,

Leitungsunterbrechungen: 17 Prozent,

Böswillige Cyberangriffe: 17 Prozent,

Netzwerküberlastung: 13 Prozent,

Probleme mit beschädigten Firewall- und Routing-Tabellen: acht Prozent,

Wetterbedingte Vorfälle: sieben Prozent.

Laut der Analyse von Uptime zählen menschliche Fehler weiterhin zu den „größten Herausforderungen im Rechenzentrumsbetrieb“. Hauptproblem dabei ist dem Bericht zufolge, dass die Mitarbeiter der Rechenzentren die festgelegten Verfahren nicht einhalten. Im Vergleich zu 2023 habe dies um etwa zehn Prozentpunkte zugenommen.

Der Faktor Mensch als Fehler

Die häufigsten Ursachen für größere Ausfälle aufgrund menschlicher Fehler waren:

Nichtbefolgung von Verfahren durch Datenpersonal: 58 Prozent,

Falsche Prozesse/Verfahren des Personals: 45 Prozent,

Installationsprobleme: 24 Prozent,

Probleme während des Betriebs: 19 Prozent,

Zu wenig Personal: 18 Prozent,

Probleme mit der Häufigkeit der vorbeugenden Wartung: 16 Prozent,

Designfehler oder Mängel des Rechenzentrums: 14 Prozent.

Cheftechniker Brown erklärt diese Fehler unter anderem damit, dass die Betreiber von Rechenzentren Schwierigkeiten haben, adäquate Prozesse zu erstellen und angemessene Schulungen anzubieten. Erschwert werde die Situation durch die Geschwindigkeit, mit der Rechenzentren expandierten. Zudem hätten neue Mitarbeiter nur begrenzte Erfahrung. Die Uptime-Analysten kommen deshalb zu dem Schluss, dass menschliches Versagen der Bereich ist, in dem sich Ausfälle am einfachsten und kostengünstigsten vermeiden lassen.

So gefährden Netzwerkfehler den Betrieb von Rechenzentren​ Weiterlesen »

Der fahrerlose Lkw wird Realität​

Allgemein

Der fahrerlose Lkw wird Schritt für Schritt Realität. MAN Truck & Bus 100.000 Lkw-Fahrer fehlen allein in Deutschland, die Pendelfahrten zwischen Logistikhöfen sind meist wenig effizient. Automatisierungskonzepte mit fahrerlosen Lkws als Teil einer Hub-to-Hub-Automatisierung könnten ein Lösungsansatz für diese Probleme sein. 150 Ingenieure, ein autonomer Truck Dass dies keine ferne Zukunftsvision mehr ist, zeigt das Projekt ATLAS-L4 (Automatisierter Transport zwischen Logistikzentren auf Schnellstraßen im Level 4). Zwölf Projektpartner brachten dabei einen Level-4-automatisierten und damit autonom fahrenden Lkw für den Hub-to-Hub-Transport auf die Straßen. Möglich wurde dies durch ein 2021 verabschiedetes Gesetz, das autonomes Fahren auf fest definierten Strecken unter technischer Aufsicht grundsätzlich ermöglicht. Und zwar gesetzeskonform. Doch bis der LKW seine ersten Fahrten autonom auf der Autobahn zurücklegen konnte, war Teamarbeit gefragt. Dazu haben insgesamt 150 Ingenieure ihre Kräfte gebündelt. Sie kommen von den Projektpartnern: MAN Truck & Bus, Knorr-Bremse, Leoni, Bosch, Fernride, BTC Embedded Systems, Fraunhofer AISEC, Technische Universität München, Technische Universität Braunschweig, TÜV SÜD, Autobahn GmbH sowie dem Würzburger Institut für Verkehrswissenschaften (WIVW GmbH). Nach drei Jahren Projektarbeit ist der autonome Truck im Straßenverkehr nun Realität. Bis zur Serienfertigung autonomer Trucks müssen zwar noch diverse Detailfragen geklärt werden, doch die Pionierarbeit ist geleistet. „Diese Konzepte fließen nun in die weitere Entwicklungsarbeit zur Serienentwicklung von autonomen Lkw ein“, so Projektkoordinator Sebastian Völl von MAN Truck & Bus. Erste Fahrt 2024 Der Startschuss für ATLAS-L4 fiel am 1. Januar 2022. Nachdem das Kraftfahrt-Bundesamt im April 2024 die erste Level-4-Erprobungsgenehmigung für einen Nutzfahrzeughersteller erteilt hatte, fand die Premiere im öffentlichen Straßenverkehr statt. Bei dieser und allen weiteren Erprobungsfahrten war immer ein Sicherheitsfahrer an Bord. Die Automatisierungssoftware im Fahrzeug wurde durch regelmäßige Releases kontinuierlich über einen langen Zeitraum hinweg optimiert und direkt in der Praxis erprobt. Im Hintergrund war hierzu viel Detailarbeit zu leisten. So wurden die für die Level-4-Architektur sicherheitsrelevanten Komponenten wie redundantes Bremssystem, Bordnetz und Lenkung aufgebaut. Mehr Daten als im Pkw Dabei gilt die Entwicklung autonomer Trucks im Vergleich zu Pkws als besonders anspruchsvoll: Auf Grund der Größe des Fahrzeugs müssen deutlich mehr Sensoren eingesetzt und deren Daten verarbeitet werden. Diese Informationen benötigt der autonome Lkw aber, um sich mit seinen größeren Dimensionen  in seinem Umfeld selbständig zurechtzufinden. Ferner wurde ein Validierungskonzept erstellt. Parallel dazu musste ein Control Center für die technische Aufsicht aufgebaut werden. Ebenso galt es, Risikoanalysen und Safety-Betrachtungen für das Level-4-Fahren vorzunehmen. Dazu zählt etwa das Thema Cybersicherheit in Form von authentischer und verschlüsselter Kommunikation. Des Weiteren mussten funktionale Sicherheitsmaßnahmen wie Redundanzen und Degradationskonzepte für das autonome Fahrsystem definiert werden. 

Der fahrerlose Lkw wird Realität​ Der fahrerlose Lkw wird Schritt für Schritt Realität.
MAN Truck & Bus

100.000 Lkw-Fahrer fehlen allein in Deutschland, die Pendelfahrten zwischen Logistikhöfen sind meist wenig effizient. Automatisierungskonzepte mit fahrerlosen Lkws als Teil einer Hub-to-Hub-Automatisierung könnten ein Lösungsansatz für diese Probleme sein.

150 Ingenieure, ein autonomer Truck

Dass dies keine ferne Zukunftsvision mehr ist, zeigt das Projekt ATLAS-L4 (Automatisierter Transport zwischen Logistikzentren auf Schnellstraßen im Level 4). Zwölf Projektpartner brachten dabei einen Level-4-automatisierten und damit autonom fahrenden Lkw für den Hub-to-Hub-Transport auf die Straßen. Möglich wurde dies durch ein 2021 verabschiedetes Gesetz, das autonomes Fahren auf fest definierten Strecken unter technischer Aufsicht grundsätzlich ermöglicht.

Und zwar gesetzeskonform. Doch bis der LKW seine ersten Fahrten autonom auf der Autobahn zurücklegen konnte, war Teamarbeit gefragt. Dazu haben insgesamt 150 Ingenieure ihre Kräfte gebündelt. Sie kommen von den Projektpartnern:

MAN Truck & Bus,

Knorr-Bremse,

Leoni,

Bosch,

Fernride,

BTC Embedded Systems,

Fraunhofer AISEC,

Technische Universität München,

Technische Universität Braunschweig,

TÜV SÜD,

Autobahn GmbH sowie

dem Würzburger Institut für Verkehrswissenschaften (WIVW GmbH).

Nach drei Jahren Projektarbeit ist der autonome Truck im Straßenverkehr nun Realität. Bis zur Serienfertigung autonomer Trucks müssen zwar noch diverse Detailfragen geklärt werden, doch die Pionierarbeit ist geleistet. „Diese Konzepte fließen nun in die weitere Entwicklungsarbeit zur Serienentwicklung von autonomen Lkw ein“, so Projektkoordinator Sebastian Völl von MAN Truck & Bus.

Erste Fahrt 2024

Der Startschuss für ATLAS-L4 fiel am 1. Januar 2022. Nachdem das Kraftfahrt-Bundesamt im April 2024 die erste Level-4-Erprobungsgenehmigung für einen Nutzfahrzeughersteller erteilt hatte, fand die Premiere im öffentlichen Straßenverkehr statt. Bei dieser und allen weiteren Erprobungsfahrten war immer ein Sicherheitsfahrer an Bord. Die Automatisierungssoftware im Fahrzeug wurde durch regelmäßige Releases kontinuierlich über einen langen Zeitraum hinweg optimiert und direkt in der Praxis erprobt.

Im Hintergrund war hierzu viel Detailarbeit zu leisten. So wurden die für die Level-4-Architektur sicherheitsrelevanten Komponenten wie redundantes Bremssystem, Bordnetz und Lenkung aufgebaut.

Mehr Daten als im Pkw

Dabei gilt die Entwicklung autonomer Trucks im Vergleich zu Pkws als besonders anspruchsvoll:

Auf Grund der Größe des Fahrzeugs müssen deutlich mehr Sensoren eingesetzt und deren Daten verarbeitet werden. Diese Informationen benötigt der autonome Lkw aber, um sich mit seinen größeren Dimensionen  in seinem Umfeld selbständig zurechtzufinden.

Ferner wurde ein Validierungskonzept erstellt. Parallel dazu musste ein Control Center für die technische Aufsicht aufgebaut werden. Ebenso galt es, Risikoanalysen und Safety-Betrachtungen für das Level-4-Fahren vorzunehmen. Dazu zählt etwa das Thema Cybersicherheit in Form von authentischer und verschlüsselter Kommunikation. Des Weiteren mussten funktionale Sicherheitsmaßnahmen wie Redundanzen und Degradationskonzepte für das autonome Fahrsystem definiert werden.

Der fahrerlose Lkw wird Realität​ Weiterlesen »

CIO des Jahres 2025 – jetzt mitmachen und bis Ende Mai bewerben​

Allgemein

width=”2212″ height=”1244″ sizes=”(max-width: 2212px) 100vw, 2212px”>So sehen Siegerinnen und Sieger aus. Die Gewinnerinnen und Gewinner des vergangenen Jahres jubeln über ihre CIO-des-Jahres-Awards. Machen auch Sie mit und bewerben Sie sich – dann stehen Sie vielleicht im Oktober 2025 auf der großen Gala-Bühne und dürfen sich über die renommierteste IT-Auszeichnung Deutschlands freuen.cio.de / Tobias Tschepe Die heiße Phase für die Bewerbung um die Awards für den CIO des Jahres hat begonnen. Der renommierteste IT-Award Deutschlands biegt ein in die Zielgerade. Noch bis zum 30. Mai 2025 laden wir CIOs, IT-Vorstände aber auch CISOs und Digital-Verantwortliche aus Unternehmen sowie Öffentlichen Einrichtungen in Bund, Ländern und Kommunen herzlich ein, sich mit spannenden IT-Projekten für den „CIO des Jahres 2025“ zu bewerben.  +++ Machen Sie mit beim CIO des Jahres Award 2025 +++   Wie immer küren wir die Gewinnerinnen und Gewinner in den Kategorien Großunternehmen, Mittelstand und Public Sector. Darüber hinaus vergibt die Jury wieder eine Reihe von Special Awards – unter anderem zu den Themen Artificial Intelligence, Customer Experience, Cloud Excellence und Sustainability.  Alle Preisträgerinnen und Preisträger sowie die Finalistinnen und Finalisten, die es unter die jeweiligen Top-5 geschafft haben, zeichnen wir im Rahmen unserer feierlichen Award-Gala am 16. Oktober 2025 in München aus.  Wer wird CIO des Jahres 2025?Foundry Machen Sie also mit und bewerben Sie sich für den CIO des Jahres 2025. Wir freuen uns auf Ihre Teilnahme. Alle weiteren Informationen zum Wettbewerb und alle Unterlagen finden Sie ab sofort hier.  

CIO des Jahres 2025 – jetzt mitmachen und bis Ende Mai bewerben​ width=”2212″ height=”1244″ sizes=”(max-width: 2212px) 100vw, 2212px”>So sehen Siegerinnen und Sieger aus. Die Gewinnerinnen und Gewinner des vergangenen Jahres jubeln über ihre CIO-des-Jahres-Awards. Machen auch Sie mit und bewerben Sie sich – dann stehen Sie vielleicht im Oktober 2025 auf der großen Gala-Bühne und dürfen sich über die renommierteste IT-Auszeichnung Deutschlands freuen.cio.de / Tobias Tschepe

Die heiße Phase für die Bewerbung um die Awards für den CIO des Jahres hat begonnen. Der renommierteste IT-Award Deutschlands biegt ein in die Zielgerade. Noch bis zum 30. Mai 2025 laden wir CIOs, IT-Vorstände aber auch CISOs und Digital-Verantwortliche aus Unternehmen sowie Öffentlichen Einrichtungen in Bund, Ländern und Kommunen herzlich ein, sich mit spannenden IT-Projekten für den „CIO des Jahres 2025“ zu bewerben. 

+++ Machen Sie mit beim CIO des Jahres Award 2025 +++  

Wie immer küren wir die Gewinnerinnen und Gewinner in den Kategorien Großunternehmen, Mittelstand und Public Sector. Darüber hinaus vergibt die Jury wieder eine Reihe von Special Awards – unter anderem zu den Themen Artificial Intelligence, Customer Experience, Cloud Excellence und Sustainability. 

Alle Preisträgerinnen und Preisträger sowie die Finalistinnen und Finalisten, die es unter die jeweiligen Top-5 geschafft haben, zeichnen wir im Rahmen unserer feierlichen Award-Gala am 16. Oktober 2025 in München aus. 

Wer wird CIO des Jahres 2025?Foundry

Machen Sie also mit und bewerben Sie sich für den CIO des Jahres 2025. Wir freuen uns auf Ihre Teilnahme. Alle weiteren Informationen zum Wettbewerb und alle Unterlagen finden Sie ab sofort hier. 

CIO des Jahres 2025 – jetzt mitmachen und bis Ende Mai bewerben​ Weiterlesen »

14 effektive Cloud-Spartipps​

Allgemein

Kleinvieh macht auch in Sachen Cloud Mist – im negativen wie im positiven Sinn.OlegRi | shutterstock.com Der Tag im Monat, an dem die Cloud-Rechnung aufschlägt, ist für CFOs regelmäßig gesundheitsgefährdend – schließlich haben nicht wenige Anwenderunternehmen mit explodierenden Kosten zu kämpfen. Um das Herz-Kreislaufsystem von Finanzentscheidern zu schonen (vor allem aber den Kopf der Engineers zu retten, die deren Unmut ausbaden müssen), haben wir in diesem Artikel 14 Spartipps zusammengestellt, die dazu beitragen können, dem Tag der (Cloud-)Abrechnung den Schrecken zu nehmen. Diese sind für sich allein genommen vielleicht kein großer Wurf, in Kombination aber dazu geeignet, die Cloud-Gesamtkosten erheblich zu reduzieren. 1. Entwicklungs-Cluster abschalten In der Praxis dürfte es eher selten vorkommen, dass Development-Cluster mehr als zwölf Stunden pro Tag genutzt werden. Anders ausgedrückt: Wenn Sie und Ihr Team nur ein Viertel der 168 Stunden, die eine Woche hat, arbeiten, können Sie satte 75 Prozent der Kosten einsparen, die der Betrieb der Entwicklungscluster aufwirft. Große Cluster herunterzufahren, kostet möglicherweise Zeit und ist nicht in jedem Fall so einfach umzusetzen, wie es klingt. Deshalb sollten Sie erwägen, Skripte zu schreiben, die im Hintergrund laufen und diese Aspekte für Sie managen. 2. Microservices simulieren Diverse Cloud-Anwendungen laufen auf Microservices-Architekturen. Statt sämtliche Maschinen hochzufahren, könnten Sie auch einen smarten Mock-Services-Ansatz fahren und diejenigen simulieren, die nicht zum täglichen Doing gehören.   Microservices-Mock-Instanzen können den Testing-Aufwand für neuen Code erheblich reduzieren und lassen sich in vielen Fällen per Konfiguration mit besserer Telemetrie für die Fehlersuche ausstatten. 3. Lokalen Speicher begrenzen Viele Cloud-Instanzen beinhalten Standardfestplatten oder persistenten Speicher, der in standardisierten Größen angeboten wird. Das kann ein wesentlicher Kostentreiber sein. Deswegen ist es empfehlenswert, die Speicherzuweisung zu begrenzen: Statt die Standardeinstellung zu nutzen, sollten Sie versuchen, mit so wenig Speicherplatz wie möglich auszukommen. Zu diesem Zweck können Sie etwa Caches leeren oder lokale Kopien von Daten löschen. Mit anderen Worten: Gönnen Sie Ihren Servern eine Entschlackungskur. 4. Instanzen richtig dimensionieren Die Cloud macht es im Regelfall nicht einfach, Ressourcen zu minimieren – insbesondere, wenn Algorithmen zum Einsatz kommen, die diese entsprechend der Nutzlast steuern. Deswegen empfiehlt es sich, die genutzten Ressourcen genau zu überwachen. Nur so können Sie sicherstellen, dass Ihre Cloud-Instanzen nicht mehr Ressourcen als nötig verbrauchen.   5. Cold-Storage-Option ziehen Einige Cloud-Anbieter haben spezielle Services im Angebot, um Daten zu speichern, auf die nicht schnell zugegriffen werden muss. Das senkt die Kosten, bringt im Regelfall aber eine Latenzzeit von mehreren Stunden (oder mehr) mit sich. Dennoch ist es sinnvoll, „kalte“ Daten auf diese Art und Weise zu speichern. Auch die Datensicherheit kann für Cold-Storage-, beziehungsweise Bare-Metal-Optionen ein zusätzliches Argument sein. 6. Günstigere Anbieter wählen Statt auf die Hyperscaler zu setzen, kann es Sinn machen, auf kleinere, alternative Cloud-Anbieter zu setzen. Diese bieten unter Umständen deutlich niedrigere Preise für Services wie Objektspeicher. Auch mit Blick auf die Latenzzeiten für „Hot Storage“, Egress-Kosten oder den Datenzugriff können alternative Cloud-Anbieter erhebliches Einsparpotenzial bieten. 7. Spare Machines nutzen Einige Cloud-Provider auktionieren Spare Machines – teilweise zu verlockend niedrigen Preisen. Diese sind unter Umständen hervorragend für Hintergrund-Tasks wie monatliche Reportings geeignet. Zu beachten ist dabei allerdings, dass solche „Spot-Instanzen“ unter Umständen ohne Vorwarnung beziehungsweise Vorlaufzeit abgeschaltet werden können. Deshalb sollten Applikationen, die auf Spare Machines laufen, idempotent sein. Darüber hinaus sollten Sie im Hinterkopf behalten, dass die Spot-Preise bei entsprechend hoher Nachfrage auch stark ansteigen können. 8. Langfristige Deals machen Anwenderunternehmen, die sich langfristig an einen Provider binden, winken im Regelfall erhebliche, nutzungsabhängige Rabatte (manchmal auch als Reserved Instances bezeichnet). Wenn Sie ziemlich genau wissen, was Sie für die nächsten Jahre brauchen, kann das eine ideale Lösung sein. Der Nachteil: Eine solche Verpflichtung ist für beide Seiten bindend. Die Maschinen lassen sich entsprechend in ruhigeren Zeiten oder bei Projektstornierungen nicht einfach abschalten. 9. Transparenz walten lassen Letztendlich sind Cloud-Kosten auch nur eine weitere Kennzahl, die zu optimieren ist. Das überlassen nicht wenige Teams den DevOps-Profis, die dann einmal im Monat mit einem Vertreter der Finanzabteilung zusammenkommen. Eine bessere Lösung: Teilen Sie die Kosteninformationen mit dem gesamten Team. Mehr Augen heißt auch mehr Potenzial, Einsparmöglichkeiten zu erkennen. Ein qualitativ hochwertiges Dashboard, das die Cloud-Kosten genau aufschlüsselt, kann an dieser Stelle nützlich sein. 10. Auf Serverless umsteigen Im Kern geht es beim Cloud Computing seit jeher darum, Ressourcen zu zentralisieren und den Anwendern einen Service zu bieten, bei dem sie genau so viel bekommen, wie sie benötigen. Eine transaktionsbasierte Abrechnung ist die logische Konsequenz. Das geht auch mit (den etwa unglücklich benannten) Serverless-Architekturen. Insbesondere für Skunk-Work-Projekte oder Proofs of Concept setzen viele Anwender auf Serverless-Optionen, um die Computing-Kosten möglichst niedrig zu halten – bis die Nachfrage (hoffentlich) steigt. 11. Weniger Daten speichern Softwareentwickler gehen oft auf Nummer Sicher und speichern Daten für den Fall, sie noch einmal zu benötigen. Das ist grundsätzlich keine schlechte Angewohnheit – bis die App dann skaliert und sich das Ganze millionenfach wiederholt. Erfassen Sie deshalb keine Daten, die Sie nicht wirklich brauchen. Und sehen Sie davon ab, zusätzliche Protokolldateien oder Backups vorzuhalten, die Sie nie wieder nutzen werden.   12. Daten lokal vorhalten Viele moderne Browser ermöglichen es, Daten in Objektspeichern oder auch einfachen Versionen klassischer Datenbanken abzulegen. Die WebStorage-API etwa bietet einen einfachen Key-Value-Speicher, während IndexedDB hierarchische Tabellen speichert und indiziert. Zwar sind beide Lösungen ursprünglich als intelligente Caches auf lokaler Ebene konzipiert, die möglichst schnell reagieren sollen, ohne dabei die Netzwerkverbindung zu überlasten. Das lässt sich aber auch nutzen, um Storage-Kosten zu sparen. 13. Daten verlagern Viele Cloud-Anbieter verlangen unabhängig vom Speicherort der Daten denselben Preis. Aber nicht alle. Amazon Web Services berechnet etwa für S3-Storage in Frankfurt standardmäßig zwischen 0,0225 und 0,0245 Dollar pro GB – während für Stockholm zwischen 0,021 und 0,023 Dollar pro GB anfallen. Und Alibaba hat vor kurzem Preissenkungen für Offshore-Rechenzentren angekündigt. Leider ist es möglicherweise kein einfaches Unterfangen, von den regionalen Preisunterschieden zu profitieren, wenn es um große Datenmengen geht – auch da einige Provider Gebühren erheben, wenn Daten von einer Region in eine andere verschoben werden. Dennoch kann es – insbesondere bei neuen Initiativen – lohnenswert sein, sich diesbezüglich schlau zu machen. 14. Datenballast abwerfen Der beste Weg, um Geld zu sparen ist Verzicht. Nichts hindert Sie daran, Ihre Daten auf eine Festplatte oder in ein lokales Rechenzentrum zu verlagern. Die Speicherpreise sind auf einem historisch niedrigen Level – und eine Festplatte kauft man eben nur einmal und bezahlt nicht jeden Monat.   Natürlich hat das aber auch zur Folge, dass Sie sowohl die anfallenden Stromkosten, als auch die Verantwortung für die Daten(sicherheit) übernehmen. Geht es um wichtige, geschäftskritische Workloads, ist dieses Modell also eher nicht zu empfehlen. Bei weniger wichtigen Tasks – etwa „kalten“ Backups – ist das Einsparpotenzial hingegen beträchtlich. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

14 effektive Cloud-Spartipps​ Kleinvieh macht auch in Sachen Cloud Mist – im negativen wie im positiven Sinn.OlegRi | shutterstock.com

Der Tag im Monat, an dem die Cloud-Rechnung aufschlägt, ist für CFOs regelmäßig gesundheitsgefährdend – schließlich haben nicht wenige Anwenderunternehmen mit explodierenden Kosten zu kämpfen.

Um das Herz-Kreislaufsystem von Finanzentscheidern zu schonen (vor allem aber den Kopf der Engineers zu retten, die deren Unmut ausbaden müssen), haben wir in diesem Artikel 14 Spartipps zusammengestellt, die dazu beitragen können, dem Tag der (Cloud-)Abrechnung den Schrecken zu nehmen.

Diese sind für sich allein genommen vielleicht kein großer Wurf, in Kombination aber dazu geeignet, die Cloud-Gesamtkosten erheblich zu reduzieren.

1. Entwicklungs-Cluster abschalten

In der Praxis dürfte es eher selten vorkommen, dass Development-Cluster mehr als zwölf Stunden pro Tag genutzt werden. Anders ausgedrückt: Wenn Sie und Ihr Team nur ein Viertel der 168 Stunden, die eine Woche hat, arbeiten, können Sie satte 75 Prozent der Kosten einsparen, die der Betrieb der Entwicklungscluster aufwirft.

Große Cluster herunterzufahren, kostet möglicherweise Zeit und ist nicht in jedem Fall so einfach umzusetzen, wie es klingt. Deshalb sollten Sie erwägen, Skripte zu schreiben, die im Hintergrund laufen und diese Aspekte für Sie managen.

2. Microservices simulieren

Diverse Cloud-Anwendungen laufen auf Microservices-Architekturen. Statt sämtliche Maschinen hochzufahren, könnten Sie auch einen smarten Mock-Services-Ansatz fahren und diejenigen simulieren, die nicht zum täglichen Doing gehören.  

Microservices-Mock-Instanzen können den Testing-Aufwand für neuen Code erheblich reduzieren und lassen sich in vielen Fällen per Konfiguration mit besserer Telemetrie für die Fehlersuche ausstatten.

3. Lokalen Speicher begrenzen

Viele Cloud-Instanzen beinhalten Standardfestplatten oder persistenten Speicher, der in standardisierten Größen angeboten wird. Das kann ein wesentlicher Kostentreiber sein. Deswegen ist es empfehlenswert, die Speicherzuweisung zu begrenzen: Statt die Standardeinstellung zu nutzen, sollten Sie versuchen, mit so wenig Speicherplatz wie möglich auszukommen.

Zu diesem Zweck können Sie etwa Caches leeren oder lokale Kopien von Daten löschen. Mit anderen Worten: Gönnen Sie Ihren Servern eine Entschlackungskur.

4. Instanzen richtig dimensionieren

Die Cloud macht es im Regelfall nicht einfach, Ressourcen zu minimieren – insbesondere, wenn Algorithmen zum Einsatz kommen, die diese entsprechend der Nutzlast steuern.

Deswegen empfiehlt es sich, die genutzten Ressourcen genau zu überwachen. Nur so können Sie sicherstellen, dass Ihre Cloud-Instanzen nicht mehr Ressourcen als nötig verbrauchen.  

5. Cold-Storage-Option ziehen

Einige Cloud-Anbieter haben spezielle Services im Angebot, um Daten zu speichern, auf die nicht schnell zugegriffen werden muss. Das senkt die Kosten, bringt im Regelfall aber eine Latenzzeit von mehreren Stunden (oder mehr) mit sich.

Dennoch ist es sinnvoll, „kalte“ Daten auf diese Art und Weise zu speichern. Auch die Datensicherheit kann für Cold-Storage-, beziehungsweise Bare-Metal-Optionen ein zusätzliches Argument sein.

6. Günstigere Anbieter wählen

Statt auf die Hyperscaler zu setzen, kann es Sinn machen, auf kleinere, alternative Cloud-Anbieter zu setzen. Diese bieten unter Umständen deutlich niedrigere Preise für Services wie Objektspeicher.

Auch mit Blick auf die Latenzzeiten für „Hot Storage“, Egress-Kosten oder den Datenzugriff können alternative Cloud-Anbieter erhebliches Einsparpotenzial bieten.

7. Spare Machines nutzen

Einige Cloud-Provider auktionieren Spare Machines – teilweise zu verlockend niedrigen Preisen. Diese sind unter Umständen hervorragend für Hintergrund-Tasks wie monatliche Reportings geeignet.

Zu beachten ist dabei allerdings, dass solche „Spot-Instanzen“ unter Umständen ohne Vorwarnung beziehungsweise Vorlaufzeit abgeschaltet werden können. Deshalb sollten Applikationen, die auf Spare Machines laufen, idempotent sein. Darüber hinaus sollten Sie im Hinterkopf behalten, dass die Spot-Preise bei entsprechend hoher Nachfrage auch stark ansteigen können.

8. Langfristige Deals machen

Anwenderunternehmen, die sich langfristig an einen Provider binden, winken im Regelfall erhebliche, nutzungsabhängige Rabatte (manchmal auch als Reserved Instances bezeichnet). Wenn Sie ziemlich genau wissen, was Sie für die nächsten Jahre brauchen, kann das eine ideale Lösung sein.

Der Nachteil: Eine solche Verpflichtung ist für beide Seiten bindend. Die Maschinen lassen sich entsprechend in ruhigeren Zeiten oder bei Projektstornierungen nicht einfach abschalten.

9. Transparenz walten lassen

Letztendlich sind Cloud-Kosten auch nur eine weitere Kennzahl, die zu optimieren ist. Das überlassen nicht wenige Teams den DevOps-Profis, die dann einmal im Monat mit einem Vertreter der Finanzabteilung zusammenkommen.

Eine bessere Lösung: Teilen Sie die Kosteninformationen mit dem gesamten Team. Mehr Augen heißt auch mehr Potenzial, Einsparmöglichkeiten zu erkennen. Ein qualitativ hochwertiges Dashboard, das die Cloud-Kosten genau aufschlüsselt, kann an dieser Stelle nützlich sein.

10. Auf Serverless umsteigen

Im Kern geht es beim Cloud Computing seit jeher darum, Ressourcen zu zentralisieren und den Anwendern einen Service zu bieten, bei dem sie genau so viel bekommen, wie sie benötigen. Eine transaktionsbasierte Abrechnung ist die logische Konsequenz.

Das geht auch mit (den etwa unglücklich benannten) Serverless-Architekturen. Insbesondere für Skunk-Work-Projekte oder Proofs of Concept setzen viele Anwender auf Serverless-Optionen, um die Computing-Kosten möglichst niedrig zu halten – bis die Nachfrage (hoffentlich) steigt.

11. Weniger Daten speichern

Softwareentwickler gehen oft auf Nummer Sicher und speichern Daten für den Fall, sie noch einmal zu benötigen. Das ist grundsätzlich keine schlechte Angewohnheit – bis die App dann skaliert und sich das Ganze millionenfach wiederholt.

Erfassen Sie deshalb keine Daten, die Sie nicht wirklich brauchen. Und sehen Sie davon ab, zusätzliche Protokolldateien oder Backups vorzuhalten, die Sie nie wieder nutzen werden.  

12. Daten lokal vorhalten

Viele moderne Browser ermöglichen es, Daten in Objektspeichern oder auch einfachen Versionen klassischer Datenbanken abzulegen. Die WebStorage-API etwa bietet einen einfachen Key-Value-Speicher, während IndexedDB hierarchische Tabellen speichert und indiziert.

Zwar sind beide Lösungen ursprünglich als intelligente Caches auf lokaler Ebene konzipiert, die möglichst schnell reagieren sollen, ohne dabei die Netzwerkverbindung zu überlasten. Das lässt sich aber auch nutzen, um Storage-Kosten zu sparen.

13. Daten verlagern

Viele Cloud-Anbieter verlangen unabhängig vom Speicherort der Daten denselben Preis. Aber nicht alle. Amazon Web Services berechnet etwa für S3-Storage in Frankfurt standardmäßig zwischen 0,0225 und 0,0245 Dollar pro GB – während für Stockholm zwischen 0,021 und 0,023 Dollar pro GB anfallen. Und Alibaba hat vor kurzem Preissenkungen für Offshore-Rechenzentren angekündigt.

Leider ist es möglicherweise kein einfaches Unterfangen, von den regionalen Preisunterschieden zu profitieren, wenn es um große Datenmengen geht – auch da einige Provider Gebühren erheben, wenn Daten von einer Region in eine andere verschoben werden. Dennoch kann es – insbesondere bei neuen Initiativen – lohnenswert sein, sich diesbezüglich schlau zu machen.

14. Datenballast abwerfen

Der beste Weg, um Geld zu sparen ist Verzicht. Nichts hindert Sie daran, Ihre Daten auf eine Festplatte oder in ein lokales Rechenzentrum zu verlagern. Die Speicherpreise sind auf einem historisch niedrigen Level – und eine Festplatte kauft man eben nur einmal und bezahlt nicht jeden Monat.  

Natürlich hat das aber auch zur Folge, dass Sie sowohl die anfallenden Stromkosten, als auch die Verantwortung für die Daten(sicherheit) übernehmen. Geht es um wichtige, geschäftskritische Workloads, ist dieses Modell also eher nicht zu empfehlen. Bei weniger wichtigen Tasks – etwa „kalten“ Backups – ist das Einsparpotenzial hingegen beträchtlich. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

14 effektive Cloud-Spartipps​ Weiterlesen »

KI fürs Business: ChatGPT Enterprise und Microsoft 365 Copilot im Vergleich​

Allgemein

Wie eignen sich ChatGPT Enterprise und Microsoft 365 Copilot für den Business-Einsatz?Emre Akkoyun – shutterstock.com Zwar sind OpenAI und Microsoft Partner, doch ihre Strategien für den Einsatz von KI im Unternehmensalltag unterscheiden sich stark. In einer Research Note haben die Gartner-Autoren Jason Wong, Ray Valdes, Adam Preset und Max Goss analysiert, inwieweit sich die KI-Assistenten ChatGPT Enterprise und Microsoft 365 Copilot unterscheiden. Die drei wichtigsten Unterscheidungsmerkmale aus Sicht von Gartner sind: Nutzerführung: ChatGPT Enterprise bricht bewusst mit etablierten Workflows, während Copilot tief in die gewohnte Microsoft-Umgebung eingebettet ist. Rollen: ChatGPT agiert kreativer und technikorientierter, Copilot hingegen fokussierter und stärker auf klassische Business-Ziele ausgerichtet. Integrationstiefe: ChatGPT benötigt gezielte Datenanbindungen, Copilot greift direkt auf Microsoft Graph und Office-Daten zu. Weitere wichtige Unterschiede ChatGPT Enterprise und Microsoft 365 (M365) Copilot basieren auf ähnlichen generativen KI-Modellen von OpenAI. Die beiden Produkte bieten jedoch unterschiedliche Ansätze, um KI-Produktivität am digitalen Arbeitsplatz zu steigern. So erfordert ChatGPT Enterprise neue Arbeitsweisen bei der Verwendung generativer KI-Tools (GenAI), während M365 Copilot die Mitarbeiter weitgehend in ihren vertrauten Office-Anwendungen belässt. Ferner reagiert ChatGPT Enterprise in der Regel als ausdrucksstarker, kreativer und entwicklerorientierter KI-Assistent. M365 Copilot liefert dagegen eher prägnante und geschäftsorientierte Antworten. Zudem erfordert ChatGPT einen kuratierten Zugriff auf Ressourcen wie Unternehmensdaten. M365 Copilot ist hier bereits in Microsoft Graph und dessen Anwendungssuite integriert.  Last but not least kostet ChatGPT Enterprise pro Benutzer und Monat mehr als M365 Copilot. Gartner zufolge sind allerdings einige Kunden bereit, mehr zu zahlen, um Zugang zu den Forschungsergebnissen und technischen Ressourcen von OpenAI zu erhalten. Weitere Details Das Gartner Tool zur Bewertung der Reife digitaler Arbeitsplätze zeigt, dass rund 56 Prozent der Befragten den Einsatz von KI für ihre Mitarbeiterschaft zu den fünf wichtigsten Prioritäten im Bereich digitale Arbeitsplätze für die nächsten 12 Monate zählen. Führende Unternehmen im Bereich digitaler Arbeitsplätze wählen dabei nicht einfach ein KI-Tool wie ChatGPT oder Copilot aus. Vielmehr investieren sie in die Vision des jeweiligen Anbieters, wie die digitale Mitarbeitererfahrung durch KI verbessert werden kann. So verwenden ChatGPT und Copilot zwar ähnliche große Sprachmodelle, aber OpenAI und Microsoft haben ihre Tools so konfiguriert, dass die Endbenutzererfahrung sehr unterschiedlich ist. Jedes Produkt bietet, so Gartner, unterschiedliche Wertversprechen für Mitarbeiter und Unternehmen (siehe Tabelle). Die Unterschiede der KI-Ansätze von OpenAI und Microsoft. Gartner Neben den konkreten Produktunterschieden spielen Gartner zufolge bei der Investitionsentscheidung häufig noch Business-Gründe eine Rolle. So entscheiden sich Unternehmen möglicherweise für ChatGPT, weil sie sofort die neuesten OpenAI-Modelle nutzen wollen und Zugang zu den Forschungs- und technischen Ressourcen von OpenAI haben möchten. Andere hingegen entscheiden sich für M365 Copilot, weil sie sich mit den bestehenden Sicherheitsgarantien von Microsoft für Unternehmen und den Vertragsbedingungen des Konzerns Unternehmen wohler fühlen. Außerdem verkürzt Microsoft die Zeit bis zur Verfügbarkeit neuer Modelle von OpenAI über Azure AI Foundry und M365 Copilot. Des Weiteren hat Gartner auch einige Anwenderunternehmen beobachtet, die von M365 Copilot zu ChatGPT Enterprise gewechselt sind. Als Gründe dafür führen die Analysten eine geringer als erwartete Akzeptanz für das Microsoft-Produkt und internen Druck von ChatGPT-Befürwortern, die persönliche Erfahrungen mit dem Tool haben an . Einige Unternehmen verfügen wiederum über beide Produkte, aber Gartner liegen keine Informationen über die Überschneidungen der Mitarbeiter vor, die beide Produkte nutzen. Einige Unternehmen verwenden beide Technologien, weil keine der beiden alle ihre Anforderungen erfüllen. Neue Arbeitsweisen ChatGPT Enterprise erfordert laut Gartner neue Arbeitsweisen mit GenAI-Tools, während M365 Copilot die Mitarbeiter weitgehend in Office-Anwendungen hält. So erweitert ChatGPT Enterprise das Portfolio für den digitalen Arbeitsplatz um eine weitere Anwendung, und „zieht“ die Belegschaft in seinen Arbeitsablauf hinein. Anders formuliert: die Mitarbeiter müssen mit den Modellen und Tools gezielter arbeiten. So kommt zwar eine weitere Anwendung hinzu, aber einige Mitarbeiter verbringen möglicherweise mehr Zeit mit konzentrierter Arbeit mit ChatGPT. Copilot ist dagegen in die M365-Anwendungen eingebettet und „schlägt“ mögliche Aktionen im Arbeitsablauf vor. Dies ermögliche es den Mitarbeitern, Copilot aus der Office-Anwendung heraus aufzurufen, die sie gerade nutzen. Der Erfolg dieses Konzepts ist nicht zwangsläufig gegeben. Auf der einen Seite hat Gartner Mitarbeiter beobachtet, bei denen der Copilot-Einsatz tägliche Routinen ist. Andere haben Schwierigkeiten, die KI regelmäßig in mehreren M365-Anwendungen zu verwenden. Copilot wird am häufigsten in Teams und Outlook verwendet, da diese Anwendungen in Unternehmen weit verbreitet sind. Dies ist jedoch nur eine momentane Bestandsaufnahme, denn Microsoft gestaltet im Mai 2025 die M365 Copilot-App als einheitliche Oberfläche neu. Gartners Empfehlung Letztlich sollten Unternehmen ChatGPT Enterprise den Vorzug geben, wenn Sie die Gewohnheiten und das Verhalten Ihrer Mitarbeiter mit KI ändern möchten. Für M365 Copilot spricht, wenn die Mitarbeiter mit KI in ihren Arbeitsabläufen, also in Teams, Word oder Excel, unterstützt werden sollen. Antwortverhalten der KI Die Antworten von ChatGPT Enterprise sind tendenziell ausdrucksstärker und entwicklerorientiert. Die Copilot-Antworten charakterisiert Gartner dagegen eher als prägnant und geschäftsmäßig. Unternehmen sollten deshalb ChatGPT Enterprise bevorzugen, wenn Ihre Mitarbeiter über die digitale Kompetenz verfügen, die verschiedenen Modelle und Tools zu erlernen und sie dann situationsbezogen auf bestimmte Aufgaben anzuwenden. M365 Copilot sei dagegen besser geeignet, wenn die Mitarbeiter von einem KI-Assistenten sofort einsatzbereite, unkomplizierte Antworten erwarten. Ferner kann sich ChatGPT die individuellen Präferenzen eines Benutzers hinsichtlich der Länge oder Detailgenauigkeit merken, während Microsoft gerade erst Speicher und Personalisierungsfunktionen in die M365-Copilot-App integriert hat. Darüber hinaus sind laut Gartner die Antworten von M365 Copilot tendenziell kürzer und manchmal weniger tiefgehend. Allerdings hängt dies auch von der Frage und Eingabe des Benutzers ab. Datenzugriff ChatGPT erfordert einen kuratierten Zugriff auf Unternehmensdaten. So besteht ChatGPT Enterprise aus Arbeitsbereichen auf Organisations- und Benutzerebene. Alle externen Daten und Inhalte müssten deshalb bewusst in die Arbeitsbereiche geladen werden. Etwa indem ein benutzerdefiniertes GPT erstellt wird, das mit bestimmten Dateien verbunden ist. Oder Dateien werden innerhalb von Projekten hinzugefügt. Mitte 2025 wird ein neuer interner Wissens-Konnektor verfügbar sein, um Inhalte aus Google Drive, SharePoint und anderen Wissensspeichern zu integrieren. M365 Copilot ist bereits in Microsoft Graph integriert und kann auf dessen semantischen Index zugreifen. Dabei ist M365 Copilot an die Unternehmensidentität eines Benutzers gebunden und greift auf Unternehmensdaten auf der Grundlage von Berechtigungen zu, die anhand der ID erteilt werden. Copilot nutzt hierbei die suchgestützte Generierung mit Microsoft Graph, um Antworten auf Unternehmensdaten zu stützen. Je nach Anwendungsfall und Qualität der zugrunde liegenden indizierten Daten kann dies in der KI-Antwort einen zusätzlichen Kontext erzeugen. Andere Inhalte können über Microsoft Graph-Konnektoren oder mithilfe von Copilot Studio eingebracht werden. Gartners Empfehlung Unter dem Strich empfiehlt Gartner mit Blick auf den Datenzugriff ChatGPT Enterprise für Unternehmen, in denen die Mitarbeiter bereit und befugt sind, ihre eigenen Unternehmensdaten und -inhalte in ihren Arbeitsbereichen zu kuratieren und zu verwalten. Dies erfordere jedoch, Tools für das AI Trust, Risk and Security Management (TRiSM) zu implementieren sowie eine entsprechende Governance. Hat ein Unternehmen bereits eine solche Governance in M365 implementiert und die Mitarbeiter ziehen es vor, Inhalte nicht aus der Microsoft-Umgebung zu verschieben, rät Gartner zu Copilot. Kosten Für ChatGPT Enterprise veröffentlicht OpenAI keine Listenpreise. Laut Beobachtungen von Gartner berechnet OpenAI 40 bis 60 Dollar pro Benutzer und Monat, je nach Volumen und strategischer Ausrichtung des Kunden. Spezielle Kunden können möglicherweise auf technische sowie Forschungsressourcen von OpenAI zugreifen, um ihre KI-Initiativen voranzutreiben. M365 Copilot wird häufig zusammen mit anderen Microsoft-Produkten gekauft und verhandelt. Rabatte auf den Listenpreis von 30 Dollar pro Benutzer und Monat sowie Zugeständnisse bei anderen Produkten sind keine Seltenheit. Microsoft bietet strategischen Kunden Unterstützung bei der Vorbereitung und Implementierung von M365 Copilot. Die Produkte sollten nicht ausschließlich anhand der Lizenzkosten beurteilt werden. Ebenso ist zu berücksichtigen, dass ChatGPT und Copilot unterschiedliche Ansätze für die Implementierung, Bereitstellung, das Änderungsmanagement sowie die Governance verfolgen. Deshalb sollte ein Anbieter bevorzugt werden, der den Anforderungen den Mitarbeiter entspricht und diesen dabei hilft, die digitale Arbeitserfahrung durch KI zu verbessern. 

KI fürs Business: ChatGPT Enterprise und Microsoft 365 Copilot im Vergleich​ Wie eignen sich ChatGPT Enterprise und Microsoft 365 Copilot für den Business-Einsatz?Emre Akkoyun – shutterstock.com

Zwar sind OpenAI und Microsoft Partner, doch ihre Strategien für den Einsatz von KI im Unternehmensalltag unterscheiden sich stark. In einer Research Note haben die Gartner-Autoren Jason Wong, Ray Valdes, Adam Preset und Max Goss analysiert, inwieweit sich die KI-Assistenten ChatGPT Enterprise und Microsoft 365 Copilot unterscheiden.

Die drei wichtigsten Unterscheidungsmerkmale aus Sicht von Gartner sind:

Nutzerführung:

ChatGPT Enterprise bricht bewusst mit etablierten Workflows, während Copilot tief in die gewohnte Microsoft-Umgebung eingebettet ist.

Rollen:

ChatGPT agiert kreativer und technikorientierter, Copilot hingegen fokussierter und stärker auf klassische Business-Ziele ausgerichtet.

Integrationstiefe:

ChatGPT benötigt gezielte Datenanbindungen, Copilot greift direkt auf Microsoft Graph und Office-Daten zu.

Weitere wichtige Unterschiede

ChatGPT Enterprise und Microsoft 365 (M365) Copilot basieren auf ähnlichen generativen KI-Modellen von OpenAI. Die beiden Produkte bieten jedoch unterschiedliche Ansätze, um KI-Produktivität am digitalen Arbeitsplatz zu steigern.

So erfordert ChatGPT Enterprise neue Arbeitsweisen bei der Verwendung generativer KI-Tools (GenAI), während M365 Copilot die Mitarbeiter weitgehend in ihren vertrauten Office-Anwendungen belässt. Ferner reagiert ChatGPT Enterprise in der Regel als ausdrucksstarker, kreativer und entwicklerorientierter KI-Assistent. M365 Copilot liefert dagegen eher prägnante und geschäftsorientierte Antworten.

Zudem erfordert ChatGPT einen kuratierten Zugriff auf Ressourcen wie Unternehmensdaten. M365 Copilot ist hier bereits in Microsoft Graph und dessen Anwendungssuite integriert.  Last but not least kostet ChatGPT Enterprise pro Benutzer und Monat mehr als M365 Copilot. Gartner zufolge sind allerdings einige Kunden bereit, mehr zu zahlen, um Zugang zu den Forschungsergebnissen und technischen Ressourcen von OpenAI zu erhalten.

Weitere Details

Das Gartner Tool zur Bewertung der Reife digitaler Arbeitsplätze zeigt, dass rund 56 Prozent der Befragten den Einsatz von KI für ihre Mitarbeiterschaft zu den fünf wichtigsten Prioritäten im Bereich digitale Arbeitsplätze für die nächsten 12 Monate zählen. Führende Unternehmen im Bereich digitaler Arbeitsplätze wählen dabei nicht einfach ein KI-Tool wie ChatGPT oder Copilot aus. Vielmehr investieren sie in die Vision des jeweiligen Anbieters, wie die digitale Mitarbeitererfahrung durch KI verbessert werden kann.

So verwenden ChatGPT und Copilot zwar ähnliche große Sprachmodelle, aber OpenAI und Microsoft haben ihre Tools so konfiguriert, dass die Endbenutzererfahrung sehr unterschiedlich ist. Jedes Produkt bietet, so Gartner, unterschiedliche Wertversprechen für Mitarbeiter und Unternehmen (siehe Tabelle).

Die Unterschiede der KI-Ansätze von OpenAI und Microsoft.
Gartner

Neben den konkreten Produktunterschieden spielen Gartner zufolge bei der Investitionsentscheidung häufig noch Business-Gründe eine Rolle.

So entscheiden sich Unternehmen möglicherweise für ChatGPT, weil sie sofort die neuesten OpenAI-Modelle nutzen wollen und Zugang zu den Forschungs- und technischen Ressourcen von OpenAI haben möchten.

Andere hingegen entscheiden sich für M365 Copilot, weil sie sich mit den bestehenden Sicherheitsgarantien von Microsoft für Unternehmen und den Vertragsbedingungen des Konzerns Unternehmen wohler fühlen. Außerdem verkürzt Microsoft die Zeit bis zur Verfügbarkeit neuer Modelle von OpenAI über Azure AI Foundry und M365 Copilot.

Des Weiteren hat Gartner auch einige Anwenderunternehmen beobachtet, die von M365 Copilot zu ChatGPT Enterprise gewechselt sind. Als Gründe dafür führen die Analysten eine geringer als erwartete Akzeptanz für das Microsoft-Produkt und internen Druck von ChatGPT-Befürwortern, die persönliche Erfahrungen mit dem Tool haben an . Einige Unternehmen verfügen wiederum über beide Produkte, aber Gartner liegen keine Informationen über die Überschneidungen der Mitarbeiter vor, die beide Produkte nutzen. Einige Unternehmen verwenden beide Technologien, weil keine der beiden alle ihre Anforderungen erfüllen.

Neue Arbeitsweisen

ChatGPT Enterprise erfordert laut Gartner neue Arbeitsweisen mit GenAI-Tools, während M365 Copilot die Mitarbeiter weitgehend in Office-Anwendungen hält. So erweitert ChatGPT Enterprise das Portfolio für den digitalen Arbeitsplatz um eine weitere Anwendung, und „zieht“ die Belegschaft in seinen Arbeitsablauf hinein.

Anders formuliert: die Mitarbeiter müssen mit den Modellen und Tools gezielter arbeiten. So kommt zwar eine weitere Anwendung hinzu, aber einige Mitarbeiter verbringen möglicherweise mehr Zeit mit konzentrierter Arbeit mit ChatGPT.

Copilot ist dagegen in die M365-Anwendungen eingebettet und „schlägt“ mögliche Aktionen im Arbeitsablauf vor. Dies ermögliche es den Mitarbeitern, Copilot aus der Office-Anwendung heraus aufzurufen, die sie gerade nutzen. Der Erfolg dieses Konzepts ist nicht zwangsläufig gegeben. Auf der einen Seite hat Gartner Mitarbeiter beobachtet, bei denen der Copilot-Einsatz tägliche Routinen ist. Andere haben Schwierigkeiten, die KI regelmäßig in mehreren M365-Anwendungen zu verwenden. Copilot wird am häufigsten in Teams und Outlook verwendet, da diese Anwendungen in Unternehmen weit verbreitet sind.

Dies ist jedoch nur eine momentane Bestandsaufnahme, denn Microsoft gestaltet im Mai 2025 die M365 Copilot-App als einheitliche Oberfläche neu.

Gartners Empfehlung

Letztlich sollten Unternehmen ChatGPT Enterprise den Vorzug geben, wenn Sie die Gewohnheiten und das Verhalten Ihrer Mitarbeiter mit KI ändern möchten. Für M365 Copilot spricht, wenn die Mitarbeiter mit KI in ihren Arbeitsabläufen, also in Teams, Word oder Excel, unterstützt werden sollen.

Antwortverhalten der KI

Die Antworten von ChatGPT Enterprise sind tendenziell ausdrucksstärker und entwicklerorientiert. Die Copilot-Antworten charakterisiert Gartner dagegen eher als prägnant und geschäftsmäßig.

Unternehmen sollten deshalb ChatGPT Enterprise bevorzugen, wenn Ihre Mitarbeiter über die digitale Kompetenz verfügen, die verschiedenen Modelle und Tools zu erlernen und sie dann situationsbezogen auf bestimmte Aufgaben anzuwenden.

M365 Copilot sei dagegen besser geeignet, wenn die Mitarbeiter von einem KI-Assistenten sofort einsatzbereite, unkomplizierte Antworten erwarten.

Ferner kann sich ChatGPT die individuellen Präferenzen eines Benutzers hinsichtlich der Länge oder Detailgenauigkeit merken, während Microsoft gerade erst Speicher und Personalisierungsfunktionen in die M365-Copilot-App integriert hat. Darüber hinaus sind laut Gartner die Antworten von M365 Copilot tendenziell kürzer und manchmal weniger tiefgehend. Allerdings hängt dies auch von der Frage und Eingabe des Benutzers ab.

Datenzugriff

ChatGPT erfordert einen kuratierten Zugriff auf Unternehmensdaten. So besteht ChatGPT Enterprise aus Arbeitsbereichen auf Organisations- und Benutzerebene.

Alle externen Daten und Inhalte müssten deshalb bewusst in die Arbeitsbereiche geladen werden. Etwa indem ein benutzerdefiniertes GPT erstellt wird, das mit bestimmten Dateien verbunden ist. Oder Dateien werden innerhalb von Projekten hinzugefügt. Mitte 2025 wird ein neuer interner Wissens-Konnektor verfügbar sein, um Inhalte aus Google Drive, SharePoint und anderen Wissensspeichern zu integrieren.

M365 Copilot ist bereits in Microsoft Graph integriert und kann auf dessen semantischen Index zugreifen. Dabei ist M365 Copilot an die Unternehmensidentität eines Benutzers gebunden und greift auf Unternehmensdaten auf der Grundlage von Berechtigungen zu, die anhand der ID erteilt werden.

Copilot nutzt hierbei die suchgestützte Generierung mit Microsoft Graph, um Antworten auf Unternehmensdaten zu stützen. Je nach Anwendungsfall und Qualität der zugrunde liegenden indizierten Daten kann dies in der KI-Antwort einen zusätzlichen Kontext erzeugen. Andere Inhalte können über Microsoft Graph-Konnektoren oder mithilfe von Copilot Studio eingebracht werden.

Gartners Empfehlung

Unter dem Strich empfiehlt Gartner mit Blick auf den Datenzugriff ChatGPT Enterprise für Unternehmen, in denen die Mitarbeiter bereit und befugt sind, ihre eigenen Unternehmensdaten und -inhalte in ihren Arbeitsbereichen zu kuratieren und zu verwalten. Dies erfordere jedoch, Tools für das AI Trust, Risk and Security Management (TRiSM) zu implementieren sowie eine entsprechende Governance.

Hat ein Unternehmen bereits eine solche Governance in M365 implementiert und die Mitarbeiter ziehen es vor, Inhalte nicht aus der Microsoft-Umgebung zu verschieben, rät Gartner zu Copilot.

Kosten

Für ChatGPT Enterprise veröffentlicht OpenAI keine Listenpreise. Laut Beobachtungen von Gartner berechnet OpenAI 40 bis 60 Dollar pro Benutzer und Monat, je nach Volumen und strategischer Ausrichtung des Kunden. Spezielle Kunden können möglicherweise auf technische sowie Forschungsressourcen von OpenAI zugreifen, um ihre KI-Initiativen voranzutreiben.

M365 Copilot wird häufig zusammen mit anderen Microsoft-Produkten gekauft und verhandelt. Rabatte auf den Listenpreis von 30 Dollar pro Benutzer und Monat sowie Zugeständnisse bei anderen Produkten sind keine Seltenheit. Microsoft bietet strategischen Kunden Unterstützung bei der Vorbereitung und Implementierung von M365 Copilot.

Die Produkte sollten nicht ausschließlich anhand der Lizenzkosten beurteilt werden. Ebenso ist zu berücksichtigen, dass ChatGPT und Copilot unterschiedliche Ansätze für die Implementierung, Bereitstellung, das Änderungsmanagement sowie die Governance verfolgen. Deshalb sollte ein Anbieter bevorzugt werden, der den Anforderungen den Mitarbeiter entspricht und diesen dabei hilft, die digitale Arbeitserfahrung durch KI zu verbessern.

KI fürs Business: ChatGPT Enterprise und Microsoft 365 Copilot im Vergleich​ Weiterlesen »

Mobile Device Management: Was bedeuten BYOD, CYOD, COPE und COBO?​

Allgemein

Für eine erfolgreiche Enterprise-Mobility-Strategie braucht es klare Vorgaben dazu, welche Geräte wie genutzt werden dürfen. Foto: goodluz – shutterstock.com Schon seit geraumer Zeit sind Smartphones und Tablets aus dem Unternehmensalltag nicht mehr wegzudenken. Es gibt dabei verschiedene Methoden zur Gerätebereitstellung und -nutzung, die Unternehmen dabei unterstützen, die Gefahren rund um Enterprise Mobility mit Hilfe von Mobile Device Management und anderen Tools zu umschiffen. Hier ein Überblick über die verschiedenen Strategien, deren Vor- und Nachteile, sowie erforderliche Maßnahmen in puncto Management und Absicherung. COBO – Corporate Owned, Business Only Bei einer COBO-Strategie stellt das Unternehmen dem Mitarbeiter das mobile Device einschließlich Mobilfunkvertrag bereit. Als Firmengerät darf dieser es ausschließlich beruflich einsetzen, eine private Nutzung ist verboten und Aktionen wie die Installation von unternehmensfremden Apps werden möglicherweise technisch verhindert. COBO stammt aus einer Zeit als Endgeräte und Mobilfunkverträge (inklusive Daten) noch Luxus waren, weshalb zunächst vorrangig Manager mit einem Blackberry, Palm oder Windows Phone ausgestattet wurden. Mit den aufkeimenden Enterprise-Mobility-Initiativen kam dann der Plan, Mobilgeräte ähnlich wie PCs in der Belegschaft auszurollen und zu verwalten. Vorteile von COBO: Hohe Sicherheit durch die Möglichkeit, die Geräte samt Apps und Daten vollständig zu kontrollieren und gegebenenfalls zu löschen (häufig in streng regulierten Branchen) Einfachere Beschaffung, Support, Verwaltung und App-Entwicklung dank (relativ) einheitlichem Gerätebestand Auswahl geeigneter Devices Nachteile von COBO: Geringe Wirkung des Geräts als Incentive, da nur beruflich nutzbar Höhere Anschaffungskosten Geringere Sorgfalt im Umgang, da “nur” Firmeneigentum Verlustgefahr: Mitarbeiter tragen häufig zwei Geräte mit sich BYOD – Bring Your Own Device Bei einer BYOD-Strategie nutzt der Mitarbeiter sein privates Endgerät auch beruflich. Er bezahlt es selbst, es ist jedoch nicht unüblich, dass der Arbeitgeber einen Zuschuss zum Kaufpreis und Mobilfunkvertrag beisteuert. Die Hauptgründe, dass findige Manager bereits vor mehr als zehn Jahren das Konzept BYOD ersannen, waren finanzielle Überlegungen und die Hoffnung auf mehr Sorgfalt und häufigere Nutzung. Plus die Erkenntnis, dass die Topmanager, die ihr privat gekauftes iPhone wegen der tollen Usability auch beruflich nutzen wollen (Consumerization), nur die Spitze einer Entwicklung sind, die schwer zu stoppen ist, dafür aber positiv genutzt werden kann. Vorteile von BYOD: Mehr Sorgfalt im Umgang mit dem privaten Device Kenntnisse der Mitarbeiter von Bedienung und gegebenenfalls Wartung Aufwändige und teure Beschaffung entfällt (Nutzung für berufliche Zwecke auch in der Freizeit) Nachteile von BYOD: Trennung von privaten und geschäftlichen Daten unbedingt erforderlich (Arbeitsprofil) Höherer Aufwand bei Absicherung und Verwaltung Gefahr von Schatten-IT durch nicht verwaltete private Endgeräte Gefahr von Kompatibilitätsproblemen COPE – Corporate Owned, Personally Enabled Bei einer COPE-Strategie stellt das Unternehmen seinen Mitarbeitern ein mobiles Endgerät samt Mobilfunkvertrag zur Verfügung, dieses darf allerdings auch privat genutzt werden. Das COPE-Modell ist damit im Grunde genommen ein Versuch, die Vorteile von COBO und BYOD zu kombinieren und die damit verbundenen Nachteile zu vermeiden. Vorteile von COPE: Einfachere Beschaffung, Support, Verwaltung und App-Entwicklung dank (relativ) einheitlichem Gerätebestands (Vor)Auswahl geeigneter Devices Mehr Sorgfalt im Umgang mit dem Device Kenntnisse der Mitarbeiter von Bedienung und gegebenenfalls Wartung Wirkung als Incentive für Mitarbeiter (Nutzung für berufliche Zwecke auch in der Freizeit) Nachteile von COPE: Trennung von privaten und geschäftlichen Daten unbedingt erforderlich (Arbeitsprofil) Höherer Aufwand bei Absicherung und Verwaltung CYOD – Choose Your Own DeviceCYOD ist ein Versuch, die Vorteile von BYOD zu nutzen, ohne Nachteile wie Kompatibilitätsprobleme durch eine zu hohe Endgerätevielfalt in Kauf zu nehmen: Der Mitarbeiter wählt sein berufliches, aber auch privat nutzbares Devices aus einer Liste von unterstützten Geräten. Dabei ist es möglich, dass der Anwender einen Aufpreis bezahlt, um ein hochwertigeres Gerät als ihm zusteht, zu erwerben. Auf diese Weise stellt das Unternehmen sicher, dass sich das Device für die Nutzung im Business-Umfeld sowie für etwaige Enterprise-Apps eignet und abgesichert ist, ohne den Anwender zu sehr bei der Gerätewahl einzuschränken. COSU – Corporate Owned, Single UseEine Variante von COBO ist COSU. Hier handelt es sich um reine Firmengeräte, die nur für eine spezifische Anwendung oder Anwendungsfeldern bestimmt sind und daher auch nicht unbedingt einem einzelnen Mitarbeiter zugeordnet werden müssen. Beispiele dafür sind etwa Demogeräte in Elektromärkten und Messen, Smartphones mit Scanner-Funktion in Lager und Logistik oder Tablets für die Aufnahme von Schäden (z.B. Mietwagen, Versicherungsgutachter) oder Bestellungen (Gastronomie). Die COSU-Nutzung wird von Android und iOS durch einen speziellen Kiosk-Modus unterstützt, die den Gerätezugriff auf eine Anwendung oder ein Anwendungsgebiet einschränkt.Welche Methode für welchen Zweck?Nachdem die Betriebssystemanbieter Apple und Google, OEMs wie Samsung und verschiedene Device-Management-Anbieter die technischen Grundlagen für eine sichere und komfortable Verwaltung trotz beruflicher und privater Nutzung geschaffen haben, sind heutzutage vor allem COPE, CYOD und – weniger – BYOD weit verbreitet.Dennoch ist es bei diesen Betriebsformen ohne hohen Aufwand noch immer nicht hundertprozentig möglich, den Schutz geschäftlicher Daten rein technisch zu gewährleisten. Oft zitiertes Beispiel ist der Upload von beruflichen Kontaktdaten in die Cloud bei der privaten Nutzung von WhatsApp oder Clubhouse. Aus diesem Grund kommen beispielsweise in stark regulierten Branchen wie Banken oder Versicherungen oder im öffentlichen Bereich rein beruflich genutzte und stark abgeriegelte mobile Endgeräte zu Einsatz. Ähnlich verhält es sich in Tätigkeitsfeldern, wo sehr spezialisierte, oft gehärtete Devices verwendet werden, die sich nicht unbedingt für die private Nutzung anbieten. 

Mobile Device Management: Was bedeuten BYOD, CYOD, COPE und COBO?​ Für eine erfolgreiche Enterprise-Mobility-Strategie braucht es klare Vorgaben dazu, welche Geräte wie genutzt werden dürfen.
Foto: goodluz – shutterstock.com

Schon seit geraumer Zeit sind Smartphones und Tablets aus dem Unternehmensalltag nicht mehr wegzudenken. Es gibt dabei verschiedene Methoden zur Gerätebereitstellung und -nutzung, die Unternehmen dabei unterstützen, die Gefahren rund um Enterprise Mobility mit Hilfe von Mobile Device Management und anderen Tools zu umschiffen. Hier ein Überblick über die verschiedenen Strategien, deren Vor- und Nachteile, sowie erforderliche Maßnahmen in puncto Management und Absicherung.

COBO – Corporate Owned, Business Only

Bei einer COBO-Strategie stellt das Unternehmen dem Mitarbeiter das mobile Device einschließlich Mobilfunkvertrag bereit. Als Firmengerät darf dieser es ausschließlich beruflich einsetzen, eine private Nutzung ist verboten und Aktionen wie die Installation von unternehmensfremden Apps werden möglicherweise technisch verhindert.

COBO stammt aus einer Zeit als Endgeräte und Mobilfunkverträge (inklusive Daten) noch Luxus waren, weshalb zunächst vorrangig Manager mit einem Blackberry, Palm oder Windows Phone ausgestattet wurden. Mit den aufkeimenden Enterprise-Mobility-Initiativen kam dann der Plan, Mobilgeräte ähnlich wie PCs in der Belegschaft auszurollen und zu verwalten.

Vorteile von COBO:

Hohe Sicherheit durch die Möglichkeit, die Geräte samt Apps und Daten vollständig zu kontrollieren und gegebenenfalls zu löschen (häufig in streng regulierten Branchen)

Einfachere Beschaffung, Support, Verwaltung und App-Entwicklung dank (relativ) einheitlichem Gerätebestand

Auswahl geeigneter Devices

Nachteile von COBO:

Geringe Wirkung des Geräts als Incentive, da nur beruflich nutzbar

Höhere Anschaffungskosten

Geringere Sorgfalt im Umgang, da “nur” Firmeneigentum

Verlustgefahr: Mitarbeiter tragen häufig zwei Geräte mit sich

BYOD – Bring Your Own Device

Bei einer BYOD-Strategie nutzt der Mitarbeiter sein privates Endgerät auch beruflich. Er bezahlt es selbst, es ist jedoch nicht unüblich, dass der Arbeitgeber einen Zuschuss zum Kaufpreis und Mobilfunkvertrag beisteuert.

Die Hauptgründe, dass findige Manager bereits vor mehr als zehn Jahren das Konzept BYOD ersannen, waren finanzielle Überlegungen und die Hoffnung auf mehr Sorgfalt und häufigere Nutzung. Plus die Erkenntnis, dass die Topmanager, die ihr privat gekauftes iPhone wegen der tollen Usability auch beruflich nutzen wollen (Consumerization), nur die Spitze einer Entwicklung sind, die schwer zu stoppen ist, dafür aber positiv genutzt werden kann.

Vorteile von BYOD:

Mehr Sorgfalt im Umgang mit dem privaten Device

Kenntnisse der Mitarbeiter von Bedienung und gegebenenfalls Wartung

Aufwändige und teure Beschaffung entfällt

(Nutzung für berufliche Zwecke auch in der Freizeit)

Nachteile von BYOD:

Trennung von privaten und geschäftlichen Daten unbedingt erforderlich (Arbeitsprofil)

Höherer Aufwand bei Absicherung und Verwaltung

Gefahr von Schatten-IT durch nicht verwaltete private Endgeräte

Gefahr von Kompatibilitätsproblemen

COPE – Corporate Owned, Personally Enabled

Bei einer COPE-Strategie stellt das Unternehmen seinen Mitarbeitern ein mobiles Endgerät samt Mobilfunkvertrag zur Verfügung, dieses darf allerdings auch privat genutzt werden. Das COPE-Modell ist damit im Grunde genommen ein Versuch, die Vorteile von COBO und BYOD zu kombinieren und die damit verbundenen Nachteile zu vermeiden.

Vorteile von COPE:

Einfachere Beschaffung, Support, Verwaltung und App-Entwicklung dank (relativ) einheitlichem Gerätebestands

(Vor)Auswahl geeigneter Devices

Mehr Sorgfalt im Umgang mit dem Device

Kenntnisse der Mitarbeiter von Bedienung und gegebenenfalls Wartung

Wirkung als Incentive für Mitarbeiter

(Nutzung für berufliche Zwecke auch in der Freizeit)

Nachteile von COPE:

Trennung von privaten und geschäftlichen Daten unbedingt erforderlich (Arbeitsprofil)

Höherer Aufwand bei Absicherung und Verwaltung

CYOD – Choose Your Own DeviceCYOD ist ein Versuch, die Vorteile von BYOD zu nutzen, ohne Nachteile wie Kompatibilitätsprobleme durch eine zu hohe Endgerätevielfalt in Kauf zu nehmen: Der Mitarbeiter wählt sein berufliches, aber auch privat nutzbares Devices aus einer Liste von unterstützten Geräten. Dabei ist es möglich, dass der Anwender einen Aufpreis bezahlt, um ein hochwertigeres Gerät als ihm zusteht, zu erwerben. Auf diese Weise stellt das Unternehmen sicher, dass sich das Device für die Nutzung im Business-Umfeld sowie für etwaige Enterprise-Apps eignet und abgesichert ist, ohne den Anwender zu sehr bei der Gerätewahl einzuschränken. COSU – Corporate Owned, Single UseEine Variante von COBO ist COSU. Hier handelt es sich um reine Firmengeräte, die nur für eine spezifische Anwendung oder Anwendungsfeldern bestimmt sind und daher auch nicht unbedingt einem einzelnen Mitarbeiter zugeordnet werden müssen. Beispiele dafür sind etwa Demogeräte in Elektromärkten und Messen, Smartphones mit Scanner-Funktion in Lager und Logistik oder Tablets für die Aufnahme von Schäden (z.B. Mietwagen, Versicherungsgutachter) oder Bestellungen (Gastronomie). Die COSU-Nutzung wird von Android und iOS durch einen speziellen Kiosk-Modus unterstützt, die den Gerätezugriff auf eine Anwendung oder ein Anwendungsgebiet einschränkt.Welche Methode für welchen Zweck?Nachdem die Betriebssystemanbieter Apple und Google, OEMs wie Samsung und verschiedene Device-Management-Anbieter die technischen Grundlagen für eine sichere und komfortable Verwaltung trotz beruflicher und privater Nutzung geschaffen haben, sind heutzutage vor allem COPE, CYOD und – weniger – BYOD weit verbreitet.Dennoch ist es bei diesen Betriebsformen ohne hohen Aufwand noch immer nicht hundertprozentig möglich, den Schutz geschäftlicher Daten rein technisch zu gewährleisten. Oft zitiertes Beispiel ist der Upload von beruflichen Kontaktdaten in die Cloud bei der privaten Nutzung von WhatsApp oder Clubhouse. Aus diesem Grund kommen beispielsweise in stark regulierten Branchen wie Banken oder Versicherungen oder im öffentlichen Bereich rein beruflich genutzte und stark abgeriegelte mobile Endgeräte zu Einsatz. Ähnlich verhält es sich in Tätigkeitsfeldern, wo sehr spezialisierte, oft gehärtete Devices verwendet werden, die sich nicht unbedingt für die private Nutzung anbieten.

Mobile Device Management: Was bedeuten BYOD, CYOD, COPE und COBO?​ Weiterlesen »

C-Level-Bewerbung: So gelingt der Einstieg ins Topmanagement​

Allgemein

Wer ins obere Management aufsteigen will, sollte seine Entscheidung gut abwägen und sich nicht nur von hohem Gehalt und der Möglichkeit zum Karrieresprung leiten lassen. Foto: marvent – shutterstock.comJe weiter Sie in Ihrer Karriere kommen, desto komplizierter werden in der Regel die sich einstellenden und zu erwartenden Prozesse. Und auch die Entscheidungen, die man für sich selbst treffen muss, nehmen an Komplexität zu. Hinzu kommt noch, dass rund 80 Prozent der vakanten Managementpositionen erst gar nicht öffentlich ausgeschrieben werden. Wer also nicht auf Headhunter-Anfragen warten oder darauf vertrauen will, dass die richtige Position von selbst zugeflogen kommt, muss sich den “verdeckten Stellenmarkt” erschließen. Dafür sollten Sie die Initiative ergreifen und sich aktiv an Unternehmen wenden. Die langjährige Erfahrung in der Karriereberatung hat uns gelehrt, dass auf diesem Weg die meisten Vorstellungsgespräche und konkreten Stellenangebote zu erreichen sind. Hindernisse auf dem Weg zum C-LevelDoch selbst wenn schon ein interessantes Angebot oder gar mehrere in Aussicht stehen, gilt es noch einige Hürden zu nehmen. Dabei ist vor allem eines ganz wichtig zu berücksichtigen: Nicht nur Sie bewerben sich. “Das Machtverhältnis zwischen Unternehmen und Bewerbern hat sich umgekehrt”, titelte die FAZ schon 2018. Und natürlich geht die Tendenz dahin, dass zunehmend mehr Stellen ausgeschrieben werden als es Bewerber gibt. Jedoch alleine diese Zahlen zu betrachten, führt in die Irre. Denn asymmetrische Machtverhältnisse ergeben sich durch das Auswahlverfahren, dessen Ablauf meist von Unternehmensseite bestimmt wird und nicht aus einem Überangebot an offenen Stellen.Die wichtigste Hürde, die Bewerberinnen und Bewerber nehmen müssen, ist daher, die bestehende Machtasymmetrie in Machtausgewogenheit zu verwandeln, um so an notwendige Informationen zu kommen, wodurch sie die bessere Entscheidung treffen können. Das Gute daran: Bereits der Ablauf des Auswahlprozesses liefert viele Erkenntnisse über das Unternehmen. Je nachdem, ob sich die Unternehmensvertreter lediglich als Moderatoren verstehen und gleichwertige Partner aufeinandertreffen oder im Auswahlprozess autokratisch agiert und die Machtsymmetrie offen genutzt wird, erkennt der Bewerber die dort vorherrschende Kultur. Auch der Vertrag, der am Ende des Auswahlprozesses vorgelegt wird, und die Art, wie die Verhandlungen darüber geführt werden, lassen viele Rückschlüsse zu. Aspiranten sollten auch das als Teil des Prozesses sehen, der wirklich erst mit der Unterzeichnung des Arbeitsvertrags abgeschlossen ist. Machtbalance ergibt sich am ehesten, wenn Alternativen vorhanden sind oder Sie es auch als Alternative sehen, aus den Verhandlungen auszusteigen. Ansonsten ist es allzu menschlich, sich die einzige Option schönzureden und Negatives und Riskantes auszublenden. Das ist auch eine Erklärung dafür, warum Manager länger an einer Position in einem Unternehmen festhalten, als sie ursprünglich wollten. Mehrere Optionen sind daher immer lohnend, auch wenn man sie am Ende gar nicht nutzt. Wer Alternativen hat, ist mit den Gesprächspartnern kritischer und will es ganz genau wissen. Cultural Fit für Führungskräfte Nehmen wir beispielsweise die Unternehmenskultur: Eine Führungskraft kann nur dann erfolgreich sein und arbeiten, wenn sie menschlich zum Betrieb passt. Ansonsten profitieren beide Seiten am Ende nicht von der Zusammenarbeit. Diese kulturelle Übereinstimmung spielt laut Studien eine immer größer werdende Rolle im Recruiting-Prozess. Aber auch der Bewerber sollte im Vorfeld seiner Bewerbung sondieren, ob er sich mit dem Unternehmen identifizieren kann. Eine solche Überprüfung könnte zum Beispiel in Sachen Unternehmenstyp mit der Fragestellung starten: Handelt es sich um einen Konzern, ein mittelständisches Unternehmen oder ein Start-up? Wird es vom Eigentümer geführt, oder handelt es sich um eine Aktiengesellschaft? Welche Nationalität hat der Mutterkonzern? Die Unternehmensform und Eigentümerstrukturen sagen schon viel über einen potenziellen Arbeitgeber aus. Aber Achtung: Natürlich gibt es innerhalb der Typen große Abweichungen. Die meisten Informationen bekommen Sie über persönliche Gespräche sowie durch Ehrlichkeit und Authentizität. Es bringt Ihnen nichts, sich um jeden Preis gut zu “verkaufen”. Der Tribut ist am Ende zu hoch. Wahre Aussagen erhöhen hingegen für jeden die Erfolgsaussicht, individuell die richtige Entscheidung zu treffen. “Die Unternehmen täuschen doch auch”, werden Sie jetzt vielleicht denken – Headhunter loben ohnehin immer beide Seiten in den Himmel. Leider ist dies teilweise wirklich der Fall. Die Firmen müssen dann aber auch mit den Konsequenzen leben, mit Fehlbesetzung oder einer hohen Fluktuation. Transparenz sowie die deutlich Aussage, welche Anforderungen Sie vielleicht nicht erfüllen, bringen mehr. Damit gewinnt man Glaubwürdigkeit und reduziert den Druck, sämtliche Anforderungen erfüllen zu müssen. Außerdem wird der Gesprächspartner auf diese Weise mit in die Verantwortung genommen. Auf der anderen Seite kann diese Offenheit so auch besser eingefordert werden. Fragen wie “Was wäre für meine Entscheidung noch wichtig zu wissen?” oder “Worüber haben wir noch nicht gesprochen, was für mich wichtig sein könnte?” Versuchen Sie mit so vielen Menschen wie möglich zu sprechen – auch mit Mitarbeitenden. Der eigenen Intuition vertrauenSie können alle Erkenntnisse, die Sie durch die Gespräche gewinnen in einer Tabelle beziehungsweise Entscheidungsmatrix festhalten und so versuchen, den komplexen Entscheidungsprozess für eine neue Herausforderung zu systematisieren. Das ist aber nur ein Zwischenschritt. Vergessen Sie nicht, Ihre Intuition miteinzubeziehen. Schnell sehen wir aus Mangel an Alternativen nur, was wir gerne sehen wollen, oder lassen uns vom hohen Gehalt und dem großen Karrieresprung verlocken. Dabei greift unsere Bauchentscheidung auch auf gesammeltes Wissen zurück – in diesem Fall auf gefühltes Wissen, wovon gestandene Führungskräfte im Laufe ihrer Karriere viel gesammelt haben. Dieses gefühlte Wissen sollte daher in den Entscheidungsprozess mit einfließen, damit man sich später auch nichts vorzuwerfen hat. Sie sehen: Viel wichtiger, als den Auswahlprozess für eine Position im oberen Management unbedingt “zu bestehen”, ist es, die für Sie wirklich passende Stelle im richtigen Unternehmen zu finden. Videokonferenzen – 5 Tipps fürs virtuelle BewerbungsgesprächWie Sie im Online-Interview richtig agierenImmer mehr Unternehmen und HR-Abteilungen gehen dazu über, Bewerbungsgespräche mit Kandidaten via Videokonferenz zu führen. Was bei virtuellen Interviews zu beachten ist, lesen Sie hier. Technik testenTesten Sie im Voraus die Technik – und planen Sie, für den Fall, dass ein technisches Problem auftritt, einen zeitlichen Puffer ein. Treten Sie dem virtuellen Meeting bereits einige Minuten früher bei, um Ihre Verbindung zu testen und den optimalen Standort für die Videoübertragung zu finden.Für Gesprächsdynamik sorgenStellen Sie sicher, dass alle Beteiligten des Gesprächs ihre Rolle kennen und wissen, auf was sie ihre Aufmerksamkeit richten sollen. Das sorgt für eine dynamischere und überzeugendere Interview-Erfahrung, die sowohl für Sie als auch für den Kandidaten ein aufschlussreiches Gespräch mit echtem Mehrwert schafft.Eine ruhige Gesprächsatmosphäre schaffenSuchen Sie einen ruhigen, privaten und gut beleuchteten Ort, der frei von möglichen Unterbrechungen ist. Schalten Sie Ihre Messaging- und E-Mail-Benachrichtigungen aus, damit Sie während des Gesprächs nicht abgelenkt werden.Kamera immer auf onKameras sollten immer eingeschaltet sein, und während einer der Teilnehmer spricht, sollten Sie die Stummschaltung aktivieren, um jegliche Hintergrundgeräusche zu minimieren.Auf die Körpersprache achtenAchten Sie während des Gesprächs sowohl auf Ihre als auch auf die Körpersprache der Teilnehmenden. In einem virtuellen Interview sind nicht alle Körperbewegungen und -signale ohne Weiteres wie in einem persönlichen Gespräch erkennbar – was diejenigen Signale und Bewegungen, die erkennbar sind, umso wichtiger macht. 

C-Level-Bewerbung: So gelingt der Einstieg ins Topmanagement​ Wer ins obere Management aufsteigen will, sollte seine Entscheidung gut abwägen und sich nicht nur von hohem Gehalt und der Möglichkeit zum Karrieresprung leiten lassen.
Foto: marvent – shutterstock.comJe weiter Sie in Ihrer Karriere kommen, desto komplizierter werden in der Regel die sich einstellenden und zu erwartenden Prozesse. Und auch die Entscheidungen, die man für sich selbst treffen muss, nehmen an Komplexität zu. Hinzu kommt noch, dass rund 80 Prozent der vakanten Managementpositionen erst gar nicht öffentlich ausgeschrieben werden. Wer also nicht auf Headhunter-Anfragen warten oder darauf vertrauen will, dass die richtige Position von selbst zugeflogen kommt, muss sich den “verdeckten Stellenmarkt” erschließen. Dafür sollten Sie die Initiative ergreifen und sich aktiv an Unternehmen wenden. Die langjährige Erfahrung in der Karriereberatung hat uns gelehrt, dass auf diesem Weg die meisten Vorstellungsgespräche und konkreten Stellenangebote zu erreichen sind. Hindernisse auf dem Weg zum C-LevelDoch selbst wenn schon ein interessantes Angebot oder gar mehrere in Aussicht stehen, gilt es noch einige Hürden zu nehmen. Dabei ist vor allem eines ganz wichtig zu berücksichtigen: Nicht nur Sie bewerben sich. “Das Machtverhältnis zwischen Unternehmen und Bewerbern hat sich umgekehrt”, titelte die FAZ schon 2018. Und natürlich geht die Tendenz dahin, dass zunehmend mehr Stellen ausgeschrieben werden als es Bewerber gibt. Jedoch alleine diese Zahlen zu betrachten, führt in die Irre. Denn asymmetrische Machtverhältnisse ergeben sich durch das Auswahlverfahren, dessen Ablauf meist von Unternehmensseite bestimmt wird und nicht aus einem Überangebot an offenen Stellen.Die wichtigste Hürde, die Bewerberinnen und Bewerber nehmen müssen, ist daher, die bestehende Machtasymmetrie in Machtausgewogenheit zu verwandeln, um so an notwendige Informationen zu kommen, wodurch sie die bessere Entscheidung treffen können. Das Gute daran: Bereits der Ablauf des Auswahlprozesses liefert viele Erkenntnisse über das Unternehmen. Je nachdem, ob sich die Unternehmensvertreter lediglich als Moderatoren verstehen und gleichwertige Partner aufeinandertreffen oder im Auswahlprozess autokratisch agiert und die Machtsymmetrie offen genutzt wird, erkennt der Bewerber die dort vorherrschende Kultur. Auch der Vertrag, der am Ende des Auswahlprozesses vorgelegt wird, und die Art, wie die Verhandlungen darüber geführt werden, lassen viele Rückschlüsse zu. Aspiranten sollten auch das als Teil des Prozesses sehen, der wirklich erst mit der Unterzeichnung des Arbeitsvertrags abgeschlossen ist. Machtbalance ergibt sich am ehesten, wenn Alternativen vorhanden sind oder Sie es auch als Alternative sehen, aus den Verhandlungen auszusteigen. Ansonsten ist es allzu menschlich, sich die einzige Option schönzureden und Negatives und Riskantes auszublenden. Das ist auch eine Erklärung dafür, warum Manager länger an einer Position in einem Unternehmen festhalten, als sie ursprünglich wollten. Mehrere Optionen sind daher immer lohnend, auch wenn man sie am Ende gar nicht nutzt. Wer Alternativen hat, ist mit den Gesprächspartnern kritischer und will es ganz genau wissen. Cultural Fit für Führungskräfte Nehmen wir beispielsweise die Unternehmenskultur: Eine Führungskraft kann nur dann erfolgreich sein und arbeiten, wenn sie menschlich zum Betrieb passt. Ansonsten profitieren beide Seiten am Ende nicht von der Zusammenarbeit. Diese kulturelle Übereinstimmung spielt laut Studien eine immer größer werdende Rolle im Recruiting-Prozess. Aber auch der Bewerber sollte im Vorfeld seiner Bewerbung sondieren, ob er sich mit dem Unternehmen identifizieren kann. Eine solche Überprüfung könnte zum Beispiel in Sachen Unternehmenstyp mit der Fragestellung starten: Handelt es sich um einen Konzern, ein mittelständisches Unternehmen oder ein Start-up? Wird es vom Eigentümer geführt, oder handelt es sich um eine Aktiengesellschaft? Welche Nationalität hat der Mutterkonzern? Die Unternehmensform und Eigentümerstrukturen sagen schon viel über einen potenziellen Arbeitgeber aus. Aber Achtung: Natürlich gibt es innerhalb der Typen große Abweichungen. Die meisten Informationen bekommen Sie über persönliche Gespräche sowie durch Ehrlichkeit und Authentizität. Es bringt Ihnen nichts, sich um jeden Preis gut zu “verkaufen”. Der Tribut ist am Ende zu hoch. Wahre Aussagen erhöhen hingegen für jeden die Erfolgsaussicht, individuell die richtige Entscheidung zu treffen. “Die Unternehmen täuschen doch auch”, werden Sie jetzt vielleicht denken – Headhunter loben ohnehin immer beide Seiten in den Himmel. Leider ist dies teilweise wirklich der Fall. Die Firmen müssen dann aber auch mit den Konsequenzen leben, mit Fehlbesetzung oder einer hohen Fluktuation. Transparenz sowie die deutlich Aussage, welche Anforderungen Sie vielleicht nicht erfüllen, bringen mehr. Damit gewinnt man Glaubwürdigkeit und reduziert den Druck, sämtliche Anforderungen erfüllen zu müssen. Außerdem wird der Gesprächspartner auf diese Weise mit in die Verantwortung genommen. Auf der anderen Seite kann diese Offenheit so auch besser eingefordert werden. Fragen wie “Was wäre für meine Entscheidung noch wichtig zu wissen?” oder “Worüber haben wir noch nicht gesprochen, was für mich wichtig sein könnte?” Versuchen Sie mit so vielen Menschen wie möglich zu sprechen – auch mit Mitarbeitenden. Der eigenen Intuition vertrauenSie können alle Erkenntnisse, die Sie durch die Gespräche gewinnen in einer Tabelle beziehungsweise Entscheidungsmatrix festhalten und so versuchen, den komplexen Entscheidungsprozess für eine neue Herausforderung zu systematisieren. Das ist aber nur ein Zwischenschritt. Vergessen Sie nicht, Ihre Intuition miteinzubeziehen. Schnell sehen wir aus Mangel an Alternativen nur, was wir gerne sehen wollen, oder lassen uns vom hohen Gehalt und dem großen Karrieresprung verlocken. Dabei greift unsere Bauchentscheidung auch auf gesammeltes Wissen zurück – in diesem Fall auf gefühltes Wissen, wovon gestandene Führungskräfte im Laufe ihrer Karriere viel gesammelt haben. Dieses gefühlte Wissen sollte daher in den Entscheidungsprozess mit einfließen, damit man sich später auch nichts vorzuwerfen hat. Sie sehen: Viel wichtiger, als den Auswahlprozess für eine Position im oberen Management unbedingt “zu bestehen”, ist es, die für Sie wirklich passende Stelle im richtigen Unternehmen zu finden. Videokonferenzen – 5 Tipps fürs virtuelle BewerbungsgesprächWie Sie im Online-Interview richtig agierenImmer mehr Unternehmen und HR-Abteilungen gehen dazu über, Bewerbungsgespräche mit Kandidaten via Videokonferenz zu führen. Was bei virtuellen Interviews zu beachten ist, lesen Sie hier. Technik testenTesten Sie im Voraus die Technik – und planen Sie, für den Fall, dass ein technisches Problem auftritt, einen zeitlichen Puffer ein. Treten Sie dem virtuellen Meeting bereits einige Minuten früher bei, um Ihre Verbindung zu testen und den optimalen Standort für die Videoübertragung zu finden.Für Gesprächsdynamik sorgenStellen Sie sicher, dass alle Beteiligten des Gesprächs ihre Rolle kennen und wissen, auf was sie ihre Aufmerksamkeit richten sollen. Das sorgt für eine dynamischere und überzeugendere Interview-Erfahrung, die sowohl für Sie als auch für den Kandidaten ein aufschlussreiches Gespräch mit echtem Mehrwert schafft.Eine ruhige Gesprächsatmosphäre schaffenSuchen Sie einen ruhigen, privaten und gut beleuchteten Ort, der frei von möglichen Unterbrechungen ist. Schalten Sie Ihre Messaging- und E-Mail-Benachrichtigungen aus, damit Sie während des Gesprächs nicht abgelenkt werden.Kamera immer auf onKameras sollten immer eingeschaltet sein, und während einer der Teilnehmer spricht, sollten Sie die Stummschaltung aktivieren, um jegliche Hintergrundgeräusche zu minimieren.Auf die Körpersprache achtenAchten Sie während des Gesprächs sowohl auf Ihre als auch auf die Körpersprache der Teilnehmenden. In einem virtuellen Interview sind nicht alle Körperbewegungen und -signale ohne Weiteres wie in einem persönlichen Gespräch erkennbar – was diejenigen Signale und Bewegungen, die erkennbar sind, umso wichtiger macht.

C-Level-Bewerbung: So gelingt der Einstieg ins Topmanagement​ Weiterlesen »

Gemini: Google-AI im Webbrowser nutzen​

Allgemein

JarTee / Shutterstock.com 1. Gemini per Adresszeile öffnen Google Gemini läuft auf Windows-PCs und -Notebooks im Webbrowser. Sie können Microsoft Edge, Google Chrome, Opera oder eine Chromium-Alternative wie beispielsweise Brave oder Vivaldi dazu verwenden. Mit Chrome ab der Version 131 ist der Einsatz von Gemini besonders einfach: Sie geben das Zeichen @ in die Adresszeile ein und wählen „Mit Gemini chatten“ aus. Mit anderen Browsern funktioniert das nicht. Hier geben Sie gemini.google.com in die Adresszeile ein. IDG 2. Eingaben senden Sie können nun direkt im Adressfeld des Google-Browsers eine beliebige Frage stellen oder einen konkreten Befehl formulieren. IDG 3. Beispiel-Frage Beispiel-Frage: Wann kam Windows auf den Markt? Drücken Sie die Eingabetaste, um die Frage abzusenden. IDG 4. Antworte in neuem Tab Die Antwort auf die Frage zeigt Gemini nur Sekunden später in einem neuen Browserfenster an. Der Text ist strukturiert und formatiert. Das macht ihn gut lesbar und schnell erfassbar. Gutes Extra: Mit einem Klick auf das Lautsprechersymbol können Sie sich den Text auch vorlesen lassen. Oder Sie blenden mit „Vorschläge anzeigen“ alternative Entwürfe ein. IDG 5. Bilder hochladen & Spracheingabe nutzen Ebenso einfach verwenden Sie Bilder oder Spracheingaben für die KI von Gemini. Die Icons, über die Sie die Funktionen aufrufen, sehen Sie unten rechts neben dem Eingabefeld, in das Sie weitere Fragen eintippen können. Laden Sie ein Bild hoch, schreiben Sie etwas wie: Was kannst Du zu dem Bild sagen? und drücken Sie die Eingabetaste. Gemini analysiert das Bild und liefert Ihnen eine sehr zutreffende Beschreibung. Sogar Gegenstände wie in unserem Beispielbild etwa das Auto werden korrekt identifiziert. IDG (PC-Welt) 

Gemini: Google-AI im Webbrowser nutzen​ JarTee / Shutterstock.com

1. Gemini per Adresszeile öffnen

Google Gemini läuft auf Windows-PCs und -Notebooks im Webbrowser. Sie können Microsoft Edge, Google Chrome, Opera oder eine Chromium-Alternative wie beispielsweise Brave oder Vivaldi dazu verwenden.

Mit Chrome ab der Version 131 ist der Einsatz von Gemini besonders einfach: Sie geben das Zeichen @ in die Adresszeile ein und wählen „Mit Gemini chatten“ aus.

Mit anderen Browsern funktioniert das nicht. Hier geben Sie gemini.google.com in die Adresszeile ein.

IDG

2. Eingaben senden

Sie können nun direkt im Adressfeld des Google-Browsers eine beliebige Frage stellen oder einen konkreten Befehl formulieren.

IDG

3. Beispiel-Frage

Beispiel-Frage: Wann kam Windows auf den Markt? Drücken Sie die Eingabetaste, um die Frage abzusenden.

IDG

4. Antworte in neuem Tab

Die Antwort auf die Frage zeigt Gemini nur Sekunden später in einem neuen Browserfenster an. Der Text ist strukturiert und formatiert.

Das macht ihn gut lesbar und schnell erfassbar.

Gutes Extra: Mit einem Klick auf das Lautsprechersymbol können Sie sich den Text auch vorlesen lassen. Oder Sie blenden mit „Vorschläge anzeigen“ alternative Entwürfe ein.

IDG

5. Bilder hochladen & Spracheingabe nutzen

Ebenso einfach verwenden Sie Bilder oder Spracheingaben für die KI von Gemini. Die Icons, über die Sie die Funktionen aufrufen, sehen Sie unten rechts neben dem Eingabefeld, in das Sie weitere Fragen eintippen können.

Laden Sie ein Bild hoch, schreiben Sie etwas wie: Was kannst Du zu dem Bild sagen? und drücken Sie die Eingabetaste. Gemini analysiert das Bild und liefert Ihnen eine sehr zutreffende Beschreibung.

Sogar Gegenstände wie in unserem Beispielbild etwa das Auto werden korrekt identifiziert.

IDG

(PC-Welt)

Gemini: Google-AI im Webbrowser nutzen​ Weiterlesen »

KI-Funktionen in der Windows-Fotoanzeige nutzen – so geht’s​

Allgemein

AVM 1. Fotoanzeige öffnen Die Windows-Fotoanzeige lässt sich im Startmenü öffnen – entweder über das Suchfeld der Taskleiste oder mittels Doppelklick im Explorer auf eine unterstützte JPEG- oder PNG-Datei – sofern kein anderer Bildbetrachter installiert und auf die Dateien registriert ist. IDG 2. Foto öffnen Das betreffende Foto wird in einer Einzelansicht geöffnet. Mithilfe der Pfeiltasten scrollen Sie durch die Fotos – vor und zurück. Per Schieberegler vergrößern und verkleinern Sie die Ansicht. IDG 3. In den Bearbeitungsmodus wechseln Klicken Sie oben links auf die farbige Schaltfläche „Bearbeiten“, um in den Bearbeitungsmodus zu wechseln. Das Foto wird in einem neuen Fenster geöffnet und Sie sehen nun eine Leiste mit verschiedenen Werkzeugen. Das ganz rechts mit „AI“ gekennzeichnete Symbol gibt es nur auf Copilot+-PCs. IDG 4. AI-Funktion nutzen Sobald Sie die AI-Funktion erstmals mit einem Mausklick gestartet haben, sehen Sie einige Hinweise. Melden Sie sich über die Schaltfläche rechts unten mit Ihren Zugangsdaten bei Ihrem Microsoft-Konto an. IDG 5. Stil ändern Im rechten Seitenfenster finden Sie zahlreiche Gestaltungsoptionen Ihres Fotos. Sie können beispielsweise einen Stil wie „Wasserfarbe“ auswählen oder einen eigenen Stil beschreiben. Über den Schieberegler verändern Sie die Kreativität, das heißt den KI-Einfluss auf den Stil. IDG 6. Mehr Optionen Experimentieren Sie nach Belieben mit den verschiedenen Stilen und Ihrer Kreativität. Klicken Sie hierfür in das Feld „Alle umgestalten“, um sich zwei weitere Optionen anzeigen zu lassen. Wenn Sie „Nur Hintergrund“ oder „Nur Vordergrund“ auswählen, können Sie zum Beispiel das Hauptmotiv im Original belassen und lediglich die umgebenden Bereiche verändern. Sämtliche Änderungen lassen sich zurücknehmen und erneut anwenden. Gleichzeitig lässt sich das Foto in den Ursprungszustand zurücksetzen. Über die Schaltfläche „Speicheroption“ sichern Sie das fertige Foto im Original oder als Kopie. Sie landen anschließend wieder im Ansichtsfenster der Windows-Fotoanzeige. IDG 7. Störende Bereiche entfernen Die Windows-Fotoanzeige kann aber noch mehr – und das auf allen PCs und Notebooks mit Windows 11 24H2. Mithilfe von KI können Sie störende Bereiche in einem Bild entfernen und etwa durch den passenden Hintergrund ersetzen. Öffnen Sie ein Bild wie in Schritt 1 beschrieben im Ansichtsfenster. Im vorliegenden Beispiel hat die obere Klinge des Messers eine unschöne Lichtspiegelung, die entfernt werden soll. Wechseln Sie in den Bearbeitungsmodus und klicken Sie dort auf das Pinsel-Icon. Es öffnet sich ein neues Fenster. Auf der linken Seite finden Sie das Bild, auf der rechten Seite den Bereich „Generatives Löschen“. IDG Es stehen zwei Optionen zur Auswahl. Der standardmäßig aktivierte Schalter neben „Automatisch anwenden“ bewirkt, dass der mit dem Pinsel ausgewählte Bereich direkt gelöscht wird. Zudem lässt sich die Pinselgröße über den Schieberegler anpassen. Wenn Sie nun die Maus über einen beliebigen Teil des Bildes bewegen, verwandelt sich der Zeiger in einen rotierenden, schwarzweißen Kreis. Fahren Sie mit gedrückter linker Maustaste über den Bildbereich, den Sie entfernen wollen. Ihre Auswahl wird daraufhin schraffiert dargestellt. Sobald Sie die Maustaste wieder loslassen, startet der automatische Löschvorgang. Nach kurzer Zeit hat die KI-Funktion den festgelegten Bereich entfernt und ihn mit einem passenden Hintergrund aufgefüllt. Je nach Form und Farbe der gelöschten Objekte kann es sein, dass Sie den Vorgang wiederholen müssen. Speichern Sie das bearbeitete Foto. (PC-Welt) 

KI-Funktionen in der Windows-Fotoanzeige nutzen – so geht’s​ AVM

1. Fotoanzeige öffnen

Die Windows-Fotoanzeige lässt sich im Startmenü öffnen – entweder über das Suchfeld der Taskleiste oder mittels Doppelklick im Explorer auf eine unterstützte JPEG- oder PNG-Datei – sofern kein anderer Bildbetrachter installiert und auf die Dateien registriert ist.

IDG

2. Foto öffnen

Das betreffende Foto wird in einer Einzelansicht geöffnet. Mithilfe der Pfeiltasten scrollen Sie durch die Fotos – vor und zurück.

Per Schieberegler vergrößern und verkleinern Sie die Ansicht.

IDG

3. In den Bearbeitungsmodus wechseln

Klicken Sie oben links auf die farbige Schaltfläche „Bearbeiten“, um in den Bearbeitungsmodus zu wechseln. Das Foto wird in einem neuen Fenster geöffnet und Sie sehen nun eine Leiste mit verschiedenen Werkzeugen.

Das ganz rechts mit „AI“ gekennzeichnete Symbol gibt es nur auf Copilot+-PCs.

IDG

4. AI-Funktion nutzen

Sobald Sie die AI-Funktion erstmals mit einem Mausklick gestartet haben, sehen Sie einige Hinweise. Melden Sie sich über die Schaltfläche rechts unten mit Ihren Zugangsdaten bei Ihrem Microsoft-Konto an.

IDG

5. Stil ändern

Im rechten Seitenfenster finden Sie zahlreiche Gestaltungsoptionen Ihres Fotos. Sie können beispielsweise einen Stil wie „Wasserfarbe“ auswählen oder einen eigenen Stil beschreiben.

Über den Schieberegler verändern Sie die Kreativität, das heißt den KI-Einfluss auf den Stil.

IDG

6. Mehr Optionen

Experimentieren Sie nach Belieben mit den verschiedenen Stilen und Ihrer Kreativität. Klicken Sie hierfür in das Feld „Alle umgestalten“, um sich zwei weitere Optionen anzeigen zu lassen.

Wenn Sie „Nur Hintergrund“ oder „Nur Vordergrund“ auswählen, können Sie zum Beispiel das Hauptmotiv im Original belassen und lediglich die umgebenden Bereiche verändern.

Sämtliche Änderungen lassen sich zurücknehmen und erneut anwenden. Gleichzeitig lässt sich das Foto in den Ursprungszustand zurücksetzen.

Über die Schaltfläche „Speicheroption“ sichern Sie das fertige Foto im Original oder als Kopie. Sie landen anschließend wieder im Ansichtsfenster der Windows-Fotoanzeige.

IDG

7. Störende Bereiche entfernen

Die Windows-Fotoanzeige kann aber noch mehr – und das auf allen PCs und Notebooks mit Windows 11 24H2.

Mithilfe von KI können Sie störende Bereiche in einem Bild entfernen und etwa durch den passenden Hintergrund ersetzen. Öffnen Sie ein Bild wie in Schritt 1 beschrieben im Ansichtsfenster.

Im vorliegenden Beispiel hat die obere Klinge des Messers eine unschöne Lichtspiegelung, die entfernt werden soll. Wechseln Sie in den Bearbeitungsmodus und klicken Sie dort auf das Pinsel-Icon.

Es öffnet sich ein neues Fenster. Auf der linken Seite finden Sie das Bild, auf der rechten Seite den Bereich „Generatives Löschen“.

IDG

Es stehen zwei Optionen zur Auswahl. Der standardmäßig aktivierte Schalter neben „Automatisch anwenden“ bewirkt, dass der mit dem Pinsel ausgewählte Bereich direkt gelöscht wird.

Zudem lässt sich die Pinselgröße über den Schieberegler anpassen.

Wenn Sie nun die Maus über einen beliebigen Teil des Bildes bewegen, verwandelt sich der Zeiger in einen rotierenden, schwarzweißen Kreis. Fahren Sie mit gedrückter linker Maustaste über den Bildbereich, den Sie entfernen wollen.

Ihre Auswahl wird daraufhin schraffiert dargestellt. Sobald Sie die Maustaste wieder loslassen, startet der automatische Löschvorgang. Nach kurzer Zeit hat die KI-Funktion den festgelegten Bereich entfernt und ihn mit einem passenden Hintergrund aufgefüllt.

Je nach Form und Farbe der gelöschten Objekte kann es sein, dass Sie den Vorgang wiederholen müssen. Speichern Sie das bearbeitete Foto.

(PC-Welt)

KI-Funktionen in der Windows-Fotoanzeige nutzen – so geht’s​ Weiterlesen »

Knowledge Base im IT Support: Wie Sie eine Wissensdatenbank aufbauen​

Allgemein

Sowohl in der analogen als auch in der digitalen Welt ist es wichtig, eine Knowledge Base zu strukturieren. Nur wenn die Antworten passend einem Problem zugeordnet sind, unterstützt eine Wissensdatenbank bei der täglichen Arbeit. Foto: Andrey_Kuzmin – shutterstock.comWissen ist die Basis für jede Art von IT-Support – besonders wenn es sich um individuelle Geschäftsanwendungen handelt. Zunächst ist es sehr aufwändig, dieses spezifische Wissen aufzubauen und im Team weiterzugeben. Dazu soll dieses wertvolle Wissen kontinuierlich angewandt und gepflegt werden. Der zentrale Wissensspeicher wird dabei als Knowledge Base oder Wissensdatenbank bezeichnet.Knowledge Base – Aufbau Leider ist diese Wissensdatenbank in der Praxis oftmals nicht zentral angelegt, sondern über mehrere Dokumentationssystem hinweg verstreut. Inhalte liegen in unterschiedlichen Formaten und Strukturen vor, zum Beispiel als einzelne Notizen in Dateien oder in E-Mails und Wikis. Weit verbreitete Tools, die das Teilen dieser Inhalte in Support Teams ermöglichen, sind Microsoft OneNote und SharePoint, sowie Atlassian Confluence oder andere web-basierte Wiki-Systeme.Derartiges dezentrales und unstrukturiertes Wissen hindert den Aufbau und die Pflege der Knowledge Base. Dadurch unterliegen viele Application Support Teams mehreren Beschränkungen:Skalierung: die Skalierung des Support Teams ist träge, da Wissen langwierig von einzelnen Know-how-Trägern zu Anderen im Team weitergegeben werden muss.Qualität: die Qualität der Ticketbearbeitung schwankt mit der Anwesenheit/Verfügbarkeit von einzelnen erfahrenen Knowhow-Trägern.Effizienz: die Effizienz der Supportleistungen ist nicht optimal, da der Kommunikationsaufwand zur Lösungsfindung höher ist.Um diese Beschränkungen aufzuheben, ist es wichtig, die Knowledge Base zentral anzulegen und klar zu strukturieren. Die Wissensdatenbank sollte in einem einzigen Dokumentationssystem, das online für das gesamte Team verfügbar ist, angelegt werden. Dabei kann auf die individuellen Anforderungen und Vorlieben des jeweiligen Teams eingegangen werden. Es müssen also nicht unbedingt alle Support Teams dieselbe Knowledge Base verwenden. Wichtig ist nur, dass ein Team an genau einer Stelle sein Wissen speichert und sucht.Wissensdatenbank – StrukturierungAls nächstes ist es erforderlich, eine klare Struktur für die Inhalte zu erstellen. Diese sollte allen im Team bekannt sein, um als Navigationshilfe dienen zu können. Das Ziel ist es, jedem Teammitglied klarzumachen, wo nach welcher Art von Inhalten zu suchen ist – und entsprechend dieser Struktur auch neue Inhalte zu erstellen. Diese Navigationshilfe senkt die Hemmschwelle, die eigenen, vertrauten Denkweisen zu verlassen. So kann die Knowledge Base ein großer Mehrwert für das Support Team werden. Zu strukturieren sind dabei:die Container / Behälter, die nur zur Navigation dienen;die Dokumente / Inhalte mit anwendbarem Wissen;Die Behälter dienen der ersten Vorauswahl und Filterung nach Inhaltstypen – zum Beispiel:Systemhandbuch;bekannte Fehler;SOP (Standard Operating Procedure);Supportprozesse;Geschäftsprozesse;Das Wissen in den Behältern ist dann je nach Typ in Kapiteln strukturiert, hier am Beispiel eines Systemhandbuchs:Architekturübersicht;Serverliste;Schnittstellen;Administration;Monitoring;Folgende Grafik zeigt diese Struktur beispielhaft für einen produktiven IT Service: Foto: RYOSHI GmbHDiese Struktur ist als Baseline zu verstehen, die erweitert werden darf. Zu vermeiden sind dabei lose Ansammlungen von Wissen. Und hier kommt die Moderation der Wissensdatenbank ins Spiel.Knowledge Base – ModerationIm Eifer des Gefechts ist es manchmal nötig, schnell und einfach Inhalte zu speichern. Diese werden oft an eher beliebigen Stellen der Struktur erstellt. Die Aufgabe der Moderation ist es, diese später gemeinsam mit dem Autor sinnvoll in die Struktur einzufügen. Nur so können die Inhalte vom ganzen Team auch gefunden und genutzt werden. Abschließend ist es auch beim Wissen in der Knowledge Base – wie in jeder anderen Datenhaltung auch – wichtig, Redundanzen zu vermeiden. Wenn Informationen also bereits vorhanden sind, sollte darauf referenziert werden. (bw) 

Knowledge Base im IT Support: Wie Sie eine Wissensdatenbank aufbauen​ Sowohl in der analogen als auch in der digitalen Welt ist es wichtig, eine Knowledge Base zu strukturieren. Nur wenn die Antworten passend einem Problem zugeordnet sind, unterstützt eine Wissensdatenbank bei der täglichen Arbeit.
Foto: Andrey_Kuzmin – shutterstock.comWissen ist die Basis für jede Art von IT-Support – besonders wenn es sich um individuelle Geschäftsanwendungen handelt. Zunächst ist es sehr aufwändig, dieses spezifische Wissen aufzubauen und im Team weiterzugeben. Dazu soll dieses wertvolle Wissen kontinuierlich angewandt und gepflegt werden. Der zentrale Wissensspeicher wird dabei als Knowledge Base oder Wissensdatenbank bezeichnet.Knowledge Base – Aufbau Leider ist diese Wissensdatenbank in der Praxis oftmals nicht zentral angelegt, sondern über mehrere Dokumentationssystem hinweg verstreut. Inhalte liegen in unterschiedlichen Formaten und Strukturen vor, zum Beispiel als einzelne Notizen in Dateien oder in E-Mails und Wikis. Weit verbreitete Tools, die das Teilen dieser Inhalte in Support Teams ermöglichen, sind Microsoft OneNote und SharePoint, sowie Atlassian Confluence oder andere web-basierte Wiki-Systeme.Derartiges dezentrales und unstrukturiertes Wissen hindert den Aufbau und die Pflege der Knowledge Base. Dadurch unterliegen viele Application Support Teams mehreren Beschränkungen:Skalierung: die Skalierung des Support Teams ist träge, da Wissen langwierig von einzelnen Know-how-Trägern zu Anderen im Team weitergegeben werden muss.Qualität: die Qualität der Ticketbearbeitung schwankt mit der Anwesenheit/Verfügbarkeit von einzelnen erfahrenen Knowhow-Trägern.Effizienz: die Effizienz der Supportleistungen ist nicht optimal, da der Kommunikationsaufwand zur Lösungsfindung höher ist.Um diese Beschränkungen aufzuheben, ist es wichtig, die Knowledge Base zentral anzulegen und klar zu strukturieren. Die Wissensdatenbank sollte in einem einzigen Dokumentationssystem, das online für das gesamte Team verfügbar ist, angelegt werden. Dabei kann auf die individuellen Anforderungen und Vorlieben des jeweiligen Teams eingegangen werden. Es müssen also nicht unbedingt alle Support Teams dieselbe Knowledge Base verwenden. Wichtig ist nur, dass ein Team an genau einer Stelle sein Wissen speichert und sucht.Wissensdatenbank – StrukturierungAls nächstes ist es erforderlich, eine klare Struktur für die Inhalte zu erstellen. Diese sollte allen im Team bekannt sein, um als Navigationshilfe dienen zu können. Das Ziel ist es, jedem Teammitglied klarzumachen, wo nach welcher Art von Inhalten zu suchen ist – und entsprechend dieser Struktur auch neue Inhalte zu erstellen. Diese Navigationshilfe senkt die Hemmschwelle, die eigenen, vertrauten Denkweisen zu verlassen. So kann die Knowledge Base ein großer Mehrwert für das Support Team werden. Zu strukturieren sind dabei:die Container / Behälter, die nur zur Navigation dienen;die Dokumente / Inhalte mit anwendbarem Wissen;Die Behälter dienen der ersten Vorauswahl und Filterung nach Inhaltstypen – zum Beispiel:Systemhandbuch;bekannte Fehler;SOP (Standard Operating Procedure);Supportprozesse;Geschäftsprozesse;Das Wissen in den Behältern ist dann je nach Typ in Kapiteln strukturiert, hier am Beispiel eines Systemhandbuchs:Architekturübersicht;Serverliste;Schnittstellen;Administration;Monitoring;Folgende Grafik zeigt diese Struktur beispielhaft für einen produktiven IT Service:
Foto: RYOSHI GmbHDiese Struktur ist als Baseline zu verstehen, die erweitert werden darf. Zu vermeiden sind dabei lose Ansammlungen von Wissen. Und hier kommt die Moderation der Wissensdatenbank ins Spiel.Knowledge Base – ModerationIm Eifer des Gefechts ist es manchmal nötig, schnell und einfach Inhalte zu speichern. Diese werden oft an eher beliebigen Stellen der Struktur erstellt. Die Aufgabe der Moderation ist es, diese später gemeinsam mit dem Autor sinnvoll in die Struktur einzufügen. Nur so können die Inhalte vom ganzen Team auch gefunden und genutzt werden. Abschließend ist es auch beim Wissen in der Knowledge Base – wie in jeder anderen Datenhaltung auch – wichtig, Redundanzen zu vermeiden. Wenn Informationen also bereits vorhanden sind, sollte darauf referenziert werden. (bw)

Knowledge Base im IT Support: Wie Sie eine Wissensdatenbank aufbauen​ Weiterlesen »

Rhetoriktipps für Frauen: Seid selbstbewusst und formuliert klar!​

Allgemein

Monika S. leitet ein spannendes Projekt bei einem großen deutschen Konzern. Ihr Chef fragt sie, ob sie es bei einer internationalen Veranstaltung in den USA vorstellen will. Eine tolle Chance, die eigene Leistung einmal ins rechte Licht zu rücken. Monika S. zögert jedoch. Sie ist hin- und hergerissen, denn sie hat zwei kleine Kinder und will sich erst vergewissern, ob sie ihre Abwesenheit für knapp eine Woche organisieren kann. Als sie ihrem Chef ein paar Tage später dann ein Ja kommuniziert, erfährt sie, dass ein Kollege schon zugesagt hat und an ihrer Stelle das Projekt vorstellen wird – ein Kollege, der gar nicht an dem Projekt mitgearbeitet und kaum Ahnung davon hat. Monika S. ist zutiefst enttäuscht und fragt sich, was da schief gelaufen ist.Wer zögert, vergibt im Job möglicherweise wertvolle Chancen. Wenn es darauf ankommt, heißt es: Richtig reagieren. Life Coach Bettina Schultheiß erklärt, worauf man achten sollte. Foto: studiostoks – shutterstock.com“Situationen wie diese erlebe ich immer wieder”, sagt Bettina Schultheiß, die als Coach Frauen in puncto Karriere und Lebensplanung berät. Nicht nur fühlen sich Frauen häufig mehr verantwortlich für das Wohl ihrer Familie als Männer, auch die Art der Kommunikation spielt eine Rolle, denn: “Männer kommunizieren anders.” Aus Männersicht hat Monika S. folgende Signale gesendet: Durch ihr Zögern hat sie ihr Revier nicht rechtzeitig markiert, wurde von ihrem Chef als unsichere Kandidatin für den Job wahrgenommen und hat sich dadurch die Butter vom Brot nehmen lassen. Der männliche Kollege hat diese Lücke erkannt und ist sofort hineingegrätscht.Um Kommunikation in ihrer ganzen Bandbreite zu verstehen und für sich zu nutzen, bietet Schultheiß jetzt Rhetorikkurse nur für Frauen an. Ihr geht es darum zu vermitteln, dass wir nicht nur über die Sprache kommunizieren, sondern auch nonverbale und paraverbale Signale senden. Die nonverbale Komponente macht dabei sogar mehr als 50 Prozent der gesendeten Nachricht aus und ist oft relevanter als die rein verbale. Die Beraterin nennt ein Beispiel: Sagen wir “Ja, ich mache das gern”, ziehen dazu aber eine unsichere, also nicht-kongruente Miene, dann ist dem Gegenüber klar, dass das ein reines Lippenbekenntnis ist.Die nonverbalen Signale wie Mimik, Gestik, Körperhaltung oder Augenkontakt und die paraverbalen wie Tonfall, Satzmelodie, Lautstärke oder Redepausen sind alle Komponenten, die zur direkten Kommunikation dazugehören. Darüber sollten wir uns gerade im Job viel klarer werden. “Beobachten Sie Ihre Kollegen und Ihren Chef bezüglich dieser Signale genau”, rät Schultheiß. Denn darüber können wir Menschen besser einschätzen und einen Hinweis erhalten, wie sie ticken. Ist mein Chef ein Machtmensch? Oder setzt er auf ein partnerschaftliches Arbeitsklima? Wie trifft er Entscheidungen? “Wenn ich das weiß, kann ich meine Nachricht und wie ich sie vermittle entsprechend anpassen und so meine Interessen besser durchsetzen”, erklärt die Coachin.Können wir die Botschaft einmal nicht selbst entschlüsseln, hilft Nachfragen. Das sei immer gut, meint Schultheiß. “Wie haben Sie das gemeint?” wäre eine Variante. Oder man könne direkten Bezug nehmen auf einen Teil der Aussage: “Habe ich Sie richtig verstanden, dass …”. Das Gegenüber muss sich dann genauer erklären und es bleibt weniger Raum für Spekulation.Was also kann Monika S. künftig besser machen? Frauen könnten sich durchaus in der Verantwortung gegenüber ihrer Familie fühlen und das zeichne sie auch aus, so die Expertin. “Nur sollten sie sich bewusst darüber sein, dass zögerliches Verhalten und verbales Ausweichen nicht förderlich ist.” Monika S. sollte beim nächsten Mal lieber sagen: “Ich habe großes Interesse daran, das Projekt vorzustellen. Ich muss das aber noch mit anderen Terminen koordinieren. Ich komme morgen/übermorgen noch einmal auf Sie zu.” Falls es dann doch nicht klappt, kann sie immer noch absagen, hat aber den Pflock schon einmal eingeschlagen.Bettina Schultheiß Bettina Schultheiß, Life Coach Foto: Bettina SchultheißDie studierte Pädagogin war viele Jahre im Schuldienst und in der Erwachsenenbildung tätig, bevor sie sich nach zahlreichen Fortbildungen im Bereich Führung, Beratung, Kommunikation, Rhetorik, Teammanagement und Neurolinguistik zum psychologischen Berater und Coach weiterentwickelte. Schultheiß bietet mit Life Coaching eine lösungsorientierte Prozessbegleitung in all jenen Phasen, die Frauen als belastend empfinden – sowohl im privaten, als auch im beruflichen Umfeld. www.coachamsee.de Wie soll ich es sagen? “Ich könnte mir eventuell vorstellen …” Foto: Riccardo Piccinini – shutterstock.com” … nächste Woche vielleicht auf eine Dienstreise zu gehen. Das müsste theoretisch möglich sein, ich würde es eigentlich gerne machen, müsste es aber vorher noch abklären.” Vermeiden Sie die geballte Verwendung von Konjunktiven und Relativierungen. Formulieren Sie klar: “Ich möchte gerne auf Dienstreise gehen.”“Ich wollte nur mal kurz anfragen, ob Sie am Montag einen Termin für mich frei hätten.” Foto: Africa Studio – shutterstock.comVermeiden Sie Füllwörter, sie signalisieren Unsicherheit und relativieren Ihre Botschaft. Stattdessen formulieren Sie höflich, aber selbstbewusst: “Ich möchte Sie gerne sprechen. Wann haben Sie Zeit?”“Es tut mit leid, ich kann da leider nicht kommen, weil ich noch so viel Arbeit auf dem Tisch habe und ich auch in dem Projekt XYZ extra Aufgaben bekommen habe.” Foto: Elnur – shutterstock.comFrauen neigen zu Erklärungen und Rechtfertigungen, besser ist: Kurz und knapp zu formulieren. Falls Ihnen ein einziges “Nein” zu hart erscheint, können Sie die Absage in einem konstruktiven Vorschlag enden lassen: “An diesem Termin habe ich keine Zeit. Aber ich kann Ihnen Termin ABC anbieten.” 

Rhetoriktipps für Frauen: Seid selbstbewusst und formuliert klar!​ Monika S. leitet ein spannendes Projekt bei einem großen deutschen Konzern. Ihr Chef fragt sie, ob sie es bei einer internationalen Veranstaltung in den USA vorstellen will. Eine tolle Chance, die eigene Leistung einmal ins rechte Licht zu rücken. Monika S. zögert jedoch. Sie ist hin- und hergerissen, denn sie hat zwei kleine Kinder und will sich erst vergewissern, ob sie ihre Abwesenheit für knapp eine Woche organisieren kann. Als sie ihrem Chef ein paar Tage später dann ein Ja kommuniziert, erfährt sie, dass ein Kollege schon zugesagt hat und an ihrer Stelle das Projekt vorstellen wird – ein Kollege, der gar nicht an dem Projekt mitgearbeitet und kaum Ahnung davon hat. Monika S. ist zutiefst enttäuscht und fragt sich, was da schief gelaufen ist.Wer zögert, vergibt im Job möglicherweise wertvolle Chancen. Wenn es darauf ankommt, heißt es: Richtig reagieren. Life Coach Bettina Schultheiß erklärt, worauf man achten sollte.
Foto: studiostoks – shutterstock.com“Situationen wie diese erlebe ich immer wieder”, sagt Bettina Schultheiß, die als Coach Frauen in puncto Karriere und Lebensplanung berät. Nicht nur fühlen sich Frauen häufig mehr verantwortlich für das Wohl ihrer Familie als Männer, auch die Art der Kommunikation spielt eine Rolle, denn: “Männer kommunizieren anders.” Aus Männersicht hat Monika S. folgende Signale gesendet: Durch ihr Zögern hat sie ihr Revier nicht rechtzeitig markiert, wurde von ihrem Chef als unsichere Kandidatin für den Job wahrgenommen und hat sich dadurch die Butter vom Brot nehmen lassen. Der männliche Kollege hat diese Lücke erkannt und ist sofort hineingegrätscht.Um Kommunikation in ihrer ganzen Bandbreite zu verstehen und für sich zu nutzen, bietet Schultheiß jetzt Rhetorikkurse nur für Frauen an. Ihr geht es darum zu vermitteln, dass wir nicht nur über die Sprache kommunizieren, sondern auch nonverbale und paraverbale Signale senden. Die nonverbale Komponente macht dabei sogar mehr als 50 Prozent der gesendeten Nachricht aus und ist oft relevanter als die rein verbale. Die Beraterin nennt ein Beispiel: Sagen wir “Ja, ich mache das gern”, ziehen dazu aber eine unsichere, also nicht-kongruente Miene, dann ist dem Gegenüber klar, dass das ein reines Lippenbekenntnis ist.Die nonverbalen Signale wie Mimik, Gestik, Körperhaltung oder Augenkontakt und die paraverbalen wie Tonfall, Satzmelodie, Lautstärke oder Redepausen sind alle Komponenten, die zur direkten Kommunikation dazugehören. Darüber sollten wir uns gerade im Job viel klarer werden. “Beobachten Sie Ihre Kollegen und Ihren Chef bezüglich dieser Signale genau”, rät Schultheiß. Denn darüber können wir Menschen besser einschätzen und einen Hinweis erhalten, wie sie ticken. Ist mein Chef ein Machtmensch? Oder setzt er auf ein partnerschaftliches Arbeitsklima? Wie trifft er Entscheidungen? “Wenn ich das weiß, kann ich meine Nachricht und wie ich sie vermittle entsprechend anpassen und so meine Interessen besser durchsetzen”, erklärt die Coachin.Können wir die Botschaft einmal nicht selbst entschlüsseln, hilft Nachfragen. Das sei immer gut, meint Schultheiß. “Wie haben Sie das gemeint?” wäre eine Variante. Oder man könne direkten Bezug nehmen auf einen Teil der Aussage: “Habe ich Sie richtig verstanden, dass …”. Das Gegenüber muss sich dann genauer erklären und es bleibt weniger Raum für Spekulation.Was also kann Monika S. künftig besser machen? Frauen könnten sich durchaus in der Verantwortung gegenüber ihrer Familie fühlen und das zeichne sie auch aus, so die Expertin. “Nur sollten sie sich bewusst darüber sein, dass zögerliches Verhalten und verbales Ausweichen nicht förderlich ist.” Monika S. sollte beim nächsten Mal lieber sagen: “Ich habe großes Interesse daran, das Projekt vorzustellen. Ich muss das aber noch mit anderen Terminen koordinieren. Ich komme morgen/übermorgen noch einmal auf Sie zu.” Falls es dann doch nicht klappt, kann sie immer noch absagen, hat aber den Pflock schon einmal eingeschlagen.Bettina Schultheiß Bettina Schultheiß, Life Coach
Foto: Bettina SchultheißDie studierte Pädagogin war viele Jahre im Schuldienst und in der Erwachsenenbildung tätig, bevor sie sich nach zahlreichen Fortbildungen im Bereich Führung, Beratung, Kommunikation, Rhetorik, Teammanagement und Neurolinguistik zum psychologischen Berater und Coach weiterentwickelte. Schultheiß bietet mit Life Coaching eine lösungsorientierte Prozessbegleitung in all jenen Phasen, die Frauen als belastend empfinden – sowohl im privaten, als auch im beruflichen Umfeld. www.coachamsee.de Wie soll ich es sagen? “Ich könnte mir eventuell vorstellen …”
Foto: Riccardo Piccinini – shutterstock.com” … nächste Woche vielleicht auf eine Dienstreise zu gehen. Das müsste theoretisch möglich sein, ich würde es eigentlich gerne machen, müsste es aber vorher noch abklären.” Vermeiden Sie die geballte Verwendung von Konjunktiven und Relativierungen. Formulieren Sie klar: “Ich möchte gerne auf Dienstreise gehen.”“Ich wollte nur mal kurz anfragen, ob Sie am Montag einen Termin für mich frei hätten.”
Foto: Africa Studio – shutterstock.comVermeiden Sie Füllwörter, sie signalisieren Unsicherheit und relativieren Ihre Botschaft. Stattdessen formulieren Sie höflich, aber selbstbewusst: “Ich möchte Sie gerne sprechen. Wann haben Sie Zeit?”“Es tut mit leid, ich kann da leider nicht kommen, weil ich noch so viel Arbeit auf dem Tisch habe und ich auch in dem Projekt XYZ extra Aufgaben bekommen habe.”
Foto: Elnur – shutterstock.comFrauen neigen zu Erklärungen und Rechtfertigungen, besser ist: Kurz und knapp zu formulieren. Falls Ihnen ein einziges “Nein” zu hart erscheint, können Sie die Absage in einem konstruktiven Vorschlag enden lassen: “An diesem Termin habe ich keine Zeit. Aber ich kann Ihnen Termin ABC anbieten.”

Rhetoriktipps für Frauen: Seid selbstbewusst und formuliert klar!​ Weiterlesen »

Poco F7 Ultra im Test: Flaggschiff-Leistung zum Mittelklasse-Preis​

Allgemein

Luke Baker Auf einen Blick Pro Leistungsstark Hoher Gegenwert Hervorragende Akkulaufzeit Ultra-schnelles Aufladen Kontra Die Kameras erzeugen nicht immer gute Bilder HyperOS Software hat einige Bloatware an Bord Fazit Wenn Sie sich eine Leistung auf Flaggschiff-Niveau wünschen, ohne dafür einen horrenden Preis zahlen zu müssen, ist das Poco F7 Ultra das richtige Smartphone für Sie. Es ist superschnell, hat eine tolle Akkulaufzeit, lässt sich blitzschnell aufladen und schont gleichzeitig Ihren Geldbeutel. Die Kameras sind nicht ganz auf Flaggschiff-Niveau, aber sie sind immer noch mehr als gut genug für gelegentliche Fotos. Poco ist dafür bekannt, gute Mittelklasse-Handys zu schockierend günstigen Preisen anzubieten. Aber wenn es um echte Flaggschiffe geht, tragen diese normalerweise eher den Namen des ehemaligen Mutterkonzerns Xiaomi. Mit der Einführung des Poco F7 Ultra scheint sich das jedoch zu ändern. Das F7 Ultra hat alles, was ein echtes Flaggschiff ausmacht. Es verfügt über einen der schnellsten Chips auf dem Markt, den Snapdragon 8 Elite, der auch im Samsung Galaxy S25 zum Einsatz kommt. Dazu gesellen sich ein riesiger Akku, ein wunderschönes Display, schnelles drahtloses Laden und ein gut ausgestattetes Dreifach-Kamerasystem auf der Rückseite. Auch die Verarbeitung ist erstklassig, mit einem Metallrahmen und einer Glasrückwand, die Sie normalerweise nur bei den teuersten Handys finden. Die Frage ist, ob dieses Gerät mit der beeindruckenden Auswahl an Flaggschiffen des Jahres 2025 mithalten kann oder ob Poco immer noch eine Budget-orientierte Marke bleibt? Ich habe mich die letzte Woche intensiv mit dem Gerät beschäftigt, und hier ist meine Meinung dazu. Design & Verarbeitung Aluminiumrahmen, Rückseite aus Glas 160,3 × 75 × 8,4 Millimeter, 212 Gramm IP68-zertifiziert Das Poco F7 Ultra ist in klassischem Schwarz erhältlich, aber die charakteristische leuchtend gelbe Farbgebung (komplett mit kontrastierenden schwarzen Seitenleisten) ist viel interessanter. Es wäre wahrscheinlich nicht meine erste Wahl, aber ich empfinde es als gut, dass es eine so gewagte Option gibt, die sicher sowohl Imker als auch Wu-Tang Clan-Fans ansprechen wird. Luke Baker Das Smartphone hat einen vollkommen flachen Bildschirm mit kastenförmigen Seiten und einer flachen Rückseite mit subtilen Rundungen an den Rändern. Es ist ein großes Gerät, und durch die kastenförmige Konstruktion fühlt es sich noch größer an. Dafür ist es nicht besonders schwer, denn es wiegt nur 212 Gramm. Gleichzeitig ist es aber so massiv, dass es sich nicht billig anfühlt. Es ist ein großes Smartphone, und durch die kastenförmige Konstruktion fühlt es sich noch größer an. Dafür ist es nicht besonders schwer. Auf der Rückseite befindet sich in der oberen linken Ecke ein kreisrundes Kamerasystem. Das sieht ganz nett aus, aber ich kann mich des Eindrucks nicht erwehren, dass es ein wenig retro aussieht. Die meisten modernen Flaggschiffe setzen auf zentral platzierte Kameraeinheiten, während mich dies an das Vivo X90 Pro von vor ein paar Jahren erinnert. Wenn Sie es nicht mögen, wenn Ihr Handy auf dem Tisch hin und her wackelt, ist dieses Gerät eher nichts für Sie. Luke Baker Das F7 Ultra ist nach IP68 staub- und wasserdicht. Dadurch ist das Smartphone gegen Staub geschützt und kann ohne Schaden in Süßwasser eingetaucht werden. Das Gerät ist außerdem mit “Poco Shield Glass” ausgestattet, der härtesten Displaybeschichtung der Marke, die angeblich die Sturz- und Kratzfestigkeit erhöht. Mein Exemplar wurde nicht allzu grob behandelt. Nachdem ich es etwa eine Woche lang ohne Displayschutzfolie benutzt habe, sieht es immer noch makellos aus. Es scheint also, dass das Poco Shield Glass seine Aufgabe erfüllt. Wenn Sie Ihr Smartphone frisch aussehen lassen möchten, finden Sie überdies eine einfache TPU-Hülle in der Verpackung. Es handelt sich um eine mattschwarze Hülle, was ich sehr begrüße. Diese Hüllen sind in der Regel langfristig besser als ihre transparenten Gegenstücke, da sich weniger Staub ansammelt und sie nicht vergilben. Es ist immer schön, eine ansprechend aussehende Hülle ohne Aufpreis zu bekommen. Luke Baker Bildschirm & Lautsprecher 6,67-Zoll, 1.440 × 3.200, OLED, 120 Hertz 3.200 Nits, DCI-P3 breite Farbskala Stereo-Lautsprecher Das Poco F7 Ultra hat ein wunderbares Display. Es ist ein üppig großes 6,67-Zoll-OLED-Display mit einer adaptiven Bildwiederholfrequenz von 120 Hertz und einer Spitzenhelligkeit von 3.200 Nits. Nachdem ich viel Zeit mit gewölbten Bildschirmen verbracht habe, ist der gänzlich flache Bildschirm erfrischend, und ich bevorzuge ihn definitiv für Spiele. Das ist eine gute Wahl, denn Gamer sind wahrscheinlich die Hauptzielgruppe für dieses Smartphone. Allerdings fühlt sich die Gestensteuerung, bei der Sie vom Rand des Bildschirms aus wischen müssen, nicht so gut an, vor allem, wenn Sie eine Hülle verwenden. Der Bildschirm deckt den DCI-P3-Farbraum ab und liefert hochpräzise Farben mit ausgezeichnetem Kontrast Der Bildschirm deckt die DCI-P3-Farbskala ab und liefert hochpräzise Farben mit ausgezeichneten Kontrastwerten. Wenn Sie es vorziehen, Ihr Bild selbst zu optimieren, stehen Ihnen in den Einstellungen mehr Optionen zur Verfügung als bei den meisten Mitbewerbern. Die Liste umfasst vier voreingestellte Farbmodi, die alle in ihrer Temperatur angepasst werden können, sowie einen erweiterten Modus für eine ausgiebige Kalibrierung. Es sind zahlreiche augenschonende Maßnahmen integriert, darunter eine zirkulare Polarisationsschicht, die dem natürlichen Licht besser entspricht. Außerdem unterstützt der Bildschirm PWM-Dimmraten von bis zu 3.840 Hertz und sorgt so für ein flimmerfreies Erlebnis bei geringer Helligkeit. Luke Baker Dieses Display hat noch einen weiteren Trick in der Hinterhand: einen Co-Processing-Chip namens VisionBoost D7. Dieser soll die Klarheit von Apps wie YouTube und Netflix verbessern, ohne den Akku zu sehr zu belasten. Um ehrlich zu sein, habe ich keinen großen Unterschied bemerkt, wenn die Einstellung aktiviert war. Aber wenn Sie Inhalte mit besonders schlechter Bildqualität konsumieren, könnte es doch einen positiven Einfluss haben. Das F7 Ultra ist zudem mit einem Ultraschall-Fingerabdruckscanner ausgestattet, der unter dem Display verborgen ist. Diese Funktion ist selbst bei einigen der teuersten Flaggschiffe nicht vorhanden. Daher bin ich sehr froh, sie hier zu finden. Das bedeutet, dass sich Ihr Smartphone schnell und zuverlässig entsperren lässt, egal, wie schmutzig Ihr Bildschirm ist. Das Gerät ist mit Stereolautsprechern ausgestattet – einer befindet sich auf der Unterseite neben dem USB-C-Anschluss, der andere an der Oberseite. So entsteht eine schöne, breite Klangbühne, die sich hervorragend für Spiele und Filme eignet. Luke Baker Die Klarheit ist großartig und die Lautsprecher sind laut genug. Aber es fehlt ihnen – wie so oft – an Bass. Wenn Sie das beste Klangerlebnis wünschen, sollten Sie sich ein Paar kabellose Ohrhörer zulegen. Spezifikationen & Leistung Qualcomm Snapdragon 8 Elite 12 Gigabyte / 16 Gigabyte RAM 256 Gigabyte / 512 Gigabyte interner Speicher Das Poco F7 Ultra verfügt über einen der leistungsstärksten Chips auf dem Markt, den Qualcomm Snapdragon 8 Elite. Das Smartphone ist zudem in zwei Varianten erhältlich, entweder mit 12 Gigabyte RAM und 256 Gigabyte Speicher oder mit 16 Gigabyte RAM und 512 Gigabyte Speicher. Ich habe das letztere Modell getestet, das mehr als genug Platz für alle Medien bietet, die Sie unterwegs benötigen. Mit einem so leistungsstarken Chip als Herzstück ist es keine Überraschung, dass das F7 Ultra auch Spitzenleistung abliefert. Alles fühlt sich blitzschnell an, von der Navigation im Betriebssystem bis zum Öffnen von Apps und Multitasking. Wenn Sie die Animationsgeschwindigkeit in den Einstellungen auf “schnell” stellen, fühlt es sich wie eine absolute Rakete an. Dieses Gerät ist mit Abstand eines der leistungsstärksten in seiner Preiskategorie Wenn Sie auf Spielleistung Wert legen, ist dieses Gerät mit Sicherheit eines der besten in seiner Preisklasse. Standardmäßig führt es jedes Spiel, das Sie ihm vorsetzen können, ohne Probleme auf maximalen Grafikeinstellungen aus. Aber das Poco F7 Ultra hat ein paar zusätzliche Tricks, um die Leistung noch weiter zu steigern. Das integrierte Spiele-Overlay ermöglicht es Ihnen, Super Resolution und Smart Frame Rate zu aktivieren, zwei neue Funktionen, die den VisionBoost D7 Chipsatz nutzen. Diese Features arbeiten ein wenig wie DLSS und Frame-Generation auf einem Gaming-PC, indem sie KI-Algorithmen zur Interpolation und Hochskalierung eines Spiels verwenden. Luke Baker Das funktioniert ziemlich gut und ermöglicht es Ihnen im Wesentlichen, das Spiel mit einer niedrigeren Voreinstellung laufen zu lassen, ohne Abstriche bei der flüssigen Darstellung oder der Qualität zu machen – das schont Ihren Akku und erzeugt weniger Wärme. Die Funktion Smart Frame Rate hat mich am meisten beeindruckt. Sie ist besonders gut geeignet für “Genshin Impact”, das unter Android auf 60 Bilder pro Sekunde beschränkt ist. Mit aktivierter Funktion wirkt es, als ob das Spiel nun mit 120 Bildern pro Sekunde läuft. Poco F7 Ultra Benchmarks Enttäuschend ist, dass viele unserer üblichen Benchmarks auf diesem Smartphone blockiert wurden. Das ist nichts Neues. Wir haben das schon oft bei Vorabversionen von Xiaomi und Redmagic-Geräten gesehen. Aber das macht es schwierig, die Leistung mit konkurrierenden Geräten zu vergleichen. Zumindest konnte ich Geekbench 6 starten, wo das Gerät etwas schlechter als das Galaxy S25 Ultra, aber besser als das Oppo Find X8 Pro abschneiden konnte. Das F7 Ultra liegt jedoch immer noch weit hinter den dedizierten Gaming-Handys Asus ROG Phone 9 Pro und Nubia Redmagic 10 Pro. Kameras 50-Megapixel-Hauptsensor 50-Megapixel-2.5x-Teleobjektiv 32-Megapixel-Ultraweitwinkel 32-Megapixel-Selfie-Kamera Wie üblich hat Poco mehr Wert auf die Spielleistung des F7 Ultra als auf seine Kameras gelegt. Daher habe ich von diesen Objektiven nicht viel erwartet. Dennoch war ich von den Ergebnissen angenehm überrascht. Luke Baker Natürlich ist die Bildqualität immer etwas subjektiv, aber für meinen Geschmack macht das Poco F7 Ultra vielleicht die besten Fotos von allen Gaming-Handys. Es kann mit dem Asus ROG Phone 9 Pro mühelos mithalten und übertrifft auch alle Smartphones von Redmagic. Das Poco F7 Ultra macht vielleicht die besten Fotos aller Gaming-Handys Der Hauptgrund dafür ist die Bildverarbeitung: Die Farben sehen angenehm und naturgetreu aus, der Dynamikumfang ist großartig und das Linsentrio bietet Ihnen eine große Flexibilität bei der Gestaltung Ihrer Aufnahmen. Auch der Digitalzoom ist besser, als ich erwartet hatte, und liefert brauchbare Ergebnisse bis zu einer zehnfachen Vergrößerung. Das Ultraweitwinkelobjektiv ist, wie so oft, das schwächste des Trios, und das gilt besonders bei Nacht. Die Details sind bei diesem Objektiv sehr unscharf und es verfügt über keinen Autofokus, sodass Sie es nicht für Nahaufnahmen verwenden können. Auch die Farben sind im Vergleich zu den anderen Kameras ein wenig verschoben. Tagsüber können Sie mit dem Haupt- und dem Teleobjektiv beeindruckende Aufnahmen machen, aber nachts sollten Sie sich eher an die Hauptkamera halten. Das Teleobjektiv leistet gute Arbeit, aber mit diesem winzigen Sensor ist nicht viel zu machen, und Sie werden sich die meiste Zeit auf den Nachtmodus verlassen müssen. Die Selfie-Kamera ist solide, aber nicht besonders bemerkenswert. Ich war mit der Detailgenauigkeit zufrieden und die Effekte im Porträtmodus funktionieren zuverlässig. Aber es gibt keinen Autofokus und den Farben fehlt es bei schlechten Lichtverhältnissen an Lebendigkeit. Bei Videoaufnahmen kann das F7 Ultra mit dem Hauptobjektiv bis zu 8K-Auflösung mit 24 Bildern pro Sekunde aufnehmen, allerdings nur 6 Minuten am Stück. Realistischer ist es, wenn Sie Videos mit 4K-Auflösung und 60 Bildern pro Sekunde aufnehmen, was mit der Haupt- und der Telekamera funktioniert. Die Ultrawide- und die Selfie-Kamera erreichen maximal 1080p-Auflösung mit 60 Bildern pro Sekunde. Die Ergebnisse sind ausreichend, aber die Unterschiede sind ein klares Indiz dafür, dass dieses System eine Stufe unter dem typischen Flaggschiff liegt. Sie müssen sich also vorher genau überlegen, welche Auflösung Sie auswählen wollen. Akkulaufzeit & Aufladen 5.300 Milliamperestunden Akku 120 Watt kabelgebundenes Laden 50 Watt kabelloses Laden Das Poco F7 Ultra verfügt über einen 5.300-Milliamperestunden-Akku, mehr als ein typisches Flaggschiff, aber nicht ganz so viel wie die neuesten Silizium-Kohlenstoff-Akkus, die sich um die 6.000-Milliamperestunden-Marke bewegen. Deswegen habe ich eine gute Akkulaufzeit erwartet, aber nichts Überragendes. Das F7 Ultra hat mich jedoch überrascht. Luke Baker Ich habe ohne viel Mühe zwei Tage mit einer Akkuladung geschafft, und ich bin ein ziemlich intensiver Nutzer. Wenn Sie etwas rücksichtsvoller sind, halte ich auch einen dritten Tag für machbar. Natürlich wird der Akku bei intensiven Spielsessions viel schneller entladen, es kommt also wie immer darauf an, wie Sie das Gerät nutzen. In jedem Fall kann man sagen, dass die Akkulaufzeit großartig ist. Das Smartphone war in etwas mehr als einer halben Stunde von vollkommen leer auf 100 Prozent aufgeladen Wenn der Akku einmal leer ist, werden Sie nicht lange auf eine Aufladung warten müssen. Mit dem mitgelieferten 120-Watt-Netzteil war das Smartphone in etwas mehr als einer halben Stunde wieder zu 100 Prozent aufgeladen. Wenn Sie drahtloses Laden bevorzugen, können Sie auch hier beeindruckende Geschwindigkeiten erwarten. Das Poco F7 Ultra unterstützt kabelloses Laden mit bis zu 50 Watt mit dem entsprechenden Ladepad. Software & Apps HyperOS 2, basierend auf Android 15 Circle to Search und Gemini Einige Bloatware vorinstalliert Auf dem Poco F7 Ultra läuft HyperOS 2, eine stark angepasste Version von Android 15, die auf vielen Xiaomi-, Redmi- und Poco-Handys zu finden ist. Wenn Sie ein aktuelles Modell einer dieser Marken benutzt haben, werden Sie nicht allzu viele Überraschungen erleben. Luke Baker Beginnen wir mit den positiven Aspekten: HyperOS sieht sehr elegant aus und ist sehr schnell. Der Einfluss von iOS ist deutlich zu erkennen, insbesondere bei den Schnelleinstellungen und der Anpassung des Sperrbildschirms. Ich persönlich finde das in Ordnung, denn das Ergebnis sieht großartig aus. Es gibt tonnenweise Anpassungsmöglichkeiten in jedem Bereich des Systems. Wenn also etwas nicht so aussieht oder sich nicht so verhält, wie Sie es sich wünschen, ist die Wahrscheinlichkeit groß, dass Sie es ändern können. Ich liebe die Freiheit, die mir das bietet, und ich schätze auch die schiere Menge an Apps, die ich auf meinem Startbildschirm platzieren kann. Die Nachteile sind die gleichen wie immer. Bei der Ersteinrichtung des Geräts müssen Sie ein wenig Bloatware entfernen – nichts Schlimmes, aber eine Aufgabe, auf die ich gut verzichten könnte. Außerdem ist in einigen System-Apps, wie der Hintergrundbildauswahl und dem Spielcenter, Werbung eingebettet. Das schmälert das sonst so hochwertige Erlebnis. Luke Baker Ich habe mich gefreut, dass das Smartphone die neuesten Funktionen von Google enthält, wie die Möglichkeit, Gemini als Standard-Suchassistenten einzustellen, und Circle to Search. Diese Funktionen sind im Jahr 2025 nicht mehr ganz neu, aber sehr nützlich. Ansonsten sind die KI-Funktionen etwas spärlich, abgesehen von den bereits erwähnten Verbesserungen für Spiele. Preis & Verfügbarkeit Das Poco F7 Ultra wurde am 27. März 2025 weltweit eingeführt. In Deutschland kostet das Smartphone 699,90 Euro mit 12 Gigabyte RAM und 256 Gigabyte internem Speicher. Das Modell mit 16 Gigabyte RAM und 512 Gigabyte internem Speicher wird hingegen für 749,90 Euro angeboten. Sie können das Poco F7 Ultra direkt auf der Xiaomi Website zu diesen Preisen bestellen. Bei Amazon wird aktuell lediglich die kleinere Version mit 12 Gigabyte RAM und 256 Gigabyte Speicherplatz für 699,90 Euro angeboten. Mit diesem Preis liegt es am oberen Ende des Marktes für Mittelklasse-Handys und muss sich mit Geräten wie dem Xiaomi 14T Pro und dem OnePlus 13R messen lassen. Und auch das Google Pixel 9 wird oft schon zu einem ähnlichen Preis angeboten. Sollten Sie das Poco F7 Ultra kaufen? Wenn Sie eine Leistung auf Flaggschiff-Niveau suchen, aber nur ein Budget für die obere Mittelklasse zur Verfügung haben, können Sie sich kaum eine bessere Option als das Poco F7 Ultra wünschen. Es ist ein hervorragendes Preis-Leistungs-Verhältnis und bietet ein Spiel- und Produktivitätserlebnis, das mit den besten Handys auf dem Markt mithalten kann. Nur die Kameras sind nicht ganz auf dem Niveau anderer Flaggschiffe. Sie sind immer noch recht gut und sicherlich besser als die der meisten Gaming-Handys, können aber nicht mit Geräten wie dem Samsung Galaxy S25 Ultra oder dem Xiaomi 15 Ultra mithalten. Ansonsten sind der Bildschirm, die Akkulaufzeit und die Ladegeschwindigkeit allesamt erstklassig. Es ist ein Vergnügen, das Smartphone zu benutzen, und solange Sie bei Ihren Fotos nicht zu wählerisch sind, werden Sie viel Freude damit haben. Spezifikationen HyperOS 2, basierend auf Android 15 6,67-Zoll, 1.440 × 3.200 Pixel, OLED, 120-Hertz-Display Ultraschall-Fingerabdruckleser unter dem Display Qualcomm Snapdragon 8 Elite 12 Gigabyte / 16 Gigabyte RAM 256 Gigabyte / 512 Gigabyte Speicher Kameras: 50-Megapixel-Hauptsensor 50-Megapixel-2,5x-Teleobjektiv 32-Megapixel-Ultraweitwinkel 32-Megapixel-Selfie-Kamera Bis zu 8K-Videos mit 24fps auf der Rückseite Stereo-Lautsprecher Dual-SIM Wi-Fi 802.11 a/b/g/n/ac/6e/7 Bluetooth 6.0 5.300 Milliamperestunden Akku 120 Watt kabelgebundenes Laden 50 Watt kabelloses Laden 160,3 × 75 × 8,4 Millimeter IP68 zertifiziert 212 Gramm Farben: Gelb, Schwarz (PC-Welt) 

Poco F7 Ultra im Test: Flaggschiff-Leistung zum Mittelklasse-Preis​ Luke Baker

Auf einen Blick

Pro

Leistungsstark

Hoher Gegenwert

Hervorragende Akkulaufzeit

Ultra-schnelles Aufladen

Kontra

Die Kameras erzeugen nicht immer gute Bilder

HyperOS Software hat einige Bloatware an Bord

Fazit

Wenn Sie sich eine Leistung auf Flaggschiff-Niveau wünschen, ohne dafür einen horrenden Preis zahlen zu müssen, ist das Poco F7 Ultra das richtige Smartphone für Sie. Es ist superschnell, hat eine tolle Akkulaufzeit, lässt sich blitzschnell aufladen und schont gleichzeitig Ihren Geldbeutel. Die Kameras sind nicht ganz auf Flaggschiff-Niveau, aber sie sind immer noch mehr als gut genug für gelegentliche Fotos.

Poco ist dafür bekannt, gute Mittelklasse-Handys zu schockierend günstigen Preisen anzubieten. Aber wenn es um echte Flaggschiffe geht, tragen diese normalerweise eher den Namen des ehemaligen Mutterkonzerns Xiaomi. Mit der Einführung des Poco F7 Ultra scheint sich das jedoch zu ändern.

Das F7 Ultra hat alles, was ein echtes Flaggschiff ausmacht. Es verfügt über einen der schnellsten Chips auf dem Markt, den Snapdragon 8 Elite, der auch im Samsung Galaxy S25 zum Einsatz kommt. Dazu gesellen sich ein riesiger Akku, ein wunderschönes Display, schnelles drahtloses Laden und ein gut ausgestattetes Dreifach-Kamerasystem auf der Rückseite.

Auch die Verarbeitung ist erstklassig, mit einem Metallrahmen und einer Glasrückwand, die Sie normalerweise nur bei den teuersten Handys finden. Die Frage ist, ob dieses Gerät mit der beeindruckenden Auswahl an Flaggschiffen des Jahres 2025 mithalten kann oder ob Poco immer noch eine Budget-orientierte Marke bleibt? Ich habe mich die letzte Woche intensiv mit dem Gerät beschäftigt, und hier ist meine Meinung dazu.

Design & Verarbeitung

Aluminiumrahmen, Rückseite aus Glas

160,3 × 75 × 8,4 Millimeter, 212 Gramm

IP68-zertifiziert

Das Poco F7 Ultra ist in klassischem Schwarz erhältlich, aber die charakteristische leuchtend gelbe Farbgebung (komplett mit kontrastierenden schwarzen Seitenleisten) ist viel interessanter.

Es wäre wahrscheinlich nicht meine erste Wahl, aber ich empfinde es als gut, dass es eine so gewagte Option gibt, die sicher sowohl Imker als auch Wu-Tang Clan-Fans ansprechen wird.

Luke Baker

Das Smartphone hat einen vollkommen flachen Bildschirm mit kastenförmigen Seiten und einer flachen Rückseite mit subtilen Rundungen an den Rändern. Es ist ein großes Gerät, und durch die kastenförmige Konstruktion fühlt es sich noch größer an. Dafür ist es nicht besonders schwer, denn es wiegt nur 212 Gramm. Gleichzeitig ist es aber so massiv, dass es sich nicht billig anfühlt.

Es ist ein großes Smartphone, und durch die kastenförmige Konstruktion fühlt es sich noch größer an. Dafür ist es nicht besonders schwer.

Auf der Rückseite befindet sich in der oberen linken Ecke ein kreisrundes Kamerasystem. Das sieht ganz nett aus, aber ich kann mich des Eindrucks nicht erwehren, dass es ein wenig retro aussieht.

Die meisten modernen Flaggschiffe setzen auf zentral platzierte Kameraeinheiten, während mich dies an das Vivo X90 Pro von vor ein paar Jahren erinnert. Wenn Sie es nicht mögen, wenn Ihr Handy auf dem Tisch hin und her wackelt, ist dieses Gerät eher nichts für Sie.

Luke Baker

Das F7 Ultra ist nach IP68 staub- und wasserdicht. Dadurch ist das Smartphone gegen Staub geschützt und kann ohne Schaden in Süßwasser eingetaucht werden.

Das Gerät ist außerdem mit “Poco Shield Glass” ausgestattet, der härtesten Displaybeschichtung der Marke, die angeblich die Sturz- und Kratzfestigkeit erhöht. Mein Exemplar wurde nicht allzu grob behandelt. Nachdem ich es etwa eine Woche lang ohne Displayschutzfolie benutzt habe, sieht es immer noch makellos aus. Es scheint also, dass das Poco Shield Glass seine Aufgabe erfüllt.

Wenn Sie Ihr Smartphone frisch aussehen lassen möchten, finden Sie überdies eine einfache TPU-Hülle in der Verpackung. Es handelt sich um eine mattschwarze Hülle, was ich sehr begrüße. Diese Hüllen sind in der Regel langfristig besser als ihre transparenten Gegenstücke, da sich weniger Staub ansammelt und sie nicht vergilben. Es ist immer schön, eine ansprechend aussehende Hülle ohne Aufpreis zu bekommen.

Luke Baker

Bildschirm & Lautsprecher

6,67-Zoll, 1.440 × 3.200, OLED, 120 Hertz

3.200 Nits, DCI-P3 breite Farbskala

Stereo-Lautsprecher

Das Poco F7 Ultra hat ein wunderbares Display. Es ist ein üppig großes 6,67-Zoll-OLED-Display mit einer adaptiven Bildwiederholfrequenz von 120 Hertz und einer Spitzenhelligkeit von 3.200 Nits.

Nachdem ich viel Zeit mit gewölbten Bildschirmen verbracht habe, ist der gänzlich flache Bildschirm erfrischend, und ich bevorzuge ihn definitiv für Spiele. Das ist eine gute Wahl, denn Gamer sind wahrscheinlich die Hauptzielgruppe für dieses Smartphone. Allerdings fühlt sich die Gestensteuerung, bei der Sie vom Rand des Bildschirms aus wischen müssen, nicht so gut an, vor allem, wenn Sie eine Hülle verwenden.

Der Bildschirm deckt den DCI-P3-Farbraum ab und liefert hochpräzise Farben mit ausgezeichnetem Kontrast

Der Bildschirm deckt die DCI-P3-Farbskala ab und liefert hochpräzise Farben mit ausgezeichneten Kontrastwerten. Wenn Sie es vorziehen, Ihr Bild selbst zu optimieren, stehen Ihnen in den Einstellungen mehr Optionen zur Verfügung als bei den meisten Mitbewerbern. Die Liste umfasst vier voreingestellte Farbmodi, die alle in ihrer Temperatur angepasst werden können, sowie einen erweiterten Modus für eine ausgiebige Kalibrierung.

Es sind zahlreiche augenschonende Maßnahmen integriert, darunter eine zirkulare Polarisationsschicht, die dem natürlichen Licht besser entspricht. Außerdem unterstützt der Bildschirm PWM-Dimmraten von bis zu 3.840 Hertz und sorgt so für ein flimmerfreies Erlebnis bei geringer Helligkeit.

Luke Baker

Dieses Display hat noch einen weiteren Trick in der Hinterhand: einen Co-Processing-Chip namens VisionBoost D7. Dieser soll die Klarheit von Apps wie YouTube und Netflix verbessern, ohne den Akku zu sehr zu belasten. Um ehrlich zu sein, habe ich keinen großen Unterschied bemerkt, wenn die Einstellung aktiviert war. Aber wenn Sie Inhalte mit besonders schlechter Bildqualität konsumieren, könnte es doch einen positiven Einfluss haben.

Das F7 Ultra ist zudem mit einem Ultraschall-Fingerabdruckscanner ausgestattet, der unter dem Display verborgen ist. Diese Funktion ist selbst bei einigen der teuersten Flaggschiffe nicht vorhanden. Daher bin ich sehr froh, sie hier zu finden. Das bedeutet, dass sich Ihr Smartphone schnell und zuverlässig entsperren lässt, egal, wie schmutzig Ihr Bildschirm ist.

Das Gerät ist mit Stereolautsprechern ausgestattet – einer befindet sich auf der Unterseite neben dem USB-C-Anschluss, der andere an der Oberseite. So entsteht eine schöne, breite Klangbühne, die sich hervorragend für Spiele und Filme eignet.

Luke Baker

Die Klarheit ist großartig und die Lautsprecher sind laut genug. Aber es fehlt ihnen – wie so oft – an Bass. Wenn Sie das beste Klangerlebnis wünschen, sollten Sie sich ein Paar kabellose Ohrhörer zulegen.

Spezifikationen & Leistung

Qualcomm Snapdragon 8 Elite

12 Gigabyte / 16 Gigabyte RAM

256 Gigabyte / 512 Gigabyte interner Speicher

Das Poco F7 Ultra verfügt über einen der leistungsstärksten Chips auf dem Markt, den Qualcomm Snapdragon 8 Elite. Das Smartphone ist zudem in zwei Varianten erhältlich, entweder mit 12 Gigabyte RAM und 256 Gigabyte Speicher oder mit 16 Gigabyte RAM und 512 Gigabyte Speicher. Ich habe das letztere Modell getestet, das mehr als genug Platz für alle Medien bietet, die Sie unterwegs benötigen.

Mit einem so leistungsstarken Chip als Herzstück ist es keine Überraschung, dass das F7 Ultra auch Spitzenleistung abliefert. Alles fühlt sich blitzschnell an, von der Navigation im Betriebssystem bis zum Öffnen von Apps und Multitasking. Wenn Sie die Animationsgeschwindigkeit in den Einstellungen auf “schnell” stellen, fühlt es sich wie eine absolute Rakete an.

Dieses Gerät ist mit Abstand eines der leistungsstärksten in seiner Preiskategorie

Wenn Sie auf Spielleistung Wert legen, ist dieses Gerät mit Sicherheit eines der besten in seiner Preisklasse. Standardmäßig führt es jedes Spiel, das Sie ihm vorsetzen können, ohne Probleme auf maximalen Grafikeinstellungen aus. Aber das Poco F7 Ultra hat ein paar zusätzliche Tricks, um die Leistung noch weiter zu steigern.

Das integrierte Spiele-Overlay ermöglicht es Ihnen, Super Resolution und Smart Frame Rate zu aktivieren, zwei neue Funktionen, die den VisionBoost D7 Chipsatz nutzen. Diese Features arbeiten ein wenig wie DLSS und Frame-Generation auf einem Gaming-PC, indem sie KI-Algorithmen zur Interpolation und Hochskalierung eines Spiels verwenden.

Luke Baker

Das funktioniert ziemlich gut und ermöglicht es Ihnen im Wesentlichen, das Spiel mit einer niedrigeren Voreinstellung laufen zu lassen, ohne Abstriche bei der flüssigen Darstellung oder der Qualität zu machen – das schont Ihren Akku und erzeugt weniger Wärme.

Die Funktion Smart Frame Rate hat mich am meisten beeindruckt. Sie ist besonders gut geeignet für “Genshin Impact”, das unter Android auf 60 Bilder pro Sekunde beschränkt ist. Mit aktivierter Funktion wirkt es, als ob das Spiel nun mit 120 Bildern pro Sekunde läuft.

Poco F7 Ultra Benchmarks

Enttäuschend ist, dass viele unserer üblichen Benchmarks auf diesem Smartphone blockiert wurden. Das ist nichts Neues. Wir haben das schon oft bei Vorabversionen von Xiaomi und Redmagic-Geräten gesehen. Aber das macht es schwierig, die Leistung mit konkurrierenden Geräten zu vergleichen.

Zumindest konnte ich Geekbench 6 starten, wo das Gerät etwas schlechter als das Galaxy S25 Ultra, aber besser als das Oppo Find X8 Pro abschneiden konnte. Das F7 Ultra liegt jedoch immer noch weit hinter den dedizierten Gaming-Handys Asus ROG Phone 9 Pro und Nubia Redmagic 10 Pro.

Kameras

50-Megapixel-Hauptsensor

50-Megapixel-2.5x-Teleobjektiv

32-Megapixel-Ultraweitwinkel

32-Megapixel-Selfie-Kamera

Wie üblich hat Poco mehr Wert auf die Spielleistung des F7 Ultra als auf seine Kameras gelegt. Daher habe ich von diesen Objektiven nicht viel erwartet. Dennoch war ich von den Ergebnissen angenehm überrascht.

Luke Baker

Natürlich ist die Bildqualität immer etwas subjektiv, aber für meinen Geschmack macht das Poco F7 Ultra vielleicht die besten Fotos von allen Gaming-Handys. Es kann mit dem Asus ROG Phone 9 Pro mühelos mithalten und übertrifft auch alle Smartphones von Redmagic.

Das Poco F7 Ultra macht vielleicht die besten Fotos aller Gaming-Handys

Der Hauptgrund dafür ist die Bildverarbeitung: Die Farben sehen angenehm und naturgetreu aus, der Dynamikumfang ist großartig und das Linsentrio bietet Ihnen eine große Flexibilität bei der Gestaltung Ihrer Aufnahmen. Auch der Digitalzoom ist besser, als ich erwartet hatte, und liefert brauchbare Ergebnisse bis zu einer zehnfachen Vergrößerung.

Das Ultraweitwinkelobjektiv ist, wie so oft, das schwächste des Trios, und das gilt besonders bei Nacht. Die Details sind bei diesem Objektiv sehr unscharf und es verfügt über keinen Autofokus, sodass Sie es nicht für Nahaufnahmen verwenden können. Auch die Farben sind im Vergleich zu den anderen Kameras ein wenig verschoben.

Tagsüber können Sie mit dem Haupt- und dem Teleobjektiv beeindruckende Aufnahmen machen, aber nachts sollten Sie sich eher an die Hauptkamera halten. Das Teleobjektiv leistet gute Arbeit, aber mit diesem winzigen Sensor ist nicht viel zu machen, und Sie werden sich die meiste Zeit auf den Nachtmodus verlassen müssen.

Die Selfie-Kamera ist solide, aber nicht besonders bemerkenswert. Ich war mit der Detailgenauigkeit zufrieden und die Effekte im Porträtmodus funktionieren zuverlässig. Aber es gibt keinen Autofokus und den Farben fehlt es bei schlechten Lichtverhältnissen an Lebendigkeit.

Bei Videoaufnahmen kann das F7 Ultra mit dem Hauptobjektiv bis zu 8K-Auflösung mit 24 Bildern pro Sekunde aufnehmen, allerdings nur 6 Minuten am Stück. Realistischer ist es, wenn Sie Videos mit 4K-Auflösung und 60 Bildern pro Sekunde aufnehmen, was mit der Haupt- und der Telekamera funktioniert. Die Ultrawide- und die Selfie-Kamera erreichen maximal 1080p-Auflösung mit 60 Bildern pro Sekunde.

Die Ergebnisse sind ausreichend, aber die Unterschiede sind ein klares Indiz dafür, dass dieses System eine Stufe unter dem typischen Flaggschiff liegt. Sie müssen sich also vorher genau überlegen, welche Auflösung Sie auswählen wollen.

Akkulaufzeit & Aufladen

5.300 Milliamperestunden Akku

120 Watt kabelgebundenes Laden

50 Watt kabelloses Laden

Das Poco F7 Ultra verfügt über einen 5.300-Milliamperestunden-Akku, mehr als ein typisches Flaggschiff, aber nicht ganz so viel wie die neuesten Silizium-Kohlenstoff-Akkus, die sich um die 6.000-Milliamperestunden-Marke bewegen. Deswegen habe ich eine gute Akkulaufzeit erwartet, aber nichts Überragendes. Das F7 Ultra hat mich jedoch überrascht.

Luke Baker

Ich habe ohne viel Mühe zwei Tage mit einer Akkuladung geschafft, und ich bin ein ziemlich intensiver Nutzer. Wenn Sie etwas rücksichtsvoller sind, halte ich auch einen dritten Tag für machbar. Natürlich wird der Akku bei intensiven Spielsessions viel schneller entladen, es kommt also wie immer darauf an, wie Sie das Gerät nutzen. In jedem Fall kann man sagen, dass die Akkulaufzeit großartig ist.

Das Smartphone war in etwas mehr als einer halben Stunde von vollkommen leer auf 100 Prozent aufgeladen

Wenn der Akku einmal leer ist, werden Sie nicht lange auf eine Aufladung warten müssen. Mit dem mitgelieferten 120-Watt-Netzteil war das Smartphone in etwas mehr als einer halben Stunde wieder zu 100 Prozent aufgeladen. Wenn Sie drahtloses Laden bevorzugen, können Sie auch hier beeindruckende Geschwindigkeiten erwarten. Das Poco F7 Ultra unterstützt kabelloses Laden mit bis zu 50 Watt mit dem entsprechenden Ladepad.

Software & Apps

HyperOS 2, basierend auf Android 15

Circle to Search und Gemini

Einige Bloatware vorinstalliert

Auf dem Poco F7 Ultra läuft HyperOS 2, eine stark angepasste Version von Android 15, die auf vielen Xiaomi-, Redmi- und Poco-Handys zu finden ist. Wenn Sie ein aktuelles Modell einer dieser Marken benutzt haben, werden Sie nicht allzu viele Überraschungen erleben.

Luke Baker

Beginnen wir mit den positiven Aspekten: HyperOS sieht sehr elegant aus und ist sehr schnell. Der Einfluss von iOS ist deutlich zu erkennen, insbesondere bei den Schnelleinstellungen und der Anpassung des Sperrbildschirms. Ich persönlich finde das in Ordnung, denn das Ergebnis sieht großartig aus.

Es gibt tonnenweise Anpassungsmöglichkeiten in jedem Bereich des Systems. Wenn also etwas nicht so aussieht oder sich nicht so verhält, wie Sie es sich wünschen, ist die Wahrscheinlichkeit groß, dass Sie es ändern können. Ich liebe die Freiheit, die mir das bietet, und ich schätze auch die schiere Menge an Apps, die ich auf meinem Startbildschirm platzieren kann.

Die Nachteile sind die gleichen wie immer. Bei der Ersteinrichtung des Geräts müssen Sie ein wenig Bloatware entfernen – nichts Schlimmes, aber eine Aufgabe, auf die ich gut verzichten könnte. Außerdem ist in einigen System-Apps, wie der Hintergrundbildauswahl und dem Spielcenter, Werbung eingebettet. Das schmälert das sonst so hochwertige Erlebnis.

Luke Baker

Ich habe mich gefreut, dass das Smartphone die neuesten Funktionen von Google enthält, wie die Möglichkeit, Gemini als Standard-Suchassistenten einzustellen, und Circle to Search. Diese Funktionen sind im Jahr 2025 nicht mehr ganz neu, aber sehr nützlich. Ansonsten sind die KI-Funktionen etwas spärlich, abgesehen von den bereits erwähnten Verbesserungen für Spiele.

Preis & Verfügbarkeit

Das Poco F7 Ultra wurde am 27. März 2025 weltweit eingeführt.

In Deutschland kostet das Smartphone 699,90 Euro mit 12 Gigabyte RAM und 256 Gigabyte internem Speicher. Das Modell mit 16 Gigabyte RAM und 512 Gigabyte internem Speicher wird hingegen für 749,90 Euro angeboten.

Sie können das Poco F7 Ultra direkt auf der Xiaomi Website zu diesen Preisen bestellen. Bei Amazon wird aktuell lediglich die kleinere Version mit 12 Gigabyte RAM und 256 Gigabyte Speicherplatz für 699,90 Euro angeboten.

Mit diesem Preis liegt es am oberen Ende des Marktes für Mittelklasse-Handys und muss sich mit Geräten wie dem Xiaomi 14T Pro und dem OnePlus 13R messen lassen. Und auch das Google Pixel 9 wird oft schon zu einem ähnlichen Preis angeboten.

Sollten Sie das Poco F7 Ultra kaufen?

Wenn Sie eine Leistung auf Flaggschiff-Niveau suchen, aber nur ein Budget für die obere Mittelklasse zur Verfügung haben, können Sie sich kaum eine bessere Option als das Poco F7 Ultra wünschen. Es ist ein hervorragendes Preis-Leistungs-Verhältnis und bietet ein Spiel- und Produktivitätserlebnis, das mit den besten Handys auf dem Markt mithalten kann.

Nur die Kameras sind nicht ganz auf dem Niveau anderer Flaggschiffe. Sie sind immer noch recht gut und sicherlich besser als die der meisten Gaming-Handys, können aber nicht mit Geräten wie dem Samsung Galaxy S25 Ultra oder dem Xiaomi 15 Ultra mithalten.

Ansonsten sind der Bildschirm, die Akkulaufzeit und die Ladegeschwindigkeit allesamt erstklassig. Es ist ein Vergnügen, das Smartphone zu benutzen, und solange Sie bei Ihren Fotos nicht zu wählerisch sind, werden Sie viel Freude damit haben.

Spezifikationen

HyperOS 2, basierend auf Android 15

6,67-Zoll, 1.440 × 3.200 Pixel, OLED, 120-Hertz-Display

Ultraschall-Fingerabdruckleser unter dem Display

Qualcomm Snapdragon 8 Elite

12 Gigabyte / 16 Gigabyte RAM

256 Gigabyte / 512 Gigabyte Speicher

Kameras:

50-Megapixel-Hauptsensor

50-Megapixel-2,5x-Teleobjektiv

32-Megapixel-Ultraweitwinkel

32-Megapixel-Selfie-Kamera

Bis zu 8K-Videos mit 24fps auf der Rückseite

Stereo-Lautsprecher

Dual-SIM

Wi-Fi 802.11 a/b/g/n/ac/6e/7

Bluetooth 6.0

5.300 Milliamperestunden Akku

120 Watt kabelgebundenes Laden

50 Watt kabelloses Laden

160,3 × 75 × 8,4 Millimeter

IP68 zertifiziert

212 Gramm

Farben: Gelb, Schwarz

(PC-Welt)

Poco F7 Ultra im Test: Flaggschiff-Leistung zum Mittelklasse-Preis​ Weiterlesen »

Samsung Galaxy S25 Ultra vs. OnePlus 13: Der Flaggschiff-Vergleich​

Allgemein

Foundry Der Kampf zwischen Samsung und OnePlus ist härter denn je. Das Galaxy S25 Ultra und das OnePlus 13 liefern sich ein Kopf-an-Kopf-Rennen um den Titel des besten Android-Smartphones. Beide Handys bieten die neueste Hardware und schnelle, KI-gesteuerte Software mit vielen Funktionen, aber es gibt einige wichtige Unterschiede, die für den Kauf eines der beiden Geräte entscheidend sein könnten. Nachfolgend vergleichen wir die beiden Flaggschiffe miteinander. Akku & Aufladen Das OnePlus 13 lässt das S25 Ultra in puncto Akkuleistung hinter sich. Mit seiner riesigen 6.000-Milliamperestunden-Silizium-Kohle-Zelle bietet es eine erstaunliche Ausdauer – mit bis zu 13 Stunden Bildschirmzeit und zwei Tagen bei moderater Nutzung. Außerdem lässt es sich dank der kabelgebundenen 100-Watt-Ladung, die das OnePlus 13 in nur 36 Minuten von 0 auf 100 Prozent bringt, viel schneller aufladen. Sogar das kabellose Laden mit 50 Watt ist mehr als doppelt so schnell wie die 15 Watt des S25 Ultra. OnePlus 13Foundry | Alex Walker-Todd Im Gegensatz dazu verfügt das S25 Ultra über einen 5.000-Milliamperestunden-Akku und die gleiche kabelgebundene Ladeleistung von 45 Watt und kabellose Ladeleistung von 15 Watt wie sein Vorgänger. Mit diesen Ladegeschwindigkeiten kann das Gerät in etwa einer Stunde von vollkommen leer auf 100 Prozent aufgeladen werden. Samsung wirbt mit kleinen Effizienzsteigerungen, aber mit der rohen Leistung und den Ladegeschwindigkeiten des OnePlus 13 kann es nicht mithalten. Samsung Galaxy S25 UltraLuke Baker Wenn Akkulaufzeit und schnelles Aufladen Priorität sind, ist das OnePlus 13 der klare Sieger. Display Das OnePlus 13 verfügt über ein atemberaubendes 6,82 Zoll LTPO 4.1 OLED-Display mit einer Spitzenhelligkeit von 4.500 Nits, was es außergewöhnlich hell und scharf macht. Außerdem bietet es einen Ultraschall-Fingerabdrucksensor im Display und fortschrittliche Touch-Funktionen wie Aqua Touch 2.0 für die Bedienung mit nassen Händen. OnePlus 13Foundry | Alex Walker-Todd Samsung behält jedoch mit dem 6,9 Zoll großen AMOLED-Display des S25 Ultra die Oberhand. Es kann zwar nicht mit der Helligkeit des OnePlus-Displays mithalten, aber sein verbessertes Corning Gorilla Armor 2 bietet eine hervorragende Kratz- und Stoßfestigkeit. Vor allem aber reduziert die Antireflexionsbeschichtung von Samsung die Blendwirkung erheblich und sorgt so für eine unübertroffene Sichtbarkeit im Freien. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?quality=50&strip=all 2392w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=768%2C428&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=1024%2C570&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=1536%2C855&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=2048%2C1140&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=1240%2C691&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=854%2C476&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=640%2C356&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=444%2C247&quality=50&strip=all 444w” width=”1024″ height=”570″ sizes=”(max-width: 1024px) 100vw, 1024px”>Samsung Galaxy S25 UltraLuke Baker Für Multimedia-Liebhaber bleibt das S25 Ultra mit seinem raffinierten Display das Beste seiner Klasse. Kameras Beide Handys verfügen über leistungsstarke Kameras, allerdings mit unterschiedlichen Ansätzen. Das S25 Ultra bleibt weitgehend der bewährten Formel treu und behält seinen beeindruckenden 200-Megapixel-Hauptsensor und die beiden Teleobjektive (dreifach und fünffach), während die Ultrawide-Kamera von 12 auf 50 Megapixel aufgerüstet wurde. Die Ergebnisse sind exzellent, mit verbesserten Hauttönen und Videoaufnahmen, die jetzt 8K-LOG-Profile für die Bearbeitung auf Profi-Niveau bieten. Der in die Jahre gekommene Dreifach-Teleobjektiv-Sensor erreicht jedoch bei schlechten Lichtverhältnissen seine Grenzen. OnePlus 13Foundry | Alex Walker-Todd Das OnePlus 13 verfügt über drei 50-Megapixel-Sensoren für die Haupt-, Ultraweitwinkel- und Dreifach-Telekamera, die alle durch das Hasselblad-System der fünften Generation verbessert wurden. OnePlus liefert einen besseren Kontrast und dramatischere Bilder, wenn auch manchmal auf Kosten der Farbgenauigkeit. Seine Fähigkeit, 4K Dolby Vision über alle Kameras hinweg aufzunehmen, und seine beeindruckende Leistung bei schlechten Lichtverhältnissen machen es zu einem ernst zu nehmenden Konkurrenten. Profis werden auch die nahtlosen 4K-HDR-Fähigkeiten bei allen drei Objektiven lieben. Samsung Galaxy S25 UltraLuke Baker Letztlich bietet Samsung mit seinem Fünffach-Zoom mehr Vielseitigkeit, aber OnePlus ist ihm im Hinblick auf Bildwirkung und Videofähigkeit ebenbürtig und übertrifft es oft. Weitere Unterschiede Beide Smartphones werden vom Snapdragon 8 Elite-Chipsatz angetrieben, aber das OnePlus 13 liefert nicht nur eine rasante Leistung, sondern verwaltet dank seiner großen, doppelten Dampfkammern auch die Wärme effektiver. Es bewältigt längere Spielsessions mit weniger thermischer Drosselung als das S25 Ultra, das trotz einer größeren Dampfkammer als beim Vorgänger unter Belastung spürbar warm wird. OnePlus 13Foundry | Alex Walker-Todd Das OnePlus 13 bietet außerdem eine einzigartige Rückseite aus veganem Mikrofaserleder, die angenehmer in der Hand liegt und weniger anfällig für Schmutz ist. Überdies bietet die IP69-Zertifizierung eine höhere Wasserfestigkeit als die IP68-Zertifizierung des S25 Ultra. Das S25 Ultra hingegen verfügt über einen hochwertigen Titanrahmen und den zusätzlichen Schutz von Corning Gorilla Armor 2, der es widerstandsfähiger gegen Stürze und Kratzer macht. Überdies unterstützt es den S Pen Stylus für präzise Eingaben, eine Funktion, die dem OnePlus 13 fehlt. Samsung Galaxy S25 UltraLuke Baker Was die Software betrifft, so laufen beide Smartphones mit Android 15, aber während Samsung seine One UI 7 Oberfläche verwendet, setzt OnePlus auf sein eigenes OxygenOS 15. Diejenigen, die Einfachheit und Schnelligkeit bevorzugen, werden sich vielleicht für OnePlus entscheiden, während Nutzer, die tiefere Funktionen suchen, Samsung bevorzugen. Nutzer des Galaxy S25 können sich auf sieben Jahre Betriebssystem- und Sicherheitsupdates verlassen, während OnePlus nur vier Jahre Betriebssystemunterstützung und sechs Jahre Sicherheitsupdates verspricht. Preis & Verfügbarkeit Das OnePlus 13 ist günstiger als das Galaxy S25 Ultra. Im Online-Shop von OnePlus kostet die Variante mit 12 Gigabyte RAM und 256 Gigabyte Speicher 999 Euro. 16 Gigabyte RAM und 512 Gigabyte Speicher schlagen mit 1.049 Euro zu Buche. Bei Amazon ist das Smartphone ab 929 Euro erhältlich. OnePlus hält an einer wertorientierten Preisgestaltung fest, ohne dabei auf Premium-Funktionen zu verzichten, was es zu einer wettbewerbsfähigen Option für preisbewusste Käufer macht. Aktuell bester Preis: OnePlus 13 Das Galaxy S25 Ultra ist mit 256 Gigabyte, 512 Gigabyte und 1 Terabyte Speicher erhältlich. 256 und 512 Gigabyte kosten bei Samsung derzeit 1.449 Euro. 1 Terabyte ist für 1.569 Euro erhältlich. Amazon hat das Smartphone ab 1.256 Euro im Angebot. Fazit Das Galaxy S25 Ultra ist perfekt für alle, die Wert auf Displayqualität, Ökosystemfunktionen und langfristigen Software-Support legen. Das OnePlus 13 besticht jedoch durch seine außergewöhnliche Akkulaufzeit, das schnellere Aufladen und die bessere Kühlung. Wenn niedriger Preis, Leistung und Effizienz Ihre Prioritäten sind, gewinnt das OnePlus 13. Für diejenigen, die eine hochwertige Verarbeitung und die Integration des Ökosystems suchen, insbesondere wenn Sie bereits ein Samsung Galaxy-Smartphone nutzen, bleibt das S25 Ultra ein starker Konkurrent. (PC-Welt) 

Samsung Galaxy S25 Ultra vs. OnePlus 13: Der Flaggschiff-Vergleich​ Foundry

Der Kampf zwischen Samsung und OnePlus ist härter denn je. Das Galaxy S25 Ultra und das OnePlus 13 liefern sich ein Kopf-an-Kopf-Rennen um den Titel des besten Android-Smartphones.

Beide Handys bieten die neueste Hardware und schnelle, KI-gesteuerte Software mit vielen Funktionen, aber es gibt einige wichtige Unterschiede, die für den Kauf eines der beiden Geräte entscheidend sein könnten. Nachfolgend vergleichen wir die beiden Flaggschiffe miteinander.

Akku & Aufladen

Das OnePlus 13 lässt das S25 Ultra in puncto Akkuleistung hinter sich. Mit seiner riesigen 6.000-Milliamperestunden-Silizium-Kohle-Zelle bietet es eine erstaunliche Ausdauer – mit bis zu 13 Stunden Bildschirmzeit und zwei Tagen bei moderater Nutzung.

Außerdem lässt es sich dank der kabelgebundenen 100-Watt-Ladung, die das OnePlus 13 in nur 36 Minuten von 0 auf 100 Prozent bringt, viel schneller aufladen. Sogar das kabellose Laden mit 50 Watt ist mehr als doppelt so schnell wie die 15 Watt des S25 Ultra.

OnePlus 13Foundry | Alex Walker-Todd

Im Gegensatz dazu verfügt das S25 Ultra über einen 5.000-Milliamperestunden-Akku und die gleiche kabelgebundene Ladeleistung von 45 Watt und kabellose Ladeleistung von 15 Watt wie sein Vorgänger. Mit diesen Ladegeschwindigkeiten kann das Gerät in etwa einer Stunde von vollkommen leer auf 100 Prozent aufgeladen werden.

Samsung wirbt mit kleinen Effizienzsteigerungen, aber mit der rohen Leistung und den Ladegeschwindigkeiten des OnePlus 13 kann es nicht mithalten.

Samsung Galaxy S25 UltraLuke Baker

Wenn Akkulaufzeit und schnelles Aufladen Priorität sind, ist das OnePlus 13 der klare Sieger.

Display

Das OnePlus 13 verfügt über ein atemberaubendes 6,82 Zoll LTPO 4.1 OLED-Display mit einer Spitzenhelligkeit von 4.500 Nits, was es außergewöhnlich hell und scharf macht. Außerdem bietet es einen Ultraschall-Fingerabdrucksensor im Display und fortschrittliche Touch-Funktionen wie Aqua Touch 2.0 für die Bedienung mit nassen Händen.

OnePlus 13Foundry | Alex Walker-Todd

Samsung behält jedoch mit dem 6,9 Zoll großen AMOLED-Display des S25 Ultra die Oberhand. Es kann zwar nicht mit der Helligkeit des OnePlus-Displays mithalten, aber sein verbessertes Corning Gorilla Armor 2 bietet eine hervorragende Kratz- und Stoßfestigkeit. Vor allem aber reduziert die Antireflexionsbeschichtung von Samsung die Blendwirkung erheblich und sorgt so für eine unübertroffene Sichtbarkeit im Freien.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?quality=50&strip=all 2392w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=768%2C428&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=1024%2C570&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=1536%2C855&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=2048%2C1140&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=1240%2C691&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=854%2C476&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=640%2C356&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=444%2C247&quality=50&strip=all 444w” width=”1024″ height=”570″ sizes=”(max-width: 1024px) 100vw, 1024px”>Samsung Galaxy S25 UltraLuke Baker

Für Multimedia-Liebhaber bleibt das S25 Ultra mit seinem raffinierten Display das Beste seiner Klasse.

Kameras

Beide Handys verfügen über leistungsstarke Kameras, allerdings mit unterschiedlichen Ansätzen. Das S25 Ultra bleibt weitgehend der bewährten Formel treu und behält seinen beeindruckenden 200-Megapixel-Hauptsensor und die beiden Teleobjektive (dreifach und fünffach), während die Ultrawide-Kamera von 12 auf 50 Megapixel aufgerüstet wurde.

Die Ergebnisse sind exzellent, mit verbesserten Hauttönen und Videoaufnahmen, die jetzt 8K-LOG-Profile für die Bearbeitung auf Profi-Niveau bieten. Der in die Jahre gekommene Dreifach-Teleobjektiv-Sensor erreicht jedoch bei schlechten Lichtverhältnissen seine Grenzen.

OnePlus 13Foundry | Alex Walker-Todd

Das OnePlus 13 verfügt über drei 50-Megapixel-Sensoren für die Haupt-, Ultraweitwinkel- und Dreifach-Telekamera, die alle durch das Hasselblad-System der fünften Generation verbessert wurden.

OnePlus liefert einen besseren Kontrast und dramatischere Bilder, wenn auch manchmal auf Kosten der Farbgenauigkeit. Seine Fähigkeit, 4K Dolby Vision über alle Kameras hinweg aufzunehmen, und seine beeindruckende Leistung bei schlechten Lichtverhältnissen machen es zu einem ernst zu nehmenden Konkurrenten. Profis werden auch die nahtlosen 4K-HDR-Fähigkeiten bei allen drei Objektiven lieben.

Samsung Galaxy S25 UltraLuke Baker

Letztlich bietet Samsung mit seinem Fünffach-Zoom mehr Vielseitigkeit, aber OnePlus ist ihm im Hinblick auf Bildwirkung und Videofähigkeit ebenbürtig und übertrifft es oft.

Weitere Unterschiede

Beide Smartphones werden vom Snapdragon 8 Elite-Chipsatz angetrieben, aber das OnePlus 13 liefert nicht nur eine rasante Leistung, sondern verwaltet dank seiner großen, doppelten Dampfkammern auch die Wärme effektiver. Es bewältigt längere Spielsessions mit weniger thermischer Drosselung als das S25 Ultra, das trotz einer größeren Dampfkammer als beim Vorgänger unter Belastung spürbar warm wird.

OnePlus 13Foundry | Alex Walker-Todd

Das OnePlus 13 bietet außerdem eine einzigartige Rückseite aus veganem Mikrofaserleder, die angenehmer in der Hand liegt und weniger anfällig für Schmutz ist. Überdies bietet die IP69-Zertifizierung eine höhere Wasserfestigkeit als die IP68-Zertifizierung des S25 Ultra.

Das S25 Ultra hingegen verfügt über einen hochwertigen Titanrahmen und den zusätzlichen Schutz von Corning Gorilla Armor 2, der es widerstandsfähiger gegen Stürze und Kratzer macht. Überdies unterstützt es den S Pen Stylus für präzise Eingaben, eine Funktion, die dem OnePlus 13 fehlt.

Samsung Galaxy S25 UltraLuke Baker

Was die Software betrifft, so laufen beide Smartphones mit Android 15, aber während Samsung seine One UI 7 Oberfläche verwendet, setzt OnePlus auf sein eigenes OxygenOS 15. Diejenigen, die Einfachheit und Schnelligkeit bevorzugen, werden sich vielleicht für OnePlus entscheiden, während Nutzer, die tiefere Funktionen suchen, Samsung bevorzugen.

Nutzer des Galaxy S25 können sich auf sieben Jahre Betriebssystem- und Sicherheitsupdates verlassen, während OnePlus nur vier Jahre Betriebssystemunterstützung und sechs Jahre Sicherheitsupdates verspricht.

Preis & Verfügbarkeit

Das OnePlus 13 ist günstiger als das Galaxy S25 Ultra. Im Online-Shop von OnePlus kostet die Variante mit 12 Gigabyte RAM und 256 Gigabyte Speicher 999 Euro. 16 Gigabyte RAM und 512 Gigabyte Speicher schlagen mit 1.049 Euro zu Buche. Bei Amazon ist das Smartphone ab 929 Euro erhältlich.

OnePlus hält an einer wertorientierten Preisgestaltung fest, ohne dabei auf Premium-Funktionen zu verzichten, was es zu einer wettbewerbsfähigen Option für preisbewusste Käufer macht.

Aktuell bester Preis: OnePlus 13

Das Galaxy S25 Ultra ist mit 256 Gigabyte, 512 Gigabyte und 1 Terabyte Speicher erhältlich. 256 und 512 Gigabyte kosten bei Samsung derzeit 1.449 Euro. 1 Terabyte ist für 1.569 Euro erhältlich. Amazon hat das Smartphone ab 1.256 Euro im Angebot.

Fazit

Das Galaxy S25 Ultra ist perfekt für alle, die Wert auf Displayqualität, Ökosystemfunktionen und langfristigen Software-Support legen. Das OnePlus 13 besticht jedoch durch seine außergewöhnliche Akkulaufzeit, das schnellere Aufladen und die bessere Kühlung.

Wenn niedriger Preis, Leistung und Effizienz Ihre Prioritäten sind, gewinnt das OnePlus 13. Für diejenigen, die eine hochwertige Verarbeitung und die Integration des Ökosystems suchen, insbesondere wenn Sie bereits ein Samsung Galaxy-Smartphone nutzen, bleibt das S25 Ultra ein starker Konkurrent.

(PC-Welt)

Samsung Galaxy S25 Ultra vs. OnePlus 13: Der Flaggschiff-Vergleich​ Weiterlesen »

Galaxy A36 vs. Galaxy A35: Welches ist der bessere Kauf?​

Allgemein

Foundry Samsung hat seine Mittelklasse-Reihe Galaxy A in diesem Jahr um das Galaxy A36 erweitert. Das Smartphone ist der Nachfolger des Galaxy A35 aus dem Jahr 2024. Auch wenn sie sich auf den ersten Blick ähneln, gibt es doch einige wichtige Unterschiede zwischen den beiden Smartphones. Im Folgenden werfen wir einen Blick auf Gemeinsamkeiten und Unterschiede und finden heraus, welches Gerät das bessere Preis-Leistungs-Verhältnis bietet. Akku & Aufladen Eines der wichtigsten Upgrades des Galaxy A36 ist seine verbesserte Ladegeschwindigkeit. Während beide Smartphones mit einem 5.000-Milliamperestunden-Akku ausgestattet sind, lädt das A36 mit maximal 45 Watt, das A35 jedoch nur mit 25 Watt. Foundry Das bedeutet, dass das A35 etwa 90 Minuten benötigt, um eine volle Ladung zu erreichen, während das A36 zwei Drittel seines Akkus in nur 30 Minuten aufladen kann. Luke Baker Wenn schnelles Aufladen für Sie ein wichtiger Faktor ist, ist das A36 hier der klare Sieger. Software Samsung setzt im Jahr 2025 auf KI-Funktionen, und das A36 verfügt über mehr KI-Features als das A35. Foundry | Alex Walker-Todd Das A36 unterstützt Samsungs neue “Awesome Intelligence”-Funktionen, darunter AI Select, Object Eraser (automatischer Vorschlag), Filters (Filmstile anpassen) und Read Aloud, während das A35 nur Object Eraser, Smart Select und einfache Bearbeitungsvorschläge bietet. Die zusätzlichen KI-Tools des A36, wie AI Select und Read Aloud, verbessern die Benutzererfahrung, indem sie die Erstellung von Inhalten und die Zugänglichkeit intuitiver gestalten. Luke Baker Wenn Sie Wert auf KI-gestützte Tools auf Ihrem Smartphone legen, ist das A36 die bessere Wahl. Display Samsung hat das Display des A36 deutlich verbessert. Foundry | Alex Walker-Todd Der 6,7-Zoll-AMOLED-Bildschirm mit einer Helligkeit von 1.200 Candela pro Quadratmeter ist heller und etwas größer als das 6,6-Zoll-Display des A35 mit 1.000 Candela pro Quadratmeter. Das bedeutet eine bessere Lesbarkeit im Freien und eine bessere Darstellung von HDR-Inhalten. Luke Baker Obwohl beide Displays eine Bildwiederholfrequenz von 120 Hertz unterstützen, ist das A36 aufgrund seiner höheren Helligkeit die bessere Wahl für alle, die ihr Smartphone häufig im Freien verwenden oder viele Medien konsumieren. Weitere Unterschiede Abgesehen von diesen großen Unterschieden gibt es noch ein paar kleinere Verbesserungen. Das A36 ist mit 7,4 Millimetern dünner als das A35 (8,2 Millimeter) und mit 195 Gramm leichter als das A35 (209 Gramm), wodurch es besser in der Hand liegt. Außerdem verwendet es den Snapdragon 6 Gen 3 Chip, während das A35 mit dem älteren Exynos 1380 läuft. Die Verbesserung ist mit etwa sechs Prozent zwar gering, aber die Chipsätze von Qualcomm sind tendenziell energieeffizienter. Luke Baker Das A35 hat eine 13-Megapixel-Frontkamera, während das A36 einen 12-Megapixel-Sensor mit Super HDR bietet. Während die Selfie-Kamera des A35 technisch gesehen mehr Megapixel hat, könnten die KI-Verbesserungen des A36 für bessere Aufnahmen bei unterschiedlichen Lichtverhältnissen sorgen. Und schließlich behält das Galaxy A36 zwar die Button-Insel auf dem Rahmen bei, ändert aber das Design der rückwärtigen Kameras und umgibt die drei vorstehenden Linsen mit einem Aluminiumrahmen. Ansonsten sind fast alle anderen Merkmale der beiden Smartphones nahezu identisch. Preis & Verfügbarkeit Bei Samsung selbst ist das Galaxy A35 nicht mehr erhältlich. Online-Händler Amazon bietet die 128-Gigabyte-Version mit 6 Gigabyte RAM jedoch für 258 Euro an. Die Ausführung mit 256 Gigabyte Speicher und 8 Gigabyte RAM kostet 326 Euro. Aktuell bester Preis: Samsung Galaxy A35 5G Das Galaxy A36 ist im Online-Shop von Samsung mit 6 Gigabyte RAM und 128 Gigabyte Speicher für 379 Euro erhältlich. Die Ausführung mit 8 Gigabyte RAM und 256 Gigabyte Speicher ist aktuell bereits für 414 Euro zu haben. Bei Online-Händler Amazon ist der Preis für die kleinere Version identisch, das Modell mit 256 Gigabyte Speicher kostet hier jedoch nur 379 Euro. Aktuell bester Preis: Samsung Galaxy A36 Fazit Wenn Sie auf der Suche nach dem besten Preis-Leistungs-Verhältnis in der Mittelklasse sind und Ihnen eine etwas langsamere Ladezeit nichts ausmacht, dann ist das Galaxy A35 nach wie vor eine gute Budget-Option. Wenn Sie jedoch die neuesten KI-Funktionen, schnelleres Aufladen und ein deutlich helleres Display wollen, dann ist das Galaxy A36 den Aufpreis wert. Das A36 fühlt sich dank des Qualcomm-Chips, der KI-Tools und der besseren langfristigen Nutzbarkeit zukunftssicherer an und ist damit insgesamt eine bessere Investition. (PC-Welt) 

Galaxy A36 vs. Galaxy A35: Welches ist der bessere Kauf?​ Foundry

Samsung hat seine Mittelklasse-Reihe Galaxy A in diesem Jahr um das Galaxy A36 erweitert. Das Smartphone ist der Nachfolger des Galaxy A35 aus dem Jahr 2024.

Auch wenn sie sich auf den ersten Blick ähneln, gibt es doch einige wichtige Unterschiede zwischen den beiden Smartphones. Im Folgenden werfen wir einen Blick auf Gemeinsamkeiten und Unterschiede und finden heraus, welches Gerät das bessere Preis-Leistungs-Verhältnis bietet.

Akku & Aufladen

Eines der wichtigsten Upgrades des Galaxy A36 ist seine verbesserte Ladegeschwindigkeit. Während beide Smartphones mit einem 5.000-Milliamperestunden-Akku ausgestattet sind, lädt das A36 mit maximal 45 Watt, das A35 jedoch nur mit 25 Watt.

Foundry

Das bedeutet, dass das A35 etwa 90 Minuten benötigt, um eine volle Ladung zu erreichen, während das A36 zwei Drittel seines Akkus in nur 30 Minuten aufladen kann.

Luke Baker

Wenn schnelles Aufladen für Sie ein wichtiger Faktor ist, ist das A36 hier der klare Sieger.

Software

Samsung setzt im Jahr 2025 auf KI-Funktionen, und das A36 verfügt über mehr KI-Features als das A35.

Foundry | Alex Walker-Todd

Das A36 unterstützt Samsungs neue “Awesome Intelligence”-Funktionen, darunter AI Select, Object Eraser (automatischer Vorschlag), Filters (Filmstile anpassen) und Read Aloud, während das A35 nur Object Eraser, Smart Select und einfache Bearbeitungsvorschläge bietet.

Die zusätzlichen KI-Tools des A36, wie AI Select und Read Aloud, verbessern die Benutzererfahrung, indem sie die Erstellung von Inhalten und die Zugänglichkeit intuitiver gestalten.

Luke Baker

Wenn Sie Wert auf KI-gestützte Tools auf Ihrem Smartphone legen, ist das A36 die bessere Wahl.

Display

Samsung hat das Display des A36 deutlich verbessert.

Foundry | Alex Walker-Todd

Der 6,7-Zoll-AMOLED-Bildschirm mit einer Helligkeit von 1.200 Candela pro Quadratmeter ist heller und etwas größer als das 6,6-Zoll-Display des A35 mit 1.000 Candela pro Quadratmeter. Das bedeutet eine bessere Lesbarkeit im Freien und eine bessere Darstellung von HDR-Inhalten.

Luke Baker

Obwohl beide Displays eine Bildwiederholfrequenz von 120 Hertz unterstützen, ist das A36 aufgrund seiner höheren Helligkeit die bessere Wahl für alle, die ihr Smartphone häufig im Freien verwenden oder viele Medien konsumieren.

Weitere Unterschiede

Abgesehen von diesen großen Unterschieden gibt es noch ein paar kleinere Verbesserungen. Das A36 ist mit 7,4 Millimetern dünner als das A35 (8,2 Millimeter) und mit 195 Gramm leichter als das A35 (209 Gramm), wodurch es besser in der Hand liegt.

Außerdem verwendet es den Snapdragon 6 Gen 3 Chip, während das A35 mit dem älteren Exynos 1380 läuft. Die Verbesserung ist mit etwa sechs Prozent zwar gering, aber die Chipsätze von Qualcomm sind tendenziell energieeffizienter.

Luke Baker

Das A35 hat eine 13-Megapixel-Frontkamera, während das A36 einen 12-Megapixel-Sensor mit Super HDR bietet. Während die Selfie-Kamera des A35 technisch gesehen mehr Megapixel hat, könnten die KI-Verbesserungen des A36 für bessere Aufnahmen bei unterschiedlichen Lichtverhältnissen sorgen.

Und schließlich behält das Galaxy A36 zwar die Button-Insel auf dem Rahmen bei, ändert aber das Design der rückwärtigen Kameras und umgibt die drei vorstehenden Linsen mit einem Aluminiumrahmen. Ansonsten sind fast alle anderen Merkmale der beiden Smartphones nahezu identisch.

Preis & Verfügbarkeit

Bei Samsung selbst ist das Galaxy A35 nicht mehr erhältlich. Online-Händler Amazon bietet die 128-Gigabyte-Version mit 6 Gigabyte RAM jedoch für 258 Euro an. Die Ausführung mit 256 Gigabyte Speicher und 8 Gigabyte RAM kostet 326 Euro.

Aktuell bester Preis: Samsung Galaxy A35 5G

Das Galaxy A36 ist im Online-Shop von Samsung mit 6 Gigabyte RAM und 128 Gigabyte Speicher für 379 Euro erhältlich. Die Ausführung mit 8 Gigabyte RAM und 256 Gigabyte Speicher ist aktuell bereits für 414 Euro zu haben. Bei Online-Händler Amazon ist der Preis für die kleinere Version identisch, das Modell mit 256 Gigabyte Speicher kostet hier jedoch nur 379 Euro.

Aktuell bester Preis: Samsung Galaxy A36

Fazit

Wenn Sie auf der Suche nach dem besten Preis-Leistungs-Verhältnis in der Mittelklasse sind und Ihnen eine etwas langsamere Ladezeit nichts ausmacht, dann ist das Galaxy A35 nach wie vor eine gute Budget-Option.

Wenn Sie jedoch die neuesten KI-Funktionen, schnelleres Aufladen und ein deutlich helleres Display wollen, dann ist das Galaxy A36 den Aufpreis wert. Das A36 fühlt sich dank des Qualcomm-Chips, der KI-Tools und der besseren langfristigen Nutzbarkeit zukunftssicherer an und ist damit insgesamt eine bessere Investition.

(PC-Welt)

Galaxy A36 vs. Galaxy A35: Welches ist der bessere Kauf?​ Weiterlesen »

Was ist ein Proof of Concept?​

Allgemein

Ein Proof of Concept schafft Einblicke in die Machbarkeit und Erfolgschancen eines Projekts. Foto: Kunal Mehta – shutterstock.comVeränderungsprojekte auf der grünen Wiese zu praktizieren, mag durchaus seinen Reiz haben. Wer auf Nummer sicher gehen möchte, sollte allerdings eine Machbarkeitsstudie bevorzugen. Das Schlüsselwort heißt Proof of Concept.Proof of Concept – DefinitionEin Proof of Concept (PoC) ist eine Testphase, die einem möglichen Veränderungsprozess vorangestellt wird. Dabei kann es sich bei der Veränderung um ein klassisches IT-Projekt, eine Prozessänderung oder gar eine organisatorische Maßnahme handeln.Ein PoC soll Aufschluss über die Machbarkeit der Veränderung geben. Gleichzeitig werden Auswirkungen verprobt, die eine belastbare Planung zulassen. Dies umfasst u.a. Kosten, Dauer und Umfang eines möglichen Projektes. Zudem soll ein PoC auch erste Indikatoren liefern, welche Benefits mit der geplanten Veränderung erzielt werden können und welche Risiken zu beachten sind.So lässt sich am Ende eines Proof of Concepts auch eine Entscheidungsvorlage herleiten. Der PoC ist also neben der eigentlichen Projektidee und dem Projektantrag ein weiterer gewichtiger Baustein im Vorfeld eines Veränderungsprozesses. Die Ergebnisse des PoC entscheiden maßgeblich darüber, ob eine Maßnahme durchgeführt wird oder nicht. PoC – EinsatzzweckeDie Einsatzmöglichkeiten eines Proof of Concept sind sehr unterschiedlich. Auf der einen Seite dient diese Herangehensweise um Machbarkeiten bzw. im umgekehrten Fall den sogenannten “Fast Fails” zu verproben. Bevor in einem anstehenden Projekt auf eine neue Technologie gesetzt wird, können Funktionen und Features in einem PoC eingehend geprüft werden. Modifizierte Geschäftsprozesse oder abgeänderte Abläufe können in einem PoC simuliert und die zu erwartenden Ergebnisse vorhergesagt werden. Somit dient der Proof of Concept als gewichtiger Für- und Wider-Gradmesser, die geplanten Veränderungen tatsächlich vorzunehmen.Immer häufiger sehen IT-Verantwortliche sich den Anforderungen aus dem Business gegenüber, zu neuen Technologien, wie Blockchain, Stellung zu beziehen. Oder aber eine über Jahre gewachsene SAP-Landschaft soll in Teilen durch neue und wenig erprobte Plattformen bisher unbekannter Cloud-Anbieter ersetzt werden. Diese Fragestellungen können nicht ad-hog oder ohne eingehende Prüfung beantwortet werden.Desweiteren können modifizierte Geschäftsprozesse oder abgeänderte Abläufe in einem PoC simuliert und die zu erwartenden Ergebnisse vorhergesagt werden. Somit dient der Proof of Concept als wichtiger Für- und Wider-Gradmesser, die geplanten Veränderungen tatsächlich vorzunehmen.Auf der anderen Seite kann der Proof of Concept auch ein bedeutendes Planungsinstrument im Vorfeld eines Projektes sein. Die Ergebnisse geben nicht nur Aufschluss darüber, ob eine Projektmaßnahme technisch und funktional sinnstiftend ist. Es lassen sich für die Projektrahmendaten belastbare Daten gewinnen, welche Aufwände (Zeit, Einsatz, Material) und mit welcher Dauer geplant werden sollten. Daher ist der PoC auch ein finaler Meilenstein, der auf Basis dieser Ergebnisse und der darauf fußenden Schätzungen eine Zustimmung oder auch Ablehnung für das avisierte Projektengagement zulässt.Proof of Concept – Aufbau und AblaufEin Proof of Concept ist im Grunde nichts anderes als ein für sich stehendes Projekt. Bezugnehmend zum Zweck und zur Intention des Proof of Concept, kann dieses Projekt eine sehr kurze oder auch beliebig lange Dauer haben. Im Vorfeld des PoC sollte ausreichend Zeit in das Erwartungsmanagement investiert werden:Was sind die Ziele dieses Versuchsballons?Welche Ressourcen werden für die Durchführung benötigt?Wieviel Zeit wird veranschlagt?Was ist eine sinnvolle Vorgehensweise für den anstehenden PoC (Wasserfall, agil o.a.)?Je nach Umfang und Kontext des Miniprojektes, sollte ein Kurzkonzept formuliert werden, in diesem die Ausgangssituation skizziert und die oben beschriebenen Fragen beantwortet werden. So kann dieser Business Blueprint auch als Leitfaden für die Durchführung genutzt werden und anschließend den Rahmen für die Ergebnisse und aufbauende Entscheidungsvorlage liefern.Der tatsächliche Proof of Concept kann von Fall zu Fall ein sehr unterschiedliches Augenmerk haben:Dient diese Evaluierungsphase einer Art “Beauty Contest”, in dem verschiedene Werkzeuge gegenübergestellt werden, so wird jede Lösung gegen den gleichen Use Case verprobt. Im Nachgang können dann die erhobene Werte in Bereichen wie Performance, Usability oder Kosten verglichen und einer Bewertungsmatrix unterzogen werden.Soll demgegenüber nur eine ausgewählte Lösung genauer begutachtet werden, so werden mehrere repräsentative Use Cases auf dieser Plattform simuliert.Oder aber es liegt der Fokus auf der Modifikation bisheriger Prozesse und Geschäftsmodellen. Dann werden die etablierten Plattformen und Werkzeuge in einer Testumgebung herangezogen und die abgeänderten Prozesse und deren Auswirkungen analysiert.In jedem Fall ist es ratsam, ein klares Verständnis davon zu haben, welche Bausteine im Gesamtgewerk fix und damit unverändert bleiben und welche Komponenten neu sind oder verändert wurden. Nur so lässt sich eine belastbare Analyse und spätere Bewertung dieser isolierten Fragestellungen vornehmen. Die Durchführung kann nach klassischer Wasserfallmethodik erfolgen oder auch in mehreren Wellen durchgeführt werden. Dies hängt maßgeblich vom Kontext ab und richtet sich ein stückweit auch nach den verfügbaren Ressourcen oder auch den zu erwartenden Ergebnissen. In jedem Fall findet zum Ende eines jeden Proof of Concepts eine intensive Auseinandersetzung mit den Erkenntnissen dieser Übung statt, in der folgende Fragen beantwortet werden sollten:Wurden die Erwartungen erfüllt?Gab es überraschende Ergebnisse?Was ist die Konsequenz?Nicht selten mündet ein PoC in eine Entscheidungsvorlage, die dann einem Steering Committee vorgelegt wird. Dieses Gremium entscheidet auf Basis dieser Empfehlung, ob eine Projektinitiative durchgeführt wird oder nicht. Somit dienen ein PoC und seine Ergebnisse auch als internes Testat.PoC – SoftlabsDer digitale Wandel und die immer rasantere Entwicklung der technischen Möglichkeiten, zwingt Unternehmen dazu neue Wege einzuschlagen. Um mit dem Trend am Markt mithalten zu können und wenn möglich sogar Wettbewerbsvorteile zu erschließen, wird dem Early Adopter eine mehr und mehr besondere Bedeutung zuteil.Es ist ein permanenter Spagat, ob ein Unternehmen frühzeitig auf neue technische Optionen setzen sollte oder nicht. Den zusätzlichen Funktionen und Features, die beispielsweise Vorteile in punkto Performance oder Analysetiefe bieten, stehen etwaige “Kinderkrankheiten” gegenüber, die ein Werkzeug in der Beta-Phase noch mit sich bringt. Wartet man hingegen, bis sich eine neue Software oder ein neues Release etabliert hat, kann der Wettbewerb bereits die berühmte Nasenlänge voraus sein.Je IT- und datengetriebener ein Unternehmen aufgestellt ist, desto häufiger findet man Organisationseinheiten, wie Softlabs, wieder. Diese Abteilungen haben es sich zur Hauptaufgabe gemacht, permanent neue Lösungen zu identifizieren und diese auf einen möglichen, frühzeitigen Einsatz im Unternehmen zu prüfen. Sozusagen: der institutionalisierte Proof of Concept.Ein Softlab kann sowohl als reinrassige Gruppe in der hauseigenen IT aufgehängt sein, als auch als hybrides Konglomerat auftreten, das wie ein Competence Center bestehend aus IT- und Fachkompetenzen fungiert. Fachbereichsentsandte können dauerhaftes Mitglied im Softlab sein oder aber temporär für jeweils ausgewählte Projektinitiativen mitarbeiten.Lesetipp: So bringen Sie IT und Fachabteilung unter einen HutDie Linienfunktionen können über ihre Fachbereichsentsandten Anforderungen an das Softlab adressieren, welche neuen Lösungen und Features demnächst einer Prüfung unterzogen werden sollen. Die Erkenntnisse aus diesem Proof of Concept dienen dann für eine mögliche Projektinitiative und bedienen Planung und Organisation. Sollten negative Schlussfolgerungen aus diesem Versuch gezogen werden, so diente diese Übung mindestens als Quality Gate.Das Softlab selbst kann natürlich auch Marktrecherche betreiben und setzt sich mit neuen Softwarelösungen oder Releases proaktiv auseinander, um gegenüber dem Business die Rolle des Innovationstreibers zu besetzen. Bisher unbekannte Komponenten werden gegen einen intern bekannten Prüfkatalog in Form von ausgewählten Use Cases gefahren und auf ihren weiteren Einsatz getestet. Anschließend wird im positiven Fall den angeschlossenen Fachbereichen ein Angebot gemacht und gemeinsam eine Projektinitiative beantragt.Proof of Concept – Mittel zum ErfolgDer technische Fortschritt gewinnt immer mehr an Tempo. Neue Anbieter finden ihren Weg auf bekannte Märkte und gewohnte Player verschwinden oder werden von größeren Herstellern geschluckt. Für die Anwenderunternehmen wird es zur permanenten Herausforderung den Überblick zu behalten und hier die Frage zu beantworten” “What’s in for me?”.Unternehmen, die hier die richtige Balance finden und rechtzeitig auf neue Werkzeuge setzen und gleichzeitig weniger gewinnbringende Lösungen aussieben, werden ihre Marktposition auf Dauer behaupten können oder sich sogar Wettbewerbsvorteile erschließen können. Entweder begegnet man dieser Situation mit regelmäßigen Projektinitiativen, die in Form von Machbarkeitsstudien die gewünschten Erkenntnisse liefern. Oder aber man etabliert mit Softlabs dedizierte Organisationseinheiten, die genau diese Analysen zur Aufgabe haben. So oder so werden Proof of Concepts immer häufiger zum Mittel der Wahl, um die richtigen Projekte zu initiieren und den Unternehmenserfolg zu gewährleisten. Forschung und Entwicklung (F&E) ist also nicht mehr nur eine Domäne der Labore in der chemischen Industrie, sondern auch ein Vorgehensmodell für die IT in mehr oder weniger allen Industriezweigen.15 Probleme beim Projektmanagement1. Unklare Arbeitslast Foto: Palto – shutterstock.comBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte Erwartungen Foto: Tigger11th – shutterstock.comAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-Unterstützung Foto: marvent – shutterstock.comDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema F Foto: ra2studio – shutterstock.comIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter Foto: Ollyy – shutterstock.com„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes Herrschaftswissen Foto: Herrndorff – shutterstock.comProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare Entscheidungsfindung Foto: wavebreakmedia – shutterstock.comIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende Software Foto: Suthisa – shutterstock.comExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des Ausuferns Foto: Lightspring – shutterstock.comChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen können Foto: wavebreakmedia – shutterstock.comIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder Zusammenhalt Foto: Annette Shaff – shutterstock.comProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener Arbeitsalltag Foto: g-stockstudio – shutterstock.comHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige Meetings Foto: Monkey Business Images – shutterstock.comMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gut Foto: ramcreations – shutterstock.comSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernen Foto: bikeriderlondon – shutterstock.comLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim Projektmanagement Foto: Jaco van Rensburg – shutterstock.comEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden. 

Was ist ein Proof of Concept?​ Ein Proof of Concept schafft Einblicke in die Machbarkeit und Erfolgschancen eines Projekts.
Foto: Kunal Mehta – shutterstock.comVeränderungsprojekte auf der grünen Wiese zu praktizieren, mag durchaus seinen Reiz haben. Wer auf Nummer sicher gehen möchte, sollte allerdings eine Machbarkeitsstudie bevorzugen. Das Schlüsselwort heißt Proof of Concept.Proof of Concept – DefinitionEin Proof of Concept (PoC) ist eine Testphase, die einem möglichen Veränderungsprozess vorangestellt wird. Dabei kann es sich bei der Veränderung um ein klassisches IT-Projekt, eine Prozessänderung oder gar eine organisatorische Maßnahme handeln.Ein PoC soll Aufschluss über die Machbarkeit der Veränderung geben. Gleichzeitig werden Auswirkungen verprobt, die eine belastbare Planung zulassen. Dies umfasst u.a. Kosten, Dauer und Umfang eines möglichen Projektes. Zudem soll ein PoC auch erste Indikatoren liefern, welche Benefits mit der geplanten Veränderung erzielt werden können und welche Risiken zu beachten sind.So lässt sich am Ende eines Proof of Concepts auch eine Entscheidungsvorlage herleiten. Der PoC ist also neben der eigentlichen Projektidee und dem Projektantrag ein weiterer gewichtiger Baustein im Vorfeld eines Veränderungsprozesses. Die Ergebnisse des PoC entscheiden maßgeblich darüber, ob eine Maßnahme durchgeführt wird oder nicht.

PoC – EinsatzzweckeDie Einsatzmöglichkeiten eines Proof of Concept sind sehr unterschiedlich. Auf der einen Seite dient diese Herangehensweise um Machbarkeiten bzw. im umgekehrten Fall den sogenannten “Fast Fails” zu verproben. Bevor in einem anstehenden Projekt auf eine neue Technologie gesetzt wird, können Funktionen und Features in einem PoC eingehend geprüft werden. Modifizierte Geschäftsprozesse oder abgeänderte Abläufe können in einem PoC simuliert und die zu erwartenden Ergebnisse vorhergesagt werden. Somit dient der Proof of Concept als gewichtiger Für- und Wider-Gradmesser, die geplanten Veränderungen tatsächlich vorzunehmen.Immer häufiger sehen IT-Verantwortliche sich den Anforderungen aus dem Business gegenüber, zu neuen Technologien, wie Blockchain, Stellung zu beziehen. Oder aber eine über Jahre gewachsene SAP-Landschaft soll in Teilen durch neue und wenig erprobte Plattformen bisher unbekannter Cloud-Anbieter ersetzt werden. Diese Fragestellungen können nicht ad-hog oder ohne eingehende Prüfung beantwortet werden.Desweiteren können modifizierte Geschäftsprozesse oder abgeänderte Abläufe in einem PoC simuliert und die zu erwartenden Ergebnisse vorhergesagt werden. Somit dient der Proof of Concept als wichtiger Für- und Wider-Gradmesser, die geplanten Veränderungen tatsächlich vorzunehmen.Auf der anderen Seite kann der Proof of Concept auch ein bedeutendes Planungsinstrument im Vorfeld eines Projektes sein. Die Ergebnisse geben nicht nur Aufschluss darüber, ob eine Projektmaßnahme technisch und funktional sinnstiftend ist. Es lassen sich für die Projektrahmendaten belastbare Daten gewinnen, welche Aufwände (Zeit, Einsatz, Material) und mit welcher Dauer geplant werden sollten. Daher ist der PoC auch ein finaler Meilenstein, der auf Basis dieser Ergebnisse und der darauf fußenden Schätzungen eine Zustimmung oder auch Ablehnung für das avisierte Projektengagement zulässt.Proof of Concept – Aufbau und AblaufEin Proof of Concept ist im Grunde nichts anderes als ein für sich stehendes Projekt. Bezugnehmend zum Zweck und zur Intention des Proof of Concept, kann dieses Projekt eine sehr kurze oder auch beliebig lange Dauer haben. Im Vorfeld des PoC sollte ausreichend Zeit in das Erwartungsmanagement investiert werden:Was sind die Ziele dieses Versuchsballons?Welche Ressourcen werden für die Durchführung benötigt?Wieviel Zeit wird veranschlagt?Was ist eine sinnvolle Vorgehensweise für den anstehenden PoC (Wasserfall, agil o.a.)?Je nach Umfang und Kontext des Miniprojektes, sollte ein Kurzkonzept formuliert werden, in diesem die Ausgangssituation skizziert und die oben beschriebenen Fragen beantwortet werden. So kann dieser Business Blueprint auch als Leitfaden für die Durchführung genutzt werden und anschließend den Rahmen für die Ergebnisse und aufbauende Entscheidungsvorlage liefern.Der tatsächliche Proof of Concept kann von Fall zu Fall ein sehr unterschiedliches Augenmerk haben:Dient diese Evaluierungsphase einer Art “Beauty Contest”, in dem verschiedene Werkzeuge gegenübergestellt werden, so wird jede Lösung gegen den gleichen Use Case verprobt. Im Nachgang können dann die erhobene Werte in Bereichen wie Performance, Usability oder Kosten verglichen und einer Bewertungsmatrix unterzogen werden.Soll demgegenüber nur eine ausgewählte Lösung genauer begutachtet werden, so werden mehrere repräsentative Use Cases auf dieser Plattform simuliert.Oder aber es liegt der Fokus auf der Modifikation bisheriger Prozesse und Geschäftsmodellen. Dann werden die etablierten Plattformen und Werkzeuge in einer Testumgebung herangezogen und die abgeänderten Prozesse und deren Auswirkungen analysiert.In jedem Fall ist es ratsam, ein klares Verständnis davon zu haben, welche Bausteine im Gesamtgewerk fix und damit unverändert bleiben und welche Komponenten neu sind oder verändert wurden. Nur so lässt sich eine belastbare Analyse und spätere Bewertung dieser isolierten Fragestellungen vornehmen. Die Durchführung kann nach klassischer Wasserfallmethodik erfolgen oder auch in mehreren Wellen durchgeführt werden. Dies hängt maßgeblich vom Kontext ab und richtet sich ein stückweit auch nach den verfügbaren Ressourcen oder auch den zu erwartenden Ergebnissen. In jedem Fall findet zum Ende eines jeden Proof of Concepts eine intensive Auseinandersetzung mit den Erkenntnissen dieser Übung statt, in der folgende Fragen beantwortet werden sollten:Wurden die Erwartungen erfüllt?Gab es überraschende Ergebnisse?Was ist die Konsequenz?Nicht selten mündet ein PoC in eine Entscheidungsvorlage, die dann einem Steering Committee vorgelegt wird. Dieses Gremium entscheidet auf Basis dieser Empfehlung, ob eine Projektinitiative durchgeführt wird oder nicht. Somit dienen ein PoC und seine Ergebnisse auch als internes Testat.PoC – SoftlabsDer digitale Wandel und die immer rasantere Entwicklung der technischen Möglichkeiten, zwingt Unternehmen dazu neue Wege einzuschlagen. Um mit dem Trend am Markt mithalten zu können und wenn möglich sogar Wettbewerbsvorteile zu erschließen, wird dem Early Adopter eine mehr und mehr besondere Bedeutung zuteil.Es ist ein permanenter Spagat, ob ein Unternehmen frühzeitig auf neue technische Optionen setzen sollte oder nicht. Den zusätzlichen Funktionen und Features, die beispielsweise Vorteile in punkto Performance oder Analysetiefe bieten, stehen etwaige “Kinderkrankheiten” gegenüber, die ein Werkzeug in der Beta-Phase noch mit sich bringt. Wartet man hingegen, bis sich eine neue Software oder ein neues Release etabliert hat, kann der Wettbewerb bereits die berühmte Nasenlänge voraus sein.Je IT- und datengetriebener ein Unternehmen aufgestellt ist, desto häufiger findet man Organisationseinheiten, wie Softlabs, wieder. Diese Abteilungen haben es sich zur Hauptaufgabe gemacht, permanent neue Lösungen zu identifizieren und diese auf einen möglichen, frühzeitigen Einsatz im Unternehmen zu prüfen. Sozusagen: der institutionalisierte Proof of Concept.Ein Softlab kann sowohl als reinrassige Gruppe in der hauseigenen IT aufgehängt sein, als auch als hybrides Konglomerat auftreten, das wie ein Competence Center bestehend aus IT- und Fachkompetenzen fungiert. Fachbereichsentsandte können dauerhaftes Mitglied im Softlab sein oder aber temporär für jeweils ausgewählte Projektinitiativen mitarbeiten.Lesetipp: So bringen Sie IT und Fachabteilung unter einen HutDie Linienfunktionen können über ihre Fachbereichsentsandten Anforderungen an das Softlab adressieren, welche neuen Lösungen und Features demnächst einer Prüfung unterzogen werden sollen. Die Erkenntnisse aus diesem Proof of Concept dienen dann für eine mögliche Projektinitiative und bedienen Planung und Organisation. Sollten negative Schlussfolgerungen aus diesem Versuch gezogen werden, so diente diese Übung mindestens als Quality Gate.Das Softlab selbst kann natürlich auch Marktrecherche betreiben und setzt sich mit neuen Softwarelösungen oder Releases proaktiv auseinander, um gegenüber dem Business die Rolle des Innovationstreibers zu besetzen. Bisher unbekannte Komponenten werden gegen einen intern bekannten Prüfkatalog in Form von ausgewählten Use Cases gefahren und auf ihren weiteren Einsatz getestet. Anschließend wird im positiven Fall den angeschlossenen Fachbereichen ein Angebot gemacht und gemeinsam eine Projektinitiative beantragt.Proof of Concept – Mittel zum ErfolgDer technische Fortschritt gewinnt immer mehr an Tempo. Neue Anbieter finden ihren Weg auf bekannte Märkte und gewohnte Player verschwinden oder werden von größeren Herstellern geschluckt. Für die Anwenderunternehmen wird es zur permanenten Herausforderung den Überblick zu behalten und hier die Frage zu beantworten” “What’s in for me?”.Unternehmen, die hier die richtige Balance finden und rechtzeitig auf neue Werkzeuge setzen und gleichzeitig weniger gewinnbringende Lösungen aussieben, werden ihre Marktposition auf Dauer behaupten können oder sich sogar Wettbewerbsvorteile erschließen können. Entweder begegnet man dieser Situation mit regelmäßigen Projektinitiativen, die in Form von Machbarkeitsstudien die gewünschten Erkenntnisse liefern. Oder aber man etabliert mit Softlabs dedizierte Organisationseinheiten, die genau diese Analysen zur Aufgabe haben. So oder so werden Proof of Concepts immer häufiger zum Mittel der Wahl, um die richtigen Projekte zu initiieren und den Unternehmenserfolg zu gewährleisten. Forschung und Entwicklung (F&E) ist also nicht mehr nur eine Domäne der Labore in der chemischen Industrie, sondern auch ein Vorgehensmodell für die IT in mehr oder weniger allen Industriezweigen.15 Probleme beim Projektmanagement1. Unklare Arbeitslast
Foto: Palto – shutterstock.comBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte Erwartungen
Foto: Tigger11th – shutterstock.comAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-Unterstützung
Foto: marvent – shutterstock.comDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema F
Foto: ra2studio – shutterstock.comIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter
Foto: Ollyy – shutterstock.com„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes Herrschaftswissen
Foto: Herrndorff – shutterstock.comProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare Entscheidungsfindung
Foto: wavebreakmedia – shutterstock.comIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende Software
Foto: Suthisa – shutterstock.comExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des Ausuferns
Foto: Lightspring – shutterstock.comChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen können
Foto: wavebreakmedia – shutterstock.comIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder Zusammenhalt
Foto: Annette Shaff – shutterstock.comProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener Arbeitsalltag
Foto: g-stockstudio – shutterstock.comHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige Meetings
Foto: Monkey Business Images – shutterstock.comMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gut
Foto: ramcreations – shutterstock.comSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernen
Foto: bikeriderlondon – shutterstock.comLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim Projektmanagement
Foto: Jaco van Rensburg – shutterstock.comEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden.

Was ist ein Proof of Concept?​ Weiterlesen »

Tipps zur richtigen Ernährung: Gesund essen – auch im Job​

Allgemein

Eine gesunde Ernährung hilft, besser durch den Berufsalltag zu kommen und Konzentrationsproblemen sowie Müdigkeit am Arbeitsplatz vorzubeugen. Foto: AnikonaAnn – shutterstock.com Gesund essen im Job beginnt mit einem guten Start. Es ist natürlich verlockend, das Frühstück ausfallen zu lassen und die Zeit, die man für die Zubereitung und das Essen verwenden würde, anders zu nutzen – gerade morgens. Es zeigt sich aber, dass viele Menschen davon profitieren, wenn sie sich morgens Zeit für die erste Mahlzeit des Tages nehmen. Idealerweise besteht das Frühstück aus Obst, Vollkornprodukten, Tee und/oder Wasser. So kann der Körper den in der Nacht entstandenen Flüssigkeitsbedarf stillen und erhält ausreichend Kalorien, um leistungsfähig in den Tag zu starten. Die 10 Regeln der Deutsche Gesellschaft für Ernährung Wer im Arbeitsalltag gesund essen möchte, kann sich zum Beispiel an offiziellen Empfehlungen orientieren. Die Deutsche Gesellschaft für Ernährung e.V. (DGE) gibt auf ihrer Website viele Tipps rund um die gesunde Ernährung und damit auch zum Thema achtsam essen im Job, die man sich in einer freien Minute unbedingt einmal ansehen sollte. Die Ernährungsempfehlungen fasst sie kurz in zehn Regeln zusammen: 1. Möglichst abwechslunsgreich essen Auch wenn es verlockend klingt, sollten Sie sich nicht in jeder Mittagspause eine Breze oder ein belegtes Brötchen vom Bäcker holen. Versuchen Sie stattdessen auch in zeitlich herausfordernden Zeiten Obst und Gemüse zu essen. Das klappt, indem Sie sich zum Beispiel zuhause etwas Gesundes vorkochen, es in Einmachgläser füllen und immer mal wieder mit zur Arbeit nehmen. 2. Fünf Portionen Obst und Gemüse Die Größe der verschiedenen Portionen, die über den Tag gegessen werden sollen, hängt von dem Lebensmittel ab. Bei Gemüse darf es pro Portion gerne über 130 Gramm sein, während eine Portion Nüsse zum Beispiel nur aus 25 Gramm bestehen sollte. 3. Auf Vollkornprodukte setzen Statt Weißbrot oder weißen Reis zu kaufen, kann im Supermarkt einfach zur Vollkornvariante gegriffen werden. So stellen Sie die Weichen, im Job gesund zu essen, denn Vollkornprodukte enthalten mehr Ballaststoffe und sättigen länger. 4. Tierische Produkte einschränken Wann immer es geht, sollten Sie auf Fleisch verzichten. Besonders rotes Fleisch scheint das Risiko für bestimmte Krebserkrankungen zu erhöhen. Eine Alternative zu Fleischprodukten können zum Beispiel Hülsenfrüchte sein, die ebenfalls viel Eiweiß enthalten. 5. Pflanzliche Öle verwenden Pflanzliche Öle und Fette enthalten mehr ungesättigte Fettsäuren als tierische Produkte. Wenn Sie die Wahl haben und nicht nur im Job gesund essen wollen, entscheiden Sie sich daher lieber für Raps-, Wallnuss- oder Leinöl und Margarine statt für Butter und Schweineschmalz. 6. Gesunde Getränke wählen Softdrinks und andere zuckerhaltige Getränke sind nicht nur schlecht für die Zähne, sie bringen auch unseren Stoffwechsel aus dem Gleichgewicht. Greifen Sie daher lieber zu Wasser oder ungesüßten Tees. 7. Möglichst wenig Zucker und Salz Statt mit Salz zu würzen, können Speisen auch mit Kräutern oder anderen Gewürzen verfeinert werden. Und wer ohnehin vorkocht, wird feststellen, dass Gerichte auch ohne viel Salz und Zucker gut schmecken, wenn sie über Nacht durchziehen können. 8. Auf die Zubereitung achten Gemüse behält besonders viele seiner Vitamine und Mineralstoffe, wenn es schonend gegart und nicht frittiert wird – auch wenn letztere Variante vielleicht besser schmeckt. Wer im Job gesund essen möchte, sollte Lebensmittel daher so kurz wie möglich garen. 9. Zeit nehmen Gerade im Arbeitsalltag fällt es schwer, sein Essen bewusst zu genießen. Wenn es im Job hoch hergeht, verlagern viele die Mittagspause an den Schreibtisch und essen eher unbedacht nebenbei, während E-Mails beantwortet oder die neuesten Zahlen in die Präsentation eingefügt werden. Gesund ist das nicht – und von einer echten Pause kann dabei auch nicht die Rede sein. Versuchen Sie daher unbedingt, zumindest für ein paar Minuten die Augen vom Bildschirm zu lassen und sich auf ihr Essen zu konzentrieren. Untersuchungen zeigen übrigens, dass wir deutlich mehr essen, wenn wir uns Zeit lassen und uns auf unser Essen konzertieren. Das Sättigungsgefühl tritt nämlich häufig erst nach 15 bis 20 Minuten ein. Wer sein Essen am Bildschirm herunterschlingt, hat in der Zeitspanne davor schon mehr gegessen, als er müsste, um satt zu sein. 10. Bewegung integrieren Wer gesund bleiben möchte, darf sich nicht nur auf die Auswahl der richtigen Nahrungsmittel konzentrieren. Auch Bewegung gehört unbedingt dazu. Das ist vor allem in Bürojobs, bei denen man viele Stunden häufig sogar in der gleichen Position sitzt, umso wichtiger. Versuchen Sie daher in ihrer Mittagspause nicht nur gesund zu essen, sondern auch ein paar Minuten für einen kurzen Spaziergang freizuschaufeln. Das kann übrigens auch die Konzentration und Leistungsfähigkeit im Job fördern. Gesund essen im Job: Auch das Trinken nicht vergessen Zu einer ausgewogenen Ernährung gehört auch dazu, dass Sie ausreichend trinken. Gerade in sehr stressigen Zeiten im Berufsalltag wird das gerne vergessen. Ernährungswissenschaftler empfehlen, pro Tag mindestens 1,5 Liter Flüssigkeit zu sich zu nehmen. Denn Flüssigkeitsmangel hat auch Auswirkungen auf den Job. Es zeigt sich, dass Konzentrationsprobleme und Müdigkeit die Folge sein können – das möchte man im Beruf natürlich vermeiden. Übrigens sollte der Flüssigkeitsbedarf nicht ausschließlich durch Kaffee gedeckt werden. Das Getränk wird zwar mittlerweile mit in die Flüssigkeitsbilanz eingerechnet, trotzdem sollte man, wo es geht, auf Alternativen ausweichen. Wenn Sie Probleme damit haben sollten, ausreichend zu trinken, probieren Sie doch einmal Folgendes aus: Immer Wasserflasche dabeihaben: Gerade wer morgens länger pendeln muss. Gefülltes Glas Wasser oder Tasse Tee neben dem Schreibtisch: Wenn das Getränk wortwörtlich in greifbarer Nähe ist, greift man eher zu und trinkt so über den Tag gesehen mehr. Vor jeder Mahlzeit ein großes Glas Wasser trinken: Das ist übrigens auch gut für die Figur, denn das Wasser füllt bereits ein wenig den Magen und sorgt so dafür, dass wir nicht zu viel essen. Wer kein Wasser mag, kann auf ungesüßte Kräuter- oder Früchtetees zurückgreifen oder einen Schuss Fruchtsaft in das Wasser geben (Verhältnis 1:3). Auf Softdrinks oder Getränke mit Süßstoffen sollten Sie jedoch verzichten. (pg) 

Tipps zur richtigen Ernährung: Gesund essen – auch im Job​ Eine gesunde Ernährung hilft, besser durch den Berufsalltag zu kommen und Konzentrationsproblemen sowie Müdigkeit am Arbeitsplatz vorzubeugen.
Foto: AnikonaAnn – shutterstock.com

Gesund essen im Job beginnt mit einem guten Start. Es ist natürlich verlockend, das Frühstück ausfallen zu lassen und die Zeit, die man für die Zubereitung und das Essen verwenden würde, anders zu nutzen – gerade morgens. Es zeigt sich aber, dass viele Menschen davon profitieren, wenn sie sich morgens Zeit für die erste Mahlzeit des Tages nehmen.

Idealerweise besteht das Frühstück aus Obst, Vollkornprodukten, Tee und/oder Wasser. So kann der Körper den in der Nacht entstandenen Flüssigkeitsbedarf stillen und erhält ausreichend Kalorien, um leistungsfähig in den Tag zu starten.

Die 10 Regeln der Deutsche Gesellschaft für Ernährung

Wer im Arbeitsalltag gesund essen möchte, kann sich zum Beispiel an offiziellen Empfehlungen orientieren. Die Deutsche Gesellschaft für Ernährung e.V. (DGE) gibt auf ihrer Website viele Tipps rund um die gesunde Ernährung und damit auch zum Thema achtsam essen im Job, die man sich in einer freien Minute unbedingt einmal ansehen sollte. Die Ernährungsempfehlungen fasst sie kurz in zehn Regeln zusammen:

1. Möglichst abwechslunsgreich essen

Auch wenn es verlockend klingt, sollten Sie sich nicht in jeder Mittagspause eine Breze oder ein belegtes Brötchen vom Bäcker holen. Versuchen Sie stattdessen auch in zeitlich herausfordernden Zeiten Obst und Gemüse zu essen. Das klappt, indem Sie sich zum Beispiel zuhause etwas Gesundes vorkochen, es in Einmachgläser füllen und immer mal wieder mit zur Arbeit nehmen.

2. Fünf Portionen Obst und Gemüse

Die Größe der verschiedenen Portionen, die über den Tag gegessen werden sollen, hängt von dem Lebensmittel ab. Bei Gemüse darf es pro Portion gerne über 130 Gramm sein, während eine Portion Nüsse zum Beispiel nur aus 25 Gramm bestehen sollte.

3. Auf Vollkornprodukte setzen

Statt Weißbrot oder weißen Reis zu kaufen, kann im Supermarkt einfach zur Vollkornvariante gegriffen werden. So stellen Sie die Weichen, im Job gesund zu essen, denn Vollkornprodukte enthalten mehr Ballaststoffe und sättigen länger.

4. Tierische Produkte einschränken

Wann immer es geht, sollten Sie auf Fleisch verzichten. Besonders rotes Fleisch scheint das Risiko für bestimmte Krebserkrankungen zu erhöhen. Eine Alternative zu Fleischprodukten können zum Beispiel Hülsenfrüchte sein, die ebenfalls viel Eiweiß enthalten.

5. Pflanzliche Öle verwenden

Pflanzliche Öle und Fette enthalten mehr ungesättigte Fettsäuren als tierische Produkte. Wenn Sie die Wahl haben und nicht nur im Job gesund essen wollen, entscheiden Sie sich daher lieber für Raps-, Wallnuss- oder Leinöl und Margarine statt für Butter und Schweineschmalz.

6. Gesunde Getränke wählen

Softdrinks und andere zuckerhaltige Getränke sind nicht nur schlecht für die Zähne, sie bringen auch unseren Stoffwechsel aus dem Gleichgewicht. Greifen Sie daher lieber zu Wasser oder ungesüßten Tees.

7. Möglichst wenig Zucker und Salz

Statt mit Salz zu würzen, können Speisen auch mit Kräutern oder anderen Gewürzen verfeinert werden. Und wer ohnehin vorkocht, wird feststellen, dass Gerichte auch ohne viel Salz und Zucker gut schmecken, wenn sie über Nacht durchziehen können.

8. Auf die Zubereitung achten

Gemüse behält besonders viele seiner Vitamine und Mineralstoffe, wenn es schonend gegart und nicht frittiert wird – auch wenn letztere Variante vielleicht besser schmeckt. Wer im Job gesund essen möchte, sollte Lebensmittel daher so kurz wie möglich garen.

9. Zeit nehmen

Gerade im Arbeitsalltag fällt es schwer, sein Essen bewusst zu genießen. Wenn es im Job hoch hergeht, verlagern viele die Mittagspause an den Schreibtisch und essen eher unbedacht nebenbei, während E-Mails beantwortet oder die neuesten Zahlen in die Präsentation eingefügt werden. Gesund ist das nicht – und von einer echten Pause kann dabei auch nicht die Rede sein. Versuchen Sie daher unbedingt, zumindest für ein paar Minuten die Augen vom Bildschirm zu lassen und sich auf ihr Essen zu konzentrieren. Untersuchungen zeigen übrigens, dass wir deutlich mehr essen, wenn wir uns Zeit lassen und uns auf unser Essen konzertieren. Das Sättigungsgefühl tritt nämlich häufig erst nach 15 bis 20 Minuten ein. Wer sein Essen am Bildschirm herunterschlingt, hat in der Zeitspanne davor schon mehr gegessen, als er müsste, um satt zu sein.

10. Bewegung integrieren

Wer gesund bleiben möchte, darf sich nicht nur auf die Auswahl der richtigen Nahrungsmittel konzentrieren. Auch Bewegung gehört unbedingt dazu. Das ist vor allem in Bürojobs, bei denen man viele Stunden häufig sogar in der gleichen Position sitzt, umso wichtiger. Versuchen Sie daher in ihrer Mittagspause nicht nur gesund zu essen, sondern auch ein paar Minuten für einen kurzen Spaziergang freizuschaufeln. Das kann übrigens auch die Konzentration und Leistungsfähigkeit im Job fördern.

Gesund essen im Job: Auch das Trinken nicht vergessen Zu einer ausgewogenen Ernährung gehört auch dazu, dass Sie ausreichend trinken. Gerade in sehr stressigen Zeiten im Berufsalltag wird das gerne vergessen. Ernährungswissenschaftler empfehlen, pro Tag mindestens 1,5 Liter Flüssigkeit zu sich zu nehmen. Denn Flüssigkeitsmangel hat auch Auswirkungen auf den Job. Es zeigt sich, dass Konzentrationsprobleme und Müdigkeit die Folge sein können – das möchte man im Beruf natürlich vermeiden. Übrigens sollte der Flüssigkeitsbedarf nicht ausschließlich durch Kaffee gedeckt werden. Das Getränk wird zwar mittlerweile mit in die Flüssigkeitsbilanz eingerechnet, trotzdem sollte man, wo es geht, auf Alternativen ausweichen. Wenn Sie Probleme damit haben sollten, ausreichend zu trinken, probieren Sie doch einmal Folgendes aus: Immer Wasserflasche dabeihaben: Gerade wer morgens länger pendeln muss. Gefülltes Glas Wasser oder Tasse Tee neben dem Schreibtisch: Wenn das Getränk wortwörtlich in greifbarer Nähe ist, greift man eher zu und trinkt so über den Tag gesehen mehr. Vor jeder Mahlzeit ein großes Glas Wasser trinken: Das ist übrigens auch gut für die Figur, denn das Wasser füllt bereits ein wenig den Magen und sorgt so dafür, dass wir nicht zu viel essen. Wer kein Wasser mag, kann auf ungesüßte Kräuter- oder Früchtetees zurückgreifen oder einen Schuss Fruchtsaft in das Wasser geben (Verhältnis 1:3). Auf Softdrinks oder Getränke mit Süßstoffen sollten Sie jedoch verzichten. (pg)

Tipps zur richtigen Ernährung: Gesund essen – auch im Job​ Weiterlesen »

Der Arbeitsplatz der Zukunft ist mehr als nur ein Benefit​

Allgemein

loading=”lazy” width=”400px”>Der modern Workplace hat viele Facetten – es geht längst nicht nur um Homeoffice oder Büro.Piscine26 / Shutterstock Gäbe es Aktien von „Remote Work, Inc.“, wäre deren Wert 2024 wohl massiv unter Druck geraten. Etliche namhafte Firmen, die ihre Mitarbeitenden zurück in die Büros beorderten, sorgten für Schlagzeilen. Der Weg zurück ins Office wird regelmäßig in klassischen und sozialen Medien heftig diskutiert, als würde es nur die zwei Extreme geben: im Homeoffice oder in der Firma. Doch die Arbeitswelt ist weitaus facettenreicher als der vermeintliche Dualismus der Modelle: Hybride Mischformen aus individuellen Anforderungen schaffen – im Idealfall – ein flexibles Arbeitsumfeld, das Technologie, Prozesse und Mitarbeiterbedürfnisse vereint, um Produktivität, Zusammenarbeit und nicht zuletzt das Wohlbefinden der Menschen zu fördern. Im Kompressionsverfahren zum digitalen Arbeitsplatz Trotz des finanziellen und organisatorischen Gegenwinds kommt der moderne digitale Arbeitsplatz weiter voran. Laut einer aktuellen Studie von Foundry über den „Future Workplace 2025“ verfolgen fast neun von zehn Unternehmen eine Strategie beziehungsweise Roadmap für moderne Arbeitskonzepte – überwiegend sogar unternehmensweit. Hier gilt die Tendenz: Je größer die Organisation, desto weiter fortgeschritten ist sie auf dem Weg. Und gerade einmal fünf Prozent der Befragten verorten ihre Organisation noch im Feld der Legacy-Arbeitsplätze. Anteil der hybriden Arbeitsplätze wächst Der durchschnittliche Anteil der Beschäftigten mit einem hybriden Arbeitsplatz beläuft sich laut Studie aktuell auf knapp 35 Prozent. Nach Einschätzung der Teilnehmerinnen und Teilnehmer wird diese Quote in den kommenden zwei Jahren steigen oder stark steigen – immerhin 74 Prozent der Befragten gehen hiervon aus. Betrachtet man lediglich die Zustimmung aus dem Top-Management, sind es sogar fast 83 Prozent. Der Durchschnitt aller Befragten, die eine Wiederherstellung der Legacy-Strukturen erwarten, beläuft sich auf gerade einmal drei Prozent.  Der durchschnittliche Anteil der Beschäftigten mit einem hybriden Arbeitsplatz beläuft sich laut Studie aktuell auf knapp 35 Prozent. Research Services: erdenbuerger – kreative kommunikation Wie relevant sind moderne Arbeitsplätze? Fragt man nach der Relevanz von Hybrid Work für Unternehmen, ist das Bild ähnlich klar. Knapp 80 Prozent der Studienteilnehmer sind der Ansicht, dass die Bedeutung des Future Workplace in den vergangenen Quartalen etwas beziehungsweise deutlich gestiegen ist. Fragt man generell nach der Relevanz moderner Arbeitsplatzkonzepte, ist auch hier das Top-Management die Gruppe mit dem höchsten Mittelwert (8,41 von 10). Demgegenüber kommen Befragte aus Fachbereichen lediglich auf einen Durchschnitt von 7,53. Budgets für Hybrid Work Die positive Entwicklung spiegelt sich auch in der finanziellen Ausstattung für den Future Workplace. Laut Foundry-Untersuchung entwickeln sich das allgemeine IT-Budget 2025 und der Anteil für moderne Arbeitsmodelle fast im Gleichklang.  So erwarten sieben von zehn Studienteilnehmern, dass die Investitionen in den Future Workplace 2025 steigen oder stark steigen werden. Allerdings fallen die Budget-Erwartungen etwas verhaltener aus als noch in der vergleichbaren Studie aus dem Jahr 2023 – angesichts der Wirtschaftskrise gilt dies jedoch auch insgesamt für den finanziellen Spielraum der IT. Die Schattenseiten des Future Workplace Dabei ist nicht alles Gold, was glänzt: Das Problem sind die vielen verschiedenen Herausforderungen, die sich auf digitale Arbeitsplätze auswirken. Somit ist der Umstieg auf den Future Workplace kein Selbstläufer, sondern ein Vorhaben, das alle Bereiche von der Technologie über die Prozesse bis zur Firmenkultur berührt. Die daraus resultierende Komplexität der internen Abstimmung ist wohl einer der Hauptgründe dafür, dass die Umsetzungsgeschwindigkeit zuletzt etwas zurückgegangen ist – zumindest im Vergleich zur Post-Covid-Euphorie. Herausforderungen moderner Arbeitsplätze Die größten Baustellen befinden sich immer noch in der IT-Infrastruktur und der Cybersicherheit. Hier fällt die Zustimmung von Befragten aus der IT überdurchschnittlich hoch aus. Interessant ist, dass die eigene IT-Infrastruktur aktuell von zwei Dritteln aller Befragten als gut bewertet wird. Wie die IT-Mitarbeitenden fokussieren auch die anderen Studienteilnehmer aus dem Top-Management und den Fachabteilungen vor allem auf Herausforderungen in ihrem Bereich: Business Units nennen die Cybersicherheit und die Reorganisation von Workflows, während Geschäftsleitungen überdurchschnittlich stark auf den Immobilienaspekt und die Auswahl der richtigen Technologien/Tools verweisen. Demgegenüber liegen menschliche Perspektiven wie die User Experience der Beschäftigten, ihre digitale Kompetenz und erforderliche Weiterbildung sowie die Auswirkungen des Future Workplace auf die Unternehmenskultur im hinteren Bereich. Speziell für Studienteilenehmer aus dem C-Level ist die Frage nach der Kultur nahezu irrelevant. Dass mit dem Future Workplace die Kontrolle über das Unternehmen entgleitet, befürchten im Durchschnitt nur knapp neun Prozent der Befragten. Die größten Baustellen befinden sich immer noch in der IT-Infrastruktur und der Cybersicherheit. Research Services: erdenbuerger – kreative kommunikation Nutzen der hybriden Arbeitsmodelle Ein Treiber für den Future Workplace sind die positiven Effekte aus den Anwendungsfällen. Auch wenn dies nur selten ein Top-Ziel ist: Ein Drittel aller Befragten gab an, dass die Mitarbeiterzufriedenheit stark gestiegen ist, rund die Hälfte berichtet immerhin noch von einer positiven Entwicklung. Zudem hat das Top-Management sinkende Mietkosten als Folge der modernen Arbeitskonzepte verzeichnet. Die bessere unternehmensinterne Kommunikation und die leichtere Besetzung offener Stellen runden die Liste der Vorteile ab.  Next Level Workplace mit KI Darüber hinaus bildet der Modern Workplace eine ideale Grundlage für den Einsatz (generativer) KI. Das sehen auch die meisten Studienteilnehmer so: Für 30 Prozent spielen KI-Lösungen bei modernen Arbeitsplätzen eine sehr wichtige Rolle, 48 Prozent gehen immerhin noch von einer wichtigen Funktion aus. Und lediglich sechs Prozent messen der KI im Durchschnitt eine geringere oder keine Relevanz bei – bei Befragten aus Fachbereichen sind es 13 Prozent. Dabei hat die KI in größeren Organisationen eine höhere Bedeutung als in kleineren Firmen. Und auch die Befragten aus dem Top-Management bauen überdurchschnittlich stark auf KI-Unterstützung für ihre Mitarbeitenden. Für knapp 30 Prozent der Befragten spielen KI-Lösungen bei modernen Arbeitsplätzen eine sehr wichtige Rolle. Research Services: erdenbuerger – kreative kommunikation Zudem gibt es klare Anzeichen, dass der KI-Workplace kein frommer Wunsch, sondern bereits in Projekten angekommen ist. Stand heute berücksichtigt ein Drittel der Firmen KI-Lösungen bei der individuellen Arbeitsplatzausstattung, der Großteil der Verfolger (51 Prozent) steht bereits am Startblock. Vorreiter sind vor allem größere Organisationen, lediglich ein Bruchteil von diesen hat bezüglich des KI-Einsatzes noch nichts geplant. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/71LBuN6jeu0Nb4JYW0koOi?utm_source=oembed”> Externe Partner sind gefragt Angesichts der vielen und vielfältigen Aufgaben rund um Arbeitsmodelle der Zukunft leuchtet es ein, dass sich diese neben dem Tagesgeschäft kaum mit Bordmitteln lösen lassen. Gut ein Viertel der Unternehmen arbeitet daher bereits mit externen Providern, Lieferanten und Beratern an der Umsetzung, weitere 36 Prozent suchen nach passenden Partnern. Zu den Befürworten derartiger Kooperationen zählen überdurchschnittlich viele Befragte aus dem obersten IT-Management. Frust und Stress – deutsche Beschäftigte verlieren Motivation Firmen, die bereits mit externen Partnern zusammenarbeiten, nutzen diese für eine Vielfalt von Aufgaben. Sie reichen von der Entwicklung des Hybrid-Work-Modells über seine Umsetzung und die Anpassung der Prozesse, die Raumgestaltung sowie das persönliche Training bis zur Beratung in steuerlichen und regulativen Fragen. Verglichen mit der vorherigen Studie zum Thema ist jedoch ein geringfügiger Rückgang bei der Anbahnung und der Umsetzung mit Partnern zu verzeichnen. Im Zuge dessen ist der Wert der Firmen, die den Future Workplace vorrangig in Eigenregie bearbeiten wollen, von knapp fünf auf fast 15 Prozent gestiegen. Ob es am Kostendruck in der IT oder an der Tatsache liegt, dass bereits viele Vorarbeiten geleistet wurden, sei dahingestellt. Fazit – mehr als ein “Goodie” Der Future Workplace ist kein Goodie wie Tischkicker oder Obstkörbe, sondern ein strategischer Hebel, um Prozesse rund um die Belegschaft schneller, flexibler und resilienter zu machen. Neben der Anbindung des Homeoffice geht es um die Standortvernetzung, den Außendienst, Geschäftsreisen und um die Ausstattung von Call Centern. Immerhin 20 Prozent der Firmen haben den Anspruch, ihren Beschäftigten einen sehr modernen Arbeitsplatz zu bieten. Diese Meinung wird speziell von kleineren Firmen sowie in Fachbereichen geäußert. Der Weg zum Future Workplace ist vorgezeichnet – jetzt umzudrehen – „Back to Legacy“ – wäre keine smarte Entscheidung. Die neue Studie “Future Workplace 2025” von CIO Research Services Research Services: erdenbuerger – kreative kommunikation Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: HP Deutschland GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 323 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 15. bis 24. Januar 2025 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit dem Studienpartner 

Der Arbeitsplatz der Zukunft ist mehr als nur ein Benefit​ loading=”lazy” width=”400px”>Der modern Workplace hat viele Facetten – es geht längst nicht nur um Homeoffice oder Büro.Piscine26 / Shutterstock

Gäbe es Aktien von „Remote Work, Inc.“, wäre deren Wert 2024 wohl massiv unter Druck geraten. Etliche namhafte Firmen, die ihre Mitarbeitenden zurück in die Büros beorderten, sorgten für Schlagzeilen. Der Weg zurück ins Office wird regelmäßig in klassischen und sozialen Medien heftig diskutiert, als würde es nur die zwei Extreme geben: im Homeoffice oder in der Firma. Doch die Arbeitswelt ist weitaus facettenreicher als der vermeintliche Dualismus der Modelle: Hybride Mischformen aus individuellen Anforderungen schaffen – im Idealfall – ein flexibles Arbeitsumfeld, das Technologie, Prozesse und Mitarbeiterbedürfnisse vereint, um Produktivität, Zusammenarbeit und nicht zuletzt das Wohlbefinden der Menschen zu fördern.

Im Kompressionsverfahren zum digitalen Arbeitsplatz

Trotz des finanziellen und organisatorischen Gegenwinds kommt der moderne digitale Arbeitsplatz weiter voran. Laut einer aktuellen Studie von Foundry über den „Future Workplace 2025“ verfolgen fast neun von zehn Unternehmen eine Strategie beziehungsweise Roadmap für moderne Arbeitskonzepte – überwiegend sogar unternehmensweit. Hier gilt die Tendenz: Je größer die Organisation, desto weiter fortgeschritten ist sie auf dem Weg. Und gerade einmal fünf Prozent der Befragten verorten ihre Organisation noch im Feld der Legacy-Arbeitsplätze.

Anteil der hybriden Arbeitsplätze wächst

Der durchschnittliche Anteil der Beschäftigten mit einem hybriden Arbeitsplatz beläuft sich laut Studie aktuell auf knapp 35 Prozent. Nach Einschätzung der Teilnehmerinnen und Teilnehmer wird diese Quote in den kommenden zwei Jahren steigen oder stark steigen – immerhin 74 Prozent der Befragten gehen hiervon aus. Betrachtet man lediglich die Zustimmung aus dem Top-Management, sind es sogar fast 83 Prozent. Der Durchschnitt aller Befragten, die eine Wiederherstellung der Legacy-Strukturen erwarten, beläuft sich auf gerade einmal drei Prozent. 

Der durchschnittliche Anteil der Beschäftigten mit einem hybriden Arbeitsplatz beläuft sich laut Studie aktuell auf knapp 35 Prozent.
Research Services: erdenbuerger – kreative kommunikation

Wie relevant sind moderne Arbeitsplätze?

Fragt man nach der Relevanz von Hybrid Work für Unternehmen, ist das Bild ähnlich klar. Knapp 80 Prozent der Studienteilnehmer sind der Ansicht, dass die Bedeutung des Future Workplace in den vergangenen Quartalen etwas beziehungsweise deutlich gestiegen ist. Fragt man generell nach der Relevanz moderner Arbeitsplatzkonzepte, ist auch hier das Top-Management die Gruppe mit dem höchsten Mittelwert (8,41 von 10). Demgegenüber kommen Befragte aus Fachbereichen lediglich auf einen Durchschnitt von 7,53.

Budgets für Hybrid Work

Die positive Entwicklung spiegelt sich auch in der finanziellen Ausstattung für den Future Workplace. Laut Foundry-Untersuchung entwickeln sich das allgemeine IT-Budget 2025 und der Anteil für moderne Arbeitsmodelle fast im Gleichklang.  So erwarten sieben von zehn Studienteilnehmern, dass die Investitionen in den Future Workplace 2025 steigen oder stark steigen werden. Allerdings fallen die Budget-Erwartungen etwas verhaltener aus als noch in der vergleichbaren Studie aus dem Jahr 2023 – angesichts der Wirtschaftskrise gilt dies jedoch auch insgesamt für den finanziellen Spielraum der IT.

Die Schattenseiten des Future Workplace

Dabei ist nicht alles Gold, was glänzt: Das Problem sind die vielen verschiedenen Herausforderungen, die sich auf digitale Arbeitsplätze auswirken. Somit ist der Umstieg auf den Future Workplace kein Selbstläufer, sondern ein Vorhaben, das alle Bereiche von der Technologie über die Prozesse bis zur Firmenkultur berührt. Die daraus resultierende Komplexität der internen Abstimmung ist wohl einer der Hauptgründe dafür, dass die Umsetzungsgeschwindigkeit zuletzt etwas zurückgegangen ist – zumindest im Vergleich zur Post-Covid-Euphorie.

Herausforderungen moderner Arbeitsplätze

Die größten Baustellen befinden sich immer noch in der IT-Infrastruktur und der Cybersicherheit. Hier fällt die Zustimmung von Befragten aus der IT überdurchschnittlich hoch aus. Interessant ist, dass die eigene IT-Infrastruktur aktuell von zwei Dritteln aller Befragten als gut bewertet wird. Wie die IT-Mitarbeitenden fokussieren auch die anderen Studienteilnehmer aus dem Top-Management und den Fachabteilungen vor allem auf Herausforderungen in ihrem Bereich: Business Units nennen die Cybersicherheit und die Reorganisation von Workflows, während Geschäftsleitungen überdurchschnittlich stark auf den Immobilienaspekt und die Auswahl der richtigen Technologien/Tools verweisen.

Demgegenüber liegen menschliche Perspektiven wie die User Experience der Beschäftigten, ihre digitale Kompetenz und erforderliche Weiterbildung sowie die Auswirkungen des Future Workplace auf die Unternehmenskultur im hinteren Bereich. Speziell für Studienteilenehmer aus dem C-Level ist die Frage nach der Kultur nahezu irrelevant. Dass mit dem Future Workplace die Kontrolle über das Unternehmen entgleitet, befürchten im Durchschnitt nur knapp neun Prozent der Befragten.

Die größten Baustellen befinden sich immer noch in der IT-Infrastruktur und der Cybersicherheit.
Research Services: erdenbuerger – kreative kommunikation

Nutzen der hybriden Arbeitsmodelle

Ein Treiber für den Future Workplace sind die positiven Effekte aus den Anwendungsfällen. Auch wenn dies nur selten ein Top-Ziel ist: Ein Drittel aller Befragten gab an, dass die Mitarbeiterzufriedenheit stark gestiegen ist, rund die Hälfte berichtet immerhin noch von einer positiven Entwicklung. Zudem hat das Top-Management sinkende Mietkosten als Folge der modernen Arbeitskonzepte verzeichnet. Die bessere unternehmensinterne Kommunikation und die leichtere Besetzung offener Stellen runden die Liste der Vorteile ab. 

Next Level Workplace mit KI

Darüber hinaus bildet der Modern Workplace eine ideale Grundlage für den Einsatz (generativer) KI. Das sehen auch die meisten Studienteilnehmer so: Für 30 Prozent spielen KI-Lösungen bei modernen Arbeitsplätzen eine sehr wichtige Rolle, 48 Prozent gehen immerhin noch von einer wichtigen Funktion aus. Und lediglich sechs Prozent messen der KI im Durchschnitt eine geringere oder keine Relevanz bei – bei Befragten aus Fachbereichen sind es 13 Prozent. Dabei hat die KI in größeren Organisationen eine höhere Bedeutung als in kleineren Firmen. Und auch die Befragten aus dem Top-Management bauen überdurchschnittlich stark auf KI-Unterstützung für ihre Mitarbeitenden.

Für knapp 30 Prozent der Befragten spielen KI-Lösungen bei modernen Arbeitsplätzen eine sehr wichtige Rolle.
Research Services: erdenbuerger – kreative kommunikation

Zudem gibt es klare Anzeichen, dass der KI-Workplace kein frommer Wunsch, sondern bereits in Projekten angekommen ist. Stand heute berücksichtigt ein Drittel der Firmen KI-Lösungen bei der individuellen Arbeitsplatzausstattung, der Großteil der Verfolger (51 Prozent) steht bereits am Startblock. Vorreiter sind vor allem größere Organisationen, lediglich ein Bruchteil von diesen hat bezüglich des KI-Einsatzes noch nichts geplant.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/71LBuN6jeu0Nb4JYW0koOi?utm_source=oembed”>

Externe Partner sind gefragt

Angesichts der vielen und vielfältigen Aufgaben rund um Arbeitsmodelle der Zukunft leuchtet es ein, dass sich diese neben dem Tagesgeschäft kaum mit Bordmitteln lösen lassen. Gut ein Viertel der Unternehmen arbeitet daher bereits mit externen Providern, Lieferanten und Beratern an der Umsetzung, weitere 36 Prozent suchen nach passenden Partnern. Zu den Befürworten derartiger Kooperationen zählen überdurchschnittlich viele Befragte aus dem obersten IT-Management.

Frust und Stress – deutsche Beschäftigte verlieren Motivation

Firmen, die bereits mit externen Partnern zusammenarbeiten, nutzen diese für eine Vielfalt von Aufgaben. Sie reichen von der Entwicklung des Hybrid-Work-Modells über seine Umsetzung und die Anpassung der Prozesse, die Raumgestaltung sowie das persönliche Training bis zur Beratung in steuerlichen und regulativen Fragen. Verglichen mit der vorherigen Studie zum Thema ist jedoch ein geringfügiger Rückgang bei der Anbahnung und der Umsetzung mit Partnern zu verzeichnen. Im Zuge dessen ist der Wert der Firmen, die den Future Workplace vorrangig in Eigenregie bearbeiten wollen, von knapp fünf auf fast 15 Prozent gestiegen. Ob es am Kostendruck in der IT oder an der Tatsache liegt, dass bereits viele Vorarbeiten geleistet wurden, sei dahingestellt.

Fazit – mehr als ein “Goodie”

Der Future Workplace ist kein Goodie wie Tischkicker oder Obstkörbe, sondern ein strategischer Hebel, um Prozesse rund um die Belegschaft schneller, flexibler und resilienter zu machen. Neben der Anbindung des Homeoffice geht es um die Standortvernetzung, den Außendienst, Geschäftsreisen und um die Ausstattung von Call Centern. Immerhin 20 Prozent der Firmen haben den Anspruch, ihren Beschäftigten einen sehr modernen Arbeitsplatz zu bieten. Diese Meinung wird speziell von kleineren Firmen sowie in Fachbereichen geäußert. Der Weg zum Future Workplace ist vorgezeichnet – jetzt umzudrehen – „Back to Legacy“ – wäre keine smarte Entscheidung.

Die neue Studie “Future Workplace 2025” von CIO Research Services
Research Services: erdenbuerger – kreative kommunikation

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: HP Deutschland GmbH

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 323 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 15. bis 24. Januar 2025

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit dem Studienpartner

Der Arbeitsplatz der Zukunft ist mehr als nur ein Benefit​ Weiterlesen »

Wie Quereinsteiger ins Topmanagement kommen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?quality=50&strip=all 1959w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=768%2C430&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=1024%2C574&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=1536%2C861&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=1240%2C695&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”574″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der Weg ins Topmanagement oder C-Level verläuft immer seltener geradlinig und ist von keinem klaren Schema geprägt. Vielmehr erfordert er eine ständige Bereitschaft zum Lernen und Wachsen.eamesBot – Shutterstock 2438988607 Mein Weg ins Topmanagement war weder vorgezeichnet noch „klassisch“. Und doch stehe ich heute als Chief HR Officer (CHRO) bei Statista in der Verantwortung für mehr als 1450 Mitarbeitende weltweit. Wie kam es dazu?  Vor allem, weil ich auf meinem Karriereweg Menschen traf, die an mich glaubten – und weil ich nicht davor zurückschreckte, neue Themen zu übernehmen, mich stetig weiterzuentwickeln und die Extra-Meile zu gehen, wenn es nötig war. Gleichzeitig haben mich Durchhaltevermögen und Eigenmotivation dahin gebracht, wo ich heute bin. Denn die Wahrheit ist: Karrieren entstehen nicht über Nacht.   ‘Karriere-Mosaik’ versus linearen Lebenslauf  Karrierewege waren früher oft klar vorgezeichnet: Wer in der IT aufstieg, begann als Entwickler, wurde Teamlead, dann Head of… und irgendwann CTO. Wer in den HR-Bereich wollte, startete mit einem klassischen Personalreferat. Heute erleben wir hingegen deutlich häufiger nicht-lineare Verläufe, die einem ‘Karriere-Mosaik’ gleichen. Menschen wechseln Funktionen, Branchen, manchmal sogar ganz den thematischen Fokus, um vielfältige Erfahrungen zu sammeln.   Das zeigt sich nicht nur in schnell wachsenden Startups und Scale-ups, sondern zunehmend auch in klassischeren Mittelstands- und Konzernstrukturen. Warum? Weil die Anforderungen sich verändert haben und verschiedene Kompetenzen immer mehr ineinander verschwimmen. Vielfältige Erfahrungen können demnach ein entscheidender Vorteil sein, insbesondere wenn es darum geht, komplexe Herausforderungen im Topmanagement zu meistern. Denn führende Managementpositionen sind immer häufiger eine Disziplin, die quer zu Fach-Silos verläuft.    Topmanagement oder C-Level trotz Quereinstieg? Ja – aber mit Profil!  Heißt das, jede oder jeder kann ohne Vorerfahrung einfach ins C-Level wechseln? Ganz so einfach ist es nicht. Der „komplette“ Quereinstieg direkt ins Top-Management ist eher die Ausnahme. Was man allerdings sehr wohl beobachten kann, sind zwei Phänomene:  – Quereinstieg auf dem Weg zum C-Level: Gerade auf den Ebenen unterhalb der Geschäftsführung – etwa in Abteilungs- oder Bereichsleitung – gibt es vermehrt Quereinsteiger, die über Projektverantwortung, Transformationsrollen oder bereichsübergreifende Themen in die Position hineinwachsen.  –  Funktionale Bündelung im C-Level: C-Level-Funktionen entwickeln sich weiter. HR und ESG (Environmental, Social and Corporate Governance) wandern in das Betätigungsfeld des CHRO. CFOs verantworten neben Finance auch Legal oder HR-Themen. Oder Tech- und Produktverantwortung werden gemeinsam in einer CPTO-Rolle gebündelt. In solchen Fällen bringt die Führungskraft nicht zwingend in allen Bereichen tiefes Fachwissen mit – wohl aber die Fähigkeit, Experten zu führen und Themen strategisch zu steuern.    Ein gutes Beispiel: Nicht jeder CTO muss heute selbst programmieren können – es kommt dabei ganz auf die Herausforderungen des Unternehmens an: In schnell wachsenden jungen Firmen ist technisches Hands-on-Wissen oft essenziell und absolut erfolgskritisch. Im Idealfall sollte dann zum Beispiel auch ein CTO über das operative Fachwissen verfügen, um gegebenenfalls einspringen zu können.   In etablierten Unternehmen mit höherer Komplexität geht es hingegen oft mehr um architektonische Entscheidungen, Budgetverantwortung und -optimierung, Stakeholder-Management und Strategie. In diesen Rollen sieht man auch immer wieder Manager mit einem klassischen Business-Profil, die Erfahrungen in der Unternehmensberatung und eine fundierte strategische Kompetenz sowie IT-Affinität mitbringen.  Was zählt: Managementkompetenz, nicht (nur) Fachexpertise Ab einem bestimmten Punkt in der Karriere sind es nicht mehr nur fachliche Qualifikationen, die über Erfolg entscheiden. Es geht um die großen Hebel: Strategie, Teamführung, Stakeholder-Management, Kostenverantwortung, Transformation – und zunehmend auch technologische Weitsicht. Deshalb ist es wenig verwunderlich, dass jede Topmanagement-Funktion sich ähnliche Fragen stellt:  Wie trägt mein Bereich zur Unternehmensstrategie bei?  Wie stelle ich ein starkes, diverses und zukunftsfähiges Team auf?  Wie gestalte ich effektive Kommunikation in komplexen Organisationen?  Wie identifiziere ich Automatisierungs- und Digitalisierungspotenziale?  Wie übersetze ich technologische Trends in sinnvolle Maßnahmen?  Diese Fragen muss nicht jeder selbst beantworten können – aber man muss als Topmanager in der Lage sein, die richtigen Fragen zu stellen, Kollegen zu fördern und Entscheidungen zu treffen.  C-Level braucht keine Perfektion – sondern Klarheit Fakt ist: Man muss nicht alles selbst können. Aber man muss wissen, wofür man steht, worin man gut ist und was man delegiert. Ich selbst habe nie einen klassischen HR-Weg durchlaufen. Aber ich kenne meine Stärken: Strategie, Struktur, Finanzen, Kommunikation. Und ich weiß, wo ich starke Mitspieler brauche. Diese Klarheit machte aus meinem Quereinstieg eine Stärke – kein Defizit.  Wie auch Ihnen der erfolgreiche Einstieg ins Topmanagement oder gar C-Level gelingen kann, verrate ich in den folgenden Tipps. Ein praxisnaher Einblick in den Recruiting-Prozess zeigt Ihnen zudem, worauf Headhunter, Personalverantwortliche und Executive Searcher im Auswahlprozess besonders achten:        1. Offenes Visier, statt Tunnelblick Einer meiner wichtigsten Erkenntnisse ist, stets neugierig zu bleiben und immer wieder über den eigenen Tellerrand zu schauen. Das kann sich einerseits auf die stetige berufliche und persönliche Weiterentwicklung beziehen. Andererseits darauf, die eigene Bubble hin und wieder zu verlassen und nicht in einer starren Rolle zu verharren. Mein Tipp: Bleiben Sie offen für Neues und nehmen Sie berufliche Herausforderungen an.   Das heißt nicht, dass Sie in Ihrem aktuellen Job zu allem Ja und Amen sagen oder das nächstbeste Jobangebot annehmen sollten. Schauen Sie vielmehr gezielt nach Möglichkeiten, die ein nächster sinnvoller Schritt in Ihrer beruflichen Weiterentwicklung sein können – auch wenn dies erst einmal unbequem, herausfordernd oder mit Zeitaufwand verbunden ist. Eine gute Option sich neuen Themen zu nähern, bieten beispielsweise Fachbereich übergreifende Projekte.  Warum? Meiner Meinung nach entsteht wirkliches Wachstum selten dort, wo alles vertraut ist, sondern dort, wo wir uns trauen, neue Wege zu gehen. Darüber hinaus bieten derartige Projekte eine großartige Möglichkeit sich einzubringen, neue Aufgaben auszuprobieren und sich fachlich wie persönlich weiterzuentwickeln – ohne gleich die Verantwortung für ein gesamtes Team übernehmen zu müssen.    2. Sich selbst kennen Einer meiner wichtigsten Learnings: Verstehen und kennen Sie Ihr Stärken- und Schwächenprofil. Was fällt Ihnen leicht und wo tun Sie sich vielleicht schwer? Warum dieses Wissen essenziell ist: Einer der wichtigsten Management Skills ist es, Ihre Teams so aufzustellen, dass alle sich gegenseitig ergänzen. Demnach ist es als guter Manager Ihre Aufgabe zu erkennen, welche Fähigkeiten im Team stark ausgeprägt sind und welche weniger stark oder vielleicht noch gar nicht vorhanden sind (einschließlich der eigenen Skills).   Fehlt beispielsweise wichtiges Know-how, das für die Umsetzung eines Projektes oder der Implementierung einer neuen strategischen Ausrichtung zwingend benötigt wird? Dann ist es Ihre Aufgabe eine Person mit dem benötigten Skill-Set einzustellen. Denn die Aufgabe eines Topmanagers besteht nicht darin, alle Aufgaben selbst erledigen zu können, sondern zu erkennen, was es zu welchem Zeitpunkt benötigt, um ein Team oder einen Fachbereich erfolgreich zu führen.     3. Die eigene Rolle verstehen Als Manager einer Abteilung ist es wichtig, die eigene Rolle und Funktion klar zu kennen. Dabei ist es grundsätzlich erst einmal zweitrangig, ob Sie als Manager in dem jeweiligen Fachbereich fundierte Expertise mitbringen – etwa, weil Sie seit Jahren in dem Bereich tätig sind. Oder kein Fachexperte sind – etwa, weil Sie die Abteilung vor allem aus strategischer Sicht führen. Grundsätzlich ist die Aufgabe eines Top-Managers, die Richtung vorzugeben und einen Rahmen sowie Vertrauen zu schaffen.   Sie stellen die richtigen Fragen, aber versuchen nicht zu micromanagen, sondern Freiheiten zu lassen. Wichtig zu verstehen ist: Es gibt immer jemanden, der eine Aufgabe anders umsetzen würde als man selbst. Und das ist auch gut so! Denn oftmals gibt es nicht nur den einen Weg, sondern mehrere Möglichkeiten. Die Königsdisziplin als Topmanager ist es, zu wissen, wann es nötig ist, ein Veto einzulegen, gleichzeitig aber auch, wann es das nicht ist.     4. Blick hinter die Kulissen: Recruiting im Topmanagement Gerade im Topmanagement wird besonders genau hingeschaut. Hier geht es nicht nur um das klassische „Abhaken“ von Lebenslaufstationen, sondern vor allem um die jeweilige Wirkung und ein konsistentes, glaubwürdiges Führungsprofil. Neben fundierter Führungserfahrung zählen strategische Weitsicht, Change-Kompetenz sowie ein hohes Maß an Selbstreflexion und Authentizität.   Gesucht werden Persönlichkeiten, die wissen, wer sie sind – und wofür sie stehen. Zudem achten Personalverantwortliche auf nachweisbare Erfolge, kommunikative Stärke – und auf die Fähigkeit, mit Komplexität umzugehen sowie in unsicheren Zeiten Orientierung zu bieten. Entscheidend ist zudem die Passung zur Unternehmenskultur.   Recruiter achten zunehmend darauf, ob eine Führungskraft zur Wertebasis und Dynamik des Unternehmens passt – nicht nur zur Funktion selbst. Bei Statista beispielsweise bringt das Management Board eine starke Vielfalt an Kompetenzprofilen mit, um möglichst viele Perspektiven abzudecken. Dieses tatkräftige Zusammenspiel zieht sich durch die Aufstellung aller Teams und Bereiche und beeinflusst somit auch die gefragten Fähigkeiten.   Außerdem gut zu wissen: Wenn Sie nicht gerade über eine jahrelange Zugehörigkeit in einem Unternehmen in die C-Level- oder Topmanagement-Rolle hineingewachsen sind, ist der Rekrutierungs- und Auswahlprozess oft mehrstufig, intensiv und in der Regel durch professionelle Headhunter begleitet. Ferner werden die benötigten Eigenschaften in Interviews gezielt hinterfragt – häufig durch situative Fragen, Business Cases oder Peer-Interviews. Nur wer hier auf ganzer Linie überzeugt, hat die Chance im Auswahlprozess weiter berücksichtigt zu werden.   Mein Appell: Warten Sie nicht darauf, perfekt zu sein. Denn darum geht es nicht. Werden Sie sich Ihrer Stärken bewusst – und zeigen Sie Haltung. Insbesondere das Auftreten und Sichtbarwerden auf Business Plattformen wie LinkedIn kann dafür ein echter Gamechanger sein. Nicht zu unterschätzen ist außerdem die Kraft eines starken, professionellen Peer-Netzwerkes – dies kann Sie nicht nur bei fachlichen Fragen unterstützen, sondern auch Empfehlungen aussprechen. Das Zusammenspiel aller Komponenten ist am Ende das, was Türen öffnet.  Fazit Diese Perspektiven auf Karriereentwicklung verdeutlichen, dass der Weg ins Top-Management oder C-Level heute vielfältiger denn je ist. Er verläuft immer seltener geradlinig und ist von keinem klaren Schema geprägt. Vielmehr erfordert er eine ständige Bereitschaft zum Lernen und Wachsen. Außerdem Menschen, die Verantwortung übernehmen, sich selbst reflektieren und Lust auf echte Führung haben.   Ein Quereinstieg kann aus dieser Sicht von großem Vorteil sein. Denn in einer zunehmend komplexen und dynamischen Arbeitswelt sind es oft gerade die unkonventionellen Wege, die zu nachhaltigem Erfolg führen.  

Wie Quereinsteiger ins Topmanagement kommen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?quality=50&strip=all 1959w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=768%2C430&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=1024%2C574&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=1536%2C861&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=1240%2C695&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”574″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der Weg ins Topmanagement oder C-Level verläuft immer seltener geradlinig und ist von keinem klaren Schema geprägt. Vielmehr erfordert er eine ständige Bereitschaft zum Lernen und Wachsen.eamesBot – Shutterstock 2438988607

Mein Weg ins Topmanagement war weder vorgezeichnet noch „klassisch“. Und doch stehe ich heute als Chief HR Officer (CHRO) bei Statista in der Verantwortung für mehr als 1450 Mitarbeitende weltweit. Wie kam es dazu?  Vor allem, weil ich auf meinem Karriereweg Menschen traf, die an mich glaubten – und weil ich nicht davor zurückschreckte, neue Themen zu übernehmen, mich stetig weiterzuentwickeln und die Extra-Meile zu gehen, wenn es nötig war. Gleichzeitig haben mich Durchhaltevermögen und Eigenmotivation dahin gebracht, wo ich heute bin. Denn die Wahrheit ist: Karrieren entstehen nicht über Nacht.  

‘Karriere-Mosaik’ versus linearen Lebenslauf 

Karrierewege waren früher oft klar vorgezeichnet: Wer in der IT aufstieg, begann als Entwickler, wurde Teamlead, dann Head of… und irgendwann CTO. Wer in den HR-Bereich wollte, startete mit einem klassischen Personalreferat. Heute erleben wir hingegen deutlich häufiger nicht-lineare Verläufe, die einem ‘Karriere-Mosaik’ gleichen. Menschen wechseln Funktionen, Branchen, manchmal sogar ganz den thematischen Fokus, um vielfältige Erfahrungen zu sammeln.  

Das zeigt sich nicht nur in schnell wachsenden Startups und Scale-ups, sondern zunehmend auch in klassischeren Mittelstands- und Konzernstrukturen. Warum? Weil die Anforderungen sich verändert haben und verschiedene Kompetenzen immer mehr ineinander verschwimmen. Vielfältige Erfahrungen können demnach ein entscheidender Vorteil sein, insbesondere wenn es darum geht, komplexe Herausforderungen im Topmanagement zu meistern. Denn führende Managementpositionen sind immer häufiger eine Disziplin, die quer zu Fach-Silos verläuft. 

 

Topmanagement oder C-Level trotz Quereinstieg? Ja – aber mit Profil! 

Heißt das, jede oder jeder kann ohne Vorerfahrung einfach ins C-Level wechseln? Ganz so einfach ist es nicht. Der „komplette“ Quereinstieg direkt ins Top-Management ist eher die Ausnahme. Was man allerdings sehr wohl beobachten kann, sind zwei Phänomene: 

– Quereinstieg auf dem Weg zum C-Level: Gerade auf den Ebenen unterhalb der Geschäftsführung – etwa in Abteilungs- oder Bereichsleitung – gibt es vermehrt Quereinsteiger, die über Projektverantwortung, Transformationsrollen oder bereichsübergreifende Themen in die Position hineinwachsen. 

–  Funktionale Bündelung im C-Level: C-Level-Funktionen entwickeln sich weiter. HR und ESG (Environmental, Social and Corporate Governance) wandern in das Betätigungsfeld des CHRO. CFOs verantworten neben Finance auch Legal oder HR-Themen. Oder Tech- und Produktverantwortung werden gemeinsam in einer CPTO-Rolle gebündelt. In solchen Fällen bringt die Führungskraft nicht zwingend in allen Bereichen tiefes Fachwissen mit – wohl aber die Fähigkeit, Experten zu führen und Themen strategisch zu steuern.   

Ein gutes Beispiel: Nicht jeder CTO muss heute selbst programmieren können – es kommt dabei ganz auf die Herausforderungen des Unternehmens an: In schnell wachsenden jungen Firmen ist technisches Hands-on-Wissen oft essenziell und absolut erfolgskritisch. Im Idealfall sollte dann zum Beispiel auch ein CTO über das operative Fachwissen verfügen, um gegebenenfalls einspringen zu können.  

In etablierten Unternehmen mit höherer Komplexität geht es hingegen oft mehr um architektonische Entscheidungen, Budgetverantwortung und -optimierung, Stakeholder-Management und Strategie. In diesen Rollen sieht man auch immer wieder Manager mit einem klassischen Business-Profil, die Erfahrungen in der Unternehmensberatung und eine fundierte strategische Kompetenz sowie IT-Affinität mitbringen. 

Was zählt: Managementkompetenz, nicht (nur) Fachexpertise

Ab einem bestimmten Punkt in der Karriere sind es nicht mehr nur fachliche Qualifikationen, die über Erfolg entscheiden. Es geht um die großen Hebel: Strategie, Teamführung, Stakeholder-Management, Kostenverantwortung, Transformation – und zunehmend auch technologische Weitsicht. Deshalb ist es wenig verwunderlich, dass jede Topmanagement-Funktion sich ähnliche Fragen stellt: 

Wie trägt mein Bereich zur Unternehmensstrategie bei? 

Wie stelle ich ein starkes, diverses und zukunftsfähiges Team auf? 

Wie gestalte ich effektive Kommunikation in komplexen Organisationen? 

Wie identifiziere ich Automatisierungs- und Digitalisierungspotenziale? 

Wie übersetze ich technologische Trends in sinnvolle Maßnahmen? 

Diese Fragen muss nicht jeder selbst beantworten können – aber man muss als Topmanager in der Lage sein, die richtigen Fragen zu stellen, Kollegen zu fördern und Entscheidungen zu treffen. 

C-Level braucht keine Perfektion – sondern Klarheit

Fakt ist: Man muss nicht alles selbst können. Aber man muss wissen, wofür man steht, worin man gut ist und was man delegiert. Ich selbst habe nie einen klassischen HR-Weg durchlaufen. Aber ich kenne meine Stärken: Strategie, Struktur, Finanzen, Kommunikation. Und ich weiß, wo ich starke Mitspieler brauche. Diese Klarheit machte aus meinem Quereinstieg eine Stärke – kein Defizit. 

Wie auch Ihnen der erfolgreiche Einstieg ins Topmanagement oder gar C-Level gelingen kann, verrate ich in den folgenden Tipps. Ein praxisnaher Einblick in den Recruiting-Prozess zeigt Ihnen zudem, worauf Headhunter, Personalverantwortliche und Executive Searcher im Auswahlprozess besonders achten:     

 

1. Offenes Visier, statt Tunnelblick

Einer meiner wichtigsten Erkenntnisse ist, stets neugierig zu bleiben und immer wieder über den eigenen Tellerrand zu schauen. Das kann sich einerseits auf die stetige berufliche und persönliche Weiterentwicklung beziehen. Andererseits darauf, die eigene Bubble hin und wieder zu verlassen und nicht in einer starren Rolle zu verharren. Mein Tipp: Bleiben Sie offen für Neues und nehmen Sie berufliche Herausforderungen an.  

Das heißt nicht, dass Sie in Ihrem aktuellen Job zu allem Ja und Amen sagen oder das nächstbeste Jobangebot annehmen sollten. Schauen Sie vielmehr gezielt nach Möglichkeiten, die ein nächster sinnvoller Schritt in Ihrer beruflichen Weiterentwicklung sein können – auch wenn dies erst einmal unbequem, herausfordernd oder mit Zeitaufwand verbunden ist. Eine gute Option sich neuen Themen zu nähern, bieten beispielsweise Fachbereich übergreifende Projekte. 

Warum? Meiner Meinung nach entsteht wirkliches Wachstum selten dort, wo alles vertraut ist, sondern dort, wo wir uns trauen, neue Wege zu gehen. Darüber hinaus bieten derartige Projekte eine großartige Möglichkeit sich einzubringen, neue Aufgaben auszuprobieren und sich fachlich wie persönlich weiterzuentwickeln – ohne gleich die Verantwortung für ein gesamtes Team übernehmen zu müssen. 

 

2. Sich selbst kennen

Einer meiner wichtigsten Learnings: Verstehen und kennen Sie Ihr Stärken- und Schwächenprofil. Was fällt Ihnen leicht und wo tun Sie sich vielleicht schwer? Warum dieses Wissen essenziell ist: Einer der wichtigsten Management Skills ist es, Ihre Teams so aufzustellen, dass alle sich gegenseitig ergänzen. Demnach ist es als guter Manager Ihre Aufgabe zu erkennen, welche Fähigkeiten im Team stark ausgeprägt sind und welche weniger stark oder vielleicht noch gar nicht vorhanden sind (einschließlich der eigenen Skills).  

Fehlt beispielsweise wichtiges Know-how, das für die Umsetzung eines Projektes oder der Implementierung einer neuen strategischen Ausrichtung zwingend benötigt wird? Dann ist es Ihre Aufgabe eine Person mit dem benötigten Skill-Set einzustellen. Denn die Aufgabe eines Topmanagers besteht nicht darin, alle Aufgaben selbst erledigen zu können, sondern zu erkennen, was es zu welchem Zeitpunkt benötigt, um ein Team oder einen Fachbereich erfolgreich zu führen.  

 

3. Die eigene Rolle verstehen

Als Manager einer Abteilung ist es wichtig, die eigene Rolle und Funktion klar zu kennen. Dabei ist es grundsätzlich erst einmal zweitrangig, ob Sie als Manager in dem jeweiligen Fachbereich fundierte Expertise mitbringen – etwa, weil Sie seit Jahren in dem Bereich tätig sind. Oder kein Fachexperte sind – etwa, weil Sie die Abteilung vor allem aus strategischer Sicht führen. Grundsätzlich ist die Aufgabe eines Top-Managers, die Richtung vorzugeben und einen Rahmen sowie Vertrauen zu schaffen.  

Sie stellen die richtigen Fragen, aber versuchen nicht zu micromanagen, sondern Freiheiten zu lassen. Wichtig zu verstehen ist: Es gibt immer jemanden, der eine Aufgabe anders umsetzen würde als man selbst. Und das ist auch gut so! Denn oftmals gibt es nicht nur den einen Weg, sondern mehrere Möglichkeiten. Die Königsdisziplin als Topmanager ist es, zu wissen, wann es nötig ist, ein Veto einzulegen, gleichzeitig aber auch, wann es das nicht ist.  

 

4. Blick hinter die Kulissen: Recruiting im Topmanagement

Gerade im Topmanagement wird besonders genau hingeschaut. Hier geht es nicht nur um das klassische „Abhaken“ von Lebenslaufstationen, sondern vor allem um die jeweilige Wirkung und ein konsistentes, glaubwürdiges Führungsprofil. Neben fundierter Führungserfahrung zählen strategische Weitsicht, Change-Kompetenz sowie ein hohes Maß an Selbstreflexion und Authentizität.  

Gesucht werden Persönlichkeiten, die wissen, wer sie sind – und wofür sie stehen. Zudem achten Personalverantwortliche auf nachweisbare Erfolge, kommunikative Stärke – und auf die Fähigkeit, mit Komplexität umzugehen sowie in unsicheren Zeiten Orientierung zu bieten. Entscheidend ist zudem die Passung zur Unternehmenskultur.  

Recruiter achten zunehmend darauf, ob eine Führungskraft zur Wertebasis und Dynamik des Unternehmens passt – nicht nur zur Funktion selbst. Bei Statista beispielsweise bringt das Management Board eine starke Vielfalt an Kompetenzprofilen mit, um möglichst viele Perspektiven abzudecken. Dieses tatkräftige Zusammenspiel zieht sich durch die Aufstellung aller Teams und Bereiche und beeinflusst somit auch die gefragten Fähigkeiten.  

Außerdem gut zu wissen: Wenn Sie nicht gerade über eine jahrelange Zugehörigkeit in einem Unternehmen in die C-Level- oder Topmanagement-Rolle hineingewachsen sind, ist der Rekrutierungs- und Auswahlprozess oft mehrstufig, intensiv und in der Regel durch professionelle Headhunter begleitet. Ferner werden die benötigten Eigenschaften in Interviews gezielt hinterfragt – häufig durch situative Fragen, Business Cases oder Peer-Interviews. Nur wer hier auf ganzer Linie überzeugt, hat die Chance im Auswahlprozess weiter berücksichtigt zu werden.  

Mein Appell: Warten Sie nicht darauf, perfekt zu sein. Denn darum geht es nicht. Werden Sie sich Ihrer Stärken bewusst – und zeigen Sie Haltung. Insbesondere das Auftreten und Sichtbarwerden auf Business Plattformen wie LinkedIn kann dafür ein echter Gamechanger sein. Nicht zu unterschätzen ist außerdem die Kraft eines starken, professionellen Peer-Netzwerkes – dies kann Sie nicht nur bei fachlichen Fragen unterstützen, sondern auch Empfehlungen aussprechen. Das Zusammenspiel aller Komponenten ist am Ende das, was Türen öffnet. 

Fazit

Diese Perspektiven auf Karriereentwicklung verdeutlichen, dass der Weg ins Top-Management oder C-Level heute vielfältiger denn je ist. Er verläuft immer seltener geradlinig und ist von keinem klaren Schema geprägt. Vielmehr erfordert er eine ständige Bereitschaft zum Lernen und Wachsen. Außerdem Menschen, die Verantwortung übernehmen, sich selbst reflektieren und Lust auf echte Führung haben.  

Ein Quereinstieg kann aus dieser Sicht von großem Vorteil sein. Denn in einer zunehmend komplexen und dynamischen Arbeitswelt sind es oft gerade die unkonventionellen Wege, die zu nachhaltigem Erfolg führen. 

Wie Quereinsteiger ins Topmanagement kommen​ Weiterlesen »

Nach oben scrollen
×