Computerhaus Quickborn

Allgemein

C-Level-Bewerbung: So gelingt der Einstieg ins Topmanagement​

Allgemein

Wer ins obere Management aufsteigen will, sollte seine Entscheidung gut abwägen und sich nicht nur von hohem Gehalt und der Möglichkeit zum Karrieresprung leiten lassen. Foto: marvent – shutterstock.comJe weiter Sie in Ihrer Karriere kommen, desto komplizierter werden in der Regel die sich einstellenden und zu erwartenden Prozesse. Und auch die Entscheidungen, die man für sich selbst treffen muss, nehmen an Komplexität zu. Hinzu kommt noch, dass rund 80 Prozent der vakanten Managementpositionen erst gar nicht öffentlich ausgeschrieben werden. Wer also nicht auf Headhunter-Anfragen warten oder darauf vertrauen will, dass die richtige Position von selbst zugeflogen kommt, muss sich den “verdeckten Stellenmarkt” erschließen. Dafür sollten Sie die Initiative ergreifen und sich aktiv an Unternehmen wenden. Die langjährige Erfahrung in der Karriereberatung hat uns gelehrt, dass auf diesem Weg die meisten Vorstellungsgespräche und konkreten Stellenangebote zu erreichen sind. Hindernisse auf dem Weg zum C-LevelDoch selbst wenn schon ein interessantes Angebot oder gar mehrere in Aussicht stehen, gilt es noch einige Hürden zu nehmen. Dabei ist vor allem eines ganz wichtig zu berücksichtigen: Nicht nur Sie bewerben sich. “Das Machtverhältnis zwischen Unternehmen und Bewerbern hat sich umgekehrt”, titelte die FAZ schon 2018. Und natürlich geht die Tendenz dahin, dass zunehmend mehr Stellen ausgeschrieben werden als es Bewerber gibt. Jedoch alleine diese Zahlen zu betrachten, führt in die Irre. Denn asymmetrische Machtverhältnisse ergeben sich durch das Auswahlverfahren, dessen Ablauf meist von Unternehmensseite bestimmt wird und nicht aus einem Überangebot an offenen Stellen.Die wichtigste Hürde, die Bewerberinnen und Bewerber nehmen müssen, ist daher, die bestehende Machtasymmetrie in Machtausgewogenheit zu verwandeln, um so an notwendige Informationen zu kommen, wodurch sie die bessere Entscheidung treffen können. Das Gute daran: Bereits der Ablauf des Auswahlprozesses liefert viele Erkenntnisse über das Unternehmen. Je nachdem, ob sich die Unternehmensvertreter lediglich als Moderatoren verstehen und gleichwertige Partner aufeinandertreffen oder im Auswahlprozess autokratisch agiert und die Machtsymmetrie offen genutzt wird, erkennt der Bewerber die dort vorherrschende Kultur. Auch der Vertrag, der am Ende des Auswahlprozesses vorgelegt wird, und die Art, wie die Verhandlungen darüber geführt werden, lassen viele Rückschlüsse zu. Aspiranten sollten auch das als Teil des Prozesses sehen, der wirklich erst mit der Unterzeichnung des Arbeitsvertrags abgeschlossen ist. Machtbalance ergibt sich am ehesten, wenn Alternativen vorhanden sind oder Sie es auch als Alternative sehen, aus den Verhandlungen auszusteigen. Ansonsten ist es allzu menschlich, sich die einzige Option schönzureden und Negatives und Riskantes auszublenden. Das ist auch eine Erklärung dafür, warum Manager länger an einer Position in einem Unternehmen festhalten, als sie ursprünglich wollten. Mehrere Optionen sind daher immer lohnend, auch wenn man sie am Ende gar nicht nutzt. Wer Alternativen hat, ist mit den Gesprächspartnern kritischer und will es ganz genau wissen. Cultural Fit für Führungskräfte Nehmen wir beispielsweise die Unternehmenskultur: Eine Führungskraft kann nur dann erfolgreich sein und arbeiten, wenn sie menschlich zum Betrieb passt. Ansonsten profitieren beide Seiten am Ende nicht von der Zusammenarbeit. Diese kulturelle Übereinstimmung spielt laut Studien eine immer größer werdende Rolle im Recruiting-Prozess. Aber auch der Bewerber sollte im Vorfeld seiner Bewerbung sondieren, ob er sich mit dem Unternehmen identifizieren kann. Eine solche Überprüfung könnte zum Beispiel in Sachen Unternehmenstyp mit der Fragestellung starten: Handelt es sich um einen Konzern, ein mittelständisches Unternehmen oder ein Start-up? Wird es vom Eigentümer geführt, oder handelt es sich um eine Aktiengesellschaft? Welche Nationalität hat der Mutterkonzern? Die Unternehmensform und Eigentümerstrukturen sagen schon viel über einen potenziellen Arbeitgeber aus. Aber Achtung: Natürlich gibt es innerhalb der Typen große Abweichungen. Die meisten Informationen bekommen Sie über persönliche Gespräche sowie durch Ehrlichkeit und Authentizität. Es bringt Ihnen nichts, sich um jeden Preis gut zu “verkaufen”. Der Tribut ist am Ende zu hoch. Wahre Aussagen erhöhen hingegen für jeden die Erfolgsaussicht, individuell die richtige Entscheidung zu treffen. “Die Unternehmen täuschen doch auch”, werden Sie jetzt vielleicht denken – Headhunter loben ohnehin immer beide Seiten in den Himmel. Leider ist dies teilweise wirklich der Fall. Die Firmen müssen dann aber auch mit den Konsequenzen leben, mit Fehlbesetzung oder einer hohen Fluktuation. Transparenz sowie die deutlich Aussage, welche Anforderungen Sie vielleicht nicht erfüllen, bringen mehr. Damit gewinnt man Glaubwürdigkeit und reduziert den Druck, sämtliche Anforderungen erfüllen zu müssen. Außerdem wird der Gesprächspartner auf diese Weise mit in die Verantwortung genommen. Auf der anderen Seite kann diese Offenheit so auch besser eingefordert werden. Fragen wie “Was wäre für meine Entscheidung noch wichtig zu wissen?” oder “Worüber haben wir noch nicht gesprochen, was für mich wichtig sein könnte?” Versuchen Sie mit so vielen Menschen wie möglich zu sprechen – auch mit Mitarbeitenden. Der eigenen Intuition vertrauenSie können alle Erkenntnisse, die Sie durch die Gespräche gewinnen in einer Tabelle beziehungsweise Entscheidungsmatrix festhalten und so versuchen, den komplexen Entscheidungsprozess für eine neue Herausforderung zu systematisieren. Das ist aber nur ein Zwischenschritt. Vergessen Sie nicht, Ihre Intuition miteinzubeziehen. Schnell sehen wir aus Mangel an Alternativen nur, was wir gerne sehen wollen, oder lassen uns vom hohen Gehalt und dem großen Karrieresprung verlocken. Dabei greift unsere Bauchentscheidung auch auf gesammeltes Wissen zurück – in diesem Fall auf gefühltes Wissen, wovon gestandene Führungskräfte im Laufe ihrer Karriere viel gesammelt haben. Dieses gefühlte Wissen sollte daher in den Entscheidungsprozess mit einfließen, damit man sich später auch nichts vorzuwerfen hat. Sie sehen: Viel wichtiger, als den Auswahlprozess für eine Position im oberen Management unbedingt “zu bestehen”, ist es, die für Sie wirklich passende Stelle im richtigen Unternehmen zu finden. Videokonferenzen – 5 Tipps fürs virtuelle BewerbungsgesprächWie Sie im Online-Interview richtig agierenImmer mehr Unternehmen und HR-Abteilungen gehen dazu über, Bewerbungsgespräche mit Kandidaten via Videokonferenz zu führen. Was bei virtuellen Interviews zu beachten ist, lesen Sie hier. Technik testenTesten Sie im Voraus die Technik – und planen Sie, für den Fall, dass ein technisches Problem auftritt, einen zeitlichen Puffer ein. Treten Sie dem virtuellen Meeting bereits einige Minuten früher bei, um Ihre Verbindung zu testen und den optimalen Standort für die Videoübertragung zu finden.Für Gesprächsdynamik sorgenStellen Sie sicher, dass alle Beteiligten des Gesprächs ihre Rolle kennen und wissen, auf was sie ihre Aufmerksamkeit richten sollen. Das sorgt für eine dynamischere und überzeugendere Interview-Erfahrung, die sowohl für Sie als auch für den Kandidaten ein aufschlussreiches Gespräch mit echtem Mehrwert schafft.Eine ruhige Gesprächsatmosphäre schaffenSuchen Sie einen ruhigen, privaten und gut beleuchteten Ort, der frei von möglichen Unterbrechungen ist. Schalten Sie Ihre Messaging- und E-Mail-Benachrichtigungen aus, damit Sie während des Gesprächs nicht abgelenkt werden.Kamera immer auf onKameras sollten immer eingeschaltet sein, und während einer der Teilnehmer spricht, sollten Sie die Stummschaltung aktivieren, um jegliche Hintergrundgeräusche zu minimieren.Auf die Körpersprache achtenAchten Sie während des Gesprächs sowohl auf Ihre als auch auf die Körpersprache der Teilnehmenden. In einem virtuellen Interview sind nicht alle Körperbewegungen und -signale ohne Weiteres wie in einem persönlichen Gespräch erkennbar – was diejenigen Signale und Bewegungen, die erkennbar sind, umso wichtiger macht. 

C-Level-Bewerbung: So gelingt der Einstieg ins Topmanagement​ Wer ins obere Management aufsteigen will, sollte seine Entscheidung gut abwägen und sich nicht nur von hohem Gehalt und der Möglichkeit zum Karrieresprung leiten lassen.
Foto: marvent – shutterstock.comJe weiter Sie in Ihrer Karriere kommen, desto komplizierter werden in der Regel die sich einstellenden und zu erwartenden Prozesse. Und auch die Entscheidungen, die man für sich selbst treffen muss, nehmen an Komplexität zu. Hinzu kommt noch, dass rund 80 Prozent der vakanten Managementpositionen erst gar nicht öffentlich ausgeschrieben werden. Wer also nicht auf Headhunter-Anfragen warten oder darauf vertrauen will, dass die richtige Position von selbst zugeflogen kommt, muss sich den “verdeckten Stellenmarkt” erschließen. Dafür sollten Sie die Initiative ergreifen und sich aktiv an Unternehmen wenden. Die langjährige Erfahrung in der Karriereberatung hat uns gelehrt, dass auf diesem Weg die meisten Vorstellungsgespräche und konkreten Stellenangebote zu erreichen sind. Hindernisse auf dem Weg zum C-LevelDoch selbst wenn schon ein interessantes Angebot oder gar mehrere in Aussicht stehen, gilt es noch einige Hürden zu nehmen. Dabei ist vor allem eines ganz wichtig zu berücksichtigen: Nicht nur Sie bewerben sich. “Das Machtverhältnis zwischen Unternehmen und Bewerbern hat sich umgekehrt”, titelte die FAZ schon 2018. Und natürlich geht die Tendenz dahin, dass zunehmend mehr Stellen ausgeschrieben werden als es Bewerber gibt. Jedoch alleine diese Zahlen zu betrachten, führt in die Irre. Denn asymmetrische Machtverhältnisse ergeben sich durch das Auswahlverfahren, dessen Ablauf meist von Unternehmensseite bestimmt wird und nicht aus einem Überangebot an offenen Stellen.Die wichtigste Hürde, die Bewerberinnen und Bewerber nehmen müssen, ist daher, die bestehende Machtasymmetrie in Machtausgewogenheit zu verwandeln, um so an notwendige Informationen zu kommen, wodurch sie die bessere Entscheidung treffen können. Das Gute daran: Bereits der Ablauf des Auswahlprozesses liefert viele Erkenntnisse über das Unternehmen. Je nachdem, ob sich die Unternehmensvertreter lediglich als Moderatoren verstehen und gleichwertige Partner aufeinandertreffen oder im Auswahlprozess autokratisch agiert und die Machtsymmetrie offen genutzt wird, erkennt der Bewerber die dort vorherrschende Kultur. Auch der Vertrag, der am Ende des Auswahlprozesses vorgelegt wird, und die Art, wie die Verhandlungen darüber geführt werden, lassen viele Rückschlüsse zu. Aspiranten sollten auch das als Teil des Prozesses sehen, der wirklich erst mit der Unterzeichnung des Arbeitsvertrags abgeschlossen ist. Machtbalance ergibt sich am ehesten, wenn Alternativen vorhanden sind oder Sie es auch als Alternative sehen, aus den Verhandlungen auszusteigen. Ansonsten ist es allzu menschlich, sich die einzige Option schönzureden und Negatives und Riskantes auszublenden. Das ist auch eine Erklärung dafür, warum Manager länger an einer Position in einem Unternehmen festhalten, als sie ursprünglich wollten. Mehrere Optionen sind daher immer lohnend, auch wenn man sie am Ende gar nicht nutzt. Wer Alternativen hat, ist mit den Gesprächspartnern kritischer und will es ganz genau wissen. Cultural Fit für Führungskräfte Nehmen wir beispielsweise die Unternehmenskultur: Eine Führungskraft kann nur dann erfolgreich sein und arbeiten, wenn sie menschlich zum Betrieb passt. Ansonsten profitieren beide Seiten am Ende nicht von der Zusammenarbeit. Diese kulturelle Übereinstimmung spielt laut Studien eine immer größer werdende Rolle im Recruiting-Prozess. Aber auch der Bewerber sollte im Vorfeld seiner Bewerbung sondieren, ob er sich mit dem Unternehmen identifizieren kann. Eine solche Überprüfung könnte zum Beispiel in Sachen Unternehmenstyp mit der Fragestellung starten: Handelt es sich um einen Konzern, ein mittelständisches Unternehmen oder ein Start-up? Wird es vom Eigentümer geführt, oder handelt es sich um eine Aktiengesellschaft? Welche Nationalität hat der Mutterkonzern? Die Unternehmensform und Eigentümerstrukturen sagen schon viel über einen potenziellen Arbeitgeber aus. Aber Achtung: Natürlich gibt es innerhalb der Typen große Abweichungen. Die meisten Informationen bekommen Sie über persönliche Gespräche sowie durch Ehrlichkeit und Authentizität. Es bringt Ihnen nichts, sich um jeden Preis gut zu “verkaufen”. Der Tribut ist am Ende zu hoch. Wahre Aussagen erhöhen hingegen für jeden die Erfolgsaussicht, individuell die richtige Entscheidung zu treffen. “Die Unternehmen täuschen doch auch”, werden Sie jetzt vielleicht denken – Headhunter loben ohnehin immer beide Seiten in den Himmel. Leider ist dies teilweise wirklich der Fall. Die Firmen müssen dann aber auch mit den Konsequenzen leben, mit Fehlbesetzung oder einer hohen Fluktuation. Transparenz sowie die deutlich Aussage, welche Anforderungen Sie vielleicht nicht erfüllen, bringen mehr. Damit gewinnt man Glaubwürdigkeit und reduziert den Druck, sämtliche Anforderungen erfüllen zu müssen. Außerdem wird der Gesprächspartner auf diese Weise mit in die Verantwortung genommen. Auf der anderen Seite kann diese Offenheit so auch besser eingefordert werden. Fragen wie “Was wäre für meine Entscheidung noch wichtig zu wissen?” oder “Worüber haben wir noch nicht gesprochen, was für mich wichtig sein könnte?” Versuchen Sie mit so vielen Menschen wie möglich zu sprechen – auch mit Mitarbeitenden. Der eigenen Intuition vertrauenSie können alle Erkenntnisse, die Sie durch die Gespräche gewinnen in einer Tabelle beziehungsweise Entscheidungsmatrix festhalten und so versuchen, den komplexen Entscheidungsprozess für eine neue Herausforderung zu systematisieren. Das ist aber nur ein Zwischenschritt. Vergessen Sie nicht, Ihre Intuition miteinzubeziehen. Schnell sehen wir aus Mangel an Alternativen nur, was wir gerne sehen wollen, oder lassen uns vom hohen Gehalt und dem großen Karrieresprung verlocken. Dabei greift unsere Bauchentscheidung auch auf gesammeltes Wissen zurück – in diesem Fall auf gefühltes Wissen, wovon gestandene Führungskräfte im Laufe ihrer Karriere viel gesammelt haben. Dieses gefühlte Wissen sollte daher in den Entscheidungsprozess mit einfließen, damit man sich später auch nichts vorzuwerfen hat. Sie sehen: Viel wichtiger, als den Auswahlprozess für eine Position im oberen Management unbedingt “zu bestehen”, ist es, die für Sie wirklich passende Stelle im richtigen Unternehmen zu finden. Videokonferenzen – 5 Tipps fürs virtuelle BewerbungsgesprächWie Sie im Online-Interview richtig agierenImmer mehr Unternehmen und HR-Abteilungen gehen dazu über, Bewerbungsgespräche mit Kandidaten via Videokonferenz zu führen. Was bei virtuellen Interviews zu beachten ist, lesen Sie hier. Technik testenTesten Sie im Voraus die Technik – und planen Sie, für den Fall, dass ein technisches Problem auftritt, einen zeitlichen Puffer ein. Treten Sie dem virtuellen Meeting bereits einige Minuten früher bei, um Ihre Verbindung zu testen und den optimalen Standort für die Videoübertragung zu finden.Für Gesprächsdynamik sorgenStellen Sie sicher, dass alle Beteiligten des Gesprächs ihre Rolle kennen und wissen, auf was sie ihre Aufmerksamkeit richten sollen. Das sorgt für eine dynamischere und überzeugendere Interview-Erfahrung, die sowohl für Sie als auch für den Kandidaten ein aufschlussreiches Gespräch mit echtem Mehrwert schafft.Eine ruhige Gesprächsatmosphäre schaffenSuchen Sie einen ruhigen, privaten und gut beleuchteten Ort, der frei von möglichen Unterbrechungen ist. Schalten Sie Ihre Messaging- und E-Mail-Benachrichtigungen aus, damit Sie während des Gesprächs nicht abgelenkt werden.Kamera immer auf onKameras sollten immer eingeschaltet sein, und während einer der Teilnehmer spricht, sollten Sie die Stummschaltung aktivieren, um jegliche Hintergrundgeräusche zu minimieren.Auf die Körpersprache achtenAchten Sie während des Gesprächs sowohl auf Ihre als auch auf die Körpersprache der Teilnehmenden. In einem virtuellen Interview sind nicht alle Körperbewegungen und -signale ohne Weiteres wie in einem persönlichen Gespräch erkennbar – was diejenigen Signale und Bewegungen, die erkennbar sind, umso wichtiger macht.

C-Level-Bewerbung: So gelingt der Einstieg ins Topmanagement​ Weiterlesen »

Mobile Device Management: Was bedeuten BYOD, CYOD, COPE und COBO?​

Allgemein

Für eine erfolgreiche Enterprise-Mobility-Strategie braucht es klare Vorgaben dazu, welche Geräte wie genutzt werden dürfen. Foto: goodluz – shutterstock.com Schon seit geraumer Zeit sind Smartphones und Tablets aus dem Unternehmensalltag nicht mehr wegzudenken. Es gibt dabei verschiedene Methoden zur Gerätebereitstellung und -nutzung, die Unternehmen dabei unterstützen, die Gefahren rund um Enterprise Mobility mit Hilfe von Mobile Device Management und anderen Tools zu umschiffen. Hier ein Überblick über die verschiedenen Strategien, deren Vor- und Nachteile, sowie erforderliche Maßnahmen in puncto Management und Absicherung. COBO – Corporate Owned, Business Only Bei einer COBO-Strategie stellt das Unternehmen dem Mitarbeiter das mobile Device einschließlich Mobilfunkvertrag bereit. Als Firmengerät darf dieser es ausschließlich beruflich einsetzen, eine private Nutzung ist verboten und Aktionen wie die Installation von unternehmensfremden Apps werden möglicherweise technisch verhindert. COBO stammt aus einer Zeit als Endgeräte und Mobilfunkverträge (inklusive Daten) noch Luxus waren, weshalb zunächst vorrangig Manager mit einem Blackberry, Palm oder Windows Phone ausgestattet wurden. Mit den aufkeimenden Enterprise-Mobility-Initiativen kam dann der Plan, Mobilgeräte ähnlich wie PCs in der Belegschaft auszurollen und zu verwalten. Vorteile von COBO: Hohe Sicherheit durch die Möglichkeit, die Geräte samt Apps und Daten vollständig zu kontrollieren und gegebenenfalls zu löschen (häufig in streng regulierten Branchen) Einfachere Beschaffung, Support, Verwaltung und App-Entwicklung dank (relativ) einheitlichem Gerätebestand Auswahl geeigneter Devices Nachteile von COBO: Geringe Wirkung des Geräts als Incentive, da nur beruflich nutzbar Höhere Anschaffungskosten Geringere Sorgfalt im Umgang, da “nur” Firmeneigentum Verlustgefahr: Mitarbeiter tragen häufig zwei Geräte mit sich BYOD – Bring Your Own Device Bei einer BYOD-Strategie nutzt der Mitarbeiter sein privates Endgerät auch beruflich. Er bezahlt es selbst, es ist jedoch nicht unüblich, dass der Arbeitgeber einen Zuschuss zum Kaufpreis und Mobilfunkvertrag beisteuert. Die Hauptgründe, dass findige Manager bereits vor mehr als zehn Jahren das Konzept BYOD ersannen, waren finanzielle Überlegungen und die Hoffnung auf mehr Sorgfalt und häufigere Nutzung. Plus die Erkenntnis, dass die Topmanager, die ihr privat gekauftes iPhone wegen der tollen Usability auch beruflich nutzen wollen (Consumerization), nur die Spitze einer Entwicklung sind, die schwer zu stoppen ist, dafür aber positiv genutzt werden kann. Vorteile von BYOD: Mehr Sorgfalt im Umgang mit dem privaten Device Kenntnisse der Mitarbeiter von Bedienung und gegebenenfalls Wartung Aufwändige und teure Beschaffung entfällt (Nutzung für berufliche Zwecke auch in der Freizeit) Nachteile von BYOD: Trennung von privaten und geschäftlichen Daten unbedingt erforderlich (Arbeitsprofil) Höherer Aufwand bei Absicherung und Verwaltung Gefahr von Schatten-IT durch nicht verwaltete private Endgeräte Gefahr von Kompatibilitätsproblemen COPE – Corporate Owned, Personally Enabled Bei einer COPE-Strategie stellt das Unternehmen seinen Mitarbeitern ein mobiles Endgerät samt Mobilfunkvertrag zur Verfügung, dieses darf allerdings auch privat genutzt werden. Das COPE-Modell ist damit im Grunde genommen ein Versuch, die Vorteile von COBO und BYOD zu kombinieren und die damit verbundenen Nachteile zu vermeiden. Vorteile von COPE: Einfachere Beschaffung, Support, Verwaltung und App-Entwicklung dank (relativ) einheitlichem Gerätebestands (Vor)Auswahl geeigneter Devices Mehr Sorgfalt im Umgang mit dem Device Kenntnisse der Mitarbeiter von Bedienung und gegebenenfalls Wartung Wirkung als Incentive für Mitarbeiter (Nutzung für berufliche Zwecke auch in der Freizeit) Nachteile von COPE: Trennung von privaten und geschäftlichen Daten unbedingt erforderlich (Arbeitsprofil) Höherer Aufwand bei Absicherung und Verwaltung CYOD – Choose Your Own DeviceCYOD ist ein Versuch, die Vorteile von BYOD zu nutzen, ohne Nachteile wie Kompatibilitätsprobleme durch eine zu hohe Endgerätevielfalt in Kauf zu nehmen: Der Mitarbeiter wählt sein berufliches, aber auch privat nutzbares Devices aus einer Liste von unterstützten Geräten. Dabei ist es möglich, dass der Anwender einen Aufpreis bezahlt, um ein hochwertigeres Gerät als ihm zusteht, zu erwerben. Auf diese Weise stellt das Unternehmen sicher, dass sich das Device für die Nutzung im Business-Umfeld sowie für etwaige Enterprise-Apps eignet und abgesichert ist, ohne den Anwender zu sehr bei der Gerätewahl einzuschränken. COSU – Corporate Owned, Single UseEine Variante von COBO ist COSU. Hier handelt es sich um reine Firmengeräte, die nur für eine spezifische Anwendung oder Anwendungsfeldern bestimmt sind und daher auch nicht unbedingt einem einzelnen Mitarbeiter zugeordnet werden müssen. Beispiele dafür sind etwa Demogeräte in Elektromärkten und Messen, Smartphones mit Scanner-Funktion in Lager und Logistik oder Tablets für die Aufnahme von Schäden (z.B. Mietwagen, Versicherungsgutachter) oder Bestellungen (Gastronomie). Die COSU-Nutzung wird von Android und iOS durch einen speziellen Kiosk-Modus unterstützt, die den Gerätezugriff auf eine Anwendung oder ein Anwendungsgebiet einschränkt.Welche Methode für welchen Zweck?Nachdem die Betriebssystemanbieter Apple und Google, OEMs wie Samsung und verschiedene Device-Management-Anbieter die technischen Grundlagen für eine sichere und komfortable Verwaltung trotz beruflicher und privater Nutzung geschaffen haben, sind heutzutage vor allem COPE, CYOD und – weniger – BYOD weit verbreitet.Dennoch ist es bei diesen Betriebsformen ohne hohen Aufwand noch immer nicht hundertprozentig möglich, den Schutz geschäftlicher Daten rein technisch zu gewährleisten. Oft zitiertes Beispiel ist der Upload von beruflichen Kontaktdaten in die Cloud bei der privaten Nutzung von WhatsApp oder Clubhouse. Aus diesem Grund kommen beispielsweise in stark regulierten Branchen wie Banken oder Versicherungen oder im öffentlichen Bereich rein beruflich genutzte und stark abgeriegelte mobile Endgeräte zu Einsatz. Ähnlich verhält es sich in Tätigkeitsfeldern, wo sehr spezialisierte, oft gehärtete Devices verwendet werden, die sich nicht unbedingt für die private Nutzung anbieten. 

Mobile Device Management: Was bedeuten BYOD, CYOD, COPE und COBO?​ Für eine erfolgreiche Enterprise-Mobility-Strategie braucht es klare Vorgaben dazu, welche Geräte wie genutzt werden dürfen.
Foto: goodluz – shutterstock.com

Schon seit geraumer Zeit sind Smartphones und Tablets aus dem Unternehmensalltag nicht mehr wegzudenken. Es gibt dabei verschiedene Methoden zur Gerätebereitstellung und -nutzung, die Unternehmen dabei unterstützen, die Gefahren rund um Enterprise Mobility mit Hilfe von Mobile Device Management und anderen Tools zu umschiffen. Hier ein Überblick über die verschiedenen Strategien, deren Vor- und Nachteile, sowie erforderliche Maßnahmen in puncto Management und Absicherung.

COBO – Corporate Owned, Business Only

Bei einer COBO-Strategie stellt das Unternehmen dem Mitarbeiter das mobile Device einschließlich Mobilfunkvertrag bereit. Als Firmengerät darf dieser es ausschließlich beruflich einsetzen, eine private Nutzung ist verboten und Aktionen wie die Installation von unternehmensfremden Apps werden möglicherweise technisch verhindert.

COBO stammt aus einer Zeit als Endgeräte und Mobilfunkverträge (inklusive Daten) noch Luxus waren, weshalb zunächst vorrangig Manager mit einem Blackberry, Palm oder Windows Phone ausgestattet wurden. Mit den aufkeimenden Enterprise-Mobility-Initiativen kam dann der Plan, Mobilgeräte ähnlich wie PCs in der Belegschaft auszurollen und zu verwalten.

Vorteile von COBO:

Hohe Sicherheit durch die Möglichkeit, die Geräte samt Apps und Daten vollständig zu kontrollieren und gegebenenfalls zu löschen (häufig in streng regulierten Branchen)

Einfachere Beschaffung, Support, Verwaltung und App-Entwicklung dank (relativ) einheitlichem Gerätebestand

Auswahl geeigneter Devices

Nachteile von COBO:

Geringe Wirkung des Geräts als Incentive, da nur beruflich nutzbar

Höhere Anschaffungskosten

Geringere Sorgfalt im Umgang, da “nur” Firmeneigentum

Verlustgefahr: Mitarbeiter tragen häufig zwei Geräte mit sich

BYOD – Bring Your Own Device

Bei einer BYOD-Strategie nutzt der Mitarbeiter sein privates Endgerät auch beruflich. Er bezahlt es selbst, es ist jedoch nicht unüblich, dass der Arbeitgeber einen Zuschuss zum Kaufpreis und Mobilfunkvertrag beisteuert.

Die Hauptgründe, dass findige Manager bereits vor mehr als zehn Jahren das Konzept BYOD ersannen, waren finanzielle Überlegungen und die Hoffnung auf mehr Sorgfalt und häufigere Nutzung. Plus die Erkenntnis, dass die Topmanager, die ihr privat gekauftes iPhone wegen der tollen Usability auch beruflich nutzen wollen (Consumerization), nur die Spitze einer Entwicklung sind, die schwer zu stoppen ist, dafür aber positiv genutzt werden kann.

Vorteile von BYOD:

Mehr Sorgfalt im Umgang mit dem privaten Device

Kenntnisse der Mitarbeiter von Bedienung und gegebenenfalls Wartung

Aufwändige und teure Beschaffung entfällt

(Nutzung für berufliche Zwecke auch in der Freizeit)

Nachteile von BYOD:

Trennung von privaten und geschäftlichen Daten unbedingt erforderlich (Arbeitsprofil)

Höherer Aufwand bei Absicherung und Verwaltung

Gefahr von Schatten-IT durch nicht verwaltete private Endgeräte

Gefahr von Kompatibilitätsproblemen

COPE – Corporate Owned, Personally Enabled

Bei einer COPE-Strategie stellt das Unternehmen seinen Mitarbeitern ein mobiles Endgerät samt Mobilfunkvertrag zur Verfügung, dieses darf allerdings auch privat genutzt werden. Das COPE-Modell ist damit im Grunde genommen ein Versuch, die Vorteile von COBO und BYOD zu kombinieren und die damit verbundenen Nachteile zu vermeiden.

Vorteile von COPE:

Einfachere Beschaffung, Support, Verwaltung und App-Entwicklung dank (relativ) einheitlichem Gerätebestands

(Vor)Auswahl geeigneter Devices

Mehr Sorgfalt im Umgang mit dem Device

Kenntnisse der Mitarbeiter von Bedienung und gegebenenfalls Wartung

Wirkung als Incentive für Mitarbeiter

(Nutzung für berufliche Zwecke auch in der Freizeit)

Nachteile von COPE:

Trennung von privaten und geschäftlichen Daten unbedingt erforderlich (Arbeitsprofil)

Höherer Aufwand bei Absicherung und Verwaltung

CYOD – Choose Your Own DeviceCYOD ist ein Versuch, die Vorteile von BYOD zu nutzen, ohne Nachteile wie Kompatibilitätsprobleme durch eine zu hohe Endgerätevielfalt in Kauf zu nehmen: Der Mitarbeiter wählt sein berufliches, aber auch privat nutzbares Devices aus einer Liste von unterstützten Geräten. Dabei ist es möglich, dass der Anwender einen Aufpreis bezahlt, um ein hochwertigeres Gerät als ihm zusteht, zu erwerben. Auf diese Weise stellt das Unternehmen sicher, dass sich das Device für die Nutzung im Business-Umfeld sowie für etwaige Enterprise-Apps eignet und abgesichert ist, ohne den Anwender zu sehr bei der Gerätewahl einzuschränken. COSU – Corporate Owned, Single UseEine Variante von COBO ist COSU. Hier handelt es sich um reine Firmengeräte, die nur für eine spezifische Anwendung oder Anwendungsfeldern bestimmt sind und daher auch nicht unbedingt einem einzelnen Mitarbeiter zugeordnet werden müssen. Beispiele dafür sind etwa Demogeräte in Elektromärkten und Messen, Smartphones mit Scanner-Funktion in Lager und Logistik oder Tablets für die Aufnahme von Schäden (z.B. Mietwagen, Versicherungsgutachter) oder Bestellungen (Gastronomie). Die COSU-Nutzung wird von Android und iOS durch einen speziellen Kiosk-Modus unterstützt, die den Gerätezugriff auf eine Anwendung oder ein Anwendungsgebiet einschränkt.Welche Methode für welchen Zweck?Nachdem die Betriebssystemanbieter Apple und Google, OEMs wie Samsung und verschiedene Device-Management-Anbieter die technischen Grundlagen für eine sichere und komfortable Verwaltung trotz beruflicher und privater Nutzung geschaffen haben, sind heutzutage vor allem COPE, CYOD und – weniger – BYOD weit verbreitet.Dennoch ist es bei diesen Betriebsformen ohne hohen Aufwand noch immer nicht hundertprozentig möglich, den Schutz geschäftlicher Daten rein technisch zu gewährleisten. Oft zitiertes Beispiel ist der Upload von beruflichen Kontaktdaten in die Cloud bei der privaten Nutzung von WhatsApp oder Clubhouse. Aus diesem Grund kommen beispielsweise in stark regulierten Branchen wie Banken oder Versicherungen oder im öffentlichen Bereich rein beruflich genutzte und stark abgeriegelte mobile Endgeräte zu Einsatz. Ähnlich verhält es sich in Tätigkeitsfeldern, wo sehr spezialisierte, oft gehärtete Devices verwendet werden, die sich nicht unbedingt für die private Nutzung anbieten.

Mobile Device Management: Was bedeuten BYOD, CYOD, COPE und COBO?​ Weiterlesen »

KI-Funktionen in der Windows-Fotoanzeige nutzen – so geht’s​

Allgemein

AVM 1. Fotoanzeige öffnen Die Windows-Fotoanzeige lässt sich im Startmenü öffnen – entweder über das Suchfeld der Taskleiste oder mittels Doppelklick im Explorer auf eine unterstützte JPEG- oder PNG-Datei – sofern kein anderer Bildbetrachter installiert und auf die Dateien registriert ist. IDG 2. Foto öffnen Das betreffende Foto wird in einer Einzelansicht geöffnet. Mithilfe der Pfeiltasten scrollen Sie durch die Fotos – vor und zurück. Per Schieberegler vergrößern und verkleinern Sie die Ansicht. IDG 3. In den Bearbeitungsmodus wechseln Klicken Sie oben links auf die farbige Schaltfläche „Bearbeiten“, um in den Bearbeitungsmodus zu wechseln. Das Foto wird in einem neuen Fenster geöffnet und Sie sehen nun eine Leiste mit verschiedenen Werkzeugen. Das ganz rechts mit „AI“ gekennzeichnete Symbol gibt es nur auf Copilot+-PCs. IDG 4. AI-Funktion nutzen Sobald Sie die AI-Funktion erstmals mit einem Mausklick gestartet haben, sehen Sie einige Hinweise. Melden Sie sich über die Schaltfläche rechts unten mit Ihren Zugangsdaten bei Ihrem Microsoft-Konto an. IDG 5. Stil ändern Im rechten Seitenfenster finden Sie zahlreiche Gestaltungsoptionen Ihres Fotos. Sie können beispielsweise einen Stil wie „Wasserfarbe“ auswählen oder einen eigenen Stil beschreiben. Über den Schieberegler verändern Sie die Kreativität, das heißt den KI-Einfluss auf den Stil. IDG 6. Mehr Optionen Experimentieren Sie nach Belieben mit den verschiedenen Stilen und Ihrer Kreativität. Klicken Sie hierfür in das Feld „Alle umgestalten“, um sich zwei weitere Optionen anzeigen zu lassen. Wenn Sie „Nur Hintergrund“ oder „Nur Vordergrund“ auswählen, können Sie zum Beispiel das Hauptmotiv im Original belassen und lediglich die umgebenden Bereiche verändern. Sämtliche Änderungen lassen sich zurücknehmen und erneut anwenden. Gleichzeitig lässt sich das Foto in den Ursprungszustand zurücksetzen. Über die Schaltfläche „Speicheroption“ sichern Sie das fertige Foto im Original oder als Kopie. Sie landen anschließend wieder im Ansichtsfenster der Windows-Fotoanzeige. IDG 7. Störende Bereiche entfernen Die Windows-Fotoanzeige kann aber noch mehr – und das auf allen PCs und Notebooks mit Windows 11 24H2. Mithilfe von KI können Sie störende Bereiche in einem Bild entfernen und etwa durch den passenden Hintergrund ersetzen. Öffnen Sie ein Bild wie in Schritt 1 beschrieben im Ansichtsfenster. Im vorliegenden Beispiel hat die obere Klinge des Messers eine unschöne Lichtspiegelung, die entfernt werden soll. Wechseln Sie in den Bearbeitungsmodus und klicken Sie dort auf das Pinsel-Icon. Es öffnet sich ein neues Fenster. Auf der linken Seite finden Sie das Bild, auf der rechten Seite den Bereich „Generatives Löschen“. IDG Es stehen zwei Optionen zur Auswahl. Der standardmäßig aktivierte Schalter neben „Automatisch anwenden“ bewirkt, dass der mit dem Pinsel ausgewählte Bereich direkt gelöscht wird. Zudem lässt sich die Pinselgröße über den Schieberegler anpassen. Wenn Sie nun die Maus über einen beliebigen Teil des Bildes bewegen, verwandelt sich der Zeiger in einen rotierenden, schwarzweißen Kreis. Fahren Sie mit gedrückter linker Maustaste über den Bildbereich, den Sie entfernen wollen. Ihre Auswahl wird daraufhin schraffiert dargestellt. Sobald Sie die Maustaste wieder loslassen, startet der automatische Löschvorgang. Nach kurzer Zeit hat die KI-Funktion den festgelegten Bereich entfernt und ihn mit einem passenden Hintergrund aufgefüllt. Je nach Form und Farbe der gelöschten Objekte kann es sein, dass Sie den Vorgang wiederholen müssen. Speichern Sie das bearbeitete Foto. (PC-Welt) 

KI-Funktionen in der Windows-Fotoanzeige nutzen – so geht’s​ AVM

1. Fotoanzeige öffnen

Die Windows-Fotoanzeige lässt sich im Startmenü öffnen – entweder über das Suchfeld der Taskleiste oder mittels Doppelklick im Explorer auf eine unterstützte JPEG- oder PNG-Datei – sofern kein anderer Bildbetrachter installiert und auf die Dateien registriert ist.

IDG

2. Foto öffnen

Das betreffende Foto wird in einer Einzelansicht geöffnet. Mithilfe der Pfeiltasten scrollen Sie durch die Fotos – vor und zurück.

Per Schieberegler vergrößern und verkleinern Sie die Ansicht.

IDG

3. In den Bearbeitungsmodus wechseln

Klicken Sie oben links auf die farbige Schaltfläche „Bearbeiten“, um in den Bearbeitungsmodus zu wechseln. Das Foto wird in einem neuen Fenster geöffnet und Sie sehen nun eine Leiste mit verschiedenen Werkzeugen.

Das ganz rechts mit „AI“ gekennzeichnete Symbol gibt es nur auf Copilot+-PCs.

IDG

4. AI-Funktion nutzen

Sobald Sie die AI-Funktion erstmals mit einem Mausklick gestartet haben, sehen Sie einige Hinweise. Melden Sie sich über die Schaltfläche rechts unten mit Ihren Zugangsdaten bei Ihrem Microsoft-Konto an.

IDG

5. Stil ändern

Im rechten Seitenfenster finden Sie zahlreiche Gestaltungsoptionen Ihres Fotos. Sie können beispielsweise einen Stil wie „Wasserfarbe“ auswählen oder einen eigenen Stil beschreiben.

Über den Schieberegler verändern Sie die Kreativität, das heißt den KI-Einfluss auf den Stil.

IDG

6. Mehr Optionen

Experimentieren Sie nach Belieben mit den verschiedenen Stilen und Ihrer Kreativität. Klicken Sie hierfür in das Feld „Alle umgestalten“, um sich zwei weitere Optionen anzeigen zu lassen.

Wenn Sie „Nur Hintergrund“ oder „Nur Vordergrund“ auswählen, können Sie zum Beispiel das Hauptmotiv im Original belassen und lediglich die umgebenden Bereiche verändern.

Sämtliche Änderungen lassen sich zurücknehmen und erneut anwenden. Gleichzeitig lässt sich das Foto in den Ursprungszustand zurücksetzen.

Über die Schaltfläche „Speicheroption“ sichern Sie das fertige Foto im Original oder als Kopie. Sie landen anschließend wieder im Ansichtsfenster der Windows-Fotoanzeige.

IDG

7. Störende Bereiche entfernen

Die Windows-Fotoanzeige kann aber noch mehr – und das auf allen PCs und Notebooks mit Windows 11 24H2.

Mithilfe von KI können Sie störende Bereiche in einem Bild entfernen und etwa durch den passenden Hintergrund ersetzen. Öffnen Sie ein Bild wie in Schritt 1 beschrieben im Ansichtsfenster.

Im vorliegenden Beispiel hat die obere Klinge des Messers eine unschöne Lichtspiegelung, die entfernt werden soll. Wechseln Sie in den Bearbeitungsmodus und klicken Sie dort auf das Pinsel-Icon.

Es öffnet sich ein neues Fenster. Auf der linken Seite finden Sie das Bild, auf der rechten Seite den Bereich „Generatives Löschen“.

IDG

Es stehen zwei Optionen zur Auswahl. Der standardmäßig aktivierte Schalter neben „Automatisch anwenden“ bewirkt, dass der mit dem Pinsel ausgewählte Bereich direkt gelöscht wird.

Zudem lässt sich die Pinselgröße über den Schieberegler anpassen.

Wenn Sie nun die Maus über einen beliebigen Teil des Bildes bewegen, verwandelt sich der Zeiger in einen rotierenden, schwarzweißen Kreis. Fahren Sie mit gedrückter linker Maustaste über den Bildbereich, den Sie entfernen wollen.

Ihre Auswahl wird daraufhin schraffiert dargestellt. Sobald Sie die Maustaste wieder loslassen, startet der automatische Löschvorgang. Nach kurzer Zeit hat die KI-Funktion den festgelegten Bereich entfernt und ihn mit einem passenden Hintergrund aufgefüllt.

Je nach Form und Farbe der gelöschten Objekte kann es sein, dass Sie den Vorgang wiederholen müssen. Speichern Sie das bearbeitete Foto.

(PC-Welt)

KI-Funktionen in der Windows-Fotoanzeige nutzen – so geht’s​ Weiterlesen »

Gemini: Google-AI im Webbrowser nutzen​

Allgemein

JarTee / Shutterstock.com 1. Gemini per Adresszeile öffnen Google Gemini läuft auf Windows-PCs und -Notebooks im Webbrowser. Sie können Microsoft Edge, Google Chrome, Opera oder eine Chromium-Alternative wie beispielsweise Brave oder Vivaldi dazu verwenden. Mit Chrome ab der Version 131 ist der Einsatz von Gemini besonders einfach: Sie geben das Zeichen @ in die Adresszeile ein und wählen „Mit Gemini chatten“ aus. Mit anderen Browsern funktioniert das nicht. Hier geben Sie gemini.google.com in die Adresszeile ein. IDG 2. Eingaben senden Sie können nun direkt im Adressfeld des Google-Browsers eine beliebige Frage stellen oder einen konkreten Befehl formulieren. IDG 3. Beispiel-Frage Beispiel-Frage: Wann kam Windows auf den Markt? Drücken Sie die Eingabetaste, um die Frage abzusenden. IDG 4. Antworte in neuem Tab Die Antwort auf die Frage zeigt Gemini nur Sekunden später in einem neuen Browserfenster an. Der Text ist strukturiert und formatiert. Das macht ihn gut lesbar und schnell erfassbar. Gutes Extra: Mit einem Klick auf das Lautsprechersymbol können Sie sich den Text auch vorlesen lassen. Oder Sie blenden mit „Vorschläge anzeigen“ alternative Entwürfe ein. IDG 5. Bilder hochladen & Spracheingabe nutzen Ebenso einfach verwenden Sie Bilder oder Spracheingaben für die KI von Gemini. Die Icons, über die Sie die Funktionen aufrufen, sehen Sie unten rechts neben dem Eingabefeld, in das Sie weitere Fragen eintippen können. Laden Sie ein Bild hoch, schreiben Sie etwas wie: Was kannst Du zu dem Bild sagen? und drücken Sie die Eingabetaste. Gemini analysiert das Bild und liefert Ihnen eine sehr zutreffende Beschreibung. Sogar Gegenstände wie in unserem Beispielbild etwa das Auto werden korrekt identifiziert. IDG (PC-Welt) 

Gemini: Google-AI im Webbrowser nutzen​ JarTee / Shutterstock.com

1. Gemini per Adresszeile öffnen

Google Gemini läuft auf Windows-PCs und -Notebooks im Webbrowser. Sie können Microsoft Edge, Google Chrome, Opera oder eine Chromium-Alternative wie beispielsweise Brave oder Vivaldi dazu verwenden.

Mit Chrome ab der Version 131 ist der Einsatz von Gemini besonders einfach: Sie geben das Zeichen @ in die Adresszeile ein und wählen „Mit Gemini chatten“ aus.

Mit anderen Browsern funktioniert das nicht. Hier geben Sie gemini.google.com in die Adresszeile ein.

IDG

2. Eingaben senden

Sie können nun direkt im Adressfeld des Google-Browsers eine beliebige Frage stellen oder einen konkreten Befehl formulieren.

IDG

3. Beispiel-Frage

Beispiel-Frage: Wann kam Windows auf den Markt? Drücken Sie die Eingabetaste, um die Frage abzusenden.

IDG

4. Antworte in neuem Tab

Die Antwort auf die Frage zeigt Gemini nur Sekunden später in einem neuen Browserfenster an. Der Text ist strukturiert und formatiert.

Das macht ihn gut lesbar und schnell erfassbar.

Gutes Extra: Mit einem Klick auf das Lautsprechersymbol können Sie sich den Text auch vorlesen lassen. Oder Sie blenden mit „Vorschläge anzeigen“ alternative Entwürfe ein.

IDG

5. Bilder hochladen & Spracheingabe nutzen

Ebenso einfach verwenden Sie Bilder oder Spracheingaben für die KI von Gemini. Die Icons, über die Sie die Funktionen aufrufen, sehen Sie unten rechts neben dem Eingabefeld, in das Sie weitere Fragen eintippen können.

Laden Sie ein Bild hoch, schreiben Sie etwas wie: Was kannst Du zu dem Bild sagen? und drücken Sie die Eingabetaste. Gemini analysiert das Bild und liefert Ihnen eine sehr zutreffende Beschreibung.

Sogar Gegenstände wie in unserem Beispielbild etwa das Auto werden korrekt identifiziert.

IDG

(PC-Welt)

Gemini: Google-AI im Webbrowser nutzen​ Weiterlesen »

Rhetoriktipps für Frauen: Seid selbstbewusst und formuliert klar!​

Allgemein

Monika S. leitet ein spannendes Projekt bei einem großen deutschen Konzern. Ihr Chef fragt sie, ob sie es bei einer internationalen Veranstaltung in den USA vorstellen will. Eine tolle Chance, die eigene Leistung einmal ins rechte Licht zu rücken. Monika S. zögert jedoch. Sie ist hin- und hergerissen, denn sie hat zwei kleine Kinder und will sich erst vergewissern, ob sie ihre Abwesenheit für knapp eine Woche organisieren kann. Als sie ihrem Chef ein paar Tage später dann ein Ja kommuniziert, erfährt sie, dass ein Kollege schon zugesagt hat und an ihrer Stelle das Projekt vorstellen wird – ein Kollege, der gar nicht an dem Projekt mitgearbeitet und kaum Ahnung davon hat. Monika S. ist zutiefst enttäuscht und fragt sich, was da schief gelaufen ist.Wer zögert, vergibt im Job möglicherweise wertvolle Chancen. Wenn es darauf ankommt, heißt es: Richtig reagieren. Life Coach Bettina Schultheiß erklärt, worauf man achten sollte. Foto: studiostoks – shutterstock.com“Situationen wie diese erlebe ich immer wieder”, sagt Bettina Schultheiß, die als Coach Frauen in puncto Karriere und Lebensplanung berät. Nicht nur fühlen sich Frauen häufig mehr verantwortlich für das Wohl ihrer Familie als Männer, auch die Art der Kommunikation spielt eine Rolle, denn: “Männer kommunizieren anders.” Aus Männersicht hat Monika S. folgende Signale gesendet: Durch ihr Zögern hat sie ihr Revier nicht rechtzeitig markiert, wurde von ihrem Chef als unsichere Kandidatin für den Job wahrgenommen und hat sich dadurch die Butter vom Brot nehmen lassen. Der männliche Kollege hat diese Lücke erkannt und ist sofort hineingegrätscht.Um Kommunikation in ihrer ganzen Bandbreite zu verstehen und für sich zu nutzen, bietet Schultheiß jetzt Rhetorikkurse nur für Frauen an. Ihr geht es darum zu vermitteln, dass wir nicht nur über die Sprache kommunizieren, sondern auch nonverbale und paraverbale Signale senden. Die nonverbale Komponente macht dabei sogar mehr als 50 Prozent der gesendeten Nachricht aus und ist oft relevanter als die rein verbale. Die Beraterin nennt ein Beispiel: Sagen wir “Ja, ich mache das gern”, ziehen dazu aber eine unsichere, also nicht-kongruente Miene, dann ist dem Gegenüber klar, dass das ein reines Lippenbekenntnis ist.Die nonverbalen Signale wie Mimik, Gestik, Körperhaltung oder Augenkontakt und die paraverbalen wie Tonfall, Satzmelodie, Lautstärke oder Redepausen sind alle Komponenten, die zur direkten Kommunikation dazugehören. Darüber sollten wir uns gerade im Job viel klarer werden. “Beobachten Sie Ihre Kollegen und Ihren Chef bezüglich dieser Signale genau”, rät Schultheiß. Denn darüber können wir Menschen besser einschätzen und einen Hinweis erhalten, wie sie ticken. Ist mein Chef ein Machtmensch? Oder setzt er auf ein partnerschaftliches Arbeitsklima? Wie trifft er Entscheidungen? “Wenn ich das weiß, kann ich meine Nachricht und wie ich sie vermittle entsprechend anpassen und so meine Interessen besser durchsetzen”, erklärt die Coachin.Können wir die Botschaft einmal nicht selbst entschlüsseln, hilft Nachfragen. Das sei immer gut, meint Schultheiß. “Wie haben Sie das gemeint?” wäre eine Variante. Oder man könne direkten Bezug nehmen auf einen Teil der Aussage: “Habe ich Sie richtig verstanden, dass …”. Das Gegenüber muss sich dann genauer erklären und es bleibt weniger Raum für Spekulation.Was also kann Monika S. künftig besser machen? Frauen könnten sich durchaus in der Verantwortung gegenüber ihrer Familie fühlen und das zeichne sie auch aus, so die Expertin. “Nur sollten sie sich bewusst darüber sein, dass zögerliches Verhalten und verbales Ausweichen nicht förderlich ist.” Monika S. sollte beim nächsten Mal lieber sagen: “Ich habe großes Interesse daran, das Projekt vorzustellen. Ich muss das aber noch mit anderen Terminen koordinieren. Ich komme morgen/übermorgen noch einmal auf Sie zu.” Falls es dann doch nicht klappt, kann sie immer noch absagen, hat aber den Pflock schon einmal eingeschlagen.Bettina Schultheiß Bettina Schultheiß, Life Coach Foto: Bettina SchultheißDie studierte Pädagogin war viele Jahre im Schuldienst und in der Erwachsenenbildung tätig, bevor sie sich nach zahlreichen Fortbildungen im Bereich Führung, Beratung, Kommunikation, Rhetorik, Teammanagement und Neurolinguistik zum psychologischen Berater und Coach weiterentwickelte. Schultheiß bietet mit Life Coaching eine lösungsorientierte Prozessbegleitung in all jenen Phasen, die Frauen als belastend empfinden – sowohl im privaten, als auch im beruflichen Umfeld. www.coachamsee.de Wie soll ich es sagen? “Ich könnte mir eventuell vorstellen …” Foto: Riccardo Piccinini – shutterstock.com” … nächste Woche vielleicht auf eine Dienstreise zu gehen. Das müsste theoretisch möglich sein, ich würde es eigentlich gerne machen, müsste es aber vorher noch abklären.” Vermeiden Sie die geballte Verwendung von Konjunktiven und Relativierungen. Formulieren Sie klar: “Ich möchte gerne auf Dienstreise gehen.”“Ich wollte nur mal kurz anfragen, ob Sie am Montag einen Termin für mich frei hätten.” Foto: Africa Studio – shutterstock.comVermeiden Sie Füllwörter, sie signalisieren Unsicherheit und relativieren Ihre Botschaft. Stattdessen formulieren Sie höflich, aber selbstbewusst: “Ich möchte Sie gerne sprechen. Wann haben Sie Zeit?”“Es tut mit leid, ich kann da leider nicht kommen, weil ich noch so viel Arbeit auf dem Tisch habe und ich auch in dem Projekt XYZ extra Aufgaben bekommen habe.” Foto: Elnur – shutterstock.comFrauen neigen zu Erklärungen und Rechtfertigungen, besser ist: Kurz und knapp zu formulieren. Falls Ihnen ein einziges “Nein” zu hart erscheint, können Sie die Absage in einem konstruktiven Vorschlag enden lassen: “An diesem Termin habe ich keine Zeit. Aber ich kann Ihnen Termin ABC anbieten.” 

Rhetoriktipps für Frauen: Seid selbstbewusst und formuliert klar!​ Monika S. leitet ein spannendes Projekt bei einem großen deutschen Konzern. Ihr Chef fragt sie, ob sie es bei einer internationalen Veranstaltung in den USA vorstellen will. Eine tolle Chance, die eigene Leistung einmal ins rechte Licht zu rücken. Monika S. zögert jedoch. Sie ist hin- und hergerissen, denn sie hat zwei kleine Kinder und will sich erst vergewissern, ob sie ihre Abwesenheit für knapp eine Woche organisieren kann. Als sie ihrem Chef ein paar Tage später dann ein Ja kommuniziert, erfährt sie, dass ein Kollege schon zugesagt hat und an ihrer Stelle das Projekt vorstellen wird – ein Kollege, der gar nicht an dem Projekt mitgearbeitet und kaum Ahnung davon hat. Monika S. ist zutiefst enttäuscht und fragt sich, was da schief gelaufen ist.Wer zögert, vergibt im Job möglicherweise wertvolle Chancen. Wenn es darauf ankommt, heißt es: Richtig reagieren. Life Coach Bettina Schultheiß erklärt, worauf man achten sollte.
Foto: studiostoks – shutterstock.com“Situationen wie diese erlebe ich immer wieder”, sagt Bettina Schultheiß, die als Coach Frauen in puncto Karriere und Lebensplanung berät. Nicht nur fühlen sich Frauen häufig mehr verantwortlich für das Wohl ihrer Familie als Männer, auch die Art der Kommunikation spielt eine Rolle, denn: “Männer kommunizieren anders.” Aus Männersicht hat Monika S. folgende Signale gesendet: Durch ihr Zögern hat sie ihr Revier nicht rechtzeitig markiert, wurde von ihrem Chef als unsichere Kandidatin für den Job wahrgenommen und hat sich dadurch die Butter vom Brot nehmen lassen. Der männliche Kollege hat diese Lücke erkannt und ist sofort hineingegrätscht.Um Kommunikation in ihrer ganzen Bandbreite zu verstehen und für sich zu nutzen, bietet Schultheiß jetzt Rhetorikkurse nur für Frauen an. Ihr geht es darum zu vermitteln, dass wir nicht nur über die Sprache kommunizieren, sondern auch nonverbale und paraverbale Signale senden. Die nonverbale Komponente macht dabei sogar mehr als 50 Prozent der gesendeten Nachricht aus und ist oft relevanter als die rein verbale. Die Beraterin nennt ein Beispiel: Sagen wir “Ja, ich mache das gern”, ziehen dazu aber eine unsichere, also nicht-kongruente Miene, dann ist dem Gegenüber klar, dass das ein reines Lippenbekenntnis ist.Die nonverbalen Signale wie Mimik, Gestik, Körperhaltung oder Augenkontakt und die paraverbalen wie Tonfall, Satzmelodie, Lautstärke oder Redepausen sind alle Komponenten, die zur direkten Kommunikation dazugehören. Darüber sollten wir uns gerade im Job viel klarer werden. “Beobachten Sie Ihre Kollegen und Ihren Chef bezüglich dieser Signale genau”, rät Schultheiß. Denn darüber können wir Menschen besser einschätzen und einen Hinweis erhalten, wie sie ticken. Ist mein Chef ein Machtmensch? Oder setzt er auf ein partnerschaftliches Arbeitsklima? Wie trifft er Entscheidungen? “Wenn ich das weiß, kann ich meine Nachricht und wie ich sie vermittle entsprechend anpassen und so meine Interessen besser durchsetzen”, erklärt die Coachin.Können wir die Botschaft einmal nicht selbst entschlüsseln, hilft Nachfragen. Das sei immer gut, meint Schultheiß. “Wie haben Sie das gemeint?” wäre eine Variante. Oder man könne direkten Bezug nehmen auf einen Teil der Aussage: “Habe ich Sie richtig verstanden, dass …”. Das Gegenüber muss sich dann genauer erklären und es bleibt weniger Raum für Spekulation.Was also kann Monika S. künftig besser machen? Frauen könnten sich durchaus in der Verantwortung gegenüber ihrer Familie fühlen und das zeichne sie auch aus, so die Expertin. “Nur sollten sie sich bewusst darüber sein, dass zögerliches Verhalten und verbales Ausweichen nicht förderlich ist.” Monika S. sollte beim nächsten Mal lieber sagen: “Ich habe großes Interesse daran, das Projekt vorzustellen. Ich muss das aber noch mit anderen Terminen koordinieren. Ich komme morgen/übermorgen noch einmal auf Sie zu.” Falls es dann doch nicht klappt, kann sie immer noch absagen, hat aber den Pflock schon einmal eingeschlagen.Bettina Schultheiß Bettina Schultheiß, Life Coach
Foto: Bettina SchultheißDie studierte Pädagogin war viele Jahre im Schuldienst und in der Erwachsenenbildung tätig, bevor sie sich nach zahlreichen Fortbildungen im Bereich Führung, Beratung, Kommunikation, Rhetorik, Teammanagement und Neurolinguistik zum psychologischen Berater und Coach weiterentwickelte. Schultheiß bietet mit Life Coaching eine lösungsorientierte Prozessbegleitung in all jenen Phasen, die Frauen als belastend empfinden – sowohl im privaten, als auch im beruflichen Umfeld. www.coachamsee.de Wie soll ich es sagen? “Ich könnte mir eventuell vorstellen …”
Foto: Riccardo Piccinini – shutterstock.com” … nächste Woche vielleicht auf eine Dienstreise zu gehen. Das müsste theoretisch möglich sein, ich würde es eigentlich gerne machen, müsste es aber vorher noch abklären.” Vermeiden Sie die geballte Verwendung von Konjunktiven und Relativierungen. Formulieren Sie klar: “Ich möchte gerne auf Dienstreise gehen.”“Ich wollte nur mal kurz anfragen, ob Sie am Montag einen Termin für mich frei hätten.”
Foto: Africa Studio – shutterstock.comVermeiden Sie Füllwörter, sie signalisieren Unsicherheit und relativieren Ihre Botschaft. Stattdessen formulieren Sie höflich, aber selbstbewusst: “Ich möchte Sie gerne sprechen. Wann haben Sie Zeit?”“Es tut mit leid, ich kann da leider nicht kommen, weil ich noch so viel Arbeit auf dem Tisch habe und ich auch in dem Projekt XYZ extra Aufgaben bekommen habe.”
Foto: Elnur – shutterstock.comFrauen neigen zu Erklärungen und Rechtfertigungen, besser ist: Kurz und knapp zu formulieren. Falls Ihnen ein einziges “Nein” zu hart erscheint, können Sie die Absage in einem konstruktiven Vorschlag enden lassen: “An diesem Termin habe ich keine Zeit. Aber ich kann Ihnen Termin ABC anbieten.”

Rhetoriktipps für Frauen: Seid selbstbewusst und formuliert klar!​ Weiterlesen »

Knowledge Base im IT Support: Wie Sie eine Wissensdatenbank aufbauen​

Allgemein

Sowohl in der analogen als auch in der digitalen Welt ist es wichtig, eine Knowledge Base zu strukturieren. Nur wenn die Antworten passend einem Problem zugeordnet sind, unterstützt eine Wissensdatenbank bei der täglichen Arbeit. Foto: Andrey_Kuzmin – shutterstock.comWissen ist die Basis für jede Art von IT-Support – besonders wenn es sich um individuelle Geschäftsanwendungen handelt. Zunächst ist es sehr aufwändig, dieses spezifische Wissen aufzubauen und im Team weiterzugeben. Dazu soll dieses wertvolle Wissen kontinuierlich angewandt und gepflegt werden. Der zentrale Wissensspeicher wird dabei als Knowledge Base oder Wissensdatenbank bezeichnet.Knowledge Base – Aufbau Leider ist diese Wissensdatenbank in der Praxis oftmals nicht zentral angelegt, sondern über mehrere Dokumentationssystem hinweg verstreut. Inhalte liegen in unterschiedlichen Formaten und Strukturen vor, zum Beispiel als einzelne Notizen in Dateien oder in E-Mails und Wikis. Weit verbreitete Tools, die das Teilen dieser Inhalte in Support Teams ermöglichen, sind Microsoft OneNote und SharePoint, sowie Atlassian Confluence oder andere web-basierte Wiki-Systeme.Derartiges dezentrales und unstrukturiertes Wissen hindert den Aufbau und die Pflege der Knowledge Base. Dadurch unterliegen viele Application Support Teams mehreren Beschränkungen:Skalierung: die Skalierung des Support Teams ist träge, da Wissen langwierig von einzelnen Know-how-Trägern zu Anderen im Team weitergegeben werden muss.Qualität: die Qualität der Ticketbearbeitung schwankt mit der Anwesenheit/Verfügbarkeit von einzelnen erfahrenen Knowhow-Trägern.Effizienz: die Effizienz der Supportleistungen ist nicht optimal, da der Kommunikationsaufwand zur Lösungsfindung höher ist.Um diese Beschränkungen aufzuheben, ist es wichtig, die Knowledge Base zentral anzulegen und klar zu strukturieren. Die Wissensdatenbank sollte in einem einzigen Dokumentationssystem, das online für das gesamte Team verfügbar ist, angelegt werden. Dabei kann auf die individuellen Anforderungen und Vorlieben des jeweiligen Teams eingegangen werden. Es müssen also nicht unbedingt alle Support Teams dieselbe Knowledge Base verwenden. Wichtig ist nur, dass ein Team an genau einer Stelle sein Wissen speichert und sucht.Wissensdatenbank – StrukturierungAls nächstes ist es erforderlich, eine klare Struktur für die Inhalte zu erstellen. Diese sollte allen im Team bekannt sein, um als Navigationshilfe dienen zu können. Das Ziel ist es, jedem Teammitglied klarzumachen, wo nach welcher Art von Inhalten zu suchen ist – und entsprechend dieser Struktur auch neue Inhalte zu erstellen. Diese Navigationshilfe senkt die Hemmschwelle, die eigenen, vertrauten Denkweisen zu verlassen. So kann die Knowledge Base ein großer Mehrwert für das Support Team werden. Zu strukturieren sind dabei:die Container / Behälter, die nur zur Navigation dienen;die Dokumente / Inhalte mit anwendbarem Wissen;Die Behälter dienen der ersten Vorauswahl und Filterung nach Inhaltstypen – zum Beispiel:Systemhandbuch;bekannte Fehler;SOP (Standard Operating Procedure);Supportprozesse;Geschäftsprozesse;Das Wissen in den Behältern ist dann je nach Typ in Kapiteln strukturiert, hier am Beispiel eines Systemhandbuchs:Architekturübersicht;Serverliste;Schnittstellen;Administration;Monitoring;Folgende Grafik zeigt diese Struktur beispielhaft für einen produktiven IT Service: Foto: RYOSHI GmbHDiese Struktur ist als Baseline zu verstehen, die erweitert werden darf. Zu vermeiden sind dabei lose Ansammlungen von Wissen. Und hier kommt die Moderation der Wissensdatenbank ins Spiel.Knowledge Base – ModerationIm Eifer des Gefechts ist es manchmal nötig, schnell und einfach Inhalte zu speichern. Diese werden oft an eher beliebigen Stellen der Struktur erstellt. Die Aufgabe der Moderation ist es, diese später gemeinsam mit dem Autor sinnvoll in die Struktur einzufügen. Nur so können die Inhalte vom ganzen Team auch gefunden und genutzt werden. Abschließend ist es auch beim Wissen in der Knowledge Base – wie in jeder anderen Datenhaltung auch – wichtig, Redundanzen zu vermeiden. Wenn Informationen also bereits vorhanden sind, sollte darauf referenziert werden. (bw) 

Knowledge Base im IT Support: Wie Sie eine Wissensdatenbank aufbauen​ Sowohl in der analogen als auch in der digitalen Welt ist es wichtig, eine Knowledge Base zu strukturieren. Nur wenn die Antworten passend einem Problem zugeordnet sind, unterstützt eine Wissensdatenbank bei der täglichen Arbeit.
Foto: Andrey_Kuzmin – shutterstock.comWissen ist die Basis für jede Art von IT-Support – besonders wenn es sich um individuelle Geschäftsanwendungen handelt. Zunächst ist es sehr aufwändig, dieses spezifische Wissen aufzubauen und im Team weiterzugeben. Dazu soll dieses wertvolle Wissen kontinuierlich angewandt und gepflegt werden. Der zentrale Wissensspeicher wird dabei als Knowledge Base oder Wissensdatenbank bezeichnet.Knowledge Base – Aufbau Leider ist diese Wissensdatenbank in der Praxis oftmals nicht zentral angelegt, sondern über mehrere Dokumentationssystem hinweg verstreut. Inhalte liegen in unterschiedlichen Formaten und Strukturen vor, zum Beispiel als einzelne Notizen in Dateien oder in E-Mails und Wikis. Weit verbreitete Tools, die das Teilen dieser Inhalte in Support Teams ermöglichen, sind Microsoft OneNote und SharePoint, sowie Atlassian Confluence oder andere web-basierte Wiki-Systeme.Derartiges dezentrales und unstrukturiertes Wissen hindert den Aufbau und die Pflege der Knowledge Base. Dadurch unterliegen viele Application Support Teams mehreren Beschränkungen:Skalierung: die Skalierung des Support Teams ist träge, da Wissen langwierig von einzelnen Know-how-Trägern zu Anderen im Team weitergegeben werden muss.Qualität: die Qualität der Ticketbearbeitung schwankt mit der Anwesenheit/Verfügbarkeit von einzelnen erfahrenen Knowhow-Trägern.Effizienz: die Effizienz der Supportleistungen ist nicht optimal, da der Kommunikationsaufwand zur Lösungsfindung höher ist.Um diese Beschränkungen aufzuheben, ist es wichtig, die Knowledge Base zentral anzulegen und klar zu strukturieren. Die Wissensdatenbank sollte in einem einzigen Dokumentationssystem, das online für das gesamte Team verfügbar ist, angelegt werden. Dabei kann auf die individuellen Anforderungen und Vorlieben des jeweiligen Teams eingegangen werden. Es müssen also nicht unbedingt alle Support Teams dieselbe Knowledge Base verwenden. Wichtig ist nur, dass ein Team an genau einer Stelle sein Wissen speichert und sucht.Wissensdatenbank – StrukturierungAls nächstes ist es erforderlich, eine klare Struktur für die Inhalte zu erstellen. Diese sollte allen im Team bekannt sein, um als Navigationshilfe dienen zu können. Das Ziel ist es, jedem Teammitglied klarzumachen, wo nach welcher Art von Inhalten zu suchen ist – und entsprechend dieser Struktur auch neue Inhalte zu erstellen. Diese Navigationshilfe senkt die Hemmschwelle, die eigenen, vertrauten Denkweisen zu verlassen. So kann die Knowledge Base ein großer Mehrwert für das Support Team werden. Zu strukturieren sind dabei:die Container / Behälter, die nur zur Navigation dienen;die Dokumente / Inhalte mit anwendbarem Wissen;Die Behälter dienen der ersten Vorauswahl und Filterung nach Inhaltstypen – zum Beispiel:Systemhandbuch;bekannte Fehler;SOP (Standard Operating Procedure);Supportprozesse;Geschäftsprozesse;Das Wissen in den Behältern ist dann je nach Typ in Kapiteln strukturiert, hier am Beispiel eines Systemhandbuchs:Architekturübersicht;Serverliste;Schnittstellen;Administration;Monitoring;Folgende Grafik zeigt diese Struktur beispielhaft für einen produktiven IT Service:
Foto: RYOSHI GmbHDiese Struktur ist als Baseline zu verstehen, die erweitert werden darf. Zu vermeiden sind dabei lose Ansammlungen von Wissen. Und hier kommt die Moderation der Wissensdatenbank ins Spiel.Knowledge Base – ModerationIm Eifer des Gefechts ist es manchmal nötig, schnell und einfach Inhalte zu speichern. Diese werden oft an eher beliebigen Stellen der Struktur erstellt. Die Aufgabe der Moderation ist es, diese später gemeinsam mit dem Autor sinnvoll in die Struktur einzufügen. Nur so können die Inhalte vom ganzen Team auch gefunden und genutzt werden. Abschließend ist es auch beim Wissen in der Knowledge Base – wie in jeder anderen Datenhaltung auch – wichtig, Redundanzen zu vermeiden. Wenn Informationen also bereits vorhanden sind, sollte darauf referenziert werden. (bw)

Knowledge Base im IT Support: Wie Sie eine Wissensdatenbank aufbauen​ Weiterlesen »

Galaxy A36 vs. Galaxy A35: Welches ist der bessere Kauf?​

Allgemein

Foundry Samsung hat seine Mittelklasse-Reihe Galaxy A in diesem Jahr um das Galaxy A36 erweitert. Das Smartphone ist der Nachfolger des Galaxy A35 aus dem Jahr 2024. Auch wenn sie sich auf den ersten Blick ähneln, gibt es doch einige wichtige Unterschiede zwischen den beiden Smartphones. Im Folgenden werfen wir einen Blick auf Gemeinsamkeiten und Unterschiede und finden heraus, welches Gerät das bessere Preis-Leistungs-Verhältnis bietet. Akku & Aufladen Eines der wichtigsten Upgrades des Galaxy A36 ist seine verbesserte Ladegeschwindigkeit. Während beide Smartphones mit einem 5.000-Milliamperestunden-Akku ausgestattet sind, lädt das A36 mit maximal 45 Watt, das A35 jedoch nur mit 25 Watt. Foundry Das bedeutet, dass das A35 etwa 90 Minuten benötigt, um eine volle Ladung zu erreichen, während das A36 zwei Drittel seines Akkus in nur 30 Minuten aufladen kann. Luke Baker Wenn schnelles Aufladen für Sie ein wichtiger Faktor ist, ist das A36 hier der klare Sieger. Software Samsung setzt im Jahr 2025 auf KI-Funktionen, und das A36 verfügt über mehr KI-Features als das A35. Foundry | Alex Walker-Todd Das A36 unterstützt Samsungs neue “Awesome Intelligence”-Funktionen, darunter AI Select, Object Eraser (automatischer Vorschlag), Filters (Filmstile anpassen) und Read Aloud, während das A35 nur Object Eraser, Smart Select und einfache Bearbeitungsvorschläge bietet. Die zusätzlichen KI-Tools des A36, wie AI Select und Read Aloud, verbessern die Benutzererfahrung, indem sie die Erstellung von Inhalten und die Zugänglichkeit intuitiver gestalten. Luke Baker Wenn Sie Wert auf KI-gestützte Tools auf Ihrem Smartphone legen, ist das A36 die bessere Wahl. Display Samsung hat das Display des A36 deutlich verbessert. Foundry | Alex Walker-Todd Der 6,7-Zoll-AMOLED-Bildschirm mit einer Helligkeit von 1.200 Candela pro Quadratmeter ist heller und etwas größer als das 6,6-Zoll-Display des A35 mit 1.000 Candela pro Quadratmeter. Das bedeutet eine bessere Lesbarkeit im Freien und eine bessere Darstellung von HDR-Inhalten. Luke Baker Obwohl beide Displays eine Bildwiederholfrequenz von 120 Hertz unterstützen, ist das A36 aufgrund seiner höheren Helligkeit die bessere Wahl für alle, die ihr Smartphone häufig im Freien verwenden oder viele Medien konsumieren. Weitere Unterschiede Abgesehen von diesen großen Unterschieden gibt es noch ein paar kleinere Verbesserungen. Das A36 ist mit 7,4 Millimetern dünner als das A35 (8,2 Millimeter) und mit 195 Gramm leichter als das A35 (209 Gramm), wodurch es besser in der Hand liegt. Außerdem verwendet es den Snapdragon 6 Gen 3 Chip, während das A35 mit dem älteren Exynos 1380 läuft. Die Verbesserung ist mit etwa sechs Prozent zwar gering, aber die Chipsätze von Qualcomm sind tendenziell energieeffizienter. Luke Baker Das A35 hat eine 13-Megapixel-Frontkamera, während das A36 einen 12-Megapixel-Sensor mit Super HDR bietet. Während die Selfie-Kamera des A35 technisch gesehen mehr Megapixel hat, könnten die KI-Verbesserungen des A36 für bessere Aufnahmen bei unterschiedlichen Lichtverhältnissen sorgen. Und schließlich behält das Galaxy A36 zwar die Button-Insel auf dem Rahmen bei, ändert aber das Design der rückwärtigen Kameras und umgibt die drei vorstehenden Linsen mit einem Aluminiumrahmen. Ansonsten sind fast alle anderen Merkmale der beiden Smartphones nahezu identisch. Preis & Verfügbarkeit Bei Samsung selbst ist das Galaxy A35 nicht mehr erhältlich. Online-Händler Amazon bietet die 128-Gigabyte-Version mit 6 Gigabyte RAM jedoch für 258 Euro an. Die Ausführung mit 256 Gigabyte Speicher und 8 Gigabyte RAM kostet 326 Euro. Aktuell bester Preis: Samsung Galaxy A35 5G Das Galaxy A36 ist im Online-Shop von Samsung mit 6 Gigabyte RAM und 128 Gigabyte Speicher für 379 Euro erhältlich. Die Ausführung mit 8 Gigabyte RAM und 256 Gigabyte Speicher ist aktuell bereits für 414 Euro zu haben. Bei Online-Händler Amazon ist der Preis für die kleinere Version identisch, das Modell mit 256 Gigabyte Speicher kostet hier jedoch nur 379 Euro. Aktuell bester Preis: Samsung Galaxy A36 Fazit Wenn Sie auf der Suche nach dem besten Preis-Leistungs-Verhältnis in der Mittelklasse sind und Ihnen eine etwas langsamere Ladezeit nichts ausmacht, dann ist das Galaxy A35 nach wie vor eine gute Budget-Option. Wenn Sie jedoch die neuesten KI-Funktionen, schnelleres Aufladen und ein deutlich helleres Display wollen, dann ist das Galaxy A36 den Aufpreis wert. Das A36 fühlt sich dank des Qualcomm-Chips, der KI-Tools und der besseren langfristigen Nutzbarkeit zukunftssicherer an und ist damit insgesamt eine bessere Investition. (PC-Welt) 

Galaxy A36 vs. Galaxy A35: Welches ist der bessere Kauf?​ Foundry

Samsung hat seine Mittelklasse-Reihe Galaxy A in diesem Jahr um das Galaxy A36 erweitert. Das Smartphone ist der Nachfolger des Galaxy A35 aus dem Jahr 2024.

Auch wenn sie sich auf den ersten Blick ähneln, gibt es doch einige wichtige Unterschiede zwischen den beiden Smartphones. Im Folgenden werfen wir einen Blick auf Gemeinsamkeiten und Unterschiede und finden heraus, welches Gerät das bessere Preis-Leistungs-Verhältnis bietet.

Akku & Aufladen

Eines der wichtigsten Upgrades des Galaxy A36 ist seine verbesserte Ladegeschwindigkeit. Während beide Smartphones mit einem 5.000-Milliamperestunden-Akku ausgestattet sind, lädt das A36 mit maximal 45 Watt, das A35 jedoch nur mit 25 Watt.

Foundry

Das bedeutet, dass das A35 etwa 90 Minuten benötigt, um eine volle Ladung zu erreichen, während das A36 zwei Drittel seines Akkus in nur 30 Minuten aufladen kann.

Luke Baker

Wenn schnelles Aufladen für Sie ein wichtiger Faktor ist, ist das A36 hier der klare Sieger.

Software

Samsung setzt im Jahr 2025 auf KI-Funktionen, und das A36 verfügt über mehr KI-Features als das A35.

Foundry | Alex Walker-Todd

Das A36 unterstützt Samsungs neue “Awesome Intelligence”-Funktionen, darunter AI Select, Object Eraser (automatischer Vorschlag), Filters (Filmstile anpassen) und Read Aloud, während das A35 nur Object Eraser, Smart Select und einfache Bearbeitungsvorschläge bietet.

Die zusätzlichen KI-Tools des A36, wie AI Select und Read Aloud, verbessern die Benutzererfahrung, indem sie die Erstellung von Inhalten und die Zugänglichkeit intuitiver gestalten.

Luke Baker

Wenn Sie Wert auf KI-gestützte Tools auf Ihrem Smartphone legen, ist das A36 die bessere Wahl.

Display

Samsung hat das Display des A36 deutlich verbessert.

Foundry | Alex Walker-Todd

Der 6,7-Zoll-AMOLED-Bildschirm mit einer Helligkeit von 1.200 Candela pro Quadratmeter ist heller und etwas größer als das 6,6-Zoll-Display des A35 mit 1.000 Candela pro Quadratmeter. Das bedeutet eine bessere Lesbarkeit im Freien und eine bessere Darstellung von HDR-Inhalten.

Luke Baker

Obwohl beide Displays eine Bildwiederholfrequenz von 120 Hertz unterstützen, ist das A36 aufgrund seiner höheren Helligkeit die bessere Wahl für alle, die ihr Smartphone häufig im Freien verwenden oder viele Medien konsumieren.

Weitere Unterschiede

Abgesehen von diesen großen Unterschieden gibt es noch ein paar kleinere Verbesserungen. Das A36 ist mit 7,4 Millimetern dünner als das A35 (8,2 Millimeter) und mit 195 Gramm leichter als das A35 (209 Gramm), wodurch es besser in der Hand liegt.

Außerdem verwendet es den Snapdragon 6 Gen 3 Chip, während das A35 mit dem älteren Exynos 1380 läuft. Die Verbesserung ist mit etwa sechs Prozent zwar gering, aber die Chipsätze von Qualcomm sind tendenziell energieeffizienter.

Luke Baker

Das A35 hat eine 13-Megapixel-Frontkamera, während das A36 einen 12-Megapixel-Sensor mit Super HDR bietet. Während die Selfie-Kamera des A35 technisch gesehen mehr Megapixel hat, könnten die KI-Verbesserungen des A36 für bessere Aufnahmen bei unterschiedlichen Lichtverhältnissen sorgen.

Und schließlich behält das Galaxy A36 zwar die Button-Insel auf dem Rahmen bei, ändert aber das Design der rückwärtigen Kameras und umgibt die drei vorstehenden Linsen mit einem Aluminiumrahmen. Ansonsten sind fast alle anderen Merkmale der beiden Smartphones nahezu identisch.

Preis & Verfügbarkeit

Bei Samsung selbst ist das Galaxy A35 nicht mehr erhältlich. Online-Händler Amazon bietet die 128-Gigabyte-Version mit 6 Gigabyte RAM jedoch für 258 Euro an. Die Ausführung mit 256 Gigabyte Speicher und 8 Gigabyte RAM kostet 326 Euro.

Aktuell bester Preis: Samsung Galaxy A35 5G

Das Galaxy A36 ist im Online-Shop von Samsung mit 6 Gigabyte RAM und 128 Gigabyte Speicher für 379 Euro erhältlich. Die Ausführung mit 8 Gigabyte RAM und 256 Gigabyte Speicher ist aktuell bereits für 414 Euro zu haben. Bei Online-Händler Amazon ist der Preis für die kleinere Version identisch, das Modell mit 256 Gigabyte Speicher kostet hier jedoch nur 379 Euro.

Aktuell bester Preis: Samsung Galaxy A36

Fazit

Wenn Sie auf der Suche nach dem besten Preis-Leistungs-Verhältnis in der Mittelklasse sind und Ihnen eine etwas langsamere Ladezeit nichts ausmacht, dann ist das Galaxy A35 nach wie vor eine gute Budget-Option.

Wenn Sie jedoch die neuesten KI-Funktionen, schnelleres Aufladen und ein deutlich helleres Display wollen, dann ist das Galaxy A36 den Aufpreis wert. Das A36 fühlt sich dank des Qualcomm-Chips, der KI-Tools und der besseren langfristigen Nutzbarkeit zukunftssicherer an und ist damit insgesamt eine bessere Investition.

(PC-Welt)

Galaxy A36 vs. Galaxy A35: Welches ist der bessere Kauf?​ Weiterlesen »

Samsung Galaxy S25 Ultra vs. OnePlus 13: Der Flaggschiff-Vergleich​

Allgemein

Foundry Der Kampf zwischen Samsung und OnePlus ist härter denn je. Das Galaxy S25 Ultra und das OnePlus 13 liefern sich ein Kopf-an-Kopf-Rennen um den Titel des besten Android-Smartphones. Beide Handys bieten die neueste Hardware und schnelle, KI-gesteuerte Software mit vielen Funktionen, aber es gibt einige wichtige Unterschiede, die für den Kauf eines der beiden Geräte entscheidend sein könnten. Nachfolgend vergleichen wir die beiden Flaggschiffe miteinander. Akku & Aufladen Das OnePlus 13 lässt das S25 Ultra in puncto Akkuleistung hinter sich. Mit seiner riesigen 6.000-Milliamperestunden-Silizium-Kohle-Zelle bietet es eine erstaunliche Ausdauer – mit bis zu 13 Stunden Bildschirmzeit und zwei Tagen bei moderater Nutzung. Außerdem lässt es sich dank der kabelgebundenen 100-Watt-Ladung, die das OnePlus 13 in nur 36 Minuten von 0 auf 100 Prozent bringt, viel schneller aufladen. Sogar das kabellose Laden mit 50 Watt ist mehr als doppelt so schnell wie die 15 Watt des S25 Ultra. OnePlus 13Foundry | Alex Walker-Todd Im Gegensatz dazu verfügt das S25 Ultra über einen 5.000-Milliamperestunden-Akku und die gleiche kabelgebundene Ladeleistung von 45 Watt und kabellose Ladeleistung von 15 Watt wie sein Vorgänger. Mit diesen Ladegeschwindigkeiten kann das Gerät in etwa einer Stunde von vollkommen leer auf 100 Prozent aufgeladen werden. Samsung wirbt mit kleinen Effizienzsteigerungen, aber mit der rohen Leistung und den Ladegeschwindigkeiten des OnePlus 13 kann es nicht mithalten. Samsung Galaxy S25 UltraLuke Baker Wenn Akkulaufzeit und schnelles Aufladen Priorität sind, ist das OnePlus 13 der klare Sieger. Display Das OnePlus 13 verfügt über ein atemberaubendes 6,82 Zoll LTPO 4.1 OLED-Display mit einer Spitzenhelligkeit von 4.500 Nits, was es außergewöhnlich hell und scharf macht. Außerdem bietet es einen Ultraschall-Fingerabdrucksensor im Display und fortschrittliche Touch-Funktionen wie Aqua Touch 2.0 für die Bedienung mit nassen Händen. OnePlus 13Foundry | Alex Walker-Todd Samsung behält jedoch mit dem 6,9 Zoll großen AMOLED-Display des S25 Ultra die Oberhand. Es kann zwar nicht mit der Helligkeit des OnePlus-Displays mithalten, aber sein verbessertes Corning Gorilla Armor 2 bietet eine hervorragende Kratz- und Stoßfestigkeit. Vor allem aber reduziert die Antireflexionsbeschichtung von Samsung die Blendwirkung erheblich und sorgt so für eine unübertroffene Sichtbarkeit im Freien. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?quality=50&strip=all 2392w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=768%2C428&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=1024%2C570&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=1536%2C855&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=2048%2C1140&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=1240%2C691&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=854%2C476&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=640%2C356&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=444%2C247&quality=50&strip=all 444w” width=”1024″ height=”570″ sizes=”(max-width: 1024px) 100vw, 1024px”>Samsung Galaxy S25 UltraLuke Baker Für Multimedia-Liebhaber bleibt das S25 Ultra mit seinem raffinierten Display das Beste seiner Klasse. Kameras Beide Handys verfügen über leistungsstarke Kameras, allerdings mit unterschiedlichen Ansätzen. Das S25 Ultra bleibt weitgehend der bewährten Formel treu und behält seinen beeindruckenden 200-Megapixel-Hauptsensor und die beiden Teleobjektive (dreifach und fünffach), während die Ultrawide-Kamera von 12 auf 50 Megapixel aufgerüstet wurde. Die Ergebnisse sind exzellent, mit verbesserten Hauttönen und Videoaufnahmen, die jetzt 8K-LOG-Profile für die Bearbeitung auf Profi-Niveau bieten. Der in die Jahre gekommene Dreifach-Teleobjektiv-Sensor erreicht jedoch bei schlechten Lichtverhältnissen seine Grenzen. OnePlus 13Foundry | Alex Walker-Todd Das OnePlus 13 verfügt über drei 50-Megapixel-Sensoren für die Haupt-, Ultraweitwinkel- und Dreifach-Telekamera, die alle durch das Hasselblad-System der fünften Generation verbessert wurden. OnePlus liefert einen besseren Kontrast und dramatischere Bilder, wenn auch manchmal auf Kosten der Farbgenauigkeit. Seine Fähigkeit, 4K Dolby Vision über alle Kameras hinweg aufzunehmen, und seine beeindruckende Leistung bei schlechten Lichtverhältnissen machen es zu einem ernst zu nehmenden Konkurrenten. Profis werden auch die nahtlosen 4K-HDR-Fähigkeiten bei allen drei Objektiven lieben. Samsung Galaxy S25 UltraLuke Baker Letztlich bietet Samsung mit seinem Fünffach-Zoom mehr Vielseitigkeit, aber OnePlus ist ihm im Hinblick auf Bildwirkung und Videofähigkeit ebenbürtig und übertrifft es oft. Weitere Unterschiede Beide Smartphones werden vom Snapdragon 8 Elite-Chipsatz angetrieben, aber das OnePlus 13 liefert nicht nur eine rasante Leistung, sondern verwaltet dank seiner großen, doppelten Dampfkammern auch die Wärme effektiver. Es bewältigt längere Spielsessions mit weniger thermischer Drosselung als das S25 Ultra, das trotz einer größeren Dampfkammer als beim Vorgänger unter Belastung spürbar warm wird. OnePlus 13Foundry | Alex Walker-Todd Das OnePlus 13 bietet außerdem eine einzigartige Rückseite aus veganem Mikrofaserleder, die angenehmer in der Hand liegt und weniger anfällig für Schmutz ist. Überdies bietet die IP69-Zertifizierung eine höhere Wasserfestigkeit als die IP68-Zertifizierung des S25 Ultra. Das S25 Ultra hingegen verfügt über einen hochwertigen Titanrahmen und den zusätzlichen Schutz von Corning Gorilla Armor 2, der es widerstandsfähiger gegen Stürze und Kratzer macht. Überdies unterstützt es den S Pen Stylus für präzise Eingaben, eine Funktion, die dem OnePlus 13 fehlt. Samsung Galaxy S25 UltraLuke Baker Was die Software betrifft, so laufen beide Smartphones mit Android 15, aber während Samsung seine One UI 7 Oberfläche verwendet, setzt OnePlus auf sein eigenes OxygenOS 15. Diejenigen, die Einfachheit und Schnelligkeit bevorzugen, werden sich vielleicht für OnePlus entscheiden, während Nutzer, die tiefere Funktionen suchen, Samsung bevorzugen. Nutzer des Galaxy S25 können sich auf sieben Jahre Betriebssystem- und Sicherheitsupdates verlassen, während OnePlus nur vier Jahre Betriebssystemunterstützung und sechs Jahre Sicherheitsupdates verspricht. Preis & Verfügbarkeit Das OnePlus 13 ist günstiger als das Galaxy S25 Ultra. Im Online-Shop von OnePlus kostet die Variante mit 12 Gigabyte RAM und 256 Gigabyte Speicher 999 Euro. 16 Gigabyte RAM und 512 Gigabyte Speicher schlagen mit 1.049 Euro zu Buche. Bei Amazon ist das Smartphone ab 929 Euro erhältlich. OnePlus hält an einer wertorientierten Preisgestaltung fest, ohne dabei auf Premium-Funktionen zu verzichten, was es zu einer wettbewerbsfähigen Option für preisbewusste Käufer macht. Aktuell bester Preis: OnePlus 13 Das Galaxy S25 Ultra ist mit 256 Gigabyte, 512 Gigabyte und 1 Terabyte Speicher erhältlich. 256 und 512 Gigabyte kosten bei Samsung derzeit 1.449 Euro. 1 Terabyte ist für 1.569 Euro erhältlich. Amazon hat das Smartphone ab 1.256 Euro im Angebot. Fazit Das Galaxy S25 Ultra ist perfekt für alle, die Wert auf Displayqualität, Ökosystemfunktionen und langfristigen Software-Support legen. Das OnePlus 13 besticht jedoch durch seine außergewöhnliche Akkulaufzeit, das schnellere Aufladen und die bessere Kühlung. Wenn niedriger Preis, Leistung und Effizienz Ihre Prioritäten sind, gewinnt das OnePlus 13. Für diejenigen, die eine hochwertige Verarbeitung und die Integration des Ökosystems suchen, insbesondere wenn Sie bereits ein Samsung Galaxy-Smartphone nutzen, bleibt das S25 Ultra ein starker Konkurrent. (PC-Welt) 

Samsung Galaxy S25 Ultra vs. OnePlus 13: Der Flaggschiff-Vergleich​ Foundry

Der Kampf zwischen Samsung und OnePlus ist härter denn je. Das Galaxy S25 Ultra und das OnePlus 13 liefern sich ein Kopf-an-Kopf-Rennen um den Titel des besten Android-Smartphones.

Beide Handys bieten die neueste Hardware und schnelle, KI-gesteuerte Software mit vielen Funktionen, aber es gibt einige wichtige Unterschiede, die für den Kauf eines der beiden Geräte entscheidend sein könnten. Nachfolgend vergleichen wir die beiden Flaggschiffe miteinander.

Akku & Aufladen

Das OnePlus 13 lässt das S25 Ultra in puncto Akkuleistung hinter sich. Mit seiner riesigen 6.000-Milliamperestunden-Silizium-Kohle-Zelle bietet es eine erstaunliche Ausdauer – mit bis zu 13 Stunden Bildschirmzeit und zwei Tagen bei moderater Nutzung.

Außerdem lässt es sich dank der kabelgebundenen 100-Watt-Ladung, die das OnePlus 13 in nur 36 Minuten von 0 auf 100 Prozent bringt, viel schneller aufladen. Sogar das kabellose Laden mit 50 Watt ist mehr als doppelt so schnell wie die 15 Watt des S25 Ultra.

OnePlus 13Foundry | Alex Walker-Todd

Im Gegensatz dazu verfügt das S25 Ultra über einen 5.000-Milliamperestunden-Akku und die gleiche kabelgebundene Ladeleistung von 45 Watt und kabellose Ladeleistung von 15 Watt wie sein Vorgänger. Mit diesen Ladegeschwindigkeiten kann das Gerät in etwa einer Stunde von vollkommen leer auf 100 Prozent aufgeladen werden.

Samsung wirbt mit kleinen Effizienzsteigerungen, aber mit der rohen Leistung und den Ladegeschwindigkeiten des OnePlus 13 kann es nicht mithalten.

Samsung Galaxy S25 UltraLuke Baker

Wenn Akkulaufzeit und schnelles Aufladen Priorität sind, ist das OnePlus 13 der klare Sieger.

Display

Das OnePlus 13 verfügt über ein atemberaubendes 6,82 Zoll LTPO 4.1 OLED-Display mit einer Spitzenhelligkeit von 4.500 Nits, was es außergewöhnlich hell und scharf macht. Außerdem bietet es einen Ultraschall-Fingerabdrucksensor im Display und fortschrittliche Touch-Funktionen wie Aqua Touch 2.0 für die Bedienung mit nassen Händen.

OnePlus 13Foundry | Alex Walker-Todd

Samsung behält jedoch mit dem 6,9 Zoll großen AMOLED-Display des S25 Ultra die Oberhand. Es kann zwar nicht mit der Helligkeit des OnePlus-Displays mithalten, aber sein verbessertes Corning Gorilla Armor 2 bietet eine hervorragende Kratz- und Stoßfestigkeit. Vor allem aber reduziert die Antireflexionsbeschichtung von Samsung die Blendwirkung erheblich und sorgt so für eine unübertroffene Sichtbarkeit im Freien.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?quality=50&strip=all 2392w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=768%2C428&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=1024%2C570&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=1536%2C855&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=2048%2C1140&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=1240%2C691&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=854%2C476&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=640%2C356&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Bildschirmfoto-2025-05-08-um-21.30.19.png?resize=444%2C247&quality=50&strip=all 444w” width=”1024″ height=”570″ sizes=”(max-width: 1024px) 100vw, 1024px”>Samsung Galaxy S25 UltraLuke Baker

Für Multimedia-Liebhaber bleibt das S25 Ultra mit seinem raffinierten Display das Beste seiner Klasse.

Kameras

Beide Handys verfügen über leistungsstarke Kameras, allerdings mit unterschiedlichen Ansätzen. Das S25 Ultra bleibt weitgehend der bewährten Formel treu und behält seinen beeindruckenden 200-Megapixel-Hauptsensor und die beiden Teleobjektive (dreifach und fünffach), während die Ultrawide-Kamera von 12 auf 50 Megapixel aufgerüstet wurde.

Die Ergebnisse sind exzellent, mit verbesserten Hauttönen und Videoaufnahmen, die jetzt 8K-LOG-Profile für die Bearbeitung auf Profi-Niveau bieten. Der in die Jahre gekommene Dreifach-Teleobjektiv-Sensor erreicht jedoch bei schlechten Lichtverhältnissen seine Grenzen.

OnePlus 13Foundry | Alex Walker-Todd

Das OnePlus 13 verfügt über drei 50-Megapixel-Sensoren für die Haupt-, Ultraweitwinkel- und Dreifach-Telekamera, die alle durch das Hasselblad-System der fünften Generation verbessert wurden.

OnePlus liefert einen besseren Kontrast und dramatischere Bilder, wenn auch manchmal auf Kosten der Farbgenauigkeit. Seine Fähigkeit, 4K Dolby Vision über alle Kameras hinweg aufzunehmen, und seine beeindruckende Leistung bei schlechten Lichtverhältnissen machen es zu einem ernst zu nehmenden Konkurrenten. Profis werden auch die nahtlosen 4K-HDR-Fähigkeiten bei allen drei Objektiven lieben.

Samsung Galaxy S25 UltraLuke Baker

Letztlich bietet Samsung mit seinem Fünffach-Zoom mehr Vielseitigkeit, aber OnePlus ist ihm im Hinblick auf Bildwirkung und Videofähigkeit ebenbürtig und übertrifft es oft.

Weitere Unterschiede

Beide Smartphones werden vom Snapdragon 8 Elite-Chipsatz angetrieben, aber das OnePlus 13 liefert nicht nur eine rasante Leistung, sondern verwaltet dank seiner großen, doppelten Dampfkammern auch die Wärme effektiver. Es bewältigt längere Spielsessions mit weniger thermischer Drosselung als das S25 Ultra, das trotz einer größeren Dampfkammer als beim Vorgänger unter Belastung spürbar warm wird.

OnePlus 13Foundry | Alex Walker-Todd

Das OnePlus 13 bietet außerdem eine einzigartige Rückseite aus veganem Mikrofaserleder, die angenehmer in der Hand liegt und weniger anfällig für Schmutz ist. Überdies bietet die IP69-Zertifizierung eine höhere Wasserfestigkeit als die IP68-Zertifizierung des S25 Ultra.

Das S25 Ultra hingegen verfügt über einen hochwertigen Titanrahmen und den zusätzlichen Schutz von Corning Gorilla Armor 2, der es widerstandsfähiger gegen Stürze und Kratzer macht. Überdies unterstützt es den S Pen Stylus für präzise Eingaben, eine Funktion, die dem OnePlus 13 fehlt.

Samsung Galaxy S25 UltraLuke Baker

Was die Software betrifft, so laufen beide Smartphones mit Android 15, aber während Samsung seine One UI 7 Oberfläche verwendet, setzt OnePlus auf sein eigenes OxygenOS 15. Diejenigen, die Einfachheit und Schnelligkeit bevorzugen, werden sich vielleicht für OnePlus entscheiden, während Nutzer, die tiefere Funktionen suchen, Samsung bevorzugen.

Nutzer des Galaxy S25 können sich auf sieben Jahre Betriebssystem- und Sicherheitsupdates verlassen, während OnePlus nur vier Jahre Betriebssystemunterstützung und sechs Jahre Sicherheitsupdates verspricht.

Preis & Verfügbarkeit

Das OnePlus 13 ist günstiger als das Galaxy S25 Ultra. Im Online-Shop von OnePlus kostet die Variante mit 12 Gigabyte RAM und 256 Gigabyte Speicher 999 Euro. 16 Gigabyte RAM und 512 Gigabyte Speicher schlagen mit 1.049 Euro zu Buche. Bei Amazon ist das Smartphone ab 929 Euro erhältlich.

OnePlus hält an einer wertorientierten Preisgestaltung fest, ohne dabei auf Premium-Funktionen zu verzichten, was es zu einer wettbewerbsfähigen Option für preisbewusste Käufer macht.

Aktuell bester Preis: OnePlus 13

Das Galaxy S25 Ultra ist mit 256 Gigabyte, 512 Gigabyte und 1 Terabyte Speicher erhältlich. 256 und 512 Gigabyte kosten bei Samsung derzeit 1.449 Euro. 1 Terabyte ist für 1.569 Euro erhältlich. Amazon hat das Smartphone ab 1.256 Euro im Angebot.

Fazit

Das Galaxy S25 Ultra ist perfekt für alle, die Wert auf Displayqualität, Ökosystemfunktionen und langfristigen Software-Support legen. Das OnePlus 13 besticht jedoch durch seine außergewöhnliche Akkulaufzeit, das schnellere Aufladen und die bessere Kühlung.

Wenn niedriger Preis, Leistung und Effizienz Ihre Prioritäten sind, gewinnt das OnePlus 13. Für diejenigen, die eine hochwertige Verarbeitung und die Integration des Ökosystems suchen, insbesondere wenn Sie bereits ein Samsung Galaxy-Smartphone nutzen, bleibt das S25 Ultra ein starker Konkurrent.

(PC-Welt)

Samsung Galaxy S25 Ultra vs. OnePlus 13: Der Flaggschiff-Vergleich​ Weiterlesen »

Poco F7 Ultra im Test: Flaggschiff-Leistung zum Mittelklasse-Preis​

Allgemein

Luke Baker Auf einen Blick Pro Leistungsstark Hoher Gegenwert Hervorragende Akkulaufzeit Ultra-schnelles Aufladen Kontra Die Kameras erzeugen nicht immer gute Bilder HyperOS Software hat einige Bloatware an Bord Fazit Wenn Sie sich eine Leistung auf Flaggschiff-Niveau wünschen, ohne dafür einen horrenden Preis zahlen zu müssen, ist das Poco F7 Ultra das richtige Smartphone für Sie. Es ist superschnell, hat eine tolle Akkulaufzeit, lässt sich blitzschnell aufladen und schont gleichzeitig Ihren Geldbeutel. Die Kameras sind nicht ganz auf Flaggschiff-Niveau, aber sie sind immer noch mehr als gut genug für gelegentliche Fotos. Poco ist dafür bekannt, gute Mittelklasse-Handys zu schockierend günstigen Preisen anzubieten. Aber wenn es um echte Flaggschiffe geht, tragen diese normalerweise eher den Namen des ehemaligen Mutterkonzerns Xiaomi. Mit der Einführung des Poco F7 Ultra scheint sich das jedoch zu ändern. Das F7 Ultra hat alles, was ein echtes Flaggschiff ausmacht. Es verfügt über einen der schnellsten Chips auf dem Markt, den Snapdragon 8 Elite, der auch im Samsung Galaxy S25 zum Einsatz kommt. Dazu gesellen sich ein riesiger Akku, ein wunderschönes Display, schnelles drahtloses Laden und ein gut ausgestattetes Dreifach-Kamerasystem auf der Rückseite. Auch die Verarbeitung ist erstklassig, mit einem Metallrahmen und einer Glasrückwand, die Sie normalerweise nur bei den teuersten Handys finden. Die Frage ist, ob dieses Gerät mit der beeindruckenden Auswahl an Flaggschiffen des Jahres 2025 mithalten kann oder ob Poco immer noch eine Budget-orientierte Marke bleibt? Ich habe mich die letzte Woche intensiv mit dem Gerät beschäftigt, und hier ist meine Meinung dazu. Design & Verarbeitung Aluminiumrahmen, Rückseite aus Glas 160,3 × 75 × 8,4 Millimeter, 212 Gramm IP68-zertifiziert Das Poco F7 Ultra ist in klassischem Schwarz erhältlich, aber die charakteristische leuchtend gelbe Farbgebung (komplett mit kontrastierenden schwarzen Seitenleisten) ist viel interessanter. Es wäre wahrscheinlich nicht meine erste Wahl, aber ich empfinde es als gut, dass es eine so gewagte Option gibt, die sicher sowohl Imker als auch Wu-Tang Clan-Fans ansprechen wird. Luke Baker Das Smartphone hat einen vollkommen flachen Bildschirm mit kastenförmigen Seiten und einer flachen Rückseite mit subtilen Rundungen an den Rändern. Es ist ein großes Gerät, und durch die kastenförmige Konstruktion fühlt es sich noch größer an. Dafür ist es nicht besonders schwer, denn es wiegt nur 212 Gramm. Gleichzeitig ist es aber so massiv, dass es sich nicht billig anfühlt. Es ist ein großes Smartphone, und durch die kastenförmige Konstruktion fühlt es sich noch größer an. Dafür ist es nicht besonders schwer. Auf der Rückseite befindet sich in der oberen linken Ecke ein kreisrundes Kamerasystem. Das sieht ganz nett aus, aber ich kann mich des Eindrucks nicht erwehren, dass es ein wenig retro aussieht. Die meisten modernen Flaggschiffe setzen auf zentral platzierte Kameraeinheiten, während mich dies an das Vivo X90 Pro von vor ein paar Jahren erinnert. Wenn Sie es nicht mögen, wenn Ihr Handy auf dem Tisch hin und her wackelt, ist dieses Gerät eher nichts für Sie. Luke Baker Das F7 Ultra ist nach IP68 staub- und wasserdicht. Dadurch ist das Smartphone gegen Staub geschützt und kann ohne Schaden in Süßwasser eingetaucht werden. Das Gerät ist außerdem mit “Poco Shield Glass” ausgestattet, der härtesten Displaybeschichtung der Marke, die angeblich die Sturz- und Kratzfestigkeit erhöht. Mein Exemplar wurde nicht allzu grob behandelt. Nachdem ich es etwa eine Woche lang ohne Displayschutzfolie benutzt habe, sieht es immer noch makellos aus. Es scheint also, dass das Poco Shield Glass seine Aufgabe erfüllt. Wenn Sie Ihr Smartphone frisch aussehen lassen möchten, finden Sie überdies eine einfache TPU-Hülle in der Verpackung. Es handelt sich um eine mattschwarze Hülle, was ich sehr begrüße. Diese Hüllen sind in der Regel langfristig besser als ihre transparenten Gegenstücke, da sich weniger Staub ansammelt und sie nicht vergilben. Es ist immer schön, eine ansprechend aussehende Hülle ohne Aufpreis zu bekommen. Luke Baker Bildschirm & Lautsprecher 6,67-Zoll, 1.440 × 3.200, OLED, 120 Hertz 3.200 Nits, DCI-P3 breite Farbskala Stereo-Lautsprecher Das Poco F7 Ultra hat ein wunderbares Display. Es ist ein üppig großes 6,67-Zoll-OLED-Display mit einer adaptiven Bildwiederholfrequenz von 120 Hertz und einer Spitzenhelligkeit von 3.200 Nits. Nachdem ich viel Zeit mit gewölbten Bildschirmen verbracht habe, ist der gänzlich flache Bildschirm erfrischend, und ich bevorzuge ihn definitiv für Spiele. Das ist eine gute Wahl, denn Gamer sind wahrscheinlich die Hauptzielgruppe für dieses Smartphone. Allerdings fühlt sich die Gestensteuerung, bei der Sie vom Rand des Bildschirms aus wischen müssen, nicht so gut an, vor allem, wenn Sie eine Hülle verwenden. Der Bildschirm deckt den DCI-P3-Farbraum ab und liefert hochpräzise Farben mit ausgezeichnetem Kontrast Der Bildschirm deckt die DCI-P3-Farbskala ab und liefert hochpräzise Farben mit ausgezeichneten Kontrastwerten. Wenn Sie es vorziehen, Ihr Bild selbst zu optimieren, stehen Ihnen in den Einstellungen mehr Optionen zur Verfügung als bei den meisten Mitbewerbern. Die Liste umfasst vier voreingestellte Farbmodi, die alle in ihrer Temperatur angepasst werden können, sowie einen erweiterten Modus für eine ausgiebige Kalibrierung. Es sind zahlreiche augenschonende Maßnahmen integriert, darunter eine zirkulare Polarisationsschicht, die dem natürlichen Licht besser entspricht. Außerdem unterstützt der Bildschirm PWM-Dimmraten von bis zu 3.840 Hertz und sorgt so für ein flimmerfreies Erlebnis bei geringer Helligkeit. Luke Baker Dieses Display hat noch einen weiteren Trick in der Hinterhand: einen Co-Processing-Chip namens VisionBoost D7. Dieser soll die Klarheit von Apps wie YouTube und Netflix verbessern, ohne den Akku zu sehr zu belasten. Um ehrlich zu sein, habe ich keinen großen Unterschied bemerkt, wenn die Einstellung aktiviert war. Aber wenn Sie Inhalte mit besonders schlechter Bildqualität konsumieren, könnte es doch einen positiven Einfluss haben. Das F7 Ultra ist zudem mit einem Ultraschall-Fingerabdruckscanner ausgestattet, der unter dem Display verborgen ist. Diese Funktion ist selbst bei einigen der teuersten Flaggschiffe nicht vorhanden. Daher bin ich sehr froh, sie hier zu finden. Das bedeutet, dass sich Ihr Smartphone schnell und zuverlässig entsperren lässt, egal, wie schmutzig Ihr Bildschirm ist. Das Gerät ist mit Stereolautsprechern ausgestattet – einer befindet sich auf der Unterseite neben dem USB-C-Anschluss, der andere an der Oberseite. So entsteht eine schöne, breite Klangbühne, die sich hervorragend für Spiele und Filme eignet. Luke Baker Die Klarheit ist großartig und die Lautsprecher sind laut genug. Aber es fehlt ihnen – wie so oft – an Bass. Wenn Sie das beste Klangerlebnis wünschen, sollten Sie sich ein Paar kabellose Ohrhörer zulegen. Spezifikationen & Leistung Qualcomm Snapdragon 8 Elite 12 Gigabyte / 16 Gigabyte RAM 256 Gigabyte / 512 Gigabyte interner Speicher Das Poco F7 Ultra verfügt über einen der leistungsstärksten Chips auf dem Markt, den Qualcomm Snapdragon 8 Elite. Das Smartphone ist zudem in zwei Varianten erhältlich, entweder mit 12 Gigabyte RAM und 256 Gigabyte Speicher oder mit 16 Gigabyte RAM und 512 Gigabyte Speicher. Ich habe das letztere Modell getestet, das mehr als genug Platz für alle Medien bietet, die Sie unterwegs benötigen. Mit einem so leistungsstarken Chip als Herzstück ist es keine Überraschung, dass das F7 Ultra auch Spitzenleistung abliefert. Alles fühlt sich blitzschnell an, von der Navigation im Betriebssystem bis zum Öffnen von Apps und Multitasking. Wenn Sie die Animationsgeschwindigkeit in den Einstellungen auf “schnell” stellen, fühlt es sich wie eine absolute Rakete an. Dieses Gerät ist mit Abstand eines der leistungsstärksten in seiner Preiskategorie Wenn Sie auf Spielleistung Wert legen, ist dieses Gerät mit Sicherheit eines der besten in seiner Preisklasse. Standardmäßig führt es jedes Spiel, das Sie ihm vorsetzen können, ohne Probleme auf maximalen Grafikeinstellungen aus. Aber das Poco F7 Ultra hat ein paar zusätzliche Tricks, um die Leistung noch weiter zu steigern. Das integrierte Spiele-Overlay ermöglicht es Ihnen, Super Resolution und Smart Frame Rate zu aktivieren, zwei neue Funktionen, die den VisionBoost D7 Chipsatz nutzen. Diese Features arbeiten ein wenig wie DLSS und Frame-Generation auf einem Gaming-PC, indem sie KI-Algorithmen zur Interpolation und Hochskalierung eines Spiels verwenden. Luke Baker Das funktioniert ziemlich gut und ermöglicht es Ihnen im Wesentlichen, das Spiel mit einer niedrigeren Voreinstellung laufen zu lassen, ohne Abstriche bei der flüssigen Darstellung oder der Qualität zu machen – das schont Ihren Akku und erzeugt weniger Wärme. Die Funktion Smart Frame Rate hat mich am meisten beeindruckt. Sie ist besonders gut geeignet für “Genshin Impact”, das unter Android auf 60 Bilder pro Sekunde beschränkt ist. Mit aktivierter Funktion wirkt es, als ob das Spiel nun mit 120 Bildern pro Sekunde läuft. Poco F7 Ultra Benchmarks Enttäuschend ist, dass viele unserer üblichen Benchmarks auf diesem Smartphone blockiert wurden. Das ist nichts Neues. Wir haben das schon oft bei Vorabversionen von Xiaomi und Redmagic-Geräten gesehen. Aber das macht es schwierig, die Leistung mit konkurrierenden Geräten zu vergleichen. Zumindest konnte ich Geekbench 6 starten, wo das Gerät etwas schlechter als das Galaxy S25 Ultra, aber besser als das Oppo Find X8 Pro abschneiden konnte. Das F7 Ultra liegt jedoch immer noch weit hinter den dedizierten Gaming-Handys Asus ROG Phone 9 Pro und Nubia Redmagic 10 Pro. Kameras 50-Megapixel-Hauptsensor 50-Megapixel-2.5x-Teleobjektiv 32-Megapixel-Ultraweitwinkel 32-Megapixel-Selfie-Kamera Wie üblich hat Poco mehr Wert auf die Spielleistung des F7 Ultra als auf seine Kameras gelegt. Daher habe ich von diesen Objektiven nicht viel erwartet. Dennoch war ich von den Ergebnissen angenehm überrascht. Luke Baker Natürlich ist die Bildqualität immer etwas subjektiv, aber für meinen Geschmack macht das Poco F7 Ultra vielleicht die besten Fotos von allen Gaming-Handys. Es kann mit dem Asus ROG Phone 9 Pro mühelos mithalten und übertrifft auch alle Smartphones von Redmagic. Das Poco F7 Ultra macht vielleicht die besten Fotos aller Gaming-Handys Der Hauptgrund dafür ist die Bildverarbeitung: Die Farben sehen angenehm und naturgetreu aus, der Dynamikumfang ist großartig und das Linsentrio bietet Ihnen eine große Flexibilität bei der Gestaltung Ihrer Aufnahmen. Auch der Digitalzoom ist besser, als ich erwartet hatte, und liefert brauchbare Ergebnisse bis zu einer zehnfachen Vergrößerung. Das Ultraweitwinkelobjektiv ist, wie so oft, das schwächste des Trios, und das gilt besonders bei Nacht. Die Details sind bei diesem Objektiv sehr unscharf und es verfügt über keinen Autofokus, sodass Sie es nicht für Nahaufnahmen verwenden können. Auch die Farben sind im Vergleich zu den anderen Kameras ein wenig verschoben. Tagsüber können Sie mit dem Haupt- und dem Teleobjektiv beeindruckende Aufnahmen machen, aber nachts sollten Sie sich eher an die Hauptkamera halten. Das Teleobjektiv leistet gute Arbeit, aber mit diesem winzigen Sensor ist nicht viel zu machen, und Sie werden sich die meiste Zeit auf den Nachtmodus verlassen müssen. Die Selfie-Kamera ist solide, aber nicht besonders bemerkenswert. Ich war mit der Detailgenauigkeit zufrieden und die Effekte im Porträtmodus funktionieren zuverlässig. Aber es gibt keinen Autofokus und den Farben fehlt es bei schlechten Lichtverhältnissen an Lebendigkeit. Bei Videoaufnahmen kann das F7 Ultra mit dem Hauptobjektiv bis zu 8K-Auflösung mit 24 Bildern pro Sekunde aufnehmen, allerdings nur 6 Minuten am Stück. Realistischer ist es, wenn Sie Videos mit 4K-Auflösung und 60 Bildern pro Sekunde aufnehmen, was mit der Haupt- und der Telekamera funktioniert. Die Ultrawide- und die Selfie-Kamera erreichen maximal 1080p-Auflösung mit 60 Bildern pro Sekunde. Die Ergebnisse sind ausreichend, aber die Unterschiede sind ein klares Indiz dafür, dass dieses System eine Stufe unter dem typischen Flaggschiff liegt. Sie müssen sich also vorher genau überlegen, welche Auflösung Sie auswählen wollen. Akkulaufzeit & Aufladen 5.300 Milliamperestunden Akku 120 Watt kabelgebundenes Laden 50 Watt kabelloses Laden Das Poco F7 Ultra verfügt über einen 5.300-Milliamperestunden-Akku, mehr als ein typisches Flaggschiff, aber nicht ganz so viel wie die neuesten Silizium-Kohlenstoff-Akkus, die sich um die 6.000-Milliamperestunden-Marke bewegen. Deswegen habe ich eine gute Akkulaufzeit erwartet, aber nichts Überragendes. Das F7 Ultra hat mich jedoch überrascht. Luke Baker Ich habe ohne viel Mühe zwei Tage mit einer Akkuladung geschafft, und ich bin ein ziemlich intensiver Nutzer. Wenn Sie etwas rücksichtsvoller sind, halte ich auch einen dritten Tag für machbar. Natürlich wird der Akku bei intensiven Spielsessions viel schneller entladen, es kommt also wie immer darauf an, wie Sie das Gerät nutzen. In jedem Fall kann man sagen, dass die Akkulaufzeit großartig ist. Das Smartphone war in etwas mehr als einer halben Stunde von vollkommen leer auf 100 Prozent aufgeladen Wenn der Akku einmal leer ist, werden Sie nicht lange auf eine Aufladung warten müssen. Mit dem mitgelieferten 120-Watt-Netzteil war das Smartphone in etwas mehr als einer halben Stunde wieder zu 100 Prozent aufgeladen. Wenn Sie drahtloses Laden bevorzugen, können Sie auch hier beeindruckende Geschwindigkeiten erwarten. Das Poco F7 Ultra unterstützt kabelloses Laden mit bis zu 50 Watt mit dem entsprechenden Ladepad. Software & Apps HyperOS 2, basierend auf Android 15 Circle to Search und Gemini Einige Bloatware vorinstalliert Auf dem Poco F7 Ultra läuft HyperOS 2, eine stark angepasste Version von Android 15, die auf vielen Xiaomi-, Redmi- und Poco-Handys zu finden ist. Wenn Sie ein aktuelles Modell einer dieser Marken benutzt haben, werden Sie nicht allzu viele Überraschungen erleben. Luke Baker Beginnen wir mit den positiven Aspekten: HyperOS sieht sehr elegant aus und ist sehr schnell. Der Einfluss von iOS ist deutlich zu erkennen, insbesondere bei den Schnelleinstellungen und der Anpassung des Sperrbildschirms. Ich persönlich finde das in Ordnung, denn das Ergebnis sieht großartig aus. Es gibt tonnenweise Anpassungsmöglichkeiten in jedem Bereich des Systems. Wenn also etwas nicht so aussieht oder sich nicht so verhält, wie Sie es sich wünschen, ist die Wahrscheinlichkeit groß, dass Sie es ändern können. Ich liebe die Freiheit, die mir das bietet, und ich schätze auch die schiere Menge an Apps, die ich auf meinem Startbildschirm platzieren kann. Die Nachteile sind die gleichen wie immer. Bei der Ersteinrichtung des Geräts müssen Sie ein wenig Bloatware entfernen – nichts Schlimmes, aber eine Aufgabe, auf die ich gut verzichten könnte. Außerdem ist in einigen System-Apps, wie der Hintergrundbildauswahl und dem Spielcenter, Werbung eingebettet. Das schmälert das sonst so hochwertige Erlebnis. Luke Baker Ich habe mich gefreut, dass das Smartphone die neuesten Funktionen von Google enthält, wie die Möglichkeit, Gemini als Standard-Suchassistenten einzustellen, und Circle to Search. Diese Funktionen sind im Jahr 2025 nicht mehr ganz neu, aber sehr nützlich. Ansonsten sind die KI-Funktionen etwas spärlich, abgesehen von den bereits erwähnten Verbesserungen für Spiele. Preis & Verfügbarkeit Das Poco F7 Ultra wurde am 27. März 2025 weltweit eingeführt. In Deutschland kostet das Smartphone 699,90 Euro mit 12 Gigabyte RAM und 256 Gigabyte internem Speicher. Das Modell mit 16 Gigabyte RAM und 512 Gigabyte internem Speicher wird hingegen für 749,90 Euro angeboten. Sie können das Poco F7 Ultra direkt auf der Xiaomi Website zu diesen Preisen bestellen. Bei Amazon wird aktuell lediglich die kleinere Version mit 12 Gigabyte RAM und 256 Gigabyte Speicherplatz für 699,90 Euro angeboten. Mit diesem Preis liegt es am oberen Ende des Marktes für Mittelklasse-Handys und muss sich mit Geräten wie dem Xiaomi 14T Pro und dem OnePlus 13R messen lassen. Und auch das Google Pixel 9 wird oft schon zu einem ähnlichen Preis angeboten. Sollten Sie das Poco F7 Ultra kaufen? Wenn Sie eine Leistung auf Flaggschiff-Niveau suchen, aber nur ein Budget für die obere Mittelklasse zur Verfügung haben, können Sie sich kaum eine bessere Option als das Poco F7 Ultra wünschen. Es ist ein hervorragendes Preis-Leistungs-Verhältnis und bietet ein Spiel- und Produktivitätserlebnis, das mit den besten Handys auf dem Markt mithalten kann. Nur die Kameras sind nicht ganz auf dem Niveau anderer Flaggschiffe. Sie sind immer noch recht gut und sicherlich besser als die der meisten Gaming-Handys, können aber nicht mit Geräten wie dem Samsung Galaxy S25 Ultra oder dem Xiaomi 15 Ultra mithalten. Ansonsten sind der Bildschirm, die Akkulaufzeit und die Ladegeschwindigkeit allesamt erstklassig. Es ist ein Vergnügen, das Smartphone zu benutzen, und solange Sie bei Ihren Fotos nicht zu wählerisch sind, werden Sie viel Freude damit haben. Spezifikationen HyperOS 2, basierend auf Android 15 6,67-Zoll, 1.440 × 3.200 Pixel, OLED, 120-Hertz-Display Ultraschall-Fingerabdruckleser unter dem Display Qualcomm Snapdragon 8 Elite 12 Gigabyte / 16 Gigabyte RAM 256 Gigabyte / 512 Gigabyte Speicher Kameras: 50-Megapixel-Hauptsensor 50-Megapixel-2,5x-Teleobjektiv 32-Megapixel-Ultraweitwinkel 32-Megapixel-Selfie-Kamera Bis zu 8K-Videos mit 24fps auf der Rückseite Stereo-Lautsprecher Dual-SIM Wi-Fi 802.11 a/b/g/n/ac/6e/7 Bluetooth 6.0 5.300 Milliamperestunden Akku 120 Watt kabelgebundenes Laden 50 Watt kabelloses Laden 160,3 × 75 × 8,4 Millimeter IP68 zertifiziert 212 Gramm Farben: Gelb, Schwarz (PC-Welt) 

Poco F7 Ultra im Test: Flaggschiff-Leistung zum Mittelklasse-Preis​ Luke Baker

Auf einen Blick

Pro

Leistungsstark

Hoher Gegenwert

Hervorragende Akkulaufzeit

Ultra-schnelles Aufladen

Kontra

Die Kameras erzeugen nicht immer gute Bilder

HyperOS Software hat einige Bloatware an Bord

Fazit

Wenn Sie sich eine Leistung auf Flaggschiff-Niveau wünschen, ohne dafür einen horrenden Preis zahlen zu müssen, ist das Poco F7 Ultra das richtige Smartphone für Sie. Es ist superschnell, hat eine tolle Akkulaufzeit, lässt sich blitzschnell aufladen und schont gleichzeitig Ihren Geldbeutel. Die Kameras sind nicht ganz auf Flaggschiff-Niveau, aber sie sind immer noch mehr als gut genug für gelegentliche Fotos.

Poco ist dafür bekannt, gute Mittelklasse-Handys zu schockierend günstigen Preisen anzubieten. Aber wenn es um echte Flaggschiffe geht, tragen diese normalerweise eher den Namen des ehemaligen Mutterkonzerns Xiaomi. Mit der Einführung des Poco F7 Ultra scheint sich das jedoch zu ändern.

Das F7 Ultra hat alles, was ein echtes Flaggschiff ausmacht. Es verfügt über einen der schnellsten Chips auf dem Markt, den Snapdragon 8 Elite, der auch im Samsung Galaxy S25 zum Einsatz kommt. Dazu gesellen sich ein riesiger Akku, ein wunderschönes Display, schnelles drahtloses Laden und ein gut ausgestattetes Dreifach-Kamerasystem auf der Rückseite.

Auch die Verarbeitung ist erstklassig, mit einem Metallrahmen und einer Glasrückwand, die Sie normalerweise nur bei den teuersten Handys finden. Die Frage ist, ob dieses Gerät mit der beeindruckenden Auswahl an Flaggschiffen des Jahres 2025 mithalten kann oder ob Poco immer noch eine Budget-orientierte Marke bleibt? Ich habe mich die letzte Woche intensiv mit dem Gerät beschäftigt, und hier ist meine Meinung dazu.

Design & Verarbeitung

Aluminiumrahmen, Rückseite aus Glas

160,3 × 75 × 8,4 Millimeter, 212 Gramm

IP68-zertifiziert

Das Poco F7 Ultra ist in klassischem Schwarz erhältlich, aber die charakteristische leuchtend gelbe Farbgebung (komplett mit kontrastierenden schwarzen Seitenleisten) ist viel interessanter.

Es wäre wahrscheinlich nicht meine erste Wahl, aber ich empfinde es als gut, dass es eine so gewagte Option gibt, die sicher sowohl Imker als auch Wu-Tang Clan-Fans ansprechen wird.

Luke Baker

Das Smartphone hat einen vollkommen flachen Bildschirm mit kastenförmigen Seiten und einer flachen Rückseite mit subtilen Rundungen an den Rändern. Es ist ein großes Gerät, und durch die kastenförmige Konstruktion fühlt es sich noch größer an. Dafür ist es nicht besonders schwer, denn es wiegt nur 212 Gramm. Gleichzeitig ist es aber so massiv, dass es sich nicht billig anfühlt.

Es ist ein großes Smartphone, und durch die kastenförmige Konstruktion fühlt es sich noch größer an. Dafür ist es nicht besonders schwer.

Auf der Rückseite befindet sich in der oberen linken Ecke ein kreisrundes Kamerasystem. Das sieht ganz nett aus, aber ich kann mich des Eindrucks nicht erwehren, dass es ein wenig retro aussieht.

Die meisten modernen Flaggschiffe setzen auf zentral platzierte Kameraeinheiten, während mich dies an das Vivo X90 Pro von vor ein paar Jahren erinnert. Wenn Sie es nicht mögen, wenn Ihr Handy auf dem Tisch hin und her wackelt, ist dieses Gerät eher nichts für Sie.

Luke Baker

Das F7 Ultra ist nach IP68 staub- und wasserdicht. Dadurch ist das Smartphone gegen Staub geschützt und kann ohne Schaden in Süßwasser eingetaucht werden.

Das Gerät ist außerdem mit “Poco Shield Glass” ausgestattet, der härtesten Displaybeschichtung der Marke, die angeblich die Sturz- und Kratzfestigkeit erhöht. Mein Exemplar wurde nicht allzu grob behandelt. Nachdem ich es etwa eine Woche lang ohne Displayschutzfolie benutzt habe, sieht es immer noch makellos aus. Es scheint also, dass das Poco Shield Glass seine Aufgabe erfüllt.

Wenn Sie Ihr Smartphone frisch aussehen lassen möchten, finden Sie überdies eine einfache TPU-Hülle in der Verpackung. Es handelt sich um eine mattschwarze Hülle, was ich sehr begrüße. Diese Hüllen sind in der Regel langfristig besser als ihre transparenten Gegenstücke, da sich weniger Staub ansammelt und sie nicht vergilben. Es ist immer schön, eine ansprechend aussehende Hülle ohne Aufpreis zu bekommen.

Luke Baker

Bildschirm & Lautsprecher

6,67-Zoll, 1.440 × 3.200, OLED, 120 Hertz

3.200 Nits, DCI-P3 breite Farbskala

Stereo-Lautsprecher

Das Poco F7 Ultra hat ein wunderbares Display. Es ist ein üppig großes 6,67-Zoll-OLED-Display mit einer adaptiven Bildwiederholfrequenz von 120 Hertz und einer Spitzenhelligkeit von 3.200 Nits.

Nachdem ich viel Zeit mit gewölbten Bildschirmen verbracht habe, ist der gänzlich flache Bildschirm erfrischend, und ich bevorzuge ihn definitiv für Spiele. Das ist eine gute Wahl, denn Gamer sind wahrscheinlich die Hauptzielgruppe für dieses Smartphone. Allerdings fühlt sich die Gestensteuerung, bei der Sie vom Rand des Bildschirms aus wischen müssen, nicht so gut an, vor allem, wenn Sie eine Hülle verwenden.

Der Bildschirm deckt den DCI-P3-Farbraum ab und liefert hochpräzise Farben mit ausgezeichnetem Kontrast

Der Bildschirm deckt die DCI-P3-Farbskala ab und liefert hochpräzise Farben mit ausgezeichneten Kontrastwerten. Wenn Sie es vorziehen, Ihr Bild selbst zu optimieren, stehen Ihnen in den Einstellungen mehr Optionen zur Verfügung als bei den meisten Mitbewerbern. Die Liste umfasst vier voreingestellte Farbmodi, die alle in ihrer Temperatur angepasst werden können, sowie einen erweiterten Modus für eine ausgiebige Kalibrierung.

Es sind zahlreiche augenschonende Maßnahmen integriert, darunter eine zirkulare Polarisationsschicht, die dem natürlichen Licht besser entspricht. Außerdem unterstützt der Bildschirm PWM-Dimmraten von bis zu 3.840 Hertz und sorgt so für ein flimmerfreies Erlebnis bei geringer Helligkeit.

Luke Baker

Dieses Display hat noch einen weiteren Trick in der Hinterhand: einen Co-Processing-Chip namens VisionBoost D7. Dieser soll die Klarheit von Apps wie YouTube und Netflix verbessern, ohne den Akku zu sehr zu belasten. Um ehrlich zu sein, habe ich keinen großen Unterschied bemerkt, wenn die Einstellung aktiviert war. Aber wenn Sie Inhalte mit besonders schlechter Bildqualität konsumieren, könnte es doch einen positiven Einfluss haben.

Das F7 Ultra ist zudem mit einem Ultraschall-Fingerabdruckscanner ausgestattet, der unter dem Display verborgen ist. Diese Funktion ist selbst bei einigen der teuersten Flaggschiffe nicht vorhanden. Daher bin ich sehr froh, sie hier zu finden. Das bedeutet, dass sich Ihr Smartphone schnell und zuverlässig entsperren lässt, egal, wie schmutzig Ihr Bildschirm ist.

Das Gerät ist mit Stereolautsprechern ausgestattet – einer befindet sich auf der Unterseite neben dem USB-C-Anschluss, der andere an der Oberseite. So entsteht eine schöne, breite Klangbühne, die sich hervorragend für Spiele und Filme eignet.

Luke Baker

Die Klarheit ist großartig und die Lautsprecher sind laut genug. Aber es fehlt ihnen – wie so oft – an Bass. Wenn Sie das beste Klangerlebnis wünschen, sollten Sie sich ein Paar kabellose Ohrhörer zulegen.

Spezifikationen & Leistung

Qualcomm Snapdragon 8 Elite

12 Gigabyte / 16 Gigabyte RAM

256 Gigabyte / 512 Gigabyte interner Speicher

Das Poco F7 Ultra verfügt über einen der leistungsstärksten Chips auf dem Markt, den Qualcomm Snapdragon 8 Elite. Das Smartphone ist zudem in zwei Varianten erhältlich, entweder mit 12 Gigabyte RAM und 256 Gigabyte Speicher oder mit 16 Gigabyte RAM und 512 Gigabyte Speicher. Ich habe das letztere Modell getestet, das mehr als genug Platz für alle Medien bietet, die Sie unterwegs benötigen.

Mit einem so leistungsstarken Chip als Herzstück ist es keine Überraschung, dass das F7 Ultra auch Spitzenleistung abliefert. Alles fühlt sich blitzschnell an, von der Navigation im Betriebssystem bis zum Öffnen von Apps und Multitasking. Wenn Sie die Animationsgeschwindigkeit in den Einstellungen auf “schnell” stellen, fühlt es sich wie eine absolute Rakete an.

Dieses Gerät ist mit Abstand eines der leistungsstärksten in seiner Preiskategorie

Wenn Sie auf Spielleistung Wert legen, ist dieses Gerät mit Sicherheit eines der besten in seiner Preisklasse. Standardmäßig führt es jedes Spiel, das Sie ihm vorsetzen können, ohne Probleme auf maximalen Grafikeinstellungen aus. Aber das Poco F7 Ultra hat ein paar zusätzliche Tricks, um die Leistung noch weiter zu steigern.

Das integrierte Spiele-Overlay ermöglicht es Ihnen, Super Resolution und Smart Frame Rate zu aktivieren, zwei neue Funktionen, die den VisionBoost D7 Chipsatz nutzen. Diese Features arbeiten ein wenig wie DLSS und Frame-Generation auf einem Gaming-PC, indem sie KI-Algorithmen zur Interpolation und Hochskalierung eines Spiels verwenden.

Luke Baker

Das funktioniert ziemlich gut und ermöglicht es Ihnen im Wesentlichen, das Spiel mit einer niedrigeren Voreinstellung laufen zu lassen, ohne Abstriche bei der flüssigen Darstellung oder der Qualität zu machen – das schont Ihren Akku und erzeugt weniger Wärme.

Die Funktion Smart Frame Rate hat mich am meisten beeindruckt. Sie ist besonders gut geeignet für “Genshin Impact”, das unter Android auf 60 Bilder pro Sekunde beschränkt ist. Mit aktivierter Funktion wirkt es, als ob das Spiel nun mit 120 Bildern pro Sekunde läuft.

Poco F7 Ultra Benchmarks

Enttäuschend ist, dass viele unserer üblichen Benchmarks auf diesem Smartphone blockiert wurden. Das ist nichts Neues. Wir haben das schon oft bei Vorabversionen von Xiaomi und Redmagic-Geräten gesehen. Aber das macht es schwierig, die Leistung mit konkurrierenden Geräten zu vergleichen.

Zumindest konnte ich Geekbench 6 starten, wo das Gerät etwas schlechter als das Galaxy S25 Ultra, aber besser als das Oppo Find X8 Pro abschneiden konnte. Das F7 Ultra liegt jedoch immer noch weit hinter den dedizierten Gaming-Handys Asus ROG Phone 9 Pro und Nubia Redmagic 10 Pro.

Kameras

50-Megapixel-Hauptsensor

50-Megapixel-2.5x-Teleobjektiv

32-Megapixel-Ultraweitwinkel

32-Megapixel-Selfie-Kamera

Wie üblich hat Poco mehr Wert auf die Spielleistung des F7 Ultra als auf seine Kameras gelegt. Daher habe ich von diesen Objektiven nicht viel erwartet. Dennoch war ich von den Ergebnissen angenehm überrascht.

Luke Baker

Natürlich ist die Bildqualität immer etwas subjektiv, aber für meinen Geschmack macht das Poco F7 Ultra vielleicht die besten Fotos von allen Gaming-Handys. Es kann mit dem Asus ROG Phone 9 Pro mühelos mithalten und übertrifft auch alle Smartphones von Redmagic.

Das Poco F7 Ultra macht vielleicht die besten Fotos aller Gaming-Handys

Der Hauptgrund dafür ist die Bildverarbeitung: Die Farben sehen angenehm und naturgetreu aus, der Dynamikumfang ist großartig und das Linsentrio bietet Ihnen eine große Flexibilität bei der Gestaltung Ihrer Aufnahmen. Auch der Digitalzoom ist besser, als ich erwartet hatte, und liefert brauchbare Ergebnisse bis zu einer zehnfachen Vergrößerung.

Das Ultraweitwinkelobjektiv ist, wie so oft, das schwächste des Trios, und das gilt besonders bei Nacht. Die Details sind bei diesem Objektiv sehr unscharf und es verfügt über keinen Autofokus, sodass Sie es nicht für Nahaufnahmen verwenden können. Auch die Farben sind im Vergleich zu den anderen Kameras ein wenig verschoben.

Tagsüber können Sie mit dem Haupt- und dem Teleobjektiv beeindruckende Aufnahmen machen, aber nachts sollten Sie sich eher an die Hauptkamera halten. Das Teleobjektiv leistet gute Arbeit, aber mit diesem winzigen Sensor ist nicht viel zu machen, und Sie werden sich die meiste Zeit auf den Nachtmodus verlassen müssen.

Die Selfie-Kamera ist solide, aber nicht besonders bemerkenswert. Ich war mit der Detailgenauigkeit zufrieden und die Effekte im Porträtmodus funktionieren zuverlässig. Aber es gibt keinen Autofokus und den Farben fehlt es bei schlechten Lichtverhältnissen an Lebendigkeit.

Bei Videoaufnahmen kann das F7 Ultra mit dem Hauptobjektiv bis zu 8K-Auflösung mit 24 Bildern pro Sekunde aufnehmen, allerdings nur 6 Minuten am Stück. Realistischer ist es, wenn Sie Videos mit 4K-Auflösung und 60 Bildern pro Sekunde aufnehmen, was mit der Haupt- und der Telekamera funktioniert. Die Ultrawide- und die Selfie-Kamera erreichen maximal 1080p-Auflösung mit 60 Bildern pro Sekunde.

Die Ergebnisse sind ausreichend, aber die Unterschiede sind ein klares Indiz dafür, dass dieses System eine Stufe unter dem typischen Flaggschiff liegt. Sie müssen sich also vorher genau überlegen, welche Auflösung Sie auswählen wollen.

Akkulaufzeit & Aufladen

5.300 Milliamperestunden Akku

120 Watt kabelgebundenes Laden

50 Watt kabelloses Laden

Das Poco F7 Ultra verfügt über einen 5.300-Milliamperestunden-Akku, mehr als ein typisches Flaggschiff, aber nicht ganz so viel wie die neuesten Silizium-Kohlenstoff-Akkus, die sich um die 6.000-Milliamperestunden-Marke bewegen. Deswegen habe ich eine gute Akkulaufzeit erwartet, aber nichts Überragendes. Das F7 Ultra hat mich jedoch überrascht.

Luke Baker

Ich habe ohne viel Mühe zwei Tage mit einer Akkuladung geschafft, und ich bin ein ziemlich intensiver Nutzer. Wenn Sie etwas rücksichtsvoller sind, halte ich auch einen dritten Tag für machbar. Natürlich wird der Akku bei intensiven Spielsessions viel schneller entladen, es kommt also wie immer darauf an, wie Sie das Gerät nutzen. In jedem Fall kann man sagen, dass die Akkulaufzeit großartig ist.

Das Smartphone war in etwas mehr als einer halben Stunde von vollkommen leer auf 100 Prozent aufgeladen

Wenn der Akku einmal leer ist, werden Sie nicht lange auf eine Aufladung warten müssen. Mit dem mitgelieferten 120-Watt-Netzteil war das Smartphone in etwas mehr als einer halben Stunde wieder zu 100 Prozent aufgeladen. Wenn Sie drahtloses Laden bevorzugen, können Sie auch hier beeindruckende Geschwindigkeiten erwarten. Das Poco F7 Ultra unterstützt kabelloses Laden mit bis zu 50 Watt mit dem entsprechenden Ladepad.

Software & Apps

HyperOS 2, basierend auf Android 15

Circle to Search und Gemini

Einige Bloatware vorinstalliert

Auf dem Poco F7 Ultra läuft HyperOS 2, eine stark angepasste Version von Android 15, die auf vielen Xiaomi-, Redmi- und Poco-Handys zu finden ist. Wenn Sie ein aktuelles Modell einer dieser Marken benutzt haben, werden Sie nicht allzu viele Überraschungen erleben.

Luke Baker

Beginnen wir mit den positiven Aspekten: HyperOS sieht sehr elegant aus und ist sehr schnell. Der Einfluss von iOS ist deutlich zu erkennen, insbesondere bei den Schnelleinstellungen und der Anpassung des Sperrbildschirms. Ich persönlich finde das in Ordnung, denn das Ergebnis sieht großartig aus.

Es gibt tonnenweise Anpassungsmöglichkeiten in jedem Bereich des Systems. Wenn also etwas nicht so aussieht oder sich nicht so verhält, wie Sie es sich wünschen, ist die Wahrscheinlichkeit groß, dass Sie es ändern können. Ich liebe die Freiheit, die mir das bietet, und ich schätze auch die schiere Menge an Apps, die ich auf meinem Startbildschirm platzieren kann.

Die Nachteile sind die gleichen wie immer. Bei der Ersteinrichtung des Geräts müssen Sie ein wenig Bloatware entfernen – nichts Schlimmes, aber eine Aufgabe, auf die ich gut verzichten könnte. Außerdem ist in einigen System-Apps, wie der Hintergrundbildauswahl und dem Spielcenter, Werbung eingebettet. Das schmälert das sonst so hochwertige Erlebnis.

Luke Baker

Ich habe mich gefreut, dass das Smartphone die neuesten Funktionen von Google enthält, wie die Möglichkeit, Gemini als Standard-Suchassistenten einzustellen, und Circle to Search. Diese Funktionen sind im Jahr 2025 nicht mehr ganz neu, aber sehr nützlich. Ansonsten sind die KI-Funktionen etwas spärlich, abgesehen von den bereits erwähnten Verbesserungen für Spiele.

Preis & Verfügbarkeit

Das Poco F7 Ultra wurde am 27. März 2025 weltweit eingeführt.

In Deutschland kostet das Smartphone 699,90 Euro mit 12 Gigabyte RAM und 256 Gigabyte internem Speicher. Das Modell mit 16 Gigabyte RAM und 512 Gigabyte internem Speicher wird hingegen für 749,90 Euro angeboten.

Sie können das Poco F7 Ultra direkt auf der Xiaomi Website zu diesen Preisen bestellen. Bei Amazon wird aktuell lediglich die kleinere Version mit 12 Gigabyte RAM und 256 Gigabyte Speicherplatz für 699,90 Euro angeboten.

Mit diesem Preis liegt es am oberen Ende des Marktes für Mittelklasse-Handys und muss sich mit Geräten wie dem Xiaomi 14T Pro und dem OnePlus 13R messen lassen. Und auch das Google Pixel 9 wird oft schon zu einem ähnlichen Preis angeboten.

Sollten Sie das Poco F7 Ultra kaufen?

Wenn Sie eine Leistung auf Flaggschiff-Niveau suchen, aber nur ein Budget für die obere Mittelklasse zur Verfügung haben, können Sie sich kaum eine bessere Option als das Poco F7 Ultra wünschen. Es ist ein hervorragendes Preis-Leistungs-Verhältnis und bietet ein Spiel- und Produktivitätserlebnis, das mit den besten Handys auf dem Markt mithalten kann.

Nur die Kameras sind nicht ganz auf dem Niveau anderer Flaggschiffe. Sie sind immer noch recht gut und sicherlich besser als die der meisten Gaming-Handys, können aber nicht mit Geräten wie dem Samsung Galaxy S25 Ultra oder dem Xiaomi 15 Ultra mithalten.

Ansonsten sind der Bildschirm, die Akkulaufzeit und die Ladegeschwindigkeit allesamt erstklassig. Es ist ein Vergnügen, das Smartphone zu benutzen, und solange Sie bei Ihren Fotos nicht zu wählerisch sind, werden Sie viel Freude damit haben.

Spezifikationen

HyperOS 2, basierend auf Android 15

6,67-Zoll, 1.440 × 3.200 Pixel, OLED, 120-Hertz-Display

Ultraschall-Fingerabdruckleser unter dem Display

Qualcomm Snapdragon 8 Elite

12 Gigabyte / 16 Gigabyte RAM

256 Gigabyte / 512 Gigabyte Speicher

Kameras:

50-Megapixel-Hauptsensor

50-Megapixel-2,5x-Teleobjektiv

32-Megapixel-Ultraweitwinkel

32-Megapixel-Selfie-Kamera

Bis zu 8K-Videos mit 24fps auf der Rückseite

Stereo-Lautsprecher

Dual-SIM

Wi-Fi 802.11 a/b/g/n/ac/6e/7

Bluetooth 6.0

5.300 Milliamperestunden Akku

120 Watt kabelgebundenes Laden

50 Watt kabelloses Laden

160,3 × 75 × 8,4 Millimeter

IP68 zertifiziert

212 Gramm

Farben: Gelb, Schwarz

(PC-Welt)

Poco F7 Ultra im Test: Flaggschiff-Leistung zum Mittelklasse-Preis​ Weiterlesen »

Tipps zur richtigen Ernährung: Gesund essen – auch im Job​

Allgemein

Eine gesunde Ernährung hilft, besser durch den Berufsalltag zu kommen und Konzentrationsproblemen sowie Müdigkeit am Arbeitsplatz vorzubeugen. Foto: AnikonaAnn – shutterstock.com Gesund essen im Job beginnt mit einem guten Start. Es ist natürlich verlockend, das Frühstück ausfallen zu lassen und die Zeit, die man für die Zubereitung und das Essen verwenden würde, anders zu nutzen – gerade morgens. Es zeigt sich aber, dass viele Menschen davon profitieren, wenn sie sich morgens Zeit für die erste Mahlzeit des Tages nehmen. Idealerweise besteht das Frühstück aus Obst, Vollkornprodukten, Tee und/oder Wasser. So kann der Körper den in der Nacht entstandenen Flüssigkeitsbedarf stillen und erhält ausreichend Kalorien, um leistungsfähig in den Tag zu starten. Die 10 Regeln der Deutsche Gesellschaft für Ernährung Wer im Arbeitsalltag gesund essen möchte, kann sich zum Beispiel an offiziellen Empfehlungen orientieren. Die Deutsche Gesellschaft für Ernährung e.V. (DGE) gibt auf ihrer Website viele Tipps rund um die gesunde Ernährung und damit auch zum Thema achtsam essen im Job, die man sich in einer freien Minute unbedingt einmal ansehen sollte. Die Ernährungsempfehlungen fasst sie kurz in zehn Regeln zusammen: 1. Möglichst abwechslunsgreich essen Auch wenn es verlockend klingt, sollten Sie sich nicht in jeder Mittagspause eine Breze oder ein belegtes Brötchen vom Bäcker holen. Versuchen Sie stattdessen auch in zeitlich herausfordernden Zeiten Obst und Gemüse zu essen. Das klappt, indem Sie sich zum Beispiel zuhause etwas Gesundes vorkochen, es in Einmachgläser füllen und immer mal wieder mit zur Arbeit nehmen. 2. Fünf Portionen Obst und Gemüse Die Größe der verschiedenen Portionen, die über den Tag gegessen werden sollen, hängt von dem Lebensmittel ab. Bei Gemüse darf es pro Portion gerne über 130 Gramm sein, während eine Portion Nüsse zum Beispiel nur aus 25 Gramm bestehen sollte. 3. Auf Vollkornprodukte setzen Statt Weißbrot oder weißen Reis zu kaufen, kann im Supermarkt einfach zur Vollkornvariante gegriffen werden. So stellen Sie die Weichen, im Job gesund zu essen, denn Vollkornprodukte enthalten mehr Ballaststoffe und sättigen länger. 4. Tierische Produkte einschränken Wann immer es geht, sollten Sie auf Fleisch verzichten. Besonders rotes Fleisch scheint das Risiko für bestimmte Krebserkrankungen zu erhöhen. Eine Alternative zu Fleischprodukten können zum Beispiel Hülsenfrüchte sein, die ebenfalls viel Eiweiß enthalten. 5. Pflanzliche Öle verwenden Pflanzliche Öle und Fette enthalten mehr ungesättigte Fettsäuren als tierische Produkte. Wenn Sie die Wahl haben und nicht nur im Job gesund essen wollen, entscheiden Sie sich daher lieber für Raps-, Wallnuss- oder Leinöl und Margarine statt für Butter und Schweineschmalz. 6. Gesunde Getränke wählen Softdrinks und andere zuckerhaltige Getränke sind nicht nur schlecht für die Zähne, sie bringen auch unseren Stoffwechsel aus dem Gleichgewicht. Greifen Sie daher lieber zu Wasser oder ungesüßten Tees. 7. Möglichst wenig Zucker und Salz Statt mit Salz zu würzen, können Speisen auch mit Kräutern oder anderen Gewürzen verfeinert werden. Und wer ohnehin vorkocht, wird feststellen, dass Gerichte auch ohne viel Salz und Zucker gut schmecken, wenn sie über Nacht durchziehen können. 8. Auf die Zubereitung achten Gemüse behält besonders viele seiner Vitamine und Mineralstoffe, wenn es schonend gegart und nicht frittiert wird – auch wenn letztere Variante vielleicht besser schmeckt. Wer im Job gesund essen möchte, sollte Lebensmittel daher so kurz wie möglich garen. 9. Zeit nehmen Gerade im Arbeitsalltag fällt es schwer, sein Essen bewusst zu genießen. Wenn es im Job hoch hergeht, verlagern viele die Mittagspause an den Schreibtisch und essen eher unbedacht nebenbei, während E-Mails beantwortet oder die neuesten Zahlen in die Präsentation eingefügt werden. Gesund ist das nicht – und von einer echten Pause kann dabei auch nicht die Rede sein. Versuchen Sie daher unbedingt, zumindest für ein paar Minuten die Augen vom Bildschirm zu lassen und sich auf ihr Essen zu konzentrieren. Untersuchungen zeigen übrigens, dass wir deutlich mehr essen, wenn wir uns Zeit lassen und uns auf unser Essen konzertieren. Das Sättigungsgefühl tritt nämlich häufig erst nach 15 bis 20 Minuten ein. Wer sein Essen am Bildschirm herunterschlingt, hat in der Zeitspanne davor schon mehr gegessen, als er müsste, um satt zu sein. 10. Bewegung integrieren Wer gesund bleiben möchte, darf sich nicht nur auf die Auswahl der richtigen Nahrungsmittel konzentrieren. Auch Bewegung gehört unbedingt dazu. Das ist vor allem in Bürojobs, bei denen man viele Stunden häufig sogar in der gleichen Position sitzt, umso wichtiger. Versuchen Sie daher in ihrer Mittagspause nicht nur gesund zu essen, sondern auch ein paar Minuten für einen kurzen Spaziergang freizuschaufeln. Das kann übrigens auch die Konzentration und Leistungsfähigkeit im Job fördern. Gesund essen im Job: Auch das Trinken nicht vergessen Zu einer ausgewogenen Ernährung gehört auch dazu, dass Sie ausreichend trinken. Gerade in sehr stressigen Zeiten im Berufsalltag wird das gerne vergessen. Ernährungswissenschaftler empfehlen, pro Tag mindestens 1,5 Liter Flüssigkeit zu sich zu nehmen. Denn Flüssigkeitsmangel hat auch Auswirkungen auf den Job. Es zeigt sich, dass Konzentrationsprobleme und Müdigkeit die Folge sein können – das möchte man im Beruf natürlich vermeiden. Übrigens sollte der Flüssigkeitsbedarf nicht ausschließlich durch Kaffee gedeckt werden. Das Getränk wird zwar mittlerweile mit in die Flüssigkeitsbilanz eingerechnet, trotzdem sollte man, wo es geht, auf Alternativen ausweichen. Wenn Sie Probleme damit haben sollten, ausreichend zu trinken, probieren Sie doch einmal Folgendes aus: Immer Wasserflasche dabeihaben: Gerade wer morgens länger pendeln muss. Gefülltes Glas Wasser oder Tasse Tee neben dem Schreibtisch: Wenn das Getränk wortwörtlich in greifbarer Nähe ist, greift man eher zu und trinkt so über den Tag gesehen mehr. Vor jeder Mahlzeit ein großes Glas Wasser trinken: Das ist übrigens auch gut für die Figur, denn das Wasser füllt bereits ein wenig den Magen und sorgt so dafür, dass wir nicht zu viel essen. Wer kein Wasser mag, kann auf ungesüßte Kräuter- oder Früchtetees zurückgreifen oder einen Schuss Fruchtsaft in das Wasser geben (Verhältnis 1:3). Auf Softdrinks oder Getränke mit Süßstoffen sollten Sie jedoch verzichten. (pg) 

Tipps zur richtigen Ernährung: Gesund essen – auch im Job​ Eine gesunde Ernährung hilft, besser durch den Berufsalltag zu kommen und Konzentrationsproblemen sowie Müdigkeit am Arbeitsplatz vorzubeugen.
Foto: AnikonaAnn – shutterstock.com

Gesund essen im Job beginnt mit einem guten Start. Es ist natürlich verlockend, das Frühstück ausfallen zu lassen und die Zeit, die man für die Zubereitung und das Essen verwenden würde, anders zu nutzen – gerade morgens. Es zeigt sich aber, dass viele Menschen davon profitieren, wenn sie sich morgens Zeit für die erste Mahlzeit des Tages nehmen.

Idealerweise besteht das Frühstück aus Obst, Vollkornprodukten, Tee und/oder Wasser. So kann der Körper den in der Nacht entstandenen Flüssigkeitsbedarf stillen und erhält ausreichend Kalorien, um leistungsfähig in den Tag zu starten.

Die 10 Regeln der Deutsche Gesellschaft für Ernährung

Wer im Arbeitsalltag gesund essen möchte, kann sich zum Beispiel an offiziellen Empfehlungen orientieren. Die Deutsche Gesellschaft für Ernährung e.V. (DGE) gibt auf ihrer Website viele Tipps rund um die gesunde Ernährung und damit auch zum Thema achtsam essen im Job, die man sich in einer freien Minute unbedingt einmal ansehen sollte. Die Ernährungsempfehlungen fasst sie kurz in zehn Regeln zusammen:

1. Möglichst abwechslunsgreich essen

Auch wenn es verlockend klingt, sollten Sie sich nicht in jeder Mittagspause eine Breze oder ein belegtes Brötchen vom Bäcker holen. Versuchen Sie stattdessen auch in zeitlich herausfordernden Zeiten Obst und Gemüse zu essen. Das klappt, indem Sie sich zum Beispiel zuhause etwas Gesundes vorkochen, es in Einmachgläser füllen und immer mal wieder mit zur Arbeit nehmen.

2. Fünf Portionen Obst und Gemüse

Die Größe der verschiedenen Portionen, die über den Tag gegessen werden sollen, hängt von dem Lebensmittel ab. Bei Gemüse darf es pro Portion gerne über 130 Gramm sein, während eine Portion Nüsse zum Beispiel nur aus 25 Gramm bestehen sollte.

3. Auf Vollkornprodukte setzen

Statt Weißbrot oder weißen Reis zu kaufen, kann im Supermarkt einfach zur Vollkornvariante gegriffen werden. So stellen Sie die Weichen, im Job gesund zu essen, denn Vollkornprodukte enthalten mehr Ballaststoffe und sättigen länger.

4. Tierische Produkte einschränken

Wann immer es geht, sollten Sie auf Fleisch verzichten. Besonders rotes Fleisch scheint das Risiko für bestimmte Krebserkrankungen zu erhöhen. Eine Alternative zu Fleischprodukten können zum Beispiel Hülsenfrüchte sein, die ebenfalls viel Eiweiß enthalten.

5. Pflanzliche Öle verwenden

Pflanzliche Öle und Fette enthalten mehr ungesättigte Fettsäuren als tierische Produkte. Wenn Sie die Wahl haben und nicht nur im Job gesund essen wollen, entscheiden Sie sich daher lieber für Raps-, Wallnuss- oder Leinöl und Margarine statt für Butter und Schweineschmalz.

6. Gesunde Getränke wählen

Softdrinks und andere zuckerhaltige Getränke sind nicht nur schlecht für die Zähne, sie bringen auch unseren Stoffwechsel aus dem Gleichgewicht. Greifen Sie daher lieber zu Wasser oder ungesüßten Tees.

7. Möglichst wenig Zucker und Salz

Statt mit Salz zu würzen, können Speisen auch mit Kräutern oder anderen Gewürzen verfeinert werden. Und wer ohnehin vorkocht, wird feststellen, dass Gerichte auch ohne viel Salz und Zucker gut schmecken, wenn sie über Nacht durchziehen können.

8. Auf die Zubereitung achten

Gemüse behält besonders viele seiner Vitamine und Mineralstoffe, wenn es schonend gegart und nicht frittiert wird – auch wenn letztere Variante vielleicht besser schmeckt. Wer im Job gesund essen möchte, sollte Lebensmittel daher so kurz wie möglich garen.

9. Zeit nehmen

Gerade im Arbeitsalltag fällt es schwer, sein Essen bewusst zu genießen. Wenn es im Job hoch hergeht, verlagern viele die Mittagspause an den Schreibtisch und essen eher unbedacht nebenbei, während E-Mails beantwortet oder die neuesten Zahlen in die Präsentation eingefügt werden. Gesund ist das nicht – und von einer echten Pause kann dabei auch nicht die Rede sein. Versuchen Sie daher unbedingt, zumindest für ein paar Minuten die Augen vom Bildschirm zu lassen und sich auf ihr Essen zu konzentrieren. Untersuchungen zeigen übrigens, dass wir deutlich mehr essen, wenn wir uns Zeit lassen und uns auf unser Essen konzertieren. Das Sättigungsgefühl tritt nämlich häufig erst nach 15 bis 20 Minuten ein. Wer sein Essen am Bildschirm herunterschlingt, hat in der Zeitspanne davor schon mehr gegessen, als er müsste, um satt zu sein.

10. Bewegung integrieren

Wer gesund bleiben möchte, darf sich nicht nur auf die Auswahl der richtigen Nahrungsmittel konzentrieren. Auch Bewegung gehört unbedingt dazu. Das ist vor allem in Bürojobs, bei denen man viele Stunden häufig sogar in der gleichen Position sitzt, umso wichtiger. Versuchen Sie daher in ihrer Mittagspause nicht nur gesund zu essen, sondern auch ein paar Minuten für einen kurzen Spaziergang freizuschaufeln. Das kann übrigens auch die Konzentration und Leistungsfähigkeit im Job fördern.

Gesund essen im Job: Auch das Trinken nicht vergessen Zu einer ausgewogenen Ernährung gehört auch dazu, dass Sie ausreichend trinken. Gerade in sehr stressigen Zeiten im Berufsalltag wird das gerne vergessen. Ernährungswissenschaftler empfehlen, pro Tag mindestens 1,5 Liter Flüssigkeit zu sich zu nehmen. Denn Flüssigkeitsmangel hat auch Auswirkungen auf den Job. Es zeigt sich, dass Konzentrationsprobleme und Müdigkeit die Folge sein können – das möchte man im Beruf natürlich vermeiden. Übrigens sollte der Flüssigkeitsbedarf nicht ausschließlich durch Kaffee gedeckt werden. Das Getränk wird zwar mittlerweile mit in die Flüssigkeitsbilanz eingerechnet, trotzdem sollte man, wo es geht, auf Alternativen ausweichen. Wenn Sie Probleme damit haben sollten, ausreichend zu trinken, probieren Sie doch einmal Folgendes aus: Immer Wasserflasche dabeihaben: Gerade wer morgens länger pendeln muss. Gefülltes Glas Wasser oder Tasse Tee neben dem Schreibtisch: Wenn das Getränk wortwörtlich in greifbarer Nähe ist, greift man eher zu und trinkt so über den Tag gesehen mehr. Vor jeder Mahlzeit ein großes Glas Wasser trinken: Das ist übrigens auch gut für die Figur, denn das Wasser füllt bereits ein wenig den Magen und sorgt so dafür, dass wir nicht zu viel essen. Wer kein Wasser mag, kann auf ungesüßte Kräuter- oder Früchtetees zurückgreifen oder einen Schuss Fruchtsaft in das Wasser geben (Verhältnis 1:3). Auf Softdrinks oder Getränke mit Süßstoffen sollten Sie jedoch verzichten. (pg)

Tipps zur richtigen Ernährung: Gesund essen – auch im Job​ Weiterlesen »

Was ist ein Proof of Concept?​

Allgemein

Ein Proof of Concept schafft Einblicke in die Machbarkeit und Erfolgschancen eines Projekts. Foto: Kunal Mehta – shutterstock.comVeränderungsprojekte auf der grünen Wiese zu praktizieren, mag durchaus seinen Reiz haben. Wer auf Nummer sicher gehen möchte, sollte allerdings eine Machbarkeitsstudie bevorzugen. Das Schlüsselwort heißt Proof of Concept.Proof of Concept – DefinitionEin Proof of Concept (PoC) ist eine Testphase, die einem möglichen Veränderungsprozess vorangestellt wird. Dabei kann es sich bei der Veränderung um ein klassisches IT-Projekt, eine Prozessänderung oder gar eine organisatorische Maßnahme handeln.Ein PoC soll Aufschluss über die Machbarkeit der Veränderung geben. Gleichzeitig werden Auswirkungen verprobt, die eine belastbare Planung zulassen. Dies umfasst u.a. Kosten, Dauer und Umfang eines möglichen Projektes. Zudem soll ein PoC auch erste Indikatoren liefern, welche Benefits mit der geplanten Veränderung erzielt werden können und welche Risiken zu beachten sind.So lässt sich am Ende eines Proof of Concepts auch eine Entscheidungsvorlage herleiten. Der PoC ist also neben der eigentlichen Projektidee und dem Projektantrag ein weiterer gewichtiger Baustein im Vorfeld eines Veränderungsprozesses. Die Ergebnisse des PoC entscheiden maßgeblich darüber, ob eine Maßnahme durchgeführt wird oder nicht. PoC – EinsatzzweckeDie Einsatzmöglichkeiten eines Proof of Concept sind sehr unterschiedlich. Auf der einen Seite dient diese Herangehensweise um Machbarkeiten bzw. im umgekehrten Fall den sogenannten “Fast Fails” zu verproben. Bevor in einem anstehenden Projekt auf eine neue Technologie gesetzt wird, können Funktionen und Features in einem PoC eingehend geprüft werden. Modifizierte Geschäftsprozesse oder abgeänderte Abläufe können in einem PoC simuliert und die zu erwartenden Ergebnisse vorhergesagt werden. Somit dient der Proof of Concept als gewichtiger Für- und Wider-Gradmesser, die geplanten Veränderungen tatsächlich vorzunehmen.Immer häufiger sehen IT-Verantwortliche sich den Anforderungen aus dem Business gegenüber, zu neuen Technologien, wie Blockchain, Stellung zu beziehen. Oder aber eine über Jahre gewachsene SAP-Landschaft soll in Teilen durch neue und wenig erprobte Plattformen bisher unbekannter Cloud-Anbieter ersetzt werden. Diese Fragestellungen können nicht ad-hog oder ohne eingehende Prüfung beantwortet werden.Desweiteren können modifizierte Geschäftsprozesse oder abgeänderte Abläufe in einem PoC simuliert und die zu erwartenden Ergebnisse vorhergesagt werden. Somit dient der Proof of Concept als wichtiger Für- und Wider-Gradmesser, die geplanten Veränderungen tatsächlich vorzunehmen.Auf der anderen Seite kann der Proof of Concept auch ein bedeutendes Planungsinstrument im Vorfeld eines Projektes sein. Die Ergebnisse geben nicht nur Aufschluss darüber, ob eine Projektmaßnahme technisch und funktional sinnstiftend ist. Es lassen sich für die Projektrahmendaten belastbare Daten gewinnen, welche Aufwände (Zeit, Einsatz, Material) und mit welcher Dauer geplant werden sollten. Daher ist der PoC auch ein finaler Meilenstein, der auf Basis dieser Ergebnisse und der darauf fußenden Schätzungen eine Zustimmung oder auch Ablehnung für das avisierte Projektengagement zulässt.Proof of Concept – Aufbau und AblaufEin Proof of Concept ist im Grunde nichts anderes als ein für sich stehendes Projekt. Bezugnehmend zum Zweck und zur Intention des Proof of Concept, kann dieses Projekt eine sehr kurze oder auch beliebig lange Dauer haben. Im Vorfeld des PoC sollte ausreichend Zeit in das Erwartungsmanagement investiert werden:Was sind die Ziele dieses Versuchsballons?Welche Ressourcen werden für die Durchführung benötigt?Wieviel Zeit wird veranschlagt?Was ist eine sinnvolle Vorgehensweise für den anstehenden PoC (Wasserfall, agil o.a.)?Je nach Umfang und Kontext des Miniprojektes, sollte ein Kurzkonzept formuliert werden, in diesem die Ausgangssituation skizziert und die oben beschriebenen Fragen beantwortet werden. So kann dieser Business Blueprint auch als Leitfaden für die Durchführung genutzt werden und anschließend den Rahmen für die Ergebnisse und aufbauende Entscheidungsvorlage liefern.Der tatsächliche Proof of Concept kann von Fall zu Fall ein sehr unterschiedliches Augenmerk haben:Dient diese Evaluierungsphase einer Art “Beauty Contest”, in dem verschiedene Werkzeuge gegenübergestellt werden, so wird jede Lösung gegen den gleichen Use Case verprobt. Im Nachgang können dann die erhobene Werte in Bereichen wie Performance, Usability oder Kosten verglichen und einer Bewertungsmatrix unterzogen werden.Soll demgegenüber nur eine ausgewählte Lösung genauer begutachtet werden, so werden mehrere repräsentative Use Cases auf dieser Plattform simuliert.Oder aber es liegt der Fokus auf der Modifikation bisheriger Prozesse und Geschäftsmodellen. Dann werden die etablierten Plattformen und Werkzeuge in einer Testumgebung herangezogen und die abgeänderten Prozesse und deren Auswirkungen analysiert.In jedem Fall ist es ratsam, ein klares Verständnis davon zu haben, welche Bausteine im Gesamtgewerk fix und damit unverändert bleiben und welche Komponenten neu sind oder verändert wurden. Nur so lässt sich eine belastbare Analyse und spätere Bewertung dieser isolierten Fragestellungen vornehmen. Die Durchführung kann nach klassischer Wasserfallmethodik erfolgen oder auch in mehreren Wellen durchgeführt werden. Dies hängt maßgeblich vom Kontext ab und richtet sich ein stückweit auch nach den verfügbaren Ressourcen oder auch den zu erwartenden Ergebnissen. In jedem Fall findet zum Ende eines jeden Proof of Concepts eine intensive Auseinandersetzung mit den Erkenntnissen dieser Übung statt, in der folgende Fragen beantwortet werden sollten:Wurden die Erwartungen erfüllt?Gab es überraschende Ergebnisse?Was ist die Konsequenz?Nicht selten mündet ein PoC in eine Entscheidungsvorlage, die dann einem Steering Committee vorgelegt wird. Dieses Gremium entscheidet auf Basis dieser Empfehlung, ob eine Projektinitiative durchgeführt wird oder nicht. Somit dienen ein PoC und seine Ergebnisse auch als internes Testat.PoC – SoftlabsDer digitale Wandel und die immer rasantere Entwicklung der technischen Möglichkeiten, zwingt Unternehmen dazu neue Wege einzuschlagen. Um mit dem Trend am Markt mithalten zu können und wenn möglich sogar Wettbewerbsvorteile zu erschließen, wird dem Early Adopter eine mehr und mehr besondere Bedeutung zuteil.Es ist ein permanenter Spagat, ob ein Unternehmen frühzeitig auf neue technische Optionen setzen sollte oder nicht. Den zusätzlichen Funktionen und Features, die beispielsweise Vorteile in punkto Performance oder Analysetiefe bieten, stehen etwaige “Kinderkrankheiten” gegenüber, die ein Werkzeug in der Beta-Phase noch mit sich bringt. Wartet man hingegen, bis sich eine neue Software oder ein neues Release etabliert hat, kann der Wettbewerb bereits die berühmte Nasenlänge voraus sein.Je IT- und datengetriebener ein Unternehmen aufgestellt ist, desto häufiger findet man Organisationseinheiten, wie Softlabs, wieder. Diese Abteilungen haben es sich zur Hauptaufgabe gemacht, permanent neue Lösungen zu identifizieren und diese auf einen möglichen, frühzeitigen Einsatz im Unternehmen zu prüfen. Sozusagen: der institutionalisierte Proof of Concept.Ein Softlab kann sowohl als reinrassige Gruppe in der hauseigenen IT aufgehängt sein, als auch als hybrides Konglomerat auftreten, das wie ein Competence Center bestehend aus IT- und Fachkompetenzen fungiert. Fachbereichsentsandte können dauerhaftes Mitglied im Softlab sein oder aber temporär für jeweils ausgewählte Projektinitiativen mitarbeiten.Lesetipp: So bringen Sie IT und Fachabteilung unter einen HutDie Linienfunktionen können über ihre Fachbereichsentsandten Anforderungen an das Softlab adressieren, welche neuen Lösungen und Features demnächst einer Prüfung unterzogen werden sollen. Die Erkenntnisse aus diesem Proof of Concept dienen dann für eine mögliche Projektinitiative und bedienen Planung und Organisation. Sollten negative Schlussfolgerungen aus diesem Versuch gezogen werden, so diente diese Übung mindestens als Quality Gate.Das Softlab selbst kann natürlich auch Marktrecherche betreiben und setzt sich mit neuen Softwarelösungen oder Releases proaktiv auseinander, um gegenüber dem Business die Rolle des Innovationstreibers zu besetzen. Bisher unbekannte Komponenten werden gegen einen intern bekannten Prüfkatalog in Form von ausgewählten Use Cases gefahren und auf ihren weiteren Einsatz getestet. Anschließend wird im positiven Fall den angeschlossenen Fachbereichen ein Angebot gemacht und gemeinsam eine Projektinitiative beantragt.Proof of Concept – Mittel zum ErfolgDer technische Fortschritt gewinnt immer mehr an Tempo. Neue Anbieter finden ihren Weg auf bekannte Märkte und gewohnte Player verschwinden oder werden von größeren Herstellern geschluckt. Für die Anwenderunternehmen wird es zur permanenten Herausforderung den Überblick zu behalten und hier die Frage zu beantworten” “What’s in for me?”.Unternehmen, die hier die richtige Balance finden und rechtzeitig auf neue Werkzeuge setzen und gleichzeitig weniger gewinnbringende Lösungen aussieben, werden ihre Marktposition auf Dauer behaupten können oder sich sogar Wettbewerbsvorteile erschließen können. Entweder begegnet man dieser Situation mit regelmäßigen Projektinitiativen, die in Form von Machbarkeitsstudien die gewünschten Erkenntnisse liefern. Oder aber man etabliert mit Softlabs dedizierte Organisationseinheiten, die genau diese Analysen zur Aufgabe haben. So oder so werden Proof of Concepts immer häufiger zum Mittel der Wahl, um die richtigen Projekte zu initiieren und den Unternehmenserfolg zu gewährleisten. Forschung und Entwicklung (F&E) ist also nicht mehr nur eine Domäne der Labore in der chemischen Industrie, sondern auch ein Vorgehensmodell für die IT in mehr oder weniger allen Industriezweigen.15 Probleme beim Projektmanagement1. Unklare Arbeitslast Foto: Palto – shutterstock.comBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte Erwartungen Foto: Tigger11th – shutterstock.comAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-Unterstützung Foto: marvent – shutterstock.comDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema F Foto: ra2studio – shutterstock.comIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter Foto: Ollyy – shutterstock.com„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes Herrschaftswissen Foto: Herrndorff – shutterstock.comProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare Entscheidungsfindung Foto: wavebreakmedia – shutterstock.comIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende Software Foto: Suthisa – shutterstock.comExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des Ausuferns Foto: Lightspring – shutterstock.comChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen können Foto: wavebreakmedia – shutterstock.comIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder Zusammenhalt Foto: Annette Shaff – shutterstock.comProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener Arbeitsalltag Foto: g-stockstudio – shutterstock.comHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige Meetings Foto: Monkey Business Images – shutterstock.comMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gut Foto: ramcreations – shutterstock.comSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernen Foto: bikeriderlondon – shutterstock.comLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim Projektmanagement Foto: Jaco van Rensburg – shutterstock.comEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden. 

Was ist ein Proof of Concept?​ Ein Proof of Concept schafft Einblicke in die Machbarkeit und Erfolgschancen eines Projekts.
Foto: Kunal Mehta – shutterstock.comVeränderungsprojekte auf der grünen Wiese zu praktizieren, mag durchaus seinen Reiz haben. Wer auf Nummer sicher gehen möchte, sollte allerdings eine Machbarkeitsstudie bevorzugen. Das Schlüsselwort heißt Proof of Concept.Proof of Concept – DefinitionEin Proof of Concept (PoC) ist eine Testphase, die einem möglichen Veränderungsprozess vorangestellt wird. Dabei kann es sich bei der Veränderung um ein klassisches IT-Projekt, eine Prozessänderung oder gar eine organisatorische Maßnahme handeln.Ein PoC soll Aufschluss über die Machbarkeit der Veränderung geben. Gleichzeitig werden Auswirkungen verprobt, die eine belastbare Planung zulassen. Dies umfasst u.a. Kosten, Dauer und Umfang eines möglichen Projektes. Zudem soll ein PoC auch erste Indikatoren liefern, welche Benefits mit der geplanten Veränderung erzielt werden können und welche Risiken zu beachten sind.So lässt sich am Ende eines Proof of Concepts auch eine Entscheidungsvorlage herleiten. Der PoC ist also neben der eigentlichen Projektidee und dem Projektantrag ein weiterer gewichtiger Baustein im Vorfeld eines Veränderungsprozesses. Die Ergebnisse des PoC entscheiden maßgeblich darüber, ob eine Maßnahme durchgeführt wird oder nicht.

PoC – EinsatzzweckeDie Einsatzmöglichkeiten eines Proof of Concept sind sehr unterschiedlich. Auf der einen Seite dient diese Herangehensweise um Machbarkeiten bzw. im umgekehrten Fall den sogenannten “Fast Fails” zu verproben. Bevor in einem anstehenden Projekt auf eine neue Technologie gesetzt wird, können Funktionen und Features in einem PoC eingehend geprüft werden. Modifizierte Geschäftsprozesse oder abgeänderte Abläufe können in einem PoC simuliert und die zu erwartenden Ergebnisse vorhergesagt werden. Somit dient der Proof of Concept als gewichtiger Für- und Wider-Gradmesser, die geplanten Veränderungen tatsächlich vorzunehmen.Immer häufiger sehen IT-Verantwortliche sich den Anforderungen aus dem Business gegenüber, zu neuen Technologien, wie Blockchain, Stellung zu beziehen. Oder aber eine über Jahre gewachsene SAP-Landschaft soll in Teilen durch neue und wenig erprobte Plattformen bisher unbekannter Cloud-Anbieter ersetzt werden. Diese Fragestellungen können nicht ad-hog oder ohne eingehende Prüfung beantwortet werden.Desweiteren können modifizierte Geschäftsprozesse oder abgeänderte Abläufe in einem PoC simuliert und die zu erwartenden Ergebnisse vorhergesagt werden. Somit dient der Proof of Concept als wichtiger Für- und Wider-Gradmesser, die geplanten Veränderungen tatsächlich vorzunehmen.Auf der anderen Seite kann der Proof of Concept auch ein bedeutendes Planungsinstrument im Vorfeld eines Projektes sein. Die Ergebnisse geben nicht nur Aufschluss darüber, ob eine Projektmaßnahme technisch und funktional sinnstiftend ist. Es lassen sich für die Projektrahmendaten belastbare Daten gewinnen, welche Aufwände (Zeit, Einsatz, Material) und mit welcher Dauer geplant werden sollten. Daher ist der PoC auch ein finaler Meilenstein, der auf Basis dieser Ergebnisse und der darauf fußenden Schätzungen eine Zustimmung oder auch Ablehnung für das avisierte Projektengagement zulässt.Proof of Concept – Aufbau und AblaufEin Proof of Concept ist im Grunde nichts anderes als ein für sich stehendes Projekt. Bezugnehmend zum Zweck und zur Intention des Proof of Concept, kann dieses Projekt eine sehr kurze oder auch beliebig lange Dauer haben. Im Vorfeld des PoC sollte ausreichend Zeit in das Erwartungsmanagement investiert werden:Was sind die Ziele dieses Versuchsballons?Welche Ressourcen werden für die Durchführung benötigt?Wieviel Zeit wird veranschlagt?Was ist eine sinnvolle Vorgehensweise für den anstehenden PoC (Wasserfall, agil o.a.)?Je nach Umfang und Kontext des Miniprojektes, sollte ein Kurzkonzept formuliert werden, in diesem die Ausgangssituation skizziert und die oben beschriebenen Fragen beantwortet werden. So kann dieser Business Blueprint auch als Leitfaden für die Durchführung genutzt werden und anschließend den Rahmen für die Ergebnisse und aufbauende Entscheidungsvorlage liefern.Der tatsächliche Proof of Concept kann von Fall zu Fall ein sehr unterschiedliches Augenmerk haben:Dient diese Evaluierungsphase einer Art “Beauty Contest”, in dem verschiedene Werkzeuge gegenübergestellt werden, so wird jede Lösung gegen den gleichen Use Case verprobt. Im Nachgang können dann die erhobene Werte in Bereichen wie Performance, Usability oder Kosten verglichen und einer Bewertungsmatrix unterzogen werden.Soll demgegenüber nur eine ausgewählte Lösung genauer begutachtet werden, so werden mehrere repräsentative Use Cases auf dieser Plattform simuliert.Oder aber es liegt der Fokus auf der Modifikation bisheriger Prozesse und Geschäftsmodellen. Dann werden die etablierten Plattformen und Werkzeuge in einer Testumgebung herangezogen und die abgeänderten Prozesse und deren Auswirkungen analysiert.In jedem Fall ist es ratsam, ein klares Verständnis davon zu haben, welche Bausteine im Gesamtgewerk fix und damit unverändert bleiben und welche Komponenten neu sind oder verändert wurden. Nur so lässt sich eine belastbare Analyse und spätere Bewertung dieser isolierten Fragestellungen vornehmen. Die Durchführung kann nach klassischer Wasserfallmethodik erfolgen oder auch in mehreren Wellen durchgeführt werden. Dies hängt maßgeblich vom Kontext ab und richtet sich ein stückweit auch nach den verfügbaren Ressourcen oder auch den zu erwartenden Ergebnissen. In jedem Fall findet zum Ende eines jeden Proof of Concepts eine intensive Auseinandersetzung mit den Erkenntnissen dieser Übung statt, in der folgende Fragen beantwortet werden sollten:Wurden die Erwartungen erfüllt?Gab es überraschende Ergebnisse?Was ist die Konsequenz?Nicht selten mündet ein PoC in eine Entscheidungsvorlage, die dann einem Steering Committee vorgelegt wird. Dieses Gremium entscheidet auf Basis dieser Empfehlung, ob eine Projektinitiative durchgeführt wird oder nicht. Somit dienen ein PoC und seine Ergebnisse auch als internes Testat.PoC – SoftlabsDer digitale Wandel und die immer rasantere Entwicklung der technischen Möglichkeiten, zwingt Unternehmen dazu neue Wege einzuschlagen. Um mit dem Trend am Markt mithalten zu können und wenn möglich sogar Wettbewerbsvorteile zu erschließen, wird dem Early Adopter eine mehr und mehr besondere Bedeutung zuteil.Es ist ein permanenter Spagat, ob ein Unternehmen frühzeitig auf neue technische Optionen setzen sollte oder nicht. Den zusätzlichen Funktionen und Features, die beispielsweise Vorteile in punkto Performance oder Analysetiefe bieten, stehen etwaige “Kinderkrankheiten” gegenüber, die ein Werkzeug in der Beta-Phase noch mit sich bringt. Wartet man hingegen, bis sich eine neue Software oder ein neues Release etabliert hat, kann der Wettbewerb bereits die berühmte Nasenlänge voraus sein.Je IT- und datengetriebener ein Unternehmen aufgestellt ist, desto häufiger findet man Organisationseinheiten, wie Softlabs, wieder. Diese Abteilungen haben es sich zur Hauptaufgabe gemacht, permanent neue Lösungen zu identifizieren und diese auf einen möglichen, frühzeitigen Einsatz im Unternehmen zu prüfen. Sozusagen: der institutionalisierte Proof of Concept.Ein Softlab kann sowohl als reinrassige Gruppe in der hauseigenen IT aufgehängt sein, als auch als hybrides Konglomerat auftreten, das wie ein Competence Center bestehend aus IT- und Fachkompetenzen fungiert. Fachbereichsentsandte können dauerhaftes Mitglied im Softlab sein oder aber temporär für jeweils ausgewählte Projektinitiativen mitarbeiten.Lesetipp: So bringen Sie IT und Fachabteilung unter einen HutDie Linienfunktionen können über ihre Fachbereichsentsandten Anforderungen an das Softlab adressieren, welche neuen Lösungen und Features demnächst einer Prüfung unterzogen werden sollen. Die Erkenntnisse aus diesem Proof of Concept dienen dann für eine mögliche Projektinitiative und bedienen Planung und Organisation. Sollten negative Schlussfolgerungen aus diesem Versuch gezogen werden, so diente diese Übung mindestens als Quality Gate.Das Softlab selbst kann natürlich auch Marktrecherche betreiben und setzt sich mit neuen Softwarelösungen oder Releases proaktiv auseinander, um gegenüber dem Business die Rolle des Innovationstreibers zu besetzen. Bisher unbekannte Komponenten werden gegen einen intern bekannten Prüfkatalog in Form von ausgewählten Use Cases gefahren und auf ihren weiteren Einsatz getestet. Anschließend wird im positiven Fall den angeschlossenen Fachbereichen ein Angebot gemacht und gemeinsam eine Projektinitiative beantragt.Proof of Concept – Mittel zum ErfolgDer technische Fortschritt gewinnt immer mehr an Tempo. Neue Anbieter finden ihren Weg auf bekannte Märkte und gewohnte Player verschwinden oder werden von größeren Herstellern geschluckt. Für die Anwenderunternehmen wird es zur permanenten Herausforderung den Überblick zu behalten und hier die Frage zu beantworten” “What’s in for me?”.Unternehmen, die hier die richtige Balance finden und rechtzeitig auf neue Werkzeuge setzen und gleichzeitig weniger gewinnbringende Lösungen aussieben, werden ihre Marktposition auf Dauer behaupten können oder sich sogar Wettbewerbsvorteile erschließen können. Entweder begegnet man dieser Situation mit regelmäßigen Projektinitiativen, die in Form von Machbarkeitsstudien die gewünschten Erkenntnisse liefern. Oder aber man etabliert mit Softlabs dedizierte Organisationseinheiten, die genau diese Analysen zur Aufgabe haben. So oder so werden Proof of Concepts immer häufiger zum Mittel der Wahl, um die richtigen Projekte zu initiieren und den Unternehmenserfolg zu gewährleisten. Forschung und Entwicklung (F&E) ist also nicht mehr nur eine Domäne der Labore in der chemischen Industrie, sondern auch ein Vorgehensmodell für die IT in mehr oder weniger allen Industriezweigen.15 Probleme beim Projektmanagement1. Unklare Arbeitslast
Foto: Palto – shutterstock.comBryan Fagman vom Anbieter Micro Focus sagt, dass viele Projekte an einem nicht klar umrissenen Arbeitsaufwand scheitern. Schleichen sich hier Unschärfen ein, leidet das ganze Projekt. Im schlimmsten Fall bleibt undefiniert, wann es überhaupt abgeschlossen ist. Fagman mahnt deshalb an, Ziele im Dialog mit den Kunden klar zu benennen.2. Undefinierte Erwartungen
Foto: Tigger11th – shutterstock.comAlle Beteiligten müssen von Beginn an wissen, welche Anforderungen ein Projekt stellt und welche Erwartungen zu erfüllen sind – sonst droht ein Fiasko. Tim Garcia, CEO des Providers Apptricity, nennt zwei entscheidende Dinge, die alle Team-Mitglieder vorab wissen sollten: was getan wird und wie man weiß, wann das Projekt abgeschlossen ist. „Ohne eine dokumentierte Vereinbarung, die Antworten auf diese beiden Fragen liefert, ist ein Projekt von Anfang an in Gefahr“, sagt Garcia.3. Fehlende Management-Unterstützung
Foto: marvent – shutterstock.comDie Unterstützung aus der Firmenspitze sollte unbedingt gesichert sein. Befindet man sich dahingehend mit der Chef-Etage nicht in Einklang, mindert das die Erfolgsaussichten beträchtlich, meint Brad Clark vom Provider Daptiv.4. Methodik nach Schema F
Foto: ra2studio – shutterstock.comIm Projekt-Management wird gemeinhin mit standardisierten Schlüsselaufgaben und Leistungen gearbeitet. Darin lauert nach Einschätzung von Robert Longley, Consultant beim Beratungshaus Intuaction, aber auch eine Gefahr. Die Standard-Ansätze seien meist auf Projekte einer bestimmten Größe ausgerichtet. Sie passen möglicherweise nicht mehr, wenn man sich an größere Projekte als in der Vergangenheit wagt.5. Überlastete Mitarbeiter
Foto: Ollyy – shutterstock.com„Team-Mitglieder sind keine Maschinen“, sagt Dan Schoenbaum, CEO der Projekt-Management-Firma Teambox. Projekte können auch daran scheitern, dass Mitarbeiter mit Arbeit überfrachtet werden. Vermeiden lässt sich das, indem man sich vorab ein klares Bild über die Stärken der Team-Mitglieder macht und auf eine sinnvolle Verteilung der Aufgaben achtet.6. Ungeteiltes Herrschaftswissen
Foto: Herrndorff – shutterstock.comProjekte leben davon, dass Informationen nicht monopolisiert, sondern miteinander geteilt werden. Das geschieht oft dann nicht, wenn Ergebnisse erst nach langer Anlaufzeit geliefert werden müssen. Tim Garcia von Apptricity rät deshalb dazu, Projekt in kurze Phasen einzuteilen. An deren Ende sollte es jeweils Resultate geben, mit denen das ganze Team weiterarbeiten kann.7. Unklare Entscheidungsfindung
Foto: wavebreakmedia – shutterstock.comIm Verlauf eines Projektes sind Änderungen der ursprünglichen Roadmap oft unvermeidbar. Es sollte beim Change Management aber klar dokumentiert werden, wer wann was geändert hat und wie die neue Marschrichtung aussieht.8. Fehlende Software
Foto: Suthisa – shutterstock.comExel-Spreadsheets nötigen Projekt-Manager zu manuellen Korrekturen und führen oft zu Problemen bei der Status-Aktualisierung. Insofern ist es befreiend, mit Project Management Software zu arbeiten, die für automatische Updates sorgt und von lästigen manuellen Berichten entlastet. Dazu rät Brian Ahearne, CEO des Anbieters Evolphin Software.9. Gefahr des Ausuferns
Foto: Lightspring – shutterstock.comChange Requests sind alltäglich im Projekt-Leben, aber sie haben leider oft einen unerfreulichen Nebeneffekt: den Hang, Fristen und Budget-Rahmen immer weiter auszudehnen und auf Dauer zu Demotivation und Frust auf allen Seiten zu führen. Um dieser Entwicklung Einhalt zu gebieten, sind neben klaren Zielvorgaben auch tägliches Monitoring und ein definierter Prozess für gewünschte Veränderungen sinnvoll. Das empfiehlt in jedem Fall Sandeep Anand, der beim Software-Entwicklungshaus Nagarro für Project Governance verantwortlich ist.10. Nicht “Nein” sagen können
Foto: wavebreakmedia – shutterstock.comIm Sinne des Unternehmens sei es manchmal nötig, Anfragen abzulehnen, sagt Markus Remark vom Provider TOA Technologies. Gut sei es deshalb zu wissen, wie man “nein” sagt. Am besten habe man für solche Fälle auch gleich eine konstruktive alternative Lösung parat.11. Mangelnder Zusammenhalt
Foto: Annette Shaff – shutterstock.comProjektarbeit ist Team-Arbeit. In der Praxis gerieren sich manche Projekt-Teams aber wie in Eifersüchteleien gefangene Sportmannschaften ohne Erfolg, beobachtet Berater Gordon Veniard. Der Fokus auf das eigentliche Ziel gehe verloren. Stattdessen beschuldigen sich Grüppchen gegenseitig, für Probleme und schlechte Leistungen verantwortlich zu sein. Um das zu verhindern, ist Führung durch den Projekt-Manager gefragt. Und der sollte es verstehen, sein Team mitzunehmen und in Entscheidungen einzubinden. Ohne Kommunikation sei das Desaster programmiert, so Hilary Atkinson vom Provider Force 3.12. Vergessener Arbeitsalltag
Foto: g-stockstudio – shutterstock.comHilary Atkinson hat nach noch einen weiteren Kommunikationstipp parat: Projekt-Manager sollten nicht vergessen, ihre alltäglichen Aufgaben zu erledigen. Wer als Verantwortlicher keine Meeting-Termine verkündet, Status-Berichte vergisst und E-Mails unbeantwortet lässt, riskiert unnötige Verzögerungen.13. Zu häufige Meetings
Foto: Monkey Business Images – shutterstock.comMeetings, in denen der Status Quo besprochen wird, können nerven – vor allem dann, wenn sie zu oft stattfinden oder zu lange dauern. Wichtige Informationen lassen sich durch Collaboration Tools häufig besser an die Team-Mitglieder bringen, meint Liz Pearce, CEO des Providers LiquidPlanner. Ihr Tipps: Meeting auf die Entscheidungsfindung beschränken. In ihrem Unternehmen gebe es lediglich zweimal in der Woche ein Treffen, um neue Aufgaben zu verteilen und Prioritäten zu definieren.14. Gut genug ist nicht immer gut
Foto: ramcreations – shutterstock.comSergio Loewenberg vom IT-Beratungshaus Neoris macht Nachlässigkeiten in der Qualitätssicherung als Problem aus. Es sei günstiger, Fehler zu vermeiden anstatt Geld und Zeit ins Ausmerzen ihrer negativen Folgen stecken zu müssen. Wer auf hohe Qualitäts-Standards achte, vermeide späteres Nacharbeiten und die Gefahr eines schlechten Rufes.15. Nicht aus Fehlern lernen
Foto: bikeriderlondon – shutterstock.comLiz Pearce mahnt außerdem an, mit Hilfe entsprechender Tools eine mehrstündige Analyse nach Ende des Projektes durchzuführen. Nur Teams, die sich des ständigen Lernens verschreiben, seien dazu in der Lage, die Fehler der Vergangenheit in der Zukunft zu vermeiden.15 Fehler beim Projektmanagement
Foto: Jaco van Rensburg – shutterstock.comEs gibt unzählige Wege, ein IT-Projekt an die Wand zu fahren. Unsere amerikanische Schwesterpublikation CIO.com hat 15 davon gesammelt – und verrät dankenswerterweise auch, wie man die Probleme beheben kann. Diese Tipps sind in der Bilderstrecke zu finden.

Was ist ein Proof of Concept?​ Weiterlesen »

Wie Quereinsteiger ins Topmanagement kommen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?quality=50&strip=all 1959w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=768%2C430&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=1024%2C574&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=1536%2C861&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=1240%2C695&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”574″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der Weg ins Topmanagement oder C-Level verläuft immer seltener geradlinig und ist von keinem klaren Schema geprägt. Vielmehr erfordert er eine ständige Bereitschaft zum Lernen und Wachsen.eamesBot – Shutterstock 2438988607 Mein Weg ins Topmanagement war weder vorgezeichnet noch „klassisch“. Und doch stehe ich heute als Chief HR Officer (CHRO) bei Statista in der Verantwortung für mehr als 1450 Mitarbeitende weltweit. Wie kam es dazu?  Vor allem, weil ich auf meinem Karriereweg Menschen traf, die an mich glaubten – und weil ich nicht davor zurückschreckte, neue Themen zu übernehmen, mich stetig weiterzuentwickeln und die Extra-Meile zu gehen, wenn es nötig war. Gleichzeitig haben mich Durchhaltevermögen und Eigenmotivation dahin gebracht, wo ich heute bin. Denn die Wahrheit ist: Karrieren entstehen nicht über Nacht.   ‘Karriere-Mosaik’ versus linearen Lebenslauf  Karrierewege waren früher oft klar vorgezeichnet: Wer in der IT aufstieg, begann als Entwickler, wurde Teamlead, dann Head of… und irgendwann CTO. Wer in den HR-Bereich wollte, startete mit einem klassischen Personalreferat. Heute erleben wir hingegen deutlich häufiger nicht-lineare Verläufe, die einem ‘Karriere-Mosaik’ gleichen. Menschen wechseln Funktionen, Branchen, manchmal sogar ganz den thematischen Fokus, um vielfältige Erfahrungen zu sammeln.   Das zeigt sich nicht nur in schnell wachsenden Startups und Scale-ups, sondern zunehmend auch in klassischeren Mittelstands- und Konzernstrukturen. Warum? Weil die Anforderungen sich verändert haben und verschiedene Kompetenzen immer mehr ineinander verschwimmen. Vielfältige Erfahrungen können demnach ein entscheidender Vorteil sein, insbesondere wenn es darum geht, komplexe Herausforderungen im Topmanagement zu meistern. Denn führende Managementpositionen sind immer häufiger eine Disziplin, die quer zu Fach-Silos verläuft.    Topmanagement oder C-Level trotz Quereinstieg? Ja – aber mit Profil!  Heißt das, jede oder jeder kann ohne Vorerfahrung einfach ins C-Level wechseln? Ganz so einfach ist es nicht. Der „komplette“ Quereinstieg direkt ins Top-Management ist eher die Ausnahme. Was man allerdings sehr wohl beobachten kann, sind zwei Phänomene:  – Quereinstieg auf dem Weg zum C-Level: Gerade auf den Ebenen unterhalb der Geschäftsführung – etwa in Abteilungs- oder Bereichsleitung – gibt es vermehrt Quereinsteiger, die über Projektverantwortung, Transformationsrollen oder bereichsübergreifende Themen in die Position hineinwachsen.  –  Funktionale Bündelung im C-Level: C-Level-Funktionen entwickeln sich weiter. HR und ESG (Environmental, Social and Corporate Governance) wandern in das Betätigungsfeld des CHRO. CFOs verantworten neben Finance auch Legal oder HR-Themen. Oder Tech- und Produktverantwortung werden gemeinsam in einer CPTO-Rolle gebündelt. In solchen Fällen bringt die Führungskraft nicht zwingend in allen Bereichen tiefes Fachwissen mit – wohl aber die Fähigkeit, Experten zu führen und Themen strategisch zu steuern.    Ein gutes Beispiel: Nicht jeder CTO muss heute selbst programmieren können – es kommt dabei ganz auf die Herausforderungen des Unternehmens an: In schnell wachsenden jungen Firmen ist technisches Hands-on-Wissen oft essenziell und absolut erfolgskritisch. Im Idealfall sollte dann zum Beispiel auch ein CTO über das operative Fachwissen verfügen, um gegebenenfalls einspringen zu können.   In etablierten Unternehmen mit höherer Komplexität geht es hingegen oft mehr um architektonische Entscheidungen, Budgetverantwortung und -optimierung, Stakeholder-Management und Strategie. In diesen Rollen sieht man auch immer wieder Manager mit einem klassischen Business-Profil, die Erfahrungen in der Unternehmensberatung und eine fundierte strategische Kompetenz sowie IT-Affinität mitbringen.  Was zählt: Managementkompetenz, nicht (nur) Fachexpertise Ab einem bestimmten Punkt in der Karriere sind es nicht mehr nur fachliche Qualifikationen, die über Erfolg entscheiden. Es geht um die großen Hebel: Strategie, Teamführung, Stakeholder-Management, Kostenverantwortung, Transformation – und zunehmend auch technologische Weitsicht. Deshalb ist es wenig verwunderlich, dass jede Topmanagement-Funktion sich ähnliche Fragen stellt:  Wie trägt mein Bereich zur Unternehmensstrategie bei?  Wie stelle ich ein starkes, diverses und zukunftsfähiges Team auf?  Wie gestalte ich effektive Kommunikation in komplexen Organisationen?  Wie identifiziere ich Automatisierungs- und Digitalisierungspotenziale?  Wie übersetze ich technologische Trends in sinnvolle Maßnahmen?  Diese Fragen muss nicht jeder selbst beantworten können – aber man muss als Topmanager in der Lage sein, die richtigen Fragen zu stellen, Kollegen zu fördern und Entscheidungen zu treffen.  C-Level braucht keine Perfektion – sondern Klarheit Fakt ist: Man muss nicht alles selbst können. Aber man muss wissen, wofür man steht, worin man gut ist und was man delegiert. Ich selbst habe nie einen klassischen HR-Weg durchlaufen. Aber ich kenne meine Stärken: Strategie, Struktur, Finanzen, Kommunikation. Und ich weiß, wo ich starke Mitspieler brauche. Diese Klarheit machte aus meinem Quereinstieg eine Stärke – kein Defizit.  Wie auch Ihnen der erfolgreiche Einstieg ins Topmanagement oder gar C-Level gelingen kann, verrate ich in den folgenden Tipps. Ein praxisnaher Einblick in den Recruiting-Prozess zeigt Ihnen zudem, worauf Headhunter, Personalverantwortliche und Executive Searcher im Auswahlprozess besonders achten:        1. Offenes Visier, statt Tunnelblick Einer meiner wichtigsten Erkenntnisse ist, stets neugierig zu bleiben und immer wieder über den eigenen Tellerrand zu schauen. Das kann sich einerseits auf die stetige berufliche und persönliche Weiterentwicklung beziehen. Andererseits darauf, die eigene Bubble hin und wieder zu verlassen und nicht in einer starren Rolle zu verharren. Mein Tipp: Bleiben Sie offen für Neues und nehmen Sie berufliche Herausforderungen an.   Das heißt nicht, dass Sie in Ihrem aktuellen Job zu allem Ja und Amen sagen oder das nächstbeste Jobangebot annehmen sollten. Schauen Sie vielmehr gezielt nach Möglichkeiten, die ein nächster sinnvoller Schritt in Ihrer beruflichen Weiterentwicklung sein können – auch wenn dies erst einmal unbequem, herausfordernd oder mit Zeitaufwand verbunden ist. Eine gute Option sich neuen Themen zu nähern, bieten beispielsweise Fachbereich übergreifende Projekte.  Warum? Meiner Meinung nach entsteht wirkliches Wachstum selten dort, wo alles vertraut ist, sondern dort, wo wir uns trauen, neue Wege zu gehen. Darüber hinaus bieten derartige Projekte eine großartige Möglichkeit sich einzubringen, neue Aufgaben auszuprobieren und sich fachlich wie persönlich weiterzuentwickeln – ohne gleich die Verantwortung für ein gesamtes Team übernehmen zu müssen.    2. Sich selbst kennen Einer meiner wichtigsten Learnings: Verstehen und kennen Sie Ihr Stärken- und Schwächenprofil. Was fällt Ihnen leicht und wo tun Sie sich vielleicht schwer? Warum dieses Wissen essenziell ist: Einer der wichtigsten Management Skills ist es, Ihre Teams so aufzustellen, dass alle sich gegenseitig ergänzen. Demnach ist es als guter Manager Ihre Aufgabe zu erkennen, welche Fähigkeiten im Team stark ausgeprägt sind und welche weniger stark oder vielleicht noch gar nicht vorhanden sind (einschließlich der eigenen Skills).   Fehlt beispielsweise wichtiges Know-how, das für die Umsetzung eines Projektes oder der Implementierung einer neuen strategischen Ausrichtung zwingend benötigt wird? Dann ist es Ihre Aufgabe eine Person mit dem benötigten Skill-Set einzustellen. Denn die Aufgabe eines Topmanagers besteht nicht darin, alle Aufgaben selbst erledigen zu können, sondern zu erkennen, was es zu welchem Zeitpunkt benötigt, um ein Team oder einen Fachbereich erfolgreich zu führen.     3. Die eigene Rolle verstehen Als Manager einer Abteilung ist es wichtig, die eigene Rolle und Funktion klar zu kennen. Dabei ist es grundsätzlich erst einmal zweitrangig, ob Sie als Manager in dem jeweiligen Fachbereich fundierte Expertise mitbringen – etwa, weil Sie seit Jahren in dem Bereich tätig sind. Oder kein Fachexperte sind – etwa, weil Sie die Abteilung vor allem aus strategischer Sicht führen. Grundsätzlich ist die Aufgabe eines Top-Managers, die Richtung vorzugeben und einen Rahmen sowie Vertrauen zu schaffen.   Sie stellen die richtigen Fragen, aber versuchen nicht zu micromanagen, sondern Freiheiten zu lassen. Wichtig zu verstehen ist: Es gibt immer jemanden, der eine Aufgabe anders umsetzen würde als man selbst. Und das ist auch gut so! Denn oftmals gibt es nicht nur den einen Weg, sondern mehrere Möglichkeiten. Die Königsdisziplin als Topmanager ist es, zu wissen, wann es nötig ist, ein Veto einzulegen, gleichzeitig aber auch, wann es das nicht ist.     4. Blick hinter die Kulissen: Recruiting im Topmanagement Gerade im Topmanagement wird besonders genau hingeschaut. Hier geht es nicht nur um das klassische „Abhaken“ von Lebenslaufstationen, sondern vor allem um die jeweilige Wirkung und ein konsistentes, glaubwürdiges Führungsprofil. Neben fundierter Führungserfahrung zählen strategische Weitsicht, Change-Kompetenz sowie ein hohes Maß an Selbstreflexion und Authentizität.   Gesucht werden Persönlichkeiten, die wissen, wer sie sind – und wofür sie stehen. Zudem achten Personalverantwortliche auf nachweisbare Erfolge, kommunikative Stärke – und auf die Fähigkeit, mit Komplexität umzugehen sowie in unsicheren Zeiten Orientierung zu bieten. Entscheidend ist zudem die Passung zur Unternehmenskultur.   Recruiter achten zunehmend darauf, ob eine Führungskraft zur Wertebasis und Dynamik des Unternehmens passt – nicht nur zur Funktion selbst. Bei Statista beispielsweise bringt das Management Board eine starke Vielfalt an Kompetenzprofilen mit, um möglichst viele Perspektiven abzudecken. Dieses tatkräftige Zusammenspiel zieht sich durch die Aufstellung aller Teams und Bereiche und beeinflusst somit auch die gefragten Fähigkeiten.   Außerdem gut zu wissen: Wenn Sie nicht gerade über eine jahrelange Zugehörigkeit in einem Unternehmen in die C-Level- oder Topmanagement-Rolle hineingewachsen sind, ist der Rekrutierungs- und Auswahlprozess oft mehrstufig, intensiv und in der Regel durch professionelle Headhunter begleitet. Ferner werden die benötigten Eigenschaften in Interviews gezielt hinterfragt – häufig durch situative Fragen, Business Cases oder Peer-Interviews. Nur wer hier auf ganzer Linie überzeugt, hat die Chance im Auswahlprozess weiter berücksichtigt zu werden.   Mein Appell: Warten Sie nicht darauf, perfekt zu sein. Denn darum geht es nicht. Werden Sie sich Ihrer Stärken bewusst – und zeigen Sie Haltung. Insbesondere das Auftreten und Sichtbarwerden auf Business Plattformen wie LinkedIn kann dafür ein echter Gamechanger sein. Nicht zu unterschätzen ist außerdem die Kraft eines starken, professionellen Peer-Netzwerkes – dies kann Sie nicht nur bei fachlichen Fragen unterstützen, sondern auch Empfehlungen aussprechen. Das Zusammenspiel aller Komponenten ist am Ende das, was Türen öffnet.  Fazit Diese Perspektiven auf Karriereentwicklung verdeutlichen, dass der Weg ins Top-Management oder C-Level heute vielfältiger denn je ist. Er verläuft immer seltener geradlinig und ist von keinem klaren Schema geprägt. Vielmehr erfordert er eine ständige Bereitschaft zum Lernen und Wachsen. Außerdem Menschen, die Verantwortung übernehmen, sich selbst reflektieren und Lust auf echte Führung haben.   Ein Quereinstieg kann aus dieser Sicht von großem Vorteil sein. Denn in einer zunehmend komplexen und dynamischen Arbeitswelt sind es oft gerade die unkonventionellen Wege, die zu nachhaltigem Erfolg führen.  

Wie Quereinsteiger ins Topmanagement kommen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?quality=50&strip=all 1959w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=768%2C430&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=1024%2C574&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=1536%2C861&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=1240%2C695&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_2438988607.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”574″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der Weg ins Topmanagement oder C-Level verläuft immer seltener geradlinig und ist von keinem klaren Schema geprägt. Vielmehr erfordert er eine ständige Bereitschaft zum Lernen und Wachsen.eamesBot – Shutterstock 2438988607

Mein Weg ins Topmanagement war weder vorgezeichnet noch „klassisch“. Und doch stehe ich heute als Chief HR Officer (CHRO) bei Statista in der Verantwortung für mehr als 1450 Mitarbeitende weltweit. Wie kam es dazu?  Vor allem, weil ich auf meinem Karriereweg Menschen traf, die an mich glaubten – und weil ich nicht davor zurückschreckte, neue Themen zu übernehmen, mich stetig weiterzuentwickeln und die Extra-Meile zu gehen, wenn es nötig war. Gleichzeitig haben mich Durchhaltevermögen und Eigenmotivation dahin gebracht, wo ich heute bin. Denn die Wahrheit ist: Karrieren entstehen nicht über Nacht.  

‘Karriere-Mosaik’ versus linearen Lebenslauf 

Karrierewege waren früher oft klar vorgezeichnet: Wer in der IT aufstieg, begann als Entwickler, wurde Teamlead, dann Head of… und irgendwann CTO. Wer in den HR-Bereich wollte, startete mit einem klassischen Personalreferat. Heute erleben wir hingegen deutlich häufiger nicht-lineare Verläufe, die einem ‘Karriere-Mosaik’ gleichen. Menschen wechseln Funktionen, Branchen, manchmal sogar ganz den thematischen Fokus, um vielfältige Erfahrungen zu sammeln.  

Das zeigt sich nicht nur in schnell wachsenden Startups und Scale-ups, sondern zunehmend auch in klassischeren Mittelstands- und Konzernstrukturen. Warum? Weil die Anforderungen sich verändert haben und verschiedene Kompetenzen immer mehr ineinander verschwimmen. Vielfältige Erfahrungen können demnach ein entscheidender Vorteil sein, insbesondere wenn es darum geht, komplexe Herausforderungen im Topmanagement zu meistern. Denn führende Managementpositionen sind immer häufiger eine Disziplin, die quer zu Fach-Silos verläuft. 

 

Topmanagement oder C-Level trotz Quereinstieg? Ja – aber mit Profil! 

Heißt das, jede oder jeder kann ohne Vorerfahrung einfach ins C-Level wechseln? Ganz so einfach ist es nicht. Der „komplette“ Quereinstieg direkt ins Top-Management ist eher die Ausnahme. Was man allerdings sehr wohl beobachten kann, sind zwei Phänomene: 

– Quereinstieg auf dem Weg zum C-Level: Gerade auf den Ebenen unterhalb der Geschäftsführung – etwa in Abteilungs- oder Bereichsleitung – gibt es vermehrt Quereinsteiger, die über Projektverantwortung, Transformationsrollen oder bereichsübergreifende Themen in die Position hineinwachsen. 

–  Funktionale Bündelung im C-Level: C-Level-Funktionen entwickeln sich weiter. HR und ESG (Environmental, Social and Corporate Governance) wandern in das Betätigungsfeld des CHRO. CFOs verantworten neben Finance auch Legal oder HR-Themen. Oder Tech- und Produktverantwortung werden gemeinsam in einer CPTO-Rolle gebündelt. In solchen Fällen bringt die Führungskraft nicht zwingend in allen Bereichen tiefes Fachwissen mit – wohl aber die Fähigkeit, Experten zu führen und Themen strategisch zu steuern.   

Ein gutes Beispiel: Nicht jeder CTO muss heute selbst programmieren können – es kommt dabei ganz auf die Herausforderungen des Unternehmens an: In schnell wachsenden jungen Firmen ist technisches Hands-on-Wissen oft essenziell und absolut erfolgskritisch. Im Idealfall sollte dann zum Beispiel auch ein CTO über das operative Fachwissen verfügen, um gegebenenfalls einspringen zu können.  

In etablierten Unternehmen mit höherer Komplexität geht es hingegen oft mehr um architektonische Entscheidungen, Budgetverantwortung und -optimierung, Stakeholder-Management und Strategie. In diesen Rollen sieht man auch immer wieder Manager mit einem klassischen Business-Profil, die Erfahrungen in der Unternehmensberatung und eine fundierte strategische Kompetenz sowie IT-Affinität mitbringen. 

Was zählt: Managementkompetenz, nicht (nur) Fachexpertise

Ab einem bestimmten Punkt in der Karriere sind es nicht mehr nur fachliche Qualifikationen, die über Erfolg entscheiden. Es geht um die großen Hebel: Strategie, Teamführung, Stakeholder-Management, Kostenverantwortung, Transformation – und zunehmend auch technologische Weitsicht. Deshalb ist es wenig verwunderlich, dass jede Topmanagement-Funktion sich ähnliche Fragen stellt: 

Wie trägt mein Bereich zur Unternehmensstrategie bei? 

Wie stelle ich ein starkes, diverses und zukunftsfähiges Team auf? 

Wie gestalte ich effektive Kommunikation in komplexen Organisationen? 

Wie identifiziere ich Automatisierungs- und Digitalisierungspotenziale? 

Wie übersetze ich technologische Trends in sinnvolle Maßnahmen? 

Diese Fragen muss nicht jeder selbst beantworten können – aber man muss als Topmanager in der Lage sein, die richtigen Fragen zu stellen, Kollegen zu fördern und Entscheidungen zu treffen. 

C-Level braucht keine Perfektion – sondern Klarheit

Fakt ist: Man muss nicht alles selbst können. Aber man muss wissen, wofür man steht, worin man gut ist und was man delegiert. Ich selbst habe nie einen klassischen HR-Weg durchlaufen. Aber ich kenne meine Stärken: Strategie, Struktur, Finanzen, Kommunikation. Und ich weiß, wo ich starke Mitspieler brauche. Diese Klarheit machte aus meinem Quereinstieg eine Stärke – kein Defizit. 

Wie auch Ihnen der erfolgreiche Einstieg ins Topmanagement oder gar C-Level gelingen kann, verrate ich in den folgenden Tipps. Ein praxisnaher Einblick in den Recruiting-Prozess zeigt Ihnen zudem, worauf Headhunter, Personalverantwortliche und Executive Searcher im Auswahlprozess besonders achten:     

 

1. Offenes Visier, statt Tunnelblick

Einer meiner wichtigsten Erkenntnisse ist, stets neugierig zu bleiben und immer wieder über den eigenen Tellerrand zu schauen. Das kann sich einerseits auf die stetige berufliche und persönliche Weiterentwicklung beziehen. Andererseits darauf, die eigene Bubble hin und wieder zu verlassen und nicht in einer starren Rolle zu verharren. Mein Tipp: Bleiben Sie offen für Neues und nehmen Sie berufliche Herausforderungen an.  

Das heißt nicht, dass Sie in Ihrem aktuellen Job zu allem Ja und Amen sagen oder das nächstbeste Jobangebot annehmen sollten. Schauen Sie vielmehr gezielt nach Möglichkeiten, die ein nächster sinnvoller Schritt in Ihrer beruflichen Weiterentwicklung sein können – auch wenn dies erst einmal unbequem, herausfordernd oder mit Zeitaufwand verbunden ist. Eine gute Option sich neuen Themen zu nähern, bieten beispielsweise Fachbereich übergreifende Projekte. 

Warum? Meiner Meinung nach entsteht wirkliches Wachstum selten dort, wo alles vertraut ist, sondern dort, wo wir uns trauen, neue Wege zu gehen. Darüber hinaus bieten derartige Projekte eine großartige Möglichkeit sich einzubringen, neue Aufgaben auszuprobieren und sich fachlich wie persönlich weiterzuentwickeln – ohne gleich die Verantwortung für ein gesamtes Team übernehmen zu müssen. 

 

2. Sich selbst kennen

Einer meiner wichtigsten Learnings: Verstehen und kennen Sie Ihr Stärken- und Schwächenprofil. Was fällt Ihnen leicht und wo tun Sie sich vielleicht schwer? Warum dieses Wissen essenziell ist: Einer der wichtigsten Management Skills ist es, Ihre Teams so aufzustellen, dass alle sich gegenseitig ergänzen. Demnach ist es als guter Manager Ihre Aufgabe zu erkennen, welche Fähigkeiten im Team stark ausgeprägt sind und welche weniger stark oder vielleicht noch gar nicht vorhanden sind (einschließlich der eigenen Skills).  

Fehlt beispielsweise wichtiges Know-how, das für die Umsetzung eines Projektes oder der Implementierung einer neuen strategischen Ausrichtung zwingend benötigt wird? Dann ist es Ihre Aufgabe eine Person mit dem benötigten Skill-Set einzustellen. Denn die Aufgabe eines Topmanagers besteht nicht darin, alle Aufgaben selbst erledigen zu können, sondern zu erkennen, was es zu welchem Zeitpunkt benötigt, um ein Team oder einen Fachbereich erfolgreich zu führen.  

 

3. Die eigene Rolle verstehen

Als Manager einer Abteilung ist es wichtig, die eigene Rolle und Funktion klar zu kennen. Dabei ist es grundsätzlich erst einmal zweitrangig, ob Sie als Manager in dem jeweiligen Fachbereich fundierte Expertise mitbringen – etwa, weil Sie seit Jahren in dem Bereich tätig sind. Oder kein Fachexperte sind – etwa, weil Sie die Abteilung vor allem aus strategischer Sicht führen. Grundsätzlich ist die Aufgabe eines Top-Managers, die Richtung vorzugeben und einen Rahmen sowie Vertrauen zu schaffen.  

Sie stellen die richtigen Fragen, aber versuchen nicht zu micromanagen, sondern Freiheiten zu lassen. Wichtig zu verstehen ist: Es gibt immer jemanden, der eine Aufgabe anders umsetzen würde als man selbst. Und das ist auch gut so! Denn oftmals gibt es nicht nur den einen Weg, sondern mehrere Möglichkeiten. Die Königsdisziplin als Topmanager ist es, zu wissen, wann es nötig ist, ein Veto einzulegen, gleichzeitig aber auch, wann es das nicht ist.  

 

4. Blick hinter die Kulissen: Recruiting im Topmanagement

Gerade im Topmanagement wird besonders genau hingeschaut. Hier geht es nicht nur um das klassische „Abhaken“ von Lebenslaufstationen, sondern vor allem um die jeweilige Wirkung und ein konsistentes, glaubwürdiges Führungsprofil. Neben fundierter Führungserfahrung zählen strategische Weitsicht, Change-Kompetenz sowie ein hohes Maß an Selbstreflexion und Authentizität.  

Gesucht werden Persönlichkeiten, die wissen, wer sie sind – und wofür sie stehen. Zudem achten Personalverantwortliche auf nachweisbare Erfolge, kommunikative Stärke – und auf die Fähigkeit, mit Komplexität umzugehen sowie in unsicheren Zeiten Orientierung zu bieten. Entscheidend ist zudem die Passung zur Unternehmenskultur.  

Recruiter achten zunehmend darauf, ob eine Führungskraft zur Wertebasis und Dynamik des Unternehmens passt – nicht nur zur Funktion selbst. Bei Statista beispielsweise bringt das Management Board eine starke Vielfalt an Kompetenzprofilen mit, um möglichst viele Perspektiven abzudecken. Dieses tatkräftige Zusammenspiel zieht sich durch die Aufstellung aller Teams und Bereiche und beeinflusst somit auch die gefragten Fähigkeiten.  

Außerdem gut zu wissen: Wenn Sie nicht gerade über eine jahrelange Zugehörigkeit in einem Unternehmen in die C-Level- oder Topmanagement-Rolle hineingewachsen sind, ist der Rekrutierungs- und Auswahlprozess oft mehrstufig, intensiv und in der Regel durch professionelle Headhunter begleitet. Ferner werden die benötigten Eigenschaften in Interviews gezielt hinterfragt – häufig durch situative Fragen, Business Cases oder Peer-Interviews. Nur wer hier auf ganzer Linie überzeugt, hat die Chance im Auswahlprozess weiter berücksichtigt zu werden.  

Mein Appell: Warten Sie nicht darauf, perfekt zu sein. Denn darum geht es nicht. Werden Sie sich Ihrer Stärken bewusst – und zeigen Sie Haltung. Insbesondere das Auftreten und Sichtbarwerden auf Business Plattformen wie LinkedIn kann dafür ein echter Gamechanger sein. Nicht zu unterschätzen ist außerdem die Kraft eines starken, professionellen Peer-Netzwerkes – dies kann Sie nicht nur bei fachlichen Fragen unterstützen, sondern auch Empfehlungen aussprechen. Das Zusammenspiel aller Komponenten ist am Ende das, was Türen öffnet. 

Fazit

Diese Perspektiven auf Karriereentwicklung verdeutlichen, dass der Weg ins Top-Management oder C-Level heute vielfältiger denn je ist. Er verläuft immer seltener geradlinig und ist von keinem klaren Schema geprägt. Vielmehr erfordert er eine ständige Bereitschaft zum Lernen und Wachsen. Außerdem Menschen, die Verantwortung übernehmen, sich selbst reflektieren und Lust auf echte Führung haben.  

Ein Quereinstieg kann aus dieser Sicht von großem Vorteil sein. Denn in einer zunehmend komplexen und dynamischen Arbeitswelt sind es oft gerade die unkonventionellen Wege, die zu nachhaltigem Erfolg führen. 

Wie Quereinsteiger ins Topmanagement kommen​ Weiterlesen »

Der Arbeitsplatz der Zukunft ist mehr als nur ein Benefit​

Allgemein

loading=”lazy” width=”400px”>Der modern Workplace hat viele Facetten – es geht längst nicht nur um Homeoffice oder Büro.Piscine26 / Shutterstock Gäbe es Aktien von „Remote Work, Inc.“, wäre deren Wert 2024 wohl massiv unter Druck geraten. Etliche namhafte Firmen, die ihre Mitarbeitenden zurück in die Büros beorderten, sorgten für Schlagzeilen. Der Weg zurück ins Office wird regelmäßig in klassischen und sozialen Medien heftig diskutiert, als würde es nur die zwei Extreme geben: im Homeoffice oder in der Firma. Doch die Arbeitswelt ist weitaus facettenreicher als der vermeintliche Dualismus der Modelle: Hybride Mischformen aus individuellen Anforderungen schaffen – im Idealfall – ein flexibles Arbeitsumfeld, das Technologie, Prozesse und Mitarbeiterbedürfnisse vereint, um Produktivität, Zusammenarbeit und nicht zuletzt das Wohlbefinden der Menschen zu fördern. Im Kompressionsverfahren zum digitalen Arbeitsplatz Trotz des finanziellen und organisatorischen Gegenwinds kommt der moderne digitale Arbeitsplatz weiter voran. Laut einer aktuellen Studie von Foundry über den „Future Workplace 2025“ verfolgen fast neun von zehn Unternehmen eine Strategie beziehungsweise Roadmap für moderne Arbeitskonzepte – überwiegend sogar unternehmensweit. Hier gilt die Tendenz: Je größer die Organisation, desto weiter fortgeschritten ist sie auf dem Weg. Und gerade einmal fünf Prozent der Befragten verorten ihre Organisation noch im Feld der Legacy-Arbeitsplätze. Anteil der hybriden Arbeitsplätze wächst Der durchschnittliche Anteil der Beschäftigten mit einem hybriden Arbeitsplatz beläuft sich laut Studie aktuell auf knapp 35 Prozent. Nach Einschätzung der Teilnehmerinnen und Teilnehmer wird diese Quote in den kommenden zwei Jahren steigen oder stark steigen – immerhin 74 Prozent der Befragten gehen hiervon aus. Betrachtet man lediglich die Zustimmung aus dem Top-Management, sind es sogar fast 83 Prozent. Der Durchschnitt aller Befragten, die eine Wiederherstellung der Legacy-Strukturen erwarten, beläuft sich auf gerade einmal drei Prozent.  Der durchschnittliche Anteil der Beschäftigten mit einem hybriden Arbeitsplatz beläuft sich laut Studie aktuell auf knapp 35 Prozent. Research Services: erdenbuerger – kreative kommunikation Wie relevant sind moderne Arbeitsplätze? Fragt man nach der Relevanz von Hybrid Work für Unternehmen, ist das Bild ähnlich klar. Knapp 80 Prozent der Studienteilnehmer sind der Ansicht, dass die Bedeutung des Future Workplace in den vergangenen Quartalen etwas beziehungsweise deutlich gestiegen ist. Fragt man generell nach der Relevanz moderner Arbeitsplatzkonzepte, ist auch hier das Top-Management die Gruppe mit dem höchsten Mittelwert (8,41 von 10). Demgegenüber kommen Befragte aus Fachbereichen lediglich auf einen Durchschnitt von 7,53. Budgets für Hybrid Work Die positive Entwicklung spiegelt sich auch in der finanziellen Ausstattung für den Future Workplace. Laut Foundry-Untersuchung entwickeln sich das allgemeine IT-Budget 2025 und der Anteil für moderne Arbeitsmodelle fast im Gleichklang.  So erwarten sieben von zehn Studienteilnehmern, dass die Investitionen in den Future Workplace 2025 steigen oder stark steigen werden. Allerdings fallen die Budget-Erwartungen etwas verhaltener aus als noch in der vergleichbaren Studie aus dem Jahr 2023 – angesichts der Wirtschaftskrise gilt dies jedoch auch insgesamt für den finanziellen Spielraum der IT. Die Schattenseiten des Future Workplace Dabei ist nicht alles Gold, was glänzt: Das Problem sind die vielen verschiedenen Herausforderungen, die sich auf digitale Arbeitsplätze auswirken. Somit ist der Umstieg auf den Future Workplace kein Selbstläufer, sondern ein Vorhaben, das alle Bereiche von der Technologie über die Prozesse bis zur Firmenkultur berührt. Die daraus resultierende Komplexität der internen Abstimmung ist wohl einer der Hauptgründe dafür, dass die Umsetzungsgeschwindigkeit zuletzt etwas zurückgegangen ist – zumindest im Vergleich zur Post-Covid-Euphorie. Herausforderungen moderner Arbeitsplätze Die größten Baustellen befinden sich immer noch in der IT-Infrastruktur und der Cybersicherheit. Hier fällt die Zustimmung von Befragten aus der IT überdurchschnittlich hoch aus. Interessant ist, dass die eigene IT-Infrastruktur aktuell von zwei Dritteln aller Befragten als gut bewertet wird. Wie die IT-Mitarbeitenden fokussieren auch die anderen Studienteilnehmer aus dem Top-Management und den Fachabteilungen vor allem auf Herausforderungen in ihrem Bereich: Business Units nennen die Cybersicherheit und die Reorganisation von Workflows, während Geschäftsleitungen überdurchschnittlich stark auf den Immobilienaspekt und die Auswahl der richtigen Technologien/Tools verweisen. Demgegenüber liegen menschliche Perspektiven wie die User Experience der Beschäftigten, ihre digitale Kompetenz und erforderliche Weiterbildung sowie die Auswirkungen des Future Workplace auf die Unternehmenskultur im hinteren Bereich. Speziell für Studienteilenehmer aus dem C-Level ist die Frage nach der Kultur nahezu irrelevant. Dass mit dem Future Workplace die Kontrolle über das Unternehmen entgleitet, befürchten im Durchschnitt nur knapp neun Prozent der Befragten. Die größten Baustellen befinden sich immer noch in der IT-Infrastruktur und der Cybersicherheit. Research Services: erdenbuerger – kreative kommunikation Nutzen der hybriden Arbeitsmodelle Ein Treiber für den Future Workplace sind die positiven Effekte aus den Anwendungsfällen. Auch wenn dies nur selten ein Top-Ziel ist: Ein Drittel aller Befragten gab an, dass die Mitarbeiterzufriedenheit stark gestiegen ist, rund die Hälfte berichtet immerhin noch von einer positiven Entwicklung. Zudem hat das Top-Management sinkende Mietkosten als Folge der modernen Arbeitskonzepte verzeichnet. Die bessere unternehmensinterne Kommunikation und die leichtere Besetzung offener Stellen runden die Liste der Vorteile ab.  Next Level Workplace mit KI Darüber hinaus bildet der Modern Workplace eine ideale Grundlage für den Einsatz (generativer) KI. Das sehen auch die meisten Studienteilnehmer so: Für 30 Prozent spielen KI-Lösungen bei modernen Arbeitsplätzen eine sehr wichtige Rolle, 48 Prozent gehen immerhin noch von einer wichtigen Funktion aus. Und lediglich sechs Prozent messen der KI im Durchschnitt eine geringere oder keine Relevanz bei – bei Befragten aus Fachbereichen sind es 13 Prozent. Dabei hat die KI in größeren Organisationen eine höhere Bedeutung als in kleineren Firmen. Und auch die Befragten aus dem Top-Management bauen überdurchschnittlich stark auf KI-Unterstützung für ihre Mitarbeitenden. Für knapp 30 Prozent der Befragten spielen KI-Lösungen bei modernen Arbeitsplätzen eine sehr wichtige Rolle. Research Services: erdenbuerger – kreative kommunikation Zudem gibt es klare Anzeichen, dass der KI-Workplace kein frommer Wunsch, sondern bereits in Projekten angekommen ist. Stand heute berücksichtigt ein Drittel der Firmen KI-Lösungen bei der individuellen Arbeitsplatzausstattung, der Großteil der Verfolger (51 Prozent) steht bereits am Startblock. Vorreiter sind vor allem größere Organisationen, lediglich ein Bruchteil von diesen hat bezüglich des KI-Einsatzes noch nichts geplant. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/71LBuN6jeu0Nb4JYW0koOi?utm_source=oembed”> Externe Partner sind gefragt Angesichts der vielen und vielfältigen Aufgaben rund um Arbeitsmodelle der Zukunft leuchtet es ein, dass sich diese neben dem Tagesgeschäft kaum mit Bordmitteln lösen lassen. Gut ein Viertel der Unternehmen arbeitet daher bereits mit externen Providern, Lieferanten und Beratern an der Umsetzung, weitere 36 Prozent suchen nach passenden Partnern. Zu den Befürworten derartiger Kooperationen zählen überdurchschnittlich viele Befragte aus dem obersten IT-Management. Frust und Stress – deutsche Beschäftigte verlieren Motivation Firmen, die bereits mit externen Partnern zusammenarbeiten, nutzen diese für eine Vielfalt von Aufgaben. Sie reichen von der Entwicklung des Hybrid-Work-Modells über seine Umsetzung und die Anpassung der Prozesse, die Raumgestaltung sowie das persönliche Training bis zur Beratung in steuerlichen und regulativen Fragen. Verglichen mit der vorherigen Studie zum Thema ist jedoch ein geringfügiger Rückgang bei der Anbahnung und der Umsetzung mit Partnern zu verzeichnen. Im Zuge dessen ist der Wert der Firmen, die den Future Workplace vorrangig in Eigenregie bearbeiten wollen, von knapp fünf auf fast 15 Prozent gestiegen. Ob es am Kostendruck in der IT oder an der Tatsache liegt, dass bereits viele Vorarbeiten geleistet wurden, sei dahingestellt. Fazit – mehr als ein “Goodie” Der Future Workplace ist kein Goodie wie Tischkicker oder Obstkörbe, sondern ein strategischer Hebel, um Prozesse rund um die Belegschaft schneller, flexibler und resilienter zu machen. Neben der Anbindung des Homeoffice geht es um die Standortvernetzung, den Außendienst, Geschäftsreisen und um die Ausstattung von Call Centern. Immerhin 20 Prozent der Firmen haben den Anspruch, ihren Beschäftigten einen sehr modernen Arbeitsplatz zu bieten. Diese Meinung wird speziell von kleineren Firmen sowie in Fachbereichen geäußert. Der Weg zum Future Workplace ist vorgezeichnet – jetzt umzudrehen – „Back to Legacy“ – wäre keine smarte Entscheidung. Die neue Studie “Future Workplace 2025” von CIO Research Services Research Services: erdenbuerger – kreative kommunikation Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: HP Deutschland GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 323 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 15. bis 24. Januar 2025 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit dem Studienpartner 

Der Arbeitsplatz der Zukunft ist mehr als nur ein Benefit​ loading=”lazy” width=”400px”>Der modern Workplace hat viele Facetten – es geht längst nicht nur um Homeoffice oder Büro.Piscine26 / Shutterstock

Gäbe es Aktien von „Remote Work, Inc.“, wäre deren Wert 2024 wohl massiv unter Druck geraten. Etliche namhafte Firmen, die ihre Mitarbeitenden zurück in die Büros beorderten, sorgten für Schlagzeilen. Der Weg zurück ins Office wird regelmäßig in klassischen und sozialen Medien heftig diskutiert, als würde es nur die zwei Extreme geben: im Homeoffice oder in der Firma. Doch die Arbeitswelt ist weitaus facettenreicher als der vermeintliche Dualismus der Modelle: Hybride Mischformen aus individuellen Anforderungen schaffen – im Idealfall – ein flexibles Arbeitsumfeld, das Technologie, Prozesse und Mitarbeiterbedürfnisse vereint, um Produktivität, Zusammenarbeit und nicht zuletzt das Wohlbefinden der Menschen zu fördern.

Im Kompressionsverfahren zum digitalen Arbeitsplatz

Trotz des finanziellen und organisatorischen Gegenwinds kommt der moderne digitale Arbeitsplatz weiter voran. Laut einer aktuellen Studie von Foundry über den „Future Workplace 2025“ verfolgen fast neun von zehn Unternehmen eine Strategie beziehungsweise Roadmap für moderne Arbeitskonzepte – überwiegend sogar unternehmensweit. Hier gilt die Tendenz: Je größer die Organisation, desto weiter fortgeschritten ist sie auf dem Weg. Und gerade einmal fünf Prozent der Befragten verorten ihre Organisation noch im Feld der Legacy-Arbeitsplätze.

Anteil der hybriden Arbeitsplätze wächst

Der durchschnittliche Anteil der Beschäftigten mit einem hybriden Arbeitsplatz beläuft sich laut Studie aktuell auf knapp 35 Prozent. Nach Einschätzung der Teilnehmerinnen und Teilnehmer wird diese Quote in den kommenden zwei Jahren steigen oder stark steigen – immerhin 74 Prozent der Befragten gehen hiervon aus. Betrachtet man lediglich die Zustimmung aus dem Top-Management, sind es sogar fast 83 Prozent. Der Durchschnitt aller Befragten, die eine Wiederherstellung der Legacy-Strukturen erwarten, beläuft sich auf gerade einmal drei Prozent. 

Der durchschnittliche Anteil der Beschäftigten mit einem hybriden Arbeitsplatz beläuft sich laut Studie aktuell auf knapp 35 Prozent.
Research Services: erdenbuerger – kreative kommunikation

Wie relevant sind moderne Arbeitsplätze?

Fragt man nach der Relevanz von Hybrid Work für Unternehmen, ist das Bild ähnlich klar. Knapp 80 Prozent der Studienteilnehmer sind der Ansicht, dass die Bedeutung des Future Workplace in den vergangenen Quartalen etwas beziehungsweise deutlich gestiegen ist. Fragt man generell nach der Relevanz moderner Arbeitsplatzkonzepte, ist auch hier das Top-Management die Gruppe mit dem höchsten Mittelwert (8,41 von 10). Demgegenüber kommen Befragte aus Fachbereichen lediglich auf einen Durchschnitt von 7,53.

Budgets für Hybrid Work

Die positive Entwicklung spiegelt sich auch in der finanziellen Ausstattung für den Future Workplace. Laut Foundry-Untersuchung entwickeln sich das allgemeine IT-Budget 2025 und der Anteil für moderne Arbeitsmodelle fast im Gleichklang.  So erwarten sieben von zehn Studienteilnehmern, dass die Investitionen in den Future Workplace 2025 steigen oder stark steigen werden. Allerdings fallen die Budget-Erwartungen etwas verhaltener aus als noch in der vergleichbaren Studie aus dem Jahr 2023 – angesichts der Wirtschaftskrise gilt dies jedoch auch insgesamt für den finanziellen Spielraum der IT.

Die Schattenseiten des Future Workplace

Dabei ist nicht alles Gold, was glänzt: Das Problem sind die vielen verschiedenen Herausforderungen, die sich auf digitale Arbeitsplätze auswirken. Somit ist der Umstieg auf den Future Workplace kein Selbstläufer, sondern ein Vorhaben, das alle Bereiche von der Technologie über die Prozesse bis zur Firmenkultur berührt. Die daraus resultierende Komplexität der internen Abstimmung ist wohl einer der Hauptgründe dafür, dass die Umsetzungsgeschwindigkeit zuletzt etwas zurückgegangen ist – zumindest im Vergleich zur Post-Covid-Euphorie.

Herausforderungen moderner Arbeitsplätze

Die größten Baustellen befinden sich immer noch in der IT-Infrastruktur und der Cybersicherheit. Hier fällt die Zustimmung von Befragten aus der IT überdurchschnittlich hoch aus. Interessant ist, dass die eigene IT-Infrastruktur aktuell von zwei Dritteln aller Befragten als gut bewertet wird. Wie die IT-Mitarbeitenden fokussieren auch die anderen Studienteilnehmer aus dem Top-Management und den Fachabteilungen vor allem auf Herausforderungen in ihrem Bereich: Business Units nennen die Cybersicherheit und die Reorganisation von Workflows, während Geschäftsleitungen überdurchschnittlich stark auf den Immobilienaspekt und die Auswahl der richtigen Technologien/Tools verweisen.

Demgegenüber liegen menschliche Perspektiven wie die User Experience der Beschäftigten, ihre digitale Kompetenz und erforderliche Weiterbildung sowie die Auswirkungen des Future Workplace auf die Unternehmenskultur im hinteren Bereich. Speziell für Studienteilenehmer aus dem C-Level ist die Frage nach der Kultur nahezu irrelevant. Dass mit dem Future Workplace die Kontrolle über das Unternehmen entgleitet, befürchten im Durchschnitt nur knapp neun Prozent der Befragten.

Die größten Baustellen befinden sich immer noch in der IT-Infrastruktur und der Cybersicherheit.
Research Services: erdenbuerger – kreative kommunikation

Nutzen der hybriden Arbeitsmodelle

Ein Treiber für den Future Workplace sind die positiven Effekte aus den Anwendungsfällen. Auch wenn dies nur selten ein Top-Ziel ist: Ein Drittel aller Befragten gab an, dass die Mitarbeiterzufriedenheit stark gestiegen ist, rund die Hälfte berichtet immerhin noch von einer positiven Entwicklung. Zudem hat das Top-Management sinkende Mietkosten als Folge der modernen Arbeitskonzepte verzeichnet. Die bessere unternehmensinterne Kommunikation und die leichtere Besetzung offener Stellen runden die Liste der Vorteile ab. 

Next Level Workplace mit KI

Darüber hinaus bildet der Modern Workplace eine ideale Grundlage für den Einsatz (generativer) KI. Das sehen auch die meisten Studienteilnehmer so: Für 30 Prozent spielen KI-Lösungen bei modernen Arbeitsplätzen eine sehr wichtige Rolle, 48 Prozent gehen immerhin noch von einer wichtigen Funktion aus. Und lediglich sechs Prozent messen der KI im Durchschnitt eine geringere oder keine Relevanz bei – bei Befragten aus Fachbereichen sind es 13 Prozent. Dabei hat die KI in größeren Organisationen eine höhere Bedeutung als in kleineren Firmen. Und auch die Befragten aus dem Top-Management bauen überdurchschnittlich stark auf KI-Unterstützung für ihre Mitarbeitenden.

Für knapp 30 Prozent der Befragten spielen KI-Lösungen bei modernen Arbeitsplätzen eine sehr wichtige Rolle.
Research Services: erdenbuerger – kreative kommunikation

Zudem gibt es klare Anzeichen, dass der KI-Workplace kein frommer Wunsch, sondern bereits in Projekten angekommen ist. Stand heute berücksichtigt ein Drittel der Firmen KI-Lösungen bei der individuellen Arbeitsplatzausstattung, der Großteil der Verfolger (51 Prozent) steht bereits am Startblock. Vorreiter sind vor allem größere Organisationen, lediglich ein Bruchteil von diesen hat bezüglich des KI-Einsatzes noch nichts geplant.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/71LBuN6jeu0Nb4JYW0koOi?utm_source=oembed”>

Externe Partner sind gefragt

Angesichts der vielen und vielfältigen Aufgaben rund um Arbeitsmodelle der Zukunft leuchtet es ein, dass sich diese neben dem Tagesgeschäft kaum mit Bordmitteln lösen lassen. Gut ein Viertel der Unternehmen arbeitet daher bereits mit externen Providern, Lieferanten und Beratern an der Umsetzung, weitere 36 Prozent suchen nach passenden Partnern. Zu den Befürworten derartiger Kooperationen zählen überdurchschnittlich viele Befragte aus dem obersten IT-Management.

Frust und Stress – deutsche Beschäftigte verlieren Motivation

Firmen, die bereits mit externen Partnern zusammenarbeiten, nutzen diese für eine Vielfalt von Aufgaben. Sie reichen von der Entwicklung des Hybrid-Work-Modells über seine Umsetzung und die Anpassung der Prozesse, die Raumgestaltung sowie das persönliche Training bis zur Beratung in steuerlichen und regulativen Fragen. Verglichen mit der vorherigen Studie zum Thema ist jedoch ein geringfügiger Rückgang bei der Anbahnung und der Umsetzung mit Partnern zu verzeichnen. Im Zuge dessen ist der Wert der Firmen, die den Future Workplace vorrangig in Eigenregie bearbeiten wollen, von knapp fünf auf fast 15 Prozent gestiegen. Ob es am Kostendruck in der IT oder an der Tatsache liegt, dass bereits viele Vorarbeiten geleistet wurden, sei dahingestellt.

Fazit – mehr als ein “Goodie”

Der Future Workplace ist kein Goodie wie Tischkicker oder Obstkörbe, sondern ein strategischer Hebel, um Prozesse rund um die Belegschaft schneller, flexibler und resilienter zu machen. Neben der Anbindung des Homeoffice geht es um die Standortvernetzung, den Außendienst, Geschäftsreisen und um die Ausstattung von Call Centern. Immerhin 20 Prozent der Firmen haben den Anspruch, ihren Beschäftigten einen sehr modernen Arbeitsplatz zu bieten. Diese Meinung wird speziell von kleineren Firmen sowie in Fachbereichen geäußert. Der Weg zum Future Workplace ist vorgezeichnet – jetzt umzudrehen – „Back to Legacy“ – wäre keine smarte Entscheidung.

Die neue Studie “Future Workplace 2025” von CIO Research Services
Research Services: erdenbuerger – kreative kommunikation

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: HP Deutschland GmbH

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 323 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 15. bis 24. Januar 2025

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit dem Studienpartner

Der Arbeitsplatz der Zukunft ist mehr als nur ein Benefit​ Weiterlesen »

5 Tipps für Firmengründer: Richtig in die Selbständigkeit starten​

Allgemein

Wer in einem Angestelltenverhältnis ist und den Schritt in die Selbstständigkeit plant, sollte eine klare Marschroute befolgen und das neue Standbein parallel zur Festanstellung aufbauen. Foto: GaudiLab – shutterstock.com “Die Menschen haben oft Angst vor dem Unbekannten und bleiben lieber in der vermeintlichen Sicherheit ihres Jobs”, sagt Torben Baumdick, Autor des Buches “Chef, ich kündige!”. Der Finanzexperte weiter: “Ich habe es selbst erlebt: Es ist leicht, sich ein Einkommen aufzubauen, das nicht mehr von der Arbeitszeit abhängig ist.” Wie das funktioniert, dafür hat er folgende fünf Tipps parat: 1. Gleitender Übergang statt Sprung in die Selbstständigkeit Die Vorstellung eines abrupten Sprungs in die Selbstständigkeit ist ein weitverbreitetes, aber falsches Bild. Tatsächlich ist ein plötzlicher Wechsel, bei dem ein Angestellter von heute auf morgen seinen festen Job aufgibt, um sich selbstständig zu machen, meist nicht der beste Weg. Erfolg in der Selbstständigkeit resultiert aus einem überlegten und gleitenden Übergang. Indem man sein eigenes Geschäft zunächst nebenberuflich startet und aufbaut, gewährt man sich die nötige Zeit und Sicherheit. Erst wenn dann das Wunscheinkommen erreicht ist – ob es nun 2000 oder 3000 Euro beträgt – kann in Erwägung gezogen werden, die Hauptbeschäftigung aufzugeben. Beginnt ein fest Beschäftigter mit zehn oder 20 Stunden wöchentlich, kann er nach dieser Phase problemlos in Vollzeit am neuen Business arbeiten. 2. Genügend Startkapital einplanen Bevor sich ein Interessent für ein konkretes Geschäftsmodell entscheidet, ist es wichtig, die finanzielle Ausgangslage sorgfältig zu prüfen. Jede Selbstständigkeit erfordert ein gewisses Kapital, insbesondere im Hinblick auf die Kundengewinnung. Einer der Hauptzwecke des Startkapitals ist dabei die Finanzierung von bezahlter Werbung, die das Potenzial hat, rund um die Uhr Einkünfte zu generieren, selbst wenn man gerade nicht aktiv arbeitet. Im Gegensatz zum Angestelltenverhältnis, in dem man meistens Zeit gegen Geld eintauscht, ermöglicht dies eine fortlaufende Einkommensquelle. Eine sinnvolle Orientierung für das benötigte Startkapital könnte eine Summe im vierstelligen Bereich sein oder eine monatliche Ersparnis von 300 bis 500 Euro, um sicher in die Selbstständigkeit zu starten. 3. Lean Startup als bewährtes Konzept Steht der Aufbau eines eigenen Business kurz bevor, ist die Motivation groß. Viele neigen dann dazu, übermütig Geld auszugeben. Doch genau hier sollten sich Betroffene bremsen und die Kosten so gering wie möglich halten. Denn mittlerweile gibt es zahlreiche günstigere Alternativen, als sofort einen Experten aufzusuchen, der viel Geld kostet. Wer beispielsweise sein eigenes Logo für das Geschäft erstellen möchte, muss nicht gleich zu einem Designer gehen und dafür 1.000 Euro zahlen. Dank kostenloser Programme wie Canva können Gründer eigene Logos erstellen. Gleiches gilt für die Webseite oder den Onlineshop, die anhand von einfachen Baukastensystemen kreiert werden können. Nicht zuletzt muss ein Interessent auch nicht sofort eine GmbH oder eine andere Rechtsform gründen. Ein Lean Startup ist völlig ausreichend. Die Anmeldung eines solchen Kleinunternehmens kostet gerade einmal 30 bis 50 Euro beim Gewerbeamt, ist steuersmart und einfach in der Regelung. Dabei sollte man sich immer vor Augen führen: Das Geld, das man an den richtigen Stellen spart, kann man nutzen, um die Selbstständigkeit erfolgreich aufzubauen und Kunden zu gewinnen. 4. Ein smartes Geschäftsmodell wählen Bei der Überlegung, in welche Richtung ein neues Geschäft gehen soll, ist es entscheidend, die eigenen Bedürfnisse und Unzufriedenheiten im aktuellen Arbeitsverhältnis zu analysieren. Wer beispielsweise mit der ortsgebundenen Arbeit hadert und nicht ständig an einen festen Ort gebunden sein möchte, sollte ein ortsunabhängiges Geschäftsmodell in Betracht ziehen. Für diejenigen, die Flexibilität in ihrer Arbeitszeit suchen und nicht jeden Tag zu festen Zeiten arbeiten möchten, wäre ein zeitunabhängiges Modell ideal. Möchte man jedoch etwas Langfristiges und Sicheres schaffen, sollte das Geschäftsmodell dementsprechend gewählt werden. Ein besonders beliebtes Geschäftsmodell, das ortsunabhängig und flexibel ist, ist Dropshipping. Bei diesem Modell hält man kein eigenes Warenlager und verkauft Produkte von Zwischenhändlern, was den Aufwand und die Kosten minimiert. Die Hauptkosten liegen hier vor allem im Marketing und der Kundengewinnung, weshalb Dropshipping oft als ideale Methode angesehen wird, um nebenberuflich in die Selbständigkeit zu starten. 5. Das richtige Mindset Der Erfolg eines Geschäfts kommt mit der Einstellung zum Aufbau. Niemand muss sich ein Business in zwei oder drei Wochen aufbauen. Viel wichtiger ist es, sich ein realistisches Ziel mit Zwischenetappen zu setzen. So könnte der Gründer sich vornehmen, in drei Monaten die ersten Schritte zu gehen und in sechs Monaten darüber ein kleines Einkommen zu verdienen. In zwölf Monaten ließe sich dann als Meilenstein festlegen, den Hauptjob zu kündigen und sich ganz dem neuen Business zu widmen. Wichtige Schlagwörter sind demnach: langfristig denken und nichts überstürzen. 

5 Tipps für Firmengründer: Richtig in die Selbständigkeit starten​ Wer in einem Angestelltenverhältnis ist und den Schritt in die Selbstständigkeit plant, sollte eine klare Marschroute befolgen und das neue Standbein parallel zur Festanstellung aufbauen.
Foto: GaudiLab – shutterstock.com

“Die Menschen haben oft Angst vor dem Unbekannten und bleiben lieber in der vermeintlichen Sicherheit ihres Jobs”, sagt Torben Baumdick, Autor des Buches “Chef, ich kündige!”. Der Finanzexperte weiter: “Ich habe es selbst erlebt: Es ist leicht, sich ein Einkommen aufzubauen, das nicht mehr von der Arbeitszeit abhängig ist.” Wie das funktioniert, dafür hat er folgende fünf Tipps parat:

1. Gleitender Übergang statt Sprung in die Selbstständigkeit

Die Vorstellung eines abrupten Sprungs in die Selbstständigkeit ist ein weitverbreitetes, aber falsches Bild. Tatsächlich ist ein plötzlicher Wechsel, bei dem ein Angestellter von heute auf morgen seinen festen Job aufgibt, um sich selbstständig zu machen, meist nicht der beste Weg. Erfolg in der Selbstständigkeit resultiert aus einem überlegten und gleitenden Übergang.

Indem man sein eigenes Geschäft zunächst nebenberuflich startet und aufbaut, gewährt man sich die nötige Zeit und Sicherheit. Erst wenn dann das Wunscheinkommen erreicht ist – ob es nun 2000 oder 3000 Euro beträgt – kann in Erwägung gezogen werden, die Hauptbeschäftigung aufzugeben. Beginnt ein fest Beschäftigter mit zehn oder 20 Stunden wöchentlich, kann er nach dieser Phase problemlos in Vollzeit am neuen Business arbeiten.

2. Genügend Startkapital einplanen

Bevor sich ein Interessent für ein konkretes Geschäftsmodell entscheidet, ist es wichtig, die finanzielle Ausgangslage sorgfältig zu prüfen. Jede Selbstständigkeit erfordert ein gewisses Kapital, insbesondere im Hinblick auf die Kundengewinnung. Einer der Hauptzwecke des Startkapitals ist dabei die Finanzierung von bezahlter Werbung, die das Potenzial hat, rund um die Uhr Einkünfte zu generieren, selbst wenn man gerade nicht aktiv arbeitet.

Im Gegensatz zum Angestelltenverhältnis, in dem man meistens Zeit gegen Geld eintauscht, ermöglicht dies eine fortlaufende Einkommensquelle. Eine sinnvolle Orientierung für das benötigte Startkapital könnte eine Summe im vierstelligen Bereich sein oder eine monatliche Ersparnis von 300 bis 500 Euro, um sicher in die Selbstständigkeit zu starten.

3. Lean Startup als bewährtes Konzept

Steht der Aufbau eines eigenen Business kurz bevor, ist die Motivation groß. Viele neigen dann dazu, übermütig Geld auszugeben. Doch genau hier sollten sich Betroffene bremsen und die Kosten so gering wie möglich halten. Denn mittlerweile gibt es zahlreiche günstigere Alternativen, als sofort einen Experten aufzusuchen, der viel Geld kostet. Wer beispielsweise sein eigenes Logo für das Geschäft erstellen möchte, muss nicht gleich zu einem Designer gehen und dafür 1.000 Euro zahlen. Dank kostenloser Programme wie Canva können Gründer eigene Logos erstellen.

Gleiches gilt für die Webseite oder den Onlineshop, die anhand von einfachen Baukastensystemen kreiert werden können. Nicht zuletzt muss ein Interessent auch nicht sofort eine GmbH oder eine andere Rechtsform gründen. Ein Lean Startup ist völlig ausreichend.

Die Anmeldung eines solchen Kleinunternehmens kostet gerade einmal 30 bis 50 Euro beim Gewerbeamt, ist steuersmart und einfach in der Regelung. Dabei sollte man sich immer vor Augen führen: Das Geld, das man an den richtigen Stellen spart, kann man nutzen, um die Selbstständigkeit erfolgreich aufzubauen und Kunden zu gewinnen.

4. Ein smartes Geschäftsmodell wählen

Bei der Überlegung, in welche Richtung ein neues Geschäft gehen soll, ist es entscheidend, die eigenen Bedürfnisse und Unzufriedenheiten im aktuellen Arbeitsverhältnis zu analysieren. Wer beispielsweise mit der ortsgebundenen Arbeit hadert und nicht ständig an einen festen Ort gebunden sein möchte, sollte ein ortsunabhängiges Geschäftsmodell in Betracht ziehen.

Für diejenigen, die Flexibilität in ihrer Arbeitszeit suchen und nicht jeden Tag zu festen Zeiten arbeiten möchten, wäre ein zeitunabhängiges Modell ideal. Möchte man jedoch etwas Langfristiges und Sicheres schaffen, sollte das Geschäftsmodell dementsprechend gewählt werden.

Ein besonders beliebtes Geschäftsmodell, das ortsunabhängig und flexibel ist, ist Dropshipping. Bei diesem Modell hält man kein eigenes Warenlager und verkauft Produkte von Zwischenhändlern, was den Aufwand und die Kosten minimiert. Die Hauptkosten liegen hier vor allem im Marketing und der Kundengewinnung, weshalb Dropshipping oft als ideale Methode angesehen wird, um nebenberuflich in die Selbständigkeit zu starten.

5. Das richtige Mindset

Der Erfolg eines Geschäfts kommt mit der Einstellung zum Aufbau. Niemand muss sich ein Business in zwei oder drei Wochen aufbauen. Viel wichtiger ist es, sich ein realistisches Ziel mit Zwischenetappen zu setzen. So könnte der Gründer sich vornehmen, in drei Monaten die ersten Schritte zu gehen und in sechs Monaten darüber ein kleines Einkommen zu verdienen. In zwölf Monaten ließe sich dann als Meilenstein festlegen, den Hauptjob zu kündigen und sich ganz dem neuen Business zu widmen. Wichtige Schlagwörter sind demnach: langfristig denken und nichts überstürzen.

5 Tipps für Firmengründer: Richtig in die Selbständigkeit starten​ Weiterlesen »

Streit um Broadcoms Lizenzpolitik eskaliert​

Allgemein

VMware-Kunden sind sauer – nach der Übernahme durch Broadcom haben sich die Virtualisierungslösungen deutlich verteuert.JHVEPhoto – shutterstock.com Voice – Bundesverband der IT-Anwender hat bei der EU-Kommission Beschwerde wegen Wettbewerbsverstößen gegen Broadcom/VMware eingereicht. Nach Auffassung des Anwenderverbandes missbrauche der IT-Anbieter seine dominante Marktstellung im Bereich Virtualisierungssoftware.   Konkret wirft Voice Broadcom vor, „mit Hilfe willkürlich zusammengestellter Produkt-Bundle im Rahmen der Umstellung von Perpetual-Licencing auf Subskription exorbitante und unfaire Preiserhöhungen durchzusetzen“. Voice berichtet unter Berufung auf direkt betroffene Unternehmen von Preissteigerungen in Höhe von mehreren hundert Prozent. Warum der Haussegen zwischen Broadcom und den VMware-Kunden so schief hängt, lesen Sie hier: Auskunftsersuchen wegen VMware: EU untersucht Broadcoms Lizenzpraktiken Slash and Burn?: Der Niedergang von VMware Kritische Analystenstimmen: Wird Broadcom die VMware-Kunden melken? Obwohl Broadcom im Vorfeld der Übernahme von VMware versprochen habe, die Preise nicht anzuheben, verursachten die Umstellung des Angebots auf zwei große Haupt-Produktbündel, die Einführung von Abonnementmodellen und die Einteilung der Kunden in Kategorien massive Preissteigerungen, hieß es in einer Mitteilung des Anwenderverbands. Kunden könnten in der Regel nicht oder nur mit hohem finanziellem und zeitlichem Aufwand zu einem anderen Anbieter von Virtualisierungssoftware wechseln. Voice sieht in diesem Verhalten einen Missbrauch der marktbeherrschenden Stellung von Broadcom. Auskunftsersuchen wegen VMware: EU untersucht Broadcoms Lizenzpraktiken “Broadcom nutzt die Abhängigkeit seiner Kunden aus” „Broadcom nutzt die Abhängigkeit seiner Kunden von den VMware-Produkten in höchst bedenklicher Weise aus“, erklärte Voice-Geschäftsführer Robin Kaufmann. „Als unabhängiger Anwenderverband, der die Interessen seiner Mitglieder vertritt, sind wir verpflichtet, gegen solche unfairen Praktiken vorzugehen.“ Man habe es zunächst im direkten Dialog mit Broadcom versucht, doch offensichtlich ohne Erfolg. „Das Unternehmen hat offensichtlich ausschließlich seine ehrgeizigen Finanzziele im Blick und interessiert sich überhaupt nicht für die Belange seiner Kunden“, so Kaufmann. Broadcom hat nur seine Finanzziele im Blick und interessiert sich nicht für die Belange seiner Kunden, wirft Voice-Geschäftsführer Robin Kaufmann dem IT-Anbieter vor.VOICE Die Anwendervertreter kritisieren insbesondere das Bundling der bisher einzeln verkauften Produkte, was zu hohen Kostensteigerungen für Anwenderunternehmen führe. In den heute verfügbaren zwei Haupt-Produktpaketen würden die bisherigen Einzelprodukte gebündelt. Einzelprodukte seien nur noch sehr eingeschränkt verfügbar. Erschwerend komme hinzu, dass Kunden immer sämtliche Produkte eines Bündels erwerben müssten, unabhängig davon, ob sie sie brauchen oder nicht. Doppelt negative Bundling-Effekte  Auch Broadcoms Preispolitik nehmen die Voice-Vertreter aufs Korn. Demzufolge richteten sich die Preise der Pakete immer am stärksten Bedarf aus. „Benötigt ein Kunde zum Beispiel deutlich mehr Lizenzen für die Servervirtualisierung als für die Speichervirtualisierung muss er trotzdem die gleiche Menge Netz-Lizenzen beziehen, wie er für die Servervirtualisierung braucht“, berichtet der Verband und spricht von doppelt negativen Bundling-Effekten: „Der Zwang, mehr Produkte zu erwerben als benötigt, führt zu einem qualitativen Bündelungseffekt. Der Zwang, mehr Lizenzen zu erwerben als benötigt, führt zu einem quantitativen Bündelungseffekt.“  Auch das Geschäftsgebaren Broadcoms kritisieren die Voice-Verantwortlichen. Kunden, deren bisherigen Lizenzverträge auslaufen, würden erheblich unter Verhandlungsdruck gesetzt. So verweigere der Anbieter seiner Kundschaft die nötige Zeit für die Umstellung beziehungsweise vertraglich vereinbarte Verlängerungsoptionen. Darüber hinaus würden Anfragen absichtlich verzögert beantwortet, damit Kunden möglichst wenig Reaktionszeit bleibe, um die von Broadcom gesetzten Fristen einzuhalten.  Unlautere Praktiken großer Anbieter schränken fairen Wettbewerb ein „Aufgrund dieser und vieler weiterer gravierender Verstöße gegen den fairen Wettbewerb hat sich Voice entschlossen, den Weg der Beschwerde bei der EU-Kommission zu gehen“, erklärte Voice-Chef Kaufmann. „Wir setzen uns ein für einen fairen Wettbewerb im Software- und Cloud-Markt, der leider immer wieder durch unlautere Praktiken großer Anbieter in Frage gestellt wird. Dagegen wollen wir uns wehren.“ Wer ebenfalls gegen die unlauteren Praktiken von Broadcom vorgehen wolle, könne sich gerne an Voice wenden.  

Streit um Broadcoms Lizenzpolitik eskaliert​ VMware-Kunden sind sauer – nach der Übernahme durch Broadcom haben sich die Virtualisierungslösungen deutlich verteuert.JHVEPhoto – shutterstock.com

Voice – Bundesverband der IT-Anwender hat bei der EU-Kommission Beschwerde wegen Wettbewerbsverstößen gegen Broadcom/VMware eingereicht. Nach Auffassung des Anwenderverbandes missbrauche der IT-Anbieter seine dominante Marktstellung im Bereich Virtualisierungssoftware.  

Konkret wirft Voice Broadcom vor, „mit Hilfe willkürlich zusammengestellter Produkt-Bundle im Rahmen der Umstellung von Perpetual-Licencing auf Subskription exorbitante und unfaire Preiserhöhungen durchzusetzen“. Voice berichtet unter Berufung auf direkt betroffene Unternehmen von Preissteigerungen in Höhe von mehreren hundert Prozent.

Warum der Haussegen zwischen Broadcom und den VMware-Kunden so schief hängt, lesen Sie hier:

Auskunftsersuchen wegen VMware: EU untersucht Broadcoms Lizenzpraktiken

Slash and Burn?: Der Niedergang von VMware

Kritische Analystenstimmen: Wird Broadcom die VMware-Kunden melken?

Obwohl Broadcom im Vorfeld der Übernahme von VMware versprochen habe, die Preise nicht anzuheben, verursachten die Umstellung des Angebots auf zwei große Haupt-Produktbündel, die Einführung von Abonnementmodellen und die Einteilung der Kunden in Kategorien massive Preissteigerungen, hieß es in einer Mitteilung des Anwenderverbands. Kunden könnten in der Regel nicht oder nur mit hohem finanziellem und zeitlichem Aufwand zu einem anderen Anbieter von Virtualisierungssoftware wechseln. Voice sieht in diesem Verhalten einen Missbrauch der marktbeherrschenden Stellung von Broadcom. Auskunftsersuchen wegen VMware: EU untersucht Broadcoms Lizenzpraktiken

“Broadcom nutzt die Abhängigkeit seiner Kunden aus”

„Broadcom nutzt die Abhängigkeit seiner Kunden von den VMware-Produkten in höchst bedenklicher Weise aus“, erklärte Voice-Geschäftsführer Robin Kaufmann. „Als unabhängiger Anwenderverband, der die Interessen seiner Mitglieder vertritt, sind wir verpflichtet, gegen solche unfairen Praktiken vorzugehen.“ Man habe es zunächst im direkten Dialog mit Broadcom versucht, doch offensichtlich ohne Erfolg. „Das Unternehmen hat offensichtlich ausschließlich seine ehrgeizigen Finanzziele im Blick und interessiert sich überhaupt nicht für die Belange seiner Kunden“, so Kaufmann.

Broadcom hat nur seine Finanzziele im Blick und interessiert sich nicht für die Belange seiner Kunden, wirft Voice-Geschäftsführer Robin Kaufmann dem IT-Anbieter vor.VOICE

Die Anwendervertreter kritisieren insbesondere das Bundling der bisher einzeln verkauften Produkte, was zu hohen Kostensteigerungen für Anwenderunternehmen führe. In den heute verfügbaren zwei Haupt-Produktpaketen würden die bisherigen Einzelprodukte gebündelt. Einzelprodukte seien nur noch sehr eingeschränkt verfügbar. Erschwerend komme hinzu, dass Kunden immer sämtliche Produkte eines Bündels erwerben müssten, unabhängig davon, ob sie sie brauchen oder nicht.

Doppelt negative Bundling-Effekte 

Auch Broadcoms Preispolitik nehmen die Voice-Vertreter aufs Korn. Demzufolge richteten sich die Preise der Pakete immer am stärksten Bedarf aus. „Benötigt ein Kunde zum Beispiel deutlich mehr Lizenzen für die Servervirtualisierung als für die Speichervirtualisierung muss er trotzdem die gleiche Menge Netz-Lizenzen beziehen, wie er für die Servervirtualisierung braucht“, berichtet der Verband und spricht von doppelt negativen Bundling-Effekten: „Der Zwang, mehr Produkte zu erwerben als benötigt, führt zu einem qualitativen Bündelungseffekt. Der Zwang, mehr Lizenzen zu erwerben als benötigt, führt zu einem quantitativen Bündelungseffekt.“ 

Auch das Geschäftsgebaren Broadcoms kritisieren die Voice-Verantwortlichen. Kunden, deren bisherigen Lizenzverträge auslaufen, würden erheblich unter Verhandlungsdruck gesetzt. So verweigere der Anbieter seiner Kundschaft die nötige Zeit für die Umstellung beziehungsweise vertraglich vereinbarte Verlängerungsoptionen. Darüber hinaus würden Anfragen absichtlich verzögert beantwortet, damit Kunden möglichst wenig Reaktionszeit bleibe, um die von Broadcom gesetzten Fristen einzuhalten. 

Unlautere Praktiken großer Anbieter schränken fairen Wettbewerb ein

„Aufgrund dieser und vieler weiterer gravierender Verstöße gegen den fairen Wettbewerb hat sich Voice entschlossen, den Weg der Beschwerde bei der EU-Kommission zu gehen“, erklärte Voice-Chef Kaufmann. „Wir setzen uns ein für einen fairen Wettbewerb im Software- und Cloud-Markt, der leider immer wieder durch unlautere Praktiken großer Anbieter in Frage gestellt wird. Dagegen wollen wir uns wehren.“ Wer ebenfalls gegen die unlauteren Praktiken von Broadcom vorgehen wolle, könne sich gerne an Voice wenden. 

Streit um Broadcoms Lizenzpolitik eskaliert​ Weiterlesen »

ServiceNow nimmt Salesforce ins Visier​

Allgemein

Mit einem stärkeren Fokus auf den Kunden will ServiceNow Salesforce & Co. im CRM-Bereich Marktanteile abjagen.Foundry ServiceNow hat mit einer Reihe neuer, KI-gestützter Funktionen einen großen Schritt in den Markt für Kundenbeziehungsmanagement (CRM) gewagt. Der Spezialist für Workflow-Automatisierung hatte bereits Ende Januar seinen Einstieg in den CRM-Bereich bekanntgegeben. Auf seiner Hausmesse Knowledge 2025 stellte er nun aber in dieser Woche mehrere neue Funktionen vor, die in direkter Konkurrenz zum CRM-Giganten Salesforce stehen.  Schon Ende 2024, als Gerüchte über ServiceNow CRM-Pläne aufkamen, sah sich Salesforce-CEO Marc Benioff in Jim Cramers Mad Money Show veranlasst, ServiceNow in Anspielung auf die Fast-Food-Ketten als „Wiener Schnitzel“ im Vergleich zu Salesforce („McDonald’s“) zu bezeichnen.  Die Antwort ließ nicht lange auf sich warten: Vor kurzem veröffentlichte ServiceNow-CEO Bill McDermott einen Artikel auf LinkedIn, in dem er darauf hinwies, dass sich Salesforce auf die Auswirkungen von ServiceNow’s Vorstoßes in diesen Bereich „vorbereite“. Gleichzeitig fügte er hinzu, dass ServiceNow „nicht nur CRM verbessere, sondern es als KI-Plattform für die Transformation von Unternehmen neu definiere“.  Wenig später tätigte die Company mit der Übernahme des KI-Plattformunternehmens Moveworks für 2,85 Milliarden Dollar seine bislang größte Akquisition, die als entscheidender Schritt in Richtung dieses Ziels angesehen wird.  Das CRM-Angebot von ServiceNow  Das CRM-Produkt von ServiceNow umfasst laut Angaben des Unternehmens Vertriebs- und Ordermanagement, Field-Service-Management sowie Customer-Service-Management und erweitert das bisherige CRM-Angebot durch KI-gestützte Automatisierung und einen einheitlichen Plattformansatz.  Wie Manager von ServiceNow betonen, positioniert sich das Unternehmen damit gegenüber aktuellen CRMs, die sich nur auf einen Teil der Customer Journey beschränkten – ohne, Salesforce namentlich zu erwähnen.  „Traditionelle CRM-Systeme legen den Schwerpunkt auf die Vertriebsunterstützung, während ServiceNow sich darauf konzentriert, Vertrieb, Service und Produktabwicklung auf einer Plattform zu verbinden“, so Terence Chesire, Vice President of CRM and Industry Workflows bei ServiceNow. Traditionelle CRMs hätten oft versäumt, bessere Kundenerlebnisse zu schaffen, fügt er hinzu.  „Über ein Jahrzehnt lang versprachen alteingesessene CRM-Anbieter eine Welt, in der eine 360-Grad-Sicht und Omnichannel der Heilige Gral waren und man nur Sprach-, Web-, E-Mail-, Chat- und Messaging-Dienste anbieten musste, um Wunder zu vollbringen“, erklärt er. “Aber das ist nicht geschehen.“  Omnichannel-Kundenkommunikation sei wichtig, aber nur die halbe Miete, wenn frustrierende Chatbots und überlastete Mitarbeiter ein weniger als zufriedenstellendes Kundenerlebnis bieten, fügt Chesire hinzu.  „Die andere Hälfte der Geschichte ist, wie Sie die wirklichen Schwachstellen im Kundenerlebnis beheben“, betont der ServiceNow-Manager. “Im Kundenservice brauchen Sie mehr als nur eine hervorragende Omnichannel-Erfassung von Anfragen. Sie müssen auch den schwierigen Teil, nämlich die Lösung und das Fulfillment, koordinieren und automatisieren.“  Fokus auf Kundenservice und Kundenbindung  ServiceNows Expansion in den CRM-Markt wird von einigen Experten und Analysten begrüßt. „Das Unternehmen ist tief im Kundenservice verwurzelt, während einige andere CRM-Anbieter mit einem Fokus auf Vertriebsautomatisierung in den Markt eingetreten sind“, erklärt Chuck Schaeffer, Geschäftsführer von Johnny Grow, einer Unternehmensberatung. ServiceNow habe die seltene Gelegenheit, ein ganzheitlicheres CRM-System anzubieten, fügt er hinzu.  Viele der langjährigen CRM-Produkte hätten mehrere starke Verkaufsargumente, darunter Flexibilität und Benutzerfreundlichkeit, aber sie würden in der Regel interne Vorteile für ihre Nutzer bieten, so Schaeffer weiter.  „CRM wurde entwickelt, um Prozesse zu rationalisieren, die Produktivität zu verbessern und Automatisierung zu erreichen“, so der langjährige CRM-Experte. “Das sind sicherlich alles gute Dinge, aber nur wenige oder gar keine dieser Funktionen inspirieren Kunden dazu, ihre Beziehungen zu Lieferanten auszubauen.“ Moderne CRMs sollten lohnende Kundenerlebnisse bieten und Kundenbeziehungen aufbauen, fügt er hinzu.  „ServiceNow strebt seit mehreren Jahren eine Expansion in den CRM-Bereich an, der ein enormes Wachstumspotenzial bietet“, so Andrew Miljanovski, Vice President Advisor im Team für Sourcing-, Procurement- und Vendor-Management bei Gartner.  Vom System of Records zum System of Action  Das Unternehmen positioniert sich nun als KI-gesteuerte „Plattform der Plattformen“, auf der mehrere Unternehmenssysteme, darunter ITSM, IT Operations Management, Contract Lifecycle Management, HR-Lösungen und nun auch CRM, bei Bedarf zusammenarbeiten, so Miljanovski.   Dem Gartner-Analysten zufolge hat das traditionelle CRM nicht alle seine Versprechen gehalten. „Viele Unternehmen haben einen Rückgang der Qualität festgestellt“, erklärt er. „Es sind viele Mitarbeiter erforderlich, die vier Anwendungen nutzen müssen, um Probleme zu lösen.“  In einigen Fällen verbrächten Vertriebsmitarbeiter mehr Zeit im CRM-Arbeitsbereich als mit dem Verkauf an potenzielle Kunden, aber zusätzliche KI-Funktionen könnten helfen, das Problem zu lösen.  „Die Zukunft von CRM liegt in einer Kombination aus KI, Daten und Workflows“, so Miljanovski. “Traditionell war CRM ein System zur Datenerfassung, aber ServiceNow ist stolz darauf, ein System zum Handeln zu sein, das sich mit vielen Datenerfassungssystemen verbinden kann, wobei der Workflow – und das ist das Besondere an ServiceNow – auf der Handlungsebene stattfindet.“  Einheitliche Plattform und Datenmodell könnten einen Vorteil bieten  „Der Vorteil von ServiceNow ist eine einheitliche Plattform, die unzusammenhängende IT-Services reduzieren kann“, bestätigt Stephen Elliot, Group Vice President für Infrastruktur und Betrieb, Cloud-Betrieb und DevOps bei IDC.  „Die Ausführung mehrerer IT-bezogener Dienste auf einer Plattform kann CIOs das Leben erleichtern“, fügt er hinzu. Viele IT-Führungskräfte möchten ihre IT-Abläufe, das Asset Management und andere zentrale IT-Prozesse vereinfachen und funktionaler gestalten.  „Es geht wirklich um die Daten, und ServiceNow hat Zugriff auf all diese Daten und verfügt über ein einheitliches Datenmodell“, so der IDC-Analyst. “Man kann sich vorstellen, dass diese Prozesse mit zunehmender Intelligenz und Automatisierung auch die Geschwindigkeit dieser Business-Architekturen erhöhen.“ (mb) 

ServiceNow nimmt Salesforce ins Visier​ Mit einem stärkeren Fokus auf den Kunden will ServiceNow Salesforce & Co. im CRM-Bereich Marktanteile abjagen.Foundry

ServiceNow hat mit einer Reihe neuer, KI-gestützter Funktionen einen großen Schritt in den Markt für Kundenbeziehungsmanagement (CRM) gewagt. Der Spezialist für Workflow-Automatisierung hatte bereits Ende Januar seinen Einstieg in den CRM-Bereich bekanntgegeben. Auf seiner Hausmesse Knowledge 2025 stellte er nun aber in dieser Woche mehrere neue Funktionen vor, die in direkter Konkurrenz zum CRM-Giganten Salesforce stehen. 

Schon Ende 2024, als Gerüchte über ServiceNow CRM-Pläne aufkamen, sah sich Salesforce-CEO Marc Benioff in Jim Cramers Mad Money Show veranlasst, ServiceNow in Anspielung auf die Fast-Food-Ketten als „Wiener Schnitzel“ im Vergleich zu Salesforce („McDonald’s“) zu bezeichnen. 

Die Antwort ließ nicht lange auf sich warten: Vor kurzem veröffentlichte ServiceNow-CEO Bill McDermott einen Artikel auf LinkedIn, in dem er darauf hinwies, dass sich Salesforce auf die Auswirkungen von ServiceNow’s Vorstoßes in diesen Bereich „vorbereite“. Gleichzeitig fügte er hinzu, dass ServiceNow „nicht nur CRM verbessere, sondern es als KI-Plattform für die Transformation von Unternehmen neu definiere“. 

Wenig später tätigte die Company mit der Übernahme des KI-Plattformunternehmens Moveworks für 2,85 Milliarden Dollar seine bislang größte Akquisition, die als entscheidender Schritt in Richtung dieses Ziels angesehen wird. 

Das CRM-Angebot von ServiceNow 

Das CRM-Produkt von ServiceNow umfasst laut Angaben des Unternehmens Vertriebs- und Ordermanagement, Field-Service-Management sowie Customer-Service-Management und erweitert das bisherige CRM-Angebot durch KI-gestützte Automatisierung und einen einheitlichen Plattformansatz. 

Wie Manager von ServiceNow betonen, positioniert sich das Unternehmen damit gegenüber aktuellen CRMs, die sich nur auf einen Teil der Customer Journey beschränkten – ohne, Salesforce namentlich zu erwähnen. 

„Traditionelle CRM-Systeme legen den Schwerpunkt auf die Vertriebsunterstützung, während ServiceNow sich darauf konzentriert, Vertrieb, Service und Produktabwicklung auf einer Plattform zu verbinden“, so Terence Chesire, Vice President of CRM and Industry Workflows bei ServiceNow. Traditionelle CRMs hätten oft versäumt, bessere Kundenerlebnisse zu schaffen, fügt er hinzu. 

„Über ein Jahrzehnt lang versprachen alteingesessene CRM-Anbieter eine Welt, in der eine 360-Grad-Sicht und Omnichannel der Heilige Gral waren und man nur Sprach-, Web-, E-Mail-, Chat- und Messaging-Dienste anbieten musste, um Wunder zu vollbringen“, erklärt er. “Aber das ist nicht geschehen.“ 

Omnichannel-Kundenkommunikation sei wichtig, aber nur die halbe Miete, wenn frustrierende Chatbots und überlastete Mitarbeiter ein weniger als zufriedenstellendes Kundenerlebnis bieten, fügt Chesire hinzu. 

„Die andere Hälfte der Geschichte ist, wie Sie die wirklichen Schwachstellen im Kundenerlebnis beheben“, betont der ServiceNow-Manager. “Im Kundenservice brauchen Sie mehr als nur eine hervorragende Omnichannel-Erfassung von Anfragen. Sie müssen auch den schwierigen Teil, nämlich die Lösung und das Fulfillment, koordinieren und automatisieren.“ 

Fokus auf Kundenservice und Kundenbindung 

ServiceNows Expansion in den CRM-Markt wird von einigen Experten und Analysten begrüßt. „Das Unternehmen ist tief im Kundenservice verwurzelt, während einige andere CRM-Anbieter mit einem Fokus auf Vertriebsautomatisierung in den Markt eingetreten sind“, erklärt Chuck Schaeffer, Geschäftsführer von Johnny Grow, einer Unternehmensberatung. ServiceNow habe die seltene Gelegenheit, ein ganzheitlicheres CRM-System anzubieten, fügt er hinzu. 

Viele der langjährigen CRM-Produkte hätten mehrere starke Verkaufsargumente, darunter Flexibilität und Benutzerfreundlichkeit, aber sie würden in der Regel interne Vorteile für ihre Nutzer bieten, so Schaeffer weiter. 

„CRM wurde entwickelt, um Prozesse zu rationalisieren, die Produktivität zu verbessern und Automatisierung zu erreichen“, so der langjährige CRM-Experte. “Das sind sicherlich alles gute Dinge, aber nur wenige oder gar keine dieser Funktionen inspirieren Kunden dazu, ihre Beziehungen zu Lieferanten auszubauen.“ Moderne CRMs sollten lohnende Kundenerlebnisse bieten und Kundenbeziehungen aufbauen, fügt er hinzu. 

„ServiceNow strebt seit mehreren Jahren eine Expansion in den CRM-Bereich an, der ein enormes Wachstumspotenzial bietet“, so Andrew Miljanovski, Vice President Advisor im Team für Sourcing-, Procurement- und Vendor-Management bei Gartner. 

Vom System of Records zum System of Action 

Das Unternehmen positioniert sich nun als KI-gesteuerte „Plattform der Plattformen“, auf der mehrere Unternehmenssysteme, darunter ITSM, IT Operations Management, Contract Lifecycle Management, HR-Lösungen und nun auch CRM, bei Bedarf zusammenarbeiten, so Miljanovski.  

Dem Gartner-Analysten zufolge hat das traditionelle CRM nicht alle seine Versprechen gehalten. „Viele Unternehmen haben einen Rückgang der Qualität festgestellt“, erklärt er. „Es sind viele Mitarbeiter erforderlich, die vier Anwendungen nutzen müssen, um Probleme zu lösen.“ 

In einigen Fällen verbrächten Vertriebsmitarbeiter mehr Zeit im CRM-Arbeitsbereich als mit dem Verkauf an potenzielle Kunden, aber zusätzliche KI-Funktionen könnten helfen, das Problem zu lösen. 

„Die Zukunft von CRM liegt in einer Kombination aus KI, Daten und Workflows“, so Miljanovski. “Traditionell war CRM ein System zur Datenerfassung, aber ServiceNow ist stolz darauf, ein System zum Handeln zu sein, das sich mit vielen Datenerfassungssystemen verbinden kann, wobei der Workflow – und das ist das Besondere an ServiceNow – auf der Handlungsebene stattfindet.“ 

Einheitliche Plattform und Datenmodell könnten einen Vorteil bieten 

„Der Vorteil von ServiceNow ist eine einheitliche Plattform, die unzusammenhängende IT-Services reduzieren kann“, bestätigt Stephen Elliot, Group Vice President für Infrastruktur und Betrieb, Cloud-Betrieb und DevOps bei IDC. 

„Die Ausführung mehrerer IT-bezogener Dienste auf einer Plattform kann CIOs das Leben erleichtern“, fügt er hinzu. Viele IT-Führungskräfte möchten ihre IT-Abläufe, das Asset Management und andere zentrale IT-Prozesse vereinfachen und funktionaler gestalten. 

„Es geht wirklich um die Daten, und ServiceNow hat Zugriff auf all diese Daten und verfügt über ein einheitliches Datenmodell“, so der IDC-Analyst. “Man kann sich vorstellen, dass diese Prozesse mit zunehmender Intelligenz und Automatisierung auch die Geschwindigkeit dieser Business-Architekturen erhöhen.“ (mb)

ServiceNow nimmt Salesforce ins Visier​ Weiterlesen »

IT Asset Management neu gedacht – dank KI​

Allgemein

IT-Ressourcen und der Softwarebestand in Unternehmen bilden das technologische Rückgrat für die gesamte Organisation. Eine effiziente Verwaltung und Kontrolle der einzelnen Assets ist entscheidend, damit etwa Lizenzen nicht zur Kostenfalle, Software nicht zum Sicherheitsrisiko und Software-Audits nicht zur Compliance-Katastrophe werden. Tools wie IT Asset Management (ITAM) und Software Asset Management (SAM) können hier helfen, IT-Assets (wie Hardware, Software, Netzwerke und Lizenzen) über ihren gesamten Lebenszyklus – von der Beschaffung bis zur Entsorgung – systematisch zu erfassen, verwalten und zu kontrollieren. Doch die Herausforderungen für Firmen bei ITAM und SAM sind enorm: Hybride Multi-Cloud-Umgebungen nehmen zu, das führt zu immer mehr Komplexität und mehr Aufwand – und steigert die Notwendigkeit, jederzeit den Überblick zu behalten. Gleichzeitig wächst der Kostendruck in der IT und wirtschaftliche Unsicherheiten und geopolitische Spannungen machen es wichtiger denn je, die IT-Ausgaben in Echtzeit zu kontrollieren. Doch lässt sich das realisieren? Auch hier bietet Künstliche Intelligenz völlig neue Ansätze und stellt damit einen Gamechangerin IT Asset Management dar. Ein COMPUTERWOCHE-Webcast in Zusammenarbeit mit USU zeigt, wie KI und maschinelles Lernen das ITAM grundlegend verändern. Die Lösungen von USU liefern in Sekunden ein aktuelles Inventory, reduzieren manuelle Arbeit und ermöglichen echte Kostentransparenz. Olaf Diehl und Daniel Fink von USU erläutern, wie Sie Ihre IT-Strategie smart aussteuern und gleichzeitig Einsparungen realisieren können. Die beiden Experten erklären außerdem, wie Chatbots und Automatisierung das Tagesgeschäft vereinfachen und wie Sie Abläufe beschleunigen und effizienter gestalten können. Die Moderation des Webcasts übernimmt der Fachjournalist Dr. Oliver Janzen. Webcast: KI-basiertes IT Asset ManagementErfahren Sie im COMPUTERWOCHE-Webcast, wie Sie Ihr ITAM mithilfe von KI und maschinellem Lernen auf neue Beine stellen.Registrieren Sie sich jetzt 

IT Asset Management neu gedacht – dank KI​ IT-Ressourcen und der Softwarebestand in Unternehmen bilden das technologische Rückgrat für die gesamte Organisation. Eine effiziente Verwaltung und Kontrolle der einzelnen Assets ist entscheidend, damit etwa Lizenzen nicht zur Kostenfalle, Software nicht zum Sicherheitsrisiko und Software-Audits nicht zur Compliance-Katastrophe werden. Tools wie IT Asset Management (ITAM) und Software Asset Management (SAM) können hier helfen, IT-Assets (wie Hardware, Software, Netzwerke und Lizenzen) über ihren gesamten Lebenszyklus – von der Beschaffung bis zur Entsorgung – systematisch zu erfassen, verwalten und zu kontrollieren.

Doch die Herausforderungen für Firmen bei ITAM und SAM sind enorm: Hybride Multi-Cloud-Umgebungen nehmen zu, das führt zu immer mehr Komplexität und mehr Aufwand – und steigert die Notwendigkeit, jederzeit den Überblick zu behalten. Gleichzeitig wächst der Kostendruck in der IT und wirtschaftliche Unsicherheiten und geopolitische Spannungen machen es wichtiger denn je, die IT-Ausgaben in Echtzeit zu kontrollieren. Doch lässt sich das realisieren? Auch hier bietet Künstliche Intelligenz völlig neue Ansätze und stellt damit einen Gamechangerin IT Asset Management dar.

Ein COMPUTERWOCHE-Webcast in Zusammenarbeit mit USU zeigt, wie KI und maschinelles Lernen das ITAM grundlegend verändern. Die Lösungen von USU liefern in Sekunden ein aktuelles Inventory, reduzieren manuelle Arbeit und ermöglichen echte Kostentransparenz. Olaf Diehl und Daniel Fink von USU erläutern, wie Sie Ihre IT-Strategie smart aussteuern und gleichzeitig Einsparungen realisieren können. Die beiden Experten erklären außerdem, wie Chatbots und Automatisierung das Tagesgeschäft vereinfachen und wie Sie Abläufe beschleunigen und effizienter gestalten können. Die Moderation des Webcasts übernimmt der Fachjournalist Dr. Oliver Janzen.

Webcast: KI-basiertes IT Asset ManagementErfahren Sie im COMPUTERWOCHE-Webcast, wie Sie Ihr ITAM mithilfe von KI und maschinellem Lernen auf neue Beine stellen.Registrieren Sie sich jetzt

IT Asset Management neu gedacht – dank KI​ Weiterlesen »

Die KI-Metamorphose von Mastercard​

Allgemein

Künstliche Intelligenz ist bei Mastercard (schon länger) gesetzt.ArDanMe | shutterstock.com Wenn ich an die Technologie denke, mit der wir zu Beginn meiner Karriere gearbeitet haben, und mir anschaue, was wir seitdem erreicht haben, ist das wirklich erstaunlich – eine von Technologie getriebene, globale Transformation. Als ich im Jahr 2005 bei Mastercard angefangen habe, war das Unternehmen in erster Linie für seine Plastikkarten bekannt. Damals hatte Mastercard rund 3.500 Mitarbeiter und eine Marktkapitalisierung von vier Milliarden Dollar. Heute macht der Konzern einen jährlichen Umsatz in Höhe von 450 Milliarden Dollar und beschäftigt weltweit mehr als 35.000 Mitarbeiter. Das ist im Wesentlichen nicht Technologie zu verdanken, sondern unseren Menschen, deren transformative Arbeit vor kurzem auch mit einem CIO 100 Award honoriert wurde. Im Kern unseres Erfolgs steht Customer Excellence – und die wird in erster Linie durch den Einsatz von künstlicher Intelligenz (KI) getrieben. In diesem Artikel gebe ich einen kurzen Überblick über unsere KI-Journey.  Komplexe Probleme, einfache Lösungen Mit dem Wachstum des Unternehmens haben wir erkannt, dass wir neue Technologien einsetzen müssen, um unsere traditionellen Kundenserviceprozesse zu modernisieren und diese an unsere externen, marktorientierten Innovationen anzupassen. Unsere B2B-Kundenserviceteams bearbeiten jährlich etwa 700.000 Support-Fälle, die über verschiedene Kanäle einfließen. Da ständig neue Kunden hinzukommen und weitere Mastercard-Dienstleistungen und -Produkte online gehen, rechnen wir damit, dass sich das Volumen der Support-Fälle im Jahr 2025 auf eine Million steigern wird. Die unstrukturierten Informationen, die dabei anfallen, müssen so schnell wie möglich an die richtigen Mitarbeiter des Customer-Experience-Teams weitergeleitet werden. Das ist aus Kundensicht ein entscheidender Moment: Je schneller wir das Problem lösen können, desto besser die Kundenerfahrung. Mithilfe von Machine Learning und KI lassen sich die Probleme der Kunden in vielen Fällen treffsicher vorhersagen – und der jeweilige Fall schnell und effektiv an den richtigen Mitarbeiter weiterleiten. So entfällt nicht nur kostenintensive und zeitaufwändige manuelle Arbeit, die durchschnittliche Zeit, um die Kundenprobleme zu lösen lässt sich ebenfalls reduzieren. So haben unsere Mitarbeiter mehr Zeit und Energie für Problemlösungs-Tasks und können letztendlich qualitativ hochwertigere Services anbieten. Das steigert nicht nur die Kundenzufriedenheit, sondern auch die Performance und Zufriedenheit unserer Experten. Ed McLaughlin ist seit 2016 President und Chief Technology Officer bei Mastercard.Ed McLaughlin Neben diesem mit dem CIO 100 Award prämierten Projekt setzen wir bei Mastercard KI auch zur Betrugsbekämpfung ein. Dafür haben wir ein neues Tool namens „Authorization Optimizer“ entwickelt. Dabei handelt es sich um ein KI-basiertes System, das sowohl generative Techniken als auch maschinelles Lernen nutzt. Es analysiert, warum eine Transaktion abgelehnt wurde – und spricht eine Empfehlung aus, wann ein neuer Versuch unternommen werden sollte. Im Jahr 2024 wurden insgesamt acht Milliarden Transaktionen mit einem Gesamtumsatz von 27 Milliarden Dollar über unser Netzwerk abgewickelt. Das wäre auf manueller Basis und ohne den Einsatz von künstlicher Intelligenz nicht möglich gewesen. Die Innovationschance für Finanzdienstleister Wer drängende geschäftliche Herausforderungen mit KI lösen möchte, muss wissen, welches Problem er lösen will – und zwar bestenfalls auf eine Art und Weise, die bisher nicht zu realisieren war. KI ist dabei allerdings nicht nur ein System, das man einmal einrichtet und dann vergessen kann: Vielmehr handelt es sich um eine dynamische Umgebung, in der die Inputs die Ergebnisse beeinflussen. Zudem muss man die Technologie aber auch überwachen – und verstehen, wie sie funktioniert. Unternehmen und ihre Teams müssen vor allem weiter testen und lernen. Es gilt, verschiedene KI-Betriebsmodelle auszuprobieren, um das zu identifizieren, das den jeweiligen Unternehmensanforderungen am besten entspricht. Speziell für Finanzdienstleister und -institute bieten KI-Innovationen die Chance, bessere Services bereitzustellen und ihre Produkte effizienter zu managen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die KI-Metamorphose von Mastercard​ Künstliche Intelligenz ist bei Mastercard (schon länger) gesetzt.ArDanMe | shutterstock.com

Wenn ich an die Technologie denke, mit der wir zu Beginn meiner Karriere gearbeitet haben, und mir anschaue, was wir seitdem erreicht haben, ist das wirklich erstaunlich – eine von Technologie getriebene, globale Transformation.

Als ich im Jahr 2005 bei Mastercard angefangen habe, war das Unternehmen in erster Linie für seine Plastikkarten bekannt. Damals hatte Mastercard rund 3.500 Mitarbeiter und eine Marktkapitalisierung von vier Milliarden Dollar. Heute macht der Konzern einen jährlichen Umsatz in Höhe von 450 Milliarden Dollar und beschäftigt weltweit mehr als 35.000 Mitarbeiter. Das ist im Wesentlichen nicht Technologie zu verdanken, sondern unseren Menschen, deren transformative Arbeit vor kurzem auch mit einem CIO 100 Award honoriert wurde.

Im Kern unseres Erfolgs steht Customer Excellence – und die wird in erster Linie durch den Einsatz von künstlicher Intelligenz (KI) getrieben. In diesem Artikel gebe ich einen kurzen Überblick über unsere KI-Journey. 

Komplexe Probleme, einfache Lösungen

Mit dem Wachstum des Unternehmens haben wir erkannt, dass wir neue Technologien einsetzen müssen, um unsere traditionellen Kundenserviceprozesse zu modernisieren und diese an unsere externen, marktorientierten Innovationen anzupassen.

Unsere B2B-Kundenserviceteams bearbeiten jährlich etwa 700.000 Support-Fälle, die über verschiedene Kanäle einfließen. Da ständig neue Kunden hinzukommen und weitere Mastercard-Dienstleistungen und -Produkte online gehen, rechnen wir damit, dass sich das Volumen der Support-Fälle im Jahr 2025 auf eine Million steigern wird. Die unstrukturierten Informationen, die dabei anfallen, müssen so schnell wie möglich an die richtigen Mitarbeiter des Customer-Experience-Teams weitergeleitet werden. Das ist aus Kundensicht ein entscheidender Moment: Je schneller wir das Problem lösen können, desto besser die Kundenerfahrung.

Mithilfe von Machine Learning und KI lassen sich die Probleme der Kunden in vielen Fällen treffsicher vorhersagen – und der jeweilige Fall schnell und effektiv an den richtigen Mitarbeiter weiterleiten. So entfällt nicht nur kostenintensive und zeitaufwändige manuelle Arbeit, die durchschnittliche Zeit, um die Kundenprobleme zu lösen lässt sich ebenfalls reduzieren. So haben unsere Mitarbeiter mehr Zeit und Energie für Problemlösungs-Tasks und können letztendlich qualitativ hochwertigere Services anbieten. Das steigert nicht nur die Kundenzufriedenheit, sondern auch die Performance und Zufriedenheit unserer Experten.

Ed McLaughlin ist seit 2016 President und Chief Technology Officer bei Mastercard.Ed McLaughlin

Neben diesem mit dem CIO 100 Award prämierten Projekt setzen wir bei Mastercard KI auch zur Betrugsbekämpfung ein. Dafür haben wir ein neues Tool namens „Authorization Optimizer“ entwickelt. Dabei handelt es sich um ein KI-basiertes System, das sowohl generative Techniken als auch maschinelles Lernen nutzt. Es analysiert, warum eine Transaktion abgelehnt wurde – und spricht eine Empfehlung aus, wann ein neuer Versuch unternommen werden sollte.

Im Jahr 2024 wurden insgesamt acht Milliarden Transaktionen mit einem Gesamtumsatz von 27 Milliarden Dollar über unser Netzwerk abgewickelt. Das wäre auf manueller Basis und ohne den Einsatz von künstlicher Intelligenz nicht möglich gewesen.

Die Innovationschance für Finanzdienstleister

Wer drängende geschäftliche Herausforderungen mit KI lösen möchte, muss wissen, welches Problem er lösen will – und zwar bestenfalls auf eine Art und Weise, die bisher nicht zu realisieren war. KI ist dabei allerdings nicht nur ein System, das man einmal einrichtet und dann vergessen kann: Vielmehr handelt es sich um eine dynamische Umgebung, in der die Inputs die Ergebnisse beeinflussen. Zudem muss man die Technologie aber auch überwachen – und verstehen, wie sie funktioniert.

Unternehmen und ihre Teams müssen vor allem weiter testen und lernen. Es gilt, verschiedene KI-Betriebsmodelle auszuprobieren, um das zu identifizieren, das den jeweiligen Unternehmensanforderungen am besten entspricht. Speziell für Finanzdienstleister und -institute bieten KI-Innovationen die Chance, bessere Services bereitzustellen und ihre Produkte effizienter zu managen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die KI-Metamorphose von Mastercard​ Weiterlesen »

9 Unsitten, die Entwickler nicht ablegen können​

Allgemein

Laster, die eigentlich keine sind, sollte man möglicherweise nicht ablegen. Foto: Anton Vierietin | shutterstock.com Softwareentwickler haben eine merkwürdige Beziehung zu Regelwerken. Einerseits ist Programmcode quasi ein riesiger Haufen von Regeln, der von pflichtbewussten maschinellen Gatekeepern immer und immer wieder durchgesetzt wird. Allerdings gibt es da noch einen anderen Layer von Regeln, die weniger sakrosankt, sondern vielmehr äußerst flexibel sind: die Regeln, die Entwickler an sich selbst anlegen, beziehungsweise an das, was sie tun. Wobei es per se nichts Schlechtes ist, mit bewährten Regeln auch einmal zu brechen. Zum Beispiel, wenn letztere hoffnungslos veraltet oder von vorneherein unausgegoren sind. Manche vermeintliche Unsitte kann dabei unter Umständen auch zum Vorteil gereichen. Zum Beispiel die folgenden neun. 1. Kommentarloser Code Dass undokumentierter Code ein Alptraum ist, wenn man ihn verstehen will oder Fehler sucht, ist bekannt. Darum wird auch in jedem Dev-Seminar beständig vermittelt, dass sinnvolle Code-Kommentare unerlässlich sind. Der Programmierstil des “Literate Programming” kombiniert sogar Code und natürliche Sprache – und wurde von Don Knuth erfunden, einem der größten Developer überhaupt. Die traurige Wahrheit: Manchmal machen Code-Kommentare alles nur noch schlimmer. Zum Beispiel, wenn der Eindruck entsteht, dass Programmcode und Dokumentation nur rudimentär etwas miteinander zu tun haben. Eventuell hat ein Programmierer auch einen kritischen Patch eingefügt und vergessen, das Dokumentations-Team darüber zu informieren. Vielleicht weiß letzteres auch darum, konnte sich aber bislang noch nicht dazu durchringen, die Kommentare zu aktualisieren. Im Alltag kommen viele weitere Probleme hinzu, beispielsweise, wenn Kommentare in Fremdsprachen verfasst oder schlicht nicht korrekt sind. Im Umkehrschluss gehen einige Entwickler davon aus, dass das beste Mittel gegen nutzlose Kommentare sei, diese möglichst spärlich zu verwenden – oder gar nicht. Stattdessen ziehen diese Devs es vor, einfache, kürzere Funktionen zu schreiben, die längere, beschreibende Variablennamen verwenden. 2. Langsamer Code Wenn Sie schnellen Code wollen, gestalten Sie ihn einfach. Wenn er wirklich schnell sein soll, komplex. Mit Blick auf diesen Task den richtigen “Sweet Spot” zu finden, ist gar nicht so einfach. Wie so oft gilt es, einen Kompromiss zu finden: Ganz allgemein sollen Programme möglichst schnell sein. Dabei kann Komplexität ein wesentliches Hindernis darstellen, wenn diese niemand mehr durchdringen kann. Wenn es also nicht unbedingt auf Speed ankommt, kann es durchaus sinnvoll sein, etwas langsameren, dafür aber leicht verständlichen Programmcode zu schreiben. 3. Code-Mode Manche Entwickler haben eine ausgeprägte Vorliebe für Dinge wie die neuen Operatoren in JavaScript (etwa die Ellipsis), weil der resultierende Code in ihren Augen prägnanter und damit besser ist. Ob das aber auch in jedem Fall leichter zu verstehen ist, darf bezweifelt werden. Das erfordert nämlich erst einmal, sich mit diesen Operatoren vertraut zu machen. Statt also den Code schnell und gründlich überfliegen zu können, wird daraus eine lästige, einnehmende Pflicht. Es gibt auch historische Belege dafür, dass prägnanterer Code nicht unbedingt populär ist. Nicht umsonst sind Sprachen wie APL, die dank benutzerdefinierter Symbolik besonders effizient und prägnant sein sollte, im Wesentlichen verschwunden. Sprachen wie Python, die auf geschweifte Klammern vollständig verzichten, erfreuen sich hingegen zunehmender Beliebtheit. 4. Abstraktionen Clevere Abstraktionen, die spezifische Probleme schneller lösen, sind in vielen Programmiersprachen gang und gäbe. Manche Sprachen sind dabei dermaßen mit Abstraktionen überfrachtet, dass ihre Handbücher im Resultat mehr als tausend Seiten füllen. Diese Funktionen wann immer möglich zu verwenden, ist in den Augen mancher Gesetz. Das Problem in der Praxis ist allerdings, dass zu viele Funktionen schnell Verwirrung stiften können. Und inzwischen existieren so viele syntaktische Kniffe, dass sie kein Dev der Welt mehr alle beherrschen kann. Und warum sollte man das auch? Wie viele Möglichkeiten brauchen wir, um auf Nullwerte zu testen oder Inheritance in mehreren Dimensionen zu ermöglichen? Es gibt jedoch auch Gegenbewegungen: Die Schöpfer von Go haben sich etwa zum Ziel gesetzt, eine Sprache zu entwickeln, die in erster Linie besonders schnell zu erlernen ist. Die Grundvoraussetzung dafür: Alle im Team mussten in der Lage sein, den gesamten Code zu lesen und zu verstehen. 5. DIY-Code Effizienzexperten empfehlen gerne, das Rad nicht neu zu erfinden, sondern sich auf bewährte Bibliotheken und Legacy-Code zu verlassen. In manchen Fällen kann ein neuer Ansatz jedoch durchaus sinnvoll sein. Schließlich sind Standard-Bibliotheken im Regelfall für alltägliche Use Cases gemacht. Bei spezifischen Anwendungsfällen, in denen diese Bibliotheken eher einen Flaschenhals darstellen, können schon ein paar individuelle Code-Zeilen respektive Ersatzfunktionen dafür sorgen, dass alles deutlich schneller abläuft. Natürlich gibt es aber auch Fälle, in denen das gefährlich sein kann: Bei besonders komplexem Code – beispielsweise kryptografischen Systemen – ist es keine gute Idee, selbst zu Werke zu gehen, selbst wenn man alle mathematischen Grundlagen beherrscht. 6. Frühoptimierung Dass Developer Code zusammenwerfen und das mit der alten Maxime rechtfertigen, verfrühte Optimierung wäre nur Zeitverschwendung, kommt relativ häufig vor. Der Gedanke der dahintersteht: Solange das ganze System nicht läuft, weiß niemand, welcher Teil des Codes am Ende zum Bottleneck wird. Im Allgemeinen ist das eine gute Faustregel. Schließlich scheitern manche Softwareprojekte schon früh, weil sie überoptimiert wurden. Es gibt auf der anderen Seite aber auch diverse Fälle, in denen eine gesunde Voraussicht den Unterschied macht. Zum Beispiel, wenn falsche Datenstrukturen oder -schemata in eine Architektur münden, die nachträglich nicht so ohne Weiteres optimiert werden kann. 7. Sorgfalt Gute Programmierer sichern Daten immer doppelt ab und überprüfen lieber dreifach, was vor sich geht – es könnte sich schließlich ein Null Pointer eingeschlichen haben. Leider kann diese zusätzliche Sorgfalt den Code aber auch lähmen. Deshalb ist es manchmal nötig, einfach mal loszulassen und auf Performance zu coden. Dazu beschränkt man sich dann eben auf das absolute Minimum. 8. Inkonsistenzen Menschen stehen im Allgemeinen auf Ordnung. So auch Programmierer, die oft darauf bestehen, dass innerhalb eines Code-Haufens stets dieselben Techniken, Algorithmen und Syntax-Konstrukte zur Anwendung kommen. Das macht das Leben für alle Entwickler einfacher, die später einmal mit dem Code umgehen und ihn verstehen müssen. Andererseits kostet Konsistenz Zeit – und schafft manchmal auch zusätzliche Komplexität. Dabei ist nicht nur ein Problem, dass Code, der nicht den Vorgaben entspricht, unter Umständen komplett neu geschrieben werden muss: Einige Projekte stützen sich auf Legacy-Code, andere auf Bibliotheken. Viele kommen nicht ohne APIs aus, die wiederum von unterschiedlichen Unternehmen stammen. Vollständige Konsistenz ist darüber hinaus oft nicht zu erreichen – und die Gelegenheit, den gesamten Stack neu aufzusetzen, um ihn an die aktuelle Vision anzupassen, dürfte sich nicht so oft bieten. Auch wenn es schwer fällt: Manchmal ist es sinnvoller, sich mit Inkonsistenzen abzufinden. Ein weiteres Problem bei zu viel Konsistenz: Innovationen können behindert werden. Schließlich fördert sie auf ihre eigene Weise, an einer alten Art, die Dinge zu erledigen, festzuhalten. 9. Regelverstöße Spaßeshalber haben wir Googles Gemini gefragt, ob die Programmierer bei seiner Erstellung Regeln gebrochen haben. Seine Antwort: “Es ist nicht so, dass die Programmierer bestimmte Regeln gebrochen haben, sondern eher so, dass sie die Grenzen einiger bewährter Verfahren überschritten haben.” Selbst LLMs wissen also: Auch Regeln unterliegen manchmal dem Change. Developer sollten das ebenfalls verinnerlichen. (fm) Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

9 Unsitten, die Entwickler nicht ablegen können​ Laster, die eigentlich keine sind, sollte man möglicherweise nicht ablegen.
Foto: Anton Vierietin | shutterstock.com

Softwareentwickler haben eine merkwürdige Beziehung zu Regelwerken. Einerseits ist Programmcode quasi ein riesiger Haufen von Regeln, der von pflichtbewussten maschinellen Gatekeepern immer und immer wieder durchgesetzt wird. Allerdings gibt es da noch einen anderen Layer von Regeln, die weniger sakrosankt, sondern vielmehr äußerst flexibel sind: die Regeln, die Entwickler an sich selbst anlegen, beziehungsweise an das, was sie tun.

Wobei es per se nichts Schlechtes ist, mit bewährten Regeln auch einmal zu brechen. Zum Beispiel, wenn letztere hoffnungslos veraltet oder von vorneherein unausgegoren sind. Manche vermeintliche Unsitte kann dabei unter Umständen auch zum Vorteil gereichen. Zum Beispiel die folgenden neun.

1. Kommentarloser Code

Dass undokumentierter Code ein Alptraum ist, wenn man ihn verstehen will oder Fehler sucht, ist bekannt. Darum wird auch in jedem Dev-Seminar beständig vermittelt, dass sinnvolle Code-Kommentare unerlässlich sind. Der Programmierstil des “Literate Programming” kombiniert sogar Code und natürliche Sprache – und wurde von Don Knuth erfunden, einem der größten Developer überhaupt.

Die traurige Wahrheit: Manchmal machen Code-Kommentare alles nur noch schlimmer. Zum Beispiel, wenn der Eindruck entsteht, dass Programmcode und Dokumentation nur rudimentär etwas miteinander zu tun haben. Eventuell hat ein Programmierer auch einen kritischen Patch eingefügt und vergessen, das Dokumentations-Team darüber zu informieren. Vielleicht weiß letzteres auch darum, konnte sich aber bislang noch nicht dazu durchringen, die Kommentare zu aktualisieren. Im Alltag kommen viele weitere Probleme hinzu, beispielsweise, wenn Kommentare in Fremdsprachen verfasst oder schlicht nicht korrekt sind.

Im Umkehrschluss gehen einige Entwickler davon aus, dass das beste Mittel gegen nutzlose Kommentare sei, diese möglichst spärlich zu verwenden – oder gar nicht. Stattdessen ziehen diese Devs es vor, einfache, kürzere Funktionen zu schreiben, die längere, beschreibende Variablennamen verwenden.

2. Langsamer Code

Wenn Sie schnellen Code wollen, gestalten Sie ihn einfach. Wenn er wirklich schnell sein soll, komplex. Mit Blick auf diesen Task den richtigen “Sweet Spot” zu finden, ist gar nicht so einfach.

Wie so oft gilt es, einen Kompromiss zu finden: Ganz allgemein sollen Programme möglichst schnell sein. Dabei kann Komplexität ein wesentliches Hindernis darstellen, wenn diese niemand mehr durchdringen kann. Wenn es also nicht unbedingt auf Speed ankommt, kann es durchaus sinnvoll sein, etwas langsameren, dafür aber leicht verständlichen Programmcode zu schreiben.

3. Code-Mode

Manche Entwickler haben eine ausgeprägte Vorliebe für Dinge wie die neuen Operatoren in JavaScript (etwa die Ellipsis), weil der resultierende Code in ihren Augen prägnanter und damit besser ist. Ob das aber auch in jedem Fall leichter zu verstehen ist, darf bezweifelt werden. Das erfordert nämlich erst einmal, sich mit diesen Operatoren vertraut zu machen. Statt also den Code schnell und gründlich überfliegen zu können, wird daraus eine lästige, einnehmende Pflicht.

Es gibt auch historische Belege dafür, dass prägnanterer Code nicht unbedingt populär ist. Nicht umsonst sind Sprachen wie APL, die dank benutzerdefinierter Symbolik besonders effizient und prägnant sein sollte, im Wesentlichen verschwunden. Sprachen wie Python, die auf geschweifte Klammern vollständig verzichten, erfreuen sich hingegen zunehmender Beliebtheit.

4. Abstraktionen

Clevere Abstraktionen, die spezifische Probleme schneller lösen, sind in vielen Programmiersprachen gang und gäbe. Manche Sprachen sind dabei dermaßen mit Abstraktionen überfrachtet, dass ihre Handbücher im Resultat mehr als tausend Seiten füllen. Diese Funktionen wann immer möglich zu verwenden, ist in den Augen mancher Gesetz. Das Problem in der Praxis ist allerdings, dass zu viele Funktionen schnell Verwirrung stiften können. Und inzwischen existieren so viele syntaktische Kniffe, dass sie kein Dev der Welt mehr alle beherrschen kann. Und warum sollte man das auch? Wie viele Möglichkeiten brauchen wir, um auf Nullwerte zu testen oder Inheritance in mehreren Dimensionen zu ermöglichen?

Es gibt jedoch auch Gegenbewegungen: Die Schöpfer von Go haben sich etwa zum Ziel gesetzt, eine Sprache zu entwickeln, die in erster Linie besonders schnell zu erlernen ist. Die Grundvoraussetzung dafür: Alle im Team mussten in der Lage sein, den gesamten Code zu lesen und zu verstehen.

5. DIY-Code

Effizienzexperten empfehlen gerne, das Rad nicht neu zu erfinden, sondern sich auf bewährte Bibliotheken und Legacy-Code zu verlassen. In manchen Fällen kann ein neuer Ansatz jedoch durchaus sinnvoll sein. Schließlich sind Standard-Bibliotheken im Regelfall für alltägliche Use Cases gemacht. Bei spezifischen Anwendungsfällen, in denen diese Bibliotheken eher einen Flaschenhals darstellen, können schon ein paar individuelle Code-Zeilen respektive Ersatzfunktionen dafür sorgen, dass alles deutlich schneller abläuft.

Natürlich gibt es aber auch Fälle, in denen das gefährlich sein kann: Bei besonders komplexem Code – beispielsweise kryptografischen Systemen – ist es keine gute Idee, selbst zu Werke zu gehen, selbst wenn man alle mathematischen Grundlagen beherrscht.

6. Frühoptimierung

Dass Developer Code zusammenwerfen und das mit der alten Maxime rechtfertigen, verfrühte Optimierung wäre nur Zeitverschwendung, kommt relativ häufig vor. Der Gedanke der dahintersteht: Solange das ganze System nicht läuft, weiß niemand, welcher Teil des Codes am Ende zum Bottleneck wird.

Im Allgemeinen ist das eine gute Faustregel. Schließlich scheitern manche Softwareprojekte schon früh, weil sie überoptimiert wurden. Es gibt auf der anderen Seite aber auch diverse Fälle, in denen eine gesunde Voraussicht den Unterschied macht. Zum Beispiel, wenn falsche Datenstrukturen oder -schemata in eine Architektur münden, die nachträglich nicht so ohne Weiteres optimiert werden kann.

7. Sorgfalt

Gute Programmierer sichern Daten immer doppelt ab und überprüfen lieber dreifach, was vor sich geht – es könnte sich schließlich ein Null Pointer eingeschlichen haben. Leider kann diese zusätzliche Sorgfalt den Code aber auch lähmen. Deshalb ist es manchmal nötig, einfach mal loszulassen und auf Performance zu coden. Dazu beschränkt man sich dann eben auf das absolute Minimum.

8. Inkonsistenzen

Menschen stehen im Allgemeinen auf Ordnung. So auch Programmierer, die oft darauf bestehen, dass innerhalb eines Code-Haufens stets dieselben Techniken, Algorithmen und Syntax-Konstrukte zur Anwendung kommen. Das macht das Leben für alle Entwickler einfacher, die später einmal mit dem Code umgehen und ihn verstehen müssen. Andererseits kostet Konsistenz Zeit – und schafft manchmal auch zusätzliche Komplexität. Dabei ist nicht nur ein Problem, dass Code, der nicht den Vorgaben entspricht, unter Umständen komplett neu geschrieben werden muss: Einige Projekte stützen sich auf Legacy-Code, andere auf Bibliotheken. Viele kommen nicht ohne APIs aus, die wiederum von unterschiedlichen Unternehmen stammen.

Vollständige Konsistenz ist darüber hinaus oft nicht zu erreichen – und die Gelegenheit, den gesamten Stack neu aufzusetzen, um ihn an die aktuelle Vision anzupassen, dürfte sich nicht so oft bieten. Auch wenn es schwer fällt: Manchmal ist es sinnvoller, sich mit Inkonsistenzen abzufinden. Ein weiteres Problem bei zu viel Konsistenz: Innovationen können behindert werden. Schließlich fördert sie auf ihre eigene Weise, an einer alten Art, die Dinge zu erledigen, festzuhalten.

9. Regelverstöße

Spaßeshalber haben wir Googles Gemini gefragt, ob die Programmierer bei seiner Erstellung Regeln gebrochen haben. Seine Antwort: “Es ist nicht so, dass die Programmierer bestimmte Regeln gebrochen haben, sondern eher so, dass sie die Grenzen einiger bewährter Verfahren überschritten haben.”

Selbst LLMs wissen also: Auch Regeln unterliegen manchmal dem Change. Developer sollten das ebenfalls verinnerlichen. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

9 Unsitten, die Entwickler nicht ablegen können​ Weiterlesen »

Was ist ein Compiler?​

Allgemein

Compiler übersetzen Code in anderen Code. Das sollten Sie zum Thema wissen. Foto: Yurchanka Siarhei – shutterstock.com Ein Compiler ist ein Computerprogramm, das von einem Format in ein anderes übersetzt – meist von einer High-Level-Programmiersprache in Byte- und Maschinencode. Es gibt eine ganze Reihe von Compiler-Varianten, die wir in diesem Artikel umfassend beleuchten. Compiler erklärt Etwas konkreter übersetzen Compiler häufig Quellcode – etwa der Programmiersprache C++ – in Objektcode für die jeweilige Rechnerarchitektur – beispielsweise Intel x64. Die aus mehreren Programmiersprachen-Files erstellten Objektmodule werden anschließend zu einem Executable verbunden. Dabei unterscheidet man folgende Compiler-Arten: Cross-Compiler, die Objektcode für Architekturen erzeugen, die sich von derjenigen unterscheiden, auf der der Compiler läuft. Sie werden üblicherweise verwendet, um Executables für eingebettete Systeme zu erzeugen. Transpiler, die von einer Programmiersprache in eine andere übersetzen – etwa von TypeScript in JavaScript oder von C++ in C. Bootstrap-Compiler, die in der Sprache geschrieben sind, die sie kompilieren. Compiler für Sprachen, die maschinenunabhängig sein sollen – wie Java, Python oder C# – übersetzen den Quellcode in Bytecode für eine virtuelle Maschine, der dann in einem Interpreter für die aktuelle Architektur ausgeführt wird. Dieser Interpreter kann durch einen Just-in-Time-Compiler (JIT) unterstützt werden, der einen Teil des Byte-Codes zur Laufzeit in native Code-Anweisungen übersetzt. JIT-Compiler führen manchmal zu Verzögerungen beim Start, die aber in der Regel durch die höhere Geschwindigkeit im weiteren Verlauf der Ausführung aufgewogen werden, insbesondere bei CPU-intensivem Code. Ein Ansatz zur Verringerung der Startverzögerung für JIT-kompilierte ausführbare Dateien ist es, AOT-Compiler (AOT = ahead of time) zu verwenden, um ausführbare Images zu erstellen. Sprachcompiler werden häufig zunächst in einer bestehenden, niedrigeren Sprache implementiert und später in der Sprache, die sie kompilieren, neu implementiert. Dieses Vorgehen soll Portabilität und Upgrades durch Bootstrapping ermöglichen. Andererseits werden Hochsprachen zunehmend in Bytecode für eine virtuelle Maschine kompiliert, der dann interpretiert und JIT-kompiliert wird. Die wichtigsten Compiler im Überblick Betrachten wir nun einige der wichtigsten Programmiersprachen-Compiler im Detail. FORTRAN Formula Translator (ab 1977 FORTRAN genannt) war die erste erfolgreiche Programmiersprache für wissenschaftliche und technische Anwendungen. Der FORTRAN-I-Compiler wurde von 1954 bis 1957 für den IBM 704 von einem All-Star-Team unter der Leitung von John W. Backus entwickelt. Es handelte sich um einen optimierenden Compiler, der in Assemblersprache geschrieben war und 23.000 Anweisungen umfasste. Dabei nahm der FORTRAN-I-Compiler bedeutende Optimierungen vor und analysierte beispielsweise arithmetische Ausdrücke oder optimierte die Zuordnung von Indexregistern. Inzwischen stehen mehr als ein Dutzend FORTRAN-Compiler zur Verfügung, wovon einige quelloffen und kostenlos sind, obwohl sie kommerziell angeboten werden. LISP List Processor (LISP) ist eng mit dem Feld der Künstlichen Intelligenz verknüpft, wurde am MIT entworfen und die Spezifikation im Jahr 1960 veröffentlicht. Kurz nach der Veröffentlichung der Spezifikation entdeckte ein Forscher, dass die LISP-Eval-Funktion in Maschinencode implementiert werden konnte – und setzte das für den IBM 704 um. So wurde der erste LISP-Interpreter geboren. Die MIT-Forscher Tim Hart und Mike Levin entwickelten im Jahr 1962 den ersten LISP-Compiler in LISP: Der Compiler selbst wurde kompiliert, indem der LISP-Interpreter auf dem Quellcode des Compilers ausgeführt wurde. Das kompilierte LISP lief auf dem IBM 704 rund 40 Mal schneller als das interpretierte LISP. Dieser Compiler war einer der ersten Bootstrapped-Compiler und führte zudem die inkrementelle Kompilierung ein, die eine Vermischung von kompiliertem und interpretiertem Code ermöglicht. Für spätere Versionen von LISP und seinen Nachfolgern, wie Common Lisp, Emacs Lisp, Scheme und Clojure gab es zahlreiche Compiler und Interpreter. COBOL Common Business-Oriented Language (COBOL) wurde ab 1959 auf Anregung des US-Verteidigungsministeriums von einem Komitee (CODASYL) entwickelt und basiert auf drei bestehenden Sprachen: FLOW-MATIC (entwickelt von Grace Hopper), AIMACO (ein Derivat von FLOW-MATIC) und COMTRAN (von Bob Bemer von IBM). Das ursprüngliche Ziel von COBOL war es, eine portable Programmiersprache für die allgemeine Datenverarbeitung zu schaffen. Das erste COBOL-Programm lief im Jahr 1960. Im Jahr 1962 ergab eine Studie der Navy, dass COBOL drei bis elf Anweisungen pro Minute kompilieren konnte. Das verbesserte sich im Laufe der Jahre, als die Sprachspezifikationen und Compiler aktualisiert wurden. Im Jahr 1970 war COBOL die meist verbreitete Programmiersprache der Welt. Derzeit existieren noch vier große COBOL-Compiler: Fujitsu NetCOBOL kompiliert zur .NET Intermediate Language (Bytecode) und läuft auf der .NET CLR (Common Language Runtime); GnuCOBOL kompiliert zu C-Code, der dann kompiliert und gelinkt werden kann; IBM COBOL kompiliert zu Objektcode für IBM-Mainframes und Midrange-Computer – der Code wird dann ähnlich wie bei den frühen COBOL-Compilern verlinkt; Micro Focus COBOL kompiliert entweder zu .NET- oder JVM-Bytecode (Java Virtual Machine). ALGOL Zwei niederländische Wissenschaftler schrieben zwischen 1959 und 1960 den ersten ALGOL-Compiler in X1-Assemblersprache am Zentrum für Mathematik in Amsterdam. Algorithmic Language (ALGOL) war – verglichen mit FORTRAN – ein enormer Fortschritt bei den Programmiersprachen für Wissenschaft und Technik. Sie hatte auch Einfluss auf die Entwicklung von imperativen Sprachen wie CPL, Simula, BCPL, B, Pascal oder C. Der Compiler beinhaltete etwa 2.000 Anweisungen – die Laufzeitbibliothek war noch ebenso groß. Der Compiler wurde von Papierbändern geladen, ebenso wie der Programmquellcode und die Bibliotheken. Der Compiler durchlief den Code zweifach: Der erste Durchlauf (der sogenannte Prescan) diente dazu, Identifier und Blocks zu sammeln, der zweite (Main Scan) erzeugte den Objektcode auf einem anderen Papierband. Dieser Prozess wurde später durch einen “Store” (wahrscheinlich eine Magnettrommel) anstelle des Papierbandes beschleunigt. Von ALGOL 60 und seinen Dialekten gab es etwa 70 Implementierungen. ALGOL 68 sollte ALGOL 60 ursprünglich ersetzen, war aber so komplex, dass Implementierungen und Akzeptanz weit hinter den Erwartungen zurückblieben. Zu den von ALGOL 68 beeinflussten Sprachen gehören zum Beispiel: C, C++, Bourne Shell, KornShell, Bash, Steelman, Ada und Python. PL/I Programming Language One (PL/I) wurde Mitte der 1960er Jahre von IBM und SHARE (der wissenschaftlichen Usergroup von IBM) als einheitliche Sprache für den Einsatz in Wissenschaft und Business entwickelt. Die erste Implementierung – PL/I F – wurde für das IBM-System S/360 vollständig in System/360-Assemblersprache geschrieben und 1966 ausgeliefert. Der F-Compiler bestand aus einer Kontrollphase und einer großen Anzahl von Compilerphasen (annähernd 100). Es gab mehrere spätere Implementierungen von PL/I bei IBM – auch für Multics (als Systemsprache) und die DEC VAX. Pascal Niklaus Wirth von der ETH Zürich war Mitglied des Ausschusses, der an der Nachfolge von ALGOL 60 arbeitete und reichte eine Sprache namens ALGOL W ein, die abgelehnt wurde. Wirth trat aus dem Komitee aus, arbeitete weiter an seinem Projekt und veröffentlichte es 1970 in vereinfachter Form unter dem Namen Pascal. Wirth versuchte zunächst, den Pascal-Compiler in FORTRAN 66 zu implementieren, was ihm aber nicht gelang. Daraufhin schrieb er einen Pascal-Compiler in der C-ähnlichen Sprache Scallop, der dann für das Bootstrapping in Pascal übersetzt wurde. Zwei bemerkenswerte Ableger sind das Pascal P-System und Turbo Pascal: Der Züricher P-System-Compiler erzeugte “p-code” für eine virtuelle Stack-Maschine, der dann interpretiert wurde. Das führte zu UCSD Pascal für den IBM PC und zu Apple Pascal. Anders Hejlsberg schrieb Blue Label Pascal für den Nascom-2 und reimplementierte es dann für den IBM PC in 8088 Assembler. Diese Errungenschaft wurde schließlich von Borland aufgekauft und als Turbo Pascal wieder auf den Markt gebracht. Später portierte Hejlsberg Turbo Pascal auf den Macintosh, fügte Apples Object-Pascal-Erweiterungen hinzu und portierte die neue Sprache zurück auf den PC, woraus sich schließlich Delphi für Microsoft Windows entwickelte. C C wurde ursprünglich zwischen 1972 und 1973 von Dennis Ritchie in den Bell Labs entwickelt, um Dienstprogramme für Unix zu entwickeln. Der ursprüngliche C-Compiler war in PDP-7-Assembler geschrieben, wie auch Unix zu dieser Zeit. Die Portierung auf PDP-11 erfolgte ebenfalls in Assembler. Später wurde C verwendet, um den Unix-Kernel umzuschreiben und portabel zu machen. C++ C++ wurde ab 1979 von Bjarne Stroustrup in den Bell Laboratories entwickelt. Weil es ein Versuch war, C um objektorientierte Funktionen (unter anderem) zu erweitern, nannte Stroustrup es zunächst “C with Objects”. 1983 folgte die Umbenennung in C++ – 1985 wurde die Sprache auch außerhalb von Bell verfügbar. Der erste kommerzielle C++-Compiler, Cfront, wurde zur selben Zeit veröffentlicht. Er übersetzte C++ in C, das dann kompiliert und gelinkt werden konnte. Spätere C++-Compiler erzeugten Objektcode-Dateien, die direkt in einen Linker eingespeist wurden. Java Java wurde 1995 als portable Sprache (mit dem Marketing-Slogan “Write once, run anywhere”) veröffentlicht, die in Bytecode für die JVM kompiliert und dann interpretiert wird – ähnlich wie das Pascal P-System. Der Java-Compiler war ursprünglich in C geschrieben und verwendete einige C++-Bibliotheken. In späteren JVM-Versionen wurde ein JIT-Compiler hinzugefügt, um den Interpreter zu beschleunigen. Der aktuelle Java-Compiler ist in Java geschrieben, wenngleich die Java-Laufzeitumgebung immer noch in C erstellt wurde. In der GraalVM-Implementierung von Java und anderen Sprachen wird zur Build Time ein AOT-Compiler ausgeführt, um den Bytecode zu optimieren und die Startzeit zu verkürzen. C# C# wurde im Jahr 1999 von Anders Hejlsberg bei Microsoft entwickelt und im Jahr 2000 von Mads Torgersen in C und C++ für die CLR implementiert. C# kompiliert zu CLR-Bytecode (Intermediate Language) und wird zur Laufzeit interpretiert und JIT-kompiliert. Der C#-Compiler, die CLR und die Bibliotheken sind jetzt in C# geschrieben, und der Compiler wird von einer Version zur nächsten gebootet. Ein Teil des Anstoßes für die Entwicklung von C# könnte darin bestanden haben, dass Microsoft nicht in der Lage war, Java von Sun zu lizenzieren (Microsoft bestreitet das). Laut Hejlsberg wurde C# sowohl von C++ als auch von Java beeinflusst. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist ein Compiler?​ Compiler übersetzen Code in anderen Code. Das sollten Sie zum Thema wissen.
Foto: Yurchanka Siarhei – shutterstock.com

Ein Compiler ist ein Computerprogramm, das von einem Format in ein anderes übersetzt – meist von einer High-Level-Programmiersprache in Byte- und Maschinencode. Es gibt eine ganze Reihe von Compiler-Varianten, die wir in diesem Artikel umfassend beleuchten.

Compiler erklärt

Etwas konkreter übersetzen Compiler häufig Quellcode – etwa der Programmiersprache C++ – in Objektcode für die jeweilige Rechnerarchitektur – beispielsweise Intel x64. Die aus mehreren Programmiersprachen-Files erstellten Objektmodule werden anschließend zu einem Executable verbunden. Dabei unterscheidet man folgende Compiler-Arten:

Cross-Compiler, die Objektcode für Architekturen erzeugen, die sich von derjenigen unterscheiden, auf der der Compiler läuft. Sie werden üblicherweise verwendet, um Executables für eingebettete Systeme zu erzeugen.

Transpiler, die von einer Programmiersprache in eine andere übersetzen – etwa von TypeScript in JavaScript oder von C++ in C.

Bootstrap-Compiler, die in der Sprache geschrieben sind, die sie kompilieren.

Compiler für Sprachen, die maschinenunabhängig sein sollen – wie Java, Python oder C# – übersetzen den Quellcode in Bytecode für eine virtuelle Maschine, der dann in einem Interpreter für die aktuelle Architektur ausgeführt wird. Dieser Interpreter kann durch einen Just-in-Time-Compiler (JIT) unterstützt werden, der einen Teil des Byte-Codes zur Laufzeit in native Code-Anweisungen übersetzt. JIT-Compiler führen manchmal zu Verzögerungen beim Start, die aber in der Regel durch die höhere Geschwindigkeit im weiteren Verlauf der Ausführung aufgewogen werden, insbesondere bei CPU-intensivem Code.

Ein Ansatz zur Verringerung der Startverzögerung für JIT-kompilierte ausführbare Dateien ist es, AOT-Compiler (AOT = ahead of time) zu verwenden, um ausführbare Images zu erstellen.

Sprachcompiler werden häufig zunächst in einer bestehenden, niedrigeren Sprache implementiert und später in der Sprache, die sie kompilieren, neu implementiert. Dieses Vorgehen soll Portabilität und Upgrades durch Bootstrapping ermöglichen. Andererseits werden Hochsprachen zunehmend in Bytecode für eine virtuelle Maschine kompiliert, der dann interpretiert und JIT-kompiliert wird.

Die wichtigsten Compiler im Überblick

Betrachten wir nun einige der wichtigsten Programmiersprachen-Compiler im Detail.

FORTRAN

Formula Translator (ab 1977 FORTRAN genannt) war die erste erfolgreiche Programmiersprache für wissenschaftliche und technische Anwendungen. Der FORTRAN-I-Compiler wurde von 1954 bis 1957 für den IBM 704 von einem All-Star-Team unter der Leitung von John W. Backus entwickelt.

Es handelte sich um einen optimierenden Compiler, der in Assemblersprache geschrieben war und 23.000 Anweisungen umfasste. Dabei nahm der FORTRAN-I-Compiler bedeutende Optimierungen vor und analysierte beispielsweise arithmetische Ausdrücke oder optimierte die Zuordnung von Indexregistern. Inzwischen stehen mehr als ein Dutzend FORTRAN-Compiler zur Verfügung, wovon einige quelloffen und kostenlos sind, obwohl sie kommerziell angeboten werden.

LISP

List Processor (LISP) ist eng mit dem Feld der Künstlichen Intelligenz verknüpft, wurde am MIT entworfen und die Spezifikation im Jahr 1960 veröffentlicht. Kurz nach der Veröffentlichung der Spezifikation entdeckte ein Forscher, dass die LISP-Eval-Funktion in Maschinencode implementiert werden konnte – und setzte das für den IBM 704 um. So wurde der erste LISP-Interpreter geboren.

Die MIT-Forscher Tim Hart und Mike Levin entwickelten im Jahr 1962 den ersten LISP-Compiler in LISP: Der Compiler selbst wurde kompiliert, indem der LISP-Interpreter auf dem Quellcode des Compilers ausgeführt wurde. Das kompilierte LISP lief auf dem IBM 704 rund 40 Mal schneller als das interpretierte LISP. Dieser Compiler war einer der ersten Bootstrapped-Compiler und führte zudem die inkrementelle Kompilierung ein, die eine Vermischung von kompiliertem und interpretiertem Code ermöglicht. Für spätere Versionen von LISP und seinen Nachfolgern, wie Common Lisp, Emacs Lisp, Scheme und Clojure gab es zahlreiche Compiler und Interpreter.

COBOL

Common Business-Oriented Language (COBOL) wurde ab 1959 auf Anregung des US-Verteidigungsministeriums von einem Komitee (CODASYL) entwickelt und basiert auf drei bestehenden Sprachen:

FLOW-MATIC (entwickelt von Grace Hopper),

AIMACO (ein Derivat von FLOW-MATIC) und

COMTRAN (von Bob Bemer von IBM).

Das ursprüngliche Ziel von COBOL war es, eine portable Programmiersprache für die allgemeine Datenverarbeitung zu schaffen. Das erste COBOL-Programm lief im Jahr 1960. Im Jahr 1962 ergab eine Studie der Navy, dass COBOL drei bis elf Anweisungen pro Minute kompilieren konnte. Das verbesserte sich im Laufe der Jahre, als die Sprachspezifikationen und Compiler aktualisiert wurden. Im Jahr 1970 war COBOL die meist verbreitete Programmiersprache der Welt.

Derzeit existieren noch vier große COBOL-Compiler:

Fujitsu NetCOBOL kompiliert zur .NET Intermediate Language (Bytecode) und läuft auf der .NET CLR (Common Language Runtime);

GnuCOBOL kompiliert zu C-Code, der dann kompiliert und gelinkt werden kann;

IBM COBOL kompiliert zu Objektcode für IBM-Mainframes und Midrange-Computer – der Code wird dann ähnlich wie bei den frühen COBOL-Compilern verlinkt;

Micro Focus COBOL kompiliert entweder zu .NET- oder JVM-Bytecode (Java Virtual Machine).

ALGOL

Zwei niederländische Wissenschaftler schrieben zwischen 1959 und 1960 den ersten ALGOL-Compiler in X1-Assemblersprache am Zentrum für Mathematik in Amsterdam. Algorithmic Language (ALGOL) war – verglichen mit FORTRAN – ein enormer Fortschritt bei den Programmiersprachen für Wissenschaft und Technik. Sie hatte auch Einfluss auf die Entwicklung von imperativen Sprachen wie CPL, Simula, BCPL, B, Pascal oder C.

Der Compiler beinhaltete etwa 2.000 Anweisungen – die Laufzeitbibliothek war noch ebenso groß. Der Compiler wurde von Papierbändern geladen, ebenso wie der Programmquellcode und die Bibliotheken. Der Compiler durchlief den Code zweifach: Der erste Durchlauf (der sogenannte Prescan) diente dazu, Identifier und Blocks zu sammeln, der zweite (Main Scan) erzeugte den Objektcode auf einem anderen Papierband. Dieser Prozess wurde später durch einen “Store” (wahrscheinlich eine Magnettrommel) anstelle des Papierbandes beschleunigt. Von ALGOL 60 und seinen Dialekten gab es etwa 70 Implementierungen.

ALGOL 68 sollte ALGOL 60 ursprünglich ersetzen, war aber so komplex, dass Implementierungen und Akzeptanz weit hinter den Erwartungen zurückblieben. Zu den von ALGOL 68 beeinflussten Sprachen gehören zum Beispiel:

C,

C++,

Bourne Shell,

KornShell,

Bash,

Steelman,

Ada und

Python.

PL/I

Programming Language One (PL/I) wurde Mitte der 1960er Jahre von IBM und SHARE (der wissenschaftlichen Usergroup von IBM) als einheitliche Sprache für den Einsatz in Wissenschaft und Business entwickelt. Die erste Implementierung – PL/I F – wurde für das IBM-System S/360 vollständig in System/360-Assemblersprache geschrieben und 1966 ausgeliefert. Der F-Compiler bestand aus einer Kontrollphase und einer großen Anzahl von Compilerphasen (annähernd 100). Es gab mehrere spätere Implementierungen von PL/I bei IBM – auch für Multics (als Systemsprache) und die DEC VAX.

Pascal

Niklaus Wirth von der ETH Zürich war Mitglied des Ausschusses, der an der Nachfolge von ALGOL 60 arbeitete und reichte eine Sprache namens ALGOL W ein, die abgelehnt wurde. Wirth trat aus dem Komitee aus, arbeitete weiter an seinem Projekt und veröffentlichte es 1970 in vereinfachter Form unter dem Namen Pascal. Wirth versuchte zunächst, den Pascal-Compiler in FORTRAN 66 zu implementieren, was ihm aber nicht gelang. Daraufhin schrieb er einen Pascal-Compiler in der C-ähnlichen Sprache Scallop, der dann für das Bootstrapping in Pascal übersetzt wurde.

Zwei bemerkenswerte Ableger sind das Pascal P-System und Turbo Pascal: Der Züricher P-System-Compiler erzeugte “p-code” für eine virtuelle Stack-Maschine, der dann interpretiert wurde. Das führte zu UCSD Pascal für den IBM PC und zu Apple Pascal. Anders Hejlsberg schrieb Blue Label Pascal für den Nascom-2 und reimplementierte es dann für den IBM PC in 8088 Assembler. Diese Errungenschaft wurde schließlich von Borland aufgekauft und als Turbo Pascal wieder auf den Markt gebracht. Später portierte Hejlsberg Turbo Pascal auf den Macintosh, fügte Apples Object-Pascal-Erweiterungen hinzu und portierte die neue Sprache zurück auf den PC, woraus sich schließlich Delphi für Microsoft Windows entwickelte.

C

C wurde ursprünglich zwischen 1972 und 1973 von Dennis Ritchie in den Bell Labs entwickelt, um Dienstprogramme für Unix zu entwickeln. Der ursprüngliche C-Compiler war in PDP-7-Assembler geschrieben, wie auch Unix zu dieser Zeit. Die Portierung auf PDP-11 erfolgte ebenfalls in Assembler. Später wurde C verwendet, um den Unix-Kernel umzuschreiben und portabel zu machen.

C++

C++ wurde ab 1979 von Bjarne Stroustrup in den Bell Laboratories entwickelt. Weil es ein Versuch war, C um objektorientierte Funktionen (unter anderem) zu erweitern, nannte Stroustrup es zunächst “C with Objects”. 1983 folgte die Umbenennung in C++ – 1985 wurde die Sprache auch außerhalb von Bell verfügbar. Der erste kommerzielle C++-Compiler, Cfront, wurde zur selben Zeit veröffentlicht. Er übersetzte C++ in C, das dann kompiliert und gelinkt werden konnte. Spätere C++-Compiler erzeugten Objektcode-Dateien, die direkt in einen Linker eingespeist wurden.

Java

Java wurde 1995 als portable Sprache (mit dem Marketing-Slogan “Write once, run anywhere”) veröffentlicht, die in Bytecode für die JVM kompiliert und dann interpretiert wird – ähnlich wie das Pascal P-System. Der Java-Compiler war ursprünglich in C geschrieben und verwendete einige C++-Bibliotheken. In späteren JVM-Versionen wurde ein JIT-Compiler hinzugefügt, um den Interpreter zu beschleunigen. Der aktuelle Java-Compiler ist in Java geschrieben, wenngleich die Java-Laufzeitumgebung immer noch in C erstellt wurde.

In der GraalVM-Implementierung von Java und anderen Sprachen wird zur Build Time ein AOT-Compiler ausgeführt, um den Bytecode zu optimieren und die Startzeit zu verkürzen.

C#

C# wurde im Jahr 1999 von Anders Hejlsberg bei Microsoft entwickelt und im Jahr 2000 von Mads Torgersen in C und C++ für die CLR implementiert. C# kompiliert zu CLR-Bytecode (Intermediate Language) und wird zur Laufzeit interpretiert und JIT-kompiliert. Der C#-Compiler, die CLR und die Bibliotheken sind jetzt in C# geschrieben, und der Compiler wird von einer Version zur nächsten gebootet.

Ein Teil des Anstoßes für die Entwicklung von C# könnte darin bestanden haben, dass Microsoft nicht in der Lage war, Java von Sun zu lizenzieren (Microsoft bestreitet das). Laut Hejlsberg wurde C# sowohl von C++ als auch von Java beeinflusst. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist ein Compiler?​ Weiterlesen »

Nach oben scrollen
×