Computerhaus Quickborn

Juni 2025

Tipps zur verbalen und nonverbalen Kommunikation: Körpersprache im Meeting​

Allgemein

Der Körper spricht, auch wenn man nicht verbal kommuniziert. Vor und im Meeting sollte man unbedingt auf seine Gedanken und Gefühle achten. Die eigene sowie die Körperwahrnehmung von anderen kann trainiert werden. In Zeiten von Back to Office sind Präsenzmeetings wieder auf die Tagesordnung. Gerade, wenn es um Kundenprojekte und ähnliches geht, ist ein konsequenter Austausch mit Vorgesetzten und Kollegen besonders wichtig. Vielen Teilnehmern ist dabei gar nicht bewusst, dass sie, auch wenn sie nicht verbal kommunizieren, so doch ständig mit ihrem Körper sprechen. Der Grund: Auch nonverbale Signale, das heißt jede Art von Körpersprache, sei es Mimik, Gestik oder Haltung, transportieren Botschaften. Stimme, Wortwahl, Tonlage und Körpersprache haben großen Einfluss auf die Glaubwürdigkeit und Wirkung. Dessen sind sich die wenigsten wirklich bewusst. Die Mimik der Gesprächspartner in Meetings kann viel über deren Einstellung zum Thema verraten. Foto: Rawpixel.com – shutterstock.com Wer zum Beispiel in ein Meeting geht und dabei schon an eine beteiligte Person denkt, mit der eher negativen Erfahrungen verbindet, wird Körpersprache und Mimik mit großer Wahrscheinlichkeit unbewusst darauf ausrichten. Das heißt, eher einen verärgerten, gestressten und angespannten Eindruck machen. Deshalb der Rat: Vor und im Meeting unbedingt auf Gedanken und Gefühle achten, denn sie werden durch das eigene Verhalten sowie die Körpersprache sichtbar. Verbale und nonverbale Kommunikation Oft ist es auch der Fall, dass man in Meetings, Sitzungen oder Gesprächen nicht immer sagt, was man denkt und wie man sich fühlt. Doch genau das führt häufig zu Irritationen auf der anderen Seite. Vielleicht kennen Sie diese Gefühl? Irgendetwas war da komisch im Meeting, aber man kann nicht genau sagen was… Das kommt von den unbewussten Signalen des Körpers. Mit solchen unbewussten Gesten reagiert der Körper auf seinen Gesprächspartner, auf die Gesprächssituation. Die Signale im Gesicht oder die Körperhaltung verändern sich dabei meist unbewusst. Insbesondere Gefühlszustände wie Freude und Ärger, aber auch Angst und Anspannung machen sich durch unbewusste Körpersignale deutlich bemerkbar. Wir nehmen das Verhalten zumeist unterschwellig wahr, können es dann nicht richtig erklären und doch haben wir ein “Gefühl”… das Meeting ist irgendwie gut gelaufen oder da war etwas, was irgendwie gestört und nicht gepasst hat, etc. Der Grund: Erst wenn verbale und nonverbale Kommunikation zusammenpassen, kommt etwas glaubhaft und authentisch bei uns an. In diesem Fall spricht man von Kongruenz. Mimik und Körpersprache, Stimme und die verbale Aussage passen dann zueinander oder aber auch nicht. Ein Beispiel: Sie erklären vor den IT-Teamleitern den aktuellen Stand eines neuen Projektes und sagen: “Lasst uns starten.” Die Antwort aller ist: “Ja, los…” Doch im Gesicht eines Gesprächspartners sehen Sie zum Beispiel die typische Ärger- beziehungsweise Skepsisfalte auf der Stirn oder einen einseitig hochgezogenen Mundwinkel oder Augenbraue. Das alles passt in diesem Moment nicht mit der verbalen Aussage zusammen. Es ist nicht kongruent. Und genau das lässt Sie unsicher werden. Oder aber durch die Mimik aller Anwesenden entsteht ein stimmiges Bild und damit Glaubwürdigkeit und Authentizität, nämlich exakt dann, wenn das Gesagte, also das verbale mit der Körpersprache, dem nonverbalen übereinstimmt. Die eigene und fremde Körpersprache lesen So gibt es unwahrscheinlich viele körpersprachliche und mimische Gesten, die interpretiert werden können. Zum Beispiel: Schweigend in einem Meeting sitzen, die Vermeidung von Blickkontakten, auf die Uhr, das Smartphone, den Boden oder aus dem Fenster schauen, verschränkte Arme oder das Rümpfen der Nase usw. Doch Vorsicht. Allein ein Kratzen an der Nase, Anfassen am Ohrläppchen, ein durch die Haare streichen, das Verschränken der Arme, Schweigen, oder eine ab- oder zugewandte Arm- oder Fußhaltung etc. heißt nicht zwangsläufig dieses oder jenes, noch macht es eine genaue Analyse der Körpersprache möglich. Man sollte sich hüten, solche Situationen vorschnell zu analysieren und eventuell “falsch” zu interpretieren. Es ist wichtig, sich erst intensiver mit dem Thema Mimik und Körpersprache zu beschäftigen, nicht um bestimmte Posen zu trainieren, sondern vielmehr um die eigene und später dann auch die Körperwahrnehmung von anderen zu verbessern. Das gelingt relativ einfach: Beobachten Sie sich selbst. Nehmen Sie sich selbst einmal wahr. Wie sitzen oder stehen Sie selbst in Meetings oder Besprechungen? Beobachten Sie andere Menschen und ihre Mimik und Gestik (auch oder besonders in Meetings). Wie ergeht es Ihnen dabei? Welche Gefühle, Gedanken und Reaktionen entstehen bei Ihnen als Zuhörer? Wiederholen Sie diese Beobachtungen bei sich selbst. Verändert sich etwas bei Ihnen, was nehmen Sie wahr? Als nächstes sollten Sie versuchen, mit Mimik und Körpersprache zu arbeiten, zu sprechen und zu variieren. Nutzen Sie dafür einen Spiegel. Übertreiben Sie dabei auch gerne, um Veränderungen zu erkennen. Ab wann setzen zum Beispiel Wirkungen ein? Lassen Sie mal ganz bewusst nur Ihr Gesicht sprechen ohne den Körper. Überlegen und üben Sie. Wie sieht es aus, wenn Sie freudig, traurig, überrascht, selbstbewusst, neugierig, verärgert oder gelangweilt schauen? Wie verändern sich Ihr Ausdruck und Ihre Wirkung, wenn Sie den Kopf zur Seite neigen, heben oder absenken? Beobachten und nehmen Sie bewusst wahr, wie die Reaktion Ihrer Gesprächspartner auf Ihre Körpersprache und Mimik ist. Setzen Sie bestimmt und gezielt Gesten ein, um genauer eine Reaktion zu erhalten. Üben Sie und reflektieren Sie Ihr eigenes Verhalten. In welchen Situationen haben Sie welche Reaktionen durch den Einsatz von Körpersprache und Mimik erreicht? Wenn Sie dafür ein Gefühl entwickelt haben, können Sie Ihre Körpersprache gezielter einsetzen. Tipps zur Körpersprache im MeetingIn Besprechungen beachtenMimik, Gestik oder Haltung haben großen Einfluss auf die Glaubwürdigkeit und Wirkung einer Person im Meeting. Dessen sind sich die wenigsten jedoch bewusst. Vier Tipps, worauf Sie in Besprechungen achten sollten.Tipp 1: Offene KörperhaltungBehalten Sie eine offene Körperhaltung und nutzen Sie ruhige und nicht zu ausladende Gesten. Achten Sie darauf, nicht zu viele hektische Handbewegungen zu machen.Tipp 2: BlickkontaktSeien Sie mit Ihrem Körper stets Ihrem Gesprächspartner zugewandt. Bei mehreren Gesprächspartnern wenden Sie sich demjenigen zu, mit dem Sie gerade in dem Moment kommunizieren.Tipp 3: AufmerksamkeitSignalisieren Sie Interesse und Aufmerksamkeit – hören Sie aktiv zu, nicken Sie zustimmend, halten Sie Blickkontakt, lassen Sie Ihren Gesprächspartner ausreden.Tipp 4: NachfragenWenn Sie bewusst oder unbewusst etwas wahrnehmen, was Sie gerade in diesem Moment nicht zuordnen können, was für Sie nicht klar und eindeutig ist, fragen Sie nach, um so Missverständnissen, Vorurteilen und eventuellen Konflikten vorzubeugen. 

Tipps zur verbalen und nonverbalen Kommunikation: Körpersprache im Meeting​ Der Körper spricht, auch wenn man nicht verbal kommuniziert.

Vor und im Meeting sollte man unbedingt auf seine Gedanken und Gefühle achten.

Die eigene sowie die Körperwahrnehmung von anderen kann trainiert werden.

In Zeiten von Back to Office sind Präsenzmeetings wieder auf die Tagesordnung. Gerade, wenn es um Kundenprojekte und ähnliches geht, ist ein konsequenter Austausch mit Vorgesetzten und Kollegen besonders wichtig. Vielen Teilnehmern ist dabei gar nicht bewusst, dass sie, auch wenn sie nicht verbal kommunizieren, so doch ständig mit ihrem Körper sprechen. Der Grund: Auch nonverbale Signale, das heißt jede Art von Körpersprache, sei es Mimik, Gestik oder Haltung, transportieren Botschaften. Stimme, Wortwahl, Tonlage und Körpersprache haben großen Einfluss auf die Glaubwürdigkeit und Wirkung. Dessen sind sich die wenigsten wirklich bewusst.

Die Mimik der Gesprächspartner in Meetings kann viel über deren Einstellung zum Thema verraten.
Foto: Rawpixel.com – shutterstock.com

Wer zum Beispiel in ein Meeting geht und dabei schon an eine beteiligte Person denkt, mit der eher negativen Erfahrungen verbindet, wird Körpersprache und Mimik mit großer Wahrscheinlichkeit unbewusst darauf ausrichten. Das heißt, eher einen verärgerten, gestressten und angespannten Eindruck machen. Deshalb der Rat: Vor und im Meeting unbedingt auf Gedanken und Gefühle achten, denn sie werden durch das eigene Verhalten sowie die Körpersprache sichtbar.

Verbale und nonverbale Kommunikation

Oft ist es auch der Fall, dass man in Meetings, Sitzungen oder Gesprächen nicht immer sagt, was man denkt und wie man sich fühlt. Doch genau das führt häufig zu Irritationen auf der anderen Seite. Vielleicht kennen Sie diese Gefühl? Irgendetwas war da komisch im Meeting, aber man kann nicht genau sagen was… Das kommt von den unbewussten Signalen des Körpers.

Mit solchen unbewussten Gesten reagiert der Körper auf seinen Gesprächspartner, auf die Gesprächssituation. Die Signale im Gesicht oder die Körperhaltung verändern sich dabei meist unbewusst. Insbesondere Gefühlszustände wie Freude und Ärger, aber auch Angst und Anspannung machen sich durch unbewusste Körpersignale deutlich bemerkbar.

Wir nehmen das Verhalten zumeist unterschwellig wahr, können es dann nicht richtig erklären und doch haben wir ein “Gefühl”… das Meeting ist irgendwie gut gelaufen oder da war etwas, was irgendwie gestört und nicht gepasst hat, etc. Der Grund: Erst wenn verbale und nonverbale Kommunikation zusammenpassen, kommt etwas glaubhaft und authentisch bei uns an. In diesem Fall spricht man von Kongruenz. Mimik und Körpersprache, Stimme und die verbale Aussage passen dann zueinander oder aber auch nicht.

Ein Beispiel: Sie erklären vor den IT-Teamleitern den aktuellen Stand eines neuen Projektes und sagen: “Lasst uns starten.” Die Antwort aller ist: “Ja, los…” Doch im Gesicht eines Gesprächspartners sehen Sie zum Beispiel die typische Ärger- beziehungsweise Skepsisfalte auf der Stirn oder einen einseitig hochgezogenen Mundwinkel oder Augenbraue. Das alles passt in diesem Moment nicht mit der verbalen Aussage zusammen.

Es ist nicht kongruent. Und genau das lässt Sie unsicher werden. Oder aber durch die Mimik aller Anwesenden entsteht ein stimmiges Bild und damit Glaubwürdigkeit und Authentizität, nämlich exakt dann, wenn das Gesagte, also das verbale mit der Körpersprache, dem nonverbalen übereinstimmt.

Die eigene und fremde Körpersprache lesen

So gibt es unwahrscheinlich viele körpersprachliche und mimische Gesten, die interpretiert werden können. Zum Beispiel:

Schweigend in einem Meeting sitzen,

die Vermeidung von Blickkontakten,

auf die Uhr, das Smartphone, den Boden oder aus dem Fenster schauen,

verschränkte Arme oder

das Rümpfen der Nase usw.

Doch Vorsicht. Allein ein Kratzen an der Nase, Anfassen am Ohrläppchen, ein durch die Haare streichen, das Verschränken der Arme, Schweigen, oder eine ab- oder zugewandte Arm- oder Fußhaltung etc. heißt nicht zwangsläufig dieses oder jenes, noch macht es eine genaue Analyse der Körpersprache möglich.

Man sollte sich hüten, solche Situationen vorschnell zu analysieren und eventuell “falsch” zu interpretieren. Es ist wichtig, sich erst intensiver mit dem Thema Mimik und Körpersprache zu beschäftigen, nicht um bestimmte Posen zu trainieren, sondern vielmehr um die eigene und später dann auch die Körperwahrnehmung von anderen zu verbessern. Das gelingt relativ einfach:

Beobachten Sie sich selbst. Nehmen Sie sich selbst einmal wahr. Wie sitzen oder stehen Sie selbst in Meetings oder Besprechungen? Beobachten Sie andere Menschen und ihre Mimik und Gestik (auch oder besonders in Meetings). Wie ergeht es Ihnen dabei? Welche Gefühle, Gedanken und Reaktionen entstehen bei Ihnen als Zuhörer? Wiederholen Sie diese Beobachtungen bei sich selbst. Verändert sich etwas bei Ihnen, was nehmen Sie wahr?

Als nächstes sollten Sie versuchen, mit Mimik und Körpersprache zu arbeiten, zu sprechen und zu variieren. Nutzen Sie dafür einen Spiegel. Übertreiben Sie dabei auch gerne, um Veränderungen zu erkennen. Ab wann setzen zum Beispiel Wirkungen ein? Lassen Sie mal ganz bewusst nur Ihr Gesicht sprechen ohne den Körper. Überlegen und üben Sie. Wie sieht es aus, wenn Sie freudig, traurig, überrascht, selbstbewusst, neugierig, verärgert oder gelangweilt schauen? Wie verändern sich Ihr Ausdruck und Ihre Wirkung, wenn Sie den Kopf zur Seite neigen, heben oder absenken?

Beobachten und nehmen Sie bewusst wahr, wie die Reaktion Ihrer Gesprächspartner auf Ihre Körpersprache und Mimik ist. Setzen Sie bestimmt und gezielt Gesten ein, um genauer eine Reaktion zu erhalten.

Üben Sie und reflektieren Sie Ihr eigenes Verhalten. In welchen Situationen haben Sie welche Reaktionen durch den Einsatz von Körpersprache und Mimik erreicht? Wenn Sie dafür ein Gefühl entwickelt haben, können Sie Ihre Körpersprache gezielter einsetzen.

Tipps zur Körpersprache im MeetingIn Besprechungen beachtenMimik, Gestik oder Haltung haben großen Einfluss auf die Glaubwürdigkeit und Wirkung einer Person im Meeting. Dessen sind sich die wenigsten jedoch bewusst. Vier Tipps, worauf Sie in Besprechungen achten sollten.Tipp 1: Offene KörperhaltungBehalten Sie eine offene Körperhaltung und nutzen Sie ruhige und nicht zu ausladende Gesten. Achten Sie darauf, nicht zu viele hektische Handbewegungen zu machen.Tipp 2: BlickkontaktSeien Sie mit Ihrem Körper stets Ihrem Gesprächspartner zugewandt. Bei mehreren Gesprächspartnern wenden Sie sich demjenigen zu, mit dem Sie gerade in dem Moment kommunizieren.Tipp 3: AufmerksamkeitSignalisieren Sie Interesse und Aufmerksamkeit – hören Sie aktiv zu, nicken Sie zustimmend, halten Sie Blickkontakt, lassen Sie Ihren Gesprächspartner ausreden.Tipp 4: NachfragenWenn Sie bewusst oder unbewusst etwas wahrnehmen, was Sie gerade in diesem Moment nicht zuordnen können, was für Sie nicht klar und eindeutig ist, fragen Sie nach, um so Missverständnissen, Vorurteilen und eventuellen Konflikten vorzubeugen.

Tipps zur verbalen und nonverbalen Kommunikation: Körpersprache im Meeting​ Weiterlesen »

WWDC 2025: Was Apple fürs Business plant​

Allgemein

width=”1125″ height=”632″ sizes=”(max-width: 1125px) 100vw, 1125px”>Apple-Experte Mark Zimmermann freute sich insbesondere über die auf der WWDC vorgestellten neuen Funktionen für die Vision Pro. Mark Zimmermann Apples Worldwide Developer Conference (WWDC) ist immer ein besonderes Ereignis im Jahr – und das nicht nur, wie der Name vermuten lässt, für Entwickler. Gleichzeitig interessieren sich nämlich auch viele Apple-Nutzer brennend dafür, was sich in Zukunft auf ihren Geräten so tut. Developer hui, Consumer pfui   Dieses Jahr waren deren Erwartungen allerdings eher gedämpft, unter anderem, nachdem klar war, dass Apple wohl wenig Neues zum Trendthema Künstliche Intelligenz beizutragen hat. Im Gegensatz dazu kam die Developer-Community auf ihre Kosten – sie erwarteten mehr als 100 Sessions und Workshops zu verschiedenen Themen rund um das Apple-Universum. Welche Neuigkeiten von Apple, speziell für den Einsatz im Enterprise, ist Thema der aktuellen Folge von TechTalk, dem Podcast von Computerwoche, CIO und CSO. Mark Zimmermann, Leiter des Center of Excellence für mobile Anwendungsentwicklung bei der EnBW und ausgewiesener Apple-Experte, die aus seiner Sicht spannendsten Ankündigungen für den Einsatz von Apple-Geräten im Business vor. Dazu gehören unter anderem neue Funktionen und Möglichkeiten für Unternehmen mit dem Apple Business Manager sowie weitere Verbesserungen beim Mobile Device Management für iPhone, iPad und Mac. Neben zahlreichen weiteren Neuerungen im Apple-Kosmos hält die Company auch der Vision Pro – zumindest softwaretechnisch – die Stange. So lassen sich die Brillen unter visionOS 26 vollständig automatisiert ins MDM integrieren. Auch manuelle Registrierung mit dem Apple Configurator ist nun möglich – selbst wenn das Gerät nicht direkt bei Apple gekauft wurde. Aber hören Sie selbst! width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1AhZOkRs5EeiW0YbdHgS6l?utm_source=oembed”> 

WWDC 2025: Was Apple fürs Business plant​ width=”1125″ height=”632″ sizes=”(max-width: 1125px) 100vw, 1125px”>Apple-Experte Mark Zimmermann freute sich insbesondere über die auf der WWDC vorgestellten neuen Funktionen für die Vision Pro. Mark Zimmermann

Apples Worldwide Developer Conference (WWDC) ist immer ein besonderes Ereignis im Jahr – und das nicht nur, wie der Name vermuten lässt, für Entwickler. Gleichzeitig interessieren sich nämlich auch viele Apple-Nutzer brennend dafür, was sich in Zukunft auf ihren Geräten so tut.

Developer hui, Consumer pfui  

Dieses Jahr waren deren Erwartungen allerdings eher gedämpft, unter anderem, nachdem klar war, dass Apple wohl wenig Neues zum Trendthema Künstliche Intelligenz beizutragen hat. Im Gegensatz dazu kam die Developer-Community auf ihre Kosten – sie erwarteten mehr als 100 Sessions und Workshops zu verschiedenen Themen rund um das Apple-Universum.

Welche Neuigkeiten von Apple, speziell für den Einsatz im Enterprise, ist Thema der aktuellen Folge von TechTalk, dem Podcast von Computerwoche, CIO und CSO. Mark Zimmermann, Leiter des Center of Excellence für mobile Anwendungsentwicklung bei der EnBW und ausgewiesener Apple-Experte, die aus seiner Sicht spannendsten Ankündigungen für den Einsatz von Apple-Geräten im Business vor.

Dazu gehören unter anderem neue Funktionen und Möglichkeiten für Unternehmen mit dem Apple Business Manager sowie weitere Verbesserungen beim Mobile Device Management für iPhone, iPad und Mac. Neben zahlreichen weiteren Neuerungen im Apple-Kosmos hält die Company auch der Vision Pro – zumindest softwaretechnisch – die Stange. So lassen sich die Brillen unter visionOS 26 vollständig automatisiert ins MDM integrieren. Auch manuelle Registrierung mit dem Apple Configurator ist nun möglich – selbst wenn das Gerät nicht direkt bei Apple gekauft wurde. Aber hören Sie selbst!

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1AhZOkRs5EeiW0YbdHgS6l?utm_source=oembed”>

WWDC 2025: Was Apple fürs Business plant​ Weiterlesen »

Microsofts neues GenAI-Modell soll Windows-11-Agenten antreiben​

Allgemein

Das Small Language Model Mu läuft auf der lokalen NPU der Copilot+ PCs.Alexander56891 – Shutterstock.com Microsoft kündigte eine KI-Technologie an, die es ermöglichen soll, generative KI-Agenten direkt auf Windows-Geräten ohne Internetverbindung auszuführen. Das sogenannte „Mu“-Modell, ein kleines Sprachmodell (Small Language Model; SLM), ist darauf ausgelegt, auf natürliche Sprachabfragen innerhalb des Betriebssystems zu reagieren, wie Microsoft in einem Blogbeitrag erklärt. Mu nutze dabei die Neural Processing Units (NPUs) der neuen Copilot-PCs, betont Vivek Pradeep, Vice President und Distinguished Engineer für Windows Applied Sciences bei Microsoft. Mu kommt bereits in einer Vorschauversion von Windows 11 zum Einsatz: Es steuert dort einen Agenten, der Benutzeranfragen in den Systemeinstellungen bearbeitet. Die Funktion ist seit dem 13. Juni in der Preview-Version von Windows 11 (26200.5651) für Nutzer von Copilot+-PCs verfügbar. Fokus auf effizienten Offline-Betrieb Das Modell verstehe Anfragen besser im Kontext und sei für einen effizienten Betrieb und hohe Leistung ohne Cloud-Anbindung konzipiert, schreibt Pradeep. Microsoft treibt die Integration generativer KI-Funktionen sowohl in Windows 11 als auch in Microsoft 365 massiv voran. Im Mai stellte das Unternehmen dazu den neuen Entwickler-Stack „Windows ML 2.0“ vor, mit dem KI-Funktionen einfacher in Software eingebaut werden können. Auch für Microsoft-365-Anwendungen arbeitet man an spezifischen KI-Modellen. Das Mu-Modell verfügt über 330 Millionen Parametern und wurde so angepasst, dass es lokal auf Windows-11-PCs betrieben werden kann. Da Laptops nur begrenzte Hardware-Ressourcen und Akkulaufzeiten haben, benötigen sie normalerweise für komplexe KI-Anwendungen eine Cloud-Anbindung. „Dazu war es notwendig, die Architektur des Modells und die Form der Parameter so anzupassen, dass sie besser zur Parallelverarbeitung und den Speicherbeschränkungen der Hardware passen“, erklärt Pradeep. Das Modell generiert außerdem hochwertige Antworten und versteht Anfragen besser. Microsoft hat eine angepasste Version von Mu speziell für das Einstellungsmenü trainiert, die auch auf unklare oder unvollständige Systemanfragen reagieren kann – etwa wenn nicht klar ist, ob die Helligkeit des Haupt- oder eines Zweitbildschirms angepasst werden soll. Mu basiert auf einem Encoder-Decoder-Ansatz, bei dem große Anfragen zunächst in kompakte Repräsentationen zerlegt werden, die anschließend zur Antwortgenerierung genutzt werden. Das unterscheidet es von großen Sprachmodellen (Large Language Models; LLMs), die in der Regel reine Decoder-Modelle sind und den gesamten Text zur Ausgabe verarbeiten müssen. „Durch die Trennung von Eingabe- und Ausgabetokens ermöglicht Mu eine einmalige Kodierung, was Rechen- und Speicheraufwand erheblich reduziert“, so der Microsoft-Manager weiter. „Beim Vergleich von Mu mit einem ähnlich fein abgestimmten Phi-3.5-mini haben wir festgestellt, dass Mu trotz seiner zehnmal geringeren Größe eine fast vergleichbare Leistung bietet“, so Pradeep. Diese Effizienzgewinne seien entscheidend für Echtzeitanwendungen direkt auf dem Gerät. „Die Verwaltung der Vielzahl an Windows-Einstellungen war eine Herausforderung – insbesondere wegen sich überschneidender Funktionen“. Dem Microsoft-Manager zufolge lag die Reaktionszeit unter 500 Millisekunden, was den Zielen für einen reaktionsschnellen und zuverlässigen Agenten in den Einstellungen, der auf Hunderte von Einstellungen skaliert werden kann, entspreche. Microsoft verfügt über zahlreiche GenAI-Technologien, darunter ChatGPT von OpenAI und das neueste eigene Phi 4-Modell, das Bilder, Videos und Texte generieren kann. (mb) 

Microsofts neues GenAI-Modell soll Windows-11-Agenten antreiben​ Das Small Language Model Mu läuft auf der lokalen NPU der Copilot+ PCs.Alexander56891 – Shutterstock.com

Microsoft kündigte eine KI-Technologie an, die es ermöglichen soll, generative KI-Agenten direkt auf Windows-Geräten ohne Internetverbindung auszuführen. Das sogenannte „Mu“-Modell, ein kleines Sprachmodell (Small Language Model; SLM), ist darauf ausgelegt, auf natürliche Sprachabfragen innerhalb des Betriebssystems zu reagieren, wie Microsoft in einem Blogbeitrag erklärt. Mu nutze dabei die Neural Processing Units (NPUs) der neuen Copilot-PCs, betont Vivek Pradeep, Vice President und Distinguished Engineer für Windows Applied Sciences bei Microsoft.

Mu kommt bereits in einer Vorschauversion von Windows 11 zum Einsatz: Es steuert dort einen Agenten, der Benutzeranfragen in den Systemeinstellungen bearbeitet. Die Funktion ist seit dem 13. Juni in der Preview-Version von Windows 11 (26200.5651) für Nutzer von Copilot+-PCs verfügbar.

Fokus auf effizienten Offline-Betrieb

Das Modell verstehe Anfragen besser im Kontext und sei für einen effizienten Betrieb und hohe Leistung ohne Cloud-Anbindung konzipiert, schreibt Pradeep.

Microsoft treibt die Integration generativer KI-Funktionen sowohl in Windows 11 als auch in Microsoft 365 massiv voran. Im Mai stellte das Unternehmen dazu den neuen Entwickler-Stack „Windows ML 2.0“ vor, mit dem KI-Funktionen einfacher in Software eingebaut werden können. Auch für Microsoft-365-Anwendungen arbeitet man an spezifischen KI-Modellen.

Das Mu-Modell verfügt über 330 Millionen Parametern und wurde so angepasst, dass es lokal auf Windows-11-PCs betrieben werden kann. Da Laptops nur begrenzte Hardware-Ressourcen und Akkulaufzeiten haben, benötigen sie normalerweise für komplexe KI-Anwendungen eine Cloud-Anbindung. „Dazu war es notwendig, die Architektur des Modells und die Form der Parameter so anzupassen, dass sie besser zur Parallelverarbeitung und den Speicherbeschränkungen der Hardware passen“, erklärt Pradeep.

Das Modell generiert außerdem hochwertige Antworten und versteht Anfragen besser. Microsoft hat eine angepasste Version von Mu speziell für das Einstellungsmenü trainiert, die auch auf unklare oder unvollständige Systemanfragen reagieren kann – etwa wenn nicht klar ist, ob die Helligkeit des Haupt- oder eines Zweitbildschirms angepasst werden soll.

Mu basiert auf einem Encoder-Decoder-Ansatz, bei dem große Anfragen zunächst in kompakte Repräsentationen zerlegt werden, die anschließend zur Antwortgenerierung genutzt werden. Das unterscheidet es von großen Sprachmodellen (Large Language Models; LLMs), die in der Regel reine Decoder-Modelle sind und den gesamten Text zur Ausgabe verarbeiten müssen.

„Durch die Trennung von Eingabe- und Ausgabetokens ermöglicht Mu eine einmalige Kodierung, was Rechen- und Speicheraufwand erheblich reduziert“, so der Microsoft-Manager weiter. „Beim Vergleich von Mu mit einem ähnlich fein abgestimmten Phi-3.5-mini haben wir festgestellt, dass Mu trotz seiner zehnmal geringeren Größe eine fast vergleichbare Leistung bietet“, so Pradeep. Diese Effizienzgewinne seien entscheidend für Echtzeitanwendungen direkt auf dem Gerät. „Die Verwaltung der Vielzahl an Windows-Einstellungen war eine Herausforderung – insbesondere wegen sich überschneidender Funktionen“.

Dem Microsoft-Manager zufolge lag die Reaktionszeit unter 500 Millisekunden, was den Zielen für einen reaktionsschnellen und zuverlässigen Agenten in den Einstellungen, der auf Hunderte von Einstellungen skaliert werden kann, entspreche.

Microsoft verfügt über zahlreiche GenAI-Technologien, darunter ChatGPT von OpenAI und das neueste eigene Phi 4-Modell, das Bilder, Videos und Texte generieren kann. (mb)

Microsofts neues GenAI-Modell soll Windows-11-Agenten antreiben​ Weiterlesen »

VMware-Lizenzen zu teuer? Dann machen Sie was falsch​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?quality=50&strip=all 3947w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Nutzt man mehrere Produkte im VCF-Bundle, relativiert sich der hohe Abo-Preis – meint Broadcom.ZikG – Shutterstock.com Joe Baguley, CTO Emea bei Broadcom, hat eine klare Empfehlung für Kunden, die von Broadcoms Entscheidung, statt Einzellizenzen nur noch kostspielige Softwarepakete wie VMware Cloud Foundation (VCF) anzubieten, enttäuscht sind. Wenn sie mehr der enthaltenen Komponten tatsächlich nutzten, würden sie den Wert dieser Bundles erkennen, erklärte Baguley gegenüber The Register. „Viele dieser Kostengeschichten relativieren sich, wenn wir mit den Kunden ins Gespräch kommen, ihre tatsächlichen Anforderungen verstehen und gemeinsam konkrete Pläne entwickeln“, so der Broadcom-Manager. In der Broadcom-Bubble Broadcom hatte nach der Übernahme von VMware Ende 2023 zahlreiche Produkte abgekündigt und die verbleibenden in zwei Abo-Paketen zusammengefasst, darunter insbesondere die Hybrid-Cloud-Plattform VCF. Das Nachsehen haben dabei insbesondere kleinere und mittlere Unternehmen, die teilweise von Kostensteigerungen um mehrere hundert Prozent betroffen sind. Bei großen Unternehmenskunden scheint die Upselling-Strategie dagegen zu funktionieren. Von unseren 10.000 größten Kunden haben mittlerweile über 87 Prozent VCF eingeführt“, erklärte Hock Tan, CEO von Broadcom, unlängst im Rahmen der Bekanntgabe der Ergebnisse für das zweite Quartal des Geschäftsjahres 2025. „Am Anfang sagen viele: ‚Alles ist teurer geworden.‘ Aber diese 87 Prozent, die verlängert haben, haben sich bewusst für VCF entschieden – als strategische Plattform für die Zukunft“, griff Baguley nun diese Entwicklung im Gespräch mit The Register auf. „Wenn wir uns mit Kunden zusammensetzen und darüber sprechen, welche Kosten sie erwarten – und welchen Nutzen sie tatsächlich aus der Plattform ziehen können –, dann ist das der entscheidende Punkt“, so der EMEA-CTO. Einige Kunden, die inzwischen VCF nutzen, hätten früher nur einzelne Komponenten wie vSphere oder bestimmte Automatisierungswerkzeuge eingesetzt, so der Manager weiter: „Jetzt entdecken sie, was alles möglich ist: Konfigurationsmanagement, Sicherheitsfunktionen, Kostenkontrolle – all die Funktionen, für die sie vorher andere Tools hatten, die aber nie wirklich nahtlos integriert waren.“ Joe Baguley, Emea-CTO von Broadcom und langjähriger VMware-Manager, verteidigt die Preisstrategie seines Arbeitgebers.Broadcom Steve Jobs lässt grüßen “Just avoid holding it in that way!” Marktbeobachter dürfte Baguleys Kommentar an den bekannten Ausspruch von Steve Jobs im Jahr 2010 erinnern. Damals gab der ehemalige Apple-Chef nicht dem schlechten Produktdesign seiner Company, sondern den Nutzern die Schuld an der Signalstörung beim iPhone 4  – weil sie mit ihrer Hand die außen am Gehäuse angebrachte Antenne („Antennagate“) störten. In ähnlicher Weise kann man als Broadcom den Kunden keinen Vorwurf machen, dass sie nicht noch mehr VM-Produkte nutzen wollen. Dabei spielt es keine Rolle, ob sie vielleicht bereits andere Lösungen und Skills im Unternehmen vorhalten, oder sich aus Angst vor einem noch stärkeren Vendor Lock-nicht noch abhängiger von VMware/Broadcom machen wollen. „Wenn Broadcom sich als guter Geschäftspartner erwiesen und gute Beziehungen zu seinen langjährigen Kunden gepflegt hätte, würden möglicherweise mehr Personen mehr Funktionen nutzen“, erklärte ein Nutzer auf Reddit. „Aber wie viele Preis- und Produktänderungen gab es allein in den letzten sechs Monaten, ganz zu schweigen von der Zeit seit Abschluss der Übernahme?“ Die Konsequenz für sein Unternehmen: „Angesichts der ständigen Änderungen würde ich mich derzeit auf keinen Fall weiter in das VMware-Ökosystem begeben. Wir versuchen, unser Risiko zu begrenzen, nicht zu erhöhen“, erklärte er. 

VMware-Lizenzen zu teuer? Dann machen Sie was falsch​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?quality=50&strip=all 3947w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Nutzt man mehrere Produkte im VCF-Bundle, relativiert sich der hohe Abo-Preis – meint Broadcom.ZikG – Shutterstock.com

Joe Baguley, CTO Emea bei Broadcom, hat eine klare Empfehlung für Kunden, die von Broadcoms Entscheidung, statt Einzellizenzen nur noch kostspielige Softwarepakete wie VMware Cloud Foundation (VCF) anzubieten, enttäuscht sind. Wenn sie mehr der enthaltenen Komponten tatsächlich nutzten, würden sie den Wert dieser Bundles erkennen, erklärte Baguley gegenüber The Register.

„Viele dieser Kostengeschichten relativieren sich, wenn wir mit den Kunden ins Gespräch kommen, ihre tatsächlichen Anforderungen verstehen und gemeinsam konkrete Pläne entwickeln“, so der Broadcom-Manager.

In der Broadcom-Bubble

Broadcom hatte nach der Übernahme von VMware Ende 2023 zahlreiche Produkte abgekündigt und die verbleibenden in zwei Abo-Paketen zusammengefasst, darunter insbesondere die Hybrid-Cloud-Plattform VCF.

Das Nachsehen haben dabei insbesondere kleinere und mittlere Unternehmen, die teilweise von Kostensteigerungen um mehrere hundert Prozent betroffen sind.

Bei großen Unternehmenskunden scheint die Upselling-Strategie dagegen zu funktionieren. Von unseren 10.000 größten Kunden haben mittlerweile über 87 Prozent VCF eingeführt“, erklärte Hock Tan, CEO von Broadcom, unlängst im Rahmen der Bekanntgabe der Ergebnisse für das zweite Quartal des Geschäftsjahres 2025.

„Am Anfang sagen viele: ‚Alles ist teurer geworden.‘ Aber diese 87 Prozent, die verlängert haben, haben sich bewusst für VCF entschieden – als strategische Plattform für die Zukunft“, griff Baguley nun diese Entwicklung im Gespräch mit The Register auf. „Wenn wir uns mit Kunden zusammensetzen und darüber sprechen, welche Kosten sie erwarten – und welchen Nutzen sie tatsächlich aus der Plattform ziehen können –, dann ist das der entscheidende Punkt“, so der EMEA-CTO.

Einige Kunden, die inzwischen VCF nutzen, hätten früher nur einzelne Komponenten wie vSphere oder bestimmte Automatisierungswerkzeuge eingesetzt, so der Manager weiter: „Jetzt entdecken sie, was alles möglich ist: Konfigurationsmanagement, Sicherheitsfunktionen, Kostenkontrolle – all die Funktionen, für die sie vorher andere Tools hatten, die aber nie wirklich nahtlos integriert waren.“

Joe Baguley, Emea-CTO von Broadcom und langjähriger VMware-Manager, verteidigt die Preisstrategie seines Arbeitgebers.Broadcom

Steve Jobs lässt grüßen

“Just avoid holding it in that way!” Marktbeobachter dürfte Baguleys Kommentar an den bekannten Ausspruch von Steve Jobs im Jahr 2010 erinnern. Damals gab der ehemalige Apple-Chef nicht dem schlechten Produktdesign seiner Company, sondern den Nutzern die Schuld an der Signalstörung beim iPhone 4  – weil sie mit ihrer Hand die außen am Gehäuse angebrachte Antenne („Antennagate“) störten.

In ähnlicher Weise kann man als Broadcom den Kunden keinen Vorwurf machen, dass sie nicht noch mehr VM-Produkte nutzen wollen. Dabei spielt es keine Rolle, ob sie vielleicht bereits andere Lösungen und Skills im Unternehmen vorhalten, oder sich aus Angst vor einem noch stärkeren Vendor Lock-nicht noch abhängiger von VMware/Broadcom machen wollen.

„Wenn Broadcom sich als guter Geschäftspartner erwiesen und gute Beziehungen zu seinen langjährigen Kunden gepflegt hätte, würden möglicherweise mehr Personen mehr Funktionen nutzen“, erklärte ein Nutzer auf Reddit. „Aber wie viele Preis- und Produktänderungen gab es allein in den letzten sechs Monaten, ganz zu schweigen von der Zeit seit Abschluss der Übernahme?“

Die Konsequenz für sein Unternehmen: „Angesichts der ständigen Änderungen würde ich mich derzeit auf keinen Fall weiter in das VMware-Ökosystem begeben. Wir versuchen, unser Risiko zu begrenzen, nicht zu erhöhen“, erklärte er.

VMware-Lizenzen zu teuer? Dann machen Sie was falsch​ Weiterlesen »

SAP S/4HANA –Trend geht zu Cloud, KI und höheren Preisen​

Allgemein

width=”1683″ height=”947″ sizes=”(max-width: 1683px) 100vw, 1683px”>Mit dem Umstieg auf S/4HANA hoffen viele Anwenderunternehmen auf mehr Schub in ihrer digitalen Transformation.Photon photo – shutterstock.com 81 Prozent der Unternehmen nutzen ein ERP-System, meist von SAP – das ist erfreulich für den größten deutschen Softwarehersteller. Zwei Drittel davon arbeiten bereits mit SAP S/4HANA, entweder on-premises oder als Cloud-Edition (Public/Private). Das ist angesichts des baldigen Support-Endes für SAP ECC 6.0 erwartbar. SAP S/4HANA dominiert ERP-Markt mit klarem Trend zur Cloud Dennoch setzen 35 Prozent noch ältere SAP-Systeme wie ECC 6.0 oder R/3 ein. Bemerkenswert ist, dass nur ein Fünftel der SAP-S/4HANA-Nutzer die Suite on-premises betreibt; 46 Prozent nutzen sie in der Cloud eines Hyperscalers (Amazon Web Services, Microsoft Azure, Google Cloud Platform) oder eines professionellen Hosting-Anbieters. 26 Prozent arbeiten mit SAPs eigenen Cloud-Editionen (19 Prozent die Public Cloud und sieben Prozent die Private Cloud). Sechs Prozent der Befragten setzen auf hybride Two-Tier-Modelle. SAP S/4HANA wird entweder im Verbund mit einer der Cloud-Editionen eingesetzt oder nach dem Clean-Core-Ansatz durch Cloud-Apps und -Services auf Basis der SAP Business Technology Platform (SAP BTP) erweitert. Der Trend zur Cloud hält an: 85 Prozent der Unternehmen, die derzeit on-premises mit SAP S/4HANA arbeiten, wollen mittelfristig in die Cloud wechseln, davon 58 Prozent zur Hyperscaler-Cloud, 21 Prozent zur Public Cloud und sechs Prozent zur Private Cloud eines Hosting-Anbieters oder zur SAP HANA Enterprise Cloud (HEC). Das ist das Kernergebnis der Studie „SAP S/4HANA 2025“, die CIO und COMPUTERWOCHE gemeinsam mit den Partnern Stibo Systems, All for One Group, Spirit/21 und USU realisiert haben. An der Studie beteiligten sich 307 C-Level-Business- und IT-Entscheiderinnen und -entscheider, IT-Leiterinnen und -Leiter sowie Fachbereichsvertreter aus Unternehmen unterschiedlichster Branchen, Größen und Umsatzklassen in Deutschland. Vorteile im Wettbewerb und Business treiben Umstieg voran SAP S/4HANA wird besonders häufig in größeren Unternehmen mit 1.000 und mehr Beschäftigten (74 Prozent) eingesetzt, aber auch in kleinen Betrieben mit weniger als 250 Beschäftigten (70 Prozent). Überraschend zurückhaltend zeigen sich hingegen mittelgroße Firmen mit 250 bis 999 Beschäftigten (nur 56 Prozent). Möglicherweise haben kleinere Firmen mit vielleicht einfacher gestrickten SAP-Installationen bereits früher migriert, während mittelgroße Betriebe mit komplexeren SAP-Infrastrukturen noch zögern. Grundsätzlich will die Mehrheit der Befragten SAP S/4HANA zügig einführen oder auf das aktuelle Release wechseln: 52 Prozent binnen zwölf Monaten. 13 Prozent stehen kurz vor dem Go-Live. 61 Prozent sehen darin einen Wettbewerbsvorteil. Unabhängig vom Zeitpunkt der Umstellung erwarten die Unternehmen einen klaren Business-Nutzen von SAP S/4HANA, in erster Linie schnellere und flexiblere Prozesse (35 Prozent), Kosteneinsparungen (32 Prozent) und Umsatzwachstum (31 Prozent). Aspekte wie Datenmanagement oder Automatisierung rangieren weiter unten auf der Wunschliste, obwohl auch sie Effizienz bringen und datengetriebene digitale Geschäftsmodelle ermöglichen. Das ist überraschend, da 71 Prozent SAP S/4HANA als wichtig bis entscheidend für ihre digitale Transformation einstufen. Die Mehrheit der Befragten will SAP S/4HANA zügig einführen oder darauf wechseln: 52 Prozent binnen zwölf Monaten. Research Services: Patrick Birnbreier Dabei erfüllt SAP S/4HANA die Anforderungen der Unternehmen im Hinblick auf den geschäftlichen Nutzen offenbar weitgehend: 85 Prozent sind mit der ERP-Suite „sehr zufrieden“ oder „zufrieden“ und 77 Prozent sind es auch mit dem Projektverlauf – unabhängig davon, ob ein Greenfield- oder Brownfield-Ansatz verfolgt wird. Allerdings zeigen sich Unterschiede bei den Funktionsträgern. Während 94 Prozent der C-Level-Verantwortlichen und 83 Prozent der Fachbereiche zufrieden sind, sind es bei den IT-Leitern nur 62 Prozent. Zufriedenheit hoch, Defizite bei Vorbereitung auf den Wechsel Die hohe Zufriedenheitsquote ist auch ein Indiz dafür, dass die mit der Umstellung auf SAP S/4HANA verbundenen Herausforderungen zufriedenstellend gemeistert wurden. Zu den größten Hürden zählen die Anpassung der IT-Landschaft und -Architektur (35 Prozent), die Verwaltung und der Abgleich von Stammdaten aus unterschiedlichen Quellsystemen (33 Prozent) sowie die Einrichtung einer „Single Source of Truth“ für Kunden-, Produkt- oder Lieferantendaten (28 Prozent). Auffallend ist, dass nur elf Prozent der Befragten über einen Personalengpass in der internen IT-Abteilung klagen. Zu den größten Herausforderungen zählen die Anpassung der IT-Landschaft und -Architektur (35 Prozent) und die Verwaltung und der Abgleich von Stammdaten aus unterschiedlichen Quellsystemen (33 Prozent). Research Services: Patrick Birnbreier Defizite zeigen sich allerdings bei der Vorbereitung zur Umstellung: Nur 48 Prozent der Befragten stimmen die SAP-S/4HANA-Einsatzziele mit der IT-Strategie ab, 43 Prozent mit der Gesamtstrategie und 33 Prozent mit den operativen Zielen der Fachbereiche. Entsprechend bewerten nur 35 Prozent ihren Reifegrad in Bezug auf Organisation und Prozesse als „hervorragend” oder „sehr gut”. Geht es um den technischen Umstieg auf SAP S/4HANA, setzen 41 Prozent auf ein hybrides Modell und damit auf den Mix aus Greenfield- und Brownfield-Methode, auch bekannt als Color-Field- oder Selective-Data-Transition-Ansatz. 32 Prozent führen eine System Conversion (Brownfield) und ein Fünftel eine Neueinführung auf der grünen Wiese (Greenfield) durch. Rege Nutzung von SAP BTP und SAP Business AI Wichtige Aufschlüsse liefert die Studie zum Platform-as-a-Service-Angebot (PaaS) SAP BTP und zum Einsatz der SAP-eigenen KI-Lösungen (SAP Business AI). Die SAP BTP nutzen 67 Prozent, um Drittlösungen und Eigenentwicklungen in S/4HANA einzubinden, bei 26 Prozent ist dies geplant. Im SAP-Umfeld ist die SAP BTP somit der „Quasi-Standard“ bei der Anwendungsintegration. Die PaaS-Plattform wird vielerorts auch in anderen Bereichen eingesetzt. Besonders häufig wird sie für die Applikationsentwicklung und Automatisierung (51 Prozent), das Datenbank- und Datenmanagement (36 Prozent) sowie die erweiterte Planung und Analyse (35 Prozent, Extended Planning and Analysis = xP&A) verwendet. Vor dem Hintergrund der Ankündigung von SAP-CEO Christian Klein, KI für Unternehmen greifbar und allgegenwärtig zu machen, ist es besonders interessant, dass über zwei Drittel (67 Prozent) KI-Angebote von SAP (SAP Business AI) bereits umfassend oder gezielt für bestimmte Aufgaben nutzen, 15 Prozent sporadisch. 13 Prozent planen den Einsatz fest ein. Der hohe Nutzungsgrad belegt, dass SAPs KI-Angebot bei Kunden gut ankommt, zumal der Einsatz einen klaren Mehrwert bietet. Dazu zählen in erster Linie eine Prozessbeschleunigung (52 Prozent) und Kostenreduzierung (45 Prozent), aber auch die Prozessautomatisierung und die Einhaltung von Compliance-Anforderungen (jeweils 39 Prozent). Über zwei Drittel (67 Prozent) nutzen KI-Angebote von SAP (SAP Business AI) bereits umfassend oder gezielt für Aufgaben. Research Services: Patrick Birnbreier Investitionsbereitschaft trotz Budgetengpass durch Preisaufschlag Die aktuelle Studie hält darüber hinaus weitere aufschlussreiche und überraschende Ergebnisse bereit. Ein Beispiel ist die Preispolitik von SAP, die seit jeher kontrovers diskutiert und vielfach kritisiert wird. Obwohl jeder Zweite konkrete Probleme hat und 58 Prozent ernsthaft darüber nachdenken, SAP S/4HANA durch ein anderes ERP-System zu ersetzen, halten vier Fünftel der Befragten die aktuellen Preiserhöhungen für Wartung und Support für adäquat und nachvollziehbar. Dieser Widerspruch ist nicht wirklich erklärbar. Nur 17 Prozent bringen „eher kein“ oder „gar kein“ Verständnis dafür auf. Dennoch wollen drei Viertel der Befragten in den kommenden 12 bis 24 Monaten weiter in SAP S/4HANA investieren („auf jeden Fall“ oder „wahrscheinlich“). Ein Fünftel ist unentschieden und sagt „vielleicht“. Ganz oben auf der Prioritätenliste stehen das Rechnungswesen (46 Prozent), der Einkauf/die Beschaffung (39 Prozent) und das Customer-Relationship-Management (CRM mit 36 Prozent). Wer investieren will, benötigt ein entsprechendes Budget. Dieses steigt zwar bei knapp drei Viertel der Befragten, jedoch unterschiedlich stark. Bei zehn Prozent wächst es um mehr als zehn Prozent, bei einem Drittel um fünf bis zehn Prozent und bei etwas mehr als einem Drittel um weniger als fünf Prozent. Das bedeutet: Vielen Unternehmen dürfte aufgrund der Preiserhöhungen von SAP nur wenig Spielraum für zusätzliche Investitionen in SAP S/4HANA bleiben. Die neue Studie “SAP S/4HANA 2025” von CIO Research Services Research Services: Patrick Birnbreier Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: Stibo Systems GmbH; All for One Group SE; SPIRIT/21 GmbH; USU Software AG Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 307 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 2. bis 5. Mai 2025 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

SAP S/4HANA –Trend geht zu Cloud, KI und höheren Preisen​ width=”1683″ height=”947″ sizes=”(max-width: 1683px) 100vw, 1683px”>Mit dem Umstieg auf S/4HANA hoffen viele Anwenderunternehmen auf mehr Schub in ihrer digitalen Transformation.Photon photo – shutterstock.com

81 Prozent der Unternehmen nutzen ein ERP-System, meist von SAP – das ist erfreulich für den größten deutschen Softwarehersteller. Zwei Drittel davon arbeiten bereits mit SAP S/4HANA, entweder on-premises oder als Cloud-Edition (Public/Private). Das ist angesichts des baldigen Support-Endes für SAP ECC 6.0 erwartbar.

SAP S/4HANA dominiert ERP-Markt mit klarem Trend zur Cloud

Dennoch setzen 35 Prozent noch ältere SAP-Systeme wie ECC 6.0 oder R/3 ein. Bemerkenswert ist, dass nur ein Fünftel der SAP-S/4HANA-Nutzer die Suite on-premises betreibt; 46 Prozent nutzen sie in der Cloud eines Hyperscalers (Amazon Web Services, Microsoft Azure, Google Cloud Platform) oder eines professionellen Hosting-Anbieters. 26 Prozent arbeiten mit SAPs eigenen Cloud-Editionen (19 Prozent die Public Cloud und sieben Prozent die Private Cloud). Sechs Prozent der Befragten setzen auf hybride Two-Tier-Modelle. SAP S/4HANA wird entweder im Verbund mit einer der Cloud-Editionen eingesetzt oder nach dem Clean-Core-Ansatz durch Cloud-Apps und -Services auf Basis der SAP Business Technology Platform (SAP BTP) erweitert.

Der Trend zur Cloud hält an: 85 Prozent der Unternehmen, die derzeit on-premises mit SAP S/4HANA arbeiten, wollen mittelfristig in die Cloud wechseln, davon 58 Prozent zur Hyperscaler-Cloud, 21 Prozent zur Public Cloud und sechs Prozent zur Private Cloud eines Hosting-Anbieters oder zur SAP HANA Enterprise Cloud (HEC).

Das ist das Kernergebnis der Studie „SAP S/4HANA 2025“, die CIO und COMPUTERWOCHE gemeinsam mit den Partnern Stibo Systems, All for One Group, Spirit/21 und USU realisiert haben. An der Studie beteiligten sich 307 C-Level-Business- und IT-Entscheiderinnen und -entscheider, IT-Leiterinnen und -Leiter sowie Fachbereichsvertreter aus Unternehmen unterschiedlichster Branchen, Größen und Umsatzklassen in Deutschland.

Vorteile im Wettbewerb und Business treiben Umstieg voran

SAP S/4HANA wird besonders häufig in größeren Unternehmen mit 1.000 und mehr Beschäftigten (74 Prozent) eingesetzt, aber auch in kleinen Betrieben mit weniger als 250 Beschäftigten (70 Prozent). Überraschend zurückhaltend zeigen sich hingegen mittelgroße Firmen mit 250 bis 999 Beschäftigten (nur 56 Prozent). Möglicherweise haben kleinere Firmen mit vielleicht einfacher gestrickten SAP-Installationen bereits früher migriert, während mittelgroße Betriebe mit komplexeren SAP-Infrastrukturen noch zögern.

Grundsätzlich will die Mehrheit der Befragten SAP S/4HANA zügig einführen oder auf das aktuelle Release wechseln: 52 Prozent binnen zwölf Monaten. 13 Prozent stehen kurz vor dem Go-Live. 61 Prozent sehen darin einen Wettbewerbsvorteil. Unabhängig vom Zeitpunkt der Umstellung erwarten die Unternehmen einen klaren Business-Nutzen von SAP S/4HANA, in erster Linie schnellere und flexiblere Prozesse (35 Prozent), Kosteneinsparungen (32 Prozent) und Umsatzwachstum (31 Prozent). Aspekte wie Datenmanagement oder Automatisierung rangieren weiter unten auf der Wunschliste, obwohl auch sie Effizienz bringen und datengetriebene digitale Geschäftsmodelle ermöglichen. Das ist überraschend, da 71 Prozent SAP S/4HANA als wichtig bis entscheidend für ihre digitale Transformation einstufen.

Die Mehrheit der Befragten will SAP S/4HANA zügig einführen oder darauf wechseln: 52 Prozent binnen zwölf Monaten.
Research Services: Patrick Birnbreier

Dabei erfüllt SAP S/4HANA die Anforderungen der Unternehmen im Hinblick auf den geschäftlichen Nutzen offenbar weitgehend: 85 Prozent sind mit der ERP-Suite „sehr zufrieden“ oder „zufrieden“ und 77 Prozent sind es auch mit dem Projektverlauf – unabhängig davon, ob ein Greenfield- oder Brownfield-Ansatz verfolgt wird. Allerdings zeigen sich Unterschiede bei den Funktionsträgern. Während 94 Prozent der C-Level-Verantwortlichen und 83 Prozent der Fachbereiche zufrieden sind, sind es bei den IT-Leitern nur 62 Prozent.

Zufriedenheit hoch, Defizite bei Vorbereitung auf den Wechsel

Die hohe Zufriedenheitsquote ist auch ein Indiz dafür, dass die mit der Umstellung auf SAP S/4HANA verbundenen Herausforderungen zufriedenstellend gemeistert wurden. Zu den größten Hürden zählen die Anpassung der IT-Landschaft und -Architektur (35 Prozent), die Verwaltung und der Abgleich von Stammdaten aus unterschiedlichen Quellsystemen (33 Prozent) sowie die Einrichtung einer „Single Source of Truth“ für Kunden-, Produkt- oder Lieferantendaten (28 Prozent). Auffallend ist, dass nur elf Prozent der Befragten über einen Personalengpass in der internen IT-Abteilung klagen.

Zu den größten Herausforderungen zählen die Anpassung der IT-Landschaft und -Architektur (35 Prozent) und die Verwaltung und der Abgleich von Stammdaten aus unterschiedlichen Quellsystemen (33 Prozent).
Research Services: Patrick Birnbreier

Defizite zeigen sich allerdings bei der Vorbereitung zur Umstellung: Nur 48 Prozent der Befragten stimmen die SAP-S/4HANA-Einsatzziele mit der IT-Strategie ab, 43 Prozent mit der Gesamtstrategie und 33 Prozent mit den operativen Zielen der Fachbereiche. Entsprechend bewerten nur 35 Prozent ihren Reifegrad in Bezug auf Organisation und Prozesse als „hervorragend” oder „sehr gut”.

Geht es um den technischen Umstieg auf SAP S/4HANA, setzen 41 Prozent auf ein hybrides Modell und damit auf den Mix aus Greenfield- und Brownfield-Methode, auch bekannt als Color-Field- oder Selective-Data-Transition-Ansatz. 32 Prozent führen eine System Conversion (Brownfield) und ein Fünftel eine Neueinführung auf der grünen Wiese (Greenfield) durch.

Rege Nutzung von SAP BTP und SAP Business AI

Wichtige Aufschlüsse liefert die Studie zum Platform-as-a-Service-Angebot (PaaS) SAP BTP und zum Einsatz der SAP-eigenen KI-Lösungen (SAP Business AI). Die SAP BTP nutzen 67 Prozent, um Drittlösungen und Eigenentwicklungen in S/4HANA einzubinden, bei 26 Prozent ist dies geplant. Im SAP-Umfeld ist die SAP BTP somit der „Quasi-Standard“ bei der Anwendungsintegration. Die PaaS-Plattform wird vielerorts auch in anderen Bereichen eingesetzt. Besonders häufig wird sie für die Applikationsentwicklung und Automatisierung (51 Prozent), das Datenbank- und Datenmanagement (36 Prozent) sowie die erweiterte Planung und Analyse (35 Prozent, Extended Planning and Analysis = xP&A) verwendet.

Vor dem Hintergrund der Ankündigung von SAP-CEO Christian Klein, KI für Unternehmen greifbar und allgegenwärtig zu machen, ist es besonders interessant, dass über zwei Drittel (67 Prozent) KI-Angebote von SAP (SAP Business AI) bereits umfassend oder gezielt für bestimmte Aufgaben nutzen, 15 Prozent sporadisch. 13 Prozent planen den Einsatz fest ein. Der hohe Nutzungsgrad belegt, dass SAPs KI-Angebot bei Kunden gut ankommt, zumal der Einsatz einen klaren Mehrwert bietet. Dazu zählen in erster Linie eine Prozessbeschleunigung (52 Prozent) und Kostenreduzierung (45 Prozent), aber auch die Prozessautomatisierung und die Einhaltung von Compliance-Anforderungen (jeweils 39 Prozent).

Über zwei Drittel (67 Prozent) nutzen KI-Angebote von SAP (SAP Business AI) bereits umfassend oder gezielt für Aufgaben.
Research Services: Patrick Birnbreier

Investitionsbereitschaft trotz Budgetengpass durch Preisaufschlag

Die aktuelle Studie hält darüber hinaus weitere aufschlussreiche und überraschende Ergebnisse bereit. Ein Beispiel ist die Preispolitik von SAP, die seit jeher kontrovers diskutiert und vielfach kritisiert wird. Obwohl jeder Zweite konkrete Probleme hat und 58 Prozent ernsthaft darüber nachdenken, SAP S/4HANA durch ein anderes ERP-System zu ersetzen, halten vier Fünftel der Befragten die aktuellen Preiserhöhungen für Wartung und Support für adäquat und nachvollziehbar. Dieser Widerspruch ist nicht wirklich erklärbar. Nur 17 Prozent bringen „eher kein“ oder „gar kein“ Verständnis dafür auf.

Dennoch wollen drei Viertel der Befragten in den kommenden 12 bis 24 Monaten weiter in SAP S/4HANA investieren („auf jeden Fall“ oder „wahrscheinlich“). Ein Fünftel ist unentschieden und sagt „vielleicht“. Ganz oben auf der Prioritätenliste stehen das Rechnungswesen (46 Prozent), der Einkauf/die Beschaffung (39 Prozent) und das Customer-Relationship-Management (CRM mit 36 Prozent). Wer investieren will, benötigt ein entsprechendes Budget. Dieses steigt zwar bei knapp drei Viertel der Befragten, jedoch unterschiedlich stark. Bei zehn Prozent wächst es um mehr als zehn Prozent, bei einem Drittel um fünf bis zehn Prozent und bei etwas mehr als einem Drittel um weniger als fünf Prozent. Das bedeutet: Vielen Unternehmen dürfte aufgrund der Preiserhöhungen von SAP nur wenig Spielraum für zusätzliche Investitionen in SAP S/4HANA bleiben.

Die neue Studie “SAP S/4HANA 2025” von CIO Research Services
Research Services: Patrick Birnbreier

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: Stibo Systems GmbH; All for One Group SE; SPIRIT/21 GmbH; USU Software AG

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 307 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 2. bis 5. Mai 2025

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

SAP S/4HANA –Trend geht zu Cloud, KI und höheren Preisen​ Weiterlesen »

So gelingt die perfekte Rede – jederzeit​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?quality=50&strip=all 6713w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Bauen Sie Ihre Rede dramaturgisch auf. Alles sollte auf ein Finale zustreben, das dafür sorgt, dass Ihre Rede dem Publikum im Gedächtnis bleibt – wie bei einem Feuerwerk.Dusan Petkovic -Shutterstock 198252915 Bei Reden erlahmt das Interesse der Zuhörer oft nach wenigen Minuten. Dabei blicken sie beispielsweise der Rede ihres „Chefs“ meist gespannt entgegen – außer sie kennen dessen langatmige „Ansprachen“ bereits. Um nicht für Langeweile zu sorgen, sollten sich Redner im Vorfeld der Rede “strategische” Gedanken machen und bei ihrem Vortrag einige Punkte beachten. Folgende zwölf Tipps helfen, das Publikum zu begeistern.   Tipp 1: Authentisch und glaubwürdig sein Der Erfolg einer Rede hängt stark davon ab, wie sympathisch der Redner den Zuhörern ist. Doch wie gewinnt er deren Sympathie? Vor allem dadurch, dass er authentisch wirkt. Die Rede sollte ihm also auf den Leib geschneidert sein. Unglaubwürdig wirkt es, wenn ein Erbsenzähler sich als Witzbold präsentiert oder ein Einzelkämpfer sich verbal mit den Anwesenden verbrüdert. Dann gehen die Zuhörer auf Distanz.     Tipp 2: Die Zuhörer auf eine Gedankenreise mitnehmen Ein Redner gleicht einem Reiseführer. Er nimmt seine Zuhörer mit auf eine Gedankenreise – zum Beispiel durch das abgelaufene oder kommende Jahr. Also sollte er sich im Vorfeld Folgendes überlegen: Was ist der Anlass der Reise? Wohin soll sie gehen? Und: Wer nimmt daran teil? Erst danach sollte er das Reiseprogramm, also den Inhalt und Ablauf der Rede, planen.    Tipp 3: Sich überlegen: Wer ist mein Gegenüber? Beim Planen Ihrer Rede sollten Sie wissen: Wer sitzt mir gegenüber? Und: Welche Beziehung besteht zwischen den Zuhörern? Kennen sie sich gut oder sehen sie sich nur einmal jährlich? Gehören sie derselben Organisation an oder nicht? Denn wenn Ihre Zuhörer Tag für Tag zusammenarbeiten, haben sie gemeinsame Erfahrungen: Auf diese können Sie sich beziehen. Sehen sie sich hingegen nur einmal pro Jahr, sollten Sie auf andere Elemente zurückgreifen, um ihr Gehör zu finden. Zum Beispiel die Entwicklung der Weltwirtschaft oder in der Branche. Oder solche branchenübergreifenden Themen wie die Digitalisierung, den Fachkräftemangel oder die Inflation.     Tipp 4: Mit den Zuhörern kommunizieren Ein guter Redner kommuniziert mit seinen Zuhörern – auch mit den Augen. Tragen Sie deshalb Ihre Rede so frei wie möglich vor. Sprechen Sie das Publikum auch persönlich an – doch nicht, indem Sie alle zwei, drei Minuten die Floskel „Meine sehr verehrten Damen und Herren“ wiederholen. Stellen Sie den Zuhörern vielmehr rhetorische Fragen wie „Kennen Sie folgende Situation, …?“ oder „Geht es auch Ihnen so, dass …?“. Integrieren Sie zudem Beispiele aus der Erfahrungswelt der Zuhörer in Ihre Rede. Auch etwas Humor und Selbstironie schaden nie.   Tipp 5: Sich kurzfassen Je kürzer eine Rede ist, umso besser ist sie meist. Eine Festrede zur Weihnachtsfeier sollte maximal zehn Minuten dauern. Denn bei diesem Event steht das gemeinsame Feiern im Mittelpunkt. Anders ist es bei einer Rede zum Beispiel bei einem Kick-off zu Jahresbeginn. Sie soll die Zuhörer auf die Herausforderungen im neuen Jahr einstimmen. Also kann die Rede mehr Infos enthalten und einen appellativeren Charakter haben.     Tipp 6: Auf die Kernbotschaften fokussieren Eine Rede sollte höchstens drei Kernbotschaften enthalten. Zum Beispiel: Die Arbeitsplätze sind sicher. Unser Unternehmen sieht trotz der Konjunkturschwäche und Inflation einer positiven Zukunft entgegen. Und: Dass es ihm gutgeht, verdanken wir dem Engagement aller Mitarbeitenden.    Tipp 7: Die Gedankenreise planen Für das inhaltliche Planen Ihrer Rede können Sie die Mindmapping-Methode nutzen. Sie funktioniert wie folgt: Schreiben Sie in die Mitte eines Blatt Papiers das Thema oder den Anlass der Rede. Zum Beispiel: „Strategie 2025“. Notieren Sie dann entlang von Linien, die hiervon ausgehen, alles, was Ihnen hierzu einfällt. Zum Beispiel: „Innovation“, „Mitarbeiter“, „Vertrieb“. So bekommen Sie einen Überblick über die möglichen Redeinhalte. Und wenn Sie merken, es wird zu viel? Dann streichen Sie einfach (Seiten-)Arme.  Tipp 8: Knackig einsteigen, feurig enden Planen Sie den Beginn und Schluss Ihrer Rede besonders sorgfältig. Wie aufmerksam das Publikum Ihnen zuhört, hängt weitgehend vom Einstieg ab. Gute Einstiege sind Anekdoten. Bauen Sie Ihre Rede dramaturgisch auf. Alles sollte auf ein Finale zustreben, das dafür sorgt, dass Ihre Rede dem Publikum im Gedächtnis bleibt – wie bei einem Feuerwerk.     Tipp 9: Kurze und aussagekräftige Sätze Eine Rede sollte aus möglichst kurzen Sätzen bestehen. Bei Schachtelsätzen besteht die Gefahr, dass der Redner sich verheddert. Dann werden ungeübte Redner oft nervös und verhaspeln sich immer häufiger. Und irgendwann wartet das Publikum nur noch auf Versprecher.  Tipp 10: Eine aktive, bildhafte Sprache Wichtig ist eine aktive Sprache. Also zum Beispiel „Wir planen …“ statt „Unsere Planung sieht vor …“ Durchforsten Sie Ihr Manuskript nach substantivierten Verben wie „Durchführung“ und „Neuorientierung“. Taucht ein solches Wort auf, können Sie die Aussage meist „knackiger“ formulieren.     Tipp 11: Die Rede laut üben Sicherheit gewinnen Sie durch eine gute Vorbereitung. Hierzu zählt das laute Üben. Speziell den Einstieg, das Ende und die Übergänge zwischen den Redepassagen sollten Sie so lange üben, bis Sie diese sozusagen auswendig kennen. Stoppen Sie beim Üben die Dauer der Rede, damit Sie die vorgesehene Zeit nicht überschreiten.    Tipp 12: Bei Pannen Ruhe bewahren Geraten Sie nicht in Panik, wenn Sie sich bei Ihrer Rede – trotz guter Vorbereitung – mal versprechen oder den roten Faden verlieren. Denn das Reden-halten ist nicht Ihr Haupt-Job. Deshalb tragen kleine Patzer eher dazu bei, dass Sie authentisch wirken.   

So gelingt die perfekte Rede – jederzeit​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?quality=50&strip=all 6713w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Bauen Sie Ihre Rede dramaturgisch auf. Alles sollte auf ein Finale zustreben, das dafür sorgt, dass Ihre Rede dem Publikum im Gedächtnis bleibt – wie bei einem Feuerwerk.Dusan Petkovic -Shutterstock 198252915

Bei Reden erlahmt das Interesse der Zuhörer oft nach wenigen Minuten. Dabei blicken sie beispielsweise der Rede ihres „Chefs“ meist gespannt entgegen – außer sie kennen dessen langatmige „Ansprachen“ bereits. Um nicht für Langeweile zu sorgen, sollten sich Redner im Vorfeld der Rede “strategische” Gedanken machen und bei ihrem Vortrag einige Punkte beachten. Folgende zwölf Tipps helfen, das Publikum zu begeistern.

 

Tipp 1: Authentisch und glaubwürdig sein

Der Erfolg einer Rede hängt stark davon ab, wie sympathisch der Redner den Zuhörern ist. Doch wie gewinnt er deren Sympathie? Vor allem dadurch, dass er authentisch wirkt. Die Rede sollte ihm also auf den Leib geschneidert sein. Unglaubwürdig wirkt es, wenn ein Erbsenzähler sich als Witzbold präsentiert oder ein Einzelkämpfer sich verbal mit den Anwesenden verbrüdert. Dann gehen die Zuhörer auf Distanz.  

 

Tipp 2: Die Zuhörer auf eine Gedankenreise mitnehmen

Ein Redner gleicht einem Reiseführer. Er nimmt seine Zuhörer mit auf eine Gedankenreise – zum Beispiel durch das abgelaufene oder kommende Jahr. Also sollte er sich im Vorfeld Folgendes überlegen: Was ist der Anlass der Reise? Wohin soll sie gehen? Und: Wer nimmt daran teil? Erst danach sollte er das Reiseprogramm, also den Inhalt und Ablauf der Rede, planen. 

 

Tipp 3: Sich überlegen: Wer ist mein Gegenüber?

Beim Planen Ihrer Rede sollten Sie wissen: Wer sitzt mir gegenüber? Und: Welche Beziehung besteht zwischen den Zuhörern? Kennen sie sich gut oder sehen sie sich nur einmal jährlich? Gehören sie derselben Organisation an oder nicht? Denn wenn Ihre Zuhörer Tag für Tag zusammenarbeiten, haben sie gemeinsame Erfahrungen: Auf diese können Sie sich beziehen. Sehen sie sich hingegen nur einmal pro Jahr, sollten Sie auf andere Elemente zurückgreifen, um ihr Gehör zu finden. Zum Beispiel die Entwicklung der Weltwirtschaft oder in der Branche. Oder solche branchenübergreifenden Themen wie die Digitalisierung, den Fachkräftemangel oder die Inflation.  

 

Tipp 4: Mit den Zuhörern kommunizieren

Ein guter Redner kommuniziert mit seinen Zuhörern – auch mit den Augen. Tragen Sie deshalb Ihre Rede so frei wie möglich vor. Sprechen Sie das Publikum auch persönlich an – doch nicht, indem Sie alle zwei, drei Minuten die Floskel „Meine sehr verehrten Damen und Herren“ wiederholen. Stellen Sie den Zuhörern vielmehr rhetorische Fragen wie „Kennen Sie folgende Situation, …?“ oder „Geht es auch Ihnen so, dass …?“. Integrieren Sie zudem Beispiele aus der Erfahrungswelt der Zuhörer in Ihre Rede. Auch etwas Humor und Selbstironie schaden nie.  

Tipp 5: Sich kurzfassen

Je kürzer eine Rede ist, umso besser ist sie meist. Eine Festrede zur Weihnachtsfeier sollte maximal zehn Minuten dauern. Denn bei diesem Event steht das gemeinsame Feiern im Mittelpunkt. Anders ist es bei einer Rede zum Beispiel bei einem Kick-off zu Jahresbeginn. Sie soll die Zuhörer auf die Herausforderungen im neuen Jahr einstimmen. Also kann die Rede mehr Infos enthalten und einen appellativeren Charakter haben.  

 

Tipp 6: Auf die Kernbotschaften fokussieren

Eine Rede sollte höchstens drei Kernbotschaften enthalten. Zum Beispiel: Die Arbeitsplätze sind sicher. Unser Unternehmen sieht trotz der Konjunkturschwäche und Inflation einer positiven Zukunft entgegen. Und: Dass es ihm gutgeht, verdanken wir dem Engagement aller Mitarbeitenden. 

 

Tipp 7: Die Gedankenreise planen

Für das inhaltliche Planen Ihrer Rede können Sie die Mindmapping-Methode nutzen. Sie funktioniert wie folgt: Schreiben Sie in die Mitte eines Blatt Papiers das Thema oder den Anlass der Rede. Zum Beispiel: „Strategie 2025“. Notieren Sie dann entlang von Linien, die hiervon ausgehen, alles, was Ihnen hierzu einfällt. Zum Beispiel: „Innovation“, „Mitarbeiter“, „Vertrieb“. So bekommen Sie einen Überblick über die möglichen Redeinhalte. Und wenn Sie merken, es wird zu viel? Dann streichen Sie einfach (Seiten-)Arme. 

Tipp 8: Knackig einsteigen, feurig enden

Planen Sie den Beginn und Schluss Ihrer Rede besonders sorgfältig. Wie aufmerksam das Publikum Ihnen zuhört, hängt weitgehend vom Einstieg ab. Gute Einstiege sind Anekdoten. Bauen Sie Ihre Rede dramaturgisch auf. Alles sollte auf ein Finale zustreben, das dafür sorgt, dass Ihre Rede dem Publikum im Gedächtnis bleibt – wie bei einem Feuerwerk.  

 

Tipp 9: Kurze und aussagekräftige Sätze

Eine Rede sollte aus möglichst kurzen Sätzen bestehen. Bei Schachtelsätzen besteht die Gefahr, dass der Redner sich verheddert. Dann werden ungeübte Redner oft nervös und verhaspeln sich immer häufiger. Und irgendwann wartet das Publikum nur noch auf Versprecher. 

Tipp 10: Eine aktive, bildhafte Sprache

Wichtig ist eine aktive Sprache. Also zum Beispiel „Wir planen …“ statt „Unsere Planung sieht vor …“ Durchforsten Sie Ihr Manuskript nach substantivierten Verben wie „Durchführung“ und „Neuorientierung“. Taucht ein solches Wort auf, können Sie die Aussage meist „knackiger“ formulieren.  

 

Tipp 11: Die Rede laut üben

Sicherheit gewinnen Sie durch eine gute Vorbereitung. Hierzu zählt das laute Üben. Speziell den Einstieg, das Ende und die Übergänge zwischen den Redepassagen sollten Sie so lange üben, bis Sie diese sozusagen auswendig kennen. Stoppen Sie beim Üben die Dauer der Rede, damit Sie die vorgesehene Zeit nicht überschreiten. 

 

Tipp 12: Bei Pannen Ruhe bewahren

Geraten Sie nicht in Panik, wenn Sie sich bei Ihrer Rede – trotz guter Vorbereitung – mal versprechen oder den roten Faden verlieren. Denn das Reden-halten ist nicht Ihr Haupt-Job. Deshalb tragen kleine Patzer eher dazu bei, dass Sie authentisch wirken.  

So gelingt die perfekte Rede – jederzeit​ Weiterlesen »

So wird man einen Job als Chefentwickler los​

Allgemein

Ziehen Sie Lehren aus den Karrierefehlern unseres Autors.Anton Vierietin | shutterstock.com Im Jahr 2010 war ich als Chefentwickler bei einer ehemaligen Silicon-Valley-Größe tätig – die sich zu diesem Zeitpunkt bereits auf dem absteigenden Ast befand. Ebenso wie ihr Produkt, ein Tool, um Software zu entwickeln. Das Dev-Team, das ich in meiner Position managen durfte, war allerdings ein ausgesprochen talentiertes – und auch das Management-Team war ein umgänglicher Haufen. Ich habe den Job gemocht. Das Produkt war monolithisch – eine einzige große Installation, die am Stück erstellt und bereitgestellt werden musste. Ausgeliefert wurde einmal im Jahr. Das Development war darauf ausgerichtet, zwischen den Releases neue Funktionen zu entwickeln und Bugs zu beheben. Weil es dabei um ein Dev-Tool ging, bestand dieses aus diversen komplexen Komponenten, darunter ein Compiler, eine Runtime-Bibliothek, ein Visual Framework und eine IDE. Um das Produkt weiterhin marktrelevant zu halten, war es vor allem nötig, dieses auf neue Plattformen zu portieren. Was aufgrund der Komponenten alles andere als eine simple Aufgabenstellung war. Aber unsere Entwicklungs- und QA-Teams waren sich der damit verbundenen Aufwände stets bewusst und erfahren genug, um genau zu wissen, wie sie diese Projekte zielführend umsetzen können. Dann wurde das Unternehmen von einer anderen Firma übernommen – einem kleineren Anbieter von Datenbank-Tools. Mit dem neuen Eigentümer wurde auch ein neues Leadership-Team eingesetzt – wie das eben so üblich ist. Wir taten unser Bestes, um uns in die neue Ordnung zu integrieren, beziehungsweise integriert zu werden. Der Anfang vom Ende Obwohl Datenbank- und allgemeiner ausgerichtete Dev-Tools Schnittmengen aufweisen, war unser Produkt komplexer und auf einer tieferen Ebene angesiedelt als das unserer neuen Muttergesellschaft. Diese Diskrepanz wurde bei den Integrationsbemühungen zur Herausforderung, denn die unserem Produkt zugrundeliegenden Komponenten waren um ein Vielfaches komplexer als ein SQL-Parser und -Editor. Dem neuen Leadership-Team leuchtete das leider nicht wirklich ein. Nachdem sie zur Entscheidung gekommen waren, dass wir unser Tool sowohl auf Linux als auch auf MacOS portieren sollten, habe ich mich mit meinem Team beraten und die Anforderungen studiert. Unter dem Strich stand eine Aufwandsschätzung (ich weiß…) von circa 18 Monaten pro Migration. Natürlich haben wir auch Vorschläge erarbeitet, um diesen Zeitraum potenziell zu verkürzen – zum Beispiel indem Projekte verschoben und mehr Personal eingestellt wird (das Brooks’sche Gesetz natürlich stets im Hinterkopf). Das kam bei der neuen Führung nicht gut an. Sie waren schockiert von der Vorstellung, dass es drei Jahre dauern sollte, um die beiden neuen Plattformen zu erschließen. Ihre Schlussfolgerung: Das Team will nur auf Zeit spielen und übertreibt mit Blick auf den Aufwand maßlos, weil es eigentlich keine Lust auf Arbeit hat. Die Konsequenz: Eine Deadline von sechs Monaten – für beide Plattform-Migrationen. Aus meiner Sicht eine absolut absurde Forderung, die unmöglich zu erfüllen war. Das stimmte mich – gelinde gesagt – eher unzufrieden. Nicht nur, weil es sinnlose Nacht- und Wochenend-Schichten nach sich ziehen würde – vor allem die mehr oder weniger subtile Unterstellung, ich und mein Team seien unehrlich und faul, war eher schwierig zu verdauen. Also machte ich meine Position klar, versuchte meine Verärgerungen so gut wie möglich zu verbergen (hat nicht geklappt) – und protestierte, um meine Mannschaft vor einem sinnlosen Projekt zu bewahren, das von vorneherein zum Scheitern verurteilt war. Das stieß natürlich nicht auf viel Verständnis: Mein Vorgesetzter (der wie ich aus der Softwareentwicklung kam), wusste mit Sicherheit, wie unzumutbar die gesetzte Deadline war, vermittelte mir aber klipp und klar, dass wir es einfach versuchen müssten. Für mich war das der Anfang vom Ende: Ich wollte und konnte es nicht über mich bringen, mein Team anzuweisen, dieses Projekt anzugehen – bei dem schon vor dem Startschuss feststand, dass es an der Wand enden wird. Die Lehren der Selbstsabotage Also habe ich (aus heutiger Sicht) alles falsch gemacht, was man falsch machen kann: Ich beharrte auch gegenüber dem Leadership-Team auf meiner Protesthaltung und habe nicht ansatzweise versucht, mich als Teamplayer zu präsentieren. Stattdessen habe ich den Devs in meinem Team klar gesagt, dass ich den Plan der Geschäftsleitung für verrückt halte – und es keinen Sinn macht, das Projekt überhaupt anzugehen. Letztendlich kostete mich meine unreife Haltung dann meinen Job. Natürlich hatte ich in der Sache recht, aber ohne Rücksicht auf Jobverlust auf meinem Standpunkt zu verharren, war ein vermeidbarer, dummer Fehler. Stattdessen hätte ich als Entwickler mit Führungsverantwortung einen Mittelweg finden müssen, der sowohl die Ziele der Geschäftsleitung unterstützt als auch mein Team. Das wäre angesichts der Umstände natürlich eine Herausforderung – aber auch einen Versuch wert – gewesen. Die Lektion, die ich aus dieser Episode meiner Karriere gelernt habe, lässt sich auch auf Management-Positionen außerhalb der Softwareentwicklung übertragen. Eine Rolle dieser Art erfordert, einen Balanceakt zu vollziehen: Einerseits gilt es, gegenüber der Geschäftsleitung Loyalität an den Tag zu legen, andererseits die Mitarbeiter bestmöglich zu schützen, für die man Verantwortung trägt. Und: Manager sollten in der Lage sein, nicht immer Recht haben zu müssen – und das große Ganze über die eigenen Bedürfnisse zu stellen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So wird man einen Job als Chefentwickler los​ Ziehen Sie Lehren aus den Karrierefehlern unseres Autors.Anton Vierietin | shutterstock.com

Im Jahr 2010 war ich als Chefentwickler bei einer ehemaligen Silicon-Valley-Größe tätig – die sich zu diesem Zeitpunkt bereits auf dem absteigenden Ast befand. Ebenso wie ihr Produkt, ein Tool, um Software zu entwickeln. Das Dev-Team, das ich in meiner Position managen durfte, war allerdings ein ausgesprochen talentiertes – und auch das Management-Team war ein umgänglicher Haufen. Ich habe den Job gemocht.

Das Produkt war monolithisch – eine einzige große Installation, die am Stück erstellt und bereitgestellt werden musste. Ausgeliefert wurde einmal im Jahr. Das Development war darauf ausgerichtet, zwischen den Releases neue Funktionen zu entwickeln und Bugs zu beheben. Weil es dabei um ein Dev-Tool ging, bestand dieses aus diversen komplexen Komponenten, darunter ein Compiler, eine Runtime-Bibliothek, ein Visual Framework und eine IDE. Um das Produkt weiterhin marktrelevant zu halten, war es vor allem nötig, dieses auf neue Plattformen zu portieren. Was aufgrund der Komponenten alles andere als eine simple Aufgabenstellung war. Aber unsere Entwicklungs- und QA-Teams waren sich der damit verbundenen Aufwände stets bewusst und erfahren genug, um genau zu wissen, wie sie diese Projekte zielführend umsetzen können.

Dann wurde das Unternehmen von einer anderen Firma übernommen – einem kleineren Anbieter von Datenbank-Tools. Mit dem neuen Eigentümer wurde auch ein neues Leadership-Team eingesetzt – wie das eben so üblich ist. Wir taten unser Bestes, um uns in die neue Ordnung zu integrieren, beziehungsweise integriert zu werden.

Der Anfang vom Ende

Obwohl Datenbank- und allgemeiner ausgerichtete Dev-Tools Schnittmengen aufweisen, war unser Produkt komplexer und auf einer tieferen Ebene angesiedelt als das unserer neuen Muttergesellschaft. Diese Diskrepanz wurde bei den Integrationsbemühungen zur Herausforderung, denn die unserem Produkt zugrundeliegenden Komponenten waren um ein Vielfaches komplexer als ein SQL-Parser und -Editor.

Dem neuen Leadership-Team leuchtete das leider nicht wirklich ein. Nachdem sie zur Entscheidung gekommen waren, dass wir unser Tool sowohl auf Linux als auch auf MacOS portieren sollten, habe ich mich mit meinem Team beraten und die Anforderungen studiert. Unter dem Strich stand eine Aufwandsschätzung (ich weiß…) von circa 18 Monaten pro Migration. Natürlich haben wir auch Vorschläge erarbeitet, um diesen Zeitraum potenziell zu verkürzen – zum Beispiel indem Projekte verschoben und mehr Personal eingestellt wird (das Brooks’sche Gesetz natürlich stets im Hinterkopf).

Das kam bei der neuen Führung nicht gut an. Sie waren schockiert von der Vorstellung, dass es drei Jahre dauern sollte, um die beiden neuen Plattformen zu erschließen. Ihre Schlussfolgerung: Das Team will nur auf Zeit spielen und übertreibt mit Blick auf den Aufwand maßlos, weil es eigentlich keine Lust auf Arbeit hat. Die Konsequenz: Eine Deadline von sechs Monaten – für beide Plattform-Migrationen.

Aus meiner Sicht eine absolut absurde Forderung, die unmöglich zu erfüllen war. Das stimmte mich – gelinde gesagt – eher unzufrieden. Nicht nur, weil es sinnlose Nacht- und Wochenend-Schichten nach sich ziehen würde – vor allem die mehr oder weniger subtile Unterstellung, ich und mein Team seien unehrlich und faul, war eher schwierig zu verdauen. Also machte ich meine Position klar, versuchte meine Verärgerungen so gut wie möglich zu verbergen (hat nicht geklappt) – und protestierte, um meine Mannschaft vor einem sinnlosen Projekt zu bewahren, das von vorneherein zum Scheitern verurteilt war.

Das stieß natürlich nicht auf viel Verständnis: Mein Vorgesetzter (der wie ich aus der Softwareentwicklung kam), wusste mit Sicherheit, wie unzumutbar die gesetzte Deadline war, vermittelte mir aber klipp und klar, dass wir es einfach versuchen müssten. Für mich war das der Anfang vom Ende: Ich wollte und konnte es nicht über mich bringen, mein Team anzuweisen, dieses Projekt anzugehen – bei dem schon vor dem Startschuss feststand, dass es an der Wand enden wird.

Die Lehren der Selbstsabotage

Also habe ich (aus heutiger Sicht) alles falsch gemacht, was man falsch machen kann: Ich beharrte auch gegenüber dem Leadership-Team auf meiner Protesthaltung und habe nicht ansatzweise versucht, mich als Teamplayer zu präsentieren. Stattdessen habe ich den Devs in meinem Team klar gesagt, dass ich den Plan der Geschäftsleitung für verrückt halte – und es keinen Sinn macht, das Projekt überhaupt anzugehen. Letztendlich kostete mich meine unreife Haltung dann meinen Job. Natürlich hatte ich in der Sache recht, aber ohne Rücksicht auf Jobverlust auf meinem Standpunkt zu verharren, war ein vermeidbarer, dummer Fehler.

Stattdessen hätte ich als Entwickler mit Führungsverantwortung einen Mittelweg finden müssen, der sowohl die Ziele der Geschäftsleitung unterstützt als auch mein Team. Das wäre angesichts der Umstände natürlich eine Herausforderung – aber auch einen Versuch wert – gewesen.

Die Lektion, die ich aus dieser Episode meiner Karriere gelernt habe, lässt sich auch auf Management-Positionen außerhalb der Softwareentwicklung übertragen. Eine Rolle dieser Art erfordert, einen Balanceakt zu vollziehen: Einerseits gilt es, gegenüber der Geschäftsleitung Loyalität an den Tag zu legen, andererseits die Mitarbeiter bestmöglich zu schützen, für die man Verantwortung trägt. Und: Manager sollten in der Lage sein, nicht immer Recht haben zu müssen – und das große Ganze über die eigenen Bedürfnisse zu stellen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So wird man einen Job als Chefentwickler los​ Weiterlesen »

6 Mittel gegen Cloud Whiplash​

Allgemein

Cloud Journeys die zu rasant ablaufen, können spürbare Folgen nach sich ziehen. Foto: drpnncpptak | shutterstock.comIm englischsprachigen Raum hat sich der Begriff “Cloud Whiplash” (Cloud-Schleudertrauma) etabliert. Er beschreibt den Zustand, der entsteht, wenn Unternehmen Cloud-Infrastrukturen besonders rasant einführen und anschließend von diversen Problemen und Herausforderungen heimgesucht werden, weil sie Mühe haben mit der technologischen Entwicklung, den diversen verschiedenen Services sowie den sich verändernden Business-Anforderungen Schritt zu halten.Die Ursache für Cloud Whiplash liegt in aller Regel darin, dass die Cloud-Strategie (zu) häufig geändert wird, was zu Ineffizienzen, Sicherheitslücken und Betriebsunterbrechungen führen kann. Der Stress, der entsteht, wenn die eigentlich nötige Arbeit nicht verrichtet werden kann oder nicht die nötigen Ressourcen zur Verfügung stehen, bildet die Grundlage für Cloud-Schleudertraumata.Um das zu vermeiden, ist ein strategischer Ansatz notwendig. Den gibt es zum Beispiel bei diversen Beratungshäusern für rund 1.000 Euro die Stunde – was oft kein guter Deal ist, denn eigentlich kommt es dabei im Wesentlichen auf Collaboration an: Unternehmen, die einen Cloud Whiplash erleiden, sind in der Regel silobehaftet und ihre Belegschaft arbeitet nicht darauf hin, ein gemeinsames Geschäftsziel zu erreichen. Gegen Zustände wie diese können die folgenden sechs Maßnahmen helfen – die eher in den Bereich “People” als in den der Technologie fallen.1. Geschäftsbedarf definierenEs mag offensichtlich erscheinen, wird aber oft übersehen: Bevor ein Unternehmen Cloud-Dienste einführt, sollte Klarheit darüber bestehen, welche Ziele erreicht werden sollen und welche Anforderungen dafür erfüllt sein müssen. Anderenfalls enden diese Firmen mit Services, die nicht mit den Geschäftszielen in Einklang stehen – und es nimmt seinen Lauf: Betriebsteams werden von Cloud-Systemen kalt erwischt, Sicherheitsteams sind ebenso schlecht vorbereitet, während die Finance-Abteilung keine Ahnung hat, wie sie die Cloud-Kosten tracken soll und die Rechtsabteilung nicht auf dem aktuellen Stand der Dinge in Sachen Cloud und Compliance ist.Was Unternehmen an dieser Stelle brauchen, ist ein detailliertes Assessment ihrer aktuellen und zukünftigen Bedürfnisse. Das umfasst folgende Aspekte:Workload-Typen,Datenschutzanforderungen,Compliance-Verpflichtungen sowiePerformance-Erwartungen. Mit einem umfassenden Verständnis dieser Faktoren können Unternehmen fundiertere Entscheidungen darüber treffen, welche Cloud-Dienste und -Anbieter am besten zu ihren Anforderungen passen.2. Klare Strategie entwickelnEine gute Cloud-Strategie umreißt:Ziele,Governance-Richtlinien,Security-Protokolle sowieFinanzmanagement.Das beinhaltet falls nötig auch, eine Hybrid– oder Multi-Cloud-Strategie zu entwickeln, die verschiedene Services in ein konsistentes Betriebsmodell einbindet. Eine gut dokumentierte Cloud-Strategie ermöglicht eine bessere Entscheidungsfindung und liefert die Grundlage, um eine Roadmap für die Cloud Journey zu erstellen.Viele Unternehmen denken zwar über diese Dinge nach, halten diesbezüglich aber nichts fest. Das ist ein Fehler, denn eine schriftlich fixierte Cloud-Strategie dient auch als Agreement zwischen allen Beteiligten, auf den Cloud-Erfolg hinzuarbeiten.3. Strenge Richtlinien einziehenWenn die Cloud effektiv genutzt werden soll, sind Use Policies notwendig, denen sich alle Beteiligten verpflichten. Diese sollten die folgenden Bereiche abdecken:Datenmanagement,IT-Sicherheit,Compliance undKostenkontrolle.Um Usage-Exzesse und unnötige Kosten zu vermeiden, empfiehlt es sich außerdem, klare Protokolle mit Blick auf die Bereitstellung und Freigabe von Cloud-Ressourcen zu etablieren.4. In Schulung investierenInadäquate Skills und Kompetenzen sind ebenfalls eine Wurzel des Cloud-Whiplash-Übels. Die Lösung ist denkbar naheliegend: Um Ihre Mitarbeiter in die Lage zu versetzen, Cloud Services effektiv managen zu können, sind Investitionen in Schulungs– und Upskilling-Initiativen notwendig.Leider verfügen die meisten Unternehmen nicht über die erforderlichen Skills, die es bräuchte, um ihre Cloud-Implementierung effektiv zu nutzen. In einem solchen Fall wäre es durchaus angebracht, die Cloud-Migration erst einmal auf Eis zu legen – bis ein Plan existiert, um die Kompetenzlücken zu beseitigen. Firmen, die unter solchen Voraussetzungen ihre Journey trotzdem unbeeindruckt fortsetzen, haben ein enormes Risiko, zu scheitern.5. Automation und KI nutzenAutomatisierungs- und KI-Initiativen können dazu beitragen, die Auswirkungen von Cloud Whiplash zu reduzieren. Schließlich erlauben automatisierte Prozesse, Routineaufgaben effizienter zu erledigen, während die Fehlerrate minimiert wird und sich die menschlichen Mitarbeiter wichtigeren, strategischen Aktivitäten widmen können.6. Agile Kultur fördernUm im hochdynamischen Technologieumfeld erfolgreich sein zu können, ist ein Mindset essenziell, das Change und Innovation positiv gegenübersteht. Schließlich erfordert die Einführung der Cloud einen Kulturwandel, der von oben vorgelebt werden muss – und die grundlegende Bereitschaft, sich mit neuen Ansätzen zu beschäftigen.Um eine bessere Zusammenarbeit und schnellere Entscheidungsfindung zu ermöglichen, empfiehlt es sich, funktionsübergreifende Teams aufzusetzen. (fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

6 Mittel gegen Cloud Whiplash​ Cloud Journeys die zu rasant ablaufen, können spürbare Folgen nach sich ziehen.
Foto: drpnncpptak | shutterstock.comIm englischsprachigen Raum hat sich der Begriff “Cloud Whiplash” (Cloud-Schleudertrauma) etabliert. Er beschreibt den Zustand, der entsteht, wenn Unternehmen Cloud-Infrastrukturen besonders rasant einführen und anschließend von diversen Problemen und Herausforderungen heimgesucht werden, weil sie Mühe haben mit der technologischen Entwicklung, den diversen verschiedenen Services sowie den sich verändernden Business-Anforderungen Schritt zu halten.Die Ursache für Cloud Whiplash liegt in aller Regel darin, dass die Cloud-Strategie (zu) häufig geändert wird, was zu Ineffizienzen, Sicherheitslücken und Betriebsunterbrechungen führen kann. Der Stress, der entsteht, wenn die eigentlich nötige Arbeit nicht verrichtet werden kann oder nicht die nötigen Ressourcen zur Verfügung stehen, bildet die Grundlage für Cloud-Schleudertraumata.Um das zu vermeiden, ist ein strategischer Ansatz notwendig. Den gibt es zum Beispiel bei diversen Beratungshäusern für rund 1.000 Euro die Stunde – was oft kein guter Deal ist, denn eigentlich kommt es dabei im Wesentlichen auf Collaboration an: Unternehmen, die einen Cloud Whiplash erleiden, sind in der Regel silobehaftet und ihre Belegschaft arbeitet nicht darauf hin, ein gemeinsames Geschäftsziel zu erreichen. Gegen Zustände wie diese können die folgenden sechs Maßnahmen helfen – die eher in den Bereich “People” als in den der Technologie fallen.1. Geschäftsbedarf definierenEs mag offensichtlich erscheinen, wird aber oft übersehen: Bevor ein Unternehmen Cloud-Dienste einführt, sollte Klarheit darüber bestehen, welche Ziele erreicht werden sollen und welche Anforderungen dafür erfüllt sein müssen. Anderenfalls enden diese Firmen mit Services, die nicht mit den Geschäftszielen in Einklang stehen – und es nimmt seinen Lauf: Betriebsteams werden von Cloud-Systemen kalt erwischt, Sicherheitsteams sind ebenso schlecht vorbereitet, während die Finance-Abteilung keine Ahnung hat, wie sie die Cloud-Kosten tracken soll und die Rechtsabteilung nicht auf dem aktuellen Stand der Dinge in Sachen Cloud und Compliance ist.Was Unternehmen an dieser Stelle brauchen, ist ein detailliertes Assessment ihrer aktuellen und zukünftigen Bedürfnisse. Das umfasst folgende Aspekte:Workload-Typen,Datenschutzanforderungen,Compliance-Verpflichtungen sowiePerformance-Erwartungen. Mit einem umfassenden Verständnis dieser Faktoren können Unternehmen fundiertere Entscheidungen darüber treffen, welche Cloud-Dienste und -Anbieter am besten zu ihren Anforderungen passen.2. Klare Strategie entwickelnEine gute Cloud-Strategie umreißt:Ziele,Governance-Richtlinien,Security-Protokolle sowieFinanzmanagement.Das beinhaltet falls nötig auch, eine Hybrid– oder Multi-Cloud-Strategie zu entwickeln, die verschiedene Services in ein konsistentes Betriebsmodell einbindet. Eine gut dokumentierte Cloud-Strategie ermöglicht eine bessere Entscheidungsfindung und liefert die Grundlage, um eine Roadmap für die Cloud Journey zu erstellen.Viele Unternehmen denken zwar über diese Dinge nach, halten diesbezüglich aber nichts fest. Das ist ein Fehler, denn eine schriftlich fixierte Cloud-Strategie dient auch als Agreement zwischen allen Beteiligten, auf den Cloud-Erfolg hinzuarbeiten.3. Strenge Richtlinien einziehenWenn die Cloud effektiv genutzt werden soll, sind Use Policies notwendig, denen sich alle Beteiligten verpflichten. Diese sollten die folgenden Bereiche abdecken:Datenmanagement,IT-Sicherheit,Compliance undKostenkontrolle.Um Usage-Exzesse und unnötige Kosten zu vermeiden, empfiehlt es sich außerdem, klare Protokolle mit Blick auf die Bereitstellung und Freigabe von Cloud-Ressourcen zu etablieren.4. In Schulung investierenInadäquate Skills und Kompetenzen sind ebenfalls eine Wurzel des Cloud-Whiplash-Übels. Die Lösung ist denkbar naheliegend: Um Ihre Mitarbeiter in die Lage zu versetzen, Cloud Services effektiv managen zu können, sind Investitionen in Schulungs– und Upskilling-Initiativen notwendig.Leider verfügen die meisten Unternehmen nicht über die erforderlichen Skills, die es bräuchte, um ihre Cloud-Implementierung effektiv zu nutzen. In einem solchen Fall wäre es durchaus angebracht, die Cloud-Migration erst einmal auf Eis zu legen – bis ein Plan existiert, um die Kompetenzlücken zu beseitigen. Firmen, die unter solchen Voraussetzungen ihre Journey trotzdem unbeeindruckt fortsetzen, haben ein enormes Risiko, zu scheitern.5. Automation und KI nutzenAutomatisierungs- und KI-Initiativen können dazu beitragen, die Auswirkungen von Cloud Whiplash zu reduzieren. Schließlich erlauben automatisierte Prozesse, Routineaufgaben effizienter zu erledigen, während die Fehlerrate minimiert wird und sich die menschlichen Mitarbeiter wichtigeren, strategischen Aktivitäten widmen können.6. Agile Kultur fördernUm im hochdynamischen Technologieumfeld erfolgreich sein zu können, ist ein Mindset essenziell, das Change und Innovation positiv gegenübersteht. Schließlich erfordert die Einführung der Cloud einen Kulturwandel, der von oben vorgelebt werden muss – und die grundlegende Bereitschaft, sich mit neuen Ansätzen zu beschäftigen.Um eine bessere Zusammenarbeit und schnellere Entscheidungsfindung zu ermöglichen, empfiehlt es sich, funktionsübergreifende Teams aufzusetzen. (fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

6 Mittel gegen Cloud Whiplash​ Weiterlesen »

SAP weitet Software-Audits in Europa aus​

Allgemein

width=”4195″ height=”2359″ sizes=”(max-width: 4195px) 100vw, 4195px”>Schön, wenn man einen Haken unter das Software-Audit setzen kann – doch das ganze Prozedere kostet oft viel Geld, Zeit und Nerven. chase4concept – shutterstock.com Der finanzielle Druck auf die IT-Teams und aufwändige Software-Audits entwickeln sich zu einer Dauerbelastung in vielen Unternehmen. Das ist ein Kernergebnis des aktuellen „State of ITAM Report 2025“ (ITAM: IT Asset Management) von Flexera. Fast die Hälfte (45 Prozent) der über 500 weltweit befragten Unternehmen hat in den vergangenen drei Jahren über eine Million Dollar für Software-Audits ausgegeben. Ein knappes Viertel (23 Prozent) der Befragten berichtete von Ausgaben in Höhe von mehr als fünf Millionen Dollar. Microsoft zählt seit Jahren zu den aktivsten Auditoren: Die Hälfte der befragten Betriebe bekam in den vergangenen drei Jahren Besuch von Auditoren des weltgrößten Softwarekonzerns. Auf Platz zwei rangiert IBM mit 37 Prozent, gefolgt von SAP (32 Prozent). In Europa intensivierte SAP indes ihre Audit-Aktivitäten deutlich – 41 Prozent der Unternehmen waren von SAP-Audits betroffen, im Jahr zuvor waren es nicht einmal ein Drittel (32 Prozent). SAP hat seine Audit-Aktivitäten in Europa deutlich ausgeweitet und liegt deutlich vor dem Konkurrenten Oracle.Flexera Lückenhafte IT-Transparenz und wachsender Kostendruck Laut der Flexera-Umfrage kämpfen viele IT-Teams weiterhin mit mangelnder Transparenz über ihren gesamten Technologie-Stack hinweg. Zwar verlagerten immer mehr Unternehmen Software in die Cloud, doch auch dort bleibe die Übersicht oft lückenhaft – insbesondere bei Software as a Service (SaaS) und Bring Your Own License (BYOL). Bei On-Premises-Hardware und -Software gaben immerhin etwa ein Viertel der Befragten an, einen guten Überblick zu haben – das ist besser als in den vergangenen Jahren. In der Cloud wird die Transparenz jedoch schlechter. Nicht einmal zwei Drittel (63 Prozent) erklärten, ihre Cloud-Instanzen gut im Griff zu haben. Bei SaaS fühlt sich nur die Hälfte der IT-Manager ausreichend über die von ihnen eingesetzten Cloud-Anwendungen informiert. Besonders kritisch ist die Lage bei BYOL: Lediglich 27 Prozent haben eigenen Angaben zufolge ausreichende Einblicke in Lizenzstatus, Kosten und Sicherheitsaspekte. Insgesamt ist das Vertrauen in die vollständige IT-Transparenz damit leicht gesunken – von 47 Prozent im Vorjahr auf 43 Prozent. Vor allem die komplexen Nutzungsbedingungen der Softwarehersteller machen den Anwenderunternehmen zu schaffen.Flexera Angesichts dieser Zahlen überrascht es nicht, dass die Eindämmung von SaaS-Sprawl – also der unkontrollierten Verbreitung und Nutzung von Cloud-Anwendungen – stärker in den Fokus rückt. 35 Prozent der befragten Unternehmen räumten ein, dass die Verschwendung durch ungenutzte SaaS-Lösungen im vergangenen Jahr zugenommen hat. Die finanziellen Auswirkungen belasten die ohnehin schon unter Druck stehenden IT-Budgets weiter. Software-Nutzungsrechte werden immer komplizierter Es verwundert daher nicht, dass die Software-Asset-Management- (SAM-)Teams ihre Aktivitäten im SaaS-Management verstärken: 59 Prozent verfolgen laut Umfrage aktiv die Nutzung von Cloud-Anwendungen, 56 Prozent passen Verträge und Abos gezielt an, um unnötige Ausgaben zu vermeiden. Teure Audits: Wenn der Software-Vendor zwei Mal klingelt Das scheint angesichts der wachsenden Komplexität Cloud-basierter Lizenzmodelle keine leichte Aufgabe zu sein. Die Verwaltung von Nutzungsrechten steht der Flexera-Umfrage zufolge inzwischen ganz oben auf der Liste der Herausforderungen: vier von fünf SAM-Teams tun sich damit schwer. Noch im vergangenen Jahr lag dieses Thema lediglich auf Platz sechs. Die Sehkraft in der IT lässt spürbar nach, konstatiert Becky Trevino von Flexera.Flexera „Vollständige Transparenz über alle IT-Assets ist die Grundlage für jede fundierte technologische Entscheidung“, erklärte Becky Trevino, Chief Product Officer bei Flexera. „Doch ausgerechnet jetzt, unter steigendem Kostendruck, lässt die Sehkraft in der IT spürbar nach.“ Ohne klaren Einblick in den gesamten Technologie-Stack ließen sich weder Verschwendung gezielt vermeiden noch Compliance sicherstellen oder Investitionen effizient steuern. 

SAP weitet Software-Audits in Europa aus​ width=”4195″ height=”2359″ sizes=”(max-width: 4195px) 100vw, 4195px”>Schön, wenn man einen Haken unter das Software-Audit setzen kann – doch das ganze Prozedere kostet oft viel Geld, Zeit und Nerven. chase4concept – shutterstock.com

Der finanzielle Druck auf die IT-Teams und aufwändige Software-Audits entwickeln sich zu einer Dauerbelastung in vielen Unternehmen. Das ist ein Kernergebnis des aktuellen „State of ITAM Report 2025“ (ITAM: IT Asset Management) von Flexera. Fast die Hälfte (45 Prozent) der über 500 weltweit befragten Unternehmen hat in den vergangenen drei Jahren über eine Million Dollar für Software-Audits ausgegeben. Ein knappes Viertel (23 Prozent) der Befragten berichtete von Ausgaben in Höhe von mehr als fünf Millionen Dollar.

Microsoft zählt seit Jahren zu den aktivsten Auditoren: Die Hälfte der befragten Betriebe bekam in den vergangenen drei Jahren Besuch von Auditoren des weltgrößten Softwarekonzerns. Auf Platz zwei rangiert IBM mit 37 Prozent, gefolgt von SAP (32 Prozent). In Europa intensivierte SAP indes ihre Audit-Aktivitäten deutlich – 41 Prozent der Unternehmen waren von SAP-Audits betroffen, im Jahr zuvor waren es nicht einmal ein Drittel (32 Prozent).

SAP hat seine Audit-Aktivitäten in Europa deutlich ausgeweitet und liegt deutlich vor dem Konkurrenten Oracle.Flexera

Lückenhafte IT-Transparenz und wachsender Kostendruck

Laut der Flexera-Umfrage kämpfen viele IT-Teams weiterhin mit mangelnder Transparenz über ihren gesamten Technologie-Stack hinweg. Zwar verlagerten immer mehr Unternehmen Software in die Cloud, doch auch dort bleibe die Übersicht oft lückenhaft – insbesondere bei Software as a Service (SaaS) und Bring Your Own License (BYOL).

Bei On-Premises-Hardware und -Software gaben immerhin etwa ein Viertel der Befragten an, einen guten Überblick zu haben – das ist besser als in den vergangenen Jahren. In der Cloud wird die Transparenz jedoch schlechter. Nicht einmal zwei Drittel (63 Prozent) erklärten, ihre Cloud-Instanzen gut im Griff zu haben. Bei SaaS fühlt sich nur die Hälfte der IT-Manager ausreichend über die von ihnen eingesetzten Cloud-Anwendungen informiert. Besonders kritisch ist die Lage bei BYOL: Lediglich 27 Prozent haben eigenen Angaben zufolge ausreichende Einblicke in Lizenzstatus, Kosten und Sicherheitsaspekte. Insgesamt ist das Vertrauen in die vollständige IT-Transparenz damit leicht gesunken – von 47 Prozent im Vorjahr auf 43 Prozent.

Vor allem die komplexen Nutzungsbedingungen der Softwarehersteller machen den Anwenderunternehmen zu schaffen.Flexera

Angesichts dieser Zahlen überrascht es nicht, dass die Eindämmung von SaaS-Sprawl – also der unkontrollierten Verbreitung und Nutzung von Cloud-Anwendungen – stärker in den Fokus rückt. 35 Prozent der befragten Unternehmen räumten ein, dass die Verschwendung durch ungenutzte SaaS-Lösungen im vergangenen Jahr zugenommen hat. Die finanziellen Auswirkungen belasten die ohnehin schon unter Druck stehenden IT-Budgets weiter.

Software-Nutzungsrechte werden immer komplizierter

Es verwundert daher nicht, dass die Software-Asset-Management- (SAM-)Teams ihre Aktivitäten im SaaS-Management verstärken: 59 Prozent verfolgen laut Umfrage aktiv die Nutzung von Cloud-Anwendungen, 56 Prozent passen Verträge und Abos gezielt an, um unnötige Ausgaben zu vermeiden.

Teure Audits: Wenn der Software-Vendor zwei Mal klingelt

Das scheint angesichts der wachsenden Komplexität Cloud-basierter Lizenzmodelle keine leichte Aufgabe zu sein. Die Verwaltung von Nutzungsrechten steht der Flexera-Umfrage zufolge inzwischen ganz oben auf der Liste der Herausforderungen: vier von fünf SAM-Teams tun sich damit schwer. Noch im vergangenen Jahr lag dieses Thema lediglich auf Platz sechs.

Die Sehkraft in der IT lässt spürbar nach, konstatiert Becky Trevino von Flexera.Flexera

„Vollständige Transparenz über alle IT-Assets ist die Grundlage für jede fundierte technologische Entscheidung“, erklärte Becky Trevino, Chief Product Officer bei Flexera. „Doch ausgerechnet jetzt, unter steigendem Kostendruck, lässt die Sehkraft in der IT spürbar nach.“ Ohne klaren Einblick in den gesamten Technologie-Stack ließen sich weder Verschwendung gezielt vermeiden noch Compliance sicherstellen oder Investitionen effizient steuern.

SAP weitet Software-Audits in Europa aus​ Weiterlesen »

Microsoft kündigt Windows 365 Reserve an​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?quality=50&strip=all 8192w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Windows 365 Reserve soll Anwendern binnen Minuten einen temporären, vorkonfigurierten Cloud-PC bereitstellen.New Africa/Shutterstock.com Microsoft hat die Preview eines neuen Dienstes namens Windows 365 Reserve angekündigt. Ziel der Lösung ist es, Unternehmen Backup-Lösungen für verloren gegangene, gestohlene oder ausgefallene PCs bereitzustellen. Der Dienst bietet dazu einen temporären, vorkonfigurierten Cloud-PC, der über einen Browser zugänglich ist und laut Microsoft „wie ein physischer PC aussieht, sich so anfühlt und von jedem Gerät aus, überall, erreichbar ist.“ Demnächst kostenloser Preview Der Reserve-Cloud-PC wird über Microsoft Intune verwaltet und umfasst Unternehmensanwendungen, Einstellungen und Sicherheitsrichtlinien sowie Microsoft 365-Apps (vorausgesetzt, das Unternehmen hat M365 abonniert) und OneDrive-Datensynchronisierung. Die kostenlose Vorschauversion soll laut Ankündigung „in Kürze“ beginnen und bis zu zwölf Wochen verfügbar sein. Es gibt jedoch Einschränkungen. Teilnehmer der Vorschau müssen über eine Windows-E3-Lizenz, eine Intune-Lizenz und Microsoft Entra ID P1 (ehemals Azure Active Directory Premium Plan 1 oder AADP1) verfügen. Sovereign Cloud-Kunden werden nicht unterstützt. Außerdem müssen die Unternehmen einige Aufgaben erfüllen, darunter laut Anmeldeformular eine Reihe von „Administrator- und Endbenutzer-Validierungsszenarien“ – und anschließend Feedback zu ihren Erfahrungen geben. Andrew Sharp, Research Director bei der Info-Tech Research Group, ist von dem Konzept beeindruckt: „In der Preview verspricht der Dienst, dass ein Admin einen Cloud-PC bereitstellen kann, auf dem bereits die Richtlinien, Apps und Sicherheitskontrollen des Unternehmens installiert sind.” Damit stünde er einem gestrandeten Nutzer binnen weniger Minuten zur Verfügung. „Stellen Sie sich vor, Ihr Laptop fällt bei einem Kunden aus“, führt Sharp aus. „Der Helpdesk schickt einen Link, Sie öffnen ihn im Browser oder in der Windows-App, und schon sind Sie wieder auf einem vertrauten, konformen Desktop – noch bevor Ihr Kaffee kalt ist.” Zumindest werde das versprochen, räumt er ein. Ihm gefällt außerdem die Idee, dass Intune die virtuellen Geräte verwaltet, sodass keine neue Steuerungsebene erlernt werden muss. Außerdem sieht er Potenzial für weitere Anwendungsfälle über reine Backup-Lösungen hinaus. „Reserve könnte auch eine unkomplizierte Möglichkeit sein, mit minimalem Aufwand virtuelle Desktops auszuprobieren“, merkt er an. Allerdings hat er auch Vorbehalte. „Das Wertversprechen von Microsoft ist klar: Eine schnellere und sicherere Wiederherstellung bei Verlust, Diebstahl oder Defekt von Geräten“, erklärt Sharp. „Letztendlich benötigt die IT-Abteilung aber weiterhin ein operatives Playbook.“ Zu klärende Fragen sind aus seiner Sicht etwa: Wie erreicht ein Benutzer den Support, wenn das primäre Gerät ausfällt? Wird ein physischer Ersatz geliefert oder dient Reserve als Übergangslösung? Welche Anwendungen und Richtlinien gehören in das Reserve-Image? IT-Teams müssen diese Workflows klären, damit Windows 365 Reserve ein praktisches Tool für die Ausfallsicherheit wird und nicht nur eine weitere SKU, so der Analyst. (mb) 

Microsoft kündigt Windows 365 Reserve an​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?quality=50&strip=all 8192w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Windows 365 Reserve soll Anwendern binnen Minuten einen temporären, vorkonfigurierten Cloud-PC bereitstellen.New Africa/Shutterstock.com

Microsoft hat die Preview eines neuen Dienstes namens Windows 365 Reserve angekündigt. Ziel der Lösung ist es, Unternehmen Backup-Lösungen für verloren gegangene, gestohlene oder ausgefallene PCs bereitzustellen. Der Dienst bietet dazu einen temporären, vorkonfigurierten Cloud-PC, der über einen Browser zugänglich ist und laut Microsoft „wie ein physischer PC aussieht, sich so anfühlt und von jedem Gerät aus, überall, erreichbar ist.“

Demnächst kostenloser Preview

Der Reserve-Cloud-PC wird über Microsoft Intune verwaltet und umfasst Unternehmensanwendungen, Einstellungen und Sicherheitsrichtlinien sowie Microsoft 365-Apps (vorausgesetzt, das Unternehmen hat M365 abonniert) und OneDrive-Datensynchronisierung. Die kostenlose Vorschauversion soll laut Ankündigung „in Kürze“ beginnen und bis zu zwölf Wochen verfügbar sein.

Es gibt jedoch Einschränkungen. Teilnehmer der Vorschau müssen über eine Windows-E3-Lizenz, eine Intune-Lizenz und Microsoft Entra ID P1 (ehemals Azure Active Directory Premium Plan 1 oder AADP1) verfügen. Sovereign Cloud-Kunden werden nicht unterstützt. Außerdem müssen die Unternehmen einige Aufgaben erfüllen, darunter laut Anmeldeformular eine Reihe von „Administrator- und Endbenutzer-Validierungsszenarien“ – und anschließend Feedback zu ihren Erfahrungen geben.

Andrew Sharp, Research Director bei der Info-Tech Research Group, ist von dem Konzept beeindruckt: „In der Preview verspricht der Dienst, dass ein Admin einen Cloud-PC bereitstellen kann, auf dem bereits die Richtlinien, Apps und Sicherheitskontrollen des Unternehmens installiert sind.” Damit stünde er einem gestrandeten Nutzer binnen weniger Minuten zur Verfügung.

„Stellen Sie sich vor, Ihr Laptop fällt bei einem Kunden aus“, führt Sharp aus. „Der Helpdesk schickt einen Link, Sie öffnen ihn im Browser oder in der Windows-App, und schon sind Sie wieder auf einem vertrauten, konformen Desktop – noch bevor Ihr Kaffee kalt ist.” Zumindest werde das versprochen, räumt er ein.

Ihm gefällt außerdem die Idee, dass Intune die virtuellen Geräte verwaltet, sodass keine neue Steuerungsebene erlernt werden muss. Außerdem sieht er Potenzial für weitere Anwendungsfälle über reine Backup-Lösungen hinaus. „Reserve könnte auch eine unkomplizierte Möglichkeit sein, mit minimalem Aufwand virtuelle Desktops auszuprobieren“, merkt er an.

Allerdings hat er auch Vorbehalte. „Das Wertversprechen von Microsoft ist klar: Eine schnellere und sicherere Wiederherstellung bei Verlust, Diebstahl oder Defekt von Geräten“, erklärt Sharp. „Letztendlich benötigt die IT-Abteilung aber weiterhin ein operatives Playbook.“

Zu klärende Fragen sind aus seiner Sicht etwa:

Wie erreicht ein Benutzer den Support, wenn das primäre Gerät ausfällt?

Wird ein physischer Ersatz geliefert oder dient Reserve als Übergangslösung?

Welche Anwendungen und Richtlinien gehören in das Reserve-Image?

IT-Teams müssen diese Workflows klären, damit Windows 365 Reserve ein praktisches Tool für die Ausfallsicherheit wird und nicht nur eine weitere SKU, so der Analyst. (mb)

Microsoft kündigt Windows 365 Reserve an​ Weiterlesen »

AWS zeigt Flagge in Deutschland​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die European Sovereign Cloud stand im Mittelpunkt auf AWS Summit in Hamburg.Michael Vi / Shutterstock Amazon will in Deutschland hoch hinaus: Auf 142 Metern Höhe ist der am 16. Juni 2025 eröffnete „Amazon Tower“ an der Warschauer Brücke derzeit das höchste Gebäude in Berlin. „Die ersten 700 Mitarbeiterinnen und Mitarbeiter sind eingezogen, die anderen werden sukzessive folgen, wenn weitere Stockwerke fertig ausgebaut sind“, erklärt Jonathan Weiss, Managing Director Amazon Development Center GmbH. Sieben Stockwerke hat der Konzern inzwischen belegt, insgesamt stehen ihm 33 der 35 Etagen zur Verfügung. „Wir haben Platz für bis zu 3.000 Arbeitsplätze“, verkündet Weiss. Derzeit beschäftigt der Konzern in Berlin 2.500 Personen, die an drei größeren Standorten verteilt arbeiten. Der sukzessive Einzug soll bis Anfang 2026 abgeschlossen sein. Berlin ist für Amazon Web Services (AWS) in erster Linie ein Forschungsstandort. Weiss, der die Niederlassung leitet, erklärt: „Wir beschäftigen im Forschungszentrum in Berlin 2.500 Mitarbeiter. Der generative KI Assistant Amazon Q, der seit letztem Jahr allgemein verfügbar ist, wurde in Deutschland mitentwickelt. Aus Q sind jetzt die Produktlinien Amazon Q Business, Amazon Q Developer und ganz neu Amazon Transform hervorgegangen.“ Dies sei eine echte Revolution bei der Software-Entwicklung, so Weiss. Was vorher 4.500 Mitarbeiterjahre beansprucht habe, sei jetzt in Wochen möglich. Wie der Amazon-Manager ausführt, beschleunige AWS Transform als erster agentenbasierter KI-Dienst der Company die Modernisierung von .NET-, Mainframe- und VMware-Workloads in Unternehmen. So nutze er spezialisierte KI-Agenten, um komplexe Aufgaben zu automatisieren und damit die Projektlaufzeiten drastisch zu verkürzen. Dazu gehörten beispielsweise: Bewertungen, Code-Analysen, Refactoring, Zerlegung, Abhängigkeitszuordnung, Validierung und Transformationsplanung. Auf diese Weise, so Weiss, ließen sich sowohl die Modernisierungs- als auch die laufenden Wartungskosten senken und gleichzeitig die Lizenzgebühren für Altsysteme drastisch reduzieren. European Sovereign Cloud in Brandenburg Der Amazon Tower ist nicht das einzige Zeichen für ein verstärktes Commitment des Hyperscalers in Deutschland. So will der Konzern mit der AWS European Sovereign Cloud in Potsdam, Brandenburg eine vollumfängliche, unabhängig betriebene souveräne Cloud anbieten – abgesichert durch starke technische Kontrollen, souveräne Zusicherungen und rechtliche Schutzmaßnahmen. Auf dem AWS Summit Anfang Juni 2025 in Hamburg lobte Stefan Höchbauer, Managing Director Germany and Europe Central, Amazon Web Services, das Konzept: „Wir bieten digitale Souveränität für Deutschland. Siemens beispielsweise nutzt Amazon Nova und Amazon Bedrock für die weltweite Suche, und erreicht damit eine 1,5-mal bessere Latenz sowie eine 4,4-mal bessere Kosteneffizienz. Auch der BMW AI Assistant, der über 50.000 Mitarbeitenden Agentic-AI-Funktionen in rund 130 öffentlichen und 8.000 privaten Apps zur Verfügung stellt, läuft auf AWS.“ Zehntausende Kunden in Deutschland würden AWS vertrauen, betonte Höchbauer bei seiner Präsentation – und fügte hinzu: „Wir stehen für Souveränität und Informationssicherheit – auch dank unserer Zusammenarbeit mit dem Bundesamt für Sicherheit in der Informationstechnik.“ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?quality=50&strip=all 1969w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Stefan Höchbauer, Managing Director Germany and Europe Central, Amazon Web Services, stellte in Hamburg das Konzept der souveränen Cloud in Brandenburg vor.AWS Europäische Kontrolle, Governance und Betrieb „Wir sind uns bewusst, dass es bestimmte Kunden in Europa gibt, die insbesondere bei Workloads im öffentlichen Sektor oder stärker regulierten Branchen ein noch höheres Maß an Sicherheit suchen. Das hat uns dazu veranlasst, die europäische souveräne Cloud anzukündigen“, ergänzt Kevin Miller, Vice President, Global Data Centers bei AWS. Das besondere am AWS-Konzept sei dabei, dass es von EU-Bürgern in der EU betrieben und kontrolliert wird, so Miller. Es werde eine neue Muttergesellschaft geben, die als EU-Unternehmen gegründet werden soll. Das Managementteam, das diese neue Muttergesellschaft leitet, soll aus einer Geschäftsführerin sowie Beauftragten für Sicherheit und Datenschutz bestehen, die alle Staatsbürger in EU-Mitgliedsstaaten mit Wohnsitz in der EU sind. Außerdem werde AWS einen unabhängigen vierköpfigen Beirat einrichten, der rechtlich dazu verpflichtet ist, im besten Interesse der AWS European Sovereign Cloud zu handeln. Ein weiterer Punkt: Die AWS European Sovereign Cloud ist den Betreibern zufolge so aufgebaut, dass sie unbegrenzt weiter betrieben werden kann, selbst im Fall von Unterbrechungen der Konnektivität zwischen der AWS European Sovereign Cloud und dem Rest der Welt. Und um die Business Continuity auch unter extremen Umständen zu gewährleisten, sollen autorisierte AWS-Mitarbeiter der AWS European Sovereign Cloud, die in der EU ansässig sind, unabhängigen Zugang zu einer Kopie der Quellcodes erhalten, die für die Aufrechterhaltung der Dienste erforderlich sind. „Viele unserer Kunden möchten in erster Linie wissen, wo sich ihre Daten befinden, und AWS hat von Anfang an sehr deutlich gemacht, dass seine Kunden stets die Kontrolle über ihre Daten haben. Wir verschieben also keine Kundendaten ohne deren ausdrückliche Aufforderung dazu.“ Erfahrene europäische Führung Mit Kathrin Renz erhält die AWS European Sovereign Cloud außerdem eine Geschäftsführerin mit mehr als zwei Jahrzehnten Erfahrung im globalen Technologiesektor, einschließlich Schlüsselpositionen im europäischen Technologieumfeld bei großen Unternehmen. Als ranghöchste Führungskraft der AWS European Sovereign Cloud wird Renz für die Überwachung von Entscheidungen in Bezug auf Unternehmensführung, Compliance und Sicherheit verantwortlich sein, und sicherstellen, dass die AWS European Sovereign Cloud allen geltenden Gesetzen und Rechtsvorschriften in Deutschland und der EU entspricht. „Wir verfolgen mit der AWS European Sovereign Cloud einen einzigartigen Ansatz. Kunden sagen uns, dass sie nicht zwischen funktional eingeschränkten Lösungen und der vollen Leistungsfähigkeit von AWS wählen möchten. Deshalb haben wir die AWS European Sovereign Cloud so konzipiert, dass sie europäische Anforderungen an die digitale Souveränität erfüllt und dabei das Serviceportfolio, die Sicherheit, Zuverlässigkeit und Leistung bietet, die Kunden von AWS erwarten“, so Renz. „Die Förderung von Cloud und KI steht im Mittelpunkt der europäischen Innovationsagenda, und diese Lösung wird es Kunden ermöglichen, Innovationen voranzutreiben und dabei ihre Anforderungen an die digitale Souveränität zu erfüllen.“ RZ-Optimierung schreitet voran Allgemein arbeitet AWS laut Data-Center-Chef Miller an der Optimierung der Rechenzentren: „Wir sind bereits in der sechsten Generation von Rechenzentrumsdesigns, wobei jedes einzelne zunehmend für Nachhaltigkeit, Energieeffizienz und Wassereffizienz optimiert wird. Daher haben wir im letzten Jahr eine Reihe von Verbesserungen in unseren Rechenzentren angekündigt, die den Energiebedarf unserer Kühlsysteme um 46 Prozent reduzieren. Wir haben kohlenstoffärmeren Beton angekündigt, der den Kohlenstoffgehalt um 35 Prozent reduziert. Wenn es um KI gehe, stiegen natürlich die Anforderungen an die Leistungsdichte, was zu einigen Änderungen und Verbesserungen bei der Stromverteilung in den Rechenzentren führe, räumte Miller ein. Dies sei auch ein Grund dafür, dass AWS zunehmend flüssigkeitsbasierte Kühlung oder gezielte Chip-Kühlung einsetze, anstatt nur reine Luftkühlung: Flüssigkeitskühlung könne mehr Wärme aus einem dicht gepackten Satz von Chips abführen. (mb) 

AWS zeigt Flagge in Deutschland​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die European Sovereign Cloud stand im Mittelpunkt auf AWS Summit in Hamburg.Michael Vi / Shutterstock

Amazon will in Deutschland hoch hinaus: Auf 142 Metern Höhe ist der am 16. Juni 2025 eröffnete „Amazon Tower“ an der Warschauer Brücke derzeit das höchste Gebäude in Berlin. „Die ersten 700 Mitarbeiterinnen und Mitarbeiter sind eingezogen, die anderen werden sukzessive folgen, wenn weitere Stockwerke fertig ausgebaut sind“, erklärt Jonathan Weiss, Managing Director Amazon Development Center GmbH.

Sieben Stockwerke hat der Konzern inzwischen belegt, insgesamt stehen ihm 33 der 35 Etagen zur Verfügung. „Wir haben Platz für bis zu 3.000 Arbeitsplätze“, verkündet Weiss. Derzeit beschäftigt der Konzern in Berlin 2.500 Personen, die an drei größeren Standorten verteilt arbeiten. Der sukzessive Einzug soll bis Anfang 2026 abgeschlossen sein.

Berlin ist für Amazon Web Services (AWS) in erster Linie ein Forschungsstandort. Weiss, der die Niederlassung leitet, erklärt: „Wir beschäftigen im Forschungszentrum in Berlin 2.500 Mitarbeiter. Der generative KI Assistant Amazon Q, der seit letztem Jahr allgemein verfügbar ist, wurde in Deutschland mitentwickelt. Aus Q sind jetzt die Produktlinien Amazon Q Business, Amazon Q Developer und ganz neu Amazon Transform hervorgegangen.“ Dies sei eine echte Revolution bei der Software-Entwicklung, so Weiss. Was vorher 4.500 Mitarbeiterjahre beansprucht habe, sei jetzt in Wochen möglich.

Wie der Amazon-Manager ausführt, beschleunige AWS Transform als erster agentenbasierter KI-Dienst der Company die Modernisierung von .NET-, Mainframe- und VMware-Workloads in Unternehmen. So nutze er spezialisierte KI-Agenten, um komplexe Aufgaben zu automatisieren und damit die Projektlaufzeiten drastisch zu verkürzen. Dazu gehörten beispielsweise:

Bewertungen,

Code-Analysen,

Refactoring,

Zerlegung,

Abhängigkeitszuordnung,

Validierung und

Transformationsplanung.

Auf diese Weise, so Weiss, ließen sich sowohl die Modernisierungs- als auch die laufenden Wartungskosten senken und gleichzeitig die Lizenzgebühren für Altsysteme drastisch reduzieren.

European Sovereign Cloud in Brandenburg

Der Amazon Tower ist nicht das einzige Zeichen für ein verstärktes Commitment des Hyperscalers in Deutschland. So will der Konzern mit der AWS European Sovereign Cloud in Potsdam, Brandenburg eine vollumfängliche, unabhängig betriebene souveräne Cloud anbieten – abgesichert durch starke technische Kontrollen, souveräne Zusicherungen und rechtliche Schutzmaßnahmen.

Auf dem AWS Summit Anfang Juni 2025 in Hamburg lobte Stefan Höchbauer, Managing Director Germany and Europe Central, Amazon Web Services, das Konzept: „Wir bieten digitale Souveränität für Deutschland. Siemens beispielsweise nutzt Amazon Nova und Amazon Bedrock für die weltweite Suche, und erreicht damit eine 1,5-mal bessere Latenz sowie eine 4,4-mal bessere Kosteneffizienz. Auch der BMW AI Assistant, der über 50.000 Mitarbeitenden Agentic-AI-Funktionen in rund 130 öffentlichen und 8.000 privaten Apps zur Verfügung stellt, läuft auf AWS.“

Zehntausende Kunden in Deutschland würden AWS vertrauen, betonte Höchbauer bei seiner Präsentation – und fügte hinzu: „Wir stehen für Souveränität und Informationssicherheit – auch dank unserer Zusammenarbeit mit dem Bundesamt für Sicherheit in der Informationstechnik.“

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?quality=50&strip=all 1969w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Stefan Höchbauer, Managing Director Germany and Europe Central, Amazon Web Services, stellte in Hamburg das Konzept der souveränen Cloud in Brandenburg vor.AWS

Europäische Kontrolle, Governance und Betrieb

„Wir sind uns bewusst, dass es bestimmte Kunden in Europa gibt, die insbesondere bei Workloads im öffentlichen Sektor oder stärker regulierten Branchen ein noch höheres Maß an Sicherheit suchen. Das hat uns dazu veranlasst, die europäische souveräne Cloud anzukündigen“, ergänzt Kevin Miller, Vice President, Global Data Centers bei AWS.

Das besondere am AWS-Konzept sei dabei, dass es von EU-Bürgern in der EU betrieben und kontrolliert wird, so Miller. Es werde eine neue Muttergesellschaft geben, die als EU-Unternehmen gegründet werden soll.

Das Managementteam, das diese neue Muttergesellschaft leitet, soll aus einer Geschäftsführerin sowie Beauftragten für Sicherheit und Datenschutz bestehen, die alle Staatsbürger in EU-Mitgliedsstaaten mit Wohnsitz in der EU sind. Außerdem werde AWS einen unabhängigen vierköpfigen Beirat einrichten, der rechtlich dazu verpflichtet ist, im besten Interesse der AWS European Sovereign Cloud zu handeln.

Ein weiterer Punkt: Die AWS European Sovereign Cloud ist den Betreibern zufolge so aufgebaut, dass sie unbegrenzt weiter betrieben werden kann, selbst im Fall von Unterbrechungen der Konnektivität zwischen der AWS European Sovereign Cloud und dem Rest der Welt.

Und um die Business Continuity auch unter extremen Umständen zu gewährleisten, sollen autorisierte AWS-Mitarbeiter der AWS European Sovereign Cloud, die in der EU ansässig sind, unabhängigen Zugang zu einer Kopie der Quellcodes erhalten, die für die Aufrechterhaltung der Dienste erforderlich sind.

„Viele unserer Kunden möchten in erster Linie wissen, wo sich ihre Daten befinden, und AWS hat von Anfang an sehr deutlich gemacht, dass seine Kunden stets die Kontrolle über ihre Daten haben. Wir verschieben also keine Kundendaten ohne deren ausdrückliche Aufforderung dazu.“

Erfahrene europäische Führung

Mit Kathrin Renz erhält die AWS European Sovereign Cloud außerdem eine Geschäftsführerin mit mehr als zwei Jahrzehnten Erfahrung im globalen Technologiesektor, einschließlich Schlüsselpositionen im europäischen Technologieumfeld bei großen Unternehmen. Als ranghöchste Führungskraft der AWS European Sovereign Cloud wird Renz für die Überwachung von Entscheidungen in Bezug auf Unternehmensführung, Compliance und Sicherheit verantwortlich sein, und sicherstellen, dass die AWS European Sovereign Cloud allen geltenden Gesetzen und Rechtsvorschriften in Deutschland und der EU entspricht.

„Wir verfolgen mit der AWS European Sovereign Cloud einen einzigartigen Ansatz. Kunden sagen uns, dass sie nicht zwischen funktional eingeschränkten Lösungen und der vollen Leistungsfähigkeit von AWS wählen möchten. Deshalb haben wir die AWS European Sovereign Cloud so konzipiert, dass sie europäische Anforderungen an die digitale Souveränität erfüllt und dabei das Serviceportfolio, die Sicherheit, Zuverlässigkeit und Leistung bietet, die Kunden von AWS erwarten“, so Renz. „Die Förderung von Cloud und KI steht im Mittelpunkt der europäischen Innovationsagenda, und diese Lösung wird es Kunden ermöglichen, Innovationen voranzutreiben und dabei ihre Anforderungen an die digitale Souveränität zu erfüllen.“

RZ-Optimierung schreitet voran

Allgemein arbeitet AWS laut Data-Center-Chef Miller an der Optimierung der Rechenzentren: „Wir sind bereits in der sechsten Generation von Rechenzentrumsdesigns, wobei jedes einzelne zunehmend für Nachhaltigkeit, Energieeffizienz und Wassereffizienz optimiert wird. Daher haben wir im letzten Jahr eine Reihe von Verbesserungen in unseren Rechenzentren angekündigt, die den Energiebedarf unserer Kühlsysteme um 46 Prozent reduzieren. Wir haben kohlenstoffärmeren Beton angekündigt, der den Kohlenstoffgehalt um 35 Prozent reduziert.

Wenn es um KI gehe, stiegen natürlich die Anforderungen an die Leistungsdichte, was zu einigen Änderungen und Verbesserungen bei der Stromverteilung in den Rechenzentren führe, räumte Miller ein. Dies sei auch ein Grund dafür, dass AWS zunehmend flüssigkeitsbasierte Kühlung oder gezielte Chip-Kühlung einsetze, anstatt nur reine Luftkühlung: Flüssigkeitskühlung könne mehr Wärme aus einem dicht gepackten Satz von Chips abführen. (mb)

AWS zeigt Flagge in Deutschland​ Weiterlesen »

6 Maßnahmen für bessere CI/CD-Pipelines​

Allgemein

Pipelines optimal zu gestalten, ist Schwerstarbeit. Foto: stetsko | shutterstock.com Pipelines für Continuous Integration und Continuous Delivery (CI/CD) zu konfigurieren, um Code automatisiert zu verpacken, zu kompilieren und zu veröffentlichen, wird als grundlegende DevSecOps-Methodik angesehen. Indem sie den Weg des Codes in die Produktion automatisieren, können DevSecOps-Teams: Fehler reduzieren, die Deployment-Frequenz erhöhen, Produktionsprobleme schneller lösen, sowie ihre Teamkultur optimieren. Wenn es darum geht, diese CI/CD Pipelines – und die zugrundeliegenden Plattformen – möglichst sinnstiftend und zukunftsfähig zu entwickeln, besteht in vielen Fällen noch Luft nach oben. Im Gespräch mit Experten auf dem Gebiet der Softwareentwicklung haben wir sechs Möglichkeiten identifiziert, wie DevSecOps-Teams ihre CI/CD Pipelines optimieren und maximalen Business Impact erzielen können. 1. Continuous Testing mit GenAI vorantreiben Im Rahmen des “World Quality Report 2023-24” (PDF) von Capgemini und Opentext geben 80 Prozent der Befragten an, sie hätten ein Viertel bis die Hälfte ihrer Testautomatisierungs-Initiativen in Delivery-Pipelines integriert. Von daher ist es nicht überraschend, dass 39 Prozent der Befragten CI/CD als zweitwichtigste Kompetenz für Experten auf dem Gebiet der Qualitätssicherung ansehen – hinter Coding-Skills. “Man sollte meinen, dass die Testautomatisierung gut angenommen wird”, kommentiert David Brooks, SVP of Evangelism bei Copado das Ergebnis, und fügt hinzu: “Die Wahrheit ist, dass sich viele Unternehmen immer noch auf manuelle Tests verlassen. Und diejenigen, die automatisieren, decken kaum ein Drittel ihrer Funktionen ab. In der Praxis erweisen sich vor allem die Wartungsarbeiten als zu aufwändig.” Die Wartungsarbeiten, auf die sich der Manager bezieht, beinhalten beispielsweise: Automatisierungssoftware bei Code-Änderungen zu aktualisieren, die Test-Performance zu verbessern und die Testdaten zu erweitern. Generative AI könnte sich dabei als Game Changer für die Qualitätssicherung erweisen, wie beispielsweise Gevorg Hovsepyan, Head of Product bei Mabl, prophezeiht: “KI wird automatisierte Tests endlich zu einem verlässlichen Bestandteil von CI/CD-Pipelines machen. Zwar setzen die meisten Entwicklungsteams bereits auf GenAI, um Test Cases zu erstellen. Wenn diese aber ständig nur fehlschlagen, kommen die Pipelines zum Erliegen. Generative KI stattdessen dazu zu nutzen, Tests automatisiert zu aktualisieren, sobald sich das Produkt verändert, ist der sinnvollere Weg.” Ein weiteres Mittel, um Ihre Continuous-Testing-Bemühungen voranzutreiben: Statten Sie CI/CD Pipelines mit Performance-, Stress- und Scalability-Tests aus. Dazu empfehlen sich Performance Testing Tools mit CI/CD-Integrationsmöglichkeiten, wie zum Beispiel: Gatling, LoadNinja, LoadRunner oder Katalon. 2. Continuous Deployment anstreben Continuous Testing stellt neben Feature Flags, Canary-Release-Strategie und AIOps-Plattform eine wesentliche Voraussetzung für Continuous Deployment dar – ein Prozess, bei dem DevSecOps-Teams CI/CD erweitern, um in Produktionsumgebungen auszuliefern. Ein Continuous-Deployment-Ansatz kann insbesondere für Unternehmen von Bedeutung sein, für die es essenziell ist, Änderungen in hoher Frequenz durchzuführen und Probleme in der Applikations-Produktion möglichst schnell zu beheben. Das betrifft zum Beispiel diverse SaaS-Unternehmen und solche, die kundenorientierte oder auch geschäftskritische, interne Anwendungen entwickeln. Um zu messen, wie sich Continuous Deployment (und andere DevSecOps-Methoden) auf das Business auswirken, nutzen diese Firmen die sogenannten DORA-Metriken. Eine DORA-Metrik ist die “lead time for code changes” – also der Zeitraum zwischen Code-Commit und erfolgreichem Produktionseinsatz. Laut dem “State of CI/CD Report 2024” (PDF) kann Continuous Deployment diese Kennzahl wesentlich verringern und damit einer schlechten User Experience, möglicher Downtime und/oder Workflow-Unterbrechungen vorbeugen. Auch in diesem Bereich soll künstliche Intelligenz künftig weiter unterstützen, wie Kumar Chivukula, Gründer und CEO von Opsera, deutlich macht: “KI-gestützte DevOps-Tools versprechen eine Steigerung der Entwicklerproduktivität um 30 Prozent oder mehr. Nach der ersten Implementierungswelle suchen Unternehmen inzwischen verzweifelt nach einem automatisierten Mechanismus, um Insights, KPIs und DORA-Metriken zu erfassen, um die von den Anbieter versprochenen Benefits und den letztlich realisierten Return on Investment nachzuweisen.” 3. Hybrides CI/CD verinnerlichen Eine überraschende Erkenntnis des “State of CI/CD Report” bezieht sich auf die Anzahl der CI/CD-Plattformen, die die befragten Unternehmen einsetzen – und wie sich das auf die DORA-Metriken auswirkt. Demnach schneiden Firmen, die auf einen hybriden Ansatz aus selbst gehosteten und gemanagten CI/CD-Plattformen setzen, besser ab als diejenigen, die sich auf einen Ansatz beschränken oder die Plattformen überhaupt nicht einsetzen. Die Studie kommt darüber hinaus zu dem Schluss, dass Unternehmen, die drei oder weniger CI/CD-Plattformen einsetzen, besser fahren als solche, die mehr als drei Tools verwenden. Die Gründe, warum Unternehmen mehrere CI/CD-Plattformen einsetzen, variieren dabei. So könnte eine Firma in der Praxis beispielsweise: Copado oder Opsera verwenden, um Applikationen in Salesforce bereitzustellen, Jenkins nutzen, um Anwendungen im Rechenzentrum einsetzen, GitHub Actions für Cloud-native Anwendungen nutzen und nach der Übernahme eines Konkurrenten Implementierungen mit AWS CodeBuild und AWS CodePipeline übernehmen. 4. Shift-Left-Security mit Plugins umsetzen Ein wichtiger Aspekt in Sachen CI/CD-Pipeline-Optimierung sind Plugins von Drittanbietern. Jenkins, die CI/CD-Plattform mit dem höchsten Marktanteil, bietet etwa mehr als 1.900 solcher Plugins an – zum Beispiel Konnektoren für Git, Jira und Kubernetes. Unabdingbar ist dabei, die Plugins von Drittanbietern ausführlich zu evaluieren – insbesondere, wenn es um solche geht, die die Codequalität sicherstellen und mögliche Schwachstellen identifizieren sollen. Diese Erfordernisse führen dazu, dass solche Tools meist in bedächtigerem Tempo eingesetzt werden können, wie Aislinn Wright, VP of Product Management bei EDB, konstatiert: “Zu den Funktionen, die noch zu wenig genutzt werden gehören prädiktive Analysen, um potenzielle Deployment-Fehler zu identifizieren sowie der Einsatz von KI, um die Codequalität zu überprüfen und Fehler, Sicherheitslücken und Data-Governance-Probleme aufzuspüren. Diese Tools können die Agilität und Effizienz von DevOps-Prozessen erheblich verbessern, erfordern jedoch einen höheren Grad an technologischer Reife und erhöhten Integrationsaufwand.” Zu den Sicherheitsfunktionen, die über Plugins in CI/CD-Pipelines integriert werden können, zählen: Container Security Scanning, Static Application Security Testing, Code Quality Scanning sowie Software Supply Chain Vulnerability Checking. 5. Pipeline Observability optimieren Darüber hinaus sollten DevSecOps-Teams weitere Schritte unternehmen, um CI/CD-Pipelines abzusichern. Eine gute Ressource, um sich einen Überblick über Best Practices in diesem Bereich zu verschaffen, ist das “CI/CD Security Cheat Sheet” von OWASP. Zu den wichtigsten CI/CD-Sicherheitsrisiken gehören: Pipelines ohne Autorisierungsmaßnahmen, die versehentliche oder schadhafte Code Pushes verhindern. Lieferkettenprobleme, wenn über Dev-Workstations oder Build-Umgebungen bösartige Packages abgerufen werden. Drittanbieter-Services, die eingesetzt werden, ohne vorher angemessen validiert worden zu sein. Die Kunst für DevSecOps-Teams besteht dabei darin, eine Balance zwischen den CI/CD-Optimierungen, die die Deployment-Frequenz erhöhen und denen, die Sicherheitsrisiken minimieren, zu finden. Um Performance-Probleme erkennen, Testengpässe verfolgen und Fehler bei Problemen mit Drittanbieterdiensten suchen zu können, gilt es, auch die Observability zu optimieren. Ein Ansatz, um Security- und Operations-Überlegungen zusammenzubringen: Tools zu nutzen, die den Policy-as-Code (PaC)-Ansatz unterstützen. Diese Systeme bieten DevSecOps-Teams eine skalierbare Möglichkeit, um Security- und Operations-Regeln zu erfassen, zu implementieren und zu skalieren. Mike Scott, CISO bei Immuta, erklärt: “Policy as Code ist eine leistungsstarke Funktion, um kritische Richtlinien für hochsensible Daten konsistent zu managen und bietet ein selbstdokumentierendes, automatisiertes System für Sicherheits-, Governance- und DevOps-Teams. PaC kann mit CI/CD-Pipelines implementiert werden und stellt validierte Richtlinien automatisch in Produktionsumgebungen bereit.” DevSecOps-Organisationen mit vielen aktiven Pipelines, integrierten Services und Plugins können zudem wiederverwendbare Pipelines realisieren, wenn die zugrundeliegenden Geschäftsregeln mit PaC-Plattformen und -Services entwickelt werden. 6. Business Impact verstehen Letztlich besteht der Sinn und Zweck eines jeden technologischen Systems darin, dem Unternehmen zu dienen – meint zumindest Srikumar Ramanathan, Chief Solutions Officer bei Mphasis: “Oft lassen wir uns als Tech-Experten dazu hinreißen, die neueste und ausgefallenste Technologie zu implementieren, nur um ihrer selbst willen. ‘Shift Left’ heißt, die Dinge aus Unternehmenssicht zu betrachten. Das ist besonders wichtig, wenn es um Qualitätssicherung, Security, Observability und Automatisierung geht.” Eine Best Practice besteht darin, Nutzen- und Wertvorschläge derjenigen aufzunehmen, die von den betrieblichen und sicherheitstechnischen DevSecOps-Verbesserungen profitieren. Anschließend können DevSecOps-Teams entscheiden, welche Fähigkeiten im Fokus stehen sollten und welche Performance-Metriken echten Geschäftswert widerspiegeln. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

6 Maßnahmen für bessere CI/CD-Pipelines​ Pipelines optimal zu gestalten, ist Schwerstarbeit.
Foto: stetsko | shutterstock.com

Pipelines für Continuous Integration und Continuous Delivery (CI/CD) zu konfigurieren, um Code automatisiert zu verpacken, zu kompilieren und zu veröffentlichen, wird als grundlegende DevSecOps-Methodik angesehen. Indem sie den Weg des Codes in die Produktion automatisieren, können DevSecOps-Teams:

Fehler reduzieren,

die Deployment-Frequenz erhöhen,

Produktionsprobleme schneller lösen, sowie

ihre Teamkultur optimieren.

Wenn es darum geht, diese CI/CD Pipelines – und die zugrundeliegenden Plattformen – möglichst sinnstiftend und zukunftsfähig zu entwickeln, besteht in vielen Fällen noch Luft nach oben. Im Gespräch mit Experten auf dem Gebiet der Softwareentwicklung haben wir sechs Möglichkeiten identifiziert, wie DevSecOps-Teams ihre CI/CD Pipelines optimieren und maximalen Business Impact erzielen können.

1. Continuous Testing mit GenAI vorantreiben

Im Rahmen des “World Quality Report 2023-24” (PDF) von Capgemini und Opentext geben 80 Prozent der Befragten an, sie hätten ein Viertel bis die Hälfte ihrer Testautomatisierungs-Initiativen in Delivery-Pipelines integriert. Von daher ist es nicht überraschend, dass 39 Prozent der Befragten CI/CD als zweitwichtigste Kompetenz für Experten auf dem Gebiet der Qualitätssicherung ansehen – hinter Coding-Skills.

“Man sollte meinen, dass die Testautomatisierung gut angenommen wird”, kommentiert David Brooks, SVP of Evangelism bei Copado das Ergebnis, und fügt hinzu: “Die Wahrheit ist, dass sich viele Unternehmen immer noch auf manuelle Tests verlassen. Und diejenigen, die automatisieren, decken kaum ein Drittel ihrer Funktionen ab. In der Praxis erweisen sich vor allem die Wartungsarbeiten als zu aufwändig.”

Die Wartungsarbeiten, auf die sich der Manager bezieht, beinhalten beispielsweise:

Automatisierungssoftware bei Code-Änderungen zu aktualisieren,

die Test-Performance zu verbessern und

die Testdaten zu erweitern.

Generative AI könnte sich dabei als Game Changer für die Qualitätssicherung erweisen, wie beispielsweise Gevorg Hovsepyan, Head of Product bei Mabl, prophezeiht: “KI wird automatisierte Tests endlich zu einem verlässlichen Bestandteil von CI/CD-Pipelines machen. Zwar setzen die meisten Entwicklungsteams bereits auf GenAI, um Test Cases zu erstellen. Wenn diese aber ständig nur fehlschlagen, kommen die Pipelines zum Erliegen. Generative KI stattdessen dazu zu nutzen, Tests automatisiert zu aktualisieren, sobald sich das Produkt verändert, ist der sinnvollere Weg.”

Ein weiteres Mittel, um Ihre Continuous-Testing-Bemühungen voranzutreiben: Statten Sie CI/CD Pipelines mit Performance-, Stress- und Scalability-Tests aus. Dazu empfehlen sich Performance Testing Tools mit CI/CD-Integrationsmöglichkeiten, wie zum Beispiel:

Gatling,

LoadNinja,

LoadRunner oder

Katalon.

2. Continuous Deployment anstreben

Continuous Testing stellt neben Feature Flags, Canary-Release-Strategie und AIOps-Plattform eine wesentliche Voraussetzung für Continuous Deployment dar – ein Prozess, bei dem DevSecOps-Teams CI/CD erweitern, um in Produktionsumgebungen auszuliefern.

Ein Continuous-Deployment-Ansatz kann insbesondere für Unternehmen von Bedeutung sein, für die es essenziell ist, Änderungen in hoher Frequenz durchzuführen und Probleme in der Applikations-Produktion möglichst schnell zu beheben. Das betrifft zum Beispiel diverse SaaS-Unternehmen und solche, die kundenorientierte oder auch geschäftskritische, interne Anwendungen entwickeln. Um zu messen, wie sich Continuous Deployment (und andere DevSecOps-Methoden) auf das Business auswirken, nutzen diese Firmen die sogenannten DORA-Metriken. Eine DORA-Metrik ist die “lead time for code changes” – also der Zeitraum zwischen Code-Commit und erfolgreichem Produktionseinsatz. Laut dem “State of CI/CD Report 2024” (PDF) kann Continuous Deployment diese Kennzahl wesentlich verringern und damit einer schlechten User Experience, möglicher Downtime und/oder Workflow-Unterbrechungen vorbeugen.

Auch in diesem Bereich soll künstliche Intelligenz künftig weiter unterstützen, wie Kumar Chivukula, Gründer und CEO von Opsera, deutlich macht: “KI-gestützte DevOps-Tools versprechen eine Steigerung der Entwicklerproduktivität um 30 Prozent oder mehr. Nach der ersten Implementierungswelle suchen Unternehmen inzwischen verzweifelt nach einem automatisierten Mechanismus, um Insights, KPIs und DORA-Metriken zu erfassen, um die von den Anbieter versprochenen Benefits und den letztlich realisierten Return on Investment nachzuweisen.”

3. Hybrides CI/CD verinnerlichen

Eine überraschende Erkenntnis des “State of CI/CD Report” bezieht sich auf die Anzahl der CI/CD-Plattformen, die die befragten Unternehmen einsetzen – und wie sich das auf die DORA-Metriken auswirkt. Demnach schneiden Firmen, die auf einen hybriden Ansatz aus selbst gehosteten und gemanagten CI/CD-Plattformen setzen, besser ab als diejenigen, die sich auf einen Ansatz beschränken oder die Plattformen überhaupt nicht einsetzen. Die Studie kommt darüber hinaus zu dem Schluss, dass Unternehmen, die drei oder weniger CI/CD-Plattformen einsetzen, besser fahren als solche, die mehr als drei Tools verwenden.

Die Gründe, warum Unternehmen mehrere CI/CD-Plattformen einsetzen, variieren dabei. So könnte eine Firma in der Praxis beispielsweise:

Copado oder Opsera verwenden, um Applikationen in Salesforce bereitzustellen,

Jenkins nutzen, um Anwendungen im Rechenzentrum einsetzen,

GitHub Actions für Cloud-native Anwendungen nutzen und

nach der Übernahme eines Konkurrenten Implementierungen mit AWS CodeBuild und AWS CodePipeline übernehmen.

4. Shift-Left-Security mit Plugins umsetzen

Ein wichtiger Aspekt in Sachen CI/CD-Pipeline-Optimierung sind Plugins von Drittanbietern. Jenkins, die CI/CD-Plattform mit dem höchsten Marktanteil, bietet etwa mehr als 1.900 solcher Plugins an – zum Beispiel Konnektoren für Git, Jira und Kubernetes. Unabdingbar ist dabei, die Plugins von Drittanbietern ausführlich zu evaluieren – insbesondere, wenn es um solche geht, die die Codequalität sicherstellen und mögliche Schwachstellen identifizieren sollen.

Diese Erfordernisse führen dazu, dass solche Tools meist in bedächtigerem Tempo eingesetzt werden können, wie Aislinn Wright, VP of Product Management bei EDB, konstatiert: “Zu den Funktionen, die noch zu wenig genutzt werden gehören prädiktive Analysen, um potenzielle Deployment-Fehler zu identifizieren sowie der Einsatz von KI, um die Codequalität zu überprüfen und Fehler, Sicherheitslücken und Data-Governance-Probleme aufzuspüren. Diese Tools können die Agilität und Effizienz von DevOps-Prozessen erheblich verbessern, erfordern jedoch einen höheren Grad an technologischer Reife und erhöhten Integrationsaufwand.”

Zu den Sicherheitsfunktionen, die über Plugins in CI/CD-Pipelines integriert werden können, zählen:

Container Security Scanning,

Static Application Security Testing,

Code Quality Scanning sowie

Software Supply Chain Vulnerability Checking.

5. Pipeline Observability optimieren

Darüber hinaus sollten DevSecOps-Teams weitere Schritte unternehmen, um CI/CD-Pipelines abzusichern. Eine gute Ressource, um sich einen Überblick über Best Practices in diesem Bereich zu verschaffen, ist das “CI/CD Security Cheat Sheet” von OWASP.

Zu den wichtigsten CI/CD-Sicherheitsrisiken gehören:

Pipelines ohne Autorisierungsmaßnahmen, die versehentliche oder schadhafte Code Pushes verhindern.

Lieferkettenprobleme, wenn über Dev-Workstations oder Build-Umgebungen bösartige Packages abgerufen werden.

Drittanbieter-Services, die eingesetzt werden, ohne vorher angemessen validiert worden zu sein.

Die Kunst für DevSecOps-Teams besteht dabei darin, eine Balance zwischen den CI/CD-Optimierungen, die die Deployment-Frequenz erhöhen und denen, die Sicherheitsrisiken minimieren, zu finden. Um Performance-Probleme erkennen, Testengpässe verfolgen und Fehler bei Problemen mit Drittanbieterdiensten suchen zu können, gilt es, auch die Observability zu optimieren.

Ein Ansatz, um Security- und Operations-Überlegungen zusammenzubringen: Tools zu nutzen, die den Policy-as-Code (PaC)-Ansatz unterstützen. Diese Systeme bieten DevSecOps-Teams eine skalierbare Möglichkeit, um Security- und Operations-Regeln zu erfassen, zu implementieren und zu skalieren. Mike Scott, CISO bei Immuta, erklärt: “Policy as Code ist eine leistungsstarke Funktion, um kritische Richtlinien für hochsensible Daten konsistent zu managen und bietet ein selbstdokumentierendes, automatisiertes System für Sicherheits-, Governance- und DevOps-Teams. PaC kann mit CI/CD-Pipelines implementiert werden und stellt validierte Richtlinien automatisch in Produktionsumgebungen bereit.”

DevSecOps-Organisationen mit vielen aktiven Pipelines, integrierten Services und Plugins können zudem wiederverwendbare Pipelines realisieren, wenn die zugrundeliegenden Geschäftsregeln mit PaC-Plattformen und -Services entwickelt werden.

6. Business Impact verstehen

Letztlich besteht der Sinn und Zweck eines jeden technologischen Systems darin, dem Unternehmen zu dienen – meint zumindest Srikumar Ramanathan, Chief Solutions Officer bei Mphasis: “Oft lassen wir uns als Tech-Experten dazu hinreißen, die neueste und ausgefallenste Technologie zu implementieren, nur um ihrer selbst willen. ‘Shift Left’ heißt, die Dinge aus Unternehmenssicht zu betrachten. Das ist besonders wichtig, wenn es um Qualitätssicherung, Security, Observability und Automatisierung geht.”

Eine Best Practice besteht darin, Nutzen- und Wertvorschläge derjenigen aufzunehmen, die von den betrieblichen und sicherheitstechnischen DevSecOps-Verbesserungen profitieren. Anschließend können DevSecOps-Teams entscheiden, welche Fähigkeiten im Fokus stehen sollten und welche Performance-Metriken echten Geschäftswert widerspiegeln. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

6 Maßnahmen für bessere CI/CD-Pipelines​ Weiterlesen »

Microsoft will erneut tausende Stellen streichen​

Allgemein

width=”5462″ height=”3368″ sizes=”(max-width: 5462px) 100vw, 5462px”>Die Entlassungen gehen weiter. Wieder könnte es tausende Microsoft-Angestellte treffen.chase4concept/Shutterstock Die großen US-amerikanischen Tech-Konzerne dünnen ihre Belegschaften weiter aus. Nachdem Microsoft bereits Mitte Mai angekündigt hatte, dass 6.000 Menschen ihren Job beim weltgrößten Softwarehersteller verlieren sollen, rollt bereits einen Monat später die nächste Entlassungswelle durch die Reihen der Microsoft-Mitarbeitenden. Wie viele Beschäftigte von den aktuellen Stellenstreichungen betroffen sein werden, ist noch nicht bekannt. Laut einem Bericht der Finanznachrichtenagentur Bloomberg könnten indes wieder tausende Microsoft-Angestellte betroffen sein – diesmal vor allem in den Vertriebsabteilungen. Künstliche Intelligenz erledigt künftig viele Jobs Big Tech setzt vor allem auf den KI-Einsatz, um bestimmte Aufgaben im Unternehmen effizienter und vor allem kostengünstiger abzuwickeln. Die Verantwortlichen machen mittlerweile auch keinen Hehl mehr daraus, dass im Zuge der verstärkten Verwendung von AI-Tools, Arbeitsplätze wegfallen. Erst vor wenigen Tagen hatte Amazon-Chef Andy Jassy offen angekündigt, dass die Zahl der Mitarbeitenden beim weltgrößten Online-Händler und Cloud-Anbieter schon bald sinken werde. Der Grund: Artificial Intelligence. In einem offenen Brief an die Amazon-Belegschaft betonte der CEO, dass mehr und mehr GenAI-Tools und KI-Agenten zum Einsatz kämen und sich damit die Art und Weise, wie Arbeit erledigt werde, massiv verändere. Mensch vs KI – wer hat die besseren Job-Karten? Jassy ist nicht einzige Big-Tech-Chef, der viel Potenzial für mehr KI und weniger Jobs sieht. Ende 2024 ließ Salesfoce-CEO Marc Benioff durchblicken, der SaaS-Anbieter werde 2025 keine weiteren Softwareentwickler einstellen. Als Grund führte der Manager an, man habe die Produktivität der eigenen Entwicklungsteams mit Hilfe von Agentforce und anderer KI-Techniken um mehr als 30 Prozent steigern können. IBM-Chef Arving Krishna gab in einem Gespräch mit dem „Wall Street Journal“ kürzlich zum Besten, der IT-Pionier habe mehrere Hundert Arbeitsplätze in der Personalabteilung abgebaut, weil deren Aufgaben von KI erledigt werden könnten. Amazon-Chef Andy Jassy plant mit weniger Mitarbeitenden in den kommenden Jahren. Viele Büro-Jobs könne die KI übernehmen, glaubt der Manager.DFree – shutterstock.com Für Schlagzeilen sorgte zuletzt Tobi Lütke, der aus Deutschland stammende Mitgründer und Vorstandschef der kanadischen E-Commerce-Plattform Shopify. Lütke gab im April dieses Jahres die Direktive aus, jeder, der Mitarbeiterinnen oder Mitarbeiter einstellen möchte, müsse erst einmal nachweisen, warum diese Arbeit nicht von KI erledigt werden könne. 

Microsoft will erneut tausende Stellen streichen​ width=”5462″ height=”3368″ sizes=”(max-width: 5462px) 100vw, 5462px”>Die Entlassungen gehen weiter. Wieder könnte es tausende Microsoft-Angestellte treffen.chase4concept/Shutterstock

Die großen US-amerikanischen Tech-Konzerne dünnen ihre Belegschaften weiter aus. Nachdem Microsoft bereits Mitte Mai angekündigt hatte, dass 6.000 Menschen ihren Job beim weltgrößten Softwarehersteller verlieren sollen, rollt bereits einen Monat später die nächste Entlassungswelle durch die Reihen der Microsoft-Mitarbeitenden.

Wie viele Beschäftigte von den aktuellen Stellenstreichungen betroffen sein werden, ist noch nicht bekannt. Laut einem Bericht der Finanznachrichtenagentur Bloomberg könnten indes wieder tausende Microsoft-Angestellte betroffen sein – diesmal vor allem in den Vertriebsabteilungen.

Künstliche Intelligenz erledigt künftig viele Jobs

Big Tech setzt vor allem auf den KI-Einsatz, um bestimmte Aufgaben im Unternehmen effizienter und vor allem kostengünstiger abzuwickeln. Die Verantwortlichen machen mittlerweile auch keinen Hehl mehr daraus, dass im Zuge der verstärkten Verwendung von AI-Tools, Arbeitsplätze wegfallen.

Erst vor wenigen Tagen hatte Amazon-Chef Andy Jassy offen angekündigt, dass die Zahl der Mitarbeitenden beim weltgrößten Online-Händler und Cloud-Anbieter schon bald sinken werde. Der Grund: Artificial Intelligence. In einem offenen Brief an die Amazon-Belegschaft betonte der CEO, dass mehr und mehr GenAI-Tools und KI-Agenten zum Einsatz kämen und sich damit die Art und Weise, wie Arbeit erledigt werde, massiv verändere.

Mensch vs KI – wer hat die besseren Job-Karten?

Jassy ist nicht einzige Big-Tech-Chef, der viel Potenzial für mehr KI und weniger Jobs sieht. Ende 2024 ließ Salesfoce-CEO Marc Benioff durchblicken, der SaaS-Anbieter werde 2025 keine weiteren Softwareentwickler einstellen. Als Grund führte der Manager an, man habe die Produktivität der eigenen Entwicklungsteams mit Hilfe von Agentforce und anderer KI-Techniken um mehr als 30 Prozent steigern können. IBM-Chef Arving Krishna gab in einem Gespräch mit dem „Wall Street Journal“ kürzlich zum Besten, der IT-Pionier habe mehrere Hundert Arbeitsplätze in der Personalabteilung abgebaut, weil deren Aufgaben von KI erledigt werden könnten.

Amazon-Chef Andy Jassy plant mit weniger Mitarbeitenden in den kommenden Jahren. Viele Büro-Jobs könne die KI übernehmen, glaubt der Manager.DFree – shutterstock.com

Für Schlagzeilen sorgte zuletzt Tobi Lütke, der aus Deutschland stammende Mitgründer und Vorstandschef der kanadischen E-Commerce-Plattform Shopify. Lütke gab im April dieses Jahres die Direktive aus, jeder, der Mitarbeiterinnen oder Mitarbeiter einstellen möchte, müsse erst einmal nachweisen, warum diese Arbeit nicht von KI erledigt werden könne.

Microsoft will erneut tausende Stellen streichen​ Weiterlesen »

9 Naming-Praktiken zum Abgewöhnen​

Allgemein

Geht’s um Naming, sollten Sie als Dev am besten so agieren, als würde Ihr Code von einem Psychopathen gewartet – der ganz genau weiß, wo Sie wohnen.Master1305 | shutterstock.com Ein betagter, aber immer noch beliebter Witz in Programmiererkreisen: Es gibt zwei schwierige Dinge bei der Programmierarbeit: Cache Invalidation, Naming und Off-by-One-Fehler. Während Erstgenanntes tatsächlich komplex ist und Letztgenanntes die Pointe darstellt, wirft die Einordnung von Naming Fragen auf. Denn Dinge in der Softwareentwicklung zu benennen, ist eigentlich simpel. Zumindest sollte es das sein. Leider legen jedoch nicht wenige Developer aus Gründen eine gewisse Aversion an den Tag, wenn es um Naming geht – und machen sich (und anderen) damit das Leben unnötig schwer. Schließlich können sinnvolle Benennungen nicht nur die kognitive Belastung bei der Codepflege erheblich reduzieren. Sie tragen auch dazu bei, Fehler zu vermeiden und Bugs zu verhindern.   In diesem Artikel beleuchten wir neun ausgesprochen schlechte Naming-Angewohnheiten, die Entwickler dringend abstellen sollten. Und geben einige Tipps, wie es besser geht.   1. Wissen voraussetzen Wissen vorauszusetzen, ist in vielen Fällen der erste Schritt in den Naming-Untergang. Sie wissen vielleicht mit Sicherheit, dass EmpNo für „Employee Number“ steht und es sich um die unique ID in der Datenbank handelt. Ein neuer Dev hält es hingegen für etwas anderes, das nichts mit den Werten in der DB zu tun hat. Wieso also nicht einfach die Dinge eindeutig beim Namen nennen? Zum Beispiel in Form von EmployeeUniqueIDInDatabase. Das ist zugegeben etwas lang, dafür sind folgenreiche Verwechslungen aber dank des klaren, deskriptiven Namings ausgeschlossen. Das Argument “zu viel Tipparbeit” greift auch an dieser Stelle nicht. Erstens ist Faulheit keine Option. Zweitens übernimmt heutzutage die IDE das Gros der Tastaturarbeit.   2. Präzision vernachlässigen Manchmal ist die Semantik einer Benennung nicht präzise genug – was im Laufe der Zeit zu “inhaltlichen Verschiebungen” führen kann. Sie könnten etwa die Methode SaveReceipt implementieren, um eine Kopie von Belegen in der Datenbank abzulegen. Nachträglich erweitern Sie die Routine dann vielleicht um Printing und verlagern den eigentlichen Speichervorgang in eine andere Methode. Und schon führt das gewählte Naming auf den Holzweg.   Die Wahrscheinlichkeit, dass es dazu kommt, sinkt dramatisch, wenn Sie von Anfang an auf eine eindeutige Benennung im Stil von SaveReceiptToTheDatabase setzen. 3. Faulenzerei vorziehen Naming ist zwar nicht diffizil, verlangt aber ein bisschen Denkarbeit – die Zeit kostet. Weil viele Devs sich diese nicht nehmen wollen (oder können), kommt es immer wieder zu Dummheiten wie Variablennamen, die aus einem einzelnen Buchstaben bestehen (einzige Ausnahme: i als Variable in einem Loop, aber selbst dann wäre Index die deutlich bessere Wahl). Stattdessen sollten Sie einer Variablen einen wirklich aussagekräftigen Namen zugestehen. Es mag etwas Zeit und Mühe kosten, lohnt sich aber. Sparen Sie sich zum Beispiel so etwas:   If (EmployeeNumber > 0) and (OrderNumber > 0) { // … } Und gehen Sie stattdessen die Extrameile: EmployeeIsValid = EmployeeUniqueIDInDatabase > 0; ThereIsAnOrder = OrderNumber > 0; ItIsOkayToProcessTheOrder := EmployeeIsValid and ThereIsAnOrder; If ItIsOkayToProcessTheOrder { // … } Das ist um Welten besser lesbar – und den Variablennamen ist klar zu entnehmen, wofür sie stehen. 4. Abkürzungen verfallen Faulheit ist zwar keine Option, Hektik aber ebenso wenig. Denn die führt im Regelfall nur dazu, dass eindeutiges Naming unklaren und vor allem unnötigen Abkürzungen weichen muss. Die 0,876 Sekunden, die Sie mit acctBlnc im Vergleich zu accountBalance sparen, sind wertlos, wenn es dadurch zig Stunden länger dauert, den Code zu warten. Und davon abgesehen: Um welche Account Balance geht es überhaupt? Die des Unternehmens? Die des Kunden?   Auch an dieser Stelle hilft nur: Austippen. Kürzen Sie am besten einfach gar nichts ab (von Standards wie URL und http einmal abgesehen). Das kann auch dazu beitragen, die unbegründete “Angst” vor erklärendem, klaren Naming abzustreifen. 5. Funktionen schwammig benennen Methoden sollten mit Verben benannt werden und vollständig beschreiben, was sie tun. So ist getCustomer ein guter Anfang – lässt aber Fragen offen: Woher wird der Kunde geholt? Und was genau wird dabei geholt? Die bessere Option: getCustomerInstanceFromDatabase. 6. Konsistenz über Bord werfen Wenn Sie Customer verwenden, um einen Kunden zu bezeichnen, der etwas am Point-of-Sale-System kauft, sollten Sie auch sicherstellen, dass dieses Naming überall zum Zuge kommt. Den Kunden in anderen Modulen als Client oder Buyer zu bezeichnen, führt ins Unglück. Nutzen Sie dieselben Begrifflichkeiten konsistent in Ihrem gesamten Repository. 7. Ins Negativ abdriften Insbesondere, wenn es um Booleans geht, sollten Sie auf ein positives Naming setzen, statt auf Grausamkeiten wie isNotValid oder denyAccess: if (!IsNotValid) or (!denyAccess) {   // … } Vermeiden Sie doppelte Verneinungen in Ihrem Code unter allen Umständen. 8. Präfixe einsetzen In früheren Zeiten war die ungarische Notation sehr beliebt: Dabei wurden sämtliche Namen mit einem Präfix versehen, das definierte, um was es sich genau handelt. Das ist allerdings inzwischen aus der Mode gekommen, weil es zu komplex wurde. Ich für meinen Teil bevorzuge Namen, die aussagekräftig genug sind, um dem Maintainer zu vermitteln, was Sache ist. Beispielsweise handelt es sich bei EmployeeCount offensichtlich um eine Ganzzahl, bei FirstName um einen String. Manche Devs nutzen auch ein Buchstaben-Präfix für ihre Variablennamen, um deren Rolle in einer Methode anzugeben – etwa l für lokale Variablen und a für Methodenargumente oder Parameter. Ich bin davon nicht überzeugt. Im Gegenteil: Wenn Ihre Methoden so ausufern, dass nicht auf den ersten Blick ersichtlich ist, welche Rolle eine Variable spielt, ist Refactoring angebracht. 9. Kauderwelsch nutzen Zu vermeiden sind in Sachen Naming außerdem auch Wörter, die keine wirkliche Bedeutung aufweisen. Sehen Sie von “Naming-Junkfood” ab wie: Helper, Handler, Service, Util, Process, Info, Data, Task, Object oder Stuff. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

9 Naming-Praktiken zum Abgewöhnen​ Geht’s um Naming, sollten Sie als Dev am besten so agieren, als würde Ihr Code von einem Psychopathen gewartet – der ganz genau weiß, wo Sie wohnen.Master1305 | shutterstock.com

Ein betagter, aber immer noch beliebter Witz in Programmiererkreisen:

Es gibt zwei schwierige Dinge bei der Programmierarbeit: Cache Invalidation, Naming und Off-by-One-Fehler.

Während Erstgenanntes tatsächlich komplex ist und Letztgenanntes die Pointe darstellt, wirft die Einordnung von Naming Fragen auf. Denn Dinge in der Softwareentwicklung zu benennen, ist eigentlich simpel. Zumindest sollte es das sein. Leider legen jedoch nicht wenige Developer aus Gründen eine gewisse Aversion an den Tag, wenn es um Naming geht – und machen sich (und anderen) damit das Leben unnötig schwer. Schließlich können sinnvolle Benennungen nicht nur die kognitive Belastung bei der Codepflege erheblich reduzieren. Sie tragen auch dazu bei, Fehler zu vermeiden und Bugs zu verhindern.  

In diesem Artikel beleuchten wir neun ausgesprochen schlechte Naming-Angewohnheiten, die Entwickler dringend abstellen sollten. Und geben einige Tipps, wie es besser geht.  

1. Wissen voraussetzen

Wissen vorauszusetzen, ist in vielen Fällen der erste Schritt in den Naming-Untergang. Sie wissen vielleicht mit Sicherheit, dass EmpNo für „Employee Number“ steht und es sich um die unique ID in der Datenbank handelt. Ein neuer Dev hält es hingegen für etwas anderes, das nichts mit den Werten in der DB zu tun hat.

Wieso also nicht einfach die Dinge eindeutig beim Namen nennen? Zum Beispiel in Form von EmployeeUniqueIDInDatabase. Das ist zugegeben etwas lang, dafür sind folgenreiche Verwechslungen aber dank des klaren, deskriptiven Namings ausgeschlossen. Das Argument “zu viel Tipparbeit” greift auch an dieser Stelle nicht. Erstens ist Faulheit keine Option. Zweitens übernimmt heutzutage die IDE das Gros der Tastaturarbeit.  

2. Präzision vernachlässigen

Manchmal ist die Semantik einer Benennung nicht präzise genug – was im Laufe der Zeit zu “inhaltlichen Verschiebungen” führen kann. Sie könnten etwa die Methode SaveReceipt implementieren, um eine Kopie von Belegen in der Datenbank abzulegen. Nachträglich erweitern Sie die Routine dann vielleicht um Printing und verlagern den eigentlichen Speichervorgang in eine andere Methode. Und schon führt das gewählte Naming auf den Holzweg.  

Die Wahrscheinlichkeit, dass es dazu kommt, sinkt dramatisch, wenn Sie von Anfang an auf eine eindeutige Benennung im Stil von SaveReceiptToTheDatabase setzen.

3. Faulenzerei vorziehen

Naming ist zwar nicht diffizil, verlangt aber ein bisschen Denkarbeit – die Zeit kostet. Weil viele Devs sich diese nicht nehmen wollen (oder können), kommt es immer wieder zu Dummheiten wie Variablennamen, die aus einem einzelnen Buchstaben bestehen (einzige Ausnahme: i als Variable in einem Loop, aber selbst dann wäre Index die deutlich bessere Wahl). Stattdessen sollten Sie einer Variablen einen wirklich aussagekräftigen Namen zugestehen. Es mag etwas Zeit und Mühe kosten, lohnt sich aber.

Sparen Sie sich zum Beispiel so etwas:  

If (EmployeeNumber > 0) and (OrderNumber > 0) {
// …
}

Und gehen Sie stattdessen die Extrameile:

EmployeeIsValid = EmployeeUniqueIDInDatabase > 0;
ThereIsAnOrder = OrderNumber > 0;
ItIsOkayToProcessTheOrder := EmployeeIsValid and ThereIsAnOrder;
If ItIsOkayToProcessTheOrder {
// …
}

Das ist um Welten besser lesbar – und den Variablennamen ist klar zu entnehmen, wofür sie stehen.

4. Abkürzungen verfallen

Faulheit ist zwar keine Option, Hektik aber ebenso wenig. Denn die führt im Regelfall nur dazu, dass eindeutiges Naming unklaren und vor allem unnötigen Abkürzungen weichen muss. Die 0,876 Sekunden, die Sie mit acctBlnc im Vergleich zu accountBalance sparen, sind wertlos, wenn es dadurch zig Stunden länger dauert, den Code zu warten. Und davon abgesehen: Um welche Account Balance geht es überhaupt? Die des Unternehmens? Die des Kunden?  

Auch an dieser Stelle hilft nur: Austippen. Kürzen Sie am besten einfach gar nichts ab (von Standards wie URL und http einmal abgesehen). Das kann auch dazu beitragen, die unbegründete “Angst” vor erklärendem, klaren Naming abzustreifen.

5. Funktionen schwammig benennen

Methoden sollten mit Verben benannt werden und vollständig beschreiben, was sie tun. So ist getCustomer ein guter Anfang – lässt aber Fragen offen: Woher wird der Kunde geholt? Und was genau wird dabei geholt?

Die bessere Option: getCustomerInstanceFromDatabase.

6. Konsistenz über Bord werfen

Wenn Sie Customer verwenden, um einen Kunden zu bezeichnen, der etwas am Point-of-Sale-System kauft, sollten Sie auch sicherstellen, dass dieses Naming überall zum Zuge kommt. Den Kunden in anderen Modulen als Client oder Buyer zu bezeichnen, führt ins Unglück.

Nutzen Sie dieselben Begrifflichkeiten konsistent in Ihrem gesamten Repository.

7. Ins Negativ abdriften

Insbesondere, wenn es um Booleans geht, sollten Sie auf ein positives Naming setzen, statt auf Grausamkeiten wie isNotValid oder denyAccess:

if (!IsNotValid) or (!denyAccess) {
  // …
}

Vermeiden Sie doppelte Verneinungen in Ihrem Code unter allen Umständen.

8. Präfixe einsetzen

In früheren Zeiten war die ungarische Notation sehr beliebt: Dabei wurden sämtliche Namen mit einem Präfix versehen, das definierte, um was es sich genau handelt. Das ist allerdings inzwischen aus der Mode gekommen, weil es zu komplex wurde. Ich für meinen Teil bevorzuge Namen, die aussagekräftig genug sind, um dem Maintainer zu vermitteln, was Sache ist. Beispielsweise handelt es sich bei EmployeeCount offensichtlich um eine Ganzzahl, bei FirstName um einen String.

Manche Devs nutzen auch ein Buchstaben-Präfix für ihre Variablennamen, um deren Rolle in einer Methode anzugeben – etwa l für lokale Variablen und a für Methodenargumente oder Parameter. Ich bin davon nicht überzeugt. Im Gegenteil: Wenn Ihre Methoden so ausufern, dass nicht auf den ersten Blick ersichtlich ist, welche Rolle eine Variable spielt, ist Refactoring angebracht.

9. Kauderwelsch nutzen

Zu vermeiden sind in Sachen Naming außerdem auch Wörter, die keine wirkliche Bedeutung aufweisen.

Sehen Sie von “Naming-Junkfood” ab wie:

Helper,

Handler,

Service,

Util,

Process,

Info,

Data,

Task,

Object oder

Stuff.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

9 Naming-Praktiken zum Abgewöhnen​ Weiterlesen »

JSX-Einführung: HTML, das JavaScript kann​

Allgemein

Wenn Sie JSX einmal verstanden haben, können Sie dieses Knowhow auf andere Reactive-Frameworks und ihre Templating-Sprachen übertragen. Foto: Kishore Newton | shutterstock.com JSX bietet die Möglichkeit, HTML-Code innerhalb von JavaScript zu schreiben. Dabei fühlt es sich allerdings eher danach an, als würde man JavaScript innerhalb von HTML nutzen. Als Templating-Sprache wird sie von einigen Entwicklern geliebt und von anderen verabscheut. In diesem Artikel lesen Sie, wie JSX funktioniert – und warum es von Bedeutung ist. Templates erstellen mit JSX Eingeführt wurde JSX (JavaScript Syntax Extension) als Templating-Sprache für das populäre React-Framework. Sie ermöglicht, die Struktur einer Anwendungsansicht mit HTML-Markup zu definieren, das mit dem JavaScript-Kontext der Anwendung interagiert. Inzwischen ist JSX der Defacto-Standard für reaktive Templating-Engines – und hat zahlreiche andere inspiriert (Vue, Svelte, Angular). Der eben beschriebene Grundgedanke von JSX bricht mit der Konvention, Ansicht (View) und Verhalten (Behavior) voneinander zu trennen. Das ist auch ursächlich für die gespaltene Entwickler-Community, wenn es um JSX geht. Unabhängig von dieser prinzipiellen Kontroverse fokussieren wir uns in diesem Artikel darauf, zu verstehen, wie JSX zu verwenden ist. Im Folgenden sehen Sie, wie JSX in einer React-Anwendung aussieht (zur Live-Version): import React from ‘react’; export function App(props) {   return (           Greetings from InfoWorld       This is some JSX       ); } Wenn Sie die Inhalte innerhalb von betrachten, werden Sie feststellen, dass es sich nur um HTML-Code handelt – der in JavaScript verpackt ist. Das HTML stellt einen Rückgabewert (Return Value) für die Funktion App (eine funktionale Komponente in React). Das JSX-Markup ist der Rückgabewert der Funktion. Im Wesentlichen teilt der JSX-Rückgabewert der React-Rendering-Engine mit, wie der Output der Komponente aussieht. HTML in JavaScript Inzwischen ist es alltäglich geworden, Markup als JavaScript-Einbettung zu sehen. In der Tat ist es auch sehr praktisch, beides zusammen zu bringen. Nehmen wir an, wir wollen eine Variable in das Markup einfügen. Das ließe sich folgendermaßen bewerkstelligen (Live-Version): export function App(props) {   let [name, setName] = React.useState(“User”);   return (           Greetings from InfoWorld       Hello {name}       ); } Jetzt verwenden wir die Variable “name” innerhalb des JSX-Parts. Diese Variable wird mit dem React.useState-Hook erstellt. Es kann sich aber um eine beliebige JavaScript-Variable handeln, solange sie im Geltungsbereich liegt. Bei der Verwendung funktionaler Komponenten ist der useState-Hook der richtige Weg, um eine Variable in JSX zu nutzen. Die geschweiften Klammern, die name im JSX-Template umgeben, bezeichnen eine JSX-Expression. Diese ermöglichen es Ihnen, JavaScript-Expressions innerhalb des Markups auszuführen – sowie auf Variablen Bezug zu nehmen. Letzteres funktioniert, weil das JavaScript im größeren Kontext des umgebenden Codes ausgeführt wird. Zusammengefasst erhalten Sie also alle Möglichkeiten von JavaScript, importierte Bibliotheken wie das React-Framework und eine vollständige HTML-Syntax, die auf diese Funktionen verweisen kann. Dabei gilt es zu beachten, dass JSX zwar Expressions nutzen kann, aber kein vollständiges JavaScript. Es gibt das Ergebnis der Expression in der Ansicht an der Stelle aus, an der es im Template zu finden ist. Dinge, die keine Value zurückgeben, etwa Loops, funktionieren nicht. Insofern unterscheidet sich JSX von anderen Templating-Tools. Looping mit JSX Looping gehört zu den wichtigeren Dingen, die Sie mit JSX erledigen können. Nehmen wir an, wir haben ein Array von Hunderassen im Gültigkeitsbereich und wollen diese nun anzeigen lassen. Das würde folgendermaßen funktionieren (Live-Version):     Greetings from InfoWorld         {breeds.map((breed) => {     return {breed};   })} Wir verwenden hier die map-Funktion, um die Hunderassen zu durchlaufen und das Markup für jede einzelne auszugeben. Das Ergebnis ist HTML/JSX innerhalb von JavaScript, innerhalb von HTML/JSX, innerhalb von JavaScript. Die Code-Menge ließe sich noch weiter reduzieren, indem wir das Return-Statement weglassen: {breeds.map((breed) => {breed} )} Denken Sie dabei daran, dass Sie die anderen funktionalen Methoden wie filter und reduce verwenden können, um Collections als Loops auszugeben. Sie können auch immer im JavaScript der jeweiligen Komponente selbst die Datenvariablen ändern und diese dann in der JSX anzeigen, falls erforderlich. Sie können sogar den HTML-Code innerhalb des JavaScript schreiben und ihn direkt in der JSX anzeigen. Conditionals bei JSX Eine weitere Schlüsselfunktion bei JSX ist der Umgang mit Conditional Control Flow wie if/then/else. Wenn wir beim Looping der Hunderassen aus unserem Beispiel bestimmte Bedingungen prüfen wollen – etwa ob ein breedOrigin-Feld existent ist – funktioniert das (auf Grundlage unseres bisherigen Aufbaus) so (Live-Version): {breeds.map((breed) =>   {     breed.breedInfo ? breed.name + “: ” + breed.breedInfo : breed.name} )} Hierbei nutzen wir einen ternären Operator (X ? Y : Z), der üblicherweise verwendet wird, um if/then/else-Entscheidungen innerhalb einer JSX-Expression zu treffen. Eine weitere Conditional-Rendering-Möglichkeit besteht darin, einen Test Case zu verwenden. Dabei wird das Markup nur dann gerendert, wenn der Test erfolgreich verläuft. Wollen wir die Liste beispielsweise nur rendern, wenn das Array Elemente aufweist (ein häufiges Szenario, wenn Daten von einer Remote-API geladen werden), würden wir so vorgehen (Live-Version):       Greetings from InfoWorld             { breeds.length > 0 &&         {breeds.map((breed) => {breed.breedInfo ? breed.name + “: ” + breed.breedInfo : breed.name} )}         >       }     Wenn Sie die breeds-Variable als leeres Array setzen, wird das JSX nichts darstellen. Wahrscheinlich haben Sie in obenstehendem Code auch die leeren Element-Tags bemerkt ( und ). Dabei handelt es sich um React-Fragmente, die von JSX unterstützt werden. Wir hätten auch verwenden können, aber ist idiomatischer. Mit Fragmenten können Sie viele JSX-Elemente verpacken, ohne einen nicht-semantischen Wrapper zu erstellen. Events in JSX Eine weitere essenzielle JSX-Fähigkeit, die Sie kennen sollten, ist die Ereignisbehandlung. Angenommen, wir möchten, dass Benutzer auf eine Hunderasse klicken können, um die Wikipedia-Seite für diese zu öffnen. Das ließe sich folgendermaßen umsetzen (Live-Version): let [breeds, setBreeds] = React.useState([     {name:’Shih Tzu’,breedInfo:’Pekanese and Lhasa Apso cross’,link:’https://en.wikipedia.org/wiki/Shih_Tzu’},     {name:’Labradoodle’, link:’https://en.wikipedia.org/wiki/Labradoodle’},     {name:’Vizla’,breedInfo:’Hungarian breed’},     {name:’Catahoula’}   ]);   const handleBreedClick = (wikiLink) => {     window.open(wikiLink, ‘_blank’);   };   return (           Greetings from InfoWorld              { breeds.length > 0 &&                   {breeds.map((breed) =>             handleBreedClick(breed.link)}>{breed.breedInfo ? breed.name + “: ” + breed.breedInfo : breed.name}                       )}                 >       }       ); Hier definieren wir eine handleBreedClick-Funktion, um auf den Event zu reagieren. Das öffnet den Wikipedia-Link in einem neuen Fenster. Um das Ereignis zu senden, verwenden wir einen JSX onClick-Handler (onClick={() => handleBreedClick(breed.link)}). Der funktioniert genauso wie ein normaler HTML-Handler – lediglich die Schreibweise unterscheidet sich. Darüber hinaus können Sie auch Inline-Event-Handler definieren – etwa eine klickbare Alarmmeldung: { alert(breed.name)}} />. Im Allgemeinen können Sie JSX-Expressions in geschweiften Klammern verwenden, um Werte für Properties von HTML-Elementen anzugeben. Styling mit JSX JSX-Elemente unterstützen auch CSS-Styles. Hier ein Beispiel (Live-Version): const listItemStyle = {     cursor: ‘pointer’,     margin: ’10px 0′,     padding: ‘5px’,     backgroundColor: ‘#f5f5f5’,     border: ‘1px solid #ccc’,     borderRadius: ‘5px’,   }; // … same Genau wie bei den Ereignissen definieren wir eine Variable in JavaScript und verweisen dann in der Property auf sie. In diesem Fall verwenden wir die style-Eigenschaft und versehen sie mit einem JavaScript-Objekt. Das Objekt sollte aus einer Reihe von Key Values bestehen, wobei der Schlüssel der Name der CSS-Eigenschaft und der Wert den CSS-Value-String darstellt. Um einen Inline-Stil zu verwenden, verwenden Sie das Format der doppelten geschwungenen Klammer (Live-Version): (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

JSX-Einführung: HTML, das JavaScript kann​ Wenn Sie JSX einmal verstanden haben, können Sie dieses Knowhow auf andere Reactive-Frameworks und ihre Templating-Sprachen übertragen.
Foto: Kishore Newton | shutterstock.com

JSX bietet die Möglichkeit, HTML-Code innerhalb von JavaScript zu schreiben. Dabei fühlt es sich allerdings eher danach an, als würde man JavaScript innerhalb von HTML nutzen. Als Templating-Sprache wird sie von einigen Entwicklern geliebt und von anderen verabscheut. In diesem Artikel lesen Sie, wie JSX funktioniert – und warum es von Bedeutung ist.

Templates erstellen mit JSX

Eingeführt wurde JSX (JavaScript Syntax Extension) als Templating-Sprache für das populäre React-Framework. Sie ermöglicht, die Struktur einer Anwendungsansicht mit HTML-Markup zu definieren, das mit dem JavaScript-Kontext der Anwendung interagiert. Inzwischen ist JSX der Defacto-Standard für reaktive Templating-Engines – und hat zahlreiche andere inspiriert (Vue, Svelte, Angular). Der eben beschriebene Grundgedanke von JSX bricht mit der Konvention, Ansicht (View) und Verhalten (Behavior) voneinander zu trennen. Das ist auch ursächlich für die gespaltene Entwickler-Community, wenn es um JSX geht.

Unabhängig von dieser prinzipiellen Kontroverse fokussieren wir uns in diesem Artikel darauf, zu verstehen, wie JSX zu verwenden ist. Im Folgenden sehen Sie, wie JSX in einer React-Anwendung aussieht (zur Live-Version):

import React from ‘react’;
export function App(props) {
  return (
   
      Greetings from InfoWorld
      This is some JSX
   
  );
}

Wenn Sie die Inhalte innerhalb von betrachten, werden Sie feststellen, dass es sich nur um HTML-Code handelt – der in JavaScript verpackt ist. Das HTML stellt einen Rückgabewert (Return Value) für die Funktion App (eine funktionale Komponente in React). Das JSX-Markup ist der Rückgabewert der Funktion.

Im Wesentlichen teilt der JSX-Rückgabewert der React-Rendering-Engine mit, wie der Output der Komponente aussieht.

HTML in JavaScript

Inzwischen ist es alltäglich geworden, Markup als JavaScript-Einbettung zu sehen. In der Tat ist es auch sehr praktisch, beides zusammen zu bringen. Nehmen wir an, wir wollen eine Variable in das Markup einfügen. Das ließe sich folgendermaßen bewerkstelligen (Live-Version):

export function App(props) {
  let [name, setName] = React.useState(“User”);
  return (
   
      Greetings from InfoWorld
      Hello {name}
   
  );
}

Jetzt verwenden wir die Variable “name” innerhalb des JSX-Parts. Diese Variable wird mit dem React.useState-Hook erstellt. Es kann sich aber um eine beliebige JavaScript-Variable handeln, solange sie im Geltungsbereich liegt. Bei der Verwendung funktionaler Komponenten ist der useState-Hook der richtige Weg, um eine Variable in JSX zu nutzen.

Die geschweiften Klammern, die name im JSX-Template umgeben, bezeichnen eine JSX-Expression. Diese ermöglichen es Ihnen, JavaScript-Expressions innerhalb des Markups auszuführen – sowie auf Variablen Bezug zu nehmen. Letzteres funktioniert, weil das JavaScript im größeren Kontext des umgebenden Codes ausgeführt wird. Zusammengefasst erhalten Sie also alle Möglichkeiten von JavaScript, importierte Bibliotheken wie das React-Framework und eine vollständige HTML-Syntax, die auf diese Funktionen verweisen kann.

Dabei gilt es zu beachten, dass JSX zwar Expressions nutzen kann, aber kein vollständiges JavaScript. Es gibt das Ergebnis der Expression in der Ansicht an der Stelle aus, an der es im Template zu finden ist. Dinge, die keine Value zurückgeben, etwa Loops, funktionieren nicht. Insofern unterscheidet sich JSX von anderen Templating-Tools.

Looping mit JSX

Looping gehört zu den wichtigeren Dingen, die Sie mit JSX erledigen können. Nehmen wir an, wir haben ein Array von Hunderassen im Gültigkeitsbereich und wollen diese nun anzeigen lassen. Das würde folgendermaßen funktionieren (Live-Version):

    Greetings from InfoWorld
   
    {breeds.map((breed) => {
    return {breed};
  })}

Wir verwenden hier die map-Funktion, um die Hunderassen zu durchlaufen und das Markup für jede einzelne auszugeben. Das Ergebnis ist HTML/JSX innerhalb von JavaScript, innerhalb von HTML/JSX, innerhalb von JavaScript. Die Code-Menge ließe sich noch weiter reduzieren, indem wir das Return-Statement weglassen:

{breeds.map((breed) => {breed} )}

Denken Sie dabei daran, dass Sie die anderen funktionalen Methoden wie filter und reduce verwenden können, um Collections als Loops auszugeben. Sie können auch immer im JavaScript der jeweiligen Komponente selbst die Datenvariablen ändern und diese dann in der JSX anzeigen, falls erforderlich. Sie können sogar den HTML-Code innerhalb des JavaScript schreiben und ihn direkt in der JSX anzeigen.

Conditionals bei JSX

Eine weitere Schlüsselfunktion bei JSX ist der Umgang mit Conditional Control Flow wie if/then/else. Wenn wir beim Looping der Hunderassen aus unserem Beispiel bestimmte Bedingungen prüfen wollen – etwa ob ein breedOrigin-Feld existent ist – funktioniert das (auf Grundlage unseres bisherigen Aufbaus) so (Live-Version):

{breeds.map((breed) =>
  {
    breed.breedInfo ? breed.name + “: ” + breed.breedInfo : breed.name} )}

Hierbei nutzen wir einen ternären Operator (X ? Y : Z), der üblicherweise verwendet wird, um if/then/else-Entscheidungen innerhalb einer JSX-Expression zu treffen.

Eine weitere Conditional-Rendering-Möglichkeit besteht darin, einen Test Case zu verwenden. Dabei wird das Markup nur dann gerendert, wenn der Test erfolgreich verläuft. Wollen wir die Liste beispielsweise nur rendern, wenn das Array Elemente aufweist (ein häufiges Szenario, wenn Daten von einer Remote-API geladen werden), würden wir so vorgehen (Live-Version):

      Greetings from InfoWorld
     
      { breeds.length > 0 &&
        {breeds.map((breed) => {breed.breedInfo ? breed.name + “: ” + breed.breedInfo : breed.name} )}
        >
      }
   

Wenn Sie die breeds-Variable als leeres Array setzen, wird das JSX nichts darstellen. Wahrscheinlich haben Sie in obenstehendem Code auch die leeren Element-Tags bemerkt ( und ). Dabei handelt es sich um React-Fragmente, die von JSX unterstützt werden. Wir hätten auch verwenden können, aber ist idiomatischer. Mit Fragmenten können Sie viele JSX-Elemente verpacken, ohne einen nicht-semantischen Wrapper zu erstellen.

Events in JSX

Eine weitere essenzielle JSX-Fähigkeit, die Sie kennen sollten, ist die Ereignisbehandlung. Angenommen, wir möchten, dass Benutzer auf eine Hunderasse klicken können, um die Wikipedia-Seite für diese zu öffnen. Das ließe sich folgendermaßen umsetzen (Live-Version):

let [breeds, setBreeds] = React.useState([
    {name:’Shih Tzu’,breedInfo:’Pekanese and Lhasa Apso cross’,link:’https://en.wikipedia.org/wiki/Shih_Tzu’},
    {name:’Labradoodle’, link:’https://en.wikipedia.org/wiki/Labradoodle’},
    {name:’Vizla’,breedInfo:’Hungarian breed’},
    {name:’Catahoula’}
  ]);
  const handleBreedClick = (wikiLink) => {
    window.open(wikiLink, ‘_blank’);
  };
  return (
   
      Greetings from InfoWorld
      
      { breeds.length > 0 &&
       
          {breeds.map((breed) =>
            handleBreedClick(breed.link)}>{breed.breedInfo ? breed.name + “: ” + breed.breedInfo : breed.name}
           
          )}
       
        >
      }
   
  );

Hier definieren wir eine handleBreedClick-Funktion, um auf den Event zu reagieren. Das öffnet den Wikipedia-Link in einem neuen Fenster. Um das Ereignis zu senden, verwenden wir einen JSX onClick-Handler (onClick={() => handleBreedClick(breed.link)}). Der funktioniert genauso wie ein normaler HTML-Handler – lediglich die Schreibweise unterscheidet sich.

Darüber hinaus können Sie auch Inline-Event-Handler definieren – etwa eine klickbare Alarmmeldung: { alert(breed.name)}} />. Im Allgemeinen können Sie JSX-Expressions in geschweiften Klammern verwenden, um Werte für Properties von HTML-Elementen anzugeben.

Styling mit JSX

JSX-Elemente unterstützen auch CSS-Styles. Hier ein Beispiel (Live-Version):

const listItemStyle = {
    cursor: ‘pointer’,
    margin: ’10px 0′,
    padding: ‘5px’,
    backgroundColor: ‘#f5f5f5’,
    border: ‘1px solid #ccc’,
    borderRadius: ‘5px’,
  };
// … same

Genau wie bei den Ereignissen definieren wir eine Variable in JavaScript und verweisen dann in der Property auf sie. In diesem Fall verwenden wir die style-Eigenschaft und versehen sie mit einem JavaScript-Objekt. Das Objekt sollte aus einer Reihe von Key Values bestehen, wobei der Schlüssel der Name der CSS-Eigenschaft und der Wert den CSS-Value-String darstellt.

Um einen Inline-Stil zu verwenden, verwenden Sie das Format der doppelten geschwungenen Klammer (Live-Version):

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

JSX-Einführung: HTML, das JavaScript kann​ Weiterlesen »

Was einen zum guten Chef macht​

Allgemein

Die Diskrepanz zwischen erfolgreichen Unternehmen und Flop-Unternehmen geht zu 15 Prozent auf das Verhalten der Chefs zurück.Sergey Nivens – shutterstock.com “Ich Chef, Du Nix”, lautet der Aufdruck eines dieser mäßig lustigen T-Shirts in Bahnhofsläden. Bob Sutton, Professor für Management Science and Engineering an der Stanford University, kann über so etwas sicher nicht lachen. Er behauptet: Für drei von vier Beschäftigten ist ihr Vorgesetzter Stress-Faktor Nummer Eins. In einer Publikation des Unternehmensberaters McKinsey klärt Sutton darüber auf, was gute Chefs von schlechten unterscheidet. Suttons These: Die Diskrepanz zwischen erfolgreichen Unternehmen und Flop-Firmen geht zu 15 Prozent auf das Verhalten der Chefs zurück. Er spricht hier nicht von Fachkenntnissen, sondern von Soft Skills. Führungskräfte prägen die gesamte Unternehmenskultur, weil ihr Verhalten auf die Belegschaft abfärbt, so der Stanford-Professor. Gute Chefs zeichnen sich dadurch aus, dass sie ihre Mitarbeiter ermutigen und sich bei Problemen schützend vor sie stellen. Außerdem übernehmen sie die Verantwortung für eigene Fehler. Das heißt konkret: 1. Ein guter Chef demonstriert auch dann Vertrauen, wenn er keines hat. So hat es zum Beispiel Andy Grove gehalten, Intel-CEO von 1987 bis 1998. Grove behauptet, eine Führungskraft könne durch ihr Verhalten Realitäten beeinflussen. These: Wenn der Chef sich von einer Entscheidung überzeugt zeigt und seinen Mitarbeitern das auch vermittelt, arbeiten diese effizienter (weil vertrauensvoller und konzentrierter). Es passieren weniger Fehler. Das schlägt sich früher oder später in der Performance nieder. https://imasdk.googleapis.com/js/core/bridge3.704.0_de.html#fid=goog_221877855 0 seconds of 2 minutes, 20 secondsVolume 0% 01:58 00:09 02:20 2. Ein guter Chef zaudert nicht. Beschäftigte wollen einen Vorgesetzten, der Entscheidungen trifft, so Sutton. Es sei besser, eine Entscheidung nachträglich zu ändern, als sie zu lang hinauszuzögern. 3. Ein guter Chef zollt Anerkennung – und bekommt selbst welche. Das Schöne am Chefsein ist, dass man Lob für die Arbeit anderer bekommt, findet Sutton. Ein schlauer Boss macht sich das bewusst und betont intern wie extern, dass er stolz auf die Leistung seines Teams ist. Intern motiviert er damit die Belegschaft, extern präsentiert er sich als kompetent und bescheiden. Fehler auf die eigene Kappe nehmen 4. Ein guter Chef nimmt Fehler auf die eigene Kappe. Stellvertretend dafür steht Michael McCain, CEO bei Maple Leaf Foods. Der Lebensmittelkonzern erlebte im Sommer 2008 ein Desaster mit verdorbenem Fleisch – 15 Menschen starben, weitere erkrankten. McCain bekannte sein Unternehmen und auch sich selbst sofort verantwortlich. Er schob nichts auf andere und selbstverständlich entschuldigte er sich. Sein Auftritt vor den Fernseh-Kameras war glaubwürdig, so Sutton. Nach Verlusten im Jahr 2008 war Maple Leaf schon 2009 wieder profitabel. Im Februar 2010 erklärte McCain, die Marke erhole sich. Stanford-Professor Sutton weist darauf hin, dass McCain nicht nur angesichts der dramatischen Auswirkungen des Gammelfleisches richtig gehandelt habe – der CEO lernte auch aus den Fehlern. Die Verbraucher nehmen ihm das offenbar ab. Sutton leitet aus diesen Beobachtungen drei Tipps für Führungskräfte ab. Sie lauten: 1. Sorgen Sie für die psychische Sicherheit Ihrer Mitarbeiter. Erfolgreiche Innovationen produziert nur, wer seine Leute Fehler machen lässt. Mitarbeiter müssen unausgegorene Ideen testen können, sie müssen experimentieren dürfen, ohne im Fall eines Flops bloßgestellt oder bestraft zu werden. 2. Stellen Sie sich vor Ihre Leute.Beispiel dafür ist Annette Kyle. Sie ist keine Top-Managerin, aber eine sehr gute Chefin für rund 60 Arbeiter an einem texanischen Bahnhof. Diese laden Ware von der Schiene auf Trucks und Schiffe. Dabei kam es immer wieder zur Zahlung von Strafgeldern, wenn Produkte zu lang liegen blieben. Die Arbeiter behaupteten, sie hätten es eben nicht früher geschafft. Wenn die Chefin “Eine von uns” ist Kyle vermittelte den Blue-Collar-Workern ein Gefühl von der Bedeutung ihrer Arbeit. Eigenhändig nähte sie “Jammer nich!”-Buttons auf die Uniformen ihrer Leute. Außerdem schmiss sie ihren überdimensionierten Schreibtisch aus dem eigenen Büro – sie fand ihn zu angeberisch. Folge: Die Arbeiter akzeptierten Kyle als “eine von uns”, ohne die Autorität der Chefin infrage zu stellen. Sie legten sich mehr ins Zeug – und Kyle senkte die Bußgelder erheblich. Das alles war nur möglich, so Kyle selbst, weil ihr Vorgesetzter sie immer unterstützt habe. Vom mittleren Management war die unkonventionelle Art der Frau zunächst sehr misstrauisch beäugt worden. 3. Nutzen Sie die große Macht der kleinen Gesten. Robert Townsend, CEO von Avis, sagte einst, er vermisste immer wieder das simple “Danke schön” im Geschäftsleben. Es sollte aber kommen – nicht nur nach Abschluss jedes Projektes, sondern auch mal zwischendurch. Wie es wäre, für sich zu arbeiten Sutton sagt, Chefs sollten sich vor allem eine Frage stellen, nämlich: “Wie ist es wohl, für mich zu arbeiten?” Daraus leiten sich weitere Überlegungen ab – etwa, warum oder warum nicht die Besten für jemanden arbeiten wollen. Ein Chef, der seine eigenen Mitarbeiter für Versager hält, muss sich erst einmal an die eigene Nase fassen, so Sutton. Keine neue Erkenntnis: Bereits der römische Senator Titus Petronius, Autor des Romans “Satyricon”, gab zu Bedenken: “Qualis dominus, talis et servus (Wie der Herr, so auch der Sklave”). Ein perfekter Chef ist offen für andere Wirklichkeiten Meistens halten wir unsere Meinung für die Wahrheit, basierend auf der Wirklichkeit, wie wir sie empfinden. Häufig entspricht unsere Wirklichkeit jedoch nicht der Realität. Der “perfekte” Chef setzt sich auf den Stuhl des anderen. Wer durch die Augen anderer sieht, entdeckt eine Fülle von Wirklichkeiten. Quelle: Perspektive Mittelstand Ein perfekter Chef ist wirksam Letztlich geht es um das wesentliche: Der “perfekte” Chef bewirkt, dass Menschen Ziele erreichen. Das Wesen guter Führung ist Wirksamkeit. Ein perfekter Chef verkörpert Werte Grundvoraussetzung eines “perfekten” Chefs sind gelebte Werte, die von allen Mitarbeitern als Führungsgrundsätze empfunden werden. Nur so entsteht das viel geforderte Vertrauen. Ein perfekter Chef ist fachlich selten der Beste Von dem Gedanken, stets der Beste in allen Bereichen sein zu wollen, müssen sich Führungspersönlichkeiten trennen. Der “perfekte” Chef konzentriert sich auf seine Stärken und seine Hauptaufgaben. Ein perfekter Chef fordert Menschen Der “perfekte” Chef fordert Menschen heraus. Er will Leistung erleben und regt Menschen an, sie zu erbringen. Dabei orientiert er sich nur ungern am Durchschnitt, sondern an Spitzenleistungen. Der “perfekte” Chef gibt sich nicht mit dem zweitbesten Ergebnis zufrieden. Ein perfekter Chef ist Teamplayer Der “perfekte” Chef sagt und meint “Wir!” und nicht “Ich!” Er ist ein Teamspieler. Im 21. Jahrhundert werden nur Teams gewinnen und nicht Einzelspieler. Die Mondlandung beispielsweise war auch nicht das Werk eines einzelnen Menschen, sondern das mehrerer tausend Ingenieure, auch wenn die visionäre Kraft eines Wernher von Brauns dahinter stand. Aber er hätte es niemals alleine geschafft. Ein perfekter Chef ist Menschenfreund Eine wesentliche Eigenschaft von “perfekten” Chefs ist, dass sie Menschen mögen. Viele so genannte Führungskräfte mögen aber nicht einmal sich selbst, geschweige denn andere Menschen. Unter solchen Umständen wird Führung nur schwer möglich sein. Um exzellent zu sein, muss man das, was man tut, lieben. Und um exzellent zu führen, muss man Menschen lieben. Ein perfekter Chef verbessert sich ständig Darin liegt die Größe eines wirklich “perfekten” Chefs. Er verwendet die Kenntnis seiner Fehler für die persönliche Weiterentwicklung. Gute Führungspersönlichkeiten meinen nicht, “jemand zu sein”, sondern verstehen sich als “jemand, der wird” und zwar jeden Tag ein wenig mehr. Ein perfekter Chef ist nicht perfekt Es ist daher verwunderlich, warum immer noch so viele Chefs meinen, dass sie perfekt sind. Eine solch grobe Selbstüberschätzung führt letztlich zu Arroganz und einem Stillstand an Wachstum (sowohl persönlich als auch unternehmerisch). Ein perfekter Chef macht Fehler Jeder Mensch macht Fehler, denn Menschen sind nicht perfekt. Durch diese Eigenschaft werden Menschen überhaupt erst liebenswert. Wichtig ist jedoch, dass wir um unsere Fehler wissen und Wege finden, wie diese Fehler behoben werden können. Fehler, richtig verstanden, führen zu einer Weiterentwicklung der eigenen Persönlichkeit und des Unternehmens. 

Was einen zum guten Chef macht​ Die Diskrepanz zwischen erfolgreichen Unternehmen und Flop-Unternehmen geht zu 15 Prozent auf das Verhalten der Chefs zurück.Sergey Nivens – shutterstock.com

“Ich Chef, Du Nix”, lautet der Aufdruck eines dieser mäßig lustigen T-Shirts in Bahnhofsläden. Bob Sutton, Professor für Management Science and Engineering an der Stanford University, kann über so etwas sicher nicht lachen. Er behauptet: Für drei von vier Beschäftigten ist ihr Vorgesetzter Stress-Faktor Nummer Eins. In einer Publikation des Unternehmensberaters McKinsey klärt Sutton darüber auf, was gute Chefs von schlechten unterscheidet.

Suttons These: Die Diskrepanz zwischen erfolgreichen Unternehmen und Flop-Firmen geht zu 15 Prozent auf das Verhalten der Chefs zurück. Er spricht hier nicht von Fachkenntnissen, sondern von Soft Skills. Führungskräfte prägen die gesamte Unternehmenskultur, weil ihr Verhalten auf die Belegschaft abfärbt, so der Stanford-Professor.

Gute Chefs zeichnen sich dadurch aus, dass sie ihre Mitarbeiter ermutigen und sich bei Problemen schützend vor sie stellen. Außerdem übernehmen sie die Verantwortung für eigene Fehler. Das heißt konkret:

1. Ein guter Chef demonstriert auch dann Vertrauen, wenn er keines hat. So hat es zum Beispiel Andy Grove gehalten, Intel-CEO von 1987 bis 1998. Grove behauptet, eine Führungskraft könne durch ihr Verhalten Realitäten beeinflussen. These: Wenn der Chef sich von einer Entscheidung überzeugt zeigt und seinen Mitarbeitern das auch vermittelt, arbeiten diese effizienter (weil vertrauensvoller und konzentrierter). Es passieren weniger Fehler. Das schlägt sich früher oder später in der Performance nieder.

https://imasdk.googleapis.com/js/core/bridge3.704.0_de.html#fid=goog_221877855

0 seconds of 2 minutes, 20 secondsVolume 0%

01:58

00:09

02:20

2. Ein guter Chef zaudert nicht. Beschäftigte wollen einen Vorgesetzten, der Entscheidungen trifft, so Sutton. Es sei besser, eine Entscheidung nachträglich zu ändern, als sie zu lang hinauszuzögern.

3. Ein guter Chef zollt Anerkennung – und bekommt selbst welche. Das Schöne am Chefsein ist, dass man Lob für die Arbeit anderer bekommt, findet Sutton. Ein schlauer Boss macht sich das bewusst und betont intern wie extern, dass er stolz auf die Leistung seines Teams ist. Intern motiviert er damit die Belegschaft, extern präsentiert er sich als kompetent und bescheiden.

Fehler auf die eigene Kappe nehmen

4. Ein guter Chef nimmt Fehler auf die eigene Kappe. Stellvertretend dafür steht Michael McCain, CEO bei Maple Leaf Foods. Der Lebensmittelkonzern erlebte im Sommer 2008 ein Desaster mit verdorbenem Fleisch – 15 Menschen starben, weitere erkrankten. McCain bekannte sein Unternehmen und auch sich selbst sofort verantwortlich. Er schob nichts auf andere und selbstverständlich entschuldigte er sich. Sein Auftritt vor den Fernseh-Kameras war glaubwürdig, so Sutton.

Nach Verlusten im Jahr 2008 war Maple Leaf schon 2009 wieder profitabel. Im Februar 2010 erklärte McCain, die Marke erhole sich.

Stanford-Professor Sutton weist darauf hin, dass McCain nicht nur angesichts der dramatischen Auswirkungen des Gammelfleisches richtig gehandelt habe – der CEO lernte auch aus den Fehlern. Die Verbraucher nehmen ihm das offenbar ab.

Sutton leitet aus diesen Beobachtungen drei Tipps für Führungskräfte ab. Sie lauten:

1. Sorgen Sie für die psychische Sicherheit Ihrer Mitarbeiter. Erfolgreiche Innovationen produziert nur, wer seine Leute Fehler machen lässt. Mitarbeiter müssen unausgegorene Ideen testen können, sie müssen experimentieren dürfen, ohne im Fall eines Flops bloßgestellt oder bestraft zu werden.

2. Stellen Sie sich vor Ihre Leute.Beispiel dafür ist Annette Kyle. Sie ist keine Top-Managerin, aber eine sehr gute Chefin für rund 60 Arbeiter an einem texanischen Bahnhof. Diese laden Ware von der Schiene auf Trucks und Schiffe. Dabei kam es immer wieder zur Zahlung von Strafgeldern, wenn Produkte zu lang liegen blieben. Die Arbeiter behaupteten, sie hätten es eben nicht früher geschafft.

Wenn die Chefin “Eine von uns” ist

Kyle vermittelte den Blue-Collar-Workern ein Gefühl von der Bedeutung ihrer Arbeit. Eigenhändig nähte sie “Jammer nich!”-Buttons auf die Uniformen ihrer Leute. Außerdem schmiss sie ihren überdimensionierten Schreibtisch aus dem eigenen Büro – sie fand ihn zu angeberisch. Folge: Die Arbeiter akzeptierten Kyle als “eine von uns”, ohne die Autorität der Chefin infrage zu stellen. Sie legten sich mehr ins Zeug – und Kyle senkte die Bußgelder erheblich.

Das alles war nur möglich, so Kyle selbst, weil ihr Vorgesetzter sie immer unterstützt habe. Vom mittleren Management war die unkonventionelle Art der Frau zunächst sehr misstrauisch beäugt worden.

3. Nutzen Sie die große Macht der kleinen Gesten. Robert Townsend, CEO von Avis, sagte einst, er vermisste immer wieder das simple “Danke schön” im Geschäftsleben. Es sollte aber kommen – nicht nur nach Abschluss jedes Projektes, sondern auch mal zwischendurch.

Wie es wäre, für sich zu arbeiten

Sutton sagt, Chefs sollten sich vor allem eine Frage stellen, nämlich: “Wie ist es wohl, für mich zu arbeiten?” Daraus leiten sich weitere Überlegungen ab – etwa, warum oder warum nicht die Besten für jemanden arbeiten wollen.

Ein Chef, der seine eigenen Mitarbeiter für Versager hält, muss sich erst einmal an die eigene Nase fassen, so Sutton. Keine neue Erkenntnis: Bereits der römische Senator Titus Petronius, Autor des Romans “Satyricon”, gab zu Bedenken: “Qualis dominus, talis et servus (Wie der Herr, so auch der Sklave”).

Ein perfekter Chef ist offen für andere Wirklichkeiten Meistens halten wir unsere Meinung für die Wahrheit, basierend auf der Wirklichkeit, wie wir sie empfinden. Häufig entspricht unsere Wirklichkeit jedoch nicht der Realität. Der “perfekte” Chef setzt sich auf den Stuhl des anderen. Wer durch die Augen anderer sieht, entdeckt eine Fülle von Wirklichkeiten.

Quelle: Perspektive Mittelstand

Ein perfekter Chef ist wirksam Letztlich geht es um das wesentliche: Der “perfekte” Chef bewirkt, dass Menschen Ziele erreichen. Das Wesen guter Führung ist Wirksamkeit.

Ein perfekter Chef verkörpert Werte Grundvoraussetzung eines “perfekten” Chefs sind gelebte Werte, die von allen Mitarbeitern als Führungsgrundsätze empfunden werden. Nur so entsteht das viel geforderte Vertrauen.

Ein perfekter Chef ist fachlich selten der Beste Von dem Gedanken, stets der Beste in allen Bereichen sein zu wollen, müssen sich Führungspersönlichkeiten trennen. Der “perfekte” Chef konzentriert sich auf seine Stärken und seine Hauptaufgaben.

Ein perfekter Chef fordert Menschen Der “perfekte” Chef fordert Menschen heraus. Er will Leistung erleben und regt Menschen an, sie zu erbringen. Dabei orientiert er sich nur ungern am Durchschnitt, sondern an Spitzenleistungen. Der “perfekte” Chef gibt sich nicht mit dem zweitbesten Ergebnis zufrieden.

Ein perfekter Chef ist Teamplayer Der “perfekte” Chef sagt und meint “Wir!” und nicht “Ich!” Er ist ein Teamspieler. Im 21. Jahrhundert werden nur Teams gewinnen und nicht Einzelspieler. Die Mondlandung beispielsweise war auch nicht das Werk eines einzelnen Menschen, sondern das mehrerer tausend Ingenieure, auch wenn die visionäre Kraft eines Wernher von Brauns dahinter stand. Aber er hätte es niemals alleine geschafft.

Ein perfekter Chef ist Menschenfreund Eine wesentliche Eigenschaft von “perfekten” Chefs ist, dass sie Menschen mögen. Viele so genannte Führungskräfte mögen aber nicht einmal sich selbst, geschweige denn andere Menschen. Unter solchen Umständen wird Führung nur schwer möglich sein. Um exzellent zu sein, muss man das, was man tut, lieben. Und um exzellent zu führen, muss man Menschen lieben.

Ein perfekter Chef verbessert sich ständig Darin liegt die Größe eines wirklich “perfekten” Chefs. Er verwendet die Kenntnis seiner Fehler für die persönliche Weiterentwicklung. Gute Führungspersönlichkeiten meinen nicht, “jemand zu sein”, sondern verstehen sich als “jemand, der wird” und zwar jeden Tag ein wenig mehr.

Ein perfekter Chef ist nicht perfekt Es ist daher verwunderlich, warum immer noch so viele Chefs meinen, dass sie perfekt sind. Eine solch grobe Selbstüberschätzung führt letztlich zu Arroganz und einem Stillstand an Wachstum (sowohl persönlich als auch unternehmerisch).

Ein perfekter Chef macht Fehler Jeder Mensch macht Fehler, denn Menschen sind nicht perfekt. Durch diese Eigenschaft werden Menschen überhaupt erst liebenswert. Wichtig ist jedoch, dass wir um unsere Fehler wissen und Wege finden, wie diese Fehler behoben werden können. Fehler, richtig verstanden, führen zu einer Weiterentwicklung der eigenen Persönlichkeit und des Unternehmens.

Was einen zum guten Chef macht​ Weiterlesen »

9 Kommandozeilen-Tools, die jeder Dev braucht​

Allgemein

Selbst wenn Sie dieser Anblick nicht in Verzückung versetzt – ein Blick auf diese obligatorischen Kommandozeilen-Tools lohnt sich. Foto: SkillUp | shutterstock.com Manche Devs arbeiten mit der Kommandozeile (auch Command Line Interface; CLI), weil sie sie lieben – andere, weil ihnen nichts anderes übrig bleibt. Egal zu welcher Kategorie Sie sich zählen: Diese neun CLI-Tools helfen Ihrer Produktivität und Effizienz (zusätzlich) auf die Sprünge. tldr Keine Angst, wir ersparen Ihnen an dieser Stelle eine langwierige, faszinative Abhandlung über die ganz eigene Magie, die die Unix-Shell entfaltet. Fakt ist: Wenn man mit ihr arbeiten will, ist es manchmal erforderlich, vorher ein Handbuch zu lesen. Unix Docs (auch man- oder manual pages) sind diesbezüglich allerdings ein zweischneidiges Schwert: Die benötigte Information ist vorhanden – es ist nur die Frage, wo. Den Teil der Dokumentation aufzuspüren, den Sie gerade benötigen, kann ein entmutigender Task sein. Zwar kann die gute alte Befehlszeile dabei helfen – um ein offizielles Handbuch aufzurufen, genügt: $ man Allerdings zeichnen sich man-pages vor allem durch ihre Informationsdichte aus – und die Tatsache, dass sie manchmal aktuelle Informationen für neuere Tools vermissen lassen. Das CLI-Tool tldr versetzt Sie in die Lage, zielgerichteter zu suchen: $ tldr tldr in Aktion. Foto: Matthew Tyson | IDG Falls Sie npm installiert haben, ist die tldr-Installation nur einen kurzen Befehl entfernt: npm install -g tldr Mehr Infos zu tldr ngrok Sobald Sie tldr installiert haben, können Sie damit viele weitere Befehle erkunden. Zum Beispiel: $ tldr ngrok Reverse proxy that creates a secure tunnel from a public endpoint to a locally running web service. Mit ngrok eröffnet sich Ihnen eine stressfreie Möglichkeit, von einem Remote-Browser auf eine Entwicklungsmaschine zuzugreifen. Aber das Tool kann noch weit mehr. Sie können damit beispielsweise in der Cloud entwickeln und die Ergebnisse im Browser in Augenschein nehmen. Zudem können Sie mit ngrok auch schnell und einfach laufende Services über HTTPS veröffentlichen – ohne sich mit der Security-Infrastruktur herumschlagen zu müssen. Angenommen, Sie bauen einen Service Worker auf, der HTTPS benötigt, dann ist alles, was Sie für einen sicheren Kontext tun müssen, ngrok zu starten. Das CLI-Tool ngrok macht Devs das Leben auf verschiedenen Ebenen leichter. Foto: Matthew Tyson | IDG Ein Beispiel, bei dem der HTTP-Port 8080 freigegeben wird: $ ngrok http 8080 Der ngrok-Output sieht wie folgt aus: https://f951-34-67-117-59.ngrok-free.app -> http://localhost:8080 Anschließend kann jedermann die zugewiesene URL aufrufen (machen Sie sich keine Mühe). Mehr Infos zu ngrok screen Mit diesem Befehlszeilen-Tool können Sie eine Shell-Sitzung mit oder ohne laufenden Prozess “beiseite legen” und sie anschließend zu einem beliebigen Zeitpunkt fortsetzen – auch wenn Sie die ursprüngliche Session beenden. $ tldr screen Hold a session open on a remote server. Manage multiple windows with a single SSH connection. Nehmen wir an, Sie starten ngrok, um remote auf eine Webanwendung zuzugreifen: Sie starten den Prozess, lassen diesen dann in screen laufen und programmieren so lange etwas. Währenddessen läuft ngrok die ganze Zeit weiter – Sie können über screen jederzeit wieder darauf zugreifen. Veranschaulicht in Code würde das wie folgt aussehen: $ screen // Now we are in a new session $ ngrok http 8080 // Now ngrok is running, exposing http port 8080 Type ctrl-a // Now we are in screen’s command mode Type the “d” key, to “detach”. // Now you are back in the shell that you started in, while screen is running your ngrok command in the background: $ screen -list There is a screen on: 128861.pts-0.dev3 (04/25/24 14:36:58) (Detached) Tipp Wenn Sie eine laufende Sitzung, in der Sie sich gerade befinden, benennen wollen, nutzen Sie die Tastenkombination Strg + A und geben :sessionname ein. Das ist besonders nützlich, wenn Sie mit mehreren Screen-Instanzen arbeiten wollen. Screen ist ein umfangreiches und potentes CLI-Tool. Foto: Matthew Tyson | IDG Wenn wie im Beispiel nur eine screen-Instanz läuft, führt der Befehl $ screen -r (für “re-attach”) Sie zurück zu Ihrer ngrok-Sitzung. Im Fall mehrerer Screens können Sie diese mit Hilfe ihrer ID wieder aufrufen: $ screen -r Wenn Sie Ihre Session endgültig beenden wollen, beenden Sie ngrok mit Strg + C und geben anschließend exit in die Kommandozeile ein. Mehr Infos zu screen sdkman und nvm Wenn Sie Java oder JavaScript auf einem Server verwenden, sollten Sie sich mit sdkman (für Java) und nvm (für Node) vertraut machen. Beide Kommandozeilen-Tools sind nützlich, wenn es darum geht, mit mehreren Programmiersprachenversionen auf dem selben Rechner zu jonglieren – und dabei sowohl Path Adjustment als auch Umgebungsvariablen überflüssig machen. Mit sdkman können Sie beispielsweise neuere Java-Versionen erkunden und anschließend wieder zum aktuellen LTS-Release springen. Dieser Prozess wird durch das sdk-Kommando abstrahiert. sdkman zeigt alle verfügbaren Java-Installationen auf einem lokalen Rechner an – inklusive derjenigen, die gerade in Benutzung ist. Foto: Matthew Tyson | IDG Zwischen den Versionen zu wechseln, gestaltet sich denkbar einfach – $ sdk use java 19-open führt Sie direkt zu JDK Version 19. $ tldr sdk Manage parallel versions of multiple Software Development Kits. Supports Java, Groovy, Scala, Kotlin, Gradle, Maven, Vert.x and many others. Die nvm-Utility funktioniert ganz ähnlich: $ tldr nvm Install, uninstall or switch between Node.js versions. Supports version numbers like “12.8” or “v16.13.1”, and labels like “stable”, “system”, etc. Ein Blick auf nvm. Foto: Matthew Tyson | IDG Mehr Infos zu sdkman Mehr Infos zu nvm fzf Sowohl grep als auch find sind Standardbestandteile der Kommandozeilen-Befehlspalette. Allerdings sind beide Tools nicht so funktional, wie sie sein sollten. Das ruft fzf auf den Plan – einen “Fuzzy File Finder”. Mit “Fuzzy” ist dabei gemeint, dass die Details zu dem, was Sie suchen, nicht unbedingt klar definiert sein müssen. Ein Beispiel: $ tldr fzf Command-line fuzzy finder. Similar to sk. Sobald Sie fzf starten, indiziert das CLI-Tool umgehend das Dateisystem, um Ergebnisvorschläge für Ihre Suchen zu unterbreiten. In diesem Beispiel suchen wir nach einem Projekt, an dem wir zuletzt gearbeitet haben. Foto: Matthew Tyson | IDG Aus 878.937 Möglichkeiten hat fzf die 25 Dateien und Verzeichnisse ausgewählt, die unseren Anforderungen entsprechen könnten – und das völlig ohne Umwege. Mehr Infos zu fzf exa Mit exa werden langweilige alte ls-Listings schöner und nützlicher: $ tldr A modern replacement for ls (List directory contents). Für eine bessere Developer Experience ohne mentalen Overhead statten Sie ls einfach mit einem exa-Alias aus. Das Tool respektiert die meisten ls-Standardoptionen – exa -l funktioniert also (beispielsweise) genau so, wie Sie es erwarten würden. Exa ist das neue ls. Foto: Matthew Tyson | IDG Mehr Infos zu exa bat Die bat-Utility ähnelt dem cat-Tool – ist aber besser: $ tldr bat Print and concatenate files. A cat clone with syntax highlighting and Git integration. Es handelt sich hierbei im Wesentlichen um eine Komfort- beziehungsweise Developer-Experience-Optimierung – ähnlich wie im Fall von exa. Wenn Sie bat verwenden, erwartet Sie ein vollwertiger File Viewer – inklusive Title, Borders, Line Numbers und insbesondere einer hilfreichen Syntax-Highlighting-Funktion für Programmiersprachen oder Konfigurationsdateien. Dabei reagiert bat auf less/more-Befehle – und wird mit “q” beendet. Die Navigation erfolgt über die Pfeiltasten. Bat ist ein simples Dienstprogramm, das es zu einem echten Erlebnis macht, Dateien auf der Konsole zu durchsuchen. Foto: Matthew Tyson | IDG Mehr Infos zu bat nethack Ein absoluter Kommandozeilen-Klassiker ist nethack – der ursprüngliche, Konsolen-basierte ASCII Dungeon Crawler. Das CLI-Tool wird Ihre Produktivität zwar nicht direkt ankurbeln – kann aber durchaus dabei helfen, ein paar Minuten zur Ruhe zu kommen, um komplexe Dev-Probleme zu durchdringen. Es gibt neuere Versionen des Nethack-Konzepts – manchmal fährt man jedoch mit dem Original am besten. Foto: Matthew Tyson | IDG Mehr Info zu nethack Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

9 Kommandozeilen-Tools, die jeder Dev braucht​ Selbst wenn Sie dieser Anblick nicht in Verzückung versetzt – ein Blick auf diese obligatorischen Kommandozeilen-Tools lohnt sich.
Foto: SkillUp | shutterstock.com

Manche Devs arbeiten mit der Kommandozeile (auch Command Line Interface; CLI), weil sie sie lieben – andere, weil ihnen nichts anderes übrig bleibt. Egal zu welcher Kategorie Sie sich zählen: Diese neun CLI-Tools helfen Ihrer Produktivität und Effizienz (zusätzlich) auf die Sprünge.

tldr

Keine Angst, wir ersparen Ihnen an dieser Stelle eine langwierige, faszinative Abhandlung über die ganz eigene Magie, die die Unix-Shell entfaltet. Fakt ist: Wenn man mit ihr arbeiten will, ist es manchmal erforderlich, vorher ein Handbuch zu lesen. Unix Docs (auch man- oder manual pages) sind diesbezüglich allerdings ein zweischneidiges Schwert: Die benötigte Information ist vorhanden – es ist nur die Frage, wo. Den Teil der Dokumentation aufzuspüren, den Sie gerade benötigen, kann ein entmutigender Task sein. Zwar kann die gute alte Befehlszeile dabei helfen – um ein offizielles Handbuch aufzurufen, genügt:

$ man

Allerdings zeichnen sich man-pages vor allem durch ihre Informationsdichte aus – und die Tatsache, dass sie manchmal aktuelle Informationen für neuere Tools vermissen lassen. Das CLI-Tool tldr versetzt Sie in die Lage, zielgerichteter zu suchen:

$ tldr

tldr in Aktion.
Foto: Matthew Tyson | IDG

Falls Sie npm installiert haben, ist die tldr-Installation nur einen kurzen Befehl entfernt:

npm install -g tldr

Mehr Infos zu tldr

ngrok

Sobald Sie tldr installiert haben, können Sie damit viele weitere Befehle erkunden. Zum Beispiel:

$ tldr ngrok

Reverse proxy that creates a secure tunnel from a public endpoint to a locally running web service.

Mit ngrok eröffnet sich Ihnen eine stressfreie Möglichkeit, von einem Remote-Browser auf eine Entwicklungsmaschine zuzugreifen. Aber das Tool kann noch weit mehr. Sie können damit beispielsweise in der Cloud entwickeln und die Ergebnisse im Browser in Augenschein nehmen. Zudem können Sie mit ngrok auch schnell und einfach laufende Services über HTTPS veröffentlichen – ohne sich mit der Security-Infrastruktur herumschlagen zu müssen. Angenommen, Sie bauen einen Service Worker auf, der HTTPS benötigt, dann ist alles, was Sie für einen sicheren Kontext tun müssen, ngrok zu starten.

Das CLI-Tool ngrok macht Devs das Leben auf verschiedenen Ebenen leichter.
Foto: Matthew Tyson | IDG

Ein Beispiel, bei dem der HTTP-Port 8080 freigegeben wird:

$ ngrok http 8080

Der ngrok-Output sieht wie folgt aus:

https://f951-34-67-117-59.ngrok-free.app -> http://localhost:8080

Anschließend kann jedermann die zugewiesene URL aufrufen (machen Sie sich keine Mühe).

Mehr Infos zu ngrok

screen

Mit diesem Befehlszeilen-Tool können Sie eine Shell-Sitzung mit oder ohne laufenden Prozess “beiseite legen” und sie anschließend zu einem beliebigen Zeitpunkt fortsetzen – auch wenn Sie die ursprüngliche Session beenden.

$ tldr screen

Hold a session open on a remote server. Manage multiple windows with a single SSH connection.

Nehmen wir an, Sie starten ngrok, um remote auf eine Webanwendung zuzugreifen: Sie starten den Prozess, lassen diesen dann in screen laufen und programmieren so lange etwas. Währenddessen läuft ngrok die ganze Zeit weiter – Sie können über screen jederzeit wieder darauf zugreifen. Veranschaulicht in Code würde das wie folgt aussehen:

$ screen

// Now we are in a new session

$ ngrok http 8080

// Now ngrok is running, exposing http port 8080

Type ctrl-a

// Now we are in screen’s command mode

Type the “d” key, to “detach”.

// Now you are back in the shell that you started in, while screen is running your ngrok command in the background:

$ screen -list

There is a screen on:

128861.pts-0.dev3 (04/25/24 14:36:58) (Detached)

Tipp

Wenn Sie eine laufende Sitzung, in der Sie sich gerade befinden, benennen wollen, nutzen Sie die Tastenkombination Strg + A und geben :sessionname ein. Das ist besonders nützlich, wenn Sie mit mehreren Screen-Instanzen arbeiten wollen.

Screen ist ein umfangreiches und potentes CLI-Tool.
Foto: Matthew Tyson | IDG

Wenn wie im Beispiel nur eine screen-Instanz läuft, führt der Befehl $ screen -r (für “re-attach”) Sie zurück zu Ihrer ngrok-Sitzung. Im Fall mehrerer Screens können Sie diese mit Hilfe ihrer ID wieder aufrufen:

$ screen -r

Wenn Sie Ihre Session endgültig beenden wollen, beenden Sie ngrok mit Strg + C und geben anschließend exit in die Kommandozeile ein.

Mehr Infos zu screen

sdkman und nvm

Wenn Sie Java oder JavaScript auf einem Server verwenden, sollten Sie sich mit sdkman (für Java) und nvm (für Node) vertraut machen. Beide Kommandozeilen-Tools sind nützlich, wenn es darum geht, mit mehreren Programmiersprachenversionen auf dem selben Rechner zu jonglieren – und dabei sowohl Path Adjustment als auch Umgebungsvariablen überflüssig machen.

Mit sdkman können Sie beispielsweise neuere Java-Versionen erkunden und anschließend wieder zum aktuellen LTS-Release springen. Dieser Prozess wird durch das sdk-Kommando abstrahiert.

sdkman zeigt alle verfügbaren Java-Installationen auf einem lokalen Rechner an – inklusive derjenigen, die gerade in Benutzung ist.
Foto: Matthew Tyson | IDG

Zwischen den Versionen zu wechseln, gestaltet sich denkbar einfach – $ sdk use java 19-open führt Sie direkt zu JDK Version 19.

$ tldr sdk

Manage parallel versions of multiple Software Development Kits.

Supports Java, Groovy, Scala, Kotlin, Gradle, Maven, Vert.x and many others.

Die nvm-Utility funktioniert ganz ähnlich:

$ tldr nvm

Install, uninstall or switch between Node.js versions.

Supports version numbers like “12.8” or “v16.13.1”, and labels like “stable”, “system”, etc.

Ein Blick auf nvm.
Foto: Matthew Tyson | IDG

Mehr Infos zu sdkman

Mehr Infos zu nvm

fzf

Sowohl grep als auch find sind Standardbestandteile der Kommandozeilen-Befehlspalette. Allerdings sind beide Tools nicht so funktional, wie sie sein sollten. Das ruft fzf auf den Plan – einen “Fuzzy File Finder”. Mit “Fuzzy” ist dabei gemeint, dass die Details zu dem, was Sie suchen, nicht unbedingt klar definiert sein müssen. Ein Beispiel:

$ tldr fzf

Command-line fuzzy finder.

Similar to sk.

Sobald Sie fzf starten, indiziert das CLI-Tool umgehend das Dateisystem, um Ergebnisvorschläge für Ihre Suchen zu unterbreiten.

In diesem Beispiel suchen wir nach einem Projekt, an dem wir zuletzt gearbeitet haben.
Foto: Matthew Tyson | IDG

Aus 878.937 Möglichkeiten hat fzf die 25 Dateien und Verzeichnisse ausgewählt, die unseren Anforderungen entsprechen könnten – und das völlig ohne Umwege.

Mehr Infos zu fzf

exa

Mit exa werden langweilige alte ls-Listings schöner und nützlicher:

$ tldr

A modern replacement for ls (List directory contents).

Für eine bessere Developer Experience ohne mentalen Overhead statten Sie ls einfach mit einem exa-Alias aus. Das Tool respektiert die meisten ls-Standardoptionen – exa -l funktioniert also (beispielsweise) genau so, wie Sie es erwarten würden.

Exa ist das neue ls.
Foto: Matthew Tyson | IDG

Mehr Infos zu exa

bat

Die bat-Utility ähnelt dem cat-Tool – ist aber besser:

$ tldr bat

Print and concatenate files.

A cat clone with syntax highlighting and Git integration.

Es handelt sich hierbei im Wesentlichen um eine Komfort- beziehungsweise Developer-Experience-Optimierung – ähnlich wie im Fall von exa. Wenn Sie bat verwenden, erwartet Sie ein vollwertiger File Viewer – inklusive Title, Borders, Line Numbers und insbesondere einer hilfreichen Syntax-Highlighting-Funktion für Programmiersprachen oder Konfigurationsdateien. Dabei reagiert bat auf less/more-Befehle – und wird mit “q” beendet. Die Navigation erfolgt über die Pfeiltasten.

Bat ist ein simples Dienstprogramm, das es zu einem echten Erlebnis macht, Dateien auf der Konsole zu durchsuchen.
Foto: Matthew Tyson | IDG

Mehr Infos zu bat

nethack

Ein absoluter Kommandozeilen-Klassiker ist nethack – der ursprüngliche, Konsolen-basierte ASCII Dungeon Crawler. Das CLI-Tool wird Ihre Produktivität zwar nicht direkt ankurbeln – kann aber durchaus dabei helfen, ein paar Minuten zur Ruhe zu kommen, um komplexe Dev-Probleme zu durchdringen.

Es gibt neuere Versionen des Nethack-Konzepts – manchmal fährt man jedoch mit dem Original am besten.
Foto: Matthew Tyson | IDG

Mehr Info zu nethack

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

9 Kommandozeilen-Tools, die jeder Dev braucht​ Weiterlesen »

Kaufratgeber für Desk Sharing Software​

Allgemein

Desk Sharing Software hilft im Hybrid-Work-Zeitalter gegen Taubenschlag-Feeling. Foto: goodbishop | shutterstock.com Nach der Pandemie hat sich das Hybrid-Work-Modell in den meisten Unternehmen etabliert: Wie Gartners “2024 Global Labor Market Data”-Umfrage unter 18.000 Arbeitnehmern weltweit zeigt, arbeiten inzwischen nur noch knapp 15 Prozent der Befragten in Vollzeit remote. Knapp 44 Prozent wechseln im Rahmen eines hybriden Konzepts zwischen Homeoffice und Büro. Der Umschwung in Sachen Arbeitskultur hat nicht wenige Unternehmen in den letzten Jahren dazu bewegt, sich mit Blick auf ihre Räumlichkeiten neu, respektive effizienter zu organisieren – auch, um Mietkosten einzusparen. Weniger Arbeitsplätze für die gleiche (oder eine steigende) Zahl von Angestellten können das Büro allerdings schnell in einen “Reise nach Jerusalem”-Playground verwandeln. In der Konsequenz hat sich ein Pulk verschiedener Softwareanbieter in den vergangenen Jahren dem Thema Desk Sharing beziehungsweise Desk Booking verschrieben, um Unternehmen bei der Koordination und Organisation ihres Hybrid-Work-Ansatzes zu unterstützen. Die Lösungen in diesem Bereich laufen auch unter diversen anderen Bezeichnungen, beispielsweise: Workspace Booking, Desktop Booking, Room Booking, Hot Desking oder Hoteling. Das mittlerweile überwältigenden Angebots an Tools, um Arbeitsplätze, Devices, Konferenzräume oder auch Parkplätze zu buchen, macht es Anwenderunternehmen nicht leicht, zur besten Lösung für ihre Zwecke zu finden. Unser Kaufratgeber schafft Abhilfe: Lesen Sie, wie der Markt für Desk Sharing Tools aussieht, was diese können sollten und welche Anbieter und Lösungen in diesem Bereich tonangebend sind. Abschließend geben wir Ihnen noch fünf Fragen mit auf den Weg, die Sie sich vor dem Investment in ein Arbeitsplatzbuchungssystem stellen sollten. Der Desk-Sharing-Markt Die Auguren von Gartner kategorisieren Software dieser Art als “Workplace Experience Apps“. Diese Anwendungen zeichnen sich nach der Definition der Marktforscher in erster Linie dadurch aus, dass sie die Belegschaft dabei unterstützen, mit ihrer (hybriden) Arbeitsumgebung zu interagieren. Das schlägt sich zum Beispiel in folgenden Funktionen nieder: Räume, Schreibtische, Parkplätze oder auch Services schnell und einfach buchen. Übersichtliche Maps des Bürogebäudes bereitstellen, um die virtuelle Navigation zu erleichtern. Informationen darüber liefern, welche Tage sich für die Anwesenheit im Office am besten eignen. Desk-Booking- oder Desk-Sharing-Software ist dabei eng mit den seit Jahrzehnten bekannten Raumbuchungs-Apps verwandt. Entsprechend tummeln sich auf diesem Markt sowohl Anbieter etablierter Lösungen – beispielsweise aus dem Bereich Collaboration- oder Facility Management – als auch neuere Player. Laut Tori Paulman, VP Analystin bei Gartner, lassen sich die aktuell zur Verfügung stehenden Softwareangebote im Bereich Arebitsplatzbuchung in drei Kategorien einordnen: Best-of-Breed-Punktlösungen, Software-Suiten aus dem Bereich Facility- oder Immobilienmanagement, die abseits ihrer Kernfunktionen auch Desk- und Room-Booking-Funktionen bieten, sowie Lösungen von Anbietern aus “angrenzenden” Märkten wie Catering und Digital Signage, die auf den Zug aufgesprungen sind. Das sollten Arbeitsplatzbuchungssysteme leisten Angesichts des überwältigenden Angebots an Arbeitsplatzbuchungssystemen sollten sich Unternehmen vor allem auf die Funktionen konzentrieren, die ihren Bedürfnissen entsprechen. Es gibt jedoch auch einige grundlegende Features, die Desk-Sharing-Apps mitbringen sollten. Dazu gehören: Hoteling- und Hot-Desking-Optionen: Desk Booking Software weist Mitarbeitern einen spezifischen Arbeitsplatz für einen Tag (oder länger) zu. Besteht die Möglichkeit, Schreibtische vorab zu reservieren, ist von einem Hoteling-Feature die Rede. Beim Hot Desking gilt hingegen der alte Grundsatz “Wer zuerst kommt, mahlt zuerst”. Unternehmen die mit knapp bemessenen Räumlichkeiten umgehen müssen, sollten dabei auf erstere Funktion setzen, um das eingangs nahegelegte “Stuhltanz”-Szenario zu verhindern. Die meisten Softwarelösungen unterstützen inzwischen sowohl Hoteling als auch Hot Desking. Workspace Mapping: Die allermeisten Plattformen für die Arbeitsplatzbuchung ermöglichen es den Arbeitgebern, Grundrisse ihres Bürogebäudes zu hinterlegen, die die einzelnen Arbeitsbereiche und Meeting-Räumlichkeiten visualisieren. Dabei können zum Beispiel auch bestimmte Schreibtische mit spezifischen Attributen – etwa als Hot Desk – gekennzeichnet oder ganze Büroräume in unterschiedliche “Zonen” aufgeteilt werden. Diverse Softwarelösungen bieten auch Navigationshilfen für Angestellte an – eine nützliche Onboarding-Funktion. Reservierungs- und Check-in-Tools: Um nach verfügbaren Arbeitsplätzen für bestimmte Tage zu suchen oder sie zu reservieren, kommen bei Arbeitsplatzbuchungssystemen in der Regel mobile (oder auch webbasierte) Apps zum Einsatz. Eine weitere Möglichkeit sind Check-in-Tools wie QR-Codes oder RFID-Tags – etwa in Hot-Desking-Szenarien. Reservierungsanfragen werden entweder automatisiert oder manuell genehmigt. Dabei ermöglichen viele Tools es auch, Reservierungsregeln einzuziehen, um beispielsweise Teams in bestimmten Bereichen zusammenzubringen. Auch in diesem Bereich halten zunehmend KI-gestützte Funktionen Einzug, die die Mitarbeiter mit entsprechenden Vorschlägen unterstützen sollen. Hardware-Optionen: Einige Software-Tools im Bereich Desk Sharing und Booking lassen sich zudem mit Hardware integrieren – etwa Displays vor den Türen von Meeting-Räumen, die über die Belegung informieren oder Mitarbeiter-Badges. Diese Funktionen sind bei den meisten Tools jedoch optional – schließlich hängt ihr Nutzwert auch maßgeblich von der Unternehmensgröße ab. Integrationen und Analytics: Viele Desk-Booking-Plattformen können mit Enterprise Software wie Google Workspace, Microsoft Teams, Jira oder Slack integriert werden. Zudem bieten sie Reporting-Funktionen, um Führungskräften beispielsweise Einblicke darüber zu vermitteln, welche Arbeitsplätze am meisten genutzt werden – und ermöglicht es ihnen so (unter Umständen), Büroflächen effektiver zu managen. Die wichtigsten Anbieter für Desk Sharing Software Einen “Magic Quadrant” für Desk Sharing Tools gibt es leider nicht. Gartner-Analystin Paulman erklärt auch kurz und bündig, warum: “Die vielen Anbieter in diesem Bereich sind nicht ausreichend differenziert.” Wir haben deswegen unabhängige Research-Erkenntnisse gewälzt und mit Experten zum Thema gesprochen, um Ihnen einen Überblick über die Angebote im Bereich Desk Sharing Software zu verschaffen. Das Ergebnis ist eine umfassende (alphabetisch geordnete) Liste mit mehr als 20 Anbietern von Arbeitsplatzbuchungssystemen – die keinen Anspruch auf Vollständigkeit erhebt. Wichtig ist dabei, dass nahezu alle Produkte in dieser Auflistung als kostenlose Test- oder Demo-Versionen zur Verfügung stehen. AskCody Microsoft-zentrische Unternehmen bekommen mit der Plattform von AskCody die Möglichkeit: Office-Ressourcen zu reservieren, Besucher zu managen und Meeting Services wie Catering zu buchen. Die Features stehen über Add-Ins für Microsoft Outlook zur Verfügung und ermöglichen beispielsweise auch, nach Meeting-Räumlichkeiten mit spezifischer technischer Ausstattung zu suchen. Dank der nativen Integration in Microsoft Outlook funktioniert das innerhalb der gewohnten Umgebung quasi auf Knopfdruck. Auch eine Integration mit Skype for Business und Teams ist möglich. Darüber hinaus ist AskCody nach eigenen Angaben zu 100 Prozent DSGVO-konform. CXApp Diverse Connected-Workplace-Funktionen laufen in der mobilen Anwendung von CXApp zusammen. Dazu gehören zum Beispiel: Desk-Booking-Funktionen inklusive Hot Desking und Hoteling, interaktive Verfügbarkeits-Maps, Navigationshilfen für Mitarbeiter sowie Accessibility-Funktionen. In Sachen Arbeitsplatzbuchung ermöglicht diese Lösung auch, nach Kriterien wie Beleuchtung, Ausstattung oder Zugänglichkeit zu filtern. Darüber hinaus stehen über CXApp erweiterte Booking-Regeln zur Verfügung, um die Bürokapazitäten besser managen zu können. Envoy Desks Im Rahmen seiner umfassenden Workplace-Plattform bietet Envoy mit Desks auch eine Möglichkeit, Arbeitsplätze und -räume zu buchen – sowohl über den Hot-Desking- als auch den Hoteling-Ansatz. Dabei können Mitarbeiter über sogenannte “Team Neigbourhoods” räumlich näher zusammengebracht werden. Zu den weiteren Funktionen des Desk-Booking-Tools gehören zum Beispiel: interaktive Workspace-Karten und Analysedaten zur Nutzung respektive Auslastung der Arbeitsplätze. Die Software ist mit Envoys Applikationen für Visitor- und Multitenant-Management integrierbar. Eptura Workplace Eptura ist im Jahr 2022 aus dem Zusammenschluss von Condeco (Desk Booking Software) und iOffice + SpaceIQ (Asset- und Facility Management Software) entstanden. Die Desk-Booking-Applikation von Eptura ist Teil einer Tool-Suite, die aus sechs verschiedenen Workplace-Experience- und Asset-Management-Tools besteht. Sie ermöglicht den Anwendern, Arbeitsplätze über mobile und web-basierte Anwendungen oder über Microsoft Outlook zu buchen. Dieses Arbeitsplatzbuchungssystem ermöglicht etwa: Schreibtische und Konferenzräume zu buchen, Support bei der Arbeitsplatznavigation, Standortsuche für Mitarbeiter sowie die Integration mit Microsoft 365. Fischer & Kerrn Concierge Booking Auch im Fall von Fischer & Kerrn sind Desk-Booking-Funktionalitäten Teil einer umfassenderen Software-Suite für Meeting- und Visitor Management. Arbeitsplätze können dabei über eine mobile App oder auch direkt über den Kalender von Microsoft Outlook gebucht werden. Die Software von Fischer & Kerrn bietet außerdem auch Support für Sensor-Lösungen zur Anwesenheitserkennung (die das Unternehmen ebenfalls vertreibt). Zu den Features dieser Softwarelösung gehören zum Beispiel: visuelle Etagenpläne, Arbeitsplatzzuweisung für bestimmte Teams oder Abteilungen, Filtermöglichkeiten, die auch Ruhezonen, Kolleegen oder Hot Desks beinhalten oder Statistiken zur Nutzung der Büroflächen. Flowscape Desk Management Die Desk-Management-Lösung von Flowscape rückt Benutzerfreundlichkeit in den Fokus und richtet sich sowohl an Unternehmen mit Hybrid-Work-Ansatz als auch an solche mit traditioneller Office-Struktur. Mit dem Desk-Management-Tool von Flowscape können Anwender zum Beispiel: Schreibtische für sich und im Namen von Kollegen buchen (sowohl Hot Desking als auch Hoteling werden unterstützt), Arbeitsplätze nach Equipment filtern, Team-“Zonen” erstellen, Kollegen suchen und finden, Reinigungs-Services anfordern, Tracing-Reports generieren oder Nutzungsstatistiken erfassen. Darüber hinaus unterstützt das Desk Booking Tool auch Hardware wie Raumbeleuchtung oder Anwendenheits-Sensoren. Die Flowscape-Plattform ermöglicht es zudem auch, Visitor Management sowie Meeting-Räume und Parkplätze zu buchen. FM:Systems Desk Booking & Reservation Dieser Anbieter bietet eine ganze Reihe von Tools im Bereich Facility Management und eine Softwarelösung für hybride Arbeitsplätze. Diese beinhaltet Module für Hoteling, Raumplanung und Desk Booking und umfasst sowohl interaktive Planungsmöglichkeiten als auch konfigurierbare Business Rules. Zu den weiteren Funktionen dieser Desk Booking Software gehören: eine mobile Buchungs-App (Android und iOS), ein QR-Code-Leser für Check-Ins und On-the-Fly-Reservierungen. Arbeitsplatzbuchungen können dabei bis zu sechs Monate im Voraus gesetzt werden. Die Lösung von FM:Systems bietet Integrationsmöglichkeiten für Microsoft Outlook sowie Cisco Webex und TMS. Joan Der britische Anbieter Joan hat verschiedene Lösungen im Portfolio. Dazu gehören Lösungen für Visitor Management und Room Booking – aber auch eine Software, um Schreibtische und sonstige Unternehmens-Assets zu buchen. “Desk Booking & Asset Reservation” ermöglicht den Nutzern: Schreibtische zu buchen, Parkplätze zu reservieren sowie mit Devices zu planen. Sämtliche Aktivitäten laufen wahlweise über eine mobile oder eine Desktop-App. Die Desk Sharing Software von Joan bietet davon abgesehen auch Integrationsmöglichkeiten für diverse Kalender-Apps und Hardware. Für Microsoft- und Google-Apps gibt es auch Single-Sign-On-Support. Logitech Raumbuchung Der schwedische Softwareanbieter Meetio wurde 2021 vom Peripherie-Spezialisten Logitech übernommen. Die Meetio Software-Suite wurde danach inklusive aller Services und Funktionen in das Logitech-Portfolio integriert. Das Ergebnis nennt sich “Logitech Raumbuchung” und steht Kunden, die die Device-Management-Software “Sync” nutzen, derzeit in einer Beta-Version zu Testzwecken zur Verfügung. Das finale Produkt soll demnächst erhältlich sein und ist nicht nur Software- sondern auch Hardware-seitig stark in das Logitech-Ökosystem eingebunden. Logitech verspricht neben den gewohnten Buchungsfunktionen unter anderem folgende Funktionen: Integrationsmöglichkeit für Google- und Office-365-Kalender, automatisierte Check-Ins, einheitliches Software-, Firmware- und Device Management, Statistiken zur Raumnutzung. Microsoft Places Bereits Microsoft Teams bietet im Rahmen des “Teams Pro Management”-Portals grundlegende Desk-Booking-Funktionen. Mit Places hat Microsoft jedoch auch eine neue – stark auf künstliche Intelligenz respektive Copilot ausgerichtete – App im Programm, die sich derzeit noch in der – immerhin Public – Preview befindet. Places soll sich künftig nahtlos in das 365-Universum einfügen und erweiterte Buchungs-Features zum Beispiel in Teams und Outlook realisieren. Microsoft verspricht mit der Anwendung eine umfassende Hybrid-Work-Lösung, mit der die Anwender unter anderem: Räume, Arbeitsplätze und sonstige Ressourcen buchen können, Team-Workflows aufsetzen und (hybride) Meetings koordinieren können, Vorschläge von Copilot zu ihrer Planung einholen oder dem KI-Assistenten gleich ganz diesen Task überlassen können. Darüber hinaus soll Places Unternehmen mit reichhaltigen Statistiken zur Auslastung ihrer Räumlichkeiten dabei unterstützen, Kosten zu reduzieren und das Workplace Engagement zu optimieren. Nspace Der US-Anbieter Nspace bietet mehrere Softwarelösungen im Bereich Hybrid Work an – darunter auch eine Mobile App (iOS und Android), die Desk Booking, Raumreservierung, Anwesenheitsplanung und Besuchermanagement kombiniert. Zu den wesentlichen Funktionen der Hybrid-Work-App gehören: Arbeitsplatzbuchung über benutzerfreundliche Karten, Filterfunktionen für das Equipment in Meeting-Räumen, beispielsweise mit Blick auf hybride Konferenzen, die Möglichkeit auch externe Meeting-Teilnehmer per Link einzubinden, Check-In-Alerts und Visitor Access Control. Officely Das Desk Booking Tool von Officely steht wahlweise als Add-In für Slack oder Microsoft Teams zur Verfügung. Ein praktisches Feature dieser integrativen Lösung: Um den Anwendern die Entscheidung zu erleichtern, wann es sich lohnt ins Büro kommen, postet Officely in einem Slack- oder Teams-Kanal, wer anwesend ist. Darüber hinaus bietet die Software unter anderem folgende Funktionen: Arbeitsplatzbuchung, Kapazitätsmanagement, Contact Tracing, Team Scheduling sowie Statistiken und Analysen zur Office-Nutzung. OfficeSpace Der US-Softwareanbieter OfficeSpace hat diverse Workplace-Management-Lösungen im Angebot – darunter auch eine Desk Booking Software, die als Desktop- und Mobile App verfügbar ist und auch in Microsoft Teams sowie Slack integriert werden kann. Davon abgesehen können Anwender mit dieser Desk Sharing App: Arbeitsplätze anhand bestimmter Kriterien filtern und im Hot-Desking- oder Hoteling-Verfahren buchen, automatisiert und “touchless” ein- und auschecken, Räume in verschiedene Team-Zonen mit unterschiedlichen Berechtigungen einteilen und auf diverse Analysefunktionen zurückgreifen. FlexEZ Mit diesem Workspace-Management-System verspricht der in Hong Kong ansässige Anbieter Oomnis das “ultimative Tool für hybride Teams”. Es ist sowohl mit Microsoft 365 als auch Google Workspace kompatibel. Über die FlexEZ-Webanwendung können Benutzer: nicht nur Schreibtische, sondern diverse Office-Ressourcen suchen, filtern und reservieren, team- und ressourcenübergreifende Booking-Richtlinien einziehen, Advanced-Analytics-Funktionen nutzen, um Nutzung und Trends zu erfassen sowie bei Bedarf auch smarte IoT-Infrastrukturen einbinden. Poppulo Workplace Mobile App Der Softwareanbieter Poppulo bietet mit seiner “Harmony Platform” eine umfassende Lösung für Employee-, Customer- und Workplace Experience. Eine Komponente ist dabei die “Workplace Mobile App”, die mit Microsoft 365 integriert. Zu den Funktionen der Software gehören unter anderem: Desk- und Room Booking, Navigations-Features für Angestellte, die Option, Hardware wie Kiosk-Displays einzubinden, die Arbeitsplatznutzung zu tracken und diese mit Hilfe entsprechender Reportings zu analysieren. Robin Die Workplace-Experience-Plattform Robin umfasst Space Management, Konferenzraumplanung – und Desk Booking. Der Anbieter vermarktet seine Softwarelösung dabei als “einzige Plattform, die In-Person-Collaboration misst”. Auf der Feature-Liste stehen bei Robin unter anderem: interaktive Drag-and-Drop-Karten, diverse Integrationsmöglichkeiten mit weiteren Tools wie Outlook, Teams, Google Calendar, Slack oder Zoom, Arbeitsplatzbuchung im Hot-Desking- oder Hoteling-Verfahren, Navigationshilfen für Büroumgebungen, diverse Suchmöglichkeiten inklusive Filteroptionen und Contact Tracing sowie umfassende, datengetriebene Insights. Roomzilla Das Workplace-Management-System von Roomzilla legt seinen Fokus auf eine simple Benutzerführung und verspricht sämtliche Buchungs-, Reservierungs- und Planungsbedürfnisse in Zusammenhang mit (hybriden) Büroumgebungen abzudecken. Die Softwarelösung soll dabei auf sämtlichen Devices laufen und ist darüber hinaus auch in die Kalender von Google und Microsoft integrierbar. Zu den weiteren Funktionen gehören unter anderem: Schreibtische, Devices, Equipment und Meeting-Räume buchen, interaktive Office-Maps, automatisierte Check-Ins und Schnellreservierungen per QR-Code. ServiceNow Workplace Service Delivery Softwareriese ServiceNow hat ebenfalls eine Arbeitsplatz-Management-Plattform in petto. Diese enthält auch einige Booking-Funktionen, zum Beispiel für: Arbeitsplätze, Meeting-Räume, Parkplätze, Equipment oder Services wie Catering. Die ServiceNow-Plattform enthält darüber hinaus viele weitere Funktionen, etwa in den Bereichen Asset Management sowie Reporting und Analytics. Skedda Auch Skedda bietet eine umfassende Workplace-Management-Plattform, die umfassende Desk-Sharing-, beziehungsweise Desk-Booking-Funktionalitäten beinhaltet. Der Anbieter bewirbt seine Software dabei selbstbewusst als “das meist empfohlene Desk-Booking-System für Hybrid Work”. Die Plattform richtet sich dabei nicht nur an Unternehmen, sondern beispielsweise auch an wissenschaftliche Einrichtungen und ist mit diversen anderen Tools wie Microsoft Teams oder Slack integrierbar. Zu den wesentlichen Funktionen von Skedda gehören beispielsweise: Arbeitsplatzbuchung und -reservierung, interaktive Karten inklusive Navigationshilfen, Support für Single Sign-On, Daten-Insights zur Office-Nutzung und Möglichkeiten zur Automatisierung. Smarten Spaces Jumpree Pro Das Workforce-Management-System von Smarten Spaces spielt die KI-Karte und verspricht “sämtliche Workplace-Sorgen vergessen zu machen”. In der Praxis sollen das jedoch nicht nur KI-basierte Planungsvorschläge realisieren, sondern auch folgende Features: Arbeitsplatzbuchung, Navigationshilfen und Suchfunktionen, Contact Tracing, sensorbasierte Anwesenheitserfassung sowie umfassende Analyseoptionen. Darüber hinaus bietet die Software von Smarten Spaces auch Funktionen für Asset- und Visitor Management, eine Service-Request-Funktion und ist mit Microsoft Teams integrierbar. Space Connect Der britische Softwareanbieter Space Connect bietet verschiedene Lösungen an – die günstigste davon im Bereich Desk Management. Die Software ist als mobile App verfügbar und lässt sich in Microsoft 365 und Google Workspace integrieren. Sie ermöglicht den Anwendern unter anderem: Arbeitsplätze zu buchen und zu managen, automatisierte Check-In-Vorgänge über Docking-Stationen oder Sensoren, Navigationshilfen für Büroumgebungen sowie Daten zur Büronutzung. Tribeloo Bei Tribeloo handelt es sich um eine Cloud-basierte Desk-Management- beziehungsweise Desk-Sharing-Plattform, die mittlerweile ebenfalls über KI-Funktionen verfügt – beispielsweise, um Mitarbeitern automatisiert einen Schreibtisch zuzuweisen. Die Web-basierte Lösung ist mit Outlook und Google Calendar integrierbar und ermöglicht unter anderem: Arbeitsplätze zu buchen, Devices zu reservieren, interaktive Karten zu nutzen, Contact Tracing, Analytics-Funktionen, Problemmanagement sowie diverse Hardware zu integrieren, beispielsweise Displays, Sensoren, Tablets oder NFC-Tags. Yarooms Die Desk Booking Software von Yarooms ist ebenfalls lediglich eine Komponente einer umfassenderen Workplace-Management-Plattform, die unter anderem auch Meetingraum-Planung und Besuchermanagement abdeckt. Die Software steht über ein Web Interface oder als Mobile App zur Verfügung und lässt sich zudem in Outlook, iCal oder auch Microsoft Teams integrieren. In Sachen Desk Sharing bietet die Lösung von Yarooms zum Beispiel folgende Funktionen: Arbeitsplätze anhand verschiedener Kriterien wie Equipment suchen, finden und buchen, Support für Hot Desking, Hoteling sowie feste Platzzuordnungen, interaktive Karten für Büroumgebungen inklusive Optionen für Arbeitssicherheits- und Compliance Management, umfassende Einblicke auf Datenbasis zur Büronutzung. Zoom Workspace-Reservierung Unternehmen mit Zoom-Abo steht auch das Desk Sharing Tool “Workspace-Reservierung” zur Verfügung. Die Software ermöglicht Anwendern per Browser oder App: Arbeitsplätze über interaktive Karten zu reservieren, per QR-Code einzuchecken, KI-basierte Buchungsvorschläge einzuholen, Nutzungsstatistiken einzusehen sowie Hardware-Devices einzubinden. 5 Fragen vor dem Desk-Sharing-Invest Bevor Sie in eine Desk-Booking-, Desk-Sharing, Workplace-Management- oder wie auch immer benannte Software investieren, sollten Sie sich folgende Fragen stellen: Welche Funktionen brauchen Sie, respektive Ihre Mitarbeiter wirklich? Halten Sie Rücksprache mit den einzelnen Abteilungen und erstellen Sie Feature-Listen, um nicht für unnötige Funktionen zu bezahlen. Welche Tools setzen Sie bereits ein? Eventuell haben Sie beispielsweise schon eine Facility-Management-Lösung im Einsatz, die die benötigten Funktionen bereitstellen kann. Realisiert das Tool Ihrer Wahl eine gute User Experience? Systeme, die den Mitarbeitern mehr Probleme bereiten, statt sie zu lösen, können sich negativ auf die (Office-)Nutzung auswirken. Haben Sie den Security-Aspekt bei Ihrer Wahl ausreichend berücksichtigt? Verschlüsselung, Datenschutz und Compliance sowie SSO-Integration sind Features, auf die Sie Wert legen sollten. Haben Sie die Produktreife, beziehungsweise die Expertise des Anbieters ausreichend unter die Lupe genommen? Ausgereiftere Produkte verfügen unter Umständen über einen größeren Funktionsumfang, erfahrene Anbieter im Regelfall über die nötige Expertise. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Kaufratgeber für Desk Sharing Software​ Desk Sharing Software hilft im Hybrid-Work-Zeitalter gegen Taubenschlag-Feeling.
Foto: goodbishop | shutterstock.com

Nach der Pandemie hat sich das Hybrid-Work-Modell in den meisten Unternehmen etabliert: Wie Gartners “2024 Global Labor Market Data”-Umfrage unter 18.000 Arbeitnehmern weltweit zeigt, arbeiten inzwischen nur noch knapp 15 Prozent der Befragten in Vollzeit remote. Knapp 44 Prozent wechseln im Rahmen eines hybriden Konzepts zwischen Homeoffice und Büro.

Der Umschwung in Sachen Arbeitskultur hat nicht wenige Unternehmen in den letzten Jahren dazu bewegt, sich mit Blick auf ihre Räumlichkeiten neu, respektive effizienter zu organisieren – auch, um Mietkosten einzusparen. Weniger Arbeitsplätze für die gleiche (oder eine steigende) Zahl von Angestellten können das Büro allerdings schnell in einen “Reise nach Jerusalem”-Playground verwandeln.

In der Konsequenz hat sich ein Pulk verschiedener Softwareanbieter in den vergangenen Jahren dem Thema Desk Sharing beziehungsweise Desk Booking verschrieben, um Unternehmen bei der Koordination und Organisation ihres Hybrid-Work-Ansatzes zu unterstützen. Die Lösungen in diesem Bereich laufen auch unter diversen anderen Bezeichnungen, beispielsweise:

Workspace Booking,

Desktop Booking,

Room Booking,

Hot Desking oder

Hoteling.

Das mittlerweile überwältigenden Angebots an Tools, um Arbeitsplätze, Devices, Konferenzräume oder auch Parkplätze zu buchen, macht es Anwenderunternehmen nicht leicht, zur besten Lösung für ihre Zwecke zu finden. Unser Kaufratgeber schafft Abhilfe: Lesen Sie, wie der Markt für Desk Sharing Tools aussieht, was diese können sollten und welche Anbieter und Lösungen in diesem Bereich tonangebend sind. Abschließend geben wir Ihnen noch fünf Fragen mit auf den Weg, die Sie sich vor dem Investment in ein Arbeitsplatzbuchungssystem stellen sollten.

Der Desk-Sharing-Markt

Die Auguren von Gartner kategorisieren Software dieser Art als “Workplace Experience Apps“. Diese Anwendungen zeichnen sich nach der Definition der Marktforscher in erster Linie dadurch aus, dass sie die Belegschaft dabei unterstützen, mit ihrer (hybriden) Arbeitsumgebung zu interagieren. Das schlägt sich zum Beispiel in folgenden Funktionen nieder:

Räume, Schreibtische, Parkplätze oder auch Services schnell und einfach buchen.

Übersichtliche Maps des Bürogebäudes bereitstellen, um die virtuelle Navigation zu erleichtern.

Informationen darüber liefern, welche Tage sich für die Anwesenheit im Office am besten eignen.

Desk-Booking- oder Desk-Sharing-Software ist dabei eng mit den seit Jahrzehnten bekannten Raumbuchungs-Apps verwandt. Entsprechend tummeln sich auf diesem Markt sowohl Anbieter etablierter Lösungen – beispielsweise aus dem Bereich Collaboration- oder Facility Management – als auch neuere Player. Laut Tori Paulman, VP Analystin bei Gartner, lassen sich die aktuell zur Verfügung stehenden Softwareangebote im Bereich Arebitsplatzbuchung in drei Kategorien einordnen:

Best-of-Breed-Punktlösungen,

Software-Suiten aus dem Bereich Facility- oder Immobilienmanagement, die abseits ihrer Kernfunktionen auch Desk- und Room-Booking-Funktionen bieten, sowie

Lösungen von Anbietern aus “angrenzenden” Märkten wie Catering und Digital Signage, die auf den Zug aufgesprungen sind.

Das sollten Arbeitsplatzbuchungssysteme leisten

Angesichts des überwältigenden Angebots an Arbeitsplatzbuchungssystemen sollten sich Unternehmen vor allem auf die Funktionen konzentrieren, die ihren Bedürfnissen entsprechen. Es gibt jedoch auch einige grundlegende Features, die Desk-Sharing-Apps mitbringen sollten. Dazu gehören:

Hoteling- und Hot-Desking-Optionen: Desk Booking Software weist Mitarbeitern einen spezifischen Arbeitsplatz für einen Tag (oder länger) zu. Besteht die Möglichkeit, Schreibtische vorab zu reservieren, ist von einem Hoteling-Feature die Rede. Beim Hot Desking gilt hingegen der alte Grundsatz “Wer zuerst kommt, mahlt zuerst”. Unternehmen die mit knapp bemessenen Räumlichkeiten umgehen müssen, sollten dabei auf erstere Funktion setzen, um das eingangs nahegelegte “Stuhltanz”-Szenario zu verhindern. Die meisten Softwarelösungen unterstützen inzwischen sowohl Hoteling als auch Hot Desking.

Workspace Mapping: Die allermeisten Plattformen für die Arbeitsplatzbuchung ermöglichen es den Arbeitgebern, Grundrisse ihres Bürogebäudes zu hinterlegen, die die einzelnen Arbeitsbereiche und Meeting-Räumlichkeiten visualisieren. Dabei können zum Beispiel auch bestimmte Schreibtische mit spezifischen Attributen – etwa als Hot Desk – gekennzeichnet oder ganze Büroräume in unterschiedliche “Zonen” aufgeteilt werden. Diverse Softwarelösungen bieten auch Navigationshilfen für Angestellte an – eine nützliche Onboarding-Funktion.

Reservierungs- und Check-in-Tools: Um nach verfügbaren Arbeitsplätzen für bestimmte Tage zu suchen oder sie zu reservieren, kommen bei Arbeitsplatzbuchungssystemen in der Regel mobile (oder auch webbasierte) Apps zum Einsatz. Eine weitere Möglichkeit sind Check-in-Tools wie QR-Codes oder RFID-Tags – etwa in Hot-Desking-Szenarien. Reservierungsanfragen werden entweder automatisiert oder manuell genehmigt. Dabei ermöglichen viele Tools es auch, Reservierungsregeln einzuziehen, um beispielsweise Teams in bestimmten Bereichen zusammenzubringen. Auch in diesem Bereich halten zunehmend KI-gestützte Funktionen Einzug, die die Mitarbeiter mit entsprechenden Vorschlägen unterstützen sollen.

Hardware-Optionen: Einige Software-Tools im Bereich Desk Sharing und Booking lassen sich zudem mit Hardware integrieren – etwa Displays vor den Türen von Meeting-Räumen, die über die Belegung informieren oder Mitarbeiter-Badges. Diese Funktionen sind bei den meisten Tools jedoch optional – schließlich hängt ihr Nutzwert auch maßgeblich von der Unternehmensgröße ab.

Integrationen und Analytics: Viele Desk-Booking-Plattformen können mit Enterprise Software wie Google Workspace, Microsoft Teams, Jira oder Slack integriert werden. Zudem bieten sie Reporting-Funktionen, um Führungskräften beispielsweise Einblicke darüber zu vermitteln, welche Arbeitsplätze am meisten genutzt werden – und ermöglicht es ihnen so (unter Umständen), Büroflächen effektiver zu managen.

Die wichtigsten Anbieter für Desk Sharing Software

Einen “Magic Quadrant” für Desk Sharing Tools gibt es leider nicht. Gartner-Analystin Paulman erklärt auch kurz und bündig, warum: “Die vielen Anbieter in diesem Bereich sind nicht ausreichend differenziert.”

Wir haben deswegen unabhängige Research-Erkenntnisse gewälzt und mit Experten zum Thema gesprochen, um Ihnen einen Überblick über die Angebote im Bereich Desk Sharing Software zu verschaffen. Das Ergebnis ist eine umfassende (alphabetisch geordnete) Liste mit mehr als 20 Anbietern von Arbeitsplatzbuchungssystemen – die keinen Anspruch auf Vollständigkeit erhebt. Wichtig ist dabei, dass nahezu alle Produkte in dieser Auflistung als kostenlose Test- oder Demo-Versionen zur Verfügung stehen.

AskCody

Microsoft-zentrische Unternehmen bekommen mit der Plattform von AskCody die Möglichkeit:

Office-Ressourcen zu reservieren,

Besucher zu managen und

Meeting Services wie Catering zu buchen.

Die Features stehen über Add-Ins für Microsoft Outlook zur Verfügung und ermöglichen beispielsweise auch, nach Meeting-Räumlichkeiten mit spezifischer technischer Ausstattung zu suchen. Dank der nativen Integration in Microsoft Outlook funktioniert das innerhalb der gewohnten Umgebung quasi auf Knopfdruck. Auch eine Integration mit Skype for Business und Teams ist möglich. Darüber hinaus ist AskCody nach eigenen Angaben zu 100 Prozent DSGVO-konform.

CXApp

Diverse Connected-Workplace-Funktionen laufen in der mobilen Anwendung von CXApp zusammen. Dazu gehören zum Beispiel:

Desk-Booking-Funktionen inklusive Hot Desking und Hoteling,

interaktive Verfügbarkeits-Maps,

Navigationshilfen für Mitarbeiter sowie

Accessibility-Funktionen.

In Sachen Arbeitsplatzbuchung ermöglicht diese Lösung auch, nach Kriterien wie Beleuchtung, Ausstattung oder Zugänglichkeit zu filtern. Darüber hinaus stehen über CXApp erweiterte Booking-Regeln zur Verfügung, um die Bürokapazitäten besser managen zu können.

Envoy Desks

Im Rahmen seiner umfassenden Workplace-Plattform bietet Envoy mit Desks auch eine Möglichkeit, Arbeitsplätze und -räume zu buchen – sowohl über den Hot-Desking- als auch den Hoteling-Ansatz. Dabei können Mitarbeiter über sogenannte “Team Neigbourhoods” räumlich näher zusammengebracht werden.

Zu den weiteren Funktionen des Desk-Booking-Tools gehören zum Beispiel:

interaktive Workspace-Karten und

Analysedaten zur Nutzung respektive Auslastung der Arbeitsplätze.

Die Software ist mit Envoys Applikationen für Visitor- und Multitenant-Management integrierbar.

Eptura Workplace

Eptura ist im Jahr 2022 aus dem Zusammenschluss von Condeco (Desk Booking Software) und iOffice + SpaceIQ (Asset- und Facility Management Software) entstanden. Die Desk-Booking-Applikation von Eptura ist Teil einer Tool-Suite, die aus sechs verschiedenen Workplace-Experience- und Asset-Management-Tools besteht.

Sie ermöglicht den Anwendern, Arbeitsplätze über mobile und web-basierte Anwendungen oder über Microsoft Outlook zu buchen. Dieses Arbeitsplatzbuchungssystem ermöglicht etwa:

Schreibtische und Konferenzräume zu buchen,

Support bei der Arbeitsplatznavigation,

Standortsuche für Mitarbeiter sowie

die Integration mit Microsoft 365.

Fischer & Kerrn Concierge Booking

Auch im Fall von Fischer & Kerrn sind Desk-Booking-Funktionalitäten Teil einer umfassenderen Software-Suite für Meeting- und Visitor Management. Arbeitsplätze können dabei über eine mobile App oder auch direkt über den Kalender von Microsoft Outlook gebucht werden. Die Software von Fischer & Kerrn bietet außerdem auch Support für Sensor-Lösungen zur Anwesenheitserkennung (die das Unternehmen ebenfalls vertreibt).

Zu den Features dieser Softwarelösung gehören zum Beispiel:

visuelle Etagenpläne,

Arbeitsplatzzuweisung für bestimmte Teams oder Abteilungen,

Filtermöglichkeiten, die auch Ruhezonen, Kolleegen oder Hot Desks beinhalten oder

Statistiken zur Nutzung der Büroflächen.

Flowscape Desk Management

Die Desk-Management-Lösung von Flowscape rückt Benutzerfreundlichkeit in den Fokus und richtet sich sowohl an Unternehmen mit Hybrid-Work-Ansatz als auch an solche mit traditioneller Office-Struktur.

Mit dem Desk-Management-Tool von Flowscape können Anwender zum Beispiel:

Schreibtische für sich und im Namen von Kollegen buchen (sowohl Hot Desking als auch Hoteling werden unterstützt),

Arbeitsplätze nach Equipment filtern,

Team-“Zonen” erstellen,

Kollegen suchen und finden,

Reinigungs-Services anfordern,

Tracing-Reports generieren oder

Nutzungsstatistiken erfassen.

Darüber hinaus unterstützt das Desk Booking Tool auch Hardware wie Raumbeleuchtung oder Anwendenheits-Sensoren. Die Flowscape-Plattform ermöglicht es zudem auch, Visitor Management sowie Meeting-Räume und Parkplätze zu buchen.

FM:Systems Desk Booking & Reservation

Dieser Anbieter bietet eine ganze Reihe von Tools im Bereich Facility Management und eine Softwarelösung für hybride Arbeitsplätze. Diese beinhaltet Module für Hoteling, Raumplanung und Desk Booking und umfasst sowohl interaktive Planungsmöglichkeiten als auch konfigurierbare Business Rules.

Zu den weiteren Funktionen dieser Desk Booking Software gehören:

eine mobile Buchungs-App (Android und iOS),

ein QR-Code-Leser für Check-Ins und

On-the-Fly-Reservierungen.

Arbeitsplatzbuchungen können dabei bis zu sechs Monate im Voraus gesetzt werden. Die Lösung von FM:Systems bietet Integrationsmöglichkeiten für Microsoft Outlook sowie Cisco Webex und TMS.

Joan

Der britische Anbieter Joan hat verschiedene Lösungen im Portfolio. Dazu gehören Lösungen für Visitor Management und Room Booking – aber auch eine Software, um Schreibtische und sonstige Unternehmens-Assets zu buchen.

“Desk Booking & Asset Reservation” ermöglicht den Nutzern:

Schreibtische zu buchen,

Parkplätze zu reservieren sowie

mit Devices zu planen.

Sämtliche Aktivitäten laufen wahlweise über eine mobile oder eine Desktop-App. Die Desk Sharing Software von Joan bietet davon abgesehen auch Integrationsmöglichkeiten für diverse Kalender-Apps und Hardware. Für Microsoft- und Google-Apps gibt es auch Single-Sign-On-Support.

Logitech Raumbuchung

Der schwedische Softwareanbieter Meetio wurde 2021 vom Peripherie-Spezialisten Logitech übernommen. Die Meetio Software-Suite wurde danach inklusive aller Services und Funktionen in das Logitech-Portfolio integriert. Das Ergebnis nennt sich “Logitech Raumbuchung” und steht Kunden, die die Device-Management-Software “Sync” nutzen, derzeit in einer Beta-Version zu Testzwecken zur Verfügung. Das finale Produkt soll demnächst erhältlich sein und ist nicht nur Software- sondern auch Hardware-seitig stark in das Logitech-Ökosystem eingebunden.

Logitech verspricht neben den gewohnten Buchungsfunktionen unter anderem folgende Funktionen:

Integrationsmöglichkeit für Google- und Office-365-Kalender,

automatisierte Check-Ins,

einheitliches Software-, Firmware- und Device Management,

Statistiken zur Raumnutzung.

Microsoft Places

Bereits Microsoft Teams bietet im Rahmen des “Teams Pro Management”-Portals grundlegende Desk-Booking-Funktionen. Mit Places hat Microsoft jedoch auch eine neue – stark auf künstliche Intelligenz respektive Copilot ausgerichtete – App im Programm, die sich derzeit noch in der – immerhin Public – Preview befindet.

Places soll sich künftig nahtlos in das 365-Universum einfügen und erweiterte Buchungs-Features zum Beispiel in Teams und Outlook realisieren. Microsoft verspricht mit der Anwendung eine umfassende Hybrid-Work-Lösung, mit der die Anwender unter anderem:

Räume, Arbeitsplätze und sonstige Ressourcen buchen können,

Team-Workflows aufsetzen und (hybride) Meetings koordinieren können,

Vorschläge von Copilot zu ihrer Planung einholen oder dem KI-Assistenten gleich ganz diesen Task überlassen können.

Darüber hinaus soll Places Unternehmen mit reichhaltigen Statistiken zur Auslastung ihrer Räumlichkeiten dabei unterstützen, Kosten zu reduzieren und das Workplace Engagement zu optimieren.

Nspace

Der US-Anbieter Nspace bietet mehrere Softwarelösungen im Bereich Hybrid Work an – darunter auch eine Mobile App (iOS und Android), die Desk Booking, Raumreservierung, Anwesenheitsplanung und Besuchermanagement kombiniert.

Zu den wesentlichen Funktionen der Hybrid-Work-App gehören:

Arbeitsplatzbuchung über benutzerfreundliche Karten,

Filterfunktionen für das Equipment in Meeting-Räumen, beispielsweise mit Blick auf hybride Konferenzen,

die Möglichkeit auch externe Meeting-Teilnehmer per Link einzubinden,

Check-In-Alerts und Visitor Access Control.

Officely

Das Desk Booking Tool von Officely steht wahlweise als Add-In für Slack oder Microsoft Teams zur Verfügung. Ein praktisches Feature dieser integrativen Lösung: Um den Anwendern die Entscheidung zu erleichtern, wann es sich lohnt ins Büro kommen, postet Officely in einem Slack- oder Teams-Kanal, wer anwesend ist.

Darüber hinaus bietet die Software unter anderem folgende Funktionen:

Arbeitsplatzbuchung,

Kapazitätsmanagement,

Contact Tracing,

Team Scheduling sowie

Statistiken und Analysen zur Office-Nutzung.

OfficeSpace

Der US-Softwareanbieter OfficeSpace hat diverse Workplace-Management-Lösungen im Angebot – darunter auch eine Desk Booking Software, die als Desktop- und Mobile App verfügbar ist und auch in Microsoft Teams sowie Slack integriert werden kann.

Davon abgesehen können Anwender mit dieser Desk Sharing App:

Arbeitsplätze anhand bestimmter Kriterien filtern und im Hot-Desking- oder Hoteling-Verfahren buchen,

automatisiert und “touchless” ein- und auschecken,

Räume in verschiedene Team-Zonen mit unterschiedlichen Berechtigungen einteilen und

auf diverse Analysefunktionen zurückgreifen.

FlexEZ

Mit diesem Workspace-Management-System verspricht der in Hong Kong ansässige Anbieter Oomnis das “ultimative Tool für hybride Teams”. Es ist sowohl mit Microsoft 365 als auch Google Workspace kompatibel.

Über die FlexEZ-Webanwendung können Benutzer:

nicht nur Schreibtische, sondern diverse Office-Ressourcen suchen, filtern und reservieren,

team- und ressourcenübergreifende Booking-Richtlinien einziehen,

Advanced-Analytics-Funktionen nutzen, um Nutzung und Trends zu erfassen sowie

bei Bedarf auch smarte IoT-Infrastrukturen einbinden.

Poppulo Workplace Mobile App

Der Softwareanbieter Poppulo bietet mit seiner “Harmony Platform” eine umfassende Lösung für Employee-, Customer- und Workplace Experience. Eine Komponente ist dabei die “Workplace Mobile App”, die mit Microsoft 365 integriert.

Zu den Funktionen der Software gehören unter anderem:

Desk- und Room Booking,

Navigations-Features für Angestellte,

die Option, Hardware wie Kiosk-Displays einzubinden,

die Arbeitsplatznutzung zu tracken und

diese mit Hilfe entsprechender Reportings zu analysieren.

Robin

Die Workplace-Experience-Plattform Robin umfasst Space Management, Konferenzraumplanung – und Desk Booking. Der Anbieter vermarktet seine Softwarelösung dabei als “einzige Plattform, die In-Person-Collaboration misst”.

Auf der Feature-Liste stehen bei Robin unter anderem:

interaktive Drag-and-Drop-Karten,

diverse Integrationsmöglichkeiten mit weiteren Tools wie Outlook, Teams, Google Calendar, Slack oder Zoom,

Arbeitsplatzbuchung im Hot-Desking- oder Hoteling-Verfahren,

Navigationshilfen für Büroumgebungen,

diverse Suchmöglichkeiten inklusive Filteroptionen und Contact Tracing sowie

umfassende, datengetriebene Insights.

Roomzilla

Das Workplace-Management-System von Roomzilla legt seinen Fokus auf eine simple Benutzerführung und verspricht sämtliche Buchungs-, Reservierungs- und Planungsbedürfnisse in Zusammenhang mit (hybriden) Büroumgebungen abzudecken. Die Softwarelösung soll dabei auf sämtlichen Devices laufen und ist darüber hinaus auch in die Kalender von Google und Microsoft integrierbar.

Zu den weiteren Funktionen gehören unter anderem:

Schreibtische, Devices, Equipment und Meeting-Räume buchen,

interaktive Office-Maps,

automatisierte Check-Ins und

Schnellreservierungen per QR-Code.

ServiceNow Workplace Service Delivery

Softwareriese ServiceNow hat ebenfalls eine Arbeitsplatz-Management-Plattform in petto. Diese enthält auch einige Booking-Funktionen, zum Beispiel für:

Arbeitsplätze,

Meeting-Räume,

Parkplätze,

Equipment oder

Services wie Catering.

Die ServiceNow-Plattform enthält darüber hinaus viele weitere Funktionen, etwa in den Bereichen Asset Management sowie Reporting und Analytics.

Skedda

Auch Skedda bietet eine umfassende Workplace-Management-Plattform, die umfassende Desk-Sharing-, beziehungsweise Desk-Booking-Funktionalitäten beinhaltet. Der Anbieter bewirbt seine Software dabei selbstbewusst als “das meist empfohlene Desk-Booking-System für Hybrid Work”. Die Plattform richtet sich dabei nicht nur an Unternehmen, sondern beispielsweise auch an wissenschaftliche Einrichtungen und ist mit diversen anderen Tools wie Microsoft Teams oder Slack integrierbar.

Zu den wesentlichen Funktionen von Skedda gehören beispielsweise:

Arbeitsplatzbuchung und -reservierung,

interaktive Karten inklusive Navigationshilfen,

Support für Single Sign-On,

Daten-Insights zur Office-Nutzung und

Möglichkeiten zur Automatisierung.

Smarten Spaces Jumpree Pro

Das Workforce-Management-System von Smarten Spaces spielt die KI-Karte und verspricht “sämtliche Workplace-Sorgen vergessen zu machen”. In der Praxis sollen das jedoch nicht nur KI-basierte Planungsvorschläge realisieren, sondern auch folgende Features:

Arbeitsplatzbuchung,

Navigationshilfen und Suchfunktionen,

Contact Tracing,

sensorbasierte Anwesenheitserfassung sowie

umfassende Analyseoptionen.

Darüber hinaus bietet die Software von Smarten Spaces auch Funktionen für Asset- und Visitor Management, eine Service-Request-Funktion und ist mit Microsoft Teams integrierbar.

Space Connect

Der britische Softwareanbieter Space Connect bietet verschiedene Lösungen an – die günstigste davon im Bereich Desk Management. Die Software ist als mobile App verfügbar und lässt sich in Microsoft 365 und Google Workspace integrieren.

Sie ermöglicht den Anwendern unter anderem:

Arbeitsplätze zu buchen und zu managen,

automatisierte Check-In-Vorgänge über Docking-Stationen oder Sensoren,

Navigationshilfen für Büroumgebungen sowie

Daten zur Büronutzung.

Tribeloo

Bei Tribeloo handelt es sich um eine Cloud-basierte Desk-Management- beziehungsweise Desk-Sharing-Plattform, die mittlerweile ebenfalls über KI-Funktionen verfügt – beispielsweise, um Mitarbeitern automatisiert einen Schreibtisch zuzuweisen.

Die Web-basierte Lösung ist mit Outlook und Google Calendar integrierbar und ermöglicht unter anderem:

Arbeitsplätze zu buchen,

Devices zu reservieren,

interaktive Karten zu nutzen,

Contact Tracing,

Analytics-Funktionen,

Problemmanagement sowie

diverse Hardware zu integrieren, beispielsweise Displays, Sensoren, Tablets oder NFC-Tags.

Yarooms

Die Desk Booking Software von Yarooms ist ebenfalls lediglich eine Komponente einer umfassenderen Workplace-Management-Plattform, die unter anderem auch Meetingraum-Planung und Besuchermanagement abdeckt. Die Software steht über ein Web Interface oder als Mobile App zur Verfügung und lässt sich zudem in Outlook, iCal oder auch Microsoft Teams integrieren.

In Sachen Desk Sharing bietet die Lösung von Yarooms zum Beispiel folgende Funktionen:

Arbeitsplätze anhand verschiedener Kriterien wie Equipment suchen, finden und buchen,

Support für Hot Desking, Hoteling sowie feste Platzzuordnungen,

interaktive Karten für Büroumgebungen inklusive Optionen für Arbeitssicherheits- und Compliance Management,

umfassende Einblicke auf Datenbasis zur Büronutzung.

Zoom Workspace-Reservierung

Unternehmen mit Zoom-Abo steht auch das Desk Sharing Tool “Workspace-Reservierung” zur Verfügung. Die Software ermöglicht Anwendern per Browser oder App:

Arbeitsplätze über interaktive Karten zu reservieren,

per QR-Code einzuchecken,

KI-basierte Buchungsvorschläge einzuholen,

Nutzungsstatistiken einzusehen sowie

Hardware-Devices einzubinden.

5 Fragen vor dem Desk-Sharing-Invest

Bevor Sie in eine Desk-Booking-, Desk-Sharing, Workplace-Management- oder wie auch immer benannte Software investieren, sollten Sie sich folgende Fragen stellen:

Welche Funktionen brauchen Sie, respektive Ihre Mitarbeiter wirklich? Halten Sie Rücksprache mit den einzelnen Abteilungen und erstellen Sie Feature-Listen, um nicht für unnötige Funktionen zu bezahlen.

Welche Tools setzen Sie bereits ein? Eventuell haben Sie beispielsweise schon eine Facility-Management-Lösung im Einsatz, die die benötigten Funktionen bereitstellen kann.

Realisiert das Tool Ihrer Wahl eine gute User Experience? Systeme, die den Mitarbeitern mehr Probleme bereiten, statt sie zu lösen, können sich negativ auf die (Office-)Nutzung auswirken.

Haben Sie den Security-Aspekt bei Ihrer Wahl ausreichend berücksichtigt? Verschlüsselung, Datenschutz und Compliance sowie SSO-Integration sind Features, auf die Sie Wert legen sollten.

Haben Sie die Produktreife, beziehungsweise die Expertise des Anbieters ausreichend unter die Lupe genommen? Ausgereiftere Produkte verfügen unter Umständen über einen größeren Funktionsumfang, erfahrene Anbieter im Regelfall über die nötige Expertise.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Kaufratgeber für Desk Sharing Software​ Weiterlesen »

Honor 400 Pro im Test: Flaggschiff zum Schnäppchenpreis​

Allgemein

Luke Baker Auf einen Blick Pro Jede Menge neue KI-Funktionen Schnelles kabelgebundenes und drahtloses Aufladen Tolle Akkulaufzeit Solides Kamerasystem mit schönen Portrait-Effekten Kontra Rahmen aus Plastik Ultrawide-Kamera liefert schwache Ergebnisse Die MagicOS-Oberfläche dürfte nicht jedem Käufer gefallen Fazit Das Honor 400 Pro überzeugt auf ganzer Linie – und das zu einem fairen Preis. Mit einem leistungsstarken Prozessor, hochwertiger Kamera-Hardware, KI-Funktionen auf Flaggschiff-Niveau, langer Akkulaufzeit und schnellem Laden erfüllt es viele Erwartungen. Allerdings gibt es auch kleinere Schwächen: Der Kunststoffrahmen wirkt weniger hochwertig, die Benutzeroberfläche ist teilweise unübersichtlich, und die Ultraweitwinkelkamera liefert enttäuschende Ergebnisse. Für manche Käufer könnten diese Punkte ein Ausschlusskriterium sein. Das Honor 200 Pro aus dem vergangenen Jahr hat sich als erschwinglichere Mittelklasse-Alternative zu den üblichen Flaggschiffen etabliert. Das Smartphone bot ein Erlebnis, das dem eines Flaggschiffs sehr ähnlich war. Für knapp 800 Euro bot es ein starkes Gesamtpaket – die wenigen Abstriche waren gut zu verkraften. Mit dem Honor 400 Pro bringt die chinesische Marke nun den Nachfolger auf den Markt. Das neue Smartphone kostet 150 Euro weniger, hat einen schnelleren Chip, eine höhere IP-Bewertung, mehr Megapixel, einen etwas größeren Akku und natürlich etliche KI-Funktionen. Nachdem ich es in der letzten Woche als mein Alltags-Handy verwendet habe, möchte ich im Folgenden auf die Vorzüge und Nachteile des Honor 400 Pro eingehen. Design & Aufbau Kunststoffrahmen, gebogene Glasrückseite 205 Gramm IP68 / IP69 zertifiziert Das Honor 400 Pro hat ein vierfach gewölbtes Design auf der Vorder- und Rückseite, mit sanft geschwungenen Seitenleisten, die die beiden Hälften verbinden. Die Form ähnelt der des Magic 7 Pro und des Oppo Find X8 Pro. Dies sorgt für das Gefühl eines Flaggschiffs, ist im Vergleich zu den Vorbildern jedoch preislich viel attraktiver. Luke Baker Der offensichtlichste Hinweis darauf, dass wir es eigentlich mit einem Gerät der Mittelklasse zu tun haben, ist der Kunststoffrahmen. Bedenken bezüglich der Haltbarkeit habe ich nicht. Das Gehäuse wirkt stabil. Aber ohne das Gefühl eines kühlen Aluminiumrahmens merkt man jedes Mal beim Hochnehmen des Smartphones, dass es sich hier um ein günstigeres Modell handelt. Bedenken bezüglich der Haltbarkeit habe ich nicht. Das Gehäuse wirkt stabil. Das Positive an dieser Designentscheidung ist jedoch, dass das Smartphone dadurch ziemlich leicht ist. Mit 205 Gramm ist es leichter als die meisten 6,7-Zoll-Handys. Dieser Umstand macht sich besonders in der Hosentasche bemerkbar. Trotz Plastikrahmen ist das Honor 400 Pro durch die Schutzklasse IP68/69 gegen das Eindringen von Staub und Wasser geschützt. Beim neuen Honor 400 Pro setzt der Hersteller auf ein überarbeitetes Kamera-Layout: Die Linsen sind nun in einer dreieckigen Formation angeordnet – eine Gestaltung, die an eine Mischung aus der iPhone-Kamera und Huaweis Pura 70-Serie von Huawei erinnert. Das ovale Design des Vorgängermodells scheint bei der Kundschaft weniger gut angekommen zu sein. Der neue Look wirkt in jedem Fall markanter und moderner. Für meinen Test habe ich die Farbvariante “Lunar Grey” erhalten. Diese setzt auf eine seidig anmutende Rückseite aus mattem Glas hat. Diese ist vollkommen unempfindlich gegen Fingerabdrücke und liegt gut in der Hand. Dies ist umso wichtiger, da sich keine Hülle im Lieferumfang befindet. Es gibt darüber hinaus auch die Farbvariante “Midnight Black”, die auf eine schwarze Rückseite und schwarze Seitenleisten setzt. Dadurch entsteht ein sehr unauffälliger, professioneller Look. Bildschirm & Lautsprecher 6,7-Zoll, 2.800 × 1.280 Pixel, OLED, 120 Hertz 5.000 Nits Spitzenhelligkeit Stereo-Lautsprecher Das Honor 400 Pro setzt auf einen großen 6,7-Zoll-OLED-Bildschirm mit einer adaptiven Bildwiederholfrequenz von 120 Hertz. Die Spitzenhelligkeit ist laut Hersteller 1.000 Nits höher als beim Vorjahresmodell. Dadurch kann man das Smartphone auch in der direkten Sonne gut ablesen. Bei HDR-Inhalten wirkt sich die hohe Spitzenhelligkeit ebenfalls positiv aus. Luke Baker Die auffälligste Änderung beim Honor 400 Pro ist wohl die Form des Glases. Das Honor 200 Pro hatte ein traditionelles gewölbtes Design mit geschwungenen Kurven auf der linken und rechten Seite des Displays, während das 400 Pro ein Vierfach-Mikrokurven-Design nutzt. Der größte Teil des Displays ist flach, und die Kurven haben einen schärferen Radius, der schon am Rand beginnt Gebogene Displays bereiten mir oft Probleme – zu häufig streife ich versehentlich über den Rand. Das neue Mikrokurven-Design schafft hier jedoch elegant Abhilfe: Der Großteil des Displays ist flach, während die seitlichen Kurven deutlich enger ausfallen und erst ganz am Rand beginnen. So bleibt die Gestensteuerung angenehm flüssig, gleichzeitig werden Fehleingaben nahezu vollständig verhindert. Luke Baker Alles in allem habe ich wirklich keine weiteren Kritikpunkte zum Bildschirm des Honor 400 Pro. Das Display ist hell und lebendig, die Farben wirken akkurat und haben den außergewöhnlichen Kontrast, den nur OLED-Bildschirme bieten. Ich habe das Honor 400 zuerst in der Standardversion getestet, bevor die Pro-Version auf meinem Schreibtisch landete. Die Lautsprecher des Honor 400 ohne Pro klangen zwar gut, aber waren nicht besonders laut. Beim Pro-Modell sind die Lautsprecher deutlich lauter. Die Basswiedergabe ist zwar nicht so gut wie bei den Lautsprechern des Flaggschiffs Magic 7 Pro, aber sie klingen sehr anständig. Spezifikationen & Leistung Qualcomm Snapdragon 8 Gen 3 12 Gigabyte RAM 512 Gigabyte Speicher Das Honour 400 Pro baut auf Qualcomms Flaggschiff-SoC der letzten Generation, den Snapdragon 8 Gen 3. Dieser Chip ist in diesem Jahr in immer mehr Mittelklassegeräten anzutreffen. Luke Baker Der Snapdragon 8 Gen 3 zählt nach wie vor zu den leistungsstärksten Chipsätzen auf dem Markt. Noch in jüngster Vergangenheit galt er als Spitzenmodell im Android-Lager – in einem erschwinglicheren Smartphone wie dem Honor 400 Pro bietet er daher ein exzellentes Preis-Leistungs-Verhältnis, gerade im Vergleich zu älteren Flaggschiffen. Unterstützt wird der Chip von 12 GB Arbeitsspeicher und großzügigen 512 GB internem Speicher – eine Ausstattung, die auch in den kommenden Jahren mehr als alltagstauglich sein dürfte. Im Alltag zeigt sich das Honor 400 Pro entsprechend reaktionsschnell: Apps starten nahezu verzögerungsfrei, das System läuft flüssig, und auch anspruchsvolles Multitasking meistert das Gerät mühelos. Luke Baker Auch beim Spielen macht das Honor 400 Pro eine gute Figur. Jeder Titel lief auf dem Smartphone selbst mit hohen Grafikeinstellungen ohne Ruckler. Sogar das anspruchsvolle “Genshin Impact” erreichte mit hohen Einstellungen 60 Bilder pro Sekunde. Ruckler oder Verlangsamungen sind mir dabei nicht aufgefallen. Bei längerem Spielen wird das Smartphone jedoch ziemlich heiß. Mit einer Schutzhülle lässt sich auch dieses Problem schnell lösen. Honor 400 Pro Benchmarks Kameras 200 Megapixel f/1.9 Hauptkamera 50 Megapixel f/2 3x Teleobjektiv 12 Megapixel f/2.2 Ultraweitwinkel 50 Megapixel f/2.1 Selfie-Kamera Das Honor 400 verfügt über ein ähnliches Kamera-Set-up wie das Honor 400 ohne Pro. Lediglich das separate Dreifach-Teleobjektiv ist neu hinzugekommen. Beim Heranzoomen werden Sie entsprechend mit schöneren Aufnahmen belohnt. Überdies können Sie den gleichen hochauflösenden 200 Megapixel 1/1,4-Zoll-Hauptsensor und den 12 Megapixel f/2.2 Ultraweitwinkel nutzen. Der Hauptsensor ist ein ordentliches Upgrade im Vergleich zum Modell aus dem vergangenen Jahr. Ultraweitwinkel und Teleobjektiv bauen aber offenbar auf die gleichen Sensoren wie schon im Honor 200 Pro. Der einzige Unterschied besteht darin, dass das Teleobjektiv etwas stärker vergrößert ist, nämlich auf Faktor 3 anstelle von 2,5. Der 200-Megapixel-Hauptsensor, den sich beide 400er-Modelle teilen, ermöglicht zwar ordentliche digital zugeschnittene Aufnahmen. Das spezielle Teleobjektiv des Pro-Modells bietet dennoch einen klaren Vorteil. Aufnahmen mit dem nativen dreifachen Zoom sind deutlich schärfer und detailreicher. Dies ändert sich auch nicht sofort, wenn Sie noch mehr Zoom verwenden. Das ist besonders bei Nachtaufnahmen spürbar. Bei gezoomten Bildern des normalen Honor 400 fehlen Details und das Foto wirkt verrauscht. Beim Honor 400 Pro mit seinem speziellen Teleobjektiv entstehen hingegen viel bessere Aufnahmen bei schwachem Licht. Das Pro-Modell ist klar im Vorteil, denn es kann bis zum 50-fachen zoomen, während die Standard-Version des Honor 400 maximal 30-fach heranzoomen kann. Ab dem 15-fachen Zoom wird es jedoch komplizierter, denn hier können Sie die KI zur Hochskalierung des Fotos nutzen, genau wie beim Flaggschiff Magic 7 Pro. Die KI-Verarbeitung übernimmt hier eine Menge Arbeit, und die Ergebnisse werden entsprechend aufgewertet. Das Pro-Modell ist klar im Vorteil, denn es kann bis zum 50-fachen zoomen, während die Standard-Version des Honor 400 maximal 30-fach heranzoomen kann. Ich bin mit den Aufnahmen des Honor 400 Pro sehr zufrieden. Die Bildverarbeitung ist vielleicht manchmal etwas unzuverlässig (wie bei den meisten Honor-Handys). Doch wenn sie funktioniert, sind die Ergebnisse absolut beeindruckend. Die Schwachstelle des Kamerasystems liegt in der Makrofotografie. Für Nahaufnahmen nutzt das Smartphone das Ultraweitwinkelobjektiv – leider das schwächste der drei Linsen. Dadurch muss man extrem nah an das Motiv herangehen, was häufig zu unerwünschten Schatten im Bild führt. Ob Sie nun Menschen oder Haustiere fotografieren, Sie dürfen außergewöhnliche Ergebnisse erwarten Das Honor 400 Pro bietet die gleichen hervorragenden Studio Harcourt Porträt-Effekte, die letztes Jahr mit der 200er-Serie eingeführt wurden. Die Ergebnisse sind genauso atemberaubend wie beim Vorgänger. Ob Sie nun Menschen oder Tiere fotografieren, Sie können außergewöhnliche Ergebnisse erwarten. Die Selfie-Kamera bleibt im Vergleich zum Honor 200 Pro unverändert. Das ist schade, denn diese Linse ist ein wenig enttäuschend. Sie können damit großartige Selfies machen, aber wenn ein Handy so gute Porträts mit den hinteren Linsen erzeugt, wäre es doch sinnvoll, auch die Selfie-Kamera zu verbessern. Mit der Haupt- und der Telekamera kann das Honor 400 Pro Videos mit 4K-Auflösung und 60 Bildern pro Sekunde aufnehmen. Die Ultrawide- und die Selfie-Kamera erreichen bei 4K-Auflösung hingegen maximal 30 Bilder pro Sekunde. Auch hier hat das Honor 400 Pro einen deutlichen Vorsprung gegenüber dem Standardmodell. Dort sind alle Objektive auf der Rückseite auf maximal 30 Bilder pro Sekunde beschränkt. Akkulaufzeit & Aufladen 5.300 Milliamperestunden Akku 100 Watt kabelgebundenes Laden 50 Watt kabelloses Laden Das Honor 400 Pro verfügt über einen Silizium-Kohlenstoff-Akku mit 5.300 Milliamperestunden. Dieser ist größer als der eines durchschnittlichen Smartphones. Mittlerweile überschreiten jedoch viele chinesische Hersteller schon die Marke von 6.000 Milliamperestunden. In der Praxis ist die Kapazität des Akkus mehr als ausreichend. Mit einer Aufladung kam ich locker über anderthalb Tage. Wenn Sie Ihr Smartphone etwas konservativer nutzen, sind sogar zwei Tage möglich. Luke Baker Auch das Aufladen klappt rasend schnell. Das Honor 400 Pro unterstützt eine Geschwindigkeit von bis zu 100 Watt mit einem Kabel und 50 Watt mit der offiziellen kabellosen Ladestation von Honor. Im Lieferumfang ist jedoch kein Ladegerät enthalten, sondern nur ein Kabel. Mit dem passenden Ladegerät können Sie das Smartphone in nur einer halben Stunde von vollkommen leer auf 85 Prozent aufladen. Auch das kabellose Aufladen ist überraschend schnell. Doch der kabellose SuperCharger von Honor ist mit 99 Euro ein teures Zubehör. Und nur damit wird die maximale Geschwindigkeit ohne Kabel erreicht. Software & Apps MagicOS 9, basierend auf Android 15 Neue Google Bild-zu-Video-Funktion Viele KI-Funktionen Auf dem Honor 400 Pro läuft MagicOS 9, eine stark angepasste Version von Android 15. Wenn Sie schon einmal ein Honor-Smartphone verwendet haben, werden Sie damit gut klarkommen. Grundsätzlich wurde das Betriebssystem stark von Apples iOS inspiriert. Luke Baker Ich persönlich mag MagicOS sehr – auch wenn Layout und Design anfangs etwas Eingewöhnung erfordern. Hat man sich aber einmal zurechtgefunden, entdeckt man eine Vielzahl praktischer Funktionen. Zudem läuft das System spürbar flott und geht zugleich schonend mit dem Akku um. Mit MagicOS 9 hält eine Reihe neuer KI-gestützter Features Einzug. Einige davon stammen direkt von Honor, andere wurden in Zusammenarbeit mit Google entwickelt. Ein Highlight auf den Geräten der Honor-400-Serie ist die neue “Bild-zu-Video”-Funktion von Google: Sie ermöglicht es, ein beliebiges Bild aus der Galerie mithilfe künstlicher Intelligenz in ein etwa fünfsekündiges, animiertes Video zu verwandeln – ein echter Hingucker mit kreativen Möglichkeiten. Die Ergebnisse der neuen Bild-zu-Video-Funktion wirken erstaunlich realistisch. Allerdings fehlt derzeit die Möglichkeit, den Erstellungsprozess aktiv zu beeinflussen – entsprechend unvorhersehbar fallen die Clips aus. Dennoch sind sie meist beeindruckend oder zumindest unterhaltsam. Im Alltag deutlich hilfreicher sind die übrigen KI-Funktionen von Honor. Dazu zählen etwa automatische Übersetzungen und Zusammenfassungen von Texten. Ergänzt wird das Angebot durch eher ungewöhnliche Tools wie eine KI-gestützte Deepfake-Erkennung für Videoanrufe sowie KI-generierte Untertitel, die auch in Apps von Drittanbietern funktionieren. Am meisten überzeugt haben mich jedoch die neuen Werkzeuge zur Bildbearbeitung. Innerhalb der Galerie-App lassen sich Motive ausschneiden und an eine andere Stelle im Bild verschieben – die entstandene Lücke wird automatisch per KI gefüllt. Auch geschlossene Augen auf Gruppenfotos kann die Software nachträglich öffnen. Darüber hinaus verbessert die KI unscharfe Bilder, entfernt störende Spiegelungen und erweitert bei Bedarf sichtbar den Bildausschnitt. Honor hat sich dazu verpflichtet, neue Smartphone sechs Jahre lang mit wichtigen Betriebssystem-Upgrades zu versorgen und ebenfalls sechs Jahre lang Sicherheits-Patches auszuliefern. Beim Honor 200 Pro aus dem vergangenen Jahr galt diese Garantie nur für drei größere Updates und vier Jahre Sicherheits-Patches. Damit nähert sich Honor der Update-Politik von Samsung mit sieben Jahren an. Preis & Verfügbarkeit Das Honor 400 Pro ist ab sofort bei Amazon verfügbar. Der Hersteller bietet nur eine einzige Ausführung mit 12 Gigabyte RAM und 512 Gigabyte Speicher an. Der Preis liegt bei 799,90 Euro, lässt sich aber mit einem auf der Produktseite verlinkten Coupon um 150 Euro reduzieren. Damit kostet das Honor 400 Pro bei Amazon nur 799,90 Euro. Zu diesem Preis steht das Honor 400 Pro in direktem Wettbewerb mit Smartphones wie dem iPhone 16e, dem Samsung Galaxy S24 FE und dem Pixel 9 von Google. Weitere interessante Smartphones rund um diesen Preis finden Sie in unserem Artikel Die Preis-Leistungs-Kracher der Mittelklasse. Sollten Sie das Honor 400 Pro kaufen? Das Honor 400 Pro ist ein solides Smartphone der oberen Mittelklasse, das in keinem Bereich echte Schwächen zeigt. Ganz gleich, worauf Sie Wert legen – das Gerät bietet zahlreiche Vorzüge. Die Kameras liefern durchweg gute Ergebnisse, einzig die Ultraweitwinkel-Kamera könnte eine Aktualisierung vertragen. Die Harcourt-Porträt-Effekte sorgen für beeindruckende Aufnahmen von Menschen und Tieren. Der Bildschirm überzeugt, der Akku hält lange durch, und die Leistung ist selbst für anspruchsvolle Spiele mehr als ausreichend. Zusätzlich punktet das Honor 400 Pro mit einer Vielzahl an KI-Funktionen, die von Bildbearbeitung bis Produktivität viele Einsatzbereiche abdecken. Als einziger klarer Nachteil bleibt der Kunststoffrahmen, der sich jedoch kaum auf das insgesamt hochwertige Gefühl des Smartphones auswirkt. Da sich MagicOS stark vom klassischen Android unterscheidet, könnte dies für manche Nutzer eine Umstellung bedeuten. Abgesehen davon muss sich das Honor 400 Pro vor der Konkurrenz keinesfalls verstecken. Technische Daten MagicOS 9, basierend auf Android 15 6,7-Zoll, 2.800 × 1.280 Pixel, OLED, 120 Hertz Fingerabdrucksensor unter dem Display Qualcomm Snapdragon 8 Gen 3 12-Gigabyte-RAM 512 Gigabyte Speicher Kameras: 200-Megapixel-Hauptsensor 12-Megapixel-Ultraweitwinkel 50-Megapixel-Teleobjektiv mit dreifachem Zoom 50-Megapixel-Selfie-Kamera Bis zu 4K @ 60fps Videos auf der Rückseite Stereo-Lautsprecher Dual-SIM Wi-Fi 802.11 a/b/g/n/ac/ax Bluetooth 5.2 Akku mit 5.110 Milliamperestunden 100 Watt kabelgebundenes Laden 50 Watt kabelloses Laden 160,8 × 76,1 × 8,1 Millimeter IP68 / IP69 zertifiziert 205 Gramm Farben: Midnight Black / Lunar Grau (PC-Welt) 

Honor 400 Pro im Test: Flaggschiff zum Schnäppchenpreis​ Luke Baker

Auf einen Blick

Pro

Jede Menge neue KI-Funktionen

Schnelles kabelgebundenes und drahtloses Aufladen

Tolle Akkulaufzeit

Solides Kamerasystem mit schönen Portrait-Effekten

Kontra

Rahmen aus Plastik

Ultrawide-Kamera liefert schwache Ergebnisse

Die MagicOS-Oberfläche dürfte nicht jedem Käufer gefallen

Fazit

Das Honor 400 Pro überzeugt auf ganzer Linie – und das zu einem fairen Preis. Mit einem leistungsstarken Prozessor, hochwertiger Kamera-Hardware, KI-Funktionen auf Flaggschiff-Niveau, langer Akkulaufzeit und schnellem Laden erfüllt es viele Erwartungen. Allerdings gibt es auch kleinere Schwächen: Der Kunststoffrahmen wirkt weniger hochwertig, die Benutzeroberfläche ist teilweise unübersichtlich, und die Ultraweitwinkelkamera liefert enttäuschende Ergebnisse. Für manche Käufer könnten diese Punkte ein Ausschlusskriterium sein.

Das Honor 200 Pro aus dem vergangenen Jahr hat sich als erschwinglichere Mittelklasse-Alternative zu den üblichen Flaggschiffen etabliert. Das Smartphone bot ein Erlebnis, das dem eines Flaggschiffs sehr ähnlich war. Für knapp 800 Euro bot es ein starkes Gesamtpaket – die wenigen Abstriche waren gut zu verkraften.

Mit dem Honor 400 Pro bringt die chinesische Marke nun den Nachfolger auf den Markt. Das neue Smartphone kostet 150 Euro weniger, hat einen schnelleren Chip, eine höhere IP-Bewertung, mehr Megapixel, einen etwas größeren Akku und natürlich etliche KI-Funktionen.

Nachdem ich es in der letzten Woche als mein Alltags-Handy verwendet habe, möchte ich im Folgenden auf die Vorzüge und Nachteile des Honor 400 Pro eingehen.

Design & Aufbau

Kunststoffrahmen, gebogene Glasrückseite

205 Gramm

IP68 / IP69 zertifiziert

Das Honor 400 Pro hat ein vierfach gewölbtes Design auf der Vorder- und Rückseite, mit sanft geschwungenen Seitenleisten, die die beiden Hälften verbinden. Die Form ähnelt der des Magic 7 Pro und des Oppo Find X8 Pro. Dies sorgt für das Gefühl eines Flaggschiffs, ist im Vergleich zu den Vorbildern jedoch preislich viel attraktiver.

Luke Baker

Der offensichtlichste Hinweis darauf, dass wir es eigentlich mit einem Gerät der Mittelklasse zu tun haben, ist der Kunststoffrahmen. Bedenken bezüglich der Haltbarkeit habe ich nicht. Das Gehäuse wirkt stabil. Aber ohne das Gefühl eines kühlen Aluminiumrahmens merkt man jedes Mal beim Hochnehmen des Smartphones, dass es sich hier um ein günstigeres Modell handelt.

Bedenken bezüglich der Haltbarkeit habe ich nicht. Das Gehäuse wirkt stabil.

Das Positive an dieser Designentscheidung ist jedoch, dass das Smartphone dadurch ziemlich leicht ist. Mit 205 Gramm ist es leichter als die meisten 6,7-Zoll-Handys. Dieser Umstand macht sich besonders in der Hosentasche bemerkbar. Trotz Plastikrahmen ist das Honor 400 Pro durch die Schutzklasse IP68/69 gegen das Eindringen von Staub und Wasser geschützt.

Beim neuen Honor 400 Pro setzt der Hersteller auf ein überarbeitetes Kamera-Layout: Die Linsen sind nun in einer dreieckigen Formation angeordnet – eine Gestaltung, die an eine Mischung aus der iPhone-Kamera und Huaweis Pura 70-Serie von Huawei erinnert. Das ovale Design des Vorgängermodells scheint bei der Kundschaft weniger gut angekommen zu sein. Der neue Look wirkt in jedem Fall markanter und moderner.

Für meinen Test habe ich die Farbvariante “Lunar Grey” erhalten. Diese setzt auf eine seidig anmutende Rückseite aus mattem Glas hat. Diese ist vollkommen unempfindlich gegen Fingerabdrücke und liegt gut in der Hand. Dies ist umso wichtiger, da sich keine Hülle im Lieferumfang befindet. Es gibt darüber hinaus auch die Farbvariante “Midnight Black”, die auf eine schwarze Rückseite und schwarze Seitenleisten setzt. Dadurch entsteht ein sehr unauffälliger, professioneller Look.

Bildschirm & Lautsprecher

6,7-Zoll, 2.800 × 1.280 Pixel, OLED, 120 Hertz

5.000 Nits Spitzenhelligkeit

Stereo-Lautsprecher

Das Honor 400 Pro setzt auf einen großen 6,7-Zoll-OLED-Bildschirm mit einer adaptiven Bildwiederholfrequenz von 120 Hertz. Die Spitzenhelligkeit ist laut Hersteller 1.000 Nits höher als beim Vorjahresmodell. Dadurch kann man das Smartphone auch in der direkten Sonne gut ablesen. Bei HDR-Inhalten wirkt sich die hohe Spitzenhelligkeit ebenfalls positiv aus.

Luke Baker

Die auffälligste Änderung beim Honor 400 Pro ist wohl die Form des Glases. Das Honor 200 Pro hatte ein traditionelles gewölbtes Design mit geschwungenen Kurven auf der linken und rechten Seite des Displays, während das 400 Pro ein Vierfach-Mikrokurven-Design nutzt.

Der größte Teil des Displays ist flach, und die Kurven haben einen schärferen Radius, der schon am Rand beginnt

Gebogene Displays bereiten mir oft Probleme – zu häufig streife ich versehentlich über den Rand. Das neue Mikrokurven-Design schafft hier jedoch elegant Abhilfe: Der Großteil des Displays ist flach, während die seitlichen Kurven deutlich enger ausfallen und erst ganz am Rand beginnen. So bleibt die Gestensteuerung angenehm flüssig, gleichzeitig werden Fehleingaben nahezu vollständig verhindert.

Luke Baker

Alles in allem habe ich wirklich keine weiteren Kritikpunkte zum Bildschirm des Honor 400 Pro. Das Display ist hell und lebendig, die Farben wirken akkurat und haben den außergewöhnlichen Kontrast, den nur OLED-Bildschirme bieten.

Ich habe das Honor 400 zuerst in der Standardversion getestet, bevor die Pro-Version auf meinem Schreibtisch landete. Die Lautsprecher des Honor 400 ohne Pro klangen zwar gut, aber waren nicht besonders laut. Beim Pro-Modell sind die Lautsprecher deutlich lauter. Die Basswiedergabe ist zwar nicht so gut wie bei den Lautsprechern des Flaggschiffs Magic 7 Pro, aber sie klingen sehr anständig.

Spezifikationen & Leistung

Qualcomm Snapdragon 8 Gen 3

12 Gigabyte RAM

512 Gigabyte Speicher

Das Honour 400 Pro baut auf Qualcomms Flaggschiff-SoC der letzten Generation, den Snapdragon 8 Gen 3. Dieser Chip ist in diesem Jahr in immer mehr Mittelklassegeräten anzutreffen.

Luke Baker

Der Snapdragon 8 Gen 3 zählt nach wie vor zu den leistungsstärksten Chipsätzen auf dem Markt. Noch in jüngster Vergangenheit galt er als Spitzenmodell im Android-Lager – in einem erschwinglicheren Smartphone wie dem Honor 400 Pro bietet er daher ein exzellentes Preis-Leistungs-Verhältnis, gerade im Vergleich zu älteren Flaggschiffen.

Unterstützt wird der Chip von 12 GB Arbeitsspeicher und großzügigen 512 GB internem Speicher – eine Ausstattung, die auch in den kommenden Jahren mehr als alltagstauglich sein dürfte.

Im Alltag zeigt sich das Honor 400 Pro entsprechend reaktionsschnell: Apps starten nahezu verzögerungsfrei, das System läuft flüssig, und auch anspruchsvolles Multitasking meistert das Gerät mühelos.

Luke Baker

Auch beim Spielen macht das Honor 400 Pro eine gute Figur. Jeder Titel lief auf dem Smartphone selbst mit hohen Grafikeinstellungen ohne Ruckler.

Sogar das anspruchsvolle “Genshin Impact” erreichte mit hohen Einstellungen 60 Bilder pro Sekunde. Ruckler oder Verlangsamungen sind mir dabei nicht aufgefallen. Bei längerem Spielen wird das Smartphone jedoch ziemlich heiß. Mit einer Schutzhülle lässt sich auch dieses Problem schnell lösen.

Honor 400 Pro Benchmarks

Kameras

200 Megapixel f/1.9 Hauptkamera

50 Megapixel f/2 3x Teleobjektiv

12 Megapixel f/2.2 Ultraweitwinkel

50 Megapixel f/2.1 Selfie-Kamera

Das Honor 400 verfügt über ein ähnliches Kamera-Set-up wie das Honor 400 ohne Pro. Lediglich das separate Dreifach-Teleobjektiv ist neu hinzugekommen. Beim Heranzoomen werden Sie entsprechend mit schöneren Aufnahmen belohnt.

Überdies können Sie den gleichen hochauflösenden 200 Megapixel 1/1,4-Zoll-Hauptsensor und den 12 Megapixel f/2.2 Ultraweitwinkel nutzen. Der Hauptsensor ist ein ordentliches Upgrade im Vergleich zum Modell aus dem vergangenen Jahr. Ultraweitwinkel und Teleobjektiv bauen aber offenbar auf die gleichen Sensoren wie schon im Honor 200 Pro. Der einzige Unterschied besteht darin, dass das Teleobjektiv etwas stärker vergrößert ist, nämlich auf Faktor 3 anstelle von 2,5.

Der 200-Megapixel-Hauptsensor, den sich beide 400er-Modelle teilen, ermöglicht zwar ordentliche digital zugeschnittene Aufnahmen. Das spezielle Teleobjektiv des Pro-Modells bietet dennoch einen klaren Vorteil. Aufnahmen mit dem nativen dreifachen Zoom sind deutlich schärfer und detailreicher. Dies ändert sich auch nicht sofort, wenn Sie noch mehr Zoom verwenden.

Das ist besonders bei Nachtaufnahmen spürbar. Bei gezoomten Bildern des normalen Honor 400 fehlen Details und das Foto wirkt verrauscht. Beim Honor 400 Pro mit seinem speziellen Teleobjektiv entstehen hingegen viel bessere Aufnahmen bei schwachem Licht.

Das Pro-Modell ist klar im Vorteil, denn es kann bis zum 50-fachen zoomen, während die Standard-Version des Honor 400 maximal 30-fach heranzoomen kann.

Ab dem 15-fachen Zoom wird es jedoch komplizierter, denn hier können Sie die KI zur Hochskalierung des Fotos nutzen, genau wie beim Flaggschiff Magic 7 Pro. Die KI-Verarbeitung übernimmt hier eine Menge Arbeit, und die Ergebnisse werden entsprechend aufgewertet. Das Pro-Modell ist klar im Vorteil, denn es kann bis zum 50-fachen zoomen, während die Standard-Version des Honor 400 maximal 30-fach heranzoomen kann.

Ich bin mit den Aufnahmen des Honor 400 Pro sehr zufrieden. Die Bildverarbeitung ist vielleicht manchmal etwas unzuverlässig (wie bei den meisten Honor-Handys). Doch wenn sie funktioniert, sind die Ergebnisse absolut beeindruckend.

Die Schwachstelle des Kamerasystems liegt in der Makrofotografie. Für Nahaufnahmen nutzt das Smartphone das Ultraweitwinkelobjektiv – leider das schwächste der drei Linsen. Dadurch muss man extrem nah an das Motiv herangehen, was häufig zu unerwünschten Schatten im Bild führt.

Ob Sie nun Menschen oder Haustiere fotografieren, Sie dürfen außergewöhnliche Ergebnisse erwarten

Das Honor 400 Pro bietet die gleichen hervorragenden Studio Harcourt Porträt-Effekte, die letztes Jahr mit der 200er-Serie eingeführt wurden. Die Ergebnisse sind genauso atemberaubend wie beim Vorgänger. Ob Sie nun Menschen oder Tiere fotografieren, Sie können außergewöhnliche Ergebnisse erwarten.

Die Selfie-Kamera bleibt im Vergleich zum Honor 200 Pro unverändert. Das ist schade, denn diese Linse ist ein wenig enttäuschend. Sie können damit großartige Selfies machen, aber wenn ein Handy so gute Porträts mit den hinteren Linsen erzeugt, wäre es doch sinnvoll, auch die Selfie-Kamera zu verbessern.

Mit der Haupt- und der Telekamera kann das Honor 400 Pro Videos mit 4K-Auflösung und 60 Bildern pro Sekunde aufnehmen. Die Ultrawide- und die Selfie-Kamera erreichen bei 4K-Auflösung hingegen maximal 30 Bilder pro Sekunde. Auch hier hat das Honor 400 Pro einen deutlichen Vorsprung gegenüber dem Standardmodell. Dort sind alle Objektive auf der Rückseite auf maximal 30 Bilder pro Sekunde beschränkt.

Akkulaufzeit & Aufladen

5.300 Milliamperestunden Akku

100 Watt kabelgebundenes Laden

50 Watt kabelloses Laden

Das Honor 400 Pro verfügt über einen Silizium-Kohlenstoff-Akku mit 5.300 Milliamperestunden. Dieser ist größer als der eines durchschnittlichen Smartphones. Mittlerweile überschreiten jedoch viele chinesische Hersteller schon die Marke von 6.000 Milliamperestunden.

In der Praxis ist die Kapazität des Akkus mehr als ausreichend. Mit einer Aufladung kam ich locker über anderthalb Tage. Wenn Sie Ihr Smartphone etwas konservativer nutzen, sind sogar zwei Tage möglich.

Luke Baker

Auch das Aufladen klappt rasend schnell. Das Honor 400 Pro unterstützt eine Geschwindigkeit von bis zu 100 Watt mit einem Kabel und 50 Watt mit der offiziellen kabellosen Ladestation von Honor.

Im Lieferumfang ist jedoch kein Ladegerät enthalten, sondern nur ein Kabel. Mit dem passenden Ladegerät können Sie das Smartphone in nur einer halben Stunde von vollkommen leer auf 85 Prozent aufladen. Auch das kabellose Aufladen ist überraschend schnell. Doch der kabellose SuperCharger von Honor ist mit 99 Euro ein teures Zubehör. Und nur damit wird die maximale Geschwindigkeit ohne Kabel erreicht.

Software & Apps

MagicOS 9, basierend auf Android 15

Neue Google Bild-zu-Video-Funktion

Viele KI-Funktionen

Auf dem Honor 400 Pro läuft MagicOS 9, eine stark angepasste Version von Android 15. Wenn Sie schon einmal ein Honor-Smartphone verwendet haben, werden Sie damit gut klarkommen. Grundsätzlich wurde das Betriebssystem stark von Apples iOS inspiriert.

Luke Baker

Ich persönlich mag MagicOS sehr – auch wenn Layout und Design anfangs etwas Eingewöhnung erfordern. Hat man sich aber einmal zurechtgefunden, entdeckt man eine Vielzahl praktischer Funktionen. Zudem läuft das System spürbar flott und geht zugleich schonend mit dem Akku um.

Mit MagicOS 9 hält eine Reihe neuer KI-gestützter Features Einzug. Einige davon stammen direkt von Honor, andere wurden in Zusammenarbeit mit Google entwickelt.

Ein Highlight auf den Geräten der Honor-400-Serie ist die neue “Bild-zu-Video”-Funktion von Google: Sie ermöglicht es, ein beliebiges Bild aus der Galerie mithilfe künstlicher Intelligenz in ein etwa fünfsekündiges, animiertes Video zu verwandeln – ein echter Hingucker mit kreativen Möglichkeiten.

Die Ergebnisse der neuen Bild-zu-Video-Funktion wirken erstaunlich realistisch. Allerdings fehlt derzeit die Möglichkeit, den Erstellungsprozess aktiv zu beeinflussen – entsprechend unvorhersehbar fallen die Clips aus. Dennoch sind sie meist beeindruckend oder zumindest unterhaltsam.

Im Alltag deutlich hilfreicher sind die übrigen KI-Funktionen von Honor. Dazu zählen etwa automatische Übersetzungen und Zusammenfassungen von Texten. Ergänzt wird das Angebot durch eher ungewöhnliche Tools wie eine KI-gestützte Deepfake-Erkennung für Videoanrufe sowie KI-generierte Untertitel, die auch in Apps von Drittanbietern funktionieren.

Am meisten überzeugt haben mich jedoch die neuen Werkzeuge zur Bildbearbeitung. Innerhalb der Galerie-App lassen sich Motive ausschneiden und an eine andere Stelle im Bild verschieben – die entstandene Lücke wird automatisch per KI gefüllt. Auch geschlossene Augen auf Gruppenfotos kann die Software nachträglich öffnen. Darüber hinaus verbessert die KI unscharfe Bilder, entfernt störende Spiegelungen und erweitert bei Bedarf sichtbar den Bildausschnitt.

Honor hat sich dazu verpflichtet, neue Smartphone sechs Jahre lang mit wichtigen Betriebssystem-Upgrades zu versorgen und ebenfalls sechs Jahre lang Sicherheits-Patches auszuliefern. Beim Honor 200 Pro aus dem vergangenen Jahr galt diese Garantie nur für drei größere Updates und vier Jahre Sicherheits-Patches. Damit nähert sich Honor der Update-Politik von Samsung mit sieben Jahren an.

Preis & Verfügbarkeit

Das Honor 400 Pro ist ab sofort bei Amazon verfügbar. Der Hersteller bietet nur eine einzige Ausführung mit 12 Gigabyte RAM und 512 Gigabyte Speicher an. Der Preis liegt bei 799,90 Euro, lässt sich aber mit einem auf der Produktseite verlinkten Coupon um 150 Euro reduzieren. Damit kostet das Honor 400 Pro bei Amazon nur 799,90 Euro.

Zu diesem Preis steht das Honor 400 Pro in direktem Wettbewerb mit Smartphones wie dem iPhone 16e, dem Samsung Galaxy S24 FE und dem Pixel 9 von Google. Weitere interessante Smartphones rund um diesen Preis finden Sie in unserem Artikel Die Preis-Leistungs-Kracher der Mittelklasse.

Sollten Sie das Honor 400 Pro kaufen?

Das Honor 400 Pro ist ein solides Smartphone der oberen Mittelklasse, das in keinem Bereich echte Schwächen zeigt. Ganz gleich, worauf Sie Wert legen – das Gerät bietet zahlreiche Vorzüge.

Die Kameras liefern durchweg gute Ergebnisse, einzig die Ultraweitwinkel-Kamera könnte eine Aktualisierung vertragen. Die Harcourt-Porträt-Effekte sorgen für beeindruckende Aufnahmen von Menschen und Tieren. Der Bildschirm überzeugt, der Akku hält lange durch, und die Leistung ist selbst für anspruchsvolle Spiele mehr als ausreichend. Zusätzlich punktet das Honor 400 Pro mit einer Vielzahl an KI-Funktionen, die von Bildbearbeitung bis Produktivität viele Einsatzbereiche abdecken.

Als einziger klarer Nachteil bleibt der Kunststoffrahmen, der sich jedoch kaum auf das insgesamt hochwertige Gefühl des Smartphones auswirkt. Da sich MagicOS stark vom klassischen Android unterscheidet, könnte dies für manche Nutzer eine Umstellung bedeuten. Abgesehen davon muss sich das Honor 400 Pro vor der Konkurrenz keinesfalls verstecken.

Technische Daten

MagicOS 9, basierend auf Android 15

6,7-Zoll, 2.800 × 1.280 Pixel, OLED, 120 Hertz

Fingerabdrucksensor unter dem Display

Qualcomm Snapdragon 8 Gen 3

12-Gigabyte-RAM

512 Gigabyte Speicher

Kameras:

200-Megapixel-Hauptsensor

12-Megapixel-Ultraweitwinkel

50-Megapixel-Teleobjektiv mit dreifachem Zoom

50-Megapixel-Selfie-Kamera

Bis zu 4K @ 60fps Videos auf der Rückseite

Stereo-Lautsprecher

Dual-SIM

Wi-Fi 802.11 a/b/g/n/ac/ax

Bluetooth 5.2

Akku mit 5.110 Milliamperestunden

100 Watt kabelgebundenes Laden

50 Watt kabelloses Laden

160,8 × 76,1 × 8,1 Millimeter

IP68 / IP69 zertifiziert

205 Gramm

Farben: Midnight Black / Lunar Grau

(PC-Welt)

Honor 400 Pro im Test: Flaggschiff zum Schnäppchenpreis​ Weiterlesen »

Von Android zum iPhone: Nach 12 Jahren steige ich um – das habe ich dabei gelernt​

Allgemein

Anyron Copeman / Foundry Wenn ich sage, dass ich für meinen Lebensunterhalt Telefone teste und rezensiere, dann meine ich eigentlich, dass ich für meinen Lebensunterhalt Android-Handys rezensiere. Das sollte keine große Überraschung sein, denn es kommen jedes Jahr dutzende neue Geräte auf den Markt. Das soll nicht heißen, dass iPhones nicht wichtig sind, ganz im Gegenteil. Aber bei maximal fünf neuen Handys pro Jahr waren meine Chancen, als Junior-Redakteur eins zu testen, eher gering. Das änderte sich, als ich letztes Jahr Redakteur für Mobilgeräte wurde. Plötzlich wurde es für mich zur Priorität, herauszufinden, was in der geheimnisvollen Welt der Apple-Smartphones vor sich geht. Das habe ich also getan. Aber nachdem ich meine SIM-Karte in das iPhone 16 Pro eingelegt hatte (das erste iPhone, das ich seit dem iPhone 5 im Jahr 2012 als Haupthandy benutzte) war ich nicht darauf vorbereitet, wie anders es sein würde. In den zwei Wochen, die ich mit dem Gerät verbracht habe, habe ich viel über Apple und seine Herangehensweise an Telefonhardware und -software gelernt. Wenn Sie ein Android-Liebhaber sind und den Umstieg in Erwägung ziehen, sollten Sie auch diese 8 Dinge beachten. Whatsapp-Probleme Von allen Apps und Daten, die ich zwischen Android und iOS verschieben wollte, bereitete mir Whatsapp die meisten Kopfschmerzen. Ich bin es bereits gewohnt, meine Chats auf einem Telefon zu sichern und sie dann auf einem anderen neu zu registrieren und wiederherzustellen. Aber während Android Google Drive für Backups verwendet, verlässt sich das iPhone auf iCloud. Whatsapp auf dem iPhone zum Laufen zu bringen, kann eine Weile dauernAnyron Copeman / Foundry Bis 2022 gab es keine einfache Möglichkeit, Ihren Chatverlauf zu verschieben. Das hat sich inzwischen geändert, aber es hängt immer noch davon ab, dass Sie die App “Auf iOS übertragen” verwenden und sie transferieren, sobald Sie Ihr neues iPhone einrichten. Wenn Sie das vergessen, müssen Sie das Gerät zurücksetzen und von vorne beginnen. Glücklicherweise gibt es eine Alternative, die für meinen vorübergehenden Wechsel perfekt war. Ich fügte das iPhone 16 Pro einfach als “verknüpftes Gerät” hinzu (Sie können bis zu vier Geräte hinzufügen), sodass ich mein Android-Telefon als Hauptgerät behalten konnte. Für mich war das eine perfekte Lösung, denn es funktioniert auch, wenn das Hauptgerät ausgeschaltet ist. Allerdings müssen Sie sich mindestens einmal alle 14 Tage darauf anmelden. Mehr als bei jeder anderen App müssen Sie für Whatsapp also einen Plan haben, bevor Sie mit dem Wechsel beginnen. Was sind das für Tasten? Das hochwertige Design und die hervorragende Verarbeitungsqualität des iPhone 16 Pro haben mich nicht überrascht. Im Vergleich zum Pixel 9 Pro, das ich kurz zuvor getestet hatte, ist das 16 Pro bemerkenswert ähnlich. Beide Telefone haben 6,3-Zoll-Displays und wiegen 199 Gramm. Es dauerte jedoch nicht lange, bis ich einige wichtige Designunterschiede bemerkte. Vor allem die zusätzlichen Tasten an der Seite. Die meisten Android-Telefone haben nur eine Einschalttaste und eine Lautstärkewippe, aber das iPhone 16 Pro fügt zwei weitere hinzu, mit gemischten Ergebnissen. Nachdem ich mich an die Platzierung gewöhnt hatte, habe ich die Aktionstaste gerne benutzt. Sie war der perfekte Weg, um den Lautlos-Modus ein- und auszuschalten, kann aber auch zum Auslösen aller möglichen Funktionen verwendet werden, einschließlich des Öffnens einer beliebigen App. Das sollten sich Android-Telefone abschauen. Auf die Kamerasteuerungstaste würde ich allerdings lieber verzichten. Sie ist als Abkürzung für die wichtigsten Kamerafunktionen und als physische Auslösetaste gedacht, aber ich fand sie eher fummelig als funktional. Ich bin sicher, dass ich mich mit der Zeit daran gewöhnen würde, aber ich konnte keinen wirklichen Vorteil gegenüber dem Tippen auf das Display erkennen. Die Taste für die Kamerasteuerung wurde mehr versehentlich als absichtlich verwendetAnyron Copeman / Foundry Die Position der Kamerasteuerungstaste verursacht ebenfalls Probleme. Bei Aufnahmen im Querformat ist sie zu weit oben auf dem Telefon, um leicht zugänglich zu sein, während sie im Hochformat praktisch nutzlos ist. Android-Nutzer, hier verpassen Sie wirklich nichts. Unglaubliche Videos Ist das iPhone wirklich das Beste, wenn es um Smartphone-Videos geht? Das iPhone 5 war für die Verhältnisse von 2012 beeindruckend, aber seitdem hat sich viel verändert. Das iPhone 16 Pro ist sowohl für Fotos als auch für Videos hervorragend geeignetAnyron Copeman / Foundry Die gute (oder schlechte, je nachdem, wie Sie es sehen) Nachricht ist, dass das iPhone immer noch die Nase vorn hat. Ich habe einige der besten Fotohandys getestet, darunter das Samsung Galaxy S25 und das Google Pixel 9 Pro XL. Aber keines kann es mit dem 16 Pro aufnehmen, wenn es um die Videoqualität geht. Die Aufnahmen des Hauptobjektivs sind atemberaubend und bieten die Art von gestochen scharfen Details, akkuraten Farben und fließenden Übergängen, die man normalerweise mit einer speziellen Kameraausrüstung verbindet. Die meisten Android-Handys bieten zwar eine gute Videofunktion, aber wenn Sie Ihr Handy nicht nur für den gelegentlichen Gebrauch nutzen möchten, ist das iPhone immer noch die erste Wahl. Fantastische Gesichtserkennung In letzter Zeit haben einige Hersteller von Android-Telefonen endlich begonnen, mit Apples Face ID gleichzuziehen. Insbesondere die Pixel-Telefone von Google und die Honor Magic-Geräte ermöglichen es Ihnen, Ihr Gesicht zur Authentifizierung von Zahlungen und zur Anmeldung bei Banking-Apps zu verwenden. Aber Apple hat Face ID seit 2017 auf dem iPhone, und das merkt man. Auf dem 16 Pro ist es einfach ein bisschen schneller und zuverlässiger als alle Android-Konkurrenten. Es funktioniert bei praktisch allen Lichtverhältnissen und kann leicht so eingestellt werden, dass es sich entsperrt, während Sie eine Brille oder eine Maske tragen. Face ID ist eine Freude zu benutzenAnyron Copeman / Foundry Ein Fingerabdrucksensor unter dem Display wäre schön, aber die Tatsache, dass ich ihn überhaupt nicht vermisst habe, spricht Bände. Face ID ist eine weitere Sache, die Apple absolut perfekt hinbekommen hat. iMessage ist leider besser Bevor ich auf das 16 Pro umgestiegen bin, habe ich mich zunehmend über Apples wichtigste Messaging-App geärgert. Warum verwenden iPhone-Nutzer nicht einfach Whatsapp? Warum hat Apple so lange gebraucht, um die Android-SMS mit RCS zu verbessern? Und warum gibt es die blaue Blase/grüne Blase überhaupt? Dann habe ich angefangen, iMessage zu benutzen. iMessage (oder offiziell nur ‘Messages’, wie es auf dem iPhone heißt) ist zweifellos die beste Allround-Messaging-App auf jedem Telefon. Sie integriert SMS, MMS und iMessages in einer App und macht es ganz einfach, alles auf einen Blick zu sehen. Sie können es auch so einstellen, dass es alle Textbestätigungscodes automatisch löscht, sobald sie verwendet wurden. Und selbst wenn Sie keine Internetverbindung haben, können Sie immer noch mit dem gesamten Kontext der gleichen Konversation texten. Wenn Sie wieder online sind, wird alles automatisch gesichert und ist auf allen Ihren Apple-Geräten verfügbar. Ich bin ein iMessage-KonvertitAnyron Copeman / Foundry Antworten auf Nachrichten werden besser gehandhabt als bei Whatsapp, denn es wird ein Thread erstellt, anstatt den Chat zu überladen. Sie können auch nahtlos zu einem FaceTime-Anruf übergehen, der in der Regel eine bessere Qualität als ein WhatsApp-Anruf bietet. Apples Bibliothek mit Reaktionen, Stickern und Animationen ist unübertroffen, und Links zu Video- und Audioinhalten werden direkt in der App abgespielt. In iMessage ist es diese Sammlung von kleinen Aufmerksamkeiten, die das Erlebnis noch ein bisschen besser machen. Ich hätte nie gedacht, dass ich das sagen würde, aber ich mag es vielleicht lieber als Whatsapp. Albtraum der Benachrichtigungen Mein größter Kritikpunkt am iPhone ist die Art und Weise, wie es mit Benachrichtigungen umgeht. Ich behaupte nicht, dass Android perfekt ist, wenn es um Benachrichtigungen geht, aber es ist iOS gefühlt Lichtjahre voraus. Aus irgendeinem Grund scheint Apple der Meinung zu sein, dass Benachrichtigungen permanent im Benachrichtigungscenter angezeigt werden sollten. Wenn Sie Ihr Telefon entsperren, verschwinden alle Benachrichtigungen vom Sperrbildschirm und erfordern eine halbe Wischbewegung nach oben, um sie aufzurufen. Das macht die Dinge nur unnötig kompliziert. Sie können mir nicht erzählen, dass das besser ist als AndroidAnyron Copeman / Foundry Android macht den Prozess viel einfacher. Alle Ihre Benachrichtigungen werden durchgehend auf dem Sperrbildschirm angezeigt (wenn es zu viele sind, werden deren Symbole unten auf dem Bildschirm angezeigt), von wo aus Sie einfach auf eine tippen können, um sie zu öffnen oder wegzuwischen. Ich bin auch kein Fan von der Art und Weise, wie iOS Benachrichtigungen aus derselben App in “Stapeln” gruppiert. Sicher, das reduziert das Durcheinander, aber ich muss die Liste sowieso immer erweitern, um den Inhalt der Benachrichtigungen zu sehen. Bei Android liegt eine nützliche Vorschau direkt vor mir. Ich behaupte nicht, dass Android perfekt ist, wenn es um Benachrichtigungen geht, aber es fühlt sich um Lichtjahre besser an als iOS Nicht viel Kontrolle im Control Center Auch die Verwendung des iOS Control Centers war recht gewöhnungsbedürftig … und das nicht auf eine gute Art und Weise. Stellen Sie sich das Control Center wie das Schnelleinstellungsmenü von Android vor, nur schlimmer. Das Design ist kein Problem, ebenso wenig wie die Tatsache, dass Sie von der rechten oberen Ecke des Bildschirms nach unten wischen müssen (was Samsung jetzt kopiert hat). Stattdessen ist mein größtes Problem, dass das Antippen eines der Symbole nicht das tut, was Sie erwarten. Mindestens einmal am Tag möchte ich zum Beispiel das Wi-Fi ausschalten. In der Regel, wenn ich auf dem Weg nach draußen bin. Aber auf dem iPhone 16 Pro lässt sich das Wi-Fi durch Antippen des Symbols nicht vollständig deaktivieren. Das ist ein Nein von mirAnyron Copeman / Foundry Stattdessen erscheint die Meldung “Wi-Fi in der Nähe wird bis morgen getrennt”. Mit anderen Worten: das Wi-Fi wird am nächsten Tag automatisch wieder eingeschaltet. Das Gleiche gilt für Bluetooth. Traut Apple mir wirklich nicht zu, dass ich daran denke, Wi-Fi wieder zu aktivieren? Nennen Sie mich altmodisch, aber ich würde das gerne selbst steuern können, indem ich das ‘Control Center’ verwende. 5 Gründe, warum Sie ein Android-Handy kaufen sollten – und kein iPhone Schmerzhaft langes Aufladen Das ist kein Problem, das nur beim iPhone auftritt, aber es war ein ziemlicher Schock, als ich umstieg. Das iPhone 16 Pro ist ein Flaggschiff-Handy, das bei der Markteinführung mindestens 1199 Euro kostet, aber nur mit bis zu 25 W geladen werden kann. Wenn Sie schon einmal die Freuden einer echten Schnellladung erlebt haben, wissen Sie, wie frustrierend das ist. Selbst wenn Sie ein kompatibles Netzteil finden (es ist keines im Lieferumfang enthalten), dauert der Ladevorgang ewig. Das Aufladen erfolgt jetzt über USB-C, zumindestAnyron Copeman / Foundry Das magnetische Laden mit MagSafe ist cool, aber ich würde das sofort wieder aufgeben, wenn ich nur 45 W kabelgebundenes Laden hätte. Ich bin nur froh, dass ich das 16 Pro dank der langen Akkulaufzeit nicht so oft an die Steckdose anschließen muss. Mein Urteil über das iPhone 2025 Der Umstieg auf das iPhone 16 Pro brachte mehr Überraschungen mit sich, als ich erwartet hatte … im Guten wie im Schlechten. Obwohl sie sich ähnlicher sind als je zuvor, unterscheiden sich iOS und Android immer noch in einigen grundlegenden Punkten. Wenn Sie nicht mit beiden vertraut sind, ist der Umstieg in beiden Fällen mit einer erheblichen Lernkurve verbunden. Als jemand, der beruflich Telefone testet und hauptsächlich Google-Apps verwendet, ist Android für mich im Moment die bessere Wahl. Aber ich weiß einige der Möglichkeiten zu schätzen, mit denen Apple das iPhone zu einem so überzeugenden Gerät macht, insbesondere wenn Sie bereits andere Produkte des Unternehmens besitzen. Trotz des Vorwurfs mangelnder Innovation hat das iPhone in den 12 Jahren, die ich weg war, einen verdammt langen Weg zurückgelegt. Die neuesten Modelle sind zweifellos immer noch einige der besten Smartphones, die Sie kaufen können. (PC-Welt) 

Von Android zum iPhone: Nach 12 Jahren steige ich um – das habe ich dabei gelernt​ Anyron Copeman / Foundry

Wenn ich sage, dass ich für meinen Lebensunterhalt Telefone teste und rezensiere, dann meine ich eigentlich, dass ich für meinen Lebensunterhalt Android-Handys rezensiere. Das sollte keine große Überraschung sein, denn es kommen jedes Jahr dutzende neue Geräte auf den Markt.

Das soll nicht heißen, dass iPhones nicht wichtig sind, ganz im Gegenteil. Aber bei maximal fünf neuen Handys pro Jahr waren meine Chancen, als Junior-Redakteur eins zu testen, eher gering.

Das änderte sich, als ich letztes Jahr Redakteur für Mobilgeräte wurde. Plötzlich wurde es für mich zur Priorität, herauszufinden, was in der geheimnisvollen Welt der Apple-Smartphones vor sich geht. Das habe ich also getan.

Aber nachdem ich meine SIM-Karte in das iPhone 16 Pro eingelegt hatte (das erste iPhone, das ich seit dem iPhone 5 im Jahr 2012 als Haupthandy benutzte) war ich nicht darauf vorbereitet, wie anders es sein würde.

In den zwei Wochen, die ich mit dem Gerät verbracht habe, habe ich viel über Apple und seine Herangehensweise an Telefonhardware und -software gelernt. Wenn Sie ein Android-Liebhaber sind und den Umstieg in Erwägung ziehen, sollten Sie auch diese 8 Dinge beachten.

Whatsapp-Probleme

Von allen Apps und Daten, die ich zwischen Android und iOS verschieben wollte, bereitete mir Whatsapp die meisten Kopfschmerzen.

Ich bin es bereits gewohnt, meine Chats auf einem Telefon zu sichern und sie dann auf einem anderen neu zu registrieren und wiederherzustellen. Aber während Android Google Drive für Backups verwendet, verlässt sich das iPhone auf iCloud.

Whatsapp auf dem iPhone zum Laufen zu bringen, kann eine Weile dauernAnyron Copeman / Foundry

Bis 2022 gab es keine einfache Möglichkeit, Ihren Chatverlauf zu verschieben. Das hat sich inzwischen geändert, aber es hängt immer noch davon ab, dass Sie die App “Auf iOS übertragen” verwenden und sie transferieren, sobald Sie Ihr neues iPhone einrichten. Wenn Sie das vergessen, müssen Sie das Gerät zurücksetzen und von vorne beginnen.

Glücklicherweise gibt es eine Alternative, die für meinen vorübergehenden Wechsel perfekt war. Ich fügte das iPhone 16 Pro einfach als “verknüpftes Gerät” hinzu (Sie können bis zu vier Geräte hinzufügen), sodass ich mein Android-Telefon als Hauptgerät behalten konnte.

Für mich war das eine perfekte Lösung, denn es funktioniert auch, wenn das Hauptgerät ausgeschaltet ist. Allerdings müssen Sie sich mindestens einmal alle 14 Tage darauf anmelden.

Mehr als bei jeder anderen App müssen Sie für Whatsapp also einen Plan haben, bevor Sie mit dem Wechsel beginnen.

Was sind das für Tasten?

Das hochwertige Design und die hervorragende Verarbeitungsqualität des iPhone 16 Pro haben mich nicht überrascht. Im Vergleich zum Pixel 9 Pro, das ich kurz zuvor getestet hatte, ist das 16 Pro bemerkenswert ähnlich. Beide Telefone haben 6,3-Zoll-Displays und wiegen 199 Gramm.

Es dauerte jedoch nicht lange, bis ich einige wichtige Designunterschiede bemerkte. Vor allem die zusätzlichen Tasten an der Seite. Die meisten Android-Telefone haben nur eine Einschalttaste und eine Lautstärkewippe, aber das iPhone 16 Pro fügt zwei weitere hinzu, mit gemischten Ergebnissen.

Nachdem ich mich an die Platzierung gewöhnt hatte, habe ich die Aktionstaste gerne benutzt. Sie war der perfekte Weg, um den Lautlos-Modus ein- und auszuschalten, kann aber auch zum Auslösen aller möglichen Funktionen verwendet werden, einschließlich des Öffnens einer beliebigen App. Das sollten sich Android-Telefone abschauen.

Auf die Kamerasteuerungstaste würde ich allerdings lieber verzichten. Sie ist als Abkürzung für die wichtigsten Kamerafunktionen und als physische Auslösetaste gedacht, aber ich fand sie eher fummelig als funktional. Ich bin sicher, dass ich mich mit der Zeit daran gewöhnen würde, aber ich konnte keinen wirklichen Vorteil gegenüber dem Tippen auf das Display erkennen.

Die Taste für die Kamerasteuerung wurde mehr versehentlich als absichtlich verwendetAnyron Copeman / Foundry

Die Position der Kamerasteuerungstaste verursacht ebenfalls Probleme. Bei Aufnahmen im Querformat ist sie zu weit oben auf dem Telefon, um leicht zugänglich zu sein, während sie im Hochformat praktisch nutzlos ist. Android-Nutzer, hier verpassen Sie wirklich nichts.

Unglaubliche Videos

Ist das iPhone wirklich das Beste, wenn es um Smartphone-Videos geht? Das iPhone 5 war für die Verhältnisse von 2012 beeindruckend, aber seitdem hat sich viel verändert.

Das iPhone 16 Pro ist sowohl für Fotos als auch für Videos hervorragend geeignetAnyron Copeman / Foundry

Die gute (oder schlechte, je nachdem, wie Sie es sehen) Nachricht ist, dass das iPhone immer noch die Nase vorn hat. Ich habe einige der besten Fotohandys getestet, darunter das Samsung Galaxy S25 und das Google Pixel 9 Pro XL. Aber keines kann es mit dem 16 Pro aufnehmen, wenn es um die Videoqualität geht.

Die Aufnahmen des Hauptobjektivs sind atemberaubend und bieten die Art von gestochen scharfen Details, akkuraten Farben und fließenden Übergängen, die man normalerweise mit einer speziellen Kameraausrüstung verbindet.

Die meisten Android-Handys bieten zwar eine gute Videofunktion, aber wenn Sie Ihr Handy nicht nur für den gelegentlichen Gebrauch nutzen möchten, ist das iPhone immer noch die erste Wahl.

Fantastische Gesichtserkennung

In letzter Zeit haben einige Hersteller von Android-Telefonen endlich begonnen, mit Apples Face ID gleichzuziehen. Insbesondere die Pixel-Telefone von Google und die Honor Magic-Geräte ermöglichen es Ihnen, Ihr Gesicht zur Authentifizierung von Zahlungen und zur Anmeldung bei Banking-Apps zu verwenden.

Aber Apple hat Face ID seit 2017 auf dem iPhone, und das merkt man. Auf dem 16 Pro ist es einfach ein bisschen schneller und zuverlässiger als alle Android-Konkurrenten. Es funktioniert bei praktisch allen Lichtverhältnissen und kann leicht so eingestellt werden, dass es sich entsperrt, während Sie eine Brille oder eine Maske tragen.

Face ID ist eine Freude zu benutzenAnyron Copeman / Foundry

Ein Fingerabdrucksensor unter dem Display wäre schön, aber die Tatsache, dass ich ihn überhaupt nicht vermisst habe, spricht Bände. Face ID ist eine weitere Sache, die Apple absolut perfekt hinbekommen hat.

iMessage ist leider besser

Bevor ich auf das 16 Pro umgestiegen bin, habe ich mich zunehmend über Apples wichtigste Messaging-App geärgert. Warum verwenden iPhone-Nutzer nicht einfach Whatsapp? Warum hat Apple so lange gebraucht, um die Android-SMS mit RCS zu verbessern? Und warum gibt es die blaue Blase/grüne Blase überhaupt?

Dann habe ich angefangen, iMessage zu benutzen. iMessage (oder offiziell nur ‘Messages’, wie es auf dem iPhone heißt) ist zweifellos die beste Allround-Messaging-App auf jedem Telefon.

Sie integriert SMS, MMS und iMessages in einer App und macht es ganz einfach, alles auf einen Blick zu sehen. Sie können es auch so einstellen, dass es alle Textbestätigungscodes automatisch löscht, sobald sie verwendet wurden.

Und selbst wenn Sie keine Internetverbindung haben, können Sie immer noch mit dem gesamten Kontext der gleichen Konversation texten. Wenn Sie wieder online sind, wird alles automatisch gesichert und ist auf allen Ihren Apple-Geräten verfügbar.

Ich bin ein iMessage-KonvertitAnyron Copeman / Foundry

Antworten auf Nachrichten werden besser gehandhabt als bei Whatsapp, denn es wird ein Thread erstellt, anstatt den Chat zu überladen. Sie können auch nahtlos zu einem FaceTime-Anruf übergehen, der in der Regel eine bessere Qualität als ein WhatsApp-Anruf bietet.

Apples Bibliothek mit Reaktionen, Stickern und Animationen ist unübertroffen, und Links zu Video- und Audioinhalten werden direkt in der App abgespielt.

In iMessage ist es diese Sammlung von kleinen Aufmerksamkeiten, die das Erlebnis noch ein bisschen besser machen. Ich hätte nie gedacht, dass ich das sagen würde, aber ich mag es vielleicht lieber als Whatsapp.

Albtraum der Benachrichtigungen

Mein größter Kritikpunkt am iPhone ist die Art und Weise, wie es mit Benachrichtigungen umgeht. Ich behaupte nicht, dass Android perfekt ist, wenn es um Benachrichtigungen geht, aber es ist iOS gefühlt Lichtjahre voraus.

Aus irgendeinem Grund scheint Apple der Meinung zu sein, dass Benachrichtigungen permanent im Benachrichtigungscenter angezeigt werden sollten. Wenn Sie Ihr Telefon entsperren, verschwinden alle Benachrichtigungen vom Sperrbildschirm und erfordern eine halbe Wischbewegung nach oben, um sie aufzurufen. Das macht die Dinge nur unnötig kompliziert.

Sie können mir nicht erzählen, dass das besser ist als AndroidAnyron Copeman / Foundry

Android macht den Prozess viel einfacher. Alle Ihre Benachrichtigungen werden durchgehend auf dem Sperrbildschirm angezeigt (wenn es zu viele sind, werden deren Symbole unten auf dem Bildschirm angezeigt), von wo aus Sie einfach auf eine tippen können, um sie zu öffnen oder wegzuwischen.

Ich bin auch kein Fan von der Art und Weise, wie iOS Benachrichtigungen aus derselben App in “Stapeln” gruppiert. Sicher, das reduziert das Durcheinander, aber ich muss die Liste sowieso immer erweitern, um den Inhalt der Benachrichtigungen zu sehen. Bei Android liegt eine nützliche Vorschau direkt vor mir.

Ich behaupte nicht, dass Android perfekt ist, wenn es um Benachrichtigungen geht, aber es fühlt sich um Lichtjahre besser an als iOS

Nicht viel Kontrolle im Control Center

Auch die Verwendung des iOS Control Centers war recht gewöhnungsbedürftig … und das nicht auf eine gute Art und Weise. Stellen Sie sich das Control Center wie das Schnelleinstellungsmenü von Android vor, nur schlimmer.

Das Design ist kein Problem, ebenso wenig wie die Tatsache, dass Sie von der rechten oberen Ecke des Bildschirms nach unten wischen müssen (was Samsung jetzt kopiert hat). Stattdessen ist mein größtes Problem, dass das Antippen eines der Symbole nicht das tut, was Sie erwarten.

Mindestens einmal am Tag möchte ich zum Beispiel das Wi-Fi ausschalten. In der Regel, wenn ich auf dem Weg nach draußen bin. Aber auf dem iPhone 16 Pro lässt sich das Wi-Fi durch Antippen des Symbols nicht vollständig deaktivieren.

Das ist ein Nein von mirAnyron Copeman / Foundry

Stattdessen erscheint die Meldung “Wi-Fi in der Nähe wird bis morgen getrennt”. Mit anderen Worten: das Wi-Fi wird am nächsten Tag automatisch wieder eingeschaltet. Das Gleiche gilt für Bluetooth. Traut Apple mir wirklich nicht zu, dass ich daran denke, Wi-Fi wieder zu aktivieren? Nennen Sie mich altmodisch, aber ich würde das gerne selbst steuern können, indem ich das ‘Control Center’ verwende.

5 Gründe, warum Sie ein Android-Handy kaufen sollten – und kein iPhone

Schmerzhaft langes Aufladen

Das ist kein Problem, das nur beim iPhone auftritt, aber es war ein ziemlicher Schock, als ich umstieg. Das iPhone 16 Pro ist ein Flaggschiff-Handy, das bei der Markteinführung mindestens 1199 Euro kostet, aber nur mit bis zu 25 W geladen werden kann.

Wenn Sie schon einmal die Freuden einer echten Schnellladung erlebt haben, wissen Sie, wie frustrierend das ist. Selbst wenn Sie ein kompatibles Netzteil finden (es ist keines im Lieferumfang enthalten), dauert der Ladevorgang ewig.

Das Aufladen erfolgt jetzt über USB-C, zumindestAnyron Copeman / Foundry

Das magnetische Laden mit MagSafe ist cool, aber ich würde das sofort wieder aufgeben, wenn ich nur 45 W kabelgebundenes Laden hätte. Ich bin nur froh, dass ich das 16 Pro dank der langen Akkulaufzeit nicht so oft an die Steckdose anschließen muss.

Mein Urteil über das iPhone 2025

Der Umstieg auf das iPhone 16 Pro brachte mehr Überraschungen mit sich, als ich erwartet hatte … im Guten wie im Schlechten.

Obwohl sie sich ähnlicher sind als je zuvor, unterscheiden sich iOS und Android immer noch in einigen grundlegenden Punkten. Wenn Sie nicht mit beiden vertraut sind, ist der Umstieg in beiden Fällen mit einer erheblichen Lernkurve verbunden.

Als jemand, der beruflich Telefone testet und hauptsächlich Google-Apps verwendet, ist Android für mich im Moment die bessere Wahl. Aber ich weiß einige der Möglichkeiten zu schätzen, mit denen Apple das iPhone zu einem so überzeugenden Gerät macht, insbesondere wenn Sie bereits andere Produkte des Unternehmens besitzen.

Trotz des Vorwurfs mangelnder Innovation hat das iPhone in den 12 Jahren, die ich weg war, einen verdammt langen Weg zurückgelegt. Die neuesten Modelle sind zweifellos immer noch einige der besten Smartphones, die Sie kaufen können.

(PC-Welt)

Von Android zum iPhone: Nach 12 Jahren steige ich um – das habe ich dabei gelernt​ Weiterlesen »

Nach oben scrollen
×