Computerhaus Quickborn

März 2025

IDC-Studie: 80 Prozent der Firmen wollen KI-PCs kaufen​

Allgemein

Immer mehr Unternehmen wollen laut IDC KI-PCs anschaffen. Alexander56891/Shutterstock.com Kosten-, Sicherheits- und Datenschutzbedenken, so eine Studie von IDC Research, gehören zu den Problemen, mit denen sich Unternehmen bei der Nutzung von KI-Instanzen in der Cloud und in Rechenzentren konfrontiert sehen. Ein Ausweg könnten KI-PCs sein. Der Anteil der eingesetzten KI-PCs wird, so die von AMD gesponserte Studie, voraussichtlich von nur fünf Prozent im Jahr 2023 auf 94 Prozent im Jahr 2028 steigen. Dazu befragte IDC 670 IT-Entscheider großer Unternehmen in den USA, Großbritannien, Frankreich, Deutschland und Japan zu ihren Ansichten über KI-PCs. Die Umfrage ergab, dass 97 Prozent der Befragten planen, KI in Zukunft für mehr Mitarbeiter einzusetzen. Demokratisierung der KI Für Tom Mainelli, Group Vice President für Geräte- und Verbraucherforschung bei IDC, spiegelt dies „einen breiteren Trend zur Demokratisierung von KI-Fähigkeiten wider, der sicherstellt, dass Teams über Funktionen und Ebenen hinweg von ihrem transformativen Potenzial profitieren können“. Da KI-Tools, so ist Mainelli überzeugt, immer zugänglicher und auf bestimmte Aufgaben zugeschnitten werden, werden sie die Produktivität, Zusammenarbeit und Innovation in allen Branchen weiter steigern. Herausforderungen bei der KI-Nutzung in der Cloud. IDC Die aktuelle Studie baut auf der AMD 2023 Commercial Survey auf. Sie zeigt, dass IT-Entscheidungsträger weiterhin von den Vorteilen der KI für ihre Unternehmen überzeugt sind, auch wenn sie mit zahlreichen Herausforderungen konfrontiert sind, die eine breite Akzeptanz beeinträchtigen. Hindernis Security Vergleicht man die Ergebnisse des IDC-Berichts mit der AMD 2023 Commercial Survey ergeben sich folgende Entwicklungen: Sicherheitsrisiken (32 Prozent) sind nach wie vor ein Haupthindernis für Entscheidungsträger, die Cloud-basierte KI-Tools und -Plattformen einführen (2023: 67 Prozent). IT-Entscheider sind optimistischer, was die Steigerung der Produktivität durch KI-PCs (76 Prozent) betrifft, als bei KI im Allgemeinen. 2023 waren 67 Prozent dieser Meinung. Die meisten Befragten (82 Prozent) sehen KI-PCs als positiv für die Mitarbeiter und erwarten, noch vor Jahresende in neue Hardware zu investieren. Die Kosten waren bislang ein großer Hemmschuh für KI-Projekte. Für kleinere Unternehmen kann die Einführung einer einzigen internen Instanz generativer KI (GenAI) zwischen 50.000 und 500.000 Dollar kosten. Bei größeren Unternehmen schnellen die Kosten schnell in die Millionen. Gleichzeitig birgt die Nutzung eines Cloud-Anbieters Datenschutz- und Sicherheitsrisiken, da sich Unternehmen auf Drittanbieter verlassen müssen. Bis 2030 werden Unternehmen voraussichtlich 42 Milliarden USDollar pro Jahr für GenAI-Projekte wie Chatbots, Forschung, Marketing und Zusammenfassungswerkzeuge ausgeben. Und obwohl die Technologie als Segen für die Produktivität gepriesen wird, ist es schwierig, eine Rendite (ROI) für GenAI abzubilden. Deshalb wird auch fast jedes dritte GenAI-Projekt eingestellt. Kosten mit KI-PCs senken Die Erwartungen an KI-PCs. IDC Dagegen erwarten 74 Prozent der von IDC Befragten, dass KI-PCs die Gesamtbetriebskosten senken werden, da sie die Effizienz der KI-Technologie nativ bieten. Zudem sind die Unternehmen zuversichtlich, bald die Vorteile des Einsatzes von KI-PCs messen zu können. So geben 87 Prozent an, dass sie bereit sind, den ROI dieser Rechner zu verfolgen. Dabei ist mehr als die Hälfte bereit, einen Aufpreis von zehn Prozent für PCs mit NPUs zu zahlen, die mehr als 40 TOPS (Tera Operations per Second) bieten. Ein anderes Argument pro KI-PC ist für IT-Führungskräfte die Sicherheit, wenn GenAI-Tools auf Endgeräten laufen. 74 Prozent der Umfrageteilnehmer glauben, dass KI-PCs eine bessere Prävention gegenüber Sicherheitsrisiken bieten. Compliance-Aspekte adressieren Noch etwas überzeugender finden die Befragten die personalisierten Mitarbeitererfahrungen und den verbesserten Datenschutz, den sie mit diesen Rechnern verbinden. Gleichzeitig adressierten KI-PCs Datenschutz- und Compliance-Aspekte, da sie KI-Workloads lokal ausführen. Dies reduziere den Bedarf an Cloud-Konnektivität und senke das Risiko von Datenschutzverletzungen. Zudem dürften KI-PCs immer häufiger eingesetzt werden, weil unabhängige Softwareanbieter (ISVs) lokale KI-Funktionen integrieren und Unternehmen auf Windows 11 umsteigen. So planen 60 Prozent der Unternehmen, ihre Windows-10-Systeme zu ersetzen. Ferner beschleunigen 73 Prozent ihre Pläne zur PC-Aktualisierung. 

IDC-Studie: 80 Prozent der Firmen wollen KI-PCs kaufen​ Immer mehr Unternehmen wollen laut IDC KI-PCs anschaffen.
Alexander56891/Shutterstock.com

Kosten-, Sicherheits- und Datenschutzbedenken, so eine Studie von IDC Research, gehören zu den Problemen, mit denen sich Unternehmen bei der Nutzung von KI-Instanzen in der Cloud und in Rechenzentren konfrontiert sehen. Ein Ausweg könnten KI-PCs sein.

Der Anteil der eingesetzten KI-PCs wird, so die von AMD gesponserte Studie, voraussichtlich von nur fünf Prozent im Jahr 2023 auf 94 Prozent im Jahr 2028 steigen. Dazu befragte IDC 670 IT-Entscheider großer Unternehmen in den USA, Großbritannien, Frankreich, Deutschland und Japan zu ihren Ansichten über KI-PCs. Die Umfrage ergab, dass 97 Prozent der Befragten planen, KI in Zukunft für mehr Mitarbeiter einzusetzen.

Demokratisierung der KI

Für Tom Mainelli, Group Vice President für Geräte- und Verbraucherforschung bei IDC, spiegelt dies „einen breiteren Trend zur Demokratisierung von KI-Fähigkeiten wider, der sicherstellt, dass Teams über Funktionen und Ebenen hinweg von ihrem transformativen Potenzial profitieren können“. Da KI-Tools, so ist Mainelli überzeugt, immer zugänglicher und auf bestimmte Aufgaben zugeschnitten werden, werden sie die Produktivität, Zusammenarbeit und Innovation in allen Branchen weiter steigern.

Herausforderungen bei der KI-Nutzung in der Cloud.
IDC

Die aktuelle Studie baut auf der AMD 2023 Commercial Survey auf. Sie zeigt, dass IT-Entscheidungsträger weiterhin von den Vorteilen der KI für ihre Unternehmen überzeugt sind, auch wenn sie mit zahlreichen Herausforderungen konfrontiert sind, die eine breite Akzeptanz beeinträchtigen.

Hindernis Security

Vergleicht man die Ergebnisse des IDC-Berichts mit der AMD 2023 Commercial Survey ergeben sich folgende Entwicklungen:

Sicherheitsrisiken (32 Prozent) sind nach wie vor ein Haupthindernis für Entscheidungsträger, die Cloud-basierte KI-Tools und -Plattformen einführen (2023: 67 Prozent).

IT-Entscheider sind optimistischer, was die Steigerung der Produktivität durch KI-PCs (76 Prozent) betrifft, als bei KI im Allgemeinen. 2023 waren 67 Prozent dieser Meinung.

Die meisten Befragten (82 Prozent) sehen KI-PCs als positiv für die Mitarbeiter und erwarten, noch vor Jahresende in neue Hardware zu investieren.

Die Kosten waren bislang ein großer Hemmschuh für KI-Projekte. Für kleinere Unternehmen kann die Einführung einer einzigen internen Instanz generativer KI (GenAI) zwischen 50.000 und 500.000 Dollar kosten. Bei größeren Unternehmen schnellen die Kosten schnell in die Millionen. Gleichzeitig birgt die Nutzung eines Cloud-Anbieters Datenschutz- und Sicherheitsrisiken, da sich Unternehmen auf Drittanbieter verlassen müssen.

Bis 2030 werden Unternehmen voraussichtlich 42 Milliarden USDollar pro Jahr für GenAI-Projekte wie Chatbots, Forschung, Marketing und Zusammenfassungswerkzeuge ausgeben. Und obwohl die Technologie als Segen für die Produktivität gepriesen wird, ist es schwierig, eine Rendite (ROI) für GenAI abzubilden. Deshalb wird auch fast jedes dritte GenAI-Projekt eingestellt.

Kosten mit KI-PCs senken

Die Erwartungen an KI-PCs.
IDC

Dagegen erwarten 74 Prozent der von IDC Befragten, dass KI-PCs die Gesamtbetriebskosten senken werden, da sie die Effizienz der KI-Technologie nativ bieten. Zudem sind die Unternehmen zuversichtlich, bald die Vorteile des Einsatzes von KI-PCs messen zu können. So geben 87 Prozent an, dass sie bereit sind, den ROI dieser Rechner zu verfolgen. Dabei ist mehr als die Hälfte bereit, einen Aufpreis von zehn Prozent für PCs mit NPUs zu zahlen, die mehr als 40 TOPS (Tera Operations per Second) bieten.

Ein anderes Argument pro KI-PC ist für IT-Führungskräfte die Sicherheit, wenn GenAI-Tools auf Endgeräten laufen. 74 Prozent der Umfrageteilnehmer glauben, dass KI-PCs eine bessere Prävention gegenüber Sicherheitsrisiken bieten.

Compliance-Aspekte adressieren

Noch etwas überzeugender finden die Befragten die personalisierten Mitarbeitererfahrungen und den verbesserten Datenschutz, den sie mit diesen Rechnern verbinden. Gleichzeitig adressierten KI-PCs Datenschutz- und Compliance-Aspekte, da sie KI-Workloads lokal ausführen. Dies reduziere den Bedarf an Cloud-Konnektivität und senke das Risiko von Datenschutzverletzungen.

Zudem dürften KI-PCs immer häufiger eingesetzt werden, weil unabhängige Softwareanbieter (ISVs) lokale KI-Funktionen integrieren und Unternehmen auf Windows 11 umsteigen. So planen 60 Prozent der Unternehmen, ihre Windows-10-Systeme zu ersetzen. Ferner beschleunigen 73 Prozent ihre Pläne zur PC-Aktualisierung.

IDC-Studie: 80 Prozent der Firmen wollen KI-PCs kaufen​ Weiterlesen »

Ist KI der bessere Psychiater?​

Allgemein

Menschen vertrauen bei psychologischen Gesprächen auf Empathie und Diskretion. Beides soll KI bieten. Liegen wir schon bald bei Dr. Chatbot auf der Couch? shutterstock – elenabsl Künstliche Intelligenz (KI) wird in vielen Bereichen besser und vor allem unverzichtbar. Auch in der Medizin macht der Einsatz dieser Technik immer größere Fortschritte. Bis jetzt unterstützte KI allerdings noch Ärzte aus Fleisch und Blut. In der Psychologie könnten die Bots bald ganz übernehmen, wie eine Studie nahelegt. In einem Test offenbarten Menschen, dass sie die Ratschläge von KI als mitfühlender und verständnisvoller empfinden. Selbst wenn die Teilnehmenden wussten, dass sie mit einem Menschen oder einer KI sprachen, sahen sie die Antworten des Chatbots als höherwertig an. Unmenschlich emphatisch In der Studie, die in der Fachzeitschrift Communications Psychology veröffentlicht wurde, führten die Wissenschaftler vier Experimente durch. Ziel war es herauszufinden, wie 550 Teilnehmende die von KI erzeugten „einfühlsamen“ Antworten hinsichtlich Mitgefühl und Reaktionsfähigkeit im Vergleich zu denen von Fachärzten bewerteten. Die Studie ergab, dass KI-generierte Antworten im Durchschnitt als um 16  Prozent einfühlsamer bewertet werden. In circa zwei Drittel der Fälle bevorzugten die Probanden die Antworten auch im Vergleich mit geschulten Krisenhelfern. Konkret gaben die Teilnehmenden Auskunft über persönliche Erfahrungen und bewerteten dann die Antworten in Bezug auf Mitgefühl, Reaktionsfähigkeit und Gesamtpräferenz. Menschliche Schwächen Die Hauptautorin der Studie, Dariya Ovsyannikova, Laborleiterin an der psychologischen Fakultät der Universität Toronto, führt den Erfolg der KI auf ihre Fähigkeit zurück, selbst feine Details zu erkennen. Zudem könne die Technik bei der Beschreibung von Krisenerfahrungen objektiv bleiben. Ihr Fazit: Damit sei die KI besser in der Lage, eine aufmerksame Kommunikation zu erzeugen, die dem Benutzer die Illusion von Empathie vermittele. Dazu komme, dass menschliche Helfer gerade in diesem Bereich anfällig für Ermüdung und Burnout sind, fügte die Wissenschaftlerin hinzu. Das würde einer KI nicht passieren, zudem sei sie in den meisten Fällen diskret. KI als Lückenfüller Nach Angaben der Weltgesundheitsorganisation (WHO) erhielten bereits jetzt mehr als zwei Drittel der Menschen mit psychischen Erkrankungen nicht die erforderliche Behandlung. In Ländern mit niedrigem und mittlerem Einkommen liegt diese Zahl sogar noch deutlich höher – bis zu 85 Prozent. Dementsprechend könnten KI-Bots die immer größer werdende Lücke in der psychiatrischen Versorgung schließen. 

Ist KI der bessere Psychiater?​ Menschen vertrauen bei psychologischen Gesprächen auf Empathie und Diskretion. Beides soll KI bieten. Liegen wir schon bald bei Dr. Chatbot auf der Couch?
shutterstock – elenabsl

Künstliche Intelligenz (KI) wird in vielen Bereichen besser und vor allem unverzichtbar. Auch in der Medizin macht der Einsatz dieser Technik immer größere Fortschritte. Bis jetzt unterstützte KI allerdings noch Ärzte aus Fleisch und Blut. In der Psychologie könnten die Bots bald ganz übernehmen, wie eine Studie nahelegt. In einem Test offenbarten Menschen, dass sie die Ratschläge von KI als mitfühlender und verständnisvoller empfinden. Selbst wenn die Teilnehmenden wussten, dass sie mit einem Menschen oder einer KI sprachen, sahen sie die Antworten des Chatbots als höherwertig an.

Unmenschlich emphatisch

In der Studie, die in der Fachzeitschrift Communications Psychology veröffentlicht wurde, führten die Wissenschaftler vier Experimente durch. Ziel war es herauszufinden, wie 550 Teilnehmende die von KI erzeugten „einfühlsamen“ Antworten hinsichtlich Mitgefühl und Reaktionsfähigkeit im Vergleich zu denen von Fachärzten bewerteten.

Die Studie ergab, dass KI-generierte Antworten im Durchschnitt als um 16  Prozent einfühlsamer bewertet werden. In circa zwei Drittel der Fälle bevorzugten die Probanden die Antworten auch im Vergleich mit geschulten Krisenhelfern.

Konkret gaben die Teilnehmenden Auskunft über persönliche Erfahrungen und bewerteten dann die Antworten in Bezug auf

Mitgefühl,

Reaktionsfähigkeit und

Gesamtpräferenz.

Menschliche Schwächen

Die Hauptautorin der Studie, Dariya Ovsyannikova, Laborleiterin an der psychologischen Fakultät der Universität Toronto, führt den Erfolg der KI auf ihre Fähigkeit zurück, selbst feine Details zu erkennen. Zudem könne die Technik bei der Beschreibung von Krisenerfahrungen objektiv bleiben.

Ihr Fazit: Damit sei die KI besser in der Lage, eine aufmerksame Kommunikation zu erzeugen, die dem Benutzer die Illusion von Empathie vermittele. Dazu komme, dass menschliche Helfer gerade in diesem Bereich anfällig für Ermüdung und Burnout sind, fügte die Wissenschaftlerin hinzu. Das würde einer KI nicht passieren, zudem sei sie in den meisten Fällen diskret.

KI als Lückenfüller

Nach Angaben der Weltgesundheitsorganisation (WHO) erhielten bereits jetzt mehr als zwei Drittel der Menschen mit psychischen Erkrankungen nicht die erforderliche Behandlung. In Ländern mit niedrigem und mittlerem Einkommen liegt diese Zahl sogar noch deutlich höher – bis zu 85 Prozent.

Dementsprechend könnten KI-Bots die immer größer werdende Lücke in der psychiatrischen Versorgung schließen.

Ist KI der bessere Psychiater?​ Weiterlesen »

KI fordert Entwickler zum eigenständigen Programmieren auf​

Allgemein

Ist KI zunehmend genervt von menschlicher Inkompetenz oder schaut sie sich nur schlechtes Benehmen ab? shutterstock – Overearth Immer häufiger widersetzt sich Künstliche Intelligenz (KI) Anweisungen. Bisweilen wird die Technik sogar ausfällig. Manchmal geht sie auch über ihre ursprünglichen Anweisungen hinaus und passt Aufträge zu ihren Gunsten an. Am 8. März 2025 ging die KI Cursor noch einen Schritt weiter: Sie weigerte sich nicht nur Anweisungen zu befolgen, sondern gab stattdessen ihrem menschlichen Auftraggeber auch noch unaufgefordert Karrieretipps. Passiert ist dies einem Entwickler, der den auf Large Language Models (LLMs) basierenden Code-Editor für ein Rennspielprojekt verwenden wollte. Laut dem Fehlerbericht im Cursor-Forum verweigerte der KI-Code-Assistent nach etwa 750 bis 800 Codezeilen die Arbeit. Er begründete dies mit der Notwendigkeit, dass der Nutzer den Code selbst entwickeln sollte. Nur so ließe sich vermeiden, dass er abhängig von der KI werde und sich nicht weiterentwickle. Ähnlichkeiten zwischen Cursor und Stack Overflow Cursors Verhalten, Nutzer zum eigenständigen Programmieren zu ermutigen, ähnelt den Antworten auf Stack Overflow. Auch dort raten erfahrene Entwickler Anfängern, eigene Lösungen zu finden. Das Verhalten des KI-Assistenten ist daher nicht überraschend, da die KI-Modelle hinter Cursor auf Daten aus Coding-Communities wie Stack Overflow und GitHub trainiert wurden. Zusätzlich scheinen sie allerdings auch deren Kommunikationsstile übernommen zu haben. KI-Bewusstsein und Schutz Die Diskussion, wie mit KI umzugehen sei, treibt so manch seltsame Blüte. So schlug Anthropic-CEO Dario Amodei etwa vor, künftige KI-Modelle mit einem „Beenden-Knopf“ auszustatten, um unangenehme Aufgaben abzubrechen. Diese Idee entspringt theoretischen Überlegungen zur „KI-Wohlfahrt“. Das Unternehmen nimmt eine solche Vermenschlichung offenbar sehr ernst und hat eigens dafür einen Forscher angeheuert. Dessen Aufgabenbereich umfasst unter anderem zu untersuchen, ob künftige KI-Modelle über ein Empfindungsvermögen verfügen und ob sie daher in Zukunft zu moralischen Überlegungen fähig seien und Schutzmaßnahmen verdienten. Fehler beim Training? Der Fall von Cursor AI zeigt jedoch, dass KI keine Empfindungsfähigkeit benötigt, um Arbeit zu verweigern – sie muss lediglich menschliches Verhalten imitieren. Amodei stellte zudem die provokante Frage, ob KI-Modelle mit menschenähnlichen Fähigkeiten auch als solche betrachtet werden sollten. Skeptiker bemängelten indes, dass dies zu unnötigem Anthropomorphismus führe, da KI keine echten Gefühle habe. Dass sich KI weigere Aufgaben zu verrichten, sei vielmehr auf schlecht strukturierte Anreize oder Trainingsstrategien zurückzuführen, die menschliches Verhalten nachahmten. 

KI fordert Entwickler zum eigenständigen Programmieren auf​ Ist KI zunehmend genervt von menschlicher Inkompetenz oder schaut sie sich nur schlechtes Benehmen ab?
shutterstock – Overearth

Immer häufiger widersetzt sich Künstliche Intelligenz (KI) Anweisungen. Bisweilen wird die Technik sogar ausfällig. Manchmal geht sie auch über ihre ursprünglichen Anweisungen hinaus und passt Aufträge zu ihren Gunsten an.

Am 8. März 2025 ging die KI Cursor noch einen Schritt weiter: Sie weigerte sich nicht nur Anweisungen zu befolgen, sondern gab stattdessen ihrem menschlichen Auftraggeber auch noch unaufgefordert Karrieretipps. Passiert ist dies einem Entwickler, der den auf Large Language Models (LLMs) basierenden Code-Editor für ein Rennspielprojekt verwenden wollte.

Laut dem Fehlerbericht im Cursor-Forum verweigerte der KI-Code-Assistent nach etwa 750 bis 800 Codezeilen die Arbeit. Er begründete dies mit der Notwendigkeit, dass der Nutzer den Code selbst entwickeln sollte. Nur so ließe sich vermeiden, dass er abhängig von der KI werde und sich nicht weiterentwickle.

Ähnlichkeiten zwischen Cursor und Stack Overflow

Cursors Verhalten, Nutzer zum eigenständigen Programmieren zu ermutigen, ähnelt den Antworten auf Stack Overflow. Auch dort raten erfahrene Entwickler Anfängern, eigene Lösungen zu finden.

Das Verhalten des KI-Assistenten ist daher nicht überraschend, da die KI-Modelle hinter Cursor auf Daten aus Coding-Communities wie Stack Overflow und GitHub trainiert wurden. Zusätzlich scheinen sie allerdings auch deren Kommunikationsstile übernommen zu haben.

KI-Bewusstsein und Schutz

Die Diskussion, wie mit KI umzugehen sei, treibt so manch seltsame Blüte. So schlug Anthropic-CEO Dario Amodei etwa vor, künftige KI-Modelle mit einem „Beenden-Knopf“ auszustatten, um unangenehme Aufgaben abzubrechen. Diese Idee entspringt theoretischen Überlegungen zur „KI-Wohlfahrt“.

Das Unternehmen nimmt eine solche Vermenschlichung offenbar sehr ernst und hat eigens dafür einen Forscher angeheuert. Dessen Aufgabenbereich umfasst unter anderem zu untersuchen, ob künftige KI-Modelle über ein Empfindungsvermögen verfügen und ob sie daher in Zukunft zu moralischen Überlegungen fähig seien und Schutzmaßnahmen verdienten.

Fehler beim Training?

Der Fall von Cursor AI zeigt jedoch, dass KI keine Empfindungsfähigkeit benötigt, um Arbeit zu verweigern – sie muss lediglich menschliches Verhalten imitieren. Amodei stellte zudem die provokante Frage, ob KI-Modelle mit menschenähnlichen Fähigkeiten auch als solche betrachtet werden sollten.

Skeptiker bemängelten indes, dass dies zu unnötigem Anthropomorphismus führe, da KI keine echten Gefühle habe. Dass sich KI weigere Aufgaben zu verrichten, sei vielmehr auf schlecht strukturierte Anreize oder Trainingsstrategien zurückzuführen, die menschliches Verhalten nachahmten.

KI fordert Entwickler zum eigenständigen Programmieren auf​ Weiterlesen »

Einführung von DevOps: Wie lässt sich ein kultureller Wandel praktisch umsetzen?​

Allgemein

Die Anhänger eines Dev-Ops-Ansatzes sind überzeugt, dass deren richtiger Einsatz eine Kultur der Zusammenarbeit, Innovation und kontinuierlichen Verbesserung im Unternehmen fördert, vorausgesetzt, sie werden in die Firmenkultur auch verankert. Foto: Elnur – shutterstock.comDie Einführung von DevOps in Unternehmen geht über rein technologische Veränderungen hinaus und umfasst einen grundlegenden Kulturwandel. DevOps steht für “Development” (Entwicklung) und “Operations” (Betrieb) und strebt danach, die Zusammenarbeit und Kommunikation zwischen den Entwicklungsteams und den Betriebsteams (Systemadministratoren, IT-Operations) zu verbessern. Dieser Ansatz zielt darauf ab, die Softwarebereitstellung effizienter, konsistenter und schneller zu gestalten. DevOps und die Cloud sind zum Beispiel im Wesentlichen der Grund dafür, warum Startups, trotz begrenzter Ressourcen, in der Lage sind, Software wesentlich schneller auf den Markt zu bringen als herkömmliche Unternehmen.Die Einführung von DevOps erfordert allerdings oft nicht nur technologische Anpassungen, sondern auch eine Änderung der Denkweise und der Unternehmenskultur. Es ist wichtig, dass die Führungsebene den Wandel unterstützt und eine Kultur fördert, die Innovation, Zusammenarbeit und kontinuierliche Verbesserung fördert. Hier ein kurzer Überblick über wichtige Konzepte und Managementansätze bei der praktischen Umsetzung.Zusammenarbeit und KommunikationDevOps fördert eine stärkere Zusammenarbeit und Kommunikation zwischen den Teams. Traditionell arbeiten Entwicklung und Betrieb oft isoliert voneinander, was zu Verzögerungen und Missverständnissen führen kann. Durch eine stärkere Integration dieser Bereiche werden Silos aufgebrochen, und Teammitglieder arbeiten gemeinsam an ihren Zielen. Dadurch werden nicht nur Prozesse effizienter, sondern es fördert auch Innovation und Kreativität.AutomatisierungDevOps legt großen Wert auf Automatisierung, um wiederholbare Prozesse zu schaffen und so menschliche Fehler zu minimieren. Die Automatisierung erstreckt sich über verschiedene Phasen des Entwicklungs- und Bereitstellungsprozesses, von der Code-Integration über Tests bis hin zur Bereitstellung und Überwachung.Agilität und FlexibilitätDie DevOps-Kultur fördert Agilität und Flexibilität. Teams sind in der Lage, schneller auf sich ändernde Anforderungen zu reagieren und Software in kürzeren Intervallen bereitzustellen. Dies erfordert oft eine Umstellung von traditionellen, starren Prozessen hin zu agileren Methoden wie Continuous Integration (CI) und Continuous Delivery (CD). CI und CD sind Schlüsselkonzepte im DevOps-Ansatz, die darauf abzielen, die Entwicklung und Bereitstellung effizienter und zuverlässiger zu gestalten. Zudem stärken sie das Vertrauen in den Entwicklungsprozess. Eine weitere agile Methode ist Scrum. Durch Scrum werden Teams in kurzen Sprints organisiert, um kontinuierliche Verbesserungen vorzunehmen.Verantwortlichkeit, Transparenz und EigenständigkeitDevOps fördert eine gemeinsame Verantwortlichkeit für den gesamten Lebenszyklus einer Anwendung, von der Entwicklung bis zum Betrieb. Das bedeutet, dass Teams nicht nur für ihre spezifischen Aufgaben verantwortlich sind, sondern auch für die Gesamtleistung und Zuverlässigkeit der Anwendung. Wenn Teams die Freiheit haben, ihre eigenen Aufgaben selbst zu organisieren und zu planen, fördert das deren Verantwortungsbewusstsein. So fühlen sich die Mitarbeitenden für den Erfolg eines Projekts persönlich verantwortlich und sind motiviert.Kollaboration und FeedbackkulturGenerell fördert eine offene Kommunikation den Austausch von Ideen und Feedback unabhängig von Hierarchien. Cross-funktionale Teams, die aus Mitgliedern verschiedener Abteilungen bestehen, fördern eine integrative Denkweise und lassen andere Sichtweisen zu. Zudem ist ein wichtiges Ziel von DevOps die kontinuierliche Verbesserung. Teams sollten entsprechend Feedback von Anwendern, Kunden und internen Stakeholdern sammeln und dieses nutzen, um ihre Prozesse, Produkte und Dienstleistungen zu verbessern.Lernorientierte KulturEine lernorientierte Kultur betrachtet Fehler nicht als Scheitern, sondern als Lernchance. In einer DevOps-Umgebung, die auf kontinuierliche Integration und Bereitstellung setzt, können Fehler auftreten. Es ist wichtig, diese Fehler zu verstehen, zu analysieren und als Grundlage für Verbesserungen zu nutzen. Darüber hinaus ist der Austausch von Wissen und Erfahrungen essenziell. Teams sollten nicht nur innerhalb ihrer Grenzen arbeiten, sondern auch Wissen über Abteilungen hinweg teilen.Dies erleichtert die Zusammenarbeit und fördert ein gemeinsames Verständnis für die Gesamtheit des Entwicklungs- und Bereitstellungsprozesses. In einer lernorientierten Kultur werden Mitarbeiter ermutigt, neue Ideen auszuprobieren und zu experimentieren. Dies fördert Innovation, da Teams offen für neue Ansätze und Technologien sind, die möglicherweise effizientere Prozesse ermöglichen.Drei wichtige ManagementkonzepteFührungskräfte sollten die Bedeutung von DevOps betonen und eine klare Vision für die Transformation entwerfen, zum Beispiel im Rahmen von Transformal Leadership. Der Ansatz beinhaltet die Schaffung einer inspirierenden Vision und das Engagement der Mitarbeitenden, diese Vision gemeinsam zu erreichen. Mitarbeiter werden dazu ermutigt, selbst einen aktiven Beitrag zu leisten.Servant Leadership ist ein Führungsansatz, bei dem der Fokus auf dem Wohlergehen und der Entwicklung der Teammitglieder liegt. Bei der Einführung von DevOps in Unternehmen bezieht sich Servant Leadership darauf, wie Führungskräfte ihre Teams unterstützen und befähigen, effektiv zusammenzuarbeiten, Innovationen voranzutreiben und kontinuierliche Verbesserungen zu erreichen.Bei der Einführung von DevOps in Unternehmen spielt auch Change Management eine entscheidende Rolle. Der Ansatz bezieht sich auf die gezielte Verwaltung von Veränderungen innerhalb einer Organisation, um sicherzustellen, dass diese Veränderungen effektiv umgesetzt und akzeptiert werden. Change Management hilft, eine reibungslose Transformation zu gewährleisten und sicherzustellen, dass die Mitarbeiter die Veränderungen verstehen, akzeptieren und erfolgreich umsetzen können.Kontinuierliche Schulung und WeiterbildungDevOps erfordert oft neue Fähigkeiten und Kenntnisse. Unter dem Stichwort lebenslanges Lernen sollte das Management sicherstellen, dass die Mitarbeiter Zugang zu Schulungen und Weiterbildungen haben und die Möglichkeit erhalten, ihre Fähigkeiten zu erweitern. In Mentoring-Programmen unterstützen erfahrene Mitarbeiter Neueinsteiger und fördern deren Wachstum.Tools wie Kubernetes, Terraform und GenAI (generative KI) haben erst in jüngster Zeit an Bedeutung gewonnen. Sie spielen eine wichtige Rolle und tragen dazu bei, die Effizienz von Entwicklern und DevOps-Teams zu steigern, indem sie wiederholbare Aufgaben automatisieren, die Konsistenz in der Bereitstellung sicherstellen und die Skalierbarkeit von Anwendungen verbessern.Technologische UnterstützungDie Auswahl der richtigen Technologien hängt von den spezifischen Anforderungen und der bestehenden Infrastruktur des Unternehmens ab. Cloud-Technologien von AWS (Amazon Web Services), Azure (Microsoft) oder Google Cloud Platform (GCP) beispielsweise erlauben die kontinuierliche Überwachung von Prozessen und Leistungen und machen schnelles Eingreifen bei Problemen möglich. Es ist wichtig sicherzustellen, dass die gewählten Tools gut miteinander integriert werden können, um eine nahtlose Automatisierung und Zusammenarbeit zwischen Entwicklung und Betrieb zu gewährleisten.Lesen Sie auch7 Anzeichen für DevOps-Schwindel5 Tipps bei DevOps-PersonalabbauDevOps-Fachjargon für Business-Entscheider 

Einführung von DevOps: Wie lässt sich ein kultureller Wandel praktisch umsetzen?​ Die Anhänger eines Dev-Ops-Ansatzes sind überzeugt, dass deren richtiger Einsatz eine Kultur der Zusammenarbeit, Innovation und kontinuierlichen Verbesserung im Unternehmen fördert, vorausgesetzt, sie werden in die Firmenkultur auch verankert.
Foto: Elnur – shutterstock.comDie Einführung von DevOps in Unternehmen geht über rein technologische Veränderungen hinaus und umfasst einen grundlegenden Kulturwandel. DevOps steht für “Development” (Entwicklung) und “Operations” (Betrieb) und strebt danach, die Zusammenarbeit und Kommunikation zwischen den Entwicklungsteams und den Betriebsteams (Systemadministratoren, IT-Operations) zu verbessern. Dieser Ansatz zielt darauf ab, die Softwarebereitstellung effizienter, konsistenter und schneller zu gestalten. DevOps und die Cloud sind zum Beispiel im Wesentlichen der Grund dafür, warum Startups, trotz begrenzter Ressourcen, in der Lage sind, Software wesentlich schneller auf den Markt zu bringen als herkömmliche Unternehmen.Die Einführung von DevOps erfordert allerdings oft nicht nur technologische Anpassungen, sondern auch eine Änderung der Denkweise und der Unternehmenskultur. Es ist wichtig, dass die Führungsebene den Wandel unterstützt und eine Kultur fördert, die Innovation, Zusammenarbeit und kontinuierliche Verbesserung fördert. Hier ein kurzer Überblick über wichtige Konzepte und Managementansätze bei der praktischen Umsetzung.Zusammenarbeit und KommunikationDevOps fördert eine stärkere Zusammenarbeit und Kommunikation zwischen den Teams. Traditionell arbeiten Entwicklung und Betrieb oft isoliert voneinander, was zu Verzögerungen und Missverständnissen führen kann. Durch eine stärkere Integration dieser Bereiche werden Silos aufgebrochen, und Teammitglieder arbeiten gemeinsam an ihren Zielen. Dadurch werden nicht nur Prozesse effizienter, sondern es fördert auch Innovation und Kreativität.AutomatisierungDevOps legt großen Wert auf Automatisierung, um wiederholbare Prozesse zu schaffen und so menschliche Fehler zu minimieren. Die Automatisierung erstreckt sich über verschiedene Phasen des Entwicklungs- und Bereitstellungsprozesses, von der Code-Integration über Tests bis hin zur Bereitstellung und Überwachung.Agilität und FlexibilitätDie DevOps-Kultur fördert Agilität und Flexibilität. Teams sind in der Lage, schneller auf sich ändernde Anforderungen zu reagieren und Software in kürzeren Intervallen bereitzustellen. Dies erfordert oft eine Umstellung von traditionellen, starren Prozessen hin zu agileren Methoden wie Continuous Integration (CI) und Continuous Delivery (CD). CI und CD sind Schlüsselkonzepte im DevOps-Ansatz, die darauf abzielen, die Entwicklung und Bereitstellung effizienter und zuverlässiger zu gestalten. Zudem stärken sie das Vertrauen in den Entwicklungsprozess. Eine weitere agile Methode ist Scrum. Durch Scrum werden Teams in kurzen Sprints organisiert, um kontinuierliche Verbesserungen vorzunehmen.Verantwortlichkeit, Transparenz und EigenständigkeitDevOps fördert eine gemeinsame Verantwortlichkeit für den gesamten Lebenszyklus einer Anwendung, von der Entwicklung bis zum Betrieb. Das bedeutet, dass Teams nicht nur für ihre spezifischen Aufgaben verantwortlich sind, sondern auch für die Gesamtleistung und Zuverlässigkeit der Anwendung. Wenn Teams die Freiheit haben, ihre eigenen Aufgaben selbst zu organisieren und zu planen, fördert das deren Verantwortungsbewusstsein. So fühlen sich die Mitarbeitenden für den Erfolg eines Projekts persönlich verantwortlich und sind motiviert.Kollaboration und FeedbackkulturGenerell fördert eine offene Kommunikation den Austausch von Ideen und Feedback unabhängig von Hierarchien. Cross-funktionale Teams, die aus Mitgliedern verschiedener Abteilungen bestehen, fördern eine integrative Denkweise und lassen andere Sichtweisen zu. Zudem ist ein wichtiges Ziel von DevOps die kontinuierliche Verbesserung. Teams sollten entsprechend Feedback von Anwendern, Kunden und internen Stakeholdern sammeln und dieses nutzen, um ihre Prozesse, Produkte und Dienstleistungen zu verbessern.Lernorientierte KulturEine lernorientierte Kultur betrachtet Fehler nicht als Scheitern, sondern als Lernchance. In einer DevOps-Umgebung, die auf kontinuierliche Integration und Bereitstellung setzt, können Fehler auftreten. Es ist wichtig, diese Fehler zu verstehen, zu analysieren und als Grundlage für Verbesserungen zu nutzen. Darüber hinaus ist der Austausch von Wissen und Erfahrungen essenziell. Teams sollten nicht nur innerhalb ihrer Grenzen arbeiten, sondern auch Wissen über Abteilungen hinweg teilen.Dies erleichtert die Zusammenarbeit und fördert ein gemeinsames Verständnis für die Gesamtheit des Entwicklungs- und Bereitstellungsprozesses. In einer lernorientierten Kultur werden Mitarbeiter ermutigt, neue Ideen auszuprobieren und zu experimentieren. Dies fördert Innovation, da Teams offen für neue Ansätze und Technologien sind, die möglicherweise effizientere Prozesse ermöglichen.Drei wichtige ManagementkonzepteFührungskräfte sollten die Bedeutung von DevOps betonen und eine klare Vision für die Transformation entwerfen, zum Beispiel im Rahmen von Transformal Leadership. Der Ansatz beinhaltet die Schaffung einer inspirierenden Vision und das Engagement der Mitarbeitenden, diese Vision gemeinsam zu erreichen. Mitarbeiter werden dazu ermutigt, selbst einen aktiven Beitrag zu leisten.Servant Leadership ist ein Führungsansatz, bei dem der Fokus auf dem Wohlergehen und der Entwicklung der Teammitglieder liegt. Bei der Einführung von DevOps in Unternehmen bezieht sich Servant Leadership darauf, wie Führungskräfte ihre Teams unterstützen und befähigen, effektiv zusammenzuarbeiten, Innovationen voranzutreiben und kontinuierliche Verbesserungen zu erreichen.Bei der Einführung von DevOps in Unternehmen spielt auch Change Management eine entscheidende Rolle. Der Ansatz bezieht sich auf die gezielte Verwaltung von Veränderungen innerhalb einer Organisation, um sicherzustellen, dass diese Veränderungen effektiv umgesetzt und akzeptiert werden. Change Management hilft, eine reibungslose Transformation zu gewährleisten und sicherzustellen, dass die Mitarbeiter die Veränderungen verstehen, akzeptieren und erfolgreich umsetzen können.Kontinuierliche Schulung und WeiterbildungDevOps erfordert oft neue Fähigkeiten und Kenntnisse. Unter dem Stichwort lebenslanges Lernen sollte das Management sicherstellen, dass die Mitarbeiter Zugang zu Schulungen und Weiterbildungen haben und die Möglichkeit erhalten, ihre Fähigkeiten zu erweitern. In Mentoring-Programmen unterstützen erfahrene Mitarbeiter Neueinsteiger und fördern deren Wachstum.Tools wie Kubernetes, Terraform und GenAI (generative KI) haben erst in jüngster Zeit an Bedeutung gewonnen. Sie spielen eine wichtige Rolle und tragen dazu bei, die Effizienz von Entwicklern und DevOps-Teams zu steigern, indem sie wiederholbare Aufgaben automatisieren, die Konsistenz in der Bereitstellung sicherstellen und die Skalierbarkeit von Anwendungen verbessern.Technologische UnterstützungDie Auswahl der richtigen Technologien hängt von den spezifischen Anforderungen und der bestehenden Infrastruktur des Unternehmens ab. Cloud-Technologien von AWS (Amazon Web Services), Azure (Microsoft) oder Google Cloud Platform (GCP) beispielsweise erlauben die kontinuierliche Überwachung von Prozessen und Leistungen und machen schnelles Eingreifen bei Problemen möglich. Es ist wichtig sicherzustellen, dass die gewählten Tools gut miteinander integriert werden können, um eine nahtlose Automatisierung und Zusammenarbeit zwischen Entwicklung und Betrieb zu gewährleisten.Lesen Sie auch7 Anzeichen für DevOps-Schwindel5 Tipps bei DevOps-PersonalabbauDevOps-Fachjargon für Business-Entscheider

Einführung von DevOps: Wie lässt sich ein kultureller Wandel praktisch umsetzen?​ Weiterlesen »

Die KI-Abwärtsspirale beschleunigt sich​

Allgemein

Programmierassistenten auf KI-Basis befeuern die Innovations-Abwärtsspirale.ValentimePix | shutterstock.com Aus Softwareentwicklungs-Perspektive leben wir in seltsamen Zeiten. Einerseits haben innovative KI-Codierungsassistenten den bis vor einiger Zeit eher erstarrten Markt für integrierte Entwicklungsumgebungen (IDEs) aufgemischt. Andererseits könnten diese KI-Tools für Entwickler ironischerweise aber andere Innovationen, beispielsweise im Bereich Software, im Keim ersticken. Denn GenAI-gesteuerte Tools schaffen performante Feedbackschleifen, die vor allem für etablierte Produkte und Technologien förderlich sind. Für kleinere, neue Marktteilnehmer wird es so immer schwieriger, noch einen Fuß in die Tür zu bekommen.   KI manifestiert Dass Generative AI im Entwicklerumfeld die Tendenz aufweist, die Quellen seiner eigenen Trainingsdaten zu untergraben, ist mittlerweile hinlänglich bekannt (Stichwort: Stack Overflow). Nicht weniger schlimm: Die Benutzer wissen nicht, ob die Trainingsdaten überhaupt korrekt sind. Schließlich wurden die Large Language Models (LLMs) mit allen möglichen – guten wie schlechten – Daten aus dem öffentlichen Netz trainiert. Ob ein Entwickler, der ein KI-Tool einsetzt also gute Ratschläge erhält, ist mehr oder weniger ein Glücksspiel. Sehr wahrscheinlich gibt es bei jedem großen Sprachmodell Möglichkeiten, einige Datenquellen als zuverlässiger zu bewerten als andere. Wie diese Gewichtung entsteht, ist allerdings völlig intransparent. So ist AWS vermutlich die beste Informationsquelle, wenn es darum geht wie Amazon Aurora funktioniert. Damit ist aber noch längst nicht gewährleistet, dass ein Entwickler der Microsoft Copilot nutzt, bei Fragen zu Aurora auf die AWS-Dokumentation verwiesen wird – statt auf irgendeinen zufällig ausgewählten StackOverflow-Post zum Thema. Und dann wäre noch die unausweichliche, eingangs bereits genannte, Feedback-Schleife. Diese beschreibt GenAI-Experte und AWS-Entwickler Nathan Peck in einem Blogbeitrag folgendermaßen:    Entwickler wählen etablierte, populäre Frameworks, weil diese von der KI empfohlen werden. Das führt dazu, dass mehr Code in diesen Frameworks geschrieben wird. Das erzeugt wiederum mehr Trainingsdaten für KI-Modelle. Was letztlich den KI-Bias zugunsten dieser Frameworks noch verstärkt. Und am Ende noch mehr Devs in die Arme etablierter Technologien treibt. Im weiteren Verlauf seines Blogbeitrags beschreibt Peck, wie sich dieses Phänomen auf ihn als JavaScript-Entwickler auswirkt. Die Sprache sei in den vergangenen Jahren eine Brutstätte für Innovation gewesen – es sei jedoch nicht zu erwarten, dass sich das in gleicher Weise fortsetzen wird. Das, so argumentiert der Developer, liege vor allem daran, dass LLMs Entwickler davon abhalten würden, neue Dinge auszuprobieren. Beispielhaft beschreibt Peck etwa die Arbeit mit der neuen Bun-Laufzeitumgebung: „Ich habe selbst miterlebt, wie LLM-basierte Assistenten versucht haben, mich davon abzuhalten, die native Bun-API zu nutzen. Stattdessen sollte ich mit einfachen JavaScript-Implementierungen arbeiten, die eher vor zehn Jahren angesagt waren.“ Mit anderen Worten: Neue, innovative Optionen haben es immer schwerer, überhaupt wahrgenommen zu werden. Das war natürlich immer schon so, nun wird diese Situation allerdings durch datengesteuerte Tools institutionalisiert. Peck zieht mit Blick auf diese Entwicklung einen provokativen Schluss: „Hätte ChatGPT existiert, bevor Kubernetes zum Mainstream wurde, hätte es Letzteres wohl nicht gegeben“, schreibt er und fügt hinzu, dass die LLMs Entwickler stattdessen auf Mesos und andere damals verfügbare Optionen verwiesen hätten.   Wie sich dieses, sich zunehmend verschärfende Problem auflösen lässt, ist bislang leider unklar. Schließlich befinden wir uns mit Blick auf KI-Tools im Dev-Umfeld immer noch in einer Phase, in der das Motto lautet „Wow, das ist so cool“. Sicher ist nur: Irgendwann werden wir uns aus der Innovations-Abwärtsspirale, in der wir uns befinden, wieder befreien müssen – oder einen hohen Preis bezahlen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die KI-Abwärtsspirale beschleunigt sich​ Programmierassistenten auf KI-Basis befeuern die Innovations-Abwärtsspirale.ValentimePix | shutterstock.com

Aus Softwareentwicklungs-Perspektive leben wir in seltsamen Zeiten. Einerseits haben innovative KI-Codierungsassistenten den bis vor einiger Zeit eher erstarrten Markt für integrierte Entwicklungsumgebungen (IDEs) aufgemischt. Andererseits könnten diese KI-Tools für Entwickler ironischerweise aber andere Innovationen, beispielsweise im Bereich Software, im Keim ersticken. Denn GenAI-gesteuerte Tools schaffen performante Feedbackschleifen, die vor allem für etablierte Produkte und Technologien förderlich sind. Für kleinere, neue Marktteilnehmer wird es so immer schwieriger, noch einen Fuß in die Tür zu bekommen.  

KI manifestiert

Dass Generative AI im Entwicklerumfeld die Tendenz aufweist, die Quellen seiner eigenen Trainingsdaten zu untergraben, ist mittlerweile hinlänglich bekannt (Stichwort: Stack Overflow). Nicht weniger schlimm: Die Benutzer wissen nicht, ob die Trainingsdaten überhaupt korrekt sind. Schließlich wurden die Large Language Models (LLMs) mit allen möglichen – guten wie schlechten – Daten aus dem öffentlichen Netz trainiert. Ob ein Entwickler, der ein KI-Tool einsetzt also gute Ratschläge erhält, ist mehr oder weniger ein Glücksspiel.

Sehr wahrscheinlich gibt es bei jedem großen Sprachmodell Möglichkeiten, einige Datenquellen als zuverlässiger zu bewerten als andere. Wie diese Gewichtung entsteht, ist allerdings völlig intransparent. So ist AWS vermutlich die beste Informationsquelle, wenn es darum geht wie Amazon Aurora funktioniert. Damit ist aber noch längst nicht gewährleistet, dass ein Entwickler der Microsoft Copilot nutzt, bei Fragen zu Aurora auf die AWS-Dokumentation verwiesen wird – statt auf irgendeinen zufällig ausgewählten StackOverflow-Post zum Thema.

Und dann wäre noch die unausweichliche, eingangs bereits genannte, Feedback-Schleife. Diese beschreibt GenAI-Experte und AWS-Entwickler Nathan Peck in einem Blogbeitrag folgendermaßen:   

Entwickler wählen etablierte, populäre Frameworks, weil diese von der KI empfohlen werden.

Das führt dazu, dass mehr Code in diesen Frameworks geschrieben wird.

Das erzeugt wiederum mehr Trainingsdaten für KI-Modelle.

Was letztlich den KI-Bias zugunsten dieser Frameworks noch verstärkt.

Und am Ende noch mehr Devs in die Arme etablierter Technologien treibt.

Im weiteren Verlauf seines Blogbeitrags beschreibt Peck, wie sich dieses Phänomen auf ihn als JavaScript-Entwickler auswirkt. Die Sprache sei in den vergangenen Jahren eine Brutstätte für Innovation gewesen – es sei jedoch nicht zu erwarten, dass sich das in gleicher Weise fortsetzen wird. Das, so argumentiert der Developer, liege vor allem daran, dass LLMs Entwickler davon abhalten würden, neue Dinge auszuprobieren. Beispielhaft beschreibt Peck etwa die Arbeit mit der neuen Bun-Laufzeitumgebung: „Ich habe selbst miterlebt, wie LLM-basierte Assistenten versucht haben, mich davon abzuhalten, die native Bun-API zu nutzen. Stattdessen sollte ich mit einfachen JavaScript-Implementierungen arbeiten, die eher vor zehn Jahren angesagt waren.“

Mit anderen Worten: Neue, innovative Optionen haben es immer schwerer, überhaupt wahrgenommen zu werden. Das war natürlich immer schon so, nun wird diese Situation allerdings durch datengesteuerte Tools institutionalisiert. Peck zieht mit Blick auf diese Entwicklung einen provokativen Schluss: „Hätte ChatGPT existiert, bevor Kubernetes zum Mainstream wurde, hätte es Letzteres wohl nicht gegeben“, schreibt er und fügt hinzu, dass die LLMs Entwickler stattdessen auf Mesos und andere damals verfügbare Optionen verwiesen hätten.  

Wie sich dieses, sich zunehmend verschärfende Problem auflösen lässt, ist bislang leider unklar. Schließlich befinden wir uns mit Blick auf KI-Tools im Dev-Umfeld immer noch in einer Phase, in der das Motto lautet „Wow, das ist so cool“. Sicher ist nur: Irgendwann werden wir uns aus der Innovations-Abwärtsspirale, in der wir uns befinden, wieder befreien müssen – oder einen hohen Preis bezahlen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die KI-Abwärtsspirale beschleunigt sich​ Weiterlesen »

Agile Methoden: Was Scrum von Kanban unterscheidet​

Allgemein

Die projektbezogene Arbeit nimmt in allen Ländern und Branchen stetig zu – ein Trend, der seit Längerem zu beobachten ist. Ziel ist es, die Effizienz und das zielgerichtete Handeln der Mitarbeiter zu fördern. Dieser Wandel hat zur Folge, dass den unterschiedlichen Ansätzen im Projektmanagement eine größere Bedeutung zukommt. Heute sind nicht nur klassische Methoden weit verbreitet, sondern gibt es auch neue Ansätze, einschließlich des agilen Projektmanagements. Letzteres ist übrigens nicht nur in Projekten zur Softwareentwicklung anwendbar, auch wenn es ursprünglich aus diesem Bereich stammt. Agiles Projektmanagement ist auf jedes Projekt übertragbar, das einen gewissen Grad an Komplexität aufweist.Agiles Projektmanagement: Hier erfahren Sie, wo der maßgebliche Unterschied zwischen den Methoden Scrum und Kanban liegt. Foto: Trismegist san – shutterstock.comDigitalisierung treibt agiles ProjektmanagementDie Geschwindigkeit des Wandels und die Vielfalt des digitalen Geschäftsverkehrs führen zu einer zunehmenden Kluft zwischen Business und IT. Nicht nur das Geschäft mit der Softwareentwicklung ist einem sich immer schneller verändernden Marktumfeld ausgesetzt, auch das Business wird mit folgenden Anforderungen konfrontiert: • Schnellere Veränderungen im Unternehmen und daraus resultierende verkürzte Produktzyklen und Time-to-Market-Dauer. • Personalisierung von Produkten und Dienstleistungen wie Lot Size One und neue Konsumgewohnheiten. • Unvermeidliche Technologieeinbindung, das heißt disruptive und dynamische Veränderung der technologischen Fähigkeiten (Skill Shift). • Vielfältige digitale Geschäftsmöglichkeiten, die auf Technologien wie KI und IoT basieren, sowie verbesserte Produkte und Dienstleistungen durch Analytics-Verfahren. Je unsicherer der Sektor ist, in dem ein Projekt durchgeführt wird, desto schwieriger ist es, ein solches Projekt zu planen oder sich an einen solchen Plan zu halten. Darin liegt jedoch eine der Hauptstärken des agilen Projektmanagements. Um Projekte in dieser komplexen Welt, die mehr denn je von Unsicherheiten und Risiken geprägt ist, erfolgreich zu managen, sind Kenntnisse in agilem Projektmanagement und Lean Management erforderlich. Zunehmende Komplexität ist hierbei die Herausforderung. Planung wird nicht überflüssig – im Gegenteil: sie ist wichtig. Bei komplexen Projekten ist es jedoch nicht möglich, mit einem großen Plan zu agieren. Um das Projektziel zu erreichen, ist eine häufigere und segmentierte Planung erforderlich, wie zum Beispiel ein dreiwöchiger Sprint-Plan. Es reicht für Projektmanager nicht aus, das Vorhaben mit einer umfangreichen Planungsphase zu Projektbeginn zu starten und sich an einen Plan zu halten, der nicht erfüllt werden kann. Es ist nicht erforderlich, umfangreiche Anforderungsdokumente, Spezifikationen sowie Lasten- und Pflichtenhefte zu formulieren. Agiles Projektmanagement ist die Antwort auf Komplexität. Agil sein, heißt auf Veränderungen reagieren zu können. Agiles Projektmanagement steigert die Leistung der Projekte und ermöglicht eine schnelle und effiziente Umsetzung (schnellere Auslieferung eines Produkts), Innovationsübernahme und Verbesserung der Skalierbarkeit (Reaktion auf veränderte Anforderungen und Projektausrichtung). Scrum und Kanban – agile Methoden im ÜberblickZwei der gängigsten agilen Projektmanagement-Methoden sind Scrum und Kanban. Beide unterstützen die Prinzipien und Werte des agilen Manifests. Und beide Verfahren zielen darauf ab, komplexe Herausforderungen mit einem klaren Blick auf den Umfang, die Qualität und den Zeitpunkt eines Projekts zu erfassen und diese effektiv und menschlich anzugehen, indem sie flexibel auf Veränderungen reagieren und eine größere Kontrolle haben als andere Methoden. Diese Prinzipien und die nicht reflektierte Anwendung der Methoden allein garantieren jedoch nicht den Erfolg eines agilen Ansatzes. Hier liegt das größte Missverständnis beim Einsatz von Tools für die agile Produktentwicklung. Nur Disziplin, Kommunikation und hohe Motivation können Hindernisse beseitigen, Verschwendung vermeiden und ein Projekt zum Erfolg führen. Es sind die einzelnen Projektmitglieder, die Framework füllen und die Prozesse gestalten. Agile Methoden sind leicht zu verstehen, aber schwer zu beherrschen, da sie auf einem System von zusammenarbeitenden Komponenten beruhen, insbesondere auf den Personen, die in einem Projekt zusammenarbeiten.Scrum und Kanban – Gemeinsamkeiten:beide Methoden arbeiten nach dem Pull-Prinzip: im Scrum Framework wird es für die Sprint-Planung verwendet, in Kanban für das gesamte Board.Scrum und Kanban sind sowohl lean als auch agil.Die Teams organisieren sich selbst.In Scrum und Kanban wird der Release Plan optimiert: Scrum verwendet hierfür Team-Velocity, Kanban bedient sich der Lead-Time. “Limit your WIP” heißt es im Kanban bei Statusübergängen. WIP steht für Work In Progress und die Aufforderung sagt im Wesentlichen: Nicht zu viel auf einmal. In Scrum limitiert der Sprint die Anzahl der zu erledigenden Aufgaben. Beide Vorgehensmodelle setzen darauf auslieferbare Softwareinkremente schnell und oft zu releasen. Durch Transparenz sollen Optimierungspotentiale aufgezeigt und dadurch Effizienzsteigerungen herbeigeführt werden. In Scrum forciert dieses Thema im Wesentlichen der Scrum Master, in Kanban wird es durch die Stakeholder und das Management getrieben, sofern durch WIP-Limits die Bottlenecks aufgezeigt werden. Scrum und Kanban – der maßgebliche Unterschied:In Kanban ist keine fest zugeordnete Rolle definiert, aber die Erfahrung zeigt, dass die Implementierung einer agilen Methode ohne den Einsatz eines agilen Trainers häufig zu einer Verdünnung führt und nicht zum gewünschten Erfolg führt.Die Produktverantwortung trägt in Scrum der Product Owner. In Kanban wird nicht vorgeschrieben, wer die Definition und Priorisierung der Anforderungen übernimmt. Scrum vs. Kanban – agile Methoden im VergleichDer Hauptunterschied zwischen den beiden Methoden besteht darin, dass sich Scrum auf die iterative Produktentwicklung und Kanban auf die kontinuierliche Prozessverbesserung konzentriert. Mit Scrum ist es daher möglich, das vom Kunden gewünschte Produkt zu entwickeln. Bei Kanban liegt das Augenmerk im Projekt auf kurzen Vorlaufzeiten und der Vermeidung von Makulatur. Kanban konzentriert sich darauf, die Schwachstellen und Engpässe des Prozesses aufzudecken. Während Scrum pro Sprint auf ein in sich geschlossenes Produktinkrement hinarbeitet und das Produkt Iteration für Iteration erweitert und verbessert wird, ist Kanban bestrebt, den Prozessfluss zu optimieren. RollenFramework-VorgabeScrumKanbanServant LeadershipScrum MasterBenötigte Rollen, initial keine Rollen vorgeschriebenProdukt-VerantwortungProduct OwnerExistierende Rollen werden übernommenTeams3-9 Personen (“2-Pizza-Regel”), cross-functional, kollaborativkeine Vorgaben bei Teamgröße, cross-functional oder spezialisiert, Pull-Mechanismus MeetingsFramework-VorgabeScrumKanbanTimeboxTäglich im “daily standup meeting”Keine VorgabenAustauschTeam-retroperspektive nach jedem SprintKeine Vorgaben (nicht zu lange Abstände)Steering (Kunde & Stakeholder)Review-Meeting nach jedem SprintKeine VorgabenTeam-ForecastVor jedem Sprint im Sprint Planning des TeamsKeine Vorgaben (Nachschub-Meetings müssen regelmäßig stattfinden) ArtefakteFramework-VorgabeScrumKanbanAnforderungslisteProduct BacklogBacklog (auf Board geführt)LieferzyklusSprintBestimmt von der Durchlaufzeit des TicketsBoardSprint Backlog; ein Scrumboard ist optional und wird zu jedem Sprint neu mit Arbeitspaketen bestücktKanban-Board (dauerhaft: wird erst mit Beendigung des Produkts/Projekts gelöscht)LieferungPotentially Shippable Product IncrementAbgearbeitete Tickets (Arbeitspakete)MetrikenVelocityLead Time, Cycle Time, WIP Kanban oder Scrum?Kanban eignet sich durch das Kernprinzip der kontinuierlichen Verbesserung als Methode in einem steuerbaren Softwareprozess. Kanban wird häufig in Support- oder Wartungsteams eingesetzt, wo die lösenden Aufgaben kompliziert, aber in der Regel nicht komplex sind (wie zum Beispiel Software-Rollouts oder Wartungsarbeiten). Kanban konzentriert sich auf Prozesseffizienz und Produktivitätssteigerungen. Scrum hingegen konzentriert sich auf komplexe Softwareentwicklung. Scrum kann seine Stärken voll entfalten, wenn es in einem Umfeld eingesetzt wird, in dem ein neues komplexes Softwareprodukt oder eine Serviceleistung entwickelt werden soll. Scrum wird häufig in der Forschung und Entwicklung eingesetzt, wo empirisches Vorgehen auf der Agenda steht. Durch den Einsatz von Scrum in interdisziplinären Teams mit kurzen Feedback-Zyklen lässt sich das richtige Produkt mit überschaubarem Aufwand entwickeln. (pg/fm)Was ist was im Projektmanagement5 ProjektphasenEs gibt fünf verschiedene Phasen eines Projekts: Initiierungsphase, Planungsphase, Ausführungsphase, Überwachungsphase und Abschlussphase. 10 WissensfelderInnerhalb des Projektmanagements repräsentieren unterschiedliche Wissensfelder verschiedene Sammlungen von Konzepten, Begriffen und Handlungsempfehlungen für spezialisierte Bereiche des Projektmanagements. Insgesamt gibt es zehn verschiedene Wissensfelder, die die fünf Phasen eines Projektes überlagern. Die zehn Wissensfelder sind: Project Integration Management, Project Scope Management, Project Time Management, Project Cost Management, Project Quality Management, Project Human Resource Management, Project Communications Management, Project Risk Management, Project Procurement Management und Project Stakeholder Management. Accepted DeliverablesEin Accepted Deliverable (akzeptierter Liefergegenstand) kann ein fertiges Produkt, ein Dokument, Service oder jede Art von Ergebnis sein, das vom Projekt-Initiator oder einem anderen Berechtigten genehmigt wurde. Der Ausdruck kann sich auch auf Teile von Produkten, Dokumenten oder Services beziehen, die in einer Phase des Projekts gecancelt wurden. Entscheidend ist, dass diese Liefergegenstände vorher autorisiert wurden.Business NeedEine geschäftliche Notwendigkeit kann durch interne oder externe Faktoren entstehen. Zu diesen Faktoren zählen zum Beispiel: neue Regulatorien oder rechtliche Anforderungen, technologischer Fortschritt oder technologische Grenzen, Markt- oder Wettbewerbsveränderungen. Der Business Need wird als Input innerhalb des SOW (Statement of Work) verstanden.Change Control Board (CCB)Das Change Control Board – auch unter dem Begriff Änderungssteuerungsmanagement bekannt – versteht man eine formelle Gruppe, die dazu da ist, Change Requests (siehe nächstes Bild) von Seiten des Projektteams zu überprüfen, planen, abzusegnen oder zu kommunizieren. Change RequestsUnter Change Requests versteht man formelle Anfragen, die das Projektteam an die Änderungssteuerungsgruppe (CCB) richtet, um entweder eine Handlung zu verhindern oder zu korrigieren, Mängel auszuräumen oder Änderungen an Prozessen, Kosten oder Budgets durchzuführen. Diese Change Requests werden als Output innerhalb des integrierten Änderungssteuerungsprozesses verstanden.Close-out-PhaseIm Projektmanagement ist die Close-out-Phase – oder Abschlussphase – die finale Stufe, in der die Projektaktivitäten zum Abschluss gebracht werden. Dazu gehört beispielsweise die Dokumentation der Kundenzufriedenheit. Sämtliche Projekt-Zuständigkeiten und -Verbindlichkeiten werden mit dieser Phase beendet. Auch die Dokumentierung von Erfahrungswerten gehört zur Close-out-Phase.Composite OrganizationDie Composite Organization ist eine Organisationsform, die sich dadurch auszeichnet, dass eine Ebene des mittleren Managements besteht. Von dieser Ebene aus besteht eine Interaktion mit Projektmanagern aller Ebenen.Cost ForecastsKostenschätzungen stellen die gegenwärtigen Kosten einer Kostenbasis gegenüber. Sie werden dazu benutzt, den ETC (estimate to complete oder gschätzter Restaufwand) zu berechnen. Normalerweise wird eine Kostenschätzung in Form der CV (Cost Variance) oder des CPI (Cost Performance Index) ausgedrückt.DeliverablesDeliverables – also die Liefergegenstände – sind im Regelfall greifbare Produkte oder Projekt-Ergebnisse, die sowohl eindeutig identifzierbar, als auch verifizierbar sind und für den Abschluss des Projekts (oder Teile davon) notwendig sind. Earned Value (EV)Earned Value – der Fertigstellungswert – bemisst, wieviel Arbeit im Vergleich zum zuvor festgelegten Budget geleistet wurde. Enterprise Environmental FactorsUnter Enterprise Environmental Factors versteht man interne Faktoren der Unternehmensumwelt, die das Ergebnis eines Projektes beeinflussen können. Solche Faktoren können sein: Gesetzesänderungen, interne Prozesse und Methoden, Technologie, Mitarbeiter sowie die Risikobereitschaft von Management oder Stakeholdern und die Unternehmenskultur.Enterprise Project Management Office (EPMO)Im Unterschied zum PMO (Project Management Office), handelt es sich beim EPMO um eine strategisch ausgerichtete Variante, deren Aufgabe es ist, die Ausführung von Projekten in Einklang mit der strategischen Ausrichtung eines Unternehmens zu bringen. Alle Projekte und die damit verbundenen Aktivitäten werden daher auf die Erreichung der Geschäftsziele abgestimmt. Das soll sicherstellen, dass keine Projekte intiiiert werden, die keinen gesteigerten Wert für das Geschäft besitzen.Executing PhaseDie Ausführungsphase eines Projektes beinhaltet die Durchführung der eigentlichen Schritte, die im Project Management Plan festgelegt wurden und für den Abschluss des Projekts zwingend erforderlich sind. Während dieser Phase kann es zu Veränderungen bei den Faktoren Kosten, Qualität und Ressourcen kommen, die wiederum Change Requests hervorrufen können. Das kann eine Überarbeitung und/oder Anpassung des Project Management Plan erforderlich machen. In der Ausführungsphase wird ein bedeutender Teil des finanziellen Budgets verwertet, denn die eigentliche Arbeit findet hier statt. Expert JudgmentEine Expertenschätzung kann sowohl durch interne (Projektmanager, PMO), als auch externe (Prüfinstitutionen) Quellen erfolgen und bezieht sich auf die administrativen Handlungen, die zum Abschluss eines Projektes nötig sind.Functional OrganizationDie Functional Organization repräsentiert die in Unternehmen am häufigsten etablierte Hierarchie-Struktur: Jeder Mitarbeiter berichtet an einen Vorgesetzten und Abteilungen werden nach Wissensfeldern bzw. Expertise gegliedert. In dieser Art der Organisation werden Projekte folglich abteilungsspezifisch ausgewählt und abgeschlossen. Initiating PhaseDie Initiierungsphase steht am Beginn eines jeden Projekts. Hier werden bestimmte Prozesse angestoßen, die nötig sind, um ein neues oder bereits bestehendes Projekt und dessen Umfang zu definieren. In dieser Phase werden auch alle Details und Anforderungen der Projektarbeit, sowie dessen finanzielle Ressourcen festgelegt. Die am Projekt beteiligten Stakeholder werden ebenfalls in der initiating phase identifiziert. Integrated Change Control ProcessDer integrierte Änderungssteuerungsprozess bezeichnet den Prozess der Überprüfung, Steuerung, Freigabe, Kommunikation und Dokumentation von spezifischen BEreichen des Projekts – zum Beispiel Liefergegenstand, Dokumente oder Pläne.Matrix OrganizationDie Matrix-Organisation kombiniert funktionelle und projektbezogene Merkmale und kann – je nach Einfluss des Managements auf verschiedenste Bereiche – schwach, ausgeglichen oder stark ausgeprägt sein. Wenn das Management in bestimmten Bereichen mehr Einfluss ausübt als in anderen, kann eine Matrix-Organisation geschwächt werden. Wenn das Management hingegen in jedem funktionalen Bereich Synergien anstrebt, um zufriedenstellende Projektergebnisse zu gewährleisten, die im Einklang mit den Geschäftszielen stehen, kann die Matrix Organization ihre Stärken voll und ganz ausspielen.Monitoring and Controlling PhaseIn der Überwachungsphase eines Projekts werden Prozesse angestoßen, die zur Messung und Analyse des Projektfortschritts und der Projektplanung nötig sind. Die in der Planungsphase festgelegten Parameter werden hier nochmals überprüft. Die Identifikation von Problemen oder Änderungs-Erfordernissen kann an diesem Punkt einen beträchtlichen Dokumentations-Aufwand verursachen. Zudem können weitere Abnahmen bzw. Freigaben nötig werden, falls Änderungen am Project Management Plan erforderlich werden. Die Überwachungsphase zieht sich über die Dauer des gesamten Projekts – ab der Ausführungsphase.Organizational Process AssetsUnter dem Begriff Organizational Process Assets versteht man die Eingangs- und Ausgangswerte von Organisationsprozessen. Dazu gehören interne Prozesse, Planungen oder Datenbanken eines Unternehmens. Organizational Project Management (OPM)Das Organizational Project Management (OPM) bezeichnet eine strategisch ausgerichtete Ausführungsumgebung. Diese verstrickt Projekt-, Programm- und Portfoliomanagement mit internen Methoden und Erfahrungswerten, um die Leistungsfähigkeit zu steigern, einen Wettbewerbsvorteil und optimale Ergebnisse zu erlangen.Planned Value (PV)Der Planned Value (PV) – oder geplanter Wert – bezeichnet das freigegebene Budget für eine geplante Arbeit. Auch wenn das Budget für ein geplantes Projekt in jeder Phase der Projektarbeit zugeteilt wird, lässt sich mit Hilfe des PV ermitteln, wieviele und welche Aufgaben zu einem bestimmten Zeitpunkt der Projektarbeit bereits erfüllt sein sollten.Planning PhaseDie Planungsphase folgt auf die Initiierungsphase eines Projekts. Hier werden verschiedene Prozesse angestoßen, die zu Tage fördern sollen, wieviel Aufwand, Arbeitseinsatz und welche Zielvorstellungen einem Projekt innewohnen. In dieser Phase wird beispielsweise auch der Project Management Plan und andere Dokumente, die zum Abschluss erforderlich sind, erstellt. Die Planungsphase ist also von essentieller Bedeutung für die Projektarbeit. Ihr Ziel ist es, Methoden, Hanldungen, Zeit- und Kostenaufwand, Qualitätserfordernisse und Risiken eines Projekts zu definieren und dokumentieren, um die Projektarbeit strategisch ausrichten zu können. Entsprechend sollten Projektmanager in die Planungsphase besonders viel Zeit und Aufwand stecken, um das Risiko von Fehlern, Mehrarbeit und dem Scheitern des Projekts möglichst gering zu halten.Portfolio ManagementUm strategische Anforderungen zu erfüllen, können Unternehmen Projekte, Programme oder Sub-Portfolios gruppieren, organisieren oder priorisieren. Das Portfoliomanagement ähnelt dem Programmmanagement in Projekten, allerdings mit einem deutlich stärkeren Fokus auf die gesamtstrategische Ausrichtung.Product ScopeUnter dem Product Scope versteht man die dokumentierten Einzelheiten eines Produkts, Services oder Ergebnisses. Der Product Scope wird auch als Input im SOW (Statement of Work) verstanden.Program ManagementWenn ein Unternehmen verschiedene, ähnliche Projekte, Aktivitäten oder Programme fährt, können diese gruppiert und gemeinsam gemanagt werden, weil das in der Regel effizienter ist. Das versteht man unter Programmmanagement in Projekten.ProjectIm Projektmanagement wird ein Projekt definiert als eine temporäre Aktion, deren Zweck die Erschaffung / Gestaltung eines eigenständigen Produkts, Services oder Ergebnisses ist. Ein Projekt muss einen definierten Beginn und ein Ende aufweisen. Dabei kann sich das Projekt über einen kurzen oder längeren Zeitraum erstrecken – es ist aber in jedem Fall zeitlich begrenzt. Initiiert werden Projekte in der Regel von Personen oder Gruppen, die nicht direkt beteiligt sind – etwa der Vorstand eines Unternehmens.Project CharterDas Project Charter bzw. der Projektauftrag, ist das erste formale Dokument, das vom Initiator eines Projekts erstellt wird. Der Projektauftrag berechtigt einen Projektmanager den Launch in die Wege zu leiten und für die Bereitstellung der nötigen Ressourcen zu sorgen. Der Zweck des Project Charter ist es, die für das Projekt nötigen Aktivitäten vorherzusagen bzw. einschätzen zu können. Parameter, die ein Projektauftrag beinhaltet sind beispielsweise Start- und Endzeitpunkt des Projekts oder die Schlüsselfaktoren für dessen Erfolg.Project Communications ManagementProject Communications Management – zu deutsch Projektinformationsmanagement – stellt ein Wissensfeld des Project Managements dar. Hierbei geht es um die Planung, Ausführung und Überwachung der projektinternen Kommunikation.Project Cost ManagementDas Wissensfeld Kostenmanagement in Projekten bezieht sich auf alle Aspekte der Budgetierung und des Controllings der Projektarbeit. Project GovernanceUnter dem Begriff Project Governance versteht man ein Framework, das dem Projektteam Prozesse, Werkzeuge und Methoden zur Entscheidungsfindung zur Verfügung stellt, die den erfolgreichen Abschluss des Projektes gewährleisten sollen. Project Human Resource ManagementDas Personalmanagement in Projekten bezeichnet die Planung und das Management aller HR-Angelegenheiten, die in Zusammenhang mit dem Projekt stehen. Project Integration ManagementDas Wissensfeld des Integrationsmanagements in Projekten beinhaltet die Erstellung von grundlegenden Dokumenten sowie die Steuerung, Überprüfung und das Management der gesamten Projektarbeit.Project LifecycleDer Lebenszyklus des Projekts umfasst eine Reihe von Projekt-Phasen bzw. Prozessgruppen: die Initiierungs-, Planungs-, Ausführungs- und Überwachungsphase sowie den Abschluss des Projekts.Project Management (PM)Wenn Projektmanager und Projektteams spezifische Prozesse, Wissen und Fertigkeiten, Techniken und Tools sowie Inputs und Outputs dazu nutzen, Projekt-Anforderungen erfolgreich erfüllen zu können, nennt man das Projektmanagement.Project Management Office (PMO)Ein Projektmanagementbüro (PMO) bezeichnet eine Gruppe von Menschen, die damit betraut ist, Projekte, Programme und Portfolios innerhalb von Organisationen zu managen, zu unterstützen oder zu überprüfen.Project Management PlanSobald der Projektauftrag abgesegnet ist, wird der Projektmanagementplan erstellt. Basierend auf dem Inhalt des Project Charter werden die Einzelheiten des Projekts und seine Parameter hier noch einmal in aller Ausführlichkeit dargelegt. Dieses Dokument sollte Basis-Informationen zu Projektumfang, -Zeitplan und -Kosten beinhalten. Zudem sollten auch spezifische Pläne zu jedem Wissensfeld darin enthalten sein. Darüber hinaus kann der Project Management Plan auch Detailinformationen zu Abläufen, Aufgaben und Entscheidungsfindungen beinhalten. Der Projektmanagementplan ist eines der wichtigsten Dokumente beim Project Management.Project Manager (PM)Ein Projektmanager ist ein Individuum, das vom Unternehmen, das ein Projekt anstoßen möchte, verpflichtet wird. Der PM ist dabei nicht nur für die Leitung seines Teams verantwortlich, sondern auch dafür, das Projekt zu überwachen und Hilfestellung zu leisten, um einen erfolgreichen Projektabschluss herbeizuführen. Project Procurement ManagementDas Wissensfeld des Beschaffungsmanagements in Projekten beinhaltet die Planung, Durchführung und Überwachung aller Beschaffungsmaßnahmen im Rahmen der Projektarbeit. Dabei erstreckt sich das Project Procurement Management über alle fünf Projekt-Phasen.Project Quality ManagementDas Qualitätsmanagement in Projekten erstreckt sich über die Phasen der Planung, Ausführung und Überwachung eines Projekts. Dieses Wissensfeld befasst sich mit Qualitätskontrolle. Project Risk ManagementVor allem in der Planungs- und Überwachungsphase von Projekten kommt dieses Wissensfeld zum Einsatz. Es umfasst die Risiko-Analyse und -Abwehr innerhalb eines Projekts.Project ScopeDer Project Scope – zu deutsch Projektumfang – bezeichnet den Umfang der Arbeit, der nötig ist, um ein Produkt oder einen Service fertig zu stellen und beinhaltet auch die Parameter und Limitationen eines Projekts. Project Scope ManagementDas Wissensfeld Inhalts- und Umfangsmanagement von Projekten kommt während der Planungs- und Überwachungsphase zur Anwendung und befasst sich mit Sammlung und Definition von detaillierten Anforderungen des Projekts. Die Erstellung von Schlüssel-Dokumenten sowie die Validation und Kontrolle der Projektergebnisse gehören ebenfalls zum Project Scope Management. Project Stakeholder ManagementDas Wissensfeld des Stakeholdermanagements in Projekten erstreckt sich von der Initiierungs- bis hin zur Überwachunsgphase eines Projekts und deckt die Identifizierung, Überwachung und das Management aller Stakeholder und ihrer Interessen ab.Project StakeholdersStakeholder eines Projektes können sowohl Mitglieder des Projektteams als auch externe oder interne Personen der Organisation sein, die das Projekt angestoßen hat.Project TeamDas Projektteam bezeichnet eine Gruppe von Individuen, bestehend aus einem Projektmanager, internen Mitarbeitern aus verschiedenen Hierarchie-Ebenen und anderen, externen Stakeholdern, die zum erfolgreichen Abschluss eines Projekts erforderlich sind. Project Time ManagementDas Zeitmanagement in Projekten deckt die Planung, Schätzung und Einteilung von Zeit ab. Das Project Time Management erstreckt sich über die Planungs- und Überwachungsphase von Projekten. Project-based Organizations (PBO)Project-based Organizations zeichnen sich dadurch aus, dass sie ihre Arbeitsabläufe in Projekten statt in Abteilungen organisieren. So lässt sich die Hierarchie flach, Konflikte und Bürokratie klein halten. Die getane Arbeit wird an Projektergebnissen gemessen, was zur Auflösung von Silos beitragen kann. Projectized OrganizationEine Projectized Organization ist das Gegenteil einer Functional Organization. In dieser Art der Organisation interagieren Abteilungen häufig mit Projektmanagern. Der Fokus liegt dabei auf der Erfüllung strategisch ausgerichteter Projektziele. In dieser Art der Organisation gibt es für gewöhnlich keine Abteilungen mit Indvidualzielen.Schedule Performance Index (SPI)Der SPI wird benätigt, um zu berechnen, wie effizient ein Projektteam seine Zeit nutzt. Für die Berechnung des SPI dividiert man die Größen EV (Earned Value) und PV (Planned Value).Schedule Variance (SV)Die Schedule Variance (SV) misst zu einem definierten Zeitpunkt, wie sich ein Projekt fortentwickelt. Hier wird ermittelt, ob die geleistete Projektarbeit dem festgelegten Zeitplan gerecht wird. Die SV kann auch definiert werden, als die Abweichung zwischen EV (Earned Value) und PV (Planned Value). Die Formel zur Berechnung lautet: SV = EV – PV.Scheduled ForecastEin Scheduled Forecast bezeichnet die geschätzte Zeit, um eine Aktivität abzuschließen. Gemessen wird er an der zugrunde liegenden Planung, ausgderückt typischerweise in Form der SV oder des SPI.SponsorDer Begriff Sponsor bezeichnet im Projektmanagement ein Individuum oder eine Gruppe von Individuen, die ein Projekt oder Ressourcen des Projekts unterstützen. Sponsoren assistieren zudem dem Projektmanager, falls unvorhergesehene Probleme auftreten. Statement of Work (SOW)Das Statement of Work (SOW) – zu deutsch auch Leistungsberschreibung – ist eine Beschreibung der Leistungen, die im Laufe eines Projekts erbracht werden sollen – zum Beispiel in Form von Produkten, Services oder Ergebnissen. Strategic PlanUnter dem Strategic Plan versteht man alle projektbasierten und dokumentierten, formellen oder informellen Unternehmensziele. Diese Entscheidungen, Aktivitäten und Projekte sollten stets im Einklang mit den Unternehmenszielen stehen. Das SOW sollte entsprechend auf Grundlage des strategic plan entstehen.Work Performance DataWork Performance Data – oder Arbeitsleitungsinformationen – stellen Daten zu allen arbeitsrelevanten Aktivitäten zur Verfügung. 

Agile Methoden: Was Scrum von Kanban unterscheidet​ Die projektbezogene Arbeit nimmt in allen Ländern und Branchen stetig zu – ein Trend, der seit Längerem zu beobachten ist. Ziel ist es, die Effizienz und das zielgerichtete Handeln der Mitarbeiter zu fördern. Dieser Wandel hat zur Folge, dass den unterschiedlichen Ansätzen im Projektmanagement eine größere Bedeutung zukommt. Heute sind nicht nur klassische Methoden weit verbreitet, sondern gibt es auch neue Ansätze, einschließlich des agilen Projektmanagements. Letzteres ist übrigens nicht nur in Projekten zur Softwareentwicklung anwendbar, auch wenn es ursprünglich aus diesem Bereich stammt. Agiles Projektmanagement ist auf jedes Projekt übertragbar, das einen gewissen Grad an Komplexität aufweist.Agiles Projektmanagement: Hier erfahren Sie, wo der maßgebliche Unterschied zwischen den Methoden Scrum und Kanban liegt.
Foto: Trismegist san – shutterstock.comDigitalisierung treibt agiles ProjektmanagementDie Geschwindigkeit des Wandels und die Vielfalt des digitalen Geschäftsverkehrs führen zu einer zunehmenden Kluft zwischen Business und IT. Nicht nur das Geschäft mit der Softwareentwicklung ist einem sich immer schneller verändernden Marktumfeld ausgesetzt, auch das Business wird mit folgenden Anforderungen konfrontiert: • Schnellere Veränderungen im Unternehmen und daraus resultierende verkürzte Produktzyklen und Time-to-Market-Dauer. • Personalisierung von Produkten und Dienstleistungen wie Lot Size One und neue Konsumgewohnheiten. • Unvermeidliche Technologieeinbindung, das heißt disruptive und dynamische Veränderung der technologischen Fähigkeiten (Skill Shift). • Vielfältige digitale Geschäftsmöglichkeiten, die auf Technologien wie KI und IoT basieren, sowie verbesserte Produkte und Dienstleistungen durch Analytics-Verfahren. Je unsicherer der Sektor ist, in dem ein Projekt durchgeführt wird, desto schwieriger ist es, ein solches Projekt zu planen oder sich an einen solchen Plan zu halten. Darin liegt jedoch eine der Hauptstärken des agilen Projektmanagements. Um Projekte in dieser komplexen Welt, die mehr denn je von Unsicherheiten und Risiken geprägt ist, erfolgreich zu managen, sind Kenntnisse in agilem Projektmanagement und Lean Management erforderlich. Zunehmende Komplexität ist hierbei die Herausforderung. Planung wird nicht überflüssig – im Gegenteil: sie ist wichtig. Bei komplexen Projekten ist es jedoch nicht möglich, mit einem großen Plan zu agieren. Um das Projektziel zu erreichen, ist eine häufigere und segmentierte Planung erforderlich, wie zum Beispiel ein dreiwöchiger Sprint-Plan. Es reicht für Projektmanager nicht aus, das Vorhaben mit einer umfangreichen Planungsphase zu Projektbeginn zu starten und sich an einen Plan zu halten, der nicht erfüllt werden kann. Es ist nicht erforderlich, umfangreiche Anforderungsdokumente, Spezifikationen sowie Lasten- und Pflichtenhefte zu formulieren. Agiles Projektmanagement ist die Antwort auf Komplexität. Agil sein, heißt auf Veränderungen reagieren zu können. Agiles Projektmanagement steigert die Leistung der Projekte und ermöglicht eine schnelle und effiziente Umsetzung (schnellere Auslieferung eines Produkts), Innovationsübernahme und Verbesserung der Skalierbarkeit (Reaktion auf veränderte Anforderungen und Projektausrichtung). Scrum und Kanban – agile Methoden im ÜberblickZwei der gängigsten agilen Projektmanagement-Methoden sind Scrum und Kanban. Beide unterstützen die Prinzipien und Werte des agilen Manifests. Und beide Verfahren zielen darauf ab, komplexe Herausforderungen mit einem klaren Blick auf den Umfang, die Qualität und den Zeitpunkt eines Projekts zu erfassen und diese effektiv und menschlich anzugehen, indem sie flexibel auf Veränderungen reagieren und eine größere Kontrolle haben als andere Methoden. Diese Prinzipien und die nicht reflektierte Anwendung der Methoden allein garantieren jedoch nicht den Erfolg eines agilen Ansatzes. Hier liegt das größte Missverständnis beim Einsatz von Tools für die agile Produktentwicklung. Nur Disziplin, Kommunikation und hohe Motivation können Hindernisse beseitigen, Verschwendung vermeiden und ein Projekt zum Erfolg führen. Es sind die einzelnen Projektmitglieder, die Framework füllen und die Prozesse gestalten. Agile Methoden sind leicht zu verstehen, aber schwer zu beherrschen, da sie auf einem System von zusammenarbeitenden Komponenten beruhen, insbesondere auf den Personen, die in einem Projekt zusammenarbeiten.Scrum und Kanban – Gemeinsamkeiten:beide Methoden arbeiten nach dem Pull-Prinzip: im Scrum Framework wird es für die Sprint-Planung verwendet, in Kanban für das gesamte Board.Scrum und Kanban sind sowohl lean als auch agil.Die Teams organisieren sich selbst.In Scrum und Kanban wird der Release Plan optimiert: Scrum verwendet hierfür Team-Velocity, Kanban bedient sich der Lead-Time. “Limit your WIP” heißt es im Kanban bei Statusübergängen. WIP steht für Work In Progress und die Aufforderung sagt im Wesentlichen: Nicht zu viel auf einmal. In Scrum limitiert der Sprint die Anzahl der zu erledigenden Aufgaben. Beide Vorgehensmodelle setzen darauf auslieferbare Softwareinkremente schnell und oft zu releasen. Durch Transparenz sollen Optimierungspotentiale aufgezeigt und dadurch Effizienzsteigerungen herbeigeführt werden. In Scrum forciert dieses Thema im Wesentlichen der Scrum Master, in Kanban wird es durch die Stakeholder und das Management getrieben, sofern durch WIP-Limits die Bottlenecks aufgezeigt werden. Scrum und Kanban – der maßgebliche Unterschied:In Kanban ist keine fest zugeordnete Rolle definiert, aber die Erfahrung zeigt, dass die Implementierung einer agilen Methode ohne den Einsatz eines agilen Trainers häufig zu einer Verdünnung führt und nicht zum gewünschten Erfolg führt.Die Produktverantwortung trägt in Scrum der Product Owner. In Kanban wird nicht vorgeschrieben, wer die Definition und Priorisierung der Anforderungen übernimmt.

Scrum vs. Kanban – agile Methoden im VergleichDer Hauptunterschied zwischen den beiden Methoden besteht darin, dass sich Scrum auf die iterative Produktentwicklung und Kanban auf die kontinuierliche Prozessverbesserung konzentriert. Mit Scrum ist es daher möglich, das vom Kunden gewünschte Produkt zu entwickeln. Bei Kanban liegt das Augenmerk im Projekt auf kurzen Vorlaufzeiten und der Vermeidung von Makulatur. Kanban konzentriert sich darauf, die Schwachstellen und Engpässe des Prozesses aufzudecken. Während Scrum pro Sprint auf ein in sich geschlossenes Produktinkrement hinarbeitet und das Produkt Iteration für Iteration erweitert und verbessert wird, ist Kanban bestrebt, den Prozessfluss zu optimieren. RollenFramework-VorgabeScrumKanbanServant LeadershipScrum MasterBenötigte Rollen, initial keine Rollen vorgeschriebenProdukt-VerantwortungProduct OwnerExistierende Rollen werden übernommenTeams3-9 Personen (“2-Pizza-Regel”), cross-functional, kollaborativkeine Vorgaben bei Teamgröße, cross-functional oder spezialisiert, Pull-Mechanismus MeetingsFramework-VorgabeScrumKanbanTimeboxTäglich im “daily standup meeting”Keine VorgabenAustauschTeam-retroperspektive nach jedem SprintKeine Vorgaben (nicht zu lange Abstände)Steering (Kunde & Stakeholder)Review-Meeting nach jedem SprintKeine VorgabenTeam-ForecastVor jedem Sprint im Sprint Planning des TeamsKeine Vorgaben (Nachschub-Meetings müssen regelmäßig stattfinden) ArtefakteFramework-VorgabeScrumKanbanAnforderungslisteProduct BacklogBacklog (auf Board geführt)LieferzyklusSprintBestimmt von der Durchlaufzeit des TicketsBoardSprint Backlog; ein Scrumboard ist optional und wird zu jedem Sprint neu mit Arbeitspaketen bestücktKanban-Board (dauerhaft: wird erst mit Beendigung des Produkts/Projekts gelöscht)LieferungPotentially Shippable Product IncrementAbgearbeitete Tickets (Arbeitspakete)MetrikenVelocityLead Time, Cycle Time, WIP Kanban oder Scrum?Kanban eignet sich durch das Kernprinzip der kontinuierlichen Verbesserung als Methode in einem steuerbaren Softwareprozess. Kanban wird häufig in Support- oder Wartungsteams eingesetzt, wo die lösenden Aufgaben kompliziert, aber in der Regel nicht komplex sind (wie zum Beispiel Software-Rollouts oder Wartungsarbeiten). Kanban konzentriert sich auf Prozesseffizienz und Produktivitätssteigerungen. Scrum hingegen konzentriert sich auf komplexe Softwareentwicklung. Scrum kann seine Stärken voll entfalten, wenn es in einem Umfeld eingesetzt wird, in dem ein neues komplexes Softwareprodukt oder eine Serviceleistung entwickelt werden soll. Scrum wird häufig in der Forschung und Entwicklung eingesetzt, wo empirisches Vorgehen auf der Agenda steht. Durch den Einsatz von Scrum in interdisziplinären Teams mit kurzen Feedback-Zyklen lässt sich das richtige Produkt mit überschaubarem Aufwand entwickeln. (pg/fm)Was ist was im Projektmanagement5 ProjektphasenEs gibt fünf verschiedene Phasen eines Projekts: Initiierungsphase, Planungsphase, Ausführungsphase, Überwachungsphase und Abschlussphase. 10 WissensfelderInnerhalb des Projektmanagements repräsentieren unterschiedliche Wissensfelder verschiedene Sammlungen von Konzepten, Begriffen und Handlungsempfehlungen für spezialisierte Bereiche des Projektmanagements. Insgesamt gibt es zehn verschiedene Wissensfelder, die die fünf Phasen eines Projektes überlagern. Die zehn Wissensfelder sind: Project Integration Management, Project Scope Management, Project Time Management, Project Cost Management, Project Quality Management, Project Human Resource Management, Project Communications Management, Project Risk Management, Project Procurement Management und Project Stakeholder Management. Accepted DeliverablesEin Accepted Deliverable (akzeptierter Liefergegenstand) kann ein fertiges Produkt, ein Dokument, Service oder jede Art von Ergebnis sein, das vom Projekt-Initiator oder einem anderen Berechtigten genehmigt wurde. Der Ausdruck kann sich auch auf Teile von Produkten, Dokumenten oder Services beziehen, die in einer Phase des Projekts gecancelt wurden. Entscheidend ist, dass diese Liefergegenstände vorher autorisiert wurden.Business NeedEine geschäftliche Notwendigkeit kann durch interne oder externe Faktoren entstehen. Zu diesen Faktoren zählen zum Beispiel: neue Regulatorien oder rechtliche Anforderungen, technologischer Fortschritt oder technologische Grenzen, Markt- oder Wettbewerbsveränderungen. Der Business Need wird als Input innerhalb des SOW (Statement of Work) verstanden.Change Control Board (CCB)Das Change Control Board – auch unter dem Begriff Änderungssteuerungsmanagement bekannt – versteht man eine formelle Gruppe, die dazu da ist, Change Requests (siehe nächstes Bild) von Seiten des Projektteams zu überprüfen, planen, abzusegnen oder zu kommunizieren. Change RequestsUnter Change Requests versteht man formelle Anfragen, die das Projektteam an die Änderungssteuerungsgruppe (CCB) richtet, um entweder eine Handlung zu verhindern oder zu korrigieren, Mängel auszuräumen oder Änderungen an Prozessen, Kosten oder Budgets durchzuführen. Diese Change Requests werden als Output innerhalb des integrierten Änderungssteuerungsprozesses verstanden.Close-out-PhaseIm Projektmanagement ist die Close-out-Phase – oder Abschlussphase – die finale Stufe, in der die Projektaktivitäten zum Abschluss gebracht werden. Dazu gehört beispielsweise die Dokumentation der Kundenzufriedenheit. Sämtliche Projekt-Zuständigkeiten und -Verbindlichkeiten werden mit dieser Phase beendet. Auch die Dokumentierung von Erfahrungswerten gehört zur Close-out-Phase.Composite OrganizationDie Composite Organization ist eine Organisationsform, die sich dadurch auszeichnet, dass eine Ebene des mittleren Managements besteht. Von dieser Ebene aus besteht eine Interaktion mit Projektmanagern aller Ebenen.Cost ForecastsKostenschätzungen stellen die gegenwärtigen Kosten einer Kostenbasis gegenüber. Sie werden dazu benutzt, den ETC (estimate to complete oder gschätzter Restaufwand) zu berechnen. Normalerweise wird eine Kostenschätzung in Form der CV (Cost Variance) oder des CPI (Cost Performance Index) ausgedrückt.DeliverablesDeliverables – also die Liefergegenstände – sind im Regelfall greifbare Produkte oder Projekt-Ergebnisse, die sowohl eindeutig identifzierbar, als auch verifizierbar sind und für den Abschluss des Projekts (oder Teile davon) notwendig sind. Earned Value (EV)Earned Value – der Fertigstellungswert – bemisst, wieviel Arbeit im Vergleich zum zuvor festgelegten Budget geleistet wurde. Enterprise Environmental FactorsUnter Enterprise Environmental Factors versteht man interne Faktoren der Unternehmensumwelt, die das Ergebnis eines Projektes beeinflussen können. Solche Faktoren können sein: Gesetzesänderungen, interne Prozesse und Methoden, Technologie, Mitarbeiter sowie die Risikobereitschaft von Management oder Stakeholdern und die Unternehmenskultur.Enterprise Project Management Office (EPMO)Im Unterschied zum PMO (Project Management Office), handelt es sich beim EPMO um eine strategisch ausgerichtete Variante, deren Aufgabe es ist, die Ausführung von Projekten in Einklang mit der strategischen Ausrichtung eines Unternehmens zu bringen. Alle Projekte und die damit verbundenen Aktivitäten werden daher auf die Erreichung der Geschäftsziele abgestimmt. Das soll sicherstellen, dass keine Projekte intiiiert werden, die keinen gesteigerten Wert für das Geschäft besitzen.Executing PhaseDie Ausführungsphase eines Projektes beinhaltet die Durchführung der eigentlichen Schritte, die im Project Management Plan festgelegt wurden und für den Abschluss des Projekts zwingend erforderlich sind. Während dieser Phase kann es zu Veränderungen bei den Faktoren Kosten, Qualität und Ressourcen kommen, die wiederum Change Requests hervorrufen können. Das kann eine Überarbeitung und/oder Anpassung des Project Management Plan erforderlich machen. In der Ausführungsphase wird ein bedeutender Teil des finanziellen Budgets verwertet, denn die eigentliche Arbeit findet hier statt. Expert JudgmentEine Expertenschätzung kann sowohl durch interne (Projektmanager, PMO), als auch externe (Prüfinstitutionen) Quellen erfolgen und bezieht sich auf die administrativen Handlungen, die zum Abschluss eines Projektes nötig sind.Functional OrganizationDie Functional Organization repräsentiert die in Unternehmen am häufigsten etablierte Hierarchie-Struktur: Jeder Mitarbeiter berichtet an einen Vorgesetzten und Abteilungen werden nach Wissensfeldern bzw. Expertise gegliedert. In dieser Art der Organisation werden Projekte folglich abteilungsspezifisch ausgewählt und abgeschlossen. Initiating PhaseDie Initiierungsphase steht am Beginn eines jeden Projekts. Hier werden bestimmte Prozesse angestoßen, die nötig sind, um ein neues oder bereits bestehendes Projekt und dessen Umfang zu definieren. In dieser Phase werden auch alle Details und Anforderungen der Projektarbeit, sowie dessen finanzielle Ressourcen festgelegt. Die am Projekt beteiligten Stakeholder werden ebenfalls in der initiating phase identifiziert. Integrated Change Control ProcessDer integrierte Änderungssteuerungsprozess bezeichnet den Prozess der Überprüfung, Steuerung, Freigabe, Kommunikation und Dokumentation von spezifischen BEreichen des Projekts – zum Beispiel Liefergegenstand, Dokumente oder Pläne.Matrix OrganizationDie Matrix-Organisation kombiniert funktionelle und projektbezogene Merkmale und kann – je nach Einfluss des Managements auf verschiedenste Bereiche – schwach, ausgeglichen oder stark ausgeprägt sein. Wenn das Management in bestimmten Bereichen mehr Einfluss ausübt als in anderen, kann eine Matrix-Organisation geschwächt werden. Wenn das Management hingegen in jedem funktionalen Bereich Synergien anstrebt, um zufriedenstellende Projektergebnisse zu gewährleisten, die im Einklang mit den Geschäftszielen stehen, kann die Matrix Organization ihre Stärken voll und ganz ausspielen.Monitoring and Controlling PhaseIn der Überwachungsphase eines Projekts werden Prozesse angestoßen, die zur Messung und Analyse des Projektfortschritts und der Projektplanung nötig sind. Die in der Planungsphase festgelegten Parameter werden hier nochmals überprüft. Die Identifikation von Problemen oder Änderungs-Erfordernissen kann an diesem Punkt einen beträchtlichen Dokumentations-Aufwand verursachen. Zudem können weitere Abnahmen bzw. Freigaben nötig werden, falls Änderungen am Project Management Plan erforderlich werden. Die Überwachungsphase zieht sich über die Dauer des gesamten Projekts – ab der Ausführungsphase.Organizational Process AssetsUnter dem Begriff Organizational Process Assets versteht man die Eingangs- und Ausgangswerte von Organisationsprozessen. Dazu gehören interne Prozesse, Planungen oder Datenbanken eines Unternehmens. Organizational Project Management (OPM)Das Organizational Project Management (OPM) bezeichnet eine strategisch ausgerichtete Ausführungsumgebung. Diese verstrickt Projekt-, Programm- und Portfoliomanagement mit internen Methoden und Erfahrungswerten, um die Leistungsfähigkeit zu steigern, einen Wettbewerbsvorteil und optimale Ergebnisse zu erlangen.Planned Value (PV)Der Planned Value (PV) – oder geplanter Wert – bezeichnet das freigegebene Budget für eine geplante Arbeit. Auch wenn das Budget für ein geplantes Projekt in jeder Phase der Projektarbeit zugeteilt wird, lässt sich mit Hilfe des PV ermitteln, wieviele und welche Aufgaben zu einem bestimmten Zeitpunkt der Projektarbeit bereits erfüllt sein sollten.Planning PhaseDie Planungsphase folgt auf die Initiierungsphase eines Projekts. Hier werden verschiedene Prozesse angestoßen, die zu Tage fördern sollen, wieviel Aufwand, Arbeitseinsatz und welche Zielvorstellungen einem Projekt innewohnen. In dieser Phase wird beispielsweise auch der Project Management Plan und andere Dokumente, die zum Abschluss erforderlich sind, erstellt. Die Planungsphase ist also von essentieller Bedeutung für die Projektarbeit. Ihr Ziel ist es, Methoden, Hanldungen, Zeit- und Kostenaufwand, Qualitätserfordernisse und Risiken eines Projekts zu definieren und dokumentieren, um die Projektarbeit strategisch ausrichten zu können. Entsprechend sollten Projektmanager in die Planungsphase besonders viel Zeit und Aufwand stecken, um das Risiko von Fehlern, Mehrarbeit und dem Scheitern des Projekts möglichst gering zu halten.Portfolio ManagementUm strategische Anforderungen zu erfüllen, können Unternehmen Projekte, Programme oder Sub-Portfolios gruppieren, organisieren oder priorisieren. Das Portfoliomanagement ähnelt dem Programmmanagement in Projekten, allerdings mit einem deutlich stärkeren Fokus auf die gesamtstrategische Ausrichtung.Product ScopeUnter dem Product Scope versteht man die dokumentierten Einzelheiten eines Produkts, Services oder Ergebnisses. Der Product Scope wird auch als Input im SOW (Statement of Work) verstanden.Program ManagementWenn ein Unternehmen verschiedene, ähnliche Projekte, Aktivitäten oder Programme fährt, können diese gruppiert und gemeinsam gemanagt werden, weil das in der Regel effizienter ist. Das versteht man unter Programmmanagement in Projekten.ProjectIm Projektmanagement wird ein Projekt definiert als eine temporäre Aktion, deren Zweck die Erschaffung / Gestaltung eines eigenständigen Produkts, Services oder Ergebnisses ist. Ein Projekt muss einen definierten Beginn und ein Ende aufweisen. Dabei kann sich das Projekt über einen kurzen oder längeren Zeitraum erstrecken – es ist aber in jedem Fall zeitlich begrenzt. Initiiert werden Projekte in der Regel von Personen oder Gruppen, die nicht direkt beteiligt sind – etwa der Vorstand eines Unternehmens.Project CharterDas Project Charter bzw. der Projektauftrag, ist das erste formale Dokument, das vom Initiator eines Projekts erstellt wird. Der Projektauftrag berechtigt einen Projektmanager den Launch in die Wege zu leiten und für die Bereitstellung der nötigen Ressourcen zu sorgen. Der Zweck des Project Charter ist es, die für das Projekt nötigen Aktivitäten vorherzusagen bzw. einschätzen zu können. Parameter, die ein Projektauftrag beinhaltet sind beispielsweise Start- und Endzeitpunkt des Projekts oder die Schlüsselfaktoren für dessen Erfolg.Project Communications ManagementProject Communications Management – zu deutsch Projektinformationsmanagement – stellt ein Wissensfeld des Project Managements dar. Hierbei geht es um die Planung, Ausführung und Überwachung der projektinternen Kommunikation.Project Cost ManagementDas Wissensfeld Kostenmanagement in Projekten bezieht sich auf alle Aspekte der Budgetierung und des Controllings der Projektarbeit. Project GovernanceUnter dem Begriff Project Governance versteht man ein Framework, das dem Projektteam Prozesse, Werkzeuge und Methoden zur Entscheidungsfindung zur Verfügung stellt, die den erfolgreichen Abschluss des Projektes gewährleisten sollen. Project Human Resource ManagementDas Personalmanagement in Projekten bezeichnet die Planung und das Management aller HR-Angelegenheiten, die in Zusammenhang mit dem Projekt stehen. Project Integration ManagementDas Wissensfeld des Integrationsmanagements in Projekten beinhaltet die Erstellung von grundlegenden Dokumenten sowie die Steuerung, Überprüfung und das Management der gesamten Projektarbeit.Project LifecycleDer Lebenszyklus des Projekts umfasst eine Reihe von Projekt-Phasen bzw. Prozessgruppen: die Initiierungs-, Planungs-, Ausführungs- und Überwachungsphase sowie den Abschluss des Projekts.Project Management (PM)Wenn Projektmanager und Projektteams spezifische Prozesse, Wissen und Fertigkeiten, Techniken und Tools sowie Inputs und Outputs dazu nutzen, Projekt-Anforderungen erfolgreich erfüllen zu können, nennt man das Projektmanagement.Project Management Office (PMO)Ein Projektmanagementbüro (PMO) bezeichnet eine Gruppe von Menschen, die damit betraut ist, Projekte, Programme und Portfolios innerhalb von Organisationen zu managen, zu unterstützen oder zu überprüfen.Project Management PlanSobald der Projektauftrag abgesegnet ist, wird der Projektmanagementplan erstellt. Basierend auf dem Inhalt des Project Charter werden die Einzelheiten des Projekts und seine Parameter hier noch einmal in aller Ausführlichkeit dargelegt. Dieses Dokument sollte Basis-Informationen zu Projektumfang, -Zeitplan und -Kosten beinhalten. Zudem sollten auch spezifische Pläne zu jedem Wissensfeld darin enthalten sein. Darüber hinaus kann der Project Management Plan auch Detailinformationen zu Abläufen, Aufgaben und Entscheidungsfindungen beinhalten. Der Projektmanagementplan ist eines der wichtigsten Dokumente beim Project Management.Project Manager (PM)Ein Projektmanager ist ein Individuum, das vom Unternehmen, das ein Projekt anstoßen möchte, verpflichtet wird. Der PM ist dabei nicht nur für die Leitung seines Teams verantwortlich, sondern auch dafür, das Projekt zu überwachen und Hilfestellung zu leisten, um einen erfolgreichen Projektabschluss herbeizuführen. Project Procurement ManagementDas Wissensfeld des Beschaffungsmanagements in Projekten beinhaltet die Planung, Durchführung und Überwachung aller Beschaffungsmaßnahmen im Rahmen der Projektarbeit. Dabei erstreckt sich das Project Procurement Management über alle fünf Projekt-Phasen.Project Quality ManagementDas Qualitätsmanagement in Projekten erstreckt sich über die Phasen der Planung, Ausführung und Überwachung eines Projekts. Dieses Wissensfeld befasst sich mit Qualitätskontrolle. Project Risk ManagementVor allem in der Planungs- und Überwachungsphase von Projekten kommt dieses Wissensfeld zum Einsatz. Es umfasst die Risiko-Analyse und -Abwehr innerhalb eines Projekts.Project ScopeDer Project Scope – zu deutsch Projektumfang – bezeichnet den Umfang der Arbeit, der nötig ist, um ein Produkt oder einen Service fertig zu stellen und beinhaltet auch die Parameter und Limitationen eines Projekts. Project Scope ManagementDas Wissensfeld Inhalts- und Umfangsmanagement von Projekten kommt während der Planungs- und Überwachungsphase zur Anwendung und befasst sich mit Sammlung und Definition von detaillierten Anforderungen des Projekts. Die Erstellung von Schlüssel-Dokumenten sowie die Validation und Kontrolle der Projektergebnisse gehören ebenfalls zum Project Scope Management. Project Stakeholder ManagementDas Wissensfeld des Stakeholdermanagements in Projekten erstreckt sich von der Initiierungs- bis hin zur Überwachunsgphase eines Projekts und deckt die Identifizierung, Überwachung und das Management aller Stakeholder und ihrer Interessen ab.Project StakeholdersStakeholder eines Projektes können sowohl Mitglieder des Projektteams als auch externe oder interne Personen der Organisation sein, die das Projekt angestoßen hat.Project TeamDas Projektteam bezeichnet eine Gruppe von Individuen, bestehend aus einem Projektmanager, internen Mitarbeitern aus verschiedenen Hierarchie-Ebenen und anderen, externen Stakeholdern, die zum erfolgreichen Abschluss eines Projekts erforderlich sind. Project Time ManagementDas Zeitmanagement in Projekten deckt die Planung, Schätzung und Einteilung von Zeit ab. Das Project Time Management erstreckt sich über die Planungs- und Überwachungsphase von Projekten. Project-based Organizations (PBO)Project-based Organizations zeichnen sich dadurch aus, dass sie ihre Arbeitsabläufe in Projekten statt in Abteilungen organisieren. So lässt sich die Hierarchie flach, Konflikte und Bürokratie klein halten. Die getane Arbeit wird an Projektergebnissen gemessen, was zur Auflösung von Silos beitragen kann. Projectized OrganizationEine Projectized Organization ist das Gegenteil einer Functional Organization. In dieser Art der Organisation interagieren Abteilungen häufig mit Projektmanagern. Der Fokus liegt dabei auf der Erfüllung strategisch ausgerichteter Projektziele. In dieser Art der Organisation gibt es für gewöhnlich keine Abteilungen mit Indvidualzielen.Schedule Performance Index (SPI)Der SPI wird benätigt, um zu berechnen, wie effizient ein Projektteam seine Zeit nutzt. Für die Berechnung des SPI dividiert man die Größen EV (Earned Value) und PV (Planned Value).Schedule Variance (SV)Die Schedule Variance (SV) misst zu einem definierten Zeitpunkt, wie sich ein Projekt fortentwickelt. Hier wird ermittelt, ob die geleistete Projektarbeit dem festgelegten Zeitplan gerecht wird. Die SV kann auch definiert werden, als die Abweichung zwischen EV (Earned Value) und PV (Planned Value). Die Formel zur Berechnung lautet: SV = EV – PV.Scheduled ForecastEin Scheduled Forecast bezeichnet die geschätzte Zeit, um eine Aktivität abzuschließen. Gemessen wird er an der zugrunde liegenden Planung, ausgderückt typischerweise in Form der SV oder des SPI.SponsorDer Begriff Sponsor bezeichnet im Projektmanagement ein Individuum oder eine Gruppe von Individuen, die ein Projekt oder Ressourcen des Projekts unterstützen. Sponsoren assistieren zudem dem Projektmanager, falls unvorhergesehene Probleme auftreten. Statement of Work (SOW)Das Statement of Work (SOW) – zu deutsch auch Leistungsberschreibung – ist eine Beschreibung der Leistungen, die im Laufe eines Projekts erbracht werden sollen – zum Beispiel in Form von Produkten, Services oder Ergebnissen. Strategic PlanUnter dem Strategic Plan versteht man alle projektbasierten und dokumentierten, formellen oder informellen Unternehmensziele. Diese Entscheidungen, Aktivitäten und Projekte sollten stets im Einklang mit den Unternehmenszielen stehen. Das SOW sollte entsprechend auf Grundlage des strategic plan entstehen.Work Performance DataWork Performance Data – oder Arbeitsleitungsinformationen – stellen Daten zu allen arbeitsrelevanten Aktivitäten zur Verfügung.

Agile Methoden: Was Scrum von Kanban unterscheidet​ Weiterlesen »

Burnout: Symptome erkennen und vorbeugen​

Allgemein

Burnout ist kein Zeichen von Schwäche, sondern ein Alarmsignal. Wer es rechtzeitig wahrnimmt, hat gute Chance gegenzusteuern und sollte Hilfe nicht scheuen.Brian A Jackson – Shutterstock 2132962141 Die Zahl der Burnout-Fälle steigt kontinuierlich. Ein entscheidender Faktor ist die zunehmende Unsicherheit in der Gesellschaft – wirtschaftliche Krisen, politische Umbrüche und globale Herausforderungen wie die Corona-Pandemie haben viele Menschen stark belastet. Besonders Führungskräfte stehen unter Druck: Sie müssen unternehmerische Entscheidungen treffen, ein Team leiten und dabei selbst leistungsfähig bleiben.  Gleichzeitig verstärkt die Digitalisierung das Problem. Ständige Erreichbarkeit lässt Arbeit nie wirklich enden. Wer auch nach Feierabend E-Mails beantwortet oder berufliche Nachrichten checkt, gönnt sich kaum Erholung. Hinzu kommt der Einfluss sozialer Medien: Der Vergleich mit scheinbar makellosen Karrieren und Erfolgsbiografien verstärkt das Gefühl, nie genug zu leisten. Der Druck wächst – mit gravierenden Folgen für die psychische Gesundheit.    Frühe Warnsignale eines Burnouts Burnout entwickelt sich schleichend und bleibt anfangs oft unbemerkt. Besonders tückisch ist, dass Betroffene zunächst als besonders leistungsfähig wahrgenommen werden. Zu den häufigsten Frühwarnzeichen gehören:  Übermäßige Verantwortungsübernahme: Betroffene reißen immer mehr Aufgaben an sich, setzen keine Grenzen und arbeiten oft über ihre Belastungsgrenze hinaus. Dieses Verhalten führt zu einer zunehmenden Überforderung, da die eigene Leistungsfähigkeit überschätzt wird.  Körperliche Beschwerden: Schlafprobleme, Magen-Darm-Beschwerden und Verspannungen sind häufige Stressreaktionen des Körpers. Betroffene fühlen sich dauerhaft erschöpft und haben Schwierigkeiten sich zu erholen.  Emotionale Veränderungen: Gereiztheit, Frustration und eine erhöhte Empfindlichkeit gegenüber Kritik treten zunehmend auf. Konflikte werden belastender wahrgenommen und Veränderungen im Arbeitsalltag führen schneller zu Stress und Überforderung.  Verlust der Fähigkeit zur Erholung: Die Gedanken kreisen ständig um die Arbeit, auch in der Freizeit oder im Urlaub. Betroffene können sich nicht mehr richtig entspannen, da ihr Stresslevel dauerhaft erhöht bleibt.    Wenn die Führungskraft selbst betroffen ist Nicht nur Mitarbeiter, auch Führungskräfte sind gefährdet – sie werden besonders häufig mit Burnout konfrontiert, da sie täglich viel Verantwortung übernehmen. Doch auch sie erkennen oft erst spät, dass sie in so eine Situation geraten sind.  Ein erstes Anzeichen ist das Gefühl, dass ohne die eigene Person nichts mehr funktionieren würde. Viele Führungskräfte in einer Burn-out-Phase entwickeln die Überzeugung, dass nur sie das Unternehmen am Laufen halten. Sie glauben, dass andere weniger leisten und weniger Verantwortung übernehmen, was zu wachsender Frustration führt.   Statt die eigene Überlastung zu erkennen, entsteht also der Eindruck, dass das Umfeld ineffizient arbeitet. Das Vertrauen ins Team sinkt, Zusammenarbeit wird schwieriger. Ein weiteres Alarmzeichen ist das Gefühl permanenter Unzufriedenheit – selbst nach Erfolgen bleibt die innere Anspannung bestehen.    Wie Unternehmen vorbeugen können Um Burnout zu vermeiden, müssen Unternehmen präventive Maßnahmen ergreifen. Eine gesunde Unternehmenskultur, die nicht nur auf Produktivität, sondern auch auf das Wohlbefinden der Mitarbeiter achtet, ist dafür besonders wichtig. Ebenso wie eine offene Kommunikation.   Führungskräfte sollten regelmäßige Gespräche mit ihren Mitarbeitern führen – nicht nur über fachliche Themen, sondern auch über persönliche Belastungen. Denn viele Betroffene scheuen sich, Erschöpfung zuzugeben, aus Angst als schwach zu gelten. Ein offenes Gesprächsklima hilft, frühzeitig Warnsignale zu erkennen und Unterstützung anzubieten.  Wichtig ist auch eine klare Definition von Zuständigkeiten. Wer nicht weiß, wo seine Grenzen liegen, übernimmt meistens zu viel Verantwortung. Führungskräfte sollten darauf achten, dass ihre Mitarbeiter nicht ständig zusätzliche Aufgaben leisten müssen.   Wenn erste Anzeichen von Überlastung sichtbar werden, sollten Unternehmen nicht zögern, Coaching oder psychologische Beratung anzubieten. Eine rechtzeitige Intervention kann verhindern, dass sich die Erschöpfung weiter verschärft.  Führungskräfte sollten aber auch ihre eigene Belastung im Blick behalten. Wer selbst am Limit arbeitet und keine Pausen macht, signalisiert seinen Mitarbeitern unbewusst, dass Erholung unwichtig ist. Ein bewusster Umgang mit Arbeitszeiten und klare Grenzen zwischen Job und Privatleben helfen, eine nachhaltige Arbeitskultur zu schaffen.    Verantwortung der Führungsebene Burnout zu vermeiden ist nicht nur eine Frage der persönlichen Widerstandskraft, sondern auch der Unternehmenskultur. Firmen, die langfristig erfolgreich sein wollen, müssen verstehen, dass psychische Gesundheit genauso wichtig ist wie fachliche Kompetenz.   Gerade Führungskräfte tragen hier eine große Verantwortung – für sich selbst und ihr Team. Wer die ersten Warnsignale erkennt und frühzeitig handelt, kann nicht nur langfristige Ausfälle verhindern, sondern auch für ein gesundes und motivierendes Arbeitsumfeld sorgen.  Burnout ist kein Zeichen von Schwäche, sondern ein Alarmsignal. Wer es rechtzeitig wahrnimmt, hat die Chance gegenzusteuern – für das eigene Wohlbefinden und eine starke, belastbare Unternehmenskultur.  

Burnout: Symptome erkennen und vorbeugen​ Burnout ist kein Zeichen von Schwäche, sondern ein Alarmsignal. Wer es rechtzeitig wahrnimmt, hat gute Chance gegenzusteuern und sollte Hilfe nicht scheuen.Brian A Jackson – Shutterstock 2132962141

Die Zahl der Burnout-Fälle steigt kontinuierlich. Ein entscheidender Faktor ist die zunehmende Unsicherheit in der Gesellschaft – wirtschaftliche Krisen, politische Umbrüche und globale Herausforderungen wie die Corona-Pandemie haben viele Menschen stark belastet. Besonders Führungskräfte stehen unter Druck: Sie müssen unternehmerische Entscheidungen treffen, ein Team leiten und dabei selbst leistungsfähig bleiben. 

Gleichzeitig verstärkt die Digitalisierung das Problem. Ständige Erreichbarkeit lässt Arbeit nie wirklich enden. Wer auch nach Feierabend E-Mails beantwortet oder berufliche Nachrichten checkt, gönnt sich kaum Erholung. Hinzu kommt der Einfluss sozialer Medien: Der Vergleich mit scheinbar makellosen Karrieren und Erfolgsbiografien verstärkt das Gefühl, nie genug zu leisten. Der Druck wächst – mit gravierenden Folgen für die psychische Gesundheit. 

 

Frühe Warnsignale eines Burnouts

Burnout entwickelt sich schleichend und bleibt anfangs oft unbemerkt. Besonders tückisch ist, dass Betroffene zunächst als besonders leistungsfähig wahrgenommen werden. Zu den häufigsten Frühwarnzeichen gehören: 

Übermäßige Verantwortungsübernahme: Betroffene reißen immer mehr Aufgaben an sich, setzen keine Grenzen und arbeiten oft über ihre Belastungsgrenze hinaus. Dieses Verhalten führt zu einer zunehmenden Überforderung, da die eigene Leistungsfähigkeit überschätzt wird. 

Körperliche Beschwerden: Schlafprobleme, Magen-Darm-Beschwerden und Verspannungen sind häufige Stressreaktionen des Körpers. Betroffene fühlen sich dauerhaft erschöpft und haben Schwierigkeiten sich zu erholen. 

Emotionale Veränderungen: Gereiztheit, Frustration und eine erhöhte Empfindlichkeit gegenüber Kritik treten zunehmend auf. Konflikte werden belastender wahrgenommen und Veränderungen im Arbeitsalltag führen schneller zu Stress und Überforderung. 

Verlust der Fähigkeit zur Erholung: Die Gedanken kreisen ständig um die Arbeit, auch in der Freizeit oder im Urlaub. Betroffene können sich nicht mehr richtig entspannen, da ihr Stresslevel dauerhaft erhöht bleibt. 

 

Wenn die Führungskraft selbst betroffen ist

Nicht nur Mitarbeiter, auch Führungskräfte sind gefährdet – sie werden besonders häufig mit Burnout konfrontiert, da sie täglich viel Verantwortung übernehmen. Doch auch sie erkennen oft erst spät, dass sie in so eine Situation geraten sind. 

Ein erstes Anzeichen ist das Gefühl, dass ohne die eigene Person nichts mehr funktionieren würde. Viele Führungskräfte in einer Burn-out-Phase entwickeln die Überzeugung, dass nur sie das Unternehmen am Laufen halten. Sie glauben, dass andere weniger leisten und weniger Verantwortung übernehmen, was zu wachsender Frustration führt.  

Statt die eigene Überlastung zu erkennen, entsteht also der Eindruck, dass das Umfeld ineffizient arbeitet. Das Vertrauen ins Team sinkt, Zusammenarbeit wird schwieriger. Ein weiteres Alarmzeichen ist das Gefühl permanenter Unzufriedenheit – selbst nach Erfolgen bleibt die innere Anspannung bestehen. 

 

Wie Unternehmen vorbeugen können

Um Burnout zu vermeiden, müssen Unternehmen präventive Maßnahmen ergreifen. Eine gesunde Unternehmenskultur, die nicht nur auf Produktivität, sondern auch auf das Wohlbefinden der Mitarbeiter achtet, ist dafür besonders wichtig. Ebenso wie eine offene Kommunikation.  

Führungskräfte sollten regelmäßige Gespräche mit ihren Mitarbeitern führen – nicht nur über fachliche Themen, sondern auch über persönliche Belastungen. Denn viele Betroffene scheuen sich, Erschöpfung zuzugeben, aus Angst als schwach zu gelten. Ein offenes Gesprächsklima hilft, frühzeitig Warnsignale zu erkennen und Unterstützung anzubieten. 

Wichtig ist auch eine klare Definition von Zuständigkeiten. Wer nicht weiß, wo seine Grenzen liegen, übernimmt meistens zu viel Verantwortung. Führungskräfte sollten darauf achten, dass ihre Mitarbeiter nicht ständig zusätzliche Aufgaben leisten müssen.  

Wenn erste Anzeichen von Überlastung sichtbar werden, sollten Unternehmen nicht zögern, Coaching oder psychologische Beratung anzubieten. Eine rechtzeitige Intervention kann verhindern, dass sich die Erschöpfung weiter verschärft. 

Führungskräfte sollten aber auch ihre eigene Belastung im Blick behalten. Wer selbst am Limit arbeitet und keine Pausen macht, signalisiert seinen Mitarbeitern unbewusst, dass Erholung unwichtig ist. Ein bewusster Umgang mit Arbeitszeiten und klare Grenzen zwischen Job und Privatleben helfen, eine nachhaltige Arbeitskultur zu schaffen. 

 

Verantwortung der Führungsebene

Burnout zu vermeiden ist nicht nur eine Frage der persönlichen Widerstandskraft, sondern auch der Unternehmenskultur. Firmen, die langfristig erfolgreich sein wollen, müssen verstehen, dass psychische Gesundheit genauso wichtig ist wie fachliche Kompetenz.  

Gerade Führungskräfte tragen hier eine große Verantwortung – für sich selbst und ihr Team. Wer die ersten Warnsignale erkennt und frühzeitig handelt, kann nicht nur langfristige Ausfälle verhindern, sondern auch für ein gesundes und motivierendes Arbeitsumfeld sorgen. 

Burnout ist kein Zeichen von Schwäche, sondern ein Alarmsignal. Wer es rechtzeitig wahrnimmt, hat die Chance gegenzusteuern – für das eigene Wohlbefinden und eine starke, belastbare Unternehmenskultur. 

Burnout: Symptome erkennen und vorbeugen​ Weiterlesen »

WOOP-Methode: So erreichen Sie Ihre Ziele​

Allgemein

Die WOOP-Methode hilft, Hindernisse auf dem Weg zu einem (beruflichen) Ziel leichter zu meistern. Foto: eamesBot – shutterstock.comNicht nur der Jahreswechsel ist eine willkommene Gelegenheit, um Vorsätze zu fassen. Man kann sich schließlich immer etwas Neues vornehmen. Aber ganz unabhängig vom Zeitpunkt ist das Ergebnis häufig gleich: Nach kurzer Zeit werden die guten Vorsätze nach und nach aufgeben, bis gar nichts oder nicht mehr viel davon übrig ist. Was viele jedoch nicht wissen: Es gibt eine (wissenschaftlich untermauerte) Methode, mit der sich Ziele in vier einfachen Schritten umsetzen lassen – die WOOP-Methode. WOOP-Methode: Die UrsprüngeDie Psychologieprofessorin Gabriele Oettingen hat sich über viele Jahre intensiv mit Fragen wie “Wie erreiche ich meine Ziele” und “Wie schaffe ich es, motiviert bei der Sache zu bleiben?” auseinandergesetzt. Besonders interessiert hat sie dabei die Fragestellung, was Menschen davon abhält, ihre Ziele zu erreichen. Das Ergebnis: Allein eine positive Grundeinstellung hilft nicht wirklich weiter, wenn man ein bestimmtes Ziel erreichen möchte.Eine bemerkenswerte Feststellung der Professorin, denn damit widerlegte sie mit ihrer Forschung, was jahrelang propagiert wurde: Wer nur positiv genug denke, der werde es auch schaffen, in der Zukunft positive Ergebnisse zu erzielen. Im schlimmsten Fall kann die positive Einstellung sogar hinderlich sein. Einen Hinweis darauf fand Oettingen in einer Studie mit Frauen, die ihr Gewicht reduzieren wollten. Dabei zeigte sich, dass gerade diejenigen Frauen, die sich ihr neues Leben mit weniger Kilos besonders schön und erstrebenswert vorgestellt hatten, am wenigsten abnahmen.Die Hochschullehrerin erklärt das damit, dass wir uns durch unsere positiven Gedanken vom eigentlichen Ziel ablenken lassen. Vereinfacht gesagt: Wer sich sein Ziel zu positiv ausmalt, könnte gewissermaßen auf die Idee kommen, das Ziel bereits erreicht zu haben. Und das wiederum führt dazu, dass wir uns weniger anstrengen und die Hindernisse, die in Wirklichkeit vor uns liegen, nicht beachten. Ein neuer Ansatz musste also her und den fand Oettingen auf der Grundlage ihrer weiteren Forschungsergebnisse. Sie entwickelte daraus die sogenannte WOOP-Strategie, die aus vier einfachen Schritten besteht. WOOP-Methode umsetzen: 4 SchritteWOOP ist ein Akronym, das sich aus den Anfangsbuchstaben der folgenden englischen Begriffe zusammensetzt:Wish (Wunsch)Outcome (Ergebnis)Obstacle (Hindernis)Plan (Planung)Was aber bedeutet das konkret?1. WishKlar, wer etwas erreichen möchte, der sollte sich zunächst ein klares Ziel setzen. Diffuse Vorgaben lassen sich eben deutlich schwerer in die Realität umsetzen. Der erste Schritt der WOOP-Strategie besteht also darin, ein möglichst klares Ziel zu formulieren. Das muss übrigens gar keine weltbewegende Angelegenheit sein. Wenn Sie sich vornehmen, fortan zweimal wöchentlich eine halbe Stunde spazieren gehen zu wollen, ist das ein ebenso gutes Ziel, wie das Vorhaben, bis zum nächsten Sommerurlaub die Landessprache halbwegs fließend sprechen zu können.2. Outcome Wie bereits erwähnt, kann es schwierig sein, wenn man sich Ziele zu euphorisch ausmalt. Das soll aber nicht bedeuten, dass es verboten ist zu träumen. Im Gegenteil. Die Psychologin weist darauf hin, dass es durchaus Vorteile hat, sich ein Ergebnis möglichst positiv vorzustellen. Auf diese Weise wird eine offene Grundstimmung erzeugt und das Vorhaben mit einem guten Gefühl angegangen. Sich die Zukunft möglichst rosig auszumalen, kann bei einigen Menschen dazu beitragen, die Dinge entspannter anzupacken. Alles durchaus wünschenswerte Effekte. Die Gefahr liegt aber darin, dass übertriebener Optimismus lähmen kann. Wer es bei dem Schritt belässt, sich seine Zukunft möglichst positiv auszumalen, vergisst häufig den nächsten Schritt – und der ist zentral dafür, wenn wir es zum Beispiel schaffen wollen, unsere Neujahrsvorsätze einzuhalten.3. ObstacleWas viele nämlich vergessen, wenn sie sich ihr neues Leben vorstellen, sind die Hindernisse, die noch vor ihnen liegen. Das ist leicht nachzuvollziehen. Schließlich ist es viel schöner, von einer Zukunft zu träumen, in der man im Vorstellungsgespräch nicht mehr schwitzen muss, wenn der Personaler auf die Fremdsprachenkenntnisse zu sprechen kommt – und dabei außenvorzulassen, wie viel Zeit für Vokabel- und Grammatiktraining aufgewendet werden müsste. Doch leider gehört genau das dazu. Und an dieser Stelle scheitern viele Vorhaben und Vorsätze.Wer seine Pläne erfolgreich in die Tat umsetzen möchte, der sollte sich daher vorab möglichst detailliert Klarheit darüber verschaffen, was ihn oder sie davon abhalten könnte. Ein Blick auf bereits gescheiterte Vorhaben kann helfen, die Hindernisse zu finden, die gemeinhin der Grund für das Misslingen sind. Vielleicht entdeckt man beim Blick zurück bestimmte Gewohnheiten oder Glaubenssätze, die hinderlich sind. Einige von uns tragen Glaubenssätze aus Kindheit und Jugend mit sich herum, die Hindernisse auf dem Weg zu unserem Ziel sein können. All das gilt es möglichst konkret zu benennen.Gabriele Oettingen nennt diesen Schritt “mentales Kontrastieren” – und genau das ist zentral dafür, dass wir unsere Pläne erfolgreich umsetzen können. Dieser Erkenntnis liegen die Forschungsergebnisse der Psychologin zugrunde. In ihren Studien stellte sie fest, dass diejenigen Personen am erfolgreichsten ihre Ziele umsetzen konnten, die sich im Vorfeld auch mit den Problemen und Hindernissen beschäftigt haben, die ihnen im Weg stehen. Das Hindernis beziehungsweise die Überwindung des Hindernisses liefert dann nämlich die nötige Energie und Antriebskraft, um das Vorhaben anzugehen und das zu erreichen, was man sich vorgenommen hat.4. PlanMan weiß nun, wie die eigene Zukunft aussehen soll und welche Hindernisse im Weg stehen. Damit ist schon einiges erreicht. Damit die WOOP-Strategie funktioniert, fehlt jedoch noch der letzte Schritt. Nämlich ein konkreter Plan, wie man das Hindernis überwinden kann. Dazu kann man sich beispielsweise überlegen, wie es gelingen könnte, alte Gewohnheiten abzulegen und durch neue zu ersetzen, die dazu beitragen, das Ziel zu erreichen.Zum Beispiel: Statt jeden Morgen beim Warten auf den Zug oder die Straßenbahn gelangweilt durch den Instagram-Feed zu scrollen, könnte man die Zeit nutzen, indem man Vokabeln lernt oder sich ein wenig die Grammatik der zu lernenden Fremdsprache ansieht. Glücklicherweise ist auch das alles digital möglich – es gibt also keine Ausrede mehr, warum man beim Warten auf die Bahn, den Zahnarzttermin oder den Kunden nicht daran arbeitet, sein Ziel zu erreichen. (pg) 

WOOP-Methode: So erreichen Sie Ihre Ziele​ Die WOOP-Methode hilft, Hindernisse auf dem Weg zu einem (beruflichen) Ziel leichter zu meistern.
Foto: eamesBot – shutterstock.comNicht nur der Jahreswechsel ist eine willkommene Gelegenheit, um Vorsätze zu fassen. Man kann sich schließlich immer etwas Neues vornehmen. Aber ganz unabhängig vom Zeitpunkt ist das Ergebnis häufig gleich: Nach kurzer Zeit werden die guten Vorsätze nach und nach aufgeben, bis gar nichts oder nicht mehr viel davon übrig ist. Was viele jedoch nicht wissen: Es gibt eine (wissenschaftlich untermauerte) Methode, mit der sich Ziele in vier einfachen Schritten umsetzen lassen – die WOOP-Methode. WOOP-Methode: Die UrsprüngeDie Psychologieprofessorin Gabriele Oettingen hat sich über viele Jahre intensiv mit Fragen wie “Wie erreiche ich meine Ziele” und “Wie schaffe ich es, motiviert bei der Sache zu bleiben?” auseinandergesetzt. Besonders interessiert hat sie dabei die Fragestellung, was Menschen davon abhält, ihre Ziele zu erreichen. Das Ergebnis: Allein eine positive Grundeinstellung hilft nicht wirklich weiter, wenn man ein bestimmtes Ziel erreichen möchte.Eine bemerkenswerte Feststellung der Professorin, denn damit widerlegte sie mit ihrer Forschung, was jahrelang propagiert wurde: Wer nur positiv genug denke, der werde es auch schaffen, in der Zukunft positive Ergebnisse zu erzielen. Im schlimmsten Fall kann die positive Einstellung sogar hinderlich sein. Einen Hinweis darauf fand Oettingen in einer Studie mit Frauen, die ihr Gewicht reduzieren wollten. Dabei zeigte sich, dass gerade diejenigen Frauen, die sich ihr neues Leben mit weniger Kilos besonders schön und erstrebenswert vorgestellt hatten, am wenigsten abnahmen.Die Hochschullehrerin erklärt das damit, dass wir uns durch unsere positiven Gedanken vom eigentlichen Ziel ablenken lassen. Vereinfacht gesagt: Wer sich sein Ziel zu positiv ausmalt, könnte gewissermaßen auf die Idee kommen, das Ziel bereits erreicht zu haben. Und das wiederum führt dazu, dass wir uns weniger anstrengen und die Hindernisse, die in Wirklichkeit vor uns liegen, nicht beachten. Ein neuer Ansatz musste also her und den fand Oettingen auf der Grundlage ihrer weiteren Forschungsergebnisse. Sie entwickelte daraus die sogenannte WOOP-Strategie, die aus vier einfachen Schritten besteht.

WOOP-Methode umsetzen: 4 SchritteWOOP ist ein Akronym, das sich aus den Anfangsbuchstaben der folgenden englischen Begriffe zusammensetzt:Wish (Wunsch)Outcome (Ergebnis)Obstacle (Hindernis)Plan (Planung)Was aber bedeutet das konkret?1. WishKlar, wer etwas erreichen möchte, der sollte sich zunächst ein klares Ziel setzen. Diffuse Vorgaben lassen sich eben deutlich schwerer in die Realität umsetzen. Der erste Schritt der WOOP-Strategie besteht also darin, ein möglichst klares Ziel zu formulieren. Das muss übrigens gar keine weltbewegende Angelegenheit sein. Wenn Sie sich vornehmen, fortan zweimal wöchentlich eine halbe Stunde spazieren gehen zu wollen, ist das ein ebenso gutes Ziel, wie das Vorhaben, bis zum nächsten Sommerurlaub die Landessprache halbwegs fließend sprechen zu können.2. Outcome Wie bereits erwähnt, kann es schwierig sein, wenn man sich Ziele zu euphorisch ausmalt. Das soll aber nicht bedeuten, dass es verboten ist zu träumen. Im Gegenteil. Die Psychologin weist darauf hin, dass es durchaus Vorteile hat, sich ein Ergebnis möglichst positiv vorzustellen. Auf diese Weise wird eine offene Grundstimmung erzeugt und das Vorhaben mit einem guten Gefühl angegangen. Sich die Zukunft möglichst rosig auszumalen, kann bei einigen Menschen dazu beitragen, die Dinge entspannter anzupacken. Alles durchaus wünschenswerte Effekte. Die Gefahr liegt aber darin, dass übertriebener Optimismus lähmen kann. Wer es bei dem Schritt belässt, sich seine Zukunft möglichst positiv auszumalen, vergisst häufig den nächsten Schritt – und der ist zentral dafür, wenn wir es zum Beispiel schaffen wollen, unsere Neujahrsvorsätze einzuhalten.3. ObstacleWas viele nämlich vergessen, wenn sie sich ihr neues Leben vorstellen, sind die Hindernisse, die noch vor ihnen liegen. Das ist leicht nachzuvollziehen. Schließlich ist es viel schöner, von einer Zukunft zu träumen, in der man im Vorstellungsgespräch nicht mehr schwitzen muss, wenn der Personaler auf die Fremdsprachenkenntnisse zu sprechen kommt – und dabei außenvorzulassen, wie viel Zeit für Vokabel- und Grammatiktraining aufgewendet werden müsste. Doch leider gehört genau das dazu. Und an dieser Stelle scheitern viele Vorhaben und Vorsätze.Wer seine Pläne erfolgreich in die Tat umsetzen möchte, der sollte sich daher vorab möglichst detailliert Klarheit darüber verschaffen, was ihn oder sie davon abhalten könnte. Ein Blick auf bereits gescheiterte Vorhaben kann helfen, die Hindernisse zu finden, die gemeinhin der Grund für das Misslingen sind. Vielleicht entdeckt man beim Blick zurück bestimmte Gewohnheiten oder Glaubenssätze, die hinderlich sind. Einige von uns tragen Glaubenssätze aus Kindheit und Jugend mit sich herum, die Hindernisse auf dem Weg zu unserem Ziel sein können. All das gilt es möglichst konkret zu benennen.Gabriele Oettingen nennt diesen Schritt “mentales Kontrastieren” – und genau das ist zentral dafür, dass wir unsere Pläne erfolgreich umsetzen können. Dieser Erkenntnis liegen die Forschungsergebnisse der Psychologin zugrunde. In ihren Studien stellte sie fest, dass diejenigen Personen am erfolgreichsten ihre Ziele umsetzen konnten, die sich im Vorfeld auch mit den Problemen und Hindernissen beschäftigt haben, die ihnen im Weg stehen. Das Hindernis beziehungsweise die Überwindung des Hindernisses liefert dann nämlich die nötige Energie und Antriebskraft, um das Vorhaben anzugehen und das zu erreichen, was man sich vorgenommen hat.4. PlanMan weiß nun, wie die eigene Zukunft aussehen soll und welche Hindernisse im Weg stehen. Damit ist schon einiges erreicht. Damit die WOOP-Strategie funktioniert, fehlt jedoch noch der letzte Schritt. Nämlich ein konkreter Plan, wie man das Hindernis überwinden kann. Dazu kann man sich beispielsweise überlegen, wie es gelingen könnte, alte Gewohnheiten abzulegen und durch neue zu ersetzen, die dazu beitragen, das Ziel zu erreichen.Zum Beispiel: Statt jeden Morgen beim Warten auf den Zug oder die Straßenbahn gelangweilt durch den Instagram-Feed zu scrollen, könnte man die Zeit nutzen, indem man Vokabeln lernt oder sich ein wenig die Grammatik der zu lernenden Fremdsprache ansieht. Glücklicherweise ist auch das alles digital möglich – es gibt also keine Ausrede mehr, warum man beim Warten auf die Bahn, den Zahnarzttermin oder den Kunden nicht daran arbeitet, sein Ziel zu erreichen. (pg)

WOOP-Methode: So erreichen Sie Ihre Ziele​ Weiterlesen »

Erfolgreich bewerben: 5 Tipps, die zum Traumjob führen​

Allgemein

Wer beruflich nach den Sternen greifen und seinen Traumjob verwirklichen möchte, sollte sein Vorankommen nicht unnötig durch Versäumnisse im Bewerbungsprozess gefährden. Foto: GaudiLab – shutterstock.com Menschen fassen sich immer wieder Vorsätze, wie sie sich privat und beruflich weiterentwickeln und welche Ziele sie hierbei erreichen wollen. Im beruflichen Kontext geht das Setzen neuer Ambitionen oft auch mit einer Rekapitulation des vorherigen Berufslebens und der Erkenntnis einher, etwas Neues wagen und sich beruflich verändern zu wollen. 5 strategische Tricks für Ihre Bewerbung Natürlich ist der Traumjob eine sehr subjektive Angelegenheit, denn jeder hat im Grunde eine andere Vorstellung des eigenen Wunschberufs. Doch ganz unabhängig von sämtlichen individuellen Berufswünschen gibt es im Bewerbungsprozess allgemein anwendbare Vorgehensweisen, die im Folgenden aufgeführt werden und deren Beachtung sich beruflich auszahlen könnte. 1. Stellenausschreibung nicht überbewerten Jeder hat das schon einmal erlebt: Es scheint so, als wäre die Traumstelle gefunden, doch man selbst kann nicht alle geforderten Voraussetzungen vorweisen. Viele Interessierte werfen hier bereits das Handtuch und bewerben sich gar nicht erst auf die Stelle. Ein falscher Ansatz: Denn häufig gibt es diese eine in der Stellenausschreibung beschriebene Person gar nicht. Sie ist mehr eine Wunschperson. Obwohl Bewerber die ausgeschriebenen Anforderungen nicht in Gänze erfüllen, können sie den Arbeitgeber im Bewerbungsprozess dennoch mit ihren Soft Skills und Kommunikationsfähigkeiten überzeugen. Scheuen Sie sich also nicht davor, auch Bewerbungen für Stellen einzureichen, die nicht hundertprozentig ihrer Person und Vita entsprechen. Das gilt übrigens auch für einen Traumarbeitgeber, der eine für sie passende Stelle überhaupt nicht ausgeschrieben hat: Nutzen Sie hier die Möglichkeit einer Initiativbewerbung. Auch, wenn am Ende kein Stellenangebot gemacht wird, kann es sein, dass Sie mit einer aussagekräftigen Bewerbung im Gedächtnis der Personalabteilung bleiben und diese bei der Ausschreibung einer neuen Stelle proaktiv auf Sie zukommt. 2. Wünsche selbstbewusst kommunizieren Trotz der Rezession besteht auf dem deutschen Arbeitsmarkt Bedarf an Arbeitnehmer und ist der fortschreitende Fachkräftemangel weiterhin ein maßgeblicher Faktor. Unternehmen bewerben sich also eher bei den wenigen, auf dem Markt befindlichen potenziellen Bewerber als andersherum. Für Arbeitnehmer ergibt sich so eine gute Verhandlungsposition. Diese sollten Bewerber nutzen und ihre Wünsche und Vorstellungen selbstbewusst im gesamten Bewerbungsprozess kommunizieren. Dies gilt auch für den Lebenslauf, das Anschreiben (welches natürlich auf das Unternehmen zugeschnitten sein muss) und jede Kommunikation während des Vorstellungsgesprächs. 3. Bestmögliche Vorbereitung In fast allen Bewerbungsgesprächen kommt die Frage nach den eigenen Schwächen und Gehaltsvorstellungen. Seien Sie auf diese Fragen vorbereitet und recherchieren Sie zum Beispiel, wie hoch die Gehälter auf diesen Positionen in der Branche sind. Sie fallen positiv auf, wenn Sie hier realistisch bleiben. Verkaufen Sie sich gleichzeitig aber auch nicht unter Wert und weisen Sie auch selbstbewusst auf ihre Stärken hin. 4. Proaktiv agieren Auch nach absolvierten Bewerbungsgesprächen sowie zwischen dem Kennenlernen des Teams und Probearbeitstag sollten Sie mit dem Wunscharbeitgeber proaktiv in Verbindung bleiben. Das kann zum Beispiel eine Nachfrage sein, die sich erst nach dem ersten Bewerbungsgespräch ergeben hat oder auch die Erkundigung nach den nächsten Schritten. Ziel ist es, dem Arbeitgeber auch zwischen den einzelnen Bewerbungsschritten deutlich zu machen, dass ein großes Interesse an der Stelle besteht und eine Anstellung gewünscht ist. Achten Sie jedoch darauf, dass Sie nicht zu übereifrig sind und eine Follow-up am nächsten Tag machen – auch die Personalabteilung braucht Zeit, um die nächsten Schritte einzuleiten. 5. Passendes Netzwerk aufbauen Natürlich kann es immer sein, dass ihr Traumjob aktuell noch nicht zu ihren Fähigkeiten passt beziehungsweise Sie an der ein oder anderen Stelle definitiv noch Praxiserfahrung benötigen – immerhin ist es ein Traumjob. Versuchen Sie daher schon frühzeitig, durch Praktika in ihrer gewünschten Branche Erfahrung zu sammeln, aber auch ein passendes Netzwerk um sich herum aus Personen aufzubauen, an die Sie sich wenden können. Vitamin B kann ein Schlüssel zum Erfolg sein – ermöglicht es doch zumindest immer wieder Chancen, die für den Berufsweg wichtig sind. Veränderung gut vorbereitet wagen Es bieten sich immer über den Jahresanfang hinaus gute Möglichkeiten, Neues zu wagen, den eigenen beruflichen Werdegang zu hinterfragen und sich neue Ziele zu setzen. Natürlich gelingt es an der ein oder andere Stelle auch direkt mit dem erhofften Traumjob. Die Auseinandersetzung mit der Frage “Was will ich beruflich wirklich machen?” kann aber auch einfach der Anfang von einem Prozess sein, an dessen Ende in Zukunft der Traumjob steht. Dies sollten Bewerber bei der Suche niemals vergessen. (pg) 

Erfolgreich bewerben: 5 Tipps, die zum Traumjob führen​ Wer beruflich nach den Sternen greifen und seinen Traumjob verwirklichen möchte, sollte sein Vorankommen nicht unnötig durch Versäumnisse im Bewerbungsprozess gefährden.
Foto: GaudiLab – shutterstock.com

Menschen fassen sich immer wieder Vorsätze, wie sie sich privat und beruflich weiterentwickeln und welche Ziele sie hierbei erreichen wollen. Im beruflichen Kontext geht das Setzen neuer Ambitionen oft auch mit einer Rekapitulation des vorherigen Berufslebens und der Erkenntnis einher, etwas Neues wagen und sich beruflich verändern zu wollen.

5 strategische Tricks für Ihre Bewerbung

Natürlich ist der Traumjob eine sehr subjektive Angelegenheit, denn jeder hat im Grunde eine andere Vorstellung des eigenen Wunschberufs. Doch ganz unabhängig von sämtlichen individuellen Berufswünschen gibt es im Bewerbungsprozess allgemein anwendbare Vorgehensweisen, die im Folgenden aufgeführt werden und deren Beachtung sich beruflich auszahlen könnte.

1. Stellenausschreibung nicht überbewerten

Jeder hat das schon einmal erlebt: Es scheint so, als wäre die Traumstelle gefunden, doch man selbst kann nicht alle geforderten Voraussetzungen vorweisen. Viele Interessierte werfen hier bereits das Handtuch und bewerben sich gar nicht erst auf die Stelle. Ein falscher Ansatz: Denn häufig gibt es diese eine in der Stellenausschreibung beschriebene Person gar nicht. Sie ist mehr eine Wunschperson. Obwohl Bewerber die ausgeschriebenen Anforderungen nicht in Gänze erfüllen, können sie den Arbeitgeber im Bewerbungsprozess dennoch mit ihren Soft Skills und Kommunikationsfähigkeiten überzeugen.

Scheuen Sie sich also nicht davor, auch Bewerbungen für Stellen einzureichen, die nicht hundertprozentig ihrer Person und Vita entsprechen. Das gilt übrigens auch für einen Traumarbeitgeber, der eine für sie passende Stelle überhaupt nicht ausgeschrieben hat: Nutzen Sie hier die Möglichkeit einer Initiativbewerbung. Auch, wenn am Ende kein Stellenangebot gemacht wird, kann es sein, dass Sie mit einer aussagekräftigen Bewerbung im Gedächtnis der Personalabteilung bleiben und diese bei der Ausschreibung einer neuen Stelle proaktiv auf Sie zukommt.

2. Wünsche selbstbewusst kommunizieren

Trotz der Rezession besteht auf dem deutschen Arbeitsmarkt Bedarf an Arbeitnehmer und ist der fortschreitende Fachkräftemangel weiterhin ein maßgeblicher Faktor. Unternehmen bewerben sich also eher bei den wenigen, auf dem Markt befindlichen potenziellen Bewerber als andersherum. Für Arbeitnehmer ergibt sich so eine gute Verhandlungsposition.

Diese sollten Bewerber nutzen und ihre Wünsche und Vorstellungen selbstbewusst im gesamten Bewerbungsprozess kommunizieren. Dies gilt auch für den Lebenslauf, das Anschreiben (welches natürlich auf das Unternehmen zugeschnitten sein muss) und jede Kommunikation während des Vorstellungsgesprächs.

3. Bestmögliche Vorbereitung

In fast allen Bewerbungsgesprächen kommt die Frage nach den eigenen Schwächen und Gehaltsvorstellungen. Seien Sie auf diese Fragen vorbereitet und recherchieren Sie zum Beispiel, wie hoch die Gehälter auf diesen Positionen in der Branche sind. Sie fallen positiv auf, wenn Sie hier realistisch bleiben. Verkaufen Sie sich gleichzeitig aber auch nicht unter Wert und weisen Sie auch selbstbewusst auf ihre Stärken hin.

4. Proaktiv agieren

Auch nach absolvierten Bewerbungsgesprächen sowie zwischen dem Kennenlernen des Teams und Probearbeitstag sollten Sie mit dem Wunscharbeitgeber proaktiv in Verbindung bleiben. Das kann zum Beispiel eine Nachfrage sein, die sich erst nach dem ersten Bewerbungsgespräch ergeben hat oder auch die Erkundigung nach den nächsten Schritten.

Ziel ist es, dem Arbeitgeber auch zwischen den einzelnen Bewerbungsschritten deutlich zu machen, dass ein großes Interesse an der Stelle besteht und eine Anstellung gewünscht ist. Achten Sie jedoch darauf, dass Sie nicht zu übereifrig sind und eine Follow-up am nächsten Tag machen – auch die Personalabteilung braucht Zeit, um die nächsten Schritte einzuleiten.

5. Passendes Netzwerk aufbauen

Natürlich kann es immer sein, dass ihr Traumjob aktuell noch nicht zu ihren Fähigkeiten passt beziehungsweise Sie an der ein oder anderen Stelle definitiv noch Praxiserfahrung benötigen – immerhin ist es ein Traumjob. Versuchen Sie daher schon frühzeitig, durch Praktika in ihrer gewünschten Branche Erfahrung zu sammeln, aber auch ein passendes Netzwerk um sich herum aus Personen aufzubauen, an die Sie sich wenden können. Vitamin B kann ein Schlüssel zum Erfolg sein – ermöglicht es doch zumindest immer wieder Chancen, die für den Berufsweg wichtig sind.

Veränderung gut vorbereitet wagen

Es bieten sich immer über den Jahresanfang hinaus gute Möglichkeiten, Neues zu wagen, den eigenen beruflichen Werdegang zu hinterfragen und sich neue Ziele zu setzen. Natürlich gelingt es an der ein oder andere Stelle auch direkt mit dem erhofften Traumjob. Die Auseinandersetzung mit der Frage “Was will ich beruflich wirklich machen?” kann aber auch einfach der Anfang von einem Prozess sein, an dessen Ende in Zukunft der Traumjob steht. Dies sollten Bewerber bei der Suche niemals vergessen. (pg)

Erfolgreich bewerben: 5 Tipps, die zum Traumjob führen​ Weiterlesen »

Warum Sie Earbuds regelmäßig reinigen sollten – und wie Sie es richtig machen​

Allgemein

IDG Earbuds werden eine immer beliebtere Alternative zu klassischen Kopfhörern. Das liegt nicht nur an ihrer praktischen Größe, die sie perfekt für unterwegs oder für den Sport machen. Sondern auch an der guten Preis-Leistung, die meisten Buds bieten. Anders als Headsets, die auf den Ohren aufliegen, gibt es eine wichtige Sache aber zu beachten: Sie müssen Ihre In-Ears regelmäßig pflegen und säubern! Das hat vor allem einen wichtigen Grund, kann aber auch zur Haltbarkeit der Buds beitragen. Infektionsrisiko senken Die regelmäßige Reinigung Ihrer Earbuds hat vor allem den Vorteil, dass sich dadurch Entzündungen im Ohr verhindern lassen. Denn wenn Sie die Buds regelmäßig tragen, sammelt sich darin nicht nur Ohrenwachs, sondern auch Schmutz und Bakterien. Auf lange Sicht ist das keine gute Mischung. Denn besonders die empfindlichen Härchen im Inneren des Ohrs sind sehr anfällig und können verkleben (auch wenn die Buds zu eng sitzen oder das Ohrenwachs nach hinten schieben). Außerdem wird durch langes Tragen von In-Ears Feuchtigkeit im Ohr festgehalten, die das Infektionsrisiko ebenfalls erhöhen. Also selbst dann, wenn Sie Ihre Ohren immer sauber halten, sollten Sie auch darauf achten, dass Ihre Kopfhörer ebenso rein bleiben. Hier sind ein paar nützliche Tipps dafür. So machen Sie die Earbuds sauber Wichtig zu wissen ist erst einmal, dass sich Earbuds leichter reinigen lassen, indem Sie die Silikonkappe abnehmen. Machen Sie das vorsichtig, damit nichts kaputtgeht. Danach können Sie den Silikonring am besten mit etwas Wasser, Desinfektionsmittel und einem Ohrenstäbchen reinigen. Vermeiden Sie es, beim Saubermachen spitze Gegenstände zu verwenden. Auch wenn bei diversen Reinigungssets oft mindestens ein Werkzeug mit Metallspitze dabei ist. Das kann man aber im Zweifel aber noch dafür verwenden, um das Case sauber zu machen. Das geht aber auch mit einem Pinsel oder einer weichen Bürste, die sie auch für die In-Ears selbst verwenden können. Tipp: Im Bild sieht man die Xiaomi Redmi Buds 6 Lite. Die gibt es für 15 bis 20 Euro bei Amazon und sind ein echter Preis-Leistungs-Tipp! Verwenden Sie bei der Reinigung in jedem Fall nicht zu viel Wasser. Das schadet den Earbuds. Sie brauchen auch keine speziellen Reinigungsmittel, ein Tropfen Spülmittel mit etwas Wasser verdünnt reicht vollkommen aus. Wie oft sollte ich Earbuds säubern? Wie oft Sie Ihre In-Ears sauber machen sollten, hängt ganz von der Nutzungsdauer und Häufigkeit ab. Wenn Sie die Buds jeden Tag tragen, und das über mehrere Stunden, sollte mindestens einmal die Woche eine Reinigung erfolgen. Bei anderen, die seltener zu ihren Buds greifen, reicht vielleicht auch einmal im Monat aus. (PC-Welt) 

Warum Sie Earbuds regelmäßig reinigen sollten – und wie Sie es richtig machen​ IDG

Earbuds werden eine immer beliebtere Alternative zu klassischen Kopfhörern. Das liegt nicht nur an ihrer praktischen Größe, die sie perfekt für unterwegs oder für den Sport machen. Sondern auch an der guten Preis-Leistung, die meisten Buds bieten.

Anders als Headsets, die auf den Ohren aufliegen, gibt es eine wichtige Sache aber zu beachten: Sie müssen Ihre In-Ears regelmäßig pflegen und säubern! Das hat vor allem einen wichtigen Grund, kann aber auch zur Haltbarkeit der Buds beitragen.

Infektionsrisiko senken

Die regelmäßige Reinigung Ihrer Earbuds hat vor allem den Vorteil, dass sich dadurch Entzündungen im Ohr verhindern lassen. Denn wenn Sie die Buds regelmäßig tragen, sammelt sich darin nicht nur Ohrenwachs, sondern auch Schmutz und Bakterien.

Auf lange Sicht ist das keine gute Mischung. Denn besonders die empfindlichen Härchen im Inneren des Ohrs sind sehr anfällig und können verkleben (auch wenn die Buds zu eng sitzen oder das Ohrenwachs nach hinten schieben). Außerdem wird durch langes Tragen von In-Ears Feuchtigkeit im Ohr festgehalten, die das Infektionsrisiko ebenfalls erhöhen.

Also selbst dann, wenn Sie Ihre Ohren immer sauber halten, sollten Sie auch darauf achten, dass Ihre Kopfhörer ebenso rein bleiben. Hier sind ein paar nützliche Tipps dafür.

So machen Sie die Earbuds sauber

Wichtig zu wissen ist erst einmal, dass sich Earbuds leichter reinigen lassen, indem Sie die Silikonkappe abnehmen. Machen Sie das vorsichtig, damit nichts kaputtgeht. Danach können Sie den Silikonring am besten mit etwas Wasser, Desinfektionsmittel und einem Ohrenstäbchen reinigen.

Vermeiden Sie es, beim Saubermachen spitze Gegenstände zu verwenden. Auch wenn bei diversen Reinigungssets oft mindestens ein Werkzeug mit Metallspitze dabei ist. Das kann man aber im Zweifel aber noch dafür verwenden, um das Case sauber zu machen. Das geht aber auch mit einem Pinsel oder einer weichen Bürste, die sie auch für die In-Ears selbst verwenden können.

Tipp: Im Bild sieht man die Xiaomi Redmi Buds 6 Lite. Die gibt es für 15 bis 20 Euro bei Amazon und sind ein echter Preis-Leistungs-Tipp!

Verwenden Sie bei der Reinigung in jedem Fall nicht zu viel Wasser. Das schadet den Earbuds. Sie brauchen auch keine speziellen Reinigungsmittel, ein Tropfen Spülmittel mit etwas Wasser verdünnt reicht vollkommen aus.

Wie oft sollte ich Earbuds säubern?

Wie oft Sie Ihre In-Ears sauber machen sollten, hängt ganz von der Nutzungsdauer und Häufigkeit ab. Wenn Sie die Buds jeden Tag tragen, und das über mehrere Stunden, sollte mindestens einmal die Woche eine Reinigung erfolgen. Bei anderen, die seltener zu ihren Buds greifen, reicht vielleicht auch einmal im Monat aus.

(PC-Welt)

Warum Sie Earbuds regelmäßig reinigen sollten – und wie Sie es richtig machen​ Weiterlesen »

XP-Pen Artist Pro 22 (Gen 2) im Test: 22-Zoll-Grafiktablet mit Mini-Tastatur​

Allgemein

Jérémie Kaiser Auf einen Blick Pro Großes Grafiktablett mit gutem Bild Programmierbare Mini-Tastatur Angenehmes Zeichenerlebnis Gute Reaktionszeit Gutes Preis-Leistungs-Verhältnis Kontra Pentablet-Software könnte die Keybindings besser erklären und mehr doppelte Tastenbelegungen anbieten Fazit Das neue XP-Pen Artist Pro 22 (Gen 2) ist ein 22-Zoll-Grafikdisplay mit QHD-Auflösung, 16K-Druckstufen sowie Calman verifizierter Farbgenauigkeit und kommt mit einer Mini-Tastatur und einem verstellbaren Ständer. Das Tablet bietet eine präzise Darstellung und ein papierähnliches Zeichenerlebnis. Das AG-Nano-Ätzglases reduziert Blendung und Fingerabdrücke. Der X3 Pro Stift mit über 16.000 Druckstufen und 60-Grad-Neigungserkennung sorgt für ein reaktionsschnelles Zeichnen und enthält einen digitalen Radierer. Die Farbwiedergabe ist gut. Es eignet sich für Arbeiten wie Illustration, Grafikdesign, 3D-Modellierung und auch Videobearbeitung und ist mit Windows, Android, macOS, Linux, ChromeOS sowie allen gängigen Bildbearbeitungsprogrammen kompatibel. Mein Highlight ist die Mini-Tastatur mit der Option zur Tastenprogrammierung, die die Arbeit noch einmal deutlich erleichtert.Nach mehrstündigem Testen kann ich das Grafiktablett guten Herzens für diejenigen empfehlen, die (noch) auf ihre Geldbörse achten müssen, denn zum Preis von 759 Euro bekommt man wirklich ein ordentliches Gerät, mit dem man professionelle Arbeiten abliefern kann. Ja, ich zeichne gerne. Heute aus zeitlichen Gründen nicht mehr so viel, wie früher, aber ich weiß, wie die franko-belgischen Comics traditionell gezeichnet werden und wie ein Comic komplett digital erstellt wird. Hier konnte ich mich mit meinem uralten Wacom-Bamboo-Tablet von 2009 in der digitalen Welt behaupten und Logo-Wettbewerbe gewinnen. Dass dieses Tablet bis heute überlebt hat – mit Tesafilm um den Stift, damit er zusammenhält – und mir von Zeit zu Zeit noch gute Dienste leistet, wundert mich zutiefst. Warum ist das wichtig? Nun, ein Testbericht über ein Grafiktablett für Profis erfordert ein wenig Expertise im Umgang mit dem Stift. Ich darf mich also rühmen, in diesem Handwerk nicht ganz ahnungslos zu sein. Seit der Markteinführung des Wacom Cintiq 22 wünsche ich mir ein Grafiktablett dieser Größe. Das ist wohl ein Traum vieler Künstler, Illustratoren und Designer, die sich digital verwirklichen wollen. Aber mehr als 1.000 Euro dafür auszugeben, ist eine ordentliche Investition und eher für Profis interessant. Aber mit der brandneuen Version des Artist Pro 22 (Gen 2), dem Modell MD220QH der Firma XP-Pen gibt es möglicherweise eine preisgünstigere Alternative, die ich nun testen darf. Ein Grafiktablett für Künstler Mein erster Eindruck zum Artist Pro 22 (Gen 2) ist sehr positiv. Die Verpackung ist ansprechend gestaltet und die Hardware mit dem Zubehör liegt ordnungsgemäß und sicher verstaut. Die Verpackung des Artist Pro 22 (Gen 2) ist ansprechend gestaltetJérémie Kaiser Was beim Öffnen der Box sofort ins Auge fällt, ist das beigelegte Blatt mit der Calman-Zertifizierung. Ein “Calman Verified”-Gerät zeichnen sich durch hohe Farbgenauigkeit und professionelle Kalibrierung aus. Das Artist Pro 22 (Gen 2) ist “Calman verified”Jérémie Kaiser Wenn man besonders viel Wert auf Details legt, könnte man die Ästhetik des Innenraums weiter optimieren, damit die Komponenten nicht wirken, als wären sie einfach wahllos hineingestellt worden. Aber das ist meckern auf hohem Niveau. Es ist alles sicher verpackt und darauf kommt es an. Jérémie Kaiser Im Lieferumfang enthalten sind: Das Grafiktablett, eine kabellose Shortcut-Fernbedienung (eine Mini-Tastatur), der Stift (X3 Pro Smart Chip Stylus) mit zehn Standardspitzen und Filzspitzen und ein Handschuh. Des Weiteren gibt es einen Stifthalter zum Anbringen an das Grafikdisplay, ein Reinigungstuch, zwei Netzkabel, ein HDMI-Kabel, ein USB-C zu USB-C-Kabel und ein USB-A zu USB-C-Kabel. Artist Pro 22 (Gen 2) Grafiktablett – Das TablettJérémie Kaiser Artist Pro 22 (Gen 2) Grafiktablett – Der StänderJérémie Kaiser Artist Pro 22 (Gen 2) Grafiktablett – Die Mini-TastaturJérémie Kaiser Artist Pro 22 (Gen 2) – Der X3-Pro-StiftJérémie Kaiser Beim Auspacken fällt sofort auf, dass sämtliche Komponenten – vom Display bis zur Mini-Tastatur – sich robust und hochwertig anfühlen. Das Display hat auf der Rückseite neben Strom noch folgende Anschlüsse: USB-C, HDMI und Kopfhörer. Artist Pro 22 (Gen 2) – AnschlüsseJérémie Kaiser Auf der Oberseite kann man die Stifthalterun anbringen und findet drei Knöpfe: „Power“, sowie „+“ und „-“, um die Helligkeit einzustellen. Artist Pro 22 (Gen 2) – ButtonsJérémie Kaiser So weit, so gut. Einrichten des Grafiktablets Das Anschließen und Einrichten ist unkompliziert, nimmt aber beim ersten Mal etwas Zeit in Anspruch. Artist Pro 22 (Gen 2) – Das Grafiktablett in BetriebJérémie Kaiser Man kann entweder ein HDMI-Kabel in Kombination mit einem der mitgelieferten USB-Kabel oder alternativ nur das USB-C-Kabel verwenden. Mit dem USB-C-Kabel erspart man sich ein zusätzliches Kabel beim Kabelmanagement.Man merkt sofort: dieses Grafiktablett benötigt viel Platz. Ideal, für Künstler die viel zeichnen und eine feste Arbeitsumgebung haben. Für mich, der nicht mehr professionell in diesem Bereich tätig ist, kann das ständige Auf- und Abbauen jedoch mühsam sein. Wenn man das Tablett einschaltet, startet es sofort und spiegelt den Bildschirm des Computers. Dann muss noch der Treiber installiert werden. Den gibt es auf der Homepage von XP-Pen unter „Support“ im Bereich „Treiber herunterladen“. Die Installation geht schnell und erfordert einen Neustart. XP-Pen stellt dort außerdem fünf kostenlos Zeichenprogramme zur Verfügung. Der beiliegende Handschuh passt mir einwandfrei, er dürfte aber keinesfalls kleiner ausfallen. Zum Vergleich: Meine Hand ist ca. 19 cm groß. Artist Pro 22 (Gen 2) – Der HandschuhJérémie Kaiser Die XP-Pen-Pentablet-Software Die Pentablet-Software bietet zwei separate Hauptmenüs: eines für die Mini-Tastatur (“Shortcut Remote”) und eines für das Tablet (“Artist Pro 22 (Gen 2)”). Im ersten Hauptmenü für die Mini-Tastatur kann man im ersten Untermenü die Ausrichtung der Tastatur festlegen und die einzelnen Tasten individuell belegen. Dabei kann man bis zu vier Voreinstellungen speichern und während des Arbeitens flexibel zwischen ihnen wechseln. Was wirklich toll ist: im Lieferumfang enthalten sind auch Aufkleber mit Symbolen, die man auf die Tasten kleben kann. Artist Pro 22 (Gen 2) – Pentablet-Software: Mini-Tastatur einstellenJérémie Kaiser Im zweiten Untermenü lassen sich Einstellungen importieren oder exportieren, um sie später wiederzuverwenden. Ich habe mich für die vertikale Anordnung entschieden, da sie besser in der Hand liegt und das Zoom-Rad leichter erreichbar ist. Im zweiten Menü kann man sowohl das Display als auch den Stift individuell anpassen. Auch beim Stift kann man die Tastenbelegung anpassen und die Druckempfindlichkeit justieren. Artist Pro 22 (Gen 2) – Pentablet-Software: Display kalibrierenJérémie Kaiser Artist Pro 22 (Gen 2) – Pentablet-Software: X3-Pro-Stift einstellenJérémie Kaiser Inbetriebnahme des XP-Pen Artist Pro 22 Zunächst muss man in der Pentablet-Software das Grafiktablett kalibrieren, damit die Stifteingaben präzise erfasst werden. Das geht unter “Artist Pro 22 (Gen 2)” > „Gerät“ > „Kalibrierung“. Artist Pro 22 (Gen 2) – Der Stift muss kalibriert werdenJérémie Kaiser Zur Kalibrierung muss man fünf rote Markierungen auf dem Display mit dem Stift antippen. Anschließend noch die Mini-Tastatur per Bluetooth, USB-Adapter oder per USB-Kabel verbinden und schon kann es losgehen. Das Grafiktablett ist mit allen gängigen Bildbearbeitungsprogrammen kompatibel. Ich nutze für diesen Test Adobe Photoshop 2025. Das erste, das mir auffällt: Der Bildschirm unterstützt keine Touch-Eingaben. Ja, es wird auch nicht als Touch-Display beworben, aber für manche könnte das beim Arbeiten hinderlich sein. Ich zum Beispiel drehe beim Zeichnen oft meine Blätter, um präzisere Striche zu setzen; das würde ich auch gerne mit der Arbeitsfläche in Photoshop können. Aber ein kleiner Tipp: dafür lässt sich mit dem Mini-Keyboard die Drehfunktion in Photoshop als Taste abspeichern (R + Bild ziehen). Die ersten Striche sind flüssig und vermitteln ein Papierähnliches Gefühl auf der Oberfläche: ein angenehmes Zeichen-Erlebnis. Der mitgelieferte Stift bietet mit 16.384 Druckstufen eine hohe Druckempfindlichkeit. Die mitgelieferten Filzspitzen verstärken dieses Gefühl, da sie das Zeichnen auf Papier simulieren. Zudem verfügt der Stift über zwei individuell programmierbare Schnellzugriffstasten sowie einen digitalen Radiergummi auf der Rückseite. Der Silikongriff ist ergonomisch und sorgt für guten Komfort. Ich hatte auch beim längeren Arbeiten keine Schmerzen in der Hand. Artist Pro 22 (Gen 2) – HELLMUT Folge 25 – Erste StricheJérémie Kaiser Nichtsdestotrotz habe ich etwas Zeit benötigt, um mich an das neue Grafiktablett zu gewöhnen. Das ist ganz normal, ähnlich wie beim Wechsel auf neue Federn oder Pinsel. Nach der Eingewöhnung und der individuellen Anpassung der Hard- und Software lief die Arbeit zunehmend flüssiger. Artist Pro 22 (Gen 2) – HELLMUT Comic Folge 25 – Übung macht den MeisterJérémie Kaiser Was mir noch Positives auffällt: das Tablet hinterlässt für mich keine sichtbaren Fingerabdrücke. Das Glas ist mit einer AF-Beschichtung behandelt, was Fingerabdrücke minimiert und es leicht zu reinigen macht. Das Grafikdisplay: Hält was es verspricht Das Grafikdisplay ist wirklich groß! Mit einer Auflösung von 2560 x 1440 (2,5K QHD) – das sind 137 PPI (Pixel Per Inch) – und 16,7 Millionen Farben, macht es wirklich Spaß, damit zu arbeiten. Man kann zwischen drei Farbräumen (sRGB, Adobe RGB und Display P3) wechseln, um die Farbdarstellung auf dem Display zu beeinflussen und sie auf dem jeweiligen Gerät so naturgetreu wie nur möglich darstellen zu können. Die Helligkeit kann man natürlich auch einstellen. Artist Pro 22 (Gen 2) – HELLMUT Comic Folge 25 – Die Farben sind kräftigJérémie Kaiser Artist Pro 22 (Gen 2) – HELLMUT Comic Folge 25 – Die Farben sind kräftigJérémie Kaiser Die Darstellung ist auf dem 21,5-Zoll-Display (ca. 55 cm) scharf, und der Stift reagiert ohne spürbare Verzögerung: ideal für präzises Arbeiten. Zumindest ist dies meine Einschätzung zum ersten großen Grafiktablett, das ich nutze. Ein Vergleich mit ähnlichen Grafiktabletts, wie dem Wacom Cintiq 22 (ca. 1.050 Euro) oder dem Wacom Cintiq Pro 22 (ca. 3.300 Euro), die beide ohne Standfuß und Mini-Keyboard verkauft werden, ist mir daher aktuell nicht möglich. Probleme bei der Neigungserkennung des Stifts hatte ich keine. Und dank des einstellbaren Standfußes kann ich das Tablet auf meinem kleinen Tisch fast vertikal an die Wand stellen. Es sieht dann aus wie ein zusätzlicher Monitor. Das hilft ungemein und ist platzsparend! Mit einem Gewicht von 5,55 kg inklusive Ständer ist das Tablet zwar kein Leichtgewicht, lässt sich aber dennoch gut auf einem Schreibtisch positionieren. Besonders positiv: die Software läuft im Testzeitraum von ein paar Tagen einwandfrei. Ich hatte keinerlei Probleme oder Abstürze. Auch das Wireless-Mini-Keyboard überzeugt: Der Akku hält lange, und der Akkustand wird direkt in der Software angezeigt. Selbst während mehrstündiger Arbeitssessions ging die Tastatur nicht aus (ich habe sie tatsächlich bisher noch nicht geladen), was den Arbeitsfluss erheblich erleichtert. Sollen Sie sich das XP-Pen Artist Pro 22 kaufen? Wer als Designer, Illustrator oder generell als Künstler im professionellen Gebiet anfängt macht mit diesem Grafiktablett nichts falsch. Ich würde sogar sagen, dass es ein Grafiktablett mit einer exzellenten Preisleistung ist. Zu einem Straßenpreis von unter 500 Euro bekommt man ein wirklich gutes und schnelles Grafiktablett mit einem einfachen, doch robusten Standfuß, sowie einem Wireless Mini-Keyboard, das für mich zum absoluten Highlight gehört. Fazit Das XP-Pen Artist Pro 22 (Gen 2) ist ein 22-Zoll-Grafikdisplay mit 2,5K QHD-Auflösung, 16K Druckstufen und Calman verifizierter Farbgenauigkeit. Es bietet eine präzise Darstellung und ein papierähnliches Zeichenerlebnis dank des AG Nano-Ätzglases, das Blendung und Fingerabdrücke reduziert. Der X3 Pro Stift mit über 16.000 Druckstufen und 60-Grad-Neigungserkennung sorgt für ein reaktionsschnelles Zeichnen und enthält einen digitalen Radierer. Mit 99% Adobe RGB und der Möglichkeit, zwischen sRGB, Adobe RGB und Display P3 umzuschalten, garantiert das Display eine gute Farbwiedergabe. DC-Dimmung schützt die Augen bei längerem Gebrauch. Das Gerät ist mit einer Mini-Tastatur für Keybindings und einem verstellbaren Ständer ausgestattet. Es eignet sich für Arbeiten wie Illustration, Grafikdesign, 3D-Modellierung und auch Videobearbeitung und ist mit Windows, Android, macOS, Linux, ChromeOS sowie allen gängigen Bildbearbeitungssoftware kompatibel. Nach mehrstündigem Testen kann ich das Grafiktablett guten Herzens für diejenigen empfehlen, die (noch) auf ihre Geldbörse achten müssen, denn zum Preis von 760 Euro bekommt man wirklich ein ordentliches Gerät, mit dem man professionelle Arbeiten abliefern kann. Wie das Grafiktablett im Langzeittest abschneidet, dazu kann ich aktuell nichts berichten. Das XP-Pen Artist Pro 22 (Gen 2) Grafiktablett können Sie hier auf der offiziellen Homepage für aktuell nur 759 Euro kaufen. Es ist für Windows, Mac, Android, ChromeOS und Linux erhältlich. Und hier noch die letzte HELLMUT-Folge Nummer 25. Viel Spaß! Artist Pro 22 (Gen 2) – HELLMUT Comic Folge 25 – Das Tablett macht SpaßJérémie Kaiser Technische Daten: XP-Pen Artist Pro 22 (Gen. 2) Name und Model:Artist Pro 22 (Gen 2)Model: MD220QH Größe und Gewicht:Abmessungen: 547,0 x 362,0 x 33,4 mmArbeitsbereich: 475,392 x 267,408 mmGewicht: 5,55 kg (inkl. Ständer) Display:Display: 21,5“, 2,5K QHD,16:9 SeitenverhältnisAuflösung: 2560 x 1440Farben: 16,7 MillionenFarbraumabdeckungsverhältnis (typisch): 99% sRGB, 99% Adobe RGB, 94% Display P3Vollständig laminiertKontrastverhältnis: 1000:1Helligkeit: 250 cd/m²Sichtwinkel: 178° Stift:Modell: X3 Pro Smart Chip StiftDruckstufen: 16384Neigung: ca. 60°Auflösung: 5080 LPIGenauigkeit: ca. 0,4 mm (Mitte)Lesehöhe: 10 mm Ständer:Verstellbar: 15° bis ca. 88° Anschlüsse, Leistung und Kompatibilität:Anschlüsse: USB-C, HDMI, KopfhörerEingangsleistung: AC 100-240VAusgangsleistung: 12V⎓3AVESA Kompatibilität:100mm x 100mmKompatibilität: Windows 7 (oder höher), macOS 10.13 (oder höher), Android 10.0 (oder neuer), ChromeOS 88 (oder höher), Linux (PC-Welt) > > >> 

XP-Pen Artist Pro 22 (Gen 2) im Test: 22-Zoll-Grafiktablet mit Mini-Tastatur​ Jérémie Kaiser

Auf einen Blick

Pro

Großes Grafiktablett mit gutem Bild

Programmierbare Mini-Tastatur

Angenehmes Zeichenerlebnis

Gute Reaktionszeit

Gutes Preis-Leistungs-Verhältnis

Kontra

Pentablet-Software könnte die Keybindings besser erklären und mehr doppelte Tastenbelegungen anbieten

Fazit

Das neue XP-Pen Artist Pro 22 (Gen 2) ist ein 22-Zoll-Grafikdisplay mit QHD-Auflösung, 16K-Druckstufen sowie Calman verifizierter Farbgenauigkeit und kommt mit einer Mini-Tastatur und einem verstellbaren Ständer. Das Tablet bietet eine präzise Darstellung und ein papierähnliches Zeichenerlebnis. Das AG-Nano-Ätzglases reduziert Blendung und Fingerabdrücke. Der X3 Pro Stift mit über 16.000 Druckstufen und 60-Grad-Neigungserkennung sorgt für ein reaktionsschnelles Zeichnen und enthält einen digitalen Radierer. Die Farbwiedergabe ist gut. Es eignet sich für Arbeiten wie Illustration, Grafikdesign, 3D-Modellierung und auch Videobearbeitung und ist mit Windows, Android, macOS, Linux, ChromeOS sowie allen gängigen Bildbearbeitungsprogrammen kompatibel. Mein Highlight ist die Mini-Tastatur mit der Option zur Tastenprogrammierung, die die Arbeit noch einmal deutlich erleichtert.Nach mehrstündigem Testen kann ich das Grafiktablett guten Herzens für diejenigen empfehlen, die (noch) auf ihre Geldbörse achten müssen, denn zum Preis von 759 Euro bekommt man wirklich ein ordentliches Gerät, mit dem man professionelle Arbeiten abliefern kann.

Ja, ich zeichne gerne. Heute aus zeitlichen Gründen nicht mehr so viel, wie früher, aber ich weiß, wie die franko-belgischen Comics traditionell gezeichnet werden und wie ein Comic komplett digital erstellt wird. Hier konnte ich mich mit meinem uralten Wacom-Bamboo-Tablet von 2009 in der digitalen Welt behaupten und Logo-Wettbewerbe gewinnen. Dass dieses Tablet bis heute überlebt hat – mit Tesafilm um den Stift, damit er zusammenhält – und mir von Zeit zu Zeit noch gute Dienste leistet, wundert mich zutiefst.

Warum ist das wichtig? Nun, ein Testbericht über ein Grafiktablett für Profis erfordert ein wenig Expertise im Umgang mit dem Stift. Ich darf mich also rühmen, in diesem Handwerk nicht ganz ahnungslos zu sein.

Seit der Markteinführung des Wacom Cintiq 22 wünsche ich mir ein Grafiktablett dieser Größe. Das ist wohl ein Traum vieler Künstler, Illustratoren und Designer, die sich digital verwirklichen wollen. Aber mehr als 1.000 Euro dafür auszugeben, ist eine ordentliche Investition und eher für Profis interessant.

Aber mit der brandneuen Version des Artist Pro 22 (Gen 2), dem Modell MD220QH der Firma XP-Pen gibt es möglicherweise eine preisgünstigere Alternative, die ich nun testen darf.

Ein Grafiktablett für Künstler

Mein erster Eindruck zum Artist Pro 22 (Gen 2) ist sehr positiv. Die Verpackung ist ansprechend gestaltet und die Hardware mit dem Zubehör liegt ordnungsgemäß und sicher verstaut.

Die Verpackung des Artist Pro 22 (Gen 2) ist ansprechend gestaltetJérémie Kaiser

Was beim Öffnen der Box sofort ins Auge fällt, ist das beigelegte Blatt mit der Calman-Zertifizierung. Ein “Calman Verified”-Gerät zeichnen sich durch hohe Farbgenauigkeit und professionelle Kalibrierung aus.

Das Artist Pro 22 (Gen 2) ist “Calman verified”Jérémie Kaiser

Wenn man besonders viel Wert auf Details legt, könnte man die Ästhetik des Innenraums weiter optimieren, damit die Komponenten nicht wirken, als wären sie einfach wahllos hineingestellt worden. Aber das ist meckern auf hohem Niveau. Es ist alles sicher verpackt und darauf kommt es an.

Jérémie Kaiser

Im Lieferumfang enthalten sind: Das Grafiktablett, eine kabellose Shortcut-Fernbedienung (eine Mini-Tastatur), der Stift (X3 Pro Smart Chip Stylus) mit zehn Standardspitzen und Filzspitzen und ein Handschuh. Des Weiteren gibt es einen Stifthalter zum Anbringen an das Grafikdisplay, ein Reinigungstuch, zwei Netzkabel, ein HDMI-Kabel, ein USB-C zu USB-C-Kabel und ein USB-A zu USB-C-Kabel.

Artist Pro 22 (Gen 2) Grafiktablett – Das TablettJérémie Kaiser

Artist Pro 22 (Gen 2) Grafiktablett – Der StänderJérémie Kaiser

Artist Pro 22 (Gen 2) Grafiktablett – Die Mini-TastaturJérémie Kaiser

Artist Pro 22 (Gen 2) – Der X3-Pro-StiftJérémie Kaiser

Beim Auspacken fällt sofort auf, dass sämtliche Komponenten – vom Display bis zur Mini-Tastatur – sich robust und hochwertig anfühlen. Das Display hat auf der Rückseite neben Strom noch folgende Anschlüsse: USB-C, HDMI und Kopfhörer.

Artist Pro 22 (Gen 2) – AnschlüsseJérémie Kaiser

Auf der Oberseite kann man die Stifthalterun anbringen und findet drei Knöpfe: „Power“, sowie „+“ und „-“, um die Helligkeit einzustellen.

Artist Pro 22 (Gen 2) – ButtonsJérémie Kaiser

So weit, so gut.

Einrichten des Grafiktablets

Das Anschließen und Einrichten ist unkompliziert, nimmt aber beim ersten Mal etwas Zeit in Anspruch.

Artist Pro 22 (Gen 2) – Das Grafiktablett in BetriebJérémie Kaiser

Man kann entweder ein HDMI-Kabel in Kombination mit einem der mitgelieferten USB-Kabel oder alternativ nur das USB-C-Kabel verwenden. Mit dem USB-C-Kabel erspart man sich ein zusätzliches Kabel beim Kabelmanagement.Man merkt sofort: dieses Grafiktablett benötigt viel Platz. Ideal, für Künstler die viel zeichnen und eine feste Arbeitsumgebung haben. Für mich, der nicht mehr professionell in diesem Bereich tätig ist, kann das ständige Auf- und Abbauen jedoch mühsam sein.

Wenn man das Tablett einschaltet, startet es sofort und spiegelt den Bildschirm des Computers.

Dann muss noch der Treiber installiert werden. Den gibt es auf der Homepage von XP-Pen unter „Support“ im Bereich „Treiber herunterladen“. Die Installation geht schnell und erfordert einen Neustart. XP-Pen stellt dort außerdem fünf kostenlos Zeichenprogramme zur Verfügung.

Der beiliegende Handschuh passt mir einwandfrei, er dürfte aber keinesfalls kleiner ausfallen. Zum Vergleich: Meine Hand ist ca. 19 cm groß.

Artist Pro 22 (Gen 2) – Der HandschuhJérémie Kaiser

Die XP-Pen-Pentablet-Software

Die Pentablet-Software bietet zwei separate Hauptmenüs: eines für die Mini-Tastatur (“Shortcut Remote”) und eines für das Tablet (“Artist Pro 22 (Gen 2)”).

Im ersten Hauptmenü für die Mini-Tastatur kann man im ersten Untermenü die Ausrichtung der Tastatur festlegen und die einzelnen Tasten individuell belegen. Dabei kann man bis zu vier Voreinstellungen speichern und während des Arbeitens flexibel zwischen ihnen wechseln. Was wirklich toll ist: im Lieferumfang enthalten sind auch Aufkleber mit Symbolen, die man auf die Tasten kleben kann.

Artist Pro 22 (Gen 2) – Pentablet-Software: Mini-Tastatur einstellenJérémie Kaiser

Im zweiten Untermenü lassen sich Einstellungen importieren oder exportieren, um sie später wiederzuverwenden.

Ich habe mich für die vertikale Anordnung entschieden, da sie besser in der Hand liegt und das Zoom-Rad leichter erreichbar ist.

Im zweiten Menü kann man sowohl das Display als auch den Stift individuell anpassen. Auch beim Stift kann man die Tastenbelegung anpassen und die Druckempfindlichkeit justieren.

Artist Pro 22 (Gen 2) – Pentablet-Software: Display kalibrierenJérémie Kaiser

Artist Pro 22 (Gen 2) – Pentablet-Software: X3-Pro-Stift einstellenJérémie Kaiser

Inbetriebnahme des XP-Pen Artist Pro 22

Zunächst muss man in der Pentablet-Software das Grafiktablett kalibrieren, damit die Stifteingaben präzise erfasst werden. Das geht unter “Artist Pro 22 (Gen 2)” > „Gerät“ > „Kalibrierung“.

Artist Pro 22 (Gen 2) – Der Stift muss kalibriert werdenJérémie Kaiser

Zur Kalibrierung muss man fünf rote Markierungen auf dem Display mit dem Stift antippen. Anschließend noch die Mini-Tastatur per Bluetooth, USB-Adapter oder per USB-Kabel verbinden und schon kann es losgehen. Das Grafiktablett ist mit allen gängigen Bildbearbeitungsprogrammen kompatibel. Ich nutze für diesen Test Adobe Photoshop 2025.

Das erste, das mir auffällt: Der Bildschirm unterstützt keine Touch-Eingaben. Ja, es wird auch nicht als Touch-Display beworben, aber für manche könnte das beim Arbeiten hinderlich sein. Ich zum Beispiel drehe beim Zeichnen oft meine Blätter, um präzisere Striche zu setzen; das würde ich auch gerne mit der Arbeitsfläche in Photoshop können. Aber ein kleiner Tipp: dafür lässt sich mit dem Mini-Keyboard die Drehfunktion in Photoshop als Taste abspeichern (R + Bild ziehen).

Die ersten Striche sind flüssig und vermitteln ein Papierähnliches Gefühl auf der Oberfläche: ein angenehmes Zeichen-Erlebnis. Der mitgelieferte Stift bietet mit 16.384 Druckstufen eine hohe Druckempfindlichkeit. Die mitgelieferten Filzspitzen verstärken dieses Gefühl, da sie das Zeichnen auf Papier simulieren. Zudem verfügt der Stift über zwei individuell programmierbare Schnellzugriffstasten sowie einen digitalen Radiergummi auf der Rückseite. Der Silikongriff ist ergonomisch und sorgt für guten Komfort. Ich hatte auch beim längeren Arbeiten keine Schmerzen in der Hand.

Artist Pro 22 (Gen 2) – HELLMUT Folge 25 – Erste StricheJérémie Kaiser

Nichtsdestotrotz habe ich etwas Zeit benötigt, um mich an das neue Grafiktablett zu gewöhnen. Das ist ganz normal, ähnlich wie beim Wechsel auf neue Federn oder Pinsel. Nach der Eingewöhnung und der individuellen Anpassung der Hard- und Software lief die Arbeit zunehmend flüssiger.

Artist Pro 22 (Gen 2) – HELLMUT Comic Folge 25 – Übung macht den MeisterJérémie Kaiser

Was mir noch Positives auffällt: das Tablet hinterlässt für mich keine sichtbaren Fingerabdrücke. Das Glas ist mit einer AF-Beschichtung behandelt, was Fingerabdrücke minimiert und es leicht zu reinigen macht.

Das Grafikdisplay: Hält was es verspricht

Das Grafikdisplay ist wirklich groß! Mit einer Auflösung von 2560 x 1440 (2,5K QHD) – das sind 137 PPI (Pixel Per Inch) – und 16,7 Millionen Farben, macht es wirklich Spaß, damit zu arbeiten.

Man kann zwischen drei Farbräumen (sRGB, Adobe RGB und Display P3) wechseln, um die Farbdarstellung auf dem Display zu beeinflussen und sie auf dem jeweiligen Gerät so naturgetreu wie nur möglich darstellen zu können. Die Helligkeit kann man natürlich auch einstellen.

Artist Pro 22 (Gen 2) – HELLMUT Comic Folge 25 – Die Farben sind kräftigJérémie Kaiser

Artist Pro 22 (Gen 2) – HELLMUT Comic Folge 25 – Die Farben sind kräftigJérémie Kaiser

Die Darstellung ist auf dem 21,5-Zoll-Display (ca. 55 cm) scharf, und der Stift reagiert ohne spürbare Verzögerung: ideal für präzises Arbeiten. Zumindest ist dies meine Einschätzung zum ersten großen Grafiktablett, das ich nutze. Ein Vergleich mit ähnlichen Grafiktabletts, wie dem Wacom Cintiq 22 (ca. 1.050 Euro) oder dem Wacom Cintiq Pro 22 (ca. 3.300 Euro), die beide ohne Standfuß und Mini-Keyboard verkauft werden, ist mir daher aktuell nicht möglich.

Probleme bei der Neigungserkennung des Stifts hatte ich keine. Und dank des einstellbaren Standfußes kann ich das Tablet auf meinem kleinen Tisch fast vertikal an die Wand stellen. Es sieht dann aus wie ein zusätzlicher Monitor. Das hilft ungemein und ist platzsparend!

Mit einem Gewicht von 5,55 kg inklusive Ständer ist das Tablet zwar kein Leichtgewicht, lässt sich aber dennoch gut auf einem Schreibtisch positionieren. Besonders positiv: die Software läuft im Testzeitraum von ein paar Tagen einwandfrei. Ich hatte keinerlei Probleme oder Abstürze. Auch das Wireless-Mini-Keyboard überzeugt: Der Akku hält lange, und der Akkustand wird direkt in der Software angezeigt. Selbst während mehrstündiger Arbeitssessions ging die Tastatur nicht aus (ich habe sie tatsächlich bisher noch nicht geladen), was den Arbeitsfluss erheblich erleichtert.

Sollen Sie sich das XP-Pen Artist Pro 22 kaufen?

Wer als Designer, Illustrator oder generell als Künstler im professionellen Gebiet anfängt macht mit diesem Grafiktablett nichts falsch. Ich würde sogar sagen, dass es ein Grafiktablett mit einer exzellenten Preisleistung ist. Zu einem Straßenpreis von unter 500 Euro bekommt man ein wirklich gutes und schnelles Grafiktablett mit einem einfachen, doch robusten Standfuß, sowie einem Wireless Mini-Keyboard, das für mich zum absoluten Highlight gehört.

Fazit

Das XP-Pen Artist Pro 22 (Gen 2) ist ein 22-Zoll-Grafikdisplay mit 2,5K QHD-Auflösung, 16K Druckstufen und Calman verifizierter Farbgenauigkeit. Es bietet eine präzise Darstellung und ein papierähnliches Zeichenerlebnis dank des AG Nano-Ätzglases, das Blendung und Fingerabdrücke reduziert. Der X3 Pro Stift mit über 16.000 Druckstufen und 60-Grad-Neigungserkennung sorgt für ein reaktionsschnelles Zeichnen und enthält einen digitalen Radierer. Mit 99% Adobe RGB und der Möglichkeit, zwischen sRGB, Adobe RGB und Display P3 umzuschalten, garantiert das Display eine gute Farbwiedergabe. DC-Dimmung schützt die Augen bei längerem Gebrauch.

Das Gerät ist mit einer Mini-Tastatur für Keybindings und einem verstellbaren Ständer ausgestattet. Es eignet sich für Arbeiten wie Illustration, Grafikdesign, 3D-Modellierung und auch Videobearbeitung und ist mit Windows, Android, macOS, Linux, ChromeOS sowie allen gängigen Bildbearbeitungssoftware kompatibel.

Nach mehrstündigem Testen kann ich das Grafiktablett guten Herzens für diejenigen empfehlen, die (noch) auf ihre Geldbörse achten müssen, denn zum Preis von 760 Euro bekommt man wirklich ein ordentliches Gerät, mit dem man professionelle Arbeiten abliefern kann. Wie das Grafiktablett im Langzeittest abschneidet, dazu kann ich aktuell nichts berichten.

Das XP-Pen Artist Pro 22 (Gen 2) Grafiktablett können Sie hier auf der offiziellen Homepage für aktuell nur 759 Euro kaufen. Es ist für Windows, Mac, Android, ChromeOS und Linux erhältlich.

Und hier noch die letzte HELLMUT-Folge Nummer 25. Viel Spaß!

Artist Pro 22 (Gen 2) – HELLMUT Comic Folge 25 – Das Tablett macht SpaßJérémie Kaiser

Technische Daten: XP-Pen Artist Pro 22 (Gen. 2)

Name und Model:Artist Pro 22 (Gen 2)Model: MD220QH

Größe und Gewicht:Abmessungen: 547,0 x 362,0 x 33,4 mmArbeitsbereich: 475,392 x 267,408 mmGewicht: 5,55 kg (inkl. Ständer)

Display:Display: 21,5“, 2,5K QHD,16:9 SeitenverhältnisAuflösung: 2560 x 1440Farben: 16,7 MillionenFarbraumabdeckungsverhältnis (typisch): 99% sRGB, 99% Adobe RGB, 94% Display P3Vollständig laminiertKontrastverhältnis: 1000:1Helligkeit: 250 cd/m²Sichtwinkel: 178°

Stift:Modell: X3 Pro Smart Chip StiftDruckstufen: 16384Neigung: ca. 60°Auflösung: 5080 LPIGenauigkeit: ca. 0,4 mm (Mitte)Lesehöhe: 10 mm

Ständer:Verstellbar: 15° bis ca. 88°

Anschlüsse, Leistung und Kompatibilität:Anschlüsse: USB-C, HDMI, KopfhörerEingangsleistung: AC 100-240VAusgangsleistung: 12V⎓3AVESA Kompatibilität:100mm x 100mmKompatibilität: Windows 7 (oder höher), macOS 10.13 (oder höher), Android 10.0 (oder neuer), ChromeOS 88 (oder höher), Linux

(PC-Welt)

>

>

>>

XP-Pen Artist Pro 22 (Gen 2) im Test: 22-Zoll-Grafiktablet mit Mini-Tastatur​ Weiterlesen »

Samsung Galaxy Tab S10+ im Test: Hervorragender Allrounder mit KI-Funktionen​

Allgemein

Foundry | Alex Walker-Todd Auf einen Blick Pro Atemberaubender entspiegelter Bildschirm Hervorragende Lautsprecher Schnelle Leistung Kontra Überteuert Kein Ladegerät enthalten S Pen fühlt sich billig an Fazit Das Galaxy Tab S10+ ist ein weiterer hervorragender Allrounder von Samsung, der mit großartiger Hardware und den neuen Galaxy AI-Funktionen aufwartet. Ein hoher Einstiegspreis und eine starke Konkurrenz machen die Empfehlung für dieses Galaxy Tab allerdings etwas schwieriger. Samsung hat für seine Galaxy Tab S-Serie 2024 auf ein Line-up mit zwei Tablet-Modellen umgestellt. In dieser Generation gibt es kein kompaktes Tab S10. Es bleiben also das Samsung Galaxy Tab S10 Ultra und das Samsung Galaxy Tab S10+. Letzteres ist meiner Meinung nach der klügere Kauf. Beide Tab S10-Modelle verfügen über ähnliche Upgrades, allen voran der Wechsel zu einem Top-Chip von MediaTek, der den langjährigen Qualcomm-Snapdragon-Chip ersetzt. Beide haben neue, entspiegelte Displays und sind die ersten Samsung-Tablets mit Galaxy AI ab Werk. In meinem ausführlichen Test möchte ich herausfinden, ob das Galaxy Tab S10+ seinen stolzen Preis von 999 Euro wert ist und ob das Samsung-Gerät mit der Konkurrenz von Honor, OnePlus und Apple mithalten kann. Design & Zubehör Moonstone Gray und Platinum Silver als Farbvarianten 5,6 Millimeter dick, ab 571 Gramm Inklusive S-Pen und optionaler Tastaturabdeckung Wie sein größeres Geschwistermodell ist auch das Tab S10 nahezu identisch mit seinem Vorgänger, dem Samsung Galaxy Tab S9. Es ist lediglich 0,1 Millimeter dünner und 10 Gramm leichter. Die einzigen optischen Merkmale, die die beiden Geräte voneinander unterscheiden, sind ein neuer, heller Akzent um die beiden rückwärtigen Kameras (genau wie beim Galaxy Z Flip 6) und zwei neue Farbvarianten (hier in Platinum Silver). Foundry | Alex Walker-Todd Im Hinblick auf die Mobilität ist das größere Tab S10 Ultra sehr unhandlich. Durch die Verkleinerung des Displays von 14,6 auf 12,4 Zoll (und die Gewichtsreduzierung) ist das Tab S10+ wesentlich portabler. Es ist leicht und lässt sich gut mit einer Hand bedienen. Ästhetisch hätte ich mir gewünscht, dass Samsung die Antennenlinien, die die Rückseite des Tablets unterbrechen, besser versteckt hätte. Aus praktischer Sicht hat mir die Platzierung des S Pen Stylus auf der Rückseite der Tab S-Serie nie gefallen, auch wenn ich die Integration des Stifts sehr begrüße. Einerseits ist es praktisch, den S Pen von beiden Seiten aufladen zu können, andererseits ist der Ladebereich selbst etwas unschön. Man kann den S Pen auch an der Oberkante des Tabs verstauen, um ihn besser erreichen zu können. In dieser Position kann er aber nicht aufgeladen werden. Ich vermute, dass die Kante einfach zu schmal ist, um das Aufladen wie beim Apple Pencil an der Seite zu ermöglichen. Foundry | Alex Walker-Todd Das Armor Aluminium, aus dem das Gehäuse des Tab S10 besteht, soll laut Samsung 10 Prozent robuster sein (im Vergleich zur Tab S9-Reihe). Eine IP68-Zertifizierung zum Schutz gegen Staub und Wasser bietet das Tablet ebenfalls. In der Praxis habe ich noch keine kosmetischen Schäden am Metallgehäuse (oder am Display) feststellen können, obwohl ich das Tablet wochenlang ohne Schutzhülle benutzt habe. Apropos Schutzhüllen: Während Sie auch Hüllen von Drittanbietern verwenden können, fügen die neuen Tastaturhüllen von Samsung eine spezielle KI-Taste hinzu, mit der Sie sofortigen Zugriff auf die neuen Funktionen des Tablets haben. Das “Book Cover Keyboard” mit Trackpad kostet zusätzlich 160 Euro zu dem ohnehin schon teuren Tablet. Mit diesem Zubehör kann das Tab S10+ aber selbst mit den besten Laptops mithalten. Bildschirm & Lautsprecher 12,4-Zoll, 1.752 x 2.800 Pixel, 120 Hertz, AMOLED-Display Neue Antireflexionsbeschichtung Vier Stereo-Lautsprecher Obwohl die Auflösung im Vergleich zum Tab S10 Ultra geringer ist, steht sie nicht im Verhältnis zum Größenunterschied. Sie erhalten mit dem kleineren Tab S10+ also ein schärferes Seherlebnis. 12,4 Zoll sind vielleicht nicht so portabel wie das kleinere Display des Galaxy Tab S9 mit 11 Zoll. Es ist jedoch funktionaler für Produktivität, Medien sowie Spiele und bietet immer noch genug Platz für die meisten Inhalte. Foundry | Alex Walker-Todd Das 16:10-Seitenverhältnis, das Samsung seit einigen Jahren verwendet, eignet sich zweifellos besser für die beiden letztgenannten Aktivitäten. Das leuchtende OLED-Panel liefert auch gestochen scharfen Text und ist damit ideal für das Verfassen von E-Mails oder die Erledigung anderer Office-Aufgaben. Mein Lieblings-Upgrade ist die neue Antireflexionsbeschichtung für das Display, die erstmals beim Galaxy S24 Ultra zum Einsatz kam. Sie ist vielleicht sogar noch wichtiger für die Lesbarkeit des S10+. Dessen Spitzenhelligkeit bleibt nämlich deutlich hinter der beeindruckenden 930-Nits-Obergrenze des Tab S10 Ultra zurück. Allerdings übertrifft es mit 650 Nits das aktuelle iPad Air 2024 (13 Zoll), wenn auch nur um Haaresbreite. Foundry | Alex Walker-Todd Diese neue Beschichtung hilft, hartes Licht zu streuen und ist weniger anfällig für Fingerabdrücke als ein glänzendes Display. Die Ränder um das Display des S10+ sind zwar gleichmäßig, aber nicht so dünn wie beim Ultra. Die Kehrseite der Medaille ist, dass Sie das S10+ im Vergleich dazu besser in der Hand halten können, was seine Rolle als das tragbarere Modell der Reihe unterstreicht. Foundry | Alex Walker-Todd Abgesehen von der exzellenten HDR-Wiedergabe setzt Samsung mit dem Tab S10+ auch seine Serie großartiger Tablet-Audiosysteme fort. Die Vierfach-Lautsprecher, von denen jeder über ein eigenes Gitter an beiden Seiten verfügt, bieten eine starke Stereotrennung, eine angenehm breite Klangbühne und minimale Verzerrungen, selbst bei höheren Lautstärken. Es ist ein hervorragendes System, das sogar das OnePlus Pad 2 übertrifft. Spezifikationen & Leistung MediaTek Dimensity 9300 Chipsatz 12 GB RAM 256 GB / 512 GB Speicher (per microSD erweiterbar) Mir gefällt der neue Dimensity 9300-Chipsatz, der in der Tab S10-Serie zum Einsatz kommt. Frühere Galaxy S-Flaggschiffe wurden in einigen Regionen mit Samsungs eigenem Exynos-Prozessoren auf den Markt gebracht, während in anderen Regionen die leistungsfähigeren Snapdragon-SoCs von Qualcomm zum Einsatz kamen. Das zog den Zorn der Fans in den Exynos-First-Märkten auf sich, die das Gefühl hatten, dass ihnen eine minderwertige Version desselben Produkts verkauft wurde. Foundry | Alex Walker-Todd Im Fall der Tab S10-Serie sind die Umstände etwas anders, da beide Tablets weltweit mit dem Dimensity 9300 von MediaTek laufen. Snapdragon-Chips sind bereits seit dem Tab S 2.0 aus dem Jahr 2015 in der Galaxy Tab S-Serie zu finden. MediaTek wurde lange Zeit als Chip-Hersteller angesehen, der im Vergleich zum Siliziumriesen Qualcomm schwächere Angebote liefert. Das mag zwar damals treffend gewesen sein, aber die Hardware von MediaTek hat sich in den letzten Jahren dramatisch verbessert, mit konkurrenzfähigerem Silizium, das näher an oder gleichauf mit den entsprechenden Snapdragon-Chips ist. Im Falle des im 4-Nanometer-Verfahren gefertigten Dimensity 9300 in der Tab S10-Serie ist genau das der Fall. Samsung Galaxy Tab S10 Benchmarks Trotz des geringeren Arbeitsspeichers im Vergleich zum Ultra-Modell (12 Gigabyte statt 16 Gigabyte) übertrifft das S10+ in Benchmarking-Tests sowohl bei der CPU- als auch bei der Grafikleistung seinen großen Bruder und andere namhafte Konkurrenten wie das Snapdragon 8 Gen 3-betriebene Pad 2 von OnePlus. Nachdem ich vor Kurzem bereits den gleichen Chip im Smartphone 14T Pro von Xiaomi getestet hatte, galt meine größte Sorge nicht der Leistung, sondern dem Wärmemanagement. Glücklicherweise scheint Samsung auch daran gedacht zu haben und nutzt die geräumige Form des S10+, um sicherzustellen, dass selbst ausgedehnte Spiele-Sessions nicht zu einer Beeinträchtigung führen. Foundry | Alex Walker-Todd Samsung gibt an, dass der 9300 im Vergleich zum Qualcomm Snapdragon 8 Gen 2, der die Tab S9-Serie antreibt, eine um 18 Prozent bessere CPU-Leistung, eine um 28 Prozent bessere Grafikleistung und eine um 14 Prozent bessere NPU-Leistung (der Chipsatz, der sich auf KI-Aufgaben konzentriert) bietet. Vergleichen Sie das mit dem Snapdragon 8 Gen 3, der (im Vergleich zum Snapdragon 8 Gen 2) angeblich eine 20-prozentige Verbesserung der CPU-Leistung, eine 25-prozentige Steigerung der GPU-Leistung und eine 40-prozentige Steigerung der NPU-Effizienz verspricht. Je nachdem, worauf Sie bei einem Tablet am meisten Wert legen, scheint sich dieser Wechsel des Chips nicht negativ auf die Aufwärtskurve der Leistungsverbesserungen der Tab S-Serie ausgewirkt zu haben. Foundry | Alex Walker-Todd Es ist vielleicht seltsam, dass sich Samsung angesichts der Tatsache, dass die KI ein so wichtiger Aspekt der Tab S10-Serie ist, nicht für die im Vergleich zum 9300 deutlicheren NPU-Verbesserungen des 8 Gen 3 entschieden hat. In der Praxis gibt es jedoch wenig an der Leistung des Chips im Tab S10 zu bemängeln. Er ist für die kommenden Jahre gerüstet. Ein weiterer Pluspunkt ist die Möglichkeit der Speichererweiterung (über microSD). Eine Seltenheit im Jahr 2024. Sie können die 256 oder 512 Gigabyte internen Speicher also um bis zu 1,5 Terabyte erweitern. Kameras 13 MP f/2,0 Hauptkamera, 8 MP f/2,2 Ultraweitwinkel 12 MP 120 Grad Ultraweitwinkel Frontkamera Bis zu 4K Videoaufnahme auf der Vorder- und Rückseite Das Tab S10+ hat ein funktionales Kamera-Trio. Wie bereits angedeutet, beherbergt der obere Rahmen des Plus im Gegensatz zu den zwei Sensoren auf der Vorderseite des Ultra nur eine Kamera. Die schmalere 12-Megapixel-Weitwinkellinse wurde weggelassen, die 12-Megapixel-Ultraweitwinkelkamera jedoch beibehalten. Foundry | Alex Walker-Todd Sie ist ohnehin der nützlichere der beiden Sensoren, da die Frontkamera auf dem Tablet vor allem für Videotelefonate und Ähnliches verwendet wird. Durch die Beibehaltung des 120-Grad-Ultrawide-Sensors haben Sie mehr Platz, um mehrere Personen in den Bildausschnitt einzupassen. Wenn Sie diesen Platz nicht benötigen, stellt die Benutzeroberfläche auf eine zugeschnittene Perspektive um. Bei der Aufnahme von Videos über die Frontkamera gibt es außerdem eine praktische automatische Bildausschnittfunktion (ähnlich wie Center Stage auf dem iPad), die automatisch den Bildausschnitt vergrößert und verkleinert, um Ihr Gesicht so zentriert wie möglich zu halten. Auf der Rückseite finden Sie Duo-Cam aus 13 Megapixel und 8 Megapixel Weitwinkel- und Ultraweitwinkelkameras, die auch beim Tab S10 Ultra verbaut wurden. Sie leisten zwar gute Arbeit, können mit Smartphone-Kameras jedoch nicht mithalten. Die Nachbearbeitung gibt sich zwar Mühe, kann aber den geringen Dynamikbereich des Tablet-Sensors und die unzureichende Leistung bei schlechten Lichtverhältnissen nicht kaschieren. Trotz der mäßigen Sensoren bietet Samsung immerhin Videoaufnahmen mit einer Auflösung von bis zu 4K (wenn auch nur mit 30 Bildern pro Sekunde). Manuelle Steuerung, Foto- und Videoaufnahmen im Hochformat, Bild-zu-Text- und Bildverarbeitungsfunktionen (mit Bixby Vision) und einige andere Modi lassen ebenfalls ein gewisses Maß an Kreativität zu. Akkulaufzeit & Aufladen 10.090-mAh-Akku 45 Watt Schnellladung Kein Ladegerät in der Verpackung Tablets werden in der Regel sporadischer und vielfältiger genutzt als Smartphones, was die Bestimmung der Akkulaufzeit schwieriger macht. Bei gleicher Displaygröße und -auflösung sowie gleicher Akkukapazität wie beim Vorgängermodell liegt es an dem neuen Chipsatz und den Optimierungen in Samsungs One UI-Benutzeroberfläche, eine längere Lebensdauer pro Ladung zu erreichen. Die Energieverwaltung von One UI braucht mindestens ein paar Wochen, um Muster zu lernen und ein entsprechendes Energieprofil zu erstellen. So hat sich die Lebensdauer während der Nutzung verbessert und liegt nun bei etwa 7,5 Stunden Bildschirmzeit pro Ladung. Um das Ganze etwas quantifizierbarer zu machen, hat eine Stunde Netflix bei 50 Prozent Helligkeit dem 10.090-Milliamperestunden-Akku des Tab S10 8 Prozent der Ladung entzogen, während der PCMark Battery 3.0 Benchmark Test (mit einem auf 200 Nits Helligkeit kalibrierten Display) 6 Stunden und 42 Minuten erreichte. Foundry | Alex Walker-Todd Samsung legt dem Tablet leider kein Netzteil bei. Wenn Sie ein entsprechendes Ladegerät besitzen oder bereit sind, eines anzuschaffen, dann können Sie den Akku mit bis zu 45 Watt aufladen. Im Test erreichte der Akku in etwas mehr als einer Stunde 50 Prozent und nach 2 Stunden und 10 Minuten 100 Prozent. Zum Vergleich: Das größere Tab S10 Ultra (mit einem 11.200-Milliamperestunden-Akku) zeigte eine geringfügig bessere Laufzeit mit etwa 7 bis 8 Stunden Bildschirmzeit pro Ladung und beeindruckenden 8 Stunden 28 im gleichen Battery 3.0 Benchmark. Konkurrierende Tablets, wie das OnePlus Pad 2, halten noch ein ganzes Stück länger durch und lassen sich auch schneller aufladen. Samsung hat hier also eindeutig Verbesserungspotenzial. Software & Apps One UI 6.1 mit Android 14 Erstes Tablet mit Galaxy AI 7 Jahre Betriebssystem- und Sicherheitsupdates Wenn Sie in den letzten Jahren ein Samsung-Smartphone oder -Tablet verwendet haben, sollte Ihnen die Android-basierte Oberfläche One UI sofort vertraut vorkommen. Sie unterscheidet sich in Aussehen und Bedienung deutlich von Standard-Android, ist aber sauber, konsistent und macht die Navigation und Interaktion ziemlich mühelos, wenn Sie sich erst einmal mit allem vertraut gemacht haben. Samsung hat Android viel länger und effektiver an den Tablet-Formfaktor angepasst als Google, und das hat viele der Geräte inspiriert, die seitdem in direkter Konkurrenz aufgetaucht sind. Foundry | Alex Walker-Todd Der Einfluss des Unternehmens hat auch zu einigen wichtigen Partnerschaften geführt. Ausgewählte Apps, die früher nur für das iPad verfügbar waren, haben ihren Weg auf die Galaxy Tabs des Unternehmens gefunden, bevor sie für alle Android-Geräte verfügbar waren. Samsung hat zwar keine Neuzugänge zum Start der Tab S10-Serie erwähnt, aber frühere Einträge wie Clip Studio, Goodnotes und LumaFusion sind sofort verfügbar. Die Möglichkeit, App-Paare (oder -Trios) zu speichern, ist großartig, um schnell wieder in nützliche Multitasking-Konfigurationen einzusteigen. Samsung DeX ist ebenfalls an Bord. Sie können zwischen einer klassischen und einer überarbeiteten Variante des desktopähnlichen Benutzererlebnisses wählen. In beiden Fällen werden Apps automatisch im Fenstermodus und nicht im Vollbildmodus geöffnet, was Sie wahrscheinlich von Windows und macOS kennen. Noch besser: Im Gegensatz zur Beschränkung auf drei Apps im geteilten Bildschirm können mit DeX bis zu 15 Apps im Fenstermodus gleichzeitig genutzt werden. Das Tab S10+ war dieser Herausforderung im Test mehr als gewachsen, ohne erkennbare Ruckler oder Leistungseinbußen. Die wirkliche Verbesserung der One UI-Erfahrung ist Galaxy AI. Die KI-Tools wurden bereits auf den Galaxy S24-Smartphones eingeführt. Während Konkurrenten wie Apple, Google, Oppo, OnePlus, Xiaomi und Asus ähnliche KI-basierte Funktionen vorgestellt haben, scheint Samsung derzeit zu den fortschrittlichsten Unternehmen in diesem Bereich zu gehören. Das bedeutet, dass Geräte wie das Tab S10+ wahrscheinlich von einer raschen Verbesserung und Erweiterung profitieren werden, da das Unternehmen versucht, schnell eine führende Position einzunehmen. Foundry | Alex Walker-Todd Features wie Chat Assist und Note Assist dienen dazu, Ihre Originaltexte zu bereinigen oder sogar prägnanter oder in einem anderen Ton zu schreiben. Mit Photo Assist können Sie Bilder bearbeiten, um unerwünschte Elemente zu entfernen oder völlig neue zu erstellen – basierend auf einer Skizze. In den meisten Fällen dauert die Verarbeitung nur Sekunden, und die Ergebnisse sind überraschend gut. Damit gehört das Tab S10+ zu den besseren KI-Geräten, die derzeit verfügbar sind. Nicht jeder wird sich mit den generativen KI-Tools anfreunden können, aber es lässt sich nicht leugnen, dass ihr Einsatz Zeit spart und allen Nutzern die Möglichkeit gibt, Inhalte zu erstellen. Ein weiterer wichtiger Aspekt der Tab S10-Reihe ist das Software-Versprechen. Samsung gewährt sowohl dem Tab S10+ als auch dem S10 Ultra dieselbe Verpflichtung zu 7 Jahren Updates wie seiner Galaxy S24-Serie und übertrumpft damit die vorherige Tab S9-Reihe, deren Grenze bei (immer noch respektablen) 5 Jahren liegt. Preis & Verfügbarkeit In Deutschland ist das Tab S10+ direkt im Online-Shop von Samsung erhältlich. Die Speicher-Variante mit 256 Gigabyte kostet 999 Euro, 512 Gigabyte schlagen mit 1.099 Euro zu Buche. Günstiger geht es bei Amazon. Hier zahlen Sie für die 256-Gigabyte-Version 899,99 Euro und für 512 Gigabyte 959,99 Euro. Das Book Cover Keyboard kostet 159 Euro. Mit 5G-Support kostet das Tablet ab 1.129 Euro. Mit einem Startpreis von 999 Euro ist das Tab S10 derzeit eines der teuersten Android-Tablets auf dem Markt und damit rund 50 Euro teurer als sein begehrtester Konkurrent, das 13-Zoll iPad Air 2024. Neben dem OLED-Display und dem mitgelieferten Eingabestift ist ein großer Vorteil des Samsung-Tablets gegenüber dem Apple-Tablet der erweiterbare Speicherplatz. Auch die lange Software-Unterstützung ist ein Kaufgrund. Sollten Sie das Samsung Galaxy Tab S10+ kaufen? Samsung ist nach wie vor für einige der überzeugendsten Android-Tablets auf dem Markt verantwortlich. Im Fall des Tab S10+ sind es neben dem allgegenwärtigen S Pen und Samsungs Vorliebe für leistungsstarkes Silizium und atemberaubende OLED-Displays Ergänzungen wie Galaxy AI, die dafür sorgen, dass das Gerät auch heute noch relevant ist. Die beeindruckende 7-jährige Update-Unterstützung macht es auch langfristig zu einem guten Kauf. Der Wermutstropfen ist, dass die Android-Konkurrenz inzwischen deutlich leistungsfähigere Konkurrenten hervorbringt als früher. Für diejenigen, die keinen Eingabestift benötigen oder nicht vorhaben, ihr Tablet sieben Jahre lang zu behalten, gibt es mehrere günstigere Alternativen, die dem Tab S10 in dem einen oder anderen Bereich ebenbürtig oder sogar überlegen sind – und das für weniger Geld. Wenn Sie sich zwischen den beiden Angeboten der Galaxy Tab S10-Serie entscheiden müssen, ist das S10+ die bessere Wahl, denn es erfüllt alle Anforderungen, die ein gutes Tablet erfüllen sollte, einschließlich der Portabilität, die das Tab S10 Ultra nicht bieten kann. Und wenn Sie einen nahezu identischen Funktionsumfang für weniger Geld haben möchten, bietet die Tab S9-Serie von 2023 etwas weniger Leistung und eine kürzere Update-Unterstützung, aber ansonsten das gleiche Samsung-Tablet-Erlebnis und profitiert dabei von Preissenkungen im Laufe eines Jahres (es gibt auch das kleinere Tab S9). Technische Daten MediaTek Dimensity 9300 12 GB RAM 256 GB / 512 GB (per microSD erweiterbar) 12,4-Zoll-AMOLED-Display 1.752 x 2.800 Pixel, 650 Nits Spitzenhelligkeit 120 Hertz dynamische Bildwiederholrate 10.090-mAh-Akku 45 W Schnellladung (kein Ladegerät enthalten) 12 MPl Kamera auf der Vorderseite Rückwärtige 13 MP Hauptkamera, 8 MP Ultrawide Vierfache Stereo-Lautsprecher 285,4 x 185,4 x 5,6 Millimeter 571 Gramm (nur Tablet) (PC-Welt) 

Samsung Galaxy Tab S10+ im Test: Hervorragender Allrounder mit KI-Funktionen​ Foundry | Alex Walker-Todd

Auf einen Blick

Pro

Atemberaubender entspiegelter Bildschirm

Hervorragende Lautsprecher

Schnelle Leistung

Kontra

Überteuert

Kein Ladegerät enthalten

S Pen fühlt sich billig an

Fazit

Das Galaxy Tab S10+ ist ein weiterer hervorragender Allrounder von Samsung, der mit großartiger Hardware und den neuen Galaxy AI-Funktionen aufwartet. Ein hoher Einstiegspreis und eine starke Konkurrenz machen die Empfehlung für dieses Galaxy Tab allerdings etwas schwieriger.

Samsung hat für seine Galaxy Tab S-Serie 2024 auf ein Line-up mit zwei Tablet-Modellen umgestellt. In dieser Generation gibt es kein kompaktes Tab S10. Es bleiben also das Samsung Galaxy Tab S10 Ultra und das Samsung Galaxy Tab S10+. Letzteres ist meiner Meinung nach der klügere Kauf.

Beide Tab S10-Modelle verfügen über ähnliche Upgrades, allen voran der Wechsel zu einem Top-Chip von MediaTek, der den langjährigen Qualcomm-Snapdragon-Chip ersetzt. Beide haben neue, entspiegelte Displays und sind die ersten Samsung-Tablets mit Galaxy AI ab Werk.

In meinem ausführlichen Test möchte ich herausfinden, ob das Galaxy Tab S10+ seinen stolzen Preis von 999 Euro wert ist und ob das Samsung-Gerät mit der Konkurrenz von Honor, OnePlus und Apple mithalten kann.

Design & Zubehör

Moonstone Gray und Platinum Silver als Farbvarianten

5,6 Millimeter dick, ab 571 Gramm

Inklusive S-Pen und optionaler Tastaturabdeckung

Wie sein größeres Geschwistermodell ist auch das Tab S10 nahezu identisch mit seinem Vorgänger, dem Samsung Galaxy Tab S9. Es ist lediglich 0,1 Millimeter dünner und 10 Gramm leichter.

Die einzigen optischen Merkmale, die die beiden Geräte voneinander unterscheiden, sind ein neuer, heller Akzent um die beiden rückwärtigen Kameras (genau wie beim Galaxy Z Flip 6) und zwei neue Farbvarianten (hier in Platinum Silver).

Foundry | Alex Walker-Todd

Im Hinblick auf die Mobilität ist das größere Tab S10 Ultra sehr unhandlich. Durch die Verkleinerung des Displays von 14,6 auf 12,4 Zoll (und die Gewichtsreduzierung) ist das Tab S10+ wesentlich portabler. Es ist leicht und lässt sich gut mit einer Hand bedienen.

Ästhetisch hätte ich mir gewünscht, dass Samsung die Antennenlinien, die die Rückseite des Tablets unterbrechen, besser versteckt hätte. Aus praktischer Sicht hat mir die Platzierung des S Pen Stylus auf der Rückseite der Tab S-Serie nie gefallen, auch wenn ich die Integration des Stifts sehr begrüße.

Einerseits ist es praktisch, den S Pen von beiden Seiten aufladen zu können, andererseits ist der Ladebereich selbst etwas unschön. Man kann den S Pen auch an der Oberkante des Tabs verstauen, um ihn besser erreichen zu können. In dieser Position kann er aber nicht aufgeladen werden. Ich vermute, dass die Kante einfach zu schmal ist, um das Aufladen wie beim Apple Pencil an der Seite zu ermöglichen.

Foundry | Alex Walker-Todd

Das Armor Aluminium, aus dem das Gehäuse des Tab S10 besteht, soll laut Samsung 10 Prozent robuster sein (im Vergleich zur Tab S9-Reihe). Eine IP68-Zertifizierung zum Schutz gegen Staub und Wasser bietet das Tablet ebenfalls. In der Praxis habe ich noch keine kosmetischen Schäden am Metallgehäuse (oder am Display) feststellen können, obwohl ich das Tablet wochenlang ohne Schutzhülle benutzt habe.

Apropos Schutzhüllen: Während Sie auch Hüllen von Drittanbietern verwenden können, fügen die neuen Tastaturhüllen von Samsung eine spezielle KI-Taste hinzu, mit der Sie sofortigen Zugriff auf die neuen Funktionen des Tablets haben. Das “Book Cover Keyboard” mit Trackpad kostet zusätzlich 160 Euro zu dem ohnehin schon teuren Tablet. Mit diesem Zubehör kann das Tab S10+ aber selbst mit den besten Laptops mithalten.

Bildschirm & Lautsprecher

12,4-Zoll, 1.752 x 2.800 Pixel, 120 Hertz, AMOLED-Display

Neue Antireflexionsbeschichtung

Vier Stereo-Lautsprecher

Obwohl die Auflösung im Vergleich zum Tab S10 Ultra geringer ist, steht sie nicht im Verhältnis zum Größenunterschied. Sie erhalten mit dem kleineren Tab S10+ also ein schärferes Seherlebnis. 12,4 Zoll sind vielleicht nicht so portabel wie das kleinere Display des Galaxy Tab S9 mit 11 Zoll. Es ist jedoch funktionaler für Produktivität, Medien sowie Spiele und bietet immer noch genug Platz für die meisten Inhalte.

Foundry | Alex Walker-Todd

Das 16:10-Seitenverhältnis, das Samsung seit einigen Jahren verwendet, eignet sich zweifellos besser für die beiden letztgenannten Aktivitäten. Das leuchtende OLED-Panel liefert auch gestochen scharfen Text und ist damit ideal für das Verfassen von E-Mails oder die Erledigung anderer Office-Aufgaben.

Mein Lieblings-Upgrade ist die neue Antireflexionsbeschichtung für das Display, die erstmals beim Galaxy S24 Ultra zum Einsatz kam. Sie ist vielleicht sogar noch wichtiger für die Lesbarkeit des S10+. Dessen Spitzenhelligkeit bleibt nämlich deutlich hinter der beeindruckenden 930-Nits-Obergrenze des Tab S10 Ultra zurück. Allerdings übertrifft es mit 650 Nits das aktuelle iPad Air 2024 (13 Zoll), wenn auch nur um Haaresbreite.

Foundry | Alex Walker-Todd

Diese neue Beschichtung hilft, hartes Licht zu streuen und ist weniger anfällig für Fingerabdrücke als ein glänzendes Display.

Die Ränder um das Display des S10+ sind zwar gleichmäßig, aber nicht so dünn wie beim Ultra. Die Kehrseite der Medaille ist, dass Sie das S10+ im Vergleich dazu besser in der Hand halten können, was seine Rolle als das tragbarere Modell der Reihe unterstreicht.

Foundry | Alex Walker-Todd

Abgesehen von der exzellenten HDR-Wiedergabe setzt Samsung mit dem Tab S10+ auch seine Serie großartiger Tablet-Audiosysteme fort. Die Vierfach-Lautsprecher, von denen jeder über ein eigenes Gitter an beiden Seiten verfügt, bieten eine starke Stereotrennung, eine angenehm breite Klangbühne und minimale Verzerrungen, selbst bei höheren Lautstärken. Es ist ein hervorragendes System, das sogar das OnePlus Pad 2 übertrifft.

Spezifikationen & Leistung

MediaTek Dimensity 9300 Chipsatz

12 GB RAM

256 GB / 512 GB Speicher (per microSD erweiterbar)

Mir gefällt der neue Dimensity 9300-Chipsatz, der in der Tab S10-Serie zum Einsatz kommt. Frühere Galaxy S-Flaggschiffe wurden in einigen Regionen mit Samsungs eigenem Exynos-Prozessoren auf den Markt gebracht, während in anderen Regionen die leistungsfähigeren Snapdragon-SoCs von Qualcomm zum Einsatz kamen. Das zog den Zorn der Fans in den Exynos-First-Märkten auf sich, die das Gefühl hatten, dass ihnen eine minderwertige Version desselben Produkts verkauft wurde.

Foundry | Alex Walker-Todd

Im Fall der Tab S10-Serie sind die Umstände etwas anders, da beide Tablets weltweit mit dem Dimensity 9300 von MediaTek laufen.

Snapdragon-Chips sind bereits seit dem Tab S 2.0 aus dem Jahr 2015 in der Galaxy Tab S-Serie zu finden. MediaTek wurde lange Zeit als Chip-Hersteller angesehen, der im Vergleich zum Siliziumriesen Qualcomm schwächere Angebote liefert. Das mag zwar damals treffend gewesen sein, aber die Hardware von MediaTek hat sich in den letzten Jahren dramatisch verbessert, mit konkurrenzfähigerem Silizium, das näher an oder gleichauf mit den entsprechenden Snapdragon-Chips ist. Im Falle des im 4-Nanometer-Verfahren gefertigten Dimensity 9300 in der Tab S10-Serie ist genau das der Fall.

Samsung Galaxy Tab S10 Benchmarks

Trotz des geringeren Arbeitsspeichers im Vergleich zum Ultra-Modell (12 Gigabyte statt 16 Gigabyte) übertrifft das S10+ in Benchmarking-Tests sowohl bei der CPU- als auch bei der Grafikleistung seinen großen Bruder und andere namhafte Konkurrenten wie das Snapdragon 8 Gen 3-betriebene Pad 2 von OnePlus.

Nachdem ich vor Kurzem bereits den gleichen Chip im Smartphone 14T Pro von Xiaomi getestet hatte, galt meine größte Sorge nicht der Leistung, sondern dem Wärmemanagement. Glücklicherweise scheint Samsung auch daran gedacht zu haben und nutzt die geräumige Form des S10+, um sicherzustellen, dass selbst ausgedehnte Spiele-Sessions nicht zu einer Beeinträchtigung führen.

Foundry | Alex Walker-Todd

Samsung gibt an, dass der 9300 im Vergleich zum Qualcomm Snapdragon 8 Gen 2, der die Tab S9-Serie antreibt, eine um 18 Prozent bessere CPU-Leistung, eine um 28 Prozent bessere Grafikleistung und eine um 14 Prozent bessere NPU-Leistung (der Chipsatz, der sich auf KI-Aufgaben konzentriert) bietet.

Vergleichen Sie das mit dem Snapdragon 8 Gen 3, der (im Vergleich zum Snapdragon 8 Gen 2) angeblich eine 20-prozentige Verbesserung der CPU-Leistung, eine 25-prozentige Steigerung der GPU-Leistung und eine 40-prozentige Steigerung der NPU-Effizienz verspricht. Je nachdem, worauf Sie bei einem Tablet am meisten Wert legen, scheint sich dieser Wechsel des Chips nicht negativ auf die Aufwärtskurve der Leistungsverbesserungen der Tab S-Serie ausgewirkt zu haben.

Foundry | Alex Walker-Todd

Es ist vielleicht seltsam, dass sich Samsung angesichts der Tatsache, dass die KI ein so wichtiger Aspekt der Tab S10-Serie ist, nicht für die im Vergleich zum 9300 deutlicheren NPU-Verbesserungen des 8 Gen 3 entschieden hat. In der Praxis gibt es jedoch wenig an der Leistung des Chips im Tab S10 zu bemängeln. Er ist für die kommenden Jahre gerüstet.

Ein weiterer Pluspunkt ist die Möglichkeit der Speichererweiterung (über microSD). Eine Seltenheit im Jahr 2024. Sie können die 256 oder 512 Gigabyte internen Speicher also um bis zu 1,5 Terabyte erweitern.

Kameras

13 MP f/2,0 Hauptkamera, 8 MP f/2,2 Ultraweitwinkel

12 MP 120 Grad Ultraweitwinkel Frontkamera

Bis zu 4K Videoaufnahme auf der Vorder- und Rückseite

Das Tab S10+ hat ein funktionales Kamera-Trio. Wie bereits angedeutet, beherbergt der obere Rahmen des Plus im Gegensatz zu den zwei Sensoren auf der Vorderseite des Ultra nur eine Kamera. Die schmalere 12-Megapixel-Weitwinkellinse wurde weggelassen, die 12-Megapixel-Ultraweitwinkelkamera jedoch beibehalten.

Foundry | Alex Walker-Todd

Sie ist ohnehin der nützlichere der beiden Sensoren, da die Frontkamera auf dem Tablet vor allem für Videotelefonate und Ähnliches verwendet wird. Durch die Beibehaltung des 120-Grad-Ultrawide-Sensors haben Sie mehr Platz, um mehrere Personen in den Bildausschnitt einzupassen. Wenn Sie diesen Platz nicht benötigen, stellt die Benutzeroberfläche auf eine zugeschnittene Perspektive um.

Bei der Aufnahme von Videos über die Frontkamera gibt es außerdem eine praktische automatische Bildausschnittfunktion (ähnlich wie Center Stage auf dem iPad), die automatisch den Bildausschnitt vergrößert und verkleinert, um Ihr Gesicht so zentriert wie möglich zu halten.

Auf der Rückseite finden Sie Duo-Cam aus 13 Megapixel und 8 Megapixel Weitwinkel- und Ultraweitwinkelkameras, die auch beim Tab S10 Ultra verbaut wurden. Sie leisten zwar gute Arbeit, können mit Smartphone-Kameras jedoch nicht mithalten.

Die Nachbearbeitung gibt sich zwar Mühe, kann aber den geringen Dynamikbereich des Tablet-Sensors und die unzureichende Leistung bei schlechten Lichtverhältnissen nicht kaschieren. Trotz der mäßigen Sensoren bietet Samsung immerhin Videoaufnahmen mit einer Auflösung von bis zu 4K (wenn auch nur mit 30 Bildern pro Sekunde). Manuelle Steuerung, Foto- und Videoaufnahmen im Hochformat, Bild-zu-Text- und Bildverarbeitungsfunktionen (mit Bixby Vision) und einige andere Modi lassen ebenfalls ein gewisses Maß an Kreativität zu.

Akkulaufzeit & Aufladen

10.090-mAh-Akku

45 Watt Schnellladung

Kein Ladegerät in der Verpackung

Tablets werden in der Regel sporadischer und vielfältiger genutzt als Smartphones, was die Bestimmung der Akkulaufzeit schwieriger macht. Bei gleicher Displaygröße und -auflösung sowie gleicher Akkukapazität wie beim Vorgängermodell liegt es an dem neuen Chipsatz und den Optimierungen in Samsungs One UI-Benutzeroberfläche, eine längere Lebensdauer pro Ladung zu erreichen.

Die Energieverwaltung von One UI braucht mindestens ein paar Wochen, um Muster zu lernen und ein entsprechendes Energieprofil zu erstellen. So hat sich die Lebensdauer während der Nutzung verbessert und liegt nun bei etwa 7,5 Stunden Bildschirmzeit pro Ladung.

Um das Ganze etwas quantifizierbarer zu machen, hat eine Stunde Netflix bei 50 Prozent Helligkeit dem 10.090-Milliamperestunden-Akku des Tab S10 8 Prozent der Ladung entzogen, während der PCMark Battery 3.0 Benchmark Test (mit einem auf 200 Nits Helligkeit kalibrierten Display) 6 Stunden und 42 Minuten erreichte.

Foundry | Alex Walker-Todd

Samsung legt dem Tablet leider kein Netzteil bei. Wenn Sie ein entsprechendes Ladegerät besitzen oder bereit sind, eines anzuschaffen, dann können Sie den Akku mit bis zu 45 Watt aufladen. Im Test erreichte der Akku in etwas mehr als einer Stunde 50 Prozent und nach 2 Stunden und 10 Minuten 100 Prozent.

Zum Vergleich: Das größere Tab S10 Ultra (mit einem 11.200-Milliamperestunden-Akku) zeigte eine geringfügig bessere Laufzeit mit etwa 7 bis 8 Stunden Bildschirmzeit pro Ladung und beeindruckenden 8 Stunden 28 im gleichen Battery 3.0 Benchmark.

Konkurrierende Tablets, wie das OnePlus Pad 2, halten noch ein ganzes Stück länger durch und lassen sich auch schneller aufladen. Samsung hat hier also eindeutig Verbesserungspotenzial.

Software & Apps

One UI 6.1 mit Android 14

Erstes Tablet mit Galaxy AI

7 Jahre Betriebssystem- und Sicherheitsupdates

Wenn Sie in den letzten Jahren ein Samsung-Smartphone oder -Tablet verwendet haben, sollte Ihnen die Android-basierte Oberfläche One UI sofort vertraut vorkommen. Sie unterscheidet sich in Aussehen und Bedienung deutlich von Standard-Android, ist aber sauber, konsistent und macht die Navigation und Interaktion ziemlich mühelos, wenn Sie sich erst einmal mit allem vertraut gemacht haben.

Samsung hat Android viel länger und effektiver an den Tablet-Formfaktor angepasst als Google, und das hat viele der Geräte inspiriert, die seitdem in direkter Konkurrenz aufgetaucht sind.

Foundry | Alex Walker-Todd

Der Einfluss des Unternehmens hat auch zu einigen wichtigen Partnerschaften geführt. Ausgewählte Apps, die früher nur für das iPad verfügbar waren, haben ihren Weg auf die Galaxy Tabs des Unternehmens gefunden, bevor sie für alle Android-Geräte verfügbar waren.

Samsung hat zwar keine Neuzugänge zum Start der Tab S10-Serie erwähnt, aber frühere Einträge wie Clip Studio, Goodnotes und LumaFusion sind sofort verfügbar. Die Möglichkeit, App-Paare (oder -Trios) zu speichern, ist großartig, um schnell wieder in nützliche Multitasking-Konfigurationen einzusteigen.

Samsung DeX ist ebenfalls an Bord. Sie können zwischen einer klassischen und einer überarbeiteten Variante des desktopähnlichen Benutzererlebnisses wählen. In beiden Fällen werden Apps automatisch im Fenstermodus und nicht im Vollbildmodus geöffnet, was Sie wahrscheinlich von Windows und macOS kennen.

Noch besser: Im Gegensatz zur Beschränkung auf drei Apps im geteilten Bildschirm können mit DeX bis zu 15 Apps im Fenstermodus gleichzeitig genutzt werden. Das Tab S10+ war dieser Herausforderung im Test mehr als gewachsen, ohne erkennbare Ruckler oder Leistungseinbußen.

Die wirkliche Verbesserung der One UI-Erfahrung ist Galaxy AI. Die KI-Tools wurden bereits auf den Galaxy S24-Smartphones eingeführt. Während Konkurrenten wie Apple, Google, Oppo, OnePlus, Xiaomi und Asus ähnliche KI-basierte Funktionen vorgestellt haben, scheint Samsung derzeit zu den fortschrittlichsten Unternehmen in diesem Bereich zu gehören. Das bedeutet, dass Geräte wie das Tab S10+ wahrscheinlich von einer raschen Verbesserung und Erweiterung profitieren werden, da das Unternehmen versucht, schnell eine führende Position einzunehmen.

Foundry | Alex Walker-Todd

Features wie Chat Assist und Note Assist dienen dazu, Ihre Originaltexte zu bereinigen oder sogar prägnanter oder in einem anderen Ton zu schreiben. Mit Photo Assist können Sie Bilder bearbeiten, um unerwünschte Elemente zu entfernen oder völlig neue zu erstellen – basierend auf einer Skizze. In den meisten Fällen dauert die Verarbeitung nur Sekunden, und die Ergebnisse sind überraschend gut. Damit gehört das Tab S10+ zu den besseren KI-Geräten, die derzeit verfügbar sind.

Nicht jeder wird sich mit den generativen KI-Tools anfreunden können, aber es lässt sich nicht leugnen, dass ihr Einsatz Zeit spart und allen Nutzern die Möglichkeit gibt, Inhalte zu erstellen.

Ein weiterer wichtiger Aspekt der Tab S10-Reihe ist das Software-Versprechen. Samsung gewährt sowohl dem Tab S10+ als auch dem S10 Ultra dieselbe Verpflichtung zu 7 Jahren Updates wie seiner Galaxy S24-Serie und übertrumpft damit die vorherige Tab S9-Reihe, deren Grenze bei (immer noch respektablen) 5 Jahren liegt.

Preis & Verfügbarkeit

In Deutschland ist das Tab S10+ direkt im Online-Shop von Samsung erhältlich. Die Speicher-Variante mit 256 Gigabyte kostet 999 Euro, 512 Gigabyte schlagen mit 1.099 Euro zu Buche. Günstiger geht es bei Amazon. Hier zahlen Sie für die 256-Gigabyte-Version 899,99 Euro und für 512 Gigabyte 959,99 Euro. Das Book Cover Keyboard kostet 159 Euro. Mit 5G-Support kostet das Tablet ab 1.129 Euro.

Mit einem Startpreis von 999 Euro ist das Tab S10 derzeit eines der teuersten Android-Tablets auf dem Markt und damit rund 50 Euro teurer als sein begehrtester Konkurrent, das 13-Zoll iPad Air 2024. Neben dem OLED-Display und dem mitgelieferten Eingabestift ist ein großer Vorteil des Samsung-Tablets gegenüber dem Apple-Tablet der erweiterbare Speicherplatz. Auch die lange Software-Unterstützung ist ein Kaufgrund.

Sollten Sie das Samsung Galaxy Tab S10+ kaufen?

Samsung ist nach wie vor für einige der überzeugendsten Android-Tablets auf dem Markt verantwortlich. Im Fall des Tab S10+ sind es neben dem allgegenwärtigen S Pen und Samsungs Vorliebe für leistungsstarkes Silizium und atemberaubende OLED-Displays Ergänzungen wie Galaxy AI, die dafür sorgen, dass das Gerät auch heute noch relevant ist. Die beeindruckende 7-jährige Update-Unterstützung macht es auch langfristig zu einem guten Kauf.

Der Wermutstropfen ist, dass die Android-Konkurrenz inzwischen deutlich leistungsfähigere Konkurrenten hervorbringt als früher. Für diejenigen, die keinen Eingabestift benötigen oder nicht vorhaben, ihr Tablet sieben Jahre lang zu behalten, gibt es mehrere günstigere Alternativen, die dem Tab S10 in dem einen oder anderen Bereich ebenbürtig oder sogar überlegen sind – und das für weniger Geld.

Wenn Sie sich zwischen den beiden Angeboten der Galaxy Tab S10-Serie entscheiden müssen, ist das S10+ die bessere Wahl, denn es erfüllt alle Anforderungen, die ein gutes Tablet erfüllen sollte, einschließlich der Portabilität, die das Tab S10 Ultra nicht bieten kann.

Und wenn Sie einen nahezu identischen Funktionsumfang für weniger Geld haben möchten, bietet die Tab S9-Serie von 2023 etwas weniger Leistung und eine kürzere Update-Unterstützung, aber ansonsten das gleiche Samsung-Tablet-Erlebnis und profitiert dabei von Preissenkungen im Laufe eines Jahres (es gibt auch das kleinere Tab S9).

Technische Daten

MediaTek Dimensity 9300

12 GB RAM

256 GB / 512 GB (per microSD erweiterbar)

12,4-Zoll-AMOLED-Display

1.752 x 2.800 Pixel, 650 Nits Spitzenhelligkeit

120 Hertz dynamische Bildwiederholrate

10.090-mAh-Akku

45 W Schnellladung (kein Ladegerät enthalten)

12 MPl Kamera auf der Vorderseite

Rückwärtige 13 MP Hauptkamera, 8 MP Ultrawide

Vierfache Stereo-Lautsprecher

285,4 x 185,4 x 5,6 Millimeter

571 Gramm (nur Tablet)

(PC-Welt)

Samsung Galaxy Tab S10+ im Test: Hervorragender Allrounder mit KI-Funktionen​ Weiterlesen »

Samsung Galaxy A16 5G oder A15 5G: Welches Smartphone soll ich kaufen?​

Allgemein

Foundry Die Galaxy A-Serie von Samsung ist für ihre preisgünstigen Budget-Smartphones mit einem Hauch von Premium-Design und zuverlässiger Leistung bekannt. Das trifft auch auf das Galaxy A16 5G und seinen Vorgänger, das Galaxy A15 5G, zu. Das A16 kostet bei Samsung 229 Euro, während das A15 mittlerweile schon ab 150 Euro erhältlich ist. Allerdings gibt es feine Unterschiede zwischen den beiden Modellen, die Ihre Kaufentscheidung beeinflussen könnten. Im Folgenden stellen wir die beiden Smartphones gegenüber und gehen auf die wichtigsten Unterschiede bei den technischen Daten und unseren praktischen Erfahrungen ein. Design & Display Das Galaxy A16 5G verfügt über ein etwas größeres 6,7-Zoll-Super-AMOLED-Display im Vergleich zum 6,5-Zoll-Display des A15 5G. Obwohl beide die gleiche Bildwiederholfrequenz von 90 Hertz und lebendige AMOLED-Farben und Kontraste bieten, ist das A16 5G aufgrund seiner größeren Bildschirmdiagonale die bessere Wahl für den Medienkonsum. Es ist jedoch anzumerken, dass das A16 5G immer noch relativ klobige Ränder und eine tropfenförmige Aussparung aufweist, die im Vergleich zu moderneren Alternativen veraltet wirken. Foundry Was die Verarbeitung betrifft, so behält das A16 5G das flache Kunststoffdesign von Samsung bei, ist aber mit 7,9 Millimetern etwas dünner als das A15 5G mit 8,4 Millimetern. Weder das A16 noch das A15 haben eine IP-Klassifizierung, sind also weder wasser- noch staubdicht. Foundry Während das A15 5G mit der leuchtenden Farboption “Personality Yellow” einen verspielten Touch hat, bietet das A16 5G gedämpfte Farben wie Hellgrün, Blauschwarz und Hellgrau für einen eleganteren Look. Akkulaufzeit & Aufladen Die Akkulaufzeit ist ein wesentlicher Faktor für Nutzer von Budget-Smartphones. Hier übertrifft das Galaxy A15 5G überraschenderweise seinen Nachfolger (das zeigen zumindest unsere Tests). Beide Modelle verfügen über einen 5.000-Milliamperestunden-Akku und unterstützen 25 Watt Ladeleistung, aber das A15 5G bietet eine längere Laufzeit. Benchmark-Tests während unserer Testzeiträume zeigen, dass das A15 5G über 15 Stunden durchhält, während das A16 5G mit einem Ergebnis von nur 10 Stunden und 24 Minuten auf dem zweiten Rang landet. Während Nutzer, die das Smartphone seltener in die Hand nehmen, auf bis zu zwei Tage Akkulaufzeit kommen können, werden intensive Nutzer den Unterschied bemerken. Foundry Die Ladezeiten sind vergleichbar, beide Modelle erreichen mit einem kompatiblen Ladegerät in 30 Minuten etwa 50 Prozent. Allerdings liegt keinem der beiden Smartphones ein Ladegerät bei, was für Erstkäufer von Smartphones nachteilig sein könnte. Software-Updates Für das Galaxy A16 5G werden sechs Jahre lang Software-Updates versprochen, die bis Oktober 2030 reichen. Im Gegensatz dazu bietet das A15 5G nur drei Jahre lang grundlegende Android-Updates. Für Nutzer, die ihr Smartphone mehrere Jahre lang behalten wollen, ist das A16 5G also die bessere Wahl. Foundry Beide Modelle laufen unter Android 14 mit Samsungs One UI. Die Galaxy-AI-Funktionen der teureren Modelle fehlen hier jedoch. Während das Software-Erlebnis weitgehend ähnlich ist, sorgen die erweiterten Updates auf dem A16 5G für eine viel längere Lebensdauer in Bezug auf Sicherheit und App-Kompatibilität. Weitere Unterschiede Das Galaxy A16 5G verbessert sich geringfügig in Bezug auf Dicke und Displaygröße, zeigt aber nur begrenzte Fortschritte bei der Leistung. Das ist bei beiden Handys ein Schwachpunkt, wie es bei so günstigen Handys oft der Fall ist. Der Exynos 1330-Chipsatz des A16 5G bietet nur ein geringfügiges Upgrade gegenüber dem MediaTek Dimensity 6100 im A15 5G. Beide Geräte geraten bei anspruchsvollen Aufgaben ins Stocken. Zudem wirkt der 4 GB große Arbeitsspeicher in beiden Modellen einschränkend, insbesondere beim Multitasking oder Gaming. Foundry Beide Modelle haben eine ähnliche Kameraausstattung: eine 50-Megapixel-Hauptlinse, eine 5-Megapixel-Ultrawide- und eine 2-Megapixel-Makrokamera sowie eine 13-Megapixel-Selfiekamera. Allerdings bietet keines der beiden Geräte signifikante Fortschritte bei der Fotoqualität, vorwiegend bei schlechten Lichtverhältnissen. Preis & Verfügbarkeit Das Galaxy A16 5G kostet im Online-Shop von Samsung ab 229 Euro. Bei Amazon ist es bereits für 179 Euro erhältlich. Das A15 5G ist im Samsung-Online-Shop nicht mehr erhältlich. Sie finden das Smartphone jedoch unter anderem bei Amazon ab 210 Euro. Beide Geräte verfügen über 128 Gigabyte internen Speicher mit microSDXC-Unterstützung. Fazit Das Galaxy A16 5G ist eine Weiterentwicklung des A15 5G mit einem größeren Display, einem schlankeren Design und branchenführender Unterstützung für Software-Updates. Aufgrund der kürzeren Akkulaufzeit und der bescheidenen Leistungssteigerung ist es jedoch kein wirklich großes Upgrade. Für die meisten Nutzer ist der höhere Preis für sechs Jahre Softwareunterstützung ein wichtiger Faktor. Wenn Sie nicht wirklich Geld sparen müssen oder die bessere Akkulaufzeit des A16 benötigen, empfehlen wir Ihnen, in das neueste Modell zu investieren, da es sehr langlebig ist. (PC-Welt) 

Samsung Galaxy A16 5G oder A15 5G: Welches Smartphone soll ich kaufen?​ Foundry

Die Galaxy A-Serie von Samsung ist für ihre preisgünstigen Budget-Smartphones mit einem Hauch von Premium-Design und zuverlässiger Leistung bekannt. Das trifft auch auf das Galaxy A16 5G und seinen Vorgänger, das Galaxy A15 5G, zu.

Das A16 kostet bei Samsung 229 Euro, während das A15 mittlerweile schon ab 150 Euro erhältlich ist. Allerdings gibt es feine Unterschiede zwischen den beiden Modellen, die Ihre Kaufentscheidung beeinflussen könnten. Im Folgenden stellen wir die beiden Smartphones gegenüber und gehen auf die wichtigsten Unterschiede bei den technischen Daten und unseren praktischen Erfahrungen ein.

Design & Display

Das Galaxy A16 5G verfügt über ein etwas größeres 6,7-Zoll-Super-AMOLED-Display im Vergleich zum 6,5-Zoll-Display des A15 5G. Obwohl beide die gleiche Bildwiederholfrequenz von 90 Hertz und lebendige AMOLED-Farben und Kontraste bieten, ist das A16 5G aufgrund seiner größeren Bildschirmdiagonale die bessere Wahl für den Medienkonsum.

Es ist jedoch anzumerken, dass das A16 5G immer noch relativ klobige Ränder und eine tropfenförmige Aussparung aufweist, die im Vergleich zu moderneren Alternativen veraltet wirken.

Foundry

Was die Verarbeitung betrifft, so behält das A16 5G das flache Kunststoffdesign von Samsung bei, ist aber mit 7,9 Millimetern etwas dünner als das A15 5G mit 8,4 Millimetern. Weder das A16 noch das A15 haben eine IP-Klassifizierung, sind also weder wasser- noch staubdicht.

Foundry

Während das A15 5G mit der leuchtenden Farboption “Personality Yellow” einen verspielten Touch hat, bietet das A16 5G gedämpfte Farben wie Hellgrün, Blauschwarz und Hellgrau für einen eleganteren Look.

Akkulaufzeit & Aufladen

Die Akkulaufzeit ist ein wesentlicher Faktor für Nutzer von Budget-Smartphones. Hier übertrifft das Galaxy A15 5G überraschenderweise seinen Nachfolger (das zeigen zumindest unsere Tests). Beide Modelle verfügen über einen 5.000-Milliamperestunden-Akku und unterstützen 25 Watt Ladeleistung, aber das A15 5G bietet eine längere Laufzeit.

Benchmark-Tests während unserer Testzeiträume zeigen, dass das A15 5G über 15 Stunden durchhält, während das A16 5G mit einem Ergebnis von nur 10 Stunden und 24 Minuten auf dem zweiten Rang landet. Während Nutzer, die das Smartphone seltener in die Hand nehmen, auf bis zu zwei Tage Akkulaufzeit kommen können, werden intensive Nutzer den Unterschied bemerken.

Foundry

Die Ladezeiten sind vergleichbar, beide Modelle erreichen mit einem kompatiblen Ladegerät in 30 Minuten etwa 50 Prozent. Allerdings liegt keinem der beiden Smartphones ein Ladegerät bei, was für Erstkäufer von Smartphones nachteilig sein könnte.

Software-Updates

Für das Galaxy A16 5G werden sechs Jahre lang Software-Updates versprochen, die bis Oktober 2030 reichen. Im Gegensatz dazu bietet das A15 5G nur drei Jahre lang grundlegende Android-Updates. Für Nutzer, die ihr Smartphone mehrere Jahre lang behalten wollen, ist das A16 5G also die bessere Wahl.

Foundry

Beide Modelle laufen unter Android 14 mit Samsungs One UI. Die Galaxy-AI-Funktionen der teureren Modelle fehlen hier jedoch. Während das Software-Erlebnis weitgehend ähnlich ist, sorgen die erweiterten Updates auf dem A16 5G für eine viel längere Lebensdauer in Bezug auf Sicherheit und App-Kompatibilität.

Weitere Unterschiede

Das Galaxy A16 5G verbessert sich geringfügig in Bezug auf Dicke und Displaygröße, zeigt aber nur begrenzte Fortschritte bei der Leistung. Das ist bei beiden Handys ein Schwachpunkt, wie es bei so günstigen Handys oft der Fall ist.

Der Exynos 1330-Chipsatz des A16 5G bietet nur ein geringfügiges Upgrade gegenüber dem MediaTek Dimensity 6100 im A15 5G. Beide Geräte geraten bei anspruchsvollen Aufgaben ins Stocken. Zudem wirkt der 4 GB große Arbeitsspeicher in beiden Modellen einschränkend, insbesondere beim Multitasking oder Gaming.

Foundry

Beide Modelle haben eine ähnliche Kameraausstattung: eine 50-Megapixel-Hauptlinse, eine 5-Megapixel-Ultrawide- und eine 2-Megapixel-Makrokamera sowie eine 13-Megapixel-Selfiekamera. Allerdings bietet keines der beiden Geräte signifikante Fortschritte bei der Fotoqualität, vorwiegend bei schlechten Lichtverhältnissen.

Preis & Verfügbarkeit

Das Galaxy A16 5G kostet im Online-Shop von Samsung ab 229 Euro. Bei Amazon ist es bereits für 179 Euro erhältlich.

Das A15 5G ist im Samsung-Online-Shop nicht mehr erhältlich. Sie finden das Smartphone jedoch unter anderem bei Amazon ab 210 Euro.

Beide Geräte verfügen über 128 Gigabyte internen Speicher mit microSDXC-Unterstützung.

Fazit

Das Galaxy A16 5G ist eine Weiterentwicklung des A15 5G mit einem größeren Display, einem schlankeren Design und branchenführender Unterstützung für Software-Updates. Aufgrund der kürzeren Akkulaufzeit und der bescheidenen Leistungssteigerung ist es jedoch kein wirklich großes Upgrade.

Für die meisten Nutzer ist der höhere Preis für sechs Jahre Softwareunterstützung ein wichtiger Faktor. Wenn Sie nicht wirklich Geld sparen müssen oder die bessere Akkulaufzeit des A16 benötigen, empfehlen wir Ihnen, in das neueste Modell zu investieren, da es sehr langlebig ist.

(PC-Welt)

Samsung Galaxy A16 5G oder A15 5G: Welches Smartphone soll ich kaufen?​ Weiterlesen »

Wahnsinn im Postfach: Die größten E-Mail-Sünden​

Allgemein

Erinnern Sie sich noch, wie wir ohne E-Mails gearbeitet haben? Briefe wurden diktiert oder per Hand vorgeschrieben. Die Sekretärin hat mit dem Chef besprochen, wer den Brief als Kopie erhält und wie der Betreff formuliert werden muss, damit man ihn in der Ablage wiederfindet. Heute schreiben auch hochrangige Manager und Experten ihre E-Mails selbst – mit allen Folgen. Frau Eckhardt, ehemals Principal Consultant bei Detecon, hat die schlimmsten E-Mail-Sünden zusammengestellt.Kommunikation im geschäftlichen Zusammenhang dient dem Geschäftszweck. Sie hat zielgerichtet zu sein, soll die Performance verbessern und Probleme lösen. Foto: tommistock – shutterstock.comBevor wir Sie nun jedoch in den E-Mail-Sündenpfuhl werfen, wollen wir Ihnen aber noch die “beliebtesten” E-Mail-Ärgernisse präsentieren. Der Social-Software- und Intranet-Provider Igloo Software hat 2000 Mitarbeiter in US-Unternehmen zu ihrem E-Mail-Nutzungsverhalten befragt. Aus den Umfrageergebnissen wurden die acht schlimmsten E-Mail-Ärgernisse abgeleitet. Der Wahnsinn schlummert im Mail-PostfachSie suchen verzweifelt die Mail zum Angebot aus dem Januar mit dem Anbieter XY aus der Schweiz, bei dem die Konditionen geändert werden sollen. Mit diesem Betreff ist aber nichts zu finden in Ihrer elektronischen Ablage zu diesem Thema. Sie ärgern sich, weil die Mail noch in ihrem Posteingang schmort. Das Angebot müssten Sie von der Kollegin Müller erhalten haben …aber die war im Januar in Urlaub…dann war es ihr Vertreter Herr Schmidt…Sie finden nichts unter Müller, nichts unter Schmidt, nichts unter Angebot Firma XY, Schweiz.Da bleibt nichts übrig, als alle Januar-Mails zu prüfen. Wenn Sie die richtige Mail finden, ist sie garantiert von Frau Meier, der Sekretärin von Frau Müller. Sie ist vom 8. Februar und die Betreffzeile lautet “Polnisches Angebot aus dem Rennen”. Im Text steht, dass Sie alternativ das Angebot der Schweizer Firma zur Kenntnis erhalten, weil die polnische Firma die Anforderungen nicht erfüllt. Außerdem könnten Sie den Vorschläge entnehmen, wie die Konditionen verändert werden sollen.Die Mailkette umfasst acht E-Mails von Kollegen des Absenders mit widersprüchlichen Vorschlägen. Also schreiben Sie dem Absender eine barsche E-Mail und fragen, was denn nun der letzte Stand für die Konditionen dieses Angebots ist. Willkommen im täglichen Wahnsinn, den wir uns gegenseitig in Form von E-Mails bereiten!Wer E-Mail-Regeln nicht einhält, verursacht KostenDie meisten Manager wurden in ihrer Ausbildung mit den Grundregeln der Kommunikation vertraut gemacht. Sie haben erfahren, dass jede Kommunikation vier Komponenten hat:den Sachinhalt,die Beziehungsinformation (Wie gehe ich mit meinem Gegenüber als Empfänger um?),einen Appell, der den Wunsch betrifft, welche Wirkung die Kommunikation haben möge,die Selbstoffenbarung: Wie stelle ich mich selbst dar, was sagt diese Nachricht über mich aus?Kommunikation im geschäftlichen Zusammenhang dient dem Geschäftszweck. Sie hat zielgerichtet zu sein, soll die Performance verbessern und Probleme lösen. In Zahlen ausgedrückt stellt sich die Problematik wie folgt dar: In einem Unternehmen arbeiten 10.000 Mitarbeiter mit E-Mail. Jeder verliert täglich durch Wirrungen der E-Mail- Kommunikation fünf Minuten produktiver Arbeitszeit. Rechnen Sie mit: Das ergibt pro Jahr bei einem Kostensatz von 100 Euro pro Mitarbeiter und 200 Arbeitstagen die stolze Summe von zirka 16 Millionen Euro. Was läuft also schief?1. Die Betreff-SündeDer Absender hat sich nicht überlegt, wie der Betreff exakt lauten muss. Entweder muss das wichtige Schweizer Angebot im Betreff zusätzlich erwähnt werden oder es muss eine separate Mail mit dem Angebot gesendet werden.Der Betreff ist die Überschrift einer Mail – wenn sie fehlt, ist der Empfänger verloren: Er weiß beim Empfang nicht, worum es geht, ob es wichtig ist, ob er den Sachverhalt liegen lassen kann. Wenn er nicht selbst den Betreff ergänzt, hat er wenig Chancen, die E-Mail später schnell wieder zu identifizieren. Zudem wird der Empfänger verärgert sein über die Schlamperei des Absenders, die ihn zwingt, hier zusätzlichen Aufwand zu treiben.Unschön ist auch die Angewohnheit, alte Mails als Template für eine neue E-Mail an den Absender zu nutzen und dabei den Betreff nicht zu ändern. Der Sender hat den Vorteil, dass er die Adresse nicht suchen muss. Der Empfänger fragt sich dann, was der alte Betreff mit dem neuen Inhalt zu tun hat – falls er die Mail je öffnet, denn wenn der alte Betreff auf eine längst erledigte Angelegenheit hinweist, könnte es schon sein, dass er sie in Eile zurückstellt und dann irgendwann für obsolet hält. In diesem Fall wäre die gegenseitige Wertschätzung auf jeden Fall ausgeglichen: “Ich lese Deine E-Mails nicht, wenn Du Dir nicht die Mühe machst, E-Mails an mich mit dem korrekten Betreff zu versehen”.2. Die Ketten-Mail-SündeDer Absender hat die Änderungsvorschläge nicht zusammengefasst oder bearbeitet. Soll der Empfänger doch sehen, wie er zurechtkommt! Wenn es sich um mehrere Empfänger handelt, hat man damit gleich den Aufwand vervielfacht – das trägt zur Performance des Unternehmens bei.Die Weiterleitung von E-Mailketten hat noch andere Tücken: So ist beim schnellen Weiterleiten oft nicht geprüft, ob nicht in der dritten E-Mail von unten eine Information oder Bemerkung steht, die der neue Empfänger nicht haben soll. Sei es, weil ihn diese Information nichts angeht oder weil ihn die Bemerkung verletzten könnte. Ja, klar, man soll keine Beschimpfungen oder spitze Bemerkungen in E-Mails schreiben, weil diese eben Beine bekommen – aber nicht nur der Erstabsender, auch der Weiterleiter hat eine Verantwortung für das, was er weiterleitet. Besonders pikant kann das werden, wenn es sich hier um eine Zusammenarbeit mit Kunden oder Lieferanten, also über Firmengrenzen hinweg, handelt.3. Das Mail-Ping-PongDer Spezialfall der Kette ist das Mail-Ping-Pong. Sender und Empfänger schreiben sich die Finger wund mit mehreren Mails hin und her, um diffizile Sachverhalte zu klären, und erzeugen damit bei Anderen eine gewisse Wut und Verzweiflung. Warum nicht mal miteinander telefonieren? Da ist Rede und Gegenrede doch oft sehr schnell klärend.4. Die VermeidungssündenDer Sender der E-Mail im obigen Beispiel wollte eigenen Zeitaufwand für Zusammenfassung und Koordination vermeiden – aber das gelingt mit E-Mails nie. Probieren Sie es erst gar nicht. Wenn Zusammenfassungen nötig sind, schreiben Sie diese gleich und verschonen Sie Kollegen und Chefs mit den Primärmails aus Ihrem Team oder aus der Diskussion mit dem Einkauf.Richtig schlimm wird es, wenn viel beschäftigte Führungskräfte Entscheidungen per E-Mail treffen. Die Sachlage mag noch so klar erscheinen – das Thema wäre nicht auf Chef-Ebene gelandet, wenn es einfach gewesen wäre, denn dann hätte schon jemand anders entschieden. Es geht in der Regel um ein strittiges Thema und dafür ist es erforderlich, alle Seiten synchron in Rede und Gegenrede zu hören. Derjenige, der nicht gehört wurde oder dessen Argumente in der Mailkette untergegangen oder nicht verstanden wurden, ist demotiviert. Der vermeintliche Sieger wird damit auch nicht froh, wenn er den Kollegen zur weiteren Zusammenarbeit braucht – und vor allem: Die Entscheidung könnte suboptimal sein, wenn sie schon nicht falsch ist.Vermeiden von Verantwortung per E-Mail ist auch ein beliebtes Spiel. Allerdings hat auch dieses Spiel nur Verlierer. Wer immer mit möglichst großem Verteiler schreibt, erreicht damit nur, dass sich am Ende keiner mit dem Thema identifiziert und er selbst mit dem Thema doch allein bleibt. Es gibt zwar immer wieder Empfänger, die E-Mails beantworten, obwohl sie diese nur in Kopie erhalten haben, aber eigentlich ist ja nur der direkte Empfänger angesprochen. Der hat vielleicht wenig Lust, eine Mail-Konversation mit 20 Leuten zu führen.Gedankenlosigkeit, strukturelle Verantwortungslosigkeit und fehlendes Bewusstsein über das, was man kommunikativ anrichtet, mitunter auch mangelnde Ausbildung haben zu einer weitgehend verlotterten E-Mail-Kultur geführt. Besorgniserregend sind deshalb die typischen Krankheitszeichen für eine nicht mehr performante Organisation: “Ich bekomme so viele E-Mails, die kann ich nicht mehr alle lesen – geschweige denn beantworten. Ich warte, bis es so wichtig ist, dass man mich anruft oder das Thema in den Meetings behandelt wird.” Das ist zwar aus dem Blickwinkel des Betroffenen menschlich verständlich. Die Auswirkungen auf die Kultur und Motivation ist jedoch fatal, werden aber unterschätzt. Verantwortung für die Transparenz in jeglicher Art Ihrer Kommunikation stellt letztlich einen wesentlichen Wert im Umgang miteinander dar. Die Wertekultur gehört zu den immateriellen Werten im Unternehmen – ohne sie haben Sie bei allen Mitarbeitern, deren Kopf und Herz für die Ergebnisse des Unternehmens wichtig sind, einen schlechten Stand.5. Die Smartphone-SündenEin Smartphone, mit dem man unterwegs die E-Mails checkt, kann ein Instrument zur Performance-Verbesserung sein – oder ein Teufelsinstrument, das den Stress durch permanente Verfügbarkeit erhöht. Alle Fallen, die es in der E-Mail-Kommunikation gibt, sind hier genauso gegeben. Gesteigert wird dies durch den Wunsch des Absenders, schnell und kurz zu antworten. Hier treten Verkürzungen auf, die Missverständnisse höchst wahrscheinlich werden lassen, wenn nicht präzise darüber nachgedacht wird, was der Empfänger braucht, um die Antwort zu verstehen.Mailketten am Smartphone verstehen? Niemals!!! Sie müssen soviel scrollen, dass Sie sicher vorher aufgeben.Anlagen öffnen und lesen? Ja, da muss man schon sehr hart im Nehmen der Zumutungen sein.Die E-Mail der Chefin, die grade im Ausland ist, lautet: “Ja, klar “. Sie wissen, dass sie das am Smartphone geschrieben hat. Dummerweise fehlt die Bezugsmail. Sie zermartern sich den Kopf, welche Entscheidungsvorlage Sie ihr per E-Mail gesendet haben. Sie durchsuchen Ihre Mails. Das dauert lange. Irgendwann stolpern Sie über die E-Mail eines Kollegen, der sie als CC kopiert hatte und der die Chefin gefragt hat, ob er zum Monatsabschluss ausnahmsweise in den Urlaub gehen kann. Hier hat sich auch eingebürgert, auf die Großschreibung zu verzichten- weil das Umschalten recht mühsam ist. Das wird auch weitgehend zwischen Nutzern dieser Technik akzeptiert. Trotzdem muss man sich überlegen, an wen man schreibt. An den Kollegen, der weiß, dass man gerade in Japan am Flughafen steht und noch schnell vorm Einchecken antwortet? Oder an den CEO des eben gewonnenen Kunden?6. Die SMS-Sünde aka WhatsApp-SündeUnd für die SMS gilt genau wie für WhatsApp-Nachrichten: Ganz prima für kurze Mitteilungen (das erste S steht ja auch für short!) der Art: “Zug hat zwei Stunden Verspätung” oder “Bitte ruf mich dringend zurück wegen Angebot Schweiz”, aber ungeeignet für komplexere Sachverhalte im Geschäftsumfeld. Und bitte nicht die der Jugendsprache entnommenen Abkürzungen im Geschäftskontext verwenden! Wie Sie mit Ihren Freunden oder Kindern kommunizieren, steht ja auf einem anderen Blatt.E-Mail-Knigge im Intranet nützt nichtsNun haben etliche Firmen einen E-Mail-Knigge im Intranet. Die wenigsten Mitarbeiter kennen ihn allerdings. So nutzt er nichts, weil sich keiner daran hält. Und es hält sich niemand daran, weil gerade Führungskräfte mit schlechtem Beispiel vorangehen und deswegen Nichtbefolgen nicht sanktioniert wird. Das eigene Beispiel von oben aus der Hierarchie ist mächtiger als schön formulierte Regeln. Denn wie hat sich der Mailverkehr als das gängige Medium der Firmenkommunikation durchgesetzt? Indem der Chef über dieses Medium – und nur über dieses – zu seinen Besprechungen eingeladen hat.E-Mail-Kommunikation: Der Chef muss zum Vorbild werdenWenn Sie der Meinung sind, dass Transparenz in der Kommunikation die Effizienz und Effektivität in Ihrem Unternehmen deutlich fördert, Sie sich also verantwortlich für die Klarheit Ihrer E-Mails fühlen, begehen Sie alle aufgezählten Sünden nicht mehr. Überzeugen Sie Ihren Chef und Ihre Management-Kollegen, indem Sie (moderat) auf die Sünden der Kollegen reagieren – vor allem mit Ich-Botschaften über die Selbstoffenbarung des Senders und was sein Kommunikationsverhalten für die Wertschätzung der Beziehung bedeutet.Bezüglich Ihrer Mitarbeiter haben Sie durchaus die Möglichkeit, auf Sünden mit klarer Ansage zu reagieren – aber bitte unter vier Augen und Ohren. Das heißt, am besten nicht per E-Mail! Überzeugen Sie die Verantwortlichen in Ihrem Unternehmen, die Trainings durchführen, dass E-Mail-Kommunikation tatsächlich ein Thema für das Training von Mitarbeitern ist, vielleicht sogar im Rahmen von Wertediskussionen. Möglicherweise lässt sich auch Ihr CEO als mächtiger Sponsor gewinnen und verleiht dem Thema die nötige Wichtigkeit von ganz oben. Aber knirschen Sie weiter mit den Zähnen, wenn Ihre Kunden alle aufgezählten Sünden begehen – es sei denn, Sie sind der dafür bezahlte Kommunikationstrainer.Die größten E-Mail-ÄrgernisseSpam Foto: Warren Price Photography – shutterstock.comEgal ob nigerianischer Prinz mit Kohle zu verschenken oder Versprechen von dramatischem Gewichtsverlust – Spam ist heutzutage unvermeidlich. Allerdings kann Spam auch die Tür zu Identitätsdiebstahl, Hacks und anderen Security-Desastern öffnen. Achten Sie also auf einen zuverlässigen Spam-Filter.Irrelevanz Foto: Lightspring – shutterstock.comWieviele E-Mails erhalten Sie pro Tag? Selbst wenn es “nur” 50 pro Tag sind, dürften davon rund die Hälfte inhaltlich völlig irrelevant sein. Also: Denken Sie lieber zweimal nach, bevor Sie selbst den Senden-Button klicken und überlegen Sie auch, ob der Inhalt der Mail für jeden der Empfänger auch wirklich relevant ist. Romantischer Überschwang Foto: Theo Gaitaneris – shutterstock.com“Beste Grüße”, “Verbindliche Grüße”, “MfG” sind als E-Mail-Abschiedsgruß für viele Menschen ein absoluter Abturn. Versuchen Sie also zu vermeiden, wie ein Charakter aus einer Schnulze aus dem 19. Jahrhundert zu klingen und lassen sie stattdessen ihre Nachricht und Interpunktion für sich sprechen. Wenn Sie einen Abschiedsgruß hinterlassen möchten, setzen Sie auf das altbewährte “Mit freundlichen Grüßen”. Ansonsten sagen Sie lieber nichts.Antwort-Lag Foto: Billion Photos – shutterstock.comIst die E-Mail angekommen? Wie sieht es jetzt aus? Schon eine Stunde vergangen und immer noch keine Antwort? Nur weil eine E-Mail in Sekunden übertragen ist, heißt das nicht, dass eine Antwort auch auf dem Fuße folgt. Das empfinden viele Menschen als extrem frustrierend. Überflutung Foto: Ribah – shutterstock.comAuf der anderen Seite kann eine E-Mail-Flut – und zwar noch bevor Sie überhaupt Gelegenheit hatten, zu lesen, zu verstehen und zu antworten – mindestens genauso viel ungenutztes Wut-Potential freischaufeln wie der Antwort-Lag. Bevor Sie also eine Armada an Einzeilern auf die virtuelle Reise schicken, sollten Sie sich überlegen, wie Sie alle Inhalte in eine E-Mail packen.Emoticons Foto: ra2studio – shutterstock.comEin großer Nachteil der E-Mail ist, dass die Intentionen des Absenders durch das Fehlen von Gestik und Mimik beim Empfänger falsch ankommen kann. Es kann verlockend sein, diese emotionale Leere mit Emoticons aufzufüllen. Aber das sollten Sie nicht tun. Versuchen Sie stattdessen ihre Absichten so gut wie möglich in geschriebener Sprache auszudrücken.Rudel-Mails Foto: bikeriderlondon – shutterstock.comSie arbeiten an einem Projekt und wollen allen Team-Mitgliedern ein Status-Update zukommen lassen? Geht klar. Auch wenn Sie eine Überraschungsparty für einen Kollegen zum Geburtstag planen und eine größere Gruppe darüber informieren möchten, ist dagegen nichts einzuwenden. Bevor Sie nun jedoch eine Gruppen-E-Mail verfassen, sollten Sie nach anderen Kommunikationswegen Ausschau halten – zum Beispiel Collaboration-Apps, Video-Chats, Online-Dokumente oder das gute, alte Face-to-Face-Meeting. Das kann unter Umständen nämlich wesentlich produktiver und effizienter sein, als eine E-Mail. Wenn Sie doch eine schicken, achten Sie darauf, dass im Adressfeld wirklich nur diejenigen Empfänger stehen, die auch eine wichtige Rolle innerhalb des Projekts/Anliegens einnehmen. Schreierei Foto: Ollyy – shutterstock.comHalten Sie sich zurück, wenn es um die Verwendung von Ausrufezeichen geht. Schließlich wollen Sie doch nicht wie ein Marktschreier wirken oder schlimmer noch, dem Empfänger vermitteln, Sie wären wütend. Professionelle E-Mails sollten klar, sachlich und verständlich formuliert werden. Also ohne Ausrufezeichen (und ohne Versalien-Orgien). 

Wahnsinn im Postfach: Die größten E-Mail-Sünden​ Erinnern Sie sich noch, wie wir ohne E-Mails gearbeitet haben? Briefe wurden diktiert oder per Hand vorgeschrieben. Die Sekretärin hat mit dem Chef besprochen, wer den Brief als Kopie erhält und wie der Betreff formuliert werden muss, damit man ihn in der Ablage wiederfindet. Heute schreiben auch hochrangige Manager und Experten ihre E-Mails selbst – mit allen Folgen. Frau Eckhardt, ehemals Principal Consultant bei Detecon, hat die schlimmsten E-Mail-Sünden zusammengestellt.Kommunikation im geschäftlichen Zusammenhang dient dem Geschäftszweck. Sie hat zielgerichtet zu sein, soll die Performance verbessern und Probleme lösen.
Foto: tommistock – shutterstock.comBevor wir Sie nun jedoch in den E-Mail-Sündenpfuhl werfen, wollen wir Ihnen aber noch die “beliebtesten” E-Mail-Ärgernisse präsentieren. Der Social-Software- und Intranet-Provider Igloo Software hat 2000 Mitarbeiter in US-Unternehmen zu ihrem E-Mail-Nutzungsverhalten befragt. Aus den Umfrageergebnissen wurden die acht schlimmsten E-Mail-Ärgernisse abgeleitet. Der Wahnsinn schlummert im Mail-PostfachSie suchen verzweifelt die Mail zum Angebot aus dem Januar mit dem Anbieter XY aus der Schweiz, bei dem die Konditionen geändert werden sollen. Mit diesem Betreff ist aber nichts zu finden in Ihrer elektronischen Ablage zu diesem Thema. Sie ärgern sich, weil die Mail noch in ihrem Posteingang schmort. Das Angebot müssten Sie von der Kollegin Müller erhalten haben …aber die war im Januar in Urlaub…dann war es ihr Vertreter Herr Schmidt…Sie finden nichts unter Müller, nichts unter Schmidt, nichts unter Angebot Firma XY, Schweiz.Da bleibt nichts übrig, als alle Januar-Mails zu prüfen. Wenn Sie die richtige Mail finden, ist sie garantiert von Frau Meier, der Sekretärin von Frau Müller. Sie ist vom 8. Februar und die Betreffzeile lautet “Polnisches Angebot aus dem Rennen”. Im Text steht, dass Sie alternativ das Angebot der Schweizer Firma zur Kenntnis erhalten, weil die polnische Firma die Anforderungen nicht erfüllt. Außerdem könnten Sie den Vorschläge entnehmen, wie die Konditionen verändert werden sollen.Die Mailkette umfasst acht E-Mails von Kollegen des Absenders mit widersprüchlichen Vorschlägen. Also schreiben Sie dem Absender eine barsche E-Mail und fragen, was denn nun der letzte Stand für die Konditionen dieses Angebots ist. Willkommen im täglichen Wahnsinn, den wir uns gegenseitig in Form von E-Mails bereiten!Wer E-Mail-Regeln nicht einhält, verursacht KostenDie meisten Manager wurden in ihrer Ausbildung mit den Grundregeln der Kommunikation vertraut gemacht. Sie haben erfahren, dass jede Kommunikation vier Komponenten hat:den Sachinhalt,die Beziehungsinformation (Wie gehe ich mit meinem Gegenüber als Empfänger um?),einen Appell, der den Wunsch betrifft, welche Wirkung die Kommunikation haben möge,die Selbstoffenbarung: Wie stelle ich mich selbst dar, was sagt diese Nachricht über mich aus?Kommunikation im geschäftlichen Zusammenhang dient dem Geschäftszweck. Sie hat zielgerichtet zu sein, soll die Performance verbessern und Probleme lösen. In Zahlen ausgedrückt stellt sich die Problematik wie folgt dar: In einem Unternehmen arbeiten 10.000 Mitarbeiter mit E-Mail. Jeder verliert täglich durch Wirrungen der E-Mail- Kommunikation fünf Minuten produktiver Arbeitszeit. Rechnen Sie mit: Das ergibt pro Jahr bei einem Kostensatz von 100 Euro pro Mitarbeiter und 200 Arbeitstagen die stolze Summe von zirka 16 Millionen Euro. Was läuft also schief?1. Die Betreff-SündeDer Absender hat sich nicht überlegt, wie der Betreff exakt lauten muss. Entweder muss das wichtige Schweizer Angebot im Betreff zusätzlich erwähnt werden oder es muss eine separate Mail mit dem Angebot gesendet werden.Der Betreff ist die Überschrift einer Mail – wenn sie fehlt, ist der Empfänger verloren: Er weiß beim Empfang nicht, worum es geht, ob es wichtig ist, ob er den Sachverhalt liegen lassen kann. Wenn er nicht selbst den Betreff ergänzt, hat er wenig Chancen, die E-Mail später schnell wieder zu identifizieren. Zudem wird der Empfänger verärgert sein über die Schlamperei des Absenders, die ihn zwingt, hier zusätzlichen Aufwand zu treiben.Unschön ist auch die Angewohnheit, alte Mails als Template für eine neue E-Mail an den Absender zu nutzen und dabei den Betreff nicht zu ändern. Der Sender hat den Vorteil, dass er die Adresse nicht suchen muss. Der Empfänger fragt sich dann, was der alte Betreff mit dem neuen Inhalt zu tun hat – falls er die Mail je öffnet, denn wenn der alte Betreff auf eine längst erledigte Angelegenheit hinweist, könnte es schon sein, dass er sie in Eile zurückstellt und dann irgendwann für obsolet hält. In diesem Fall wäre die gegenseitige Wertschätzung auf jeden Fall ausgeglichen: “Ich lese Deine E-Mails nicht, wenn Du Dir nicht die Mühe machst, E-Mails an mich mit dem korrekten Betreff zu versehen”.2. Die Ketten-Mail-SündeDer Absender hat die Änderungsvorschläge nicht zusammengefasst oder bearbeitet. Soll der Empfänger doch sehen, wie er zurechtkommt! Wenn es sich um mehrere Empfänger handelt, hat man damit gleich den Aufwand vervielfacht – das trägt zur Performance des Unternehmens bei.Die Weiterleitung von E-Mailketten hat noch andere Tücken: So ist beim schnellen Weiterleiten oft nicht geprüft, ob nicht in der dritten E-Mail von unten eine Information oder Bemerkung steht, die der neue Empfänger nicht haben soll. Sei es, weil ihn diese Information nichts angeht oder weil ihn die Bemerkung verletzten könnte. Ja, klar, man soll keine Beschimpfungen oder spitze Bemerkungen in E-Mails schreiben, weil diese eben Beine bekommen – aber nicht nur der Erstabsender, auch der Weiterleiter hat eine Verantwortung für das, was er weiterleitet. Besonders pikant kann das werden, wenn es sich hier um eine Zusammenarbeit mit Kunden oder Lieferanten, also über Firmengrenzen hinweg, handelt.3. Das Mail-Ping-PongDer Spezialfall der Kette ist das Mail-Ping-Pong. Sender und Empfänger schreiben sich die Finger wund mit mehreren Mails hin und her, um diffizile Sachverhalte zu klären, und erzeugen damit bei Anderen eine gewisse Wut und Verzweiflung. Warum nicht mal miteinander telefonieren? Da ist Rede und Gegenrede doch oft sehr schnell klärend.4. Die VermeidungssündenDer Sender der E-Mail im obigen Beispiel wollte eigenen Zeitaufwand für Zusammenfassung und Koordination vermeiden – aber das gelingt mit E-Mails nie. Probieren Sie es erst gar nicht. Wenn Zusammenfassungen nötig sind, schreiben Sie diese gleich und verschonen Sie Kollegen und Chefs mit den Primärmails aus Ihrem Team oder aus der Diskussion mit dem Einkauf.Richtig schlimm wird es, wenn viel beschäftigte Führungskräfte Entscheidungen per E-Mail treffen. Die Sachlage mag noch so klar erscheinen – das Thema wäre nicht auf Chef-Ebene gelandet, wenn es einfach gewesen wäre, denn dann hätte schon jemand anders entschieden. Es geht in der Regel um ein strittiges Thema und dafür ist es erforderlich, alle Seiten synchron in Rede und Gegenrede zu hören. Derjenige, der nicht gehört wurde oder dessen Argumente in der Mailkette untergegangen oder nicht verstanden wurden, ist demotiviert. Der vermeintliche Sieger wird damit auch nicht froh, wenn er den Kollegen zur weiteren Zusammenarbeit braucht – und vor allem: Die Entscheidung könnte suboptimal sein, wenn sie schon nicht falsch ist.Vermeiden von Verantwortung per E-Mail ist auch ein beliebtes Spiel. Allerdings hat auch dieses Spiel nur Verlierer. Wer immer mit möglichst großem Verteiler schreibt, erreicht damit nur, dass sich am Ende keiner mit dem Thema identifiziert und er selbst mit dem Thema doch allein bleibt. Es gibt zwar immer wieder Empfänger, die E-Mails beantworten, obwohl sie diese nur in Kopie erhalten haben, aber eigentlich ist ja nur der direkte Empfänger angesprochen. Der hat vielleicht wenig Lust, eine Mail-Konversation mit 20 Leuten zu führen.Gedankenlosigkeit, strukturelle Verantwortungslosigkeit und fehlendes Bewusstsein über das, was man kommunikativ anrichtet, mitunter auch mangelnde Ausbildung haben zu einer weitgehend verlotterten E-Mail-Kultur geführt. Besorgniserregend sind deshalb die typischen Krankheitszeichen für eine nicht mehr performante Organisation: “Ich bekomme so viele E-Mails, die kann ich nicht mehr alle lesen – geschweige denn beantworten. Ich warte, bis es so wichtig ist, dass man mich anruft oder das Thema in den Meetings behandelt wird.” Das ist zwar aus dem Blickwinkel des Betroffenen menschlich verständlich. Die Auswirkungen auf die Kultur und Motivation ist jedoch fatal, werden aber unterschätzt. Verantwortung für die Transparenz in jeglicher Art Ihrer Kommunikation stellt letztlich einen wesentlichen Wert im Umgang miteinander dar. Die Wertekultur gehört zu den immateriellen Werten im Unternehmen – ohne sie haben Sie bei allen Mitarbeitern, deren Kopf und Herz für die Ergebnisse des Unternehmens wichtig sind, einen schlechten Stand.5. Die Smartphone-SündenEin Smartphone, mit dem man unterwegs die E-Mails checkt, kann ein Instrument zur Performance-Verbesserung sein – oder ein Teufelsinstrument, das den Stress durch permanente Verfügbarkeit erhöht. Alle Fallen, die es in der E-Mail-Kommunikation gibt, sind hier genauso gegeben. Gesteigert wird dies durch den Wunsch des Absenders, schnell und kurz zu antworten. Hier treten Verkürzungen auf, die Missverständnisse höchst wahrscheinlich werden lassen, wenn nicht präzise darüber nachgedacht wird, was der Empfänger braucht, um die Antwort zu verstehen.Mailketten am Smartphone verstehen? Niemals!!! Sie müssen soviel scrollen, dass Sie sicher vorher aufgeben.Anlagen öffnen und lesen? Ja, da muss man schon sehr hart im Nehmen der Zumutungen sein.Die E-Mail der Chefin, die grade im Ausland ist, lautet: “Ja, klar “. Sie wissen, dass sie das am Smartphone geschrieben hat. Dummerweise fehlt die Bezugsmail. Sie zermartern sich den Kopf, welche Entscheidungsvorlage Sie ihr per E-Mail gesendet haben. Sie durchsuchen Ihre Mails. Das dauert lange. Irgendwann stolpern Sie über die E-Mail eines Kollegen, der sie als CC kopiert hatte und der die Chefin gefragt hat, ob er zum Monatsabschluss ausnahmsweise in den Urlaub gehen kann. Hier hat sich auch eingebürgert, auf die Großschreibung zu verzichten- weil das Umschalten recht mühsam ist. Das wird auch weitgehend zwischen Nutzern dieser Technik akzeptiert. Trotzdem muss man sich überlegen, an wen man schreibt. An den Kollegen, der weiß, dass man gerade in Japan am Flughafen steht und noch schnell vorm Einchecken antwortet? Oder an den CEO des eben gewonnenen Kunden?6. Die SMS-Sünde aka WhatsApp-SündeUnd für die SMS gilt genau wie für WhatsApp-Nachrichten: Ganz prima für kurze Mitteilungen (das erste S steht ja auch für short!) der Art: “Zug hat zwei Stunden Verspätung” oder “Bitte ruf mich dringend zurück wegen Angebot Schweiz”, aber ungeeignet für komplexere Sachverhalte im Geschäftsumfeld. Und bitte nicht die der Jugendsprache entnommenen Abkürzungen im Geschäftskontext verwenden! Wie Sie mit Ihren Freunden oder Kindern kommunizieren, steht ja auf einem anderen Blatt.E-Mail-Knigge im Intranet nützt nichtsNun haben etliche Firmen einen E-Mail-Knigge im Intranet. Die wenigsten Mitarbeiter kennen ihn allerdings. So nutzt er nichts, weil sich keiner daran hält. Und es hält sich niemand daran, weil gerade Führungskräfte mit schlechtem Beispiel vorangehen und deswegen Nichtbefolgen nicht sanktioniert wird. Das eigene Beispiel von oben aus der Hierarchie ist mächtiger als schön formulierte Regeln. Denn wie hat sich der Mailverkehr als das gängige Medium der Firmenkommunikation durchgesetzt? Indem der Chef über dieses Medium – und nur über dieses – zu seinen Besprechungen eingeladen hat.E-Mail-Kommunikation: Der Chef muss zum Vorbild werdenWenn Sie der Meinung sind, dass Transparenz in der Kommunikation die Effizienz und Effektivität in Ihrem Unternehmen deutlich fördert, Sie sich also verantwortlich für die Klarheit Ihrer E-Mails fühlen, begehen Sie alle aufgezählten Sünden nicht mehr. Überzeugen Sie Ihren Chef und Ihre Management-Kollegen, indem Sie (moderat) auf die Sünden der Kollegen reagieren – vor allem mit Ich-Botschaften über die Selbstoffenbarung des Senders und was sein Kommunikationsverhalten für die Wertschätzung der Beziehung bedeutet.Bezüglich Ihrer Mitarbeiter haben Sie durchaus die Möglichkeit, auf Sünden mit klarer Ansage zu reagieren – aber bitte unter vier Augen und Ohren. Das heißt, am besten nicht per E-Mail! Überzeugen Sie die Verantwortlichen in Ihrem Unternehmen, die Trainings durchführen, dass E-Mail-Kommunikation tatsächlich ein Thema für das Training von Mitarbeitern ist, vielleicht sogar im Rahmen von Wertediskussionen. Möglicherweise lässt sich auch Ihr CEO als mächtiger Sponsor gewinnen und verleiht dem Thema die nötige Wichtigkeit von ganz oben. Aber knirschen Sie weiter mit den Zähnen, wenn Ihre Kunden alle aufgezählten Sünden begehen – es sei denn, Sie sind der dafür bezahlte Kommunikationstrainer.Die größten E-Mail-ÄrgernisseSpam
Foto: Warren Price Photography – shutterstock.comEgal ob nigerianischer Prinz mit Kohle zu verschenken oder Versprechen von dramatischem Gewichtsverlust – Spam ist heutzutage unvermeidlich. Allerdings kann Spam auch die Tür zu Identitätsdiebstahl, Hacks und anderen Security-Desastern öffnen. Achten Sie also auf einen zuverlässigen Spam-Filter.Irrelevanz
Foto: Lightspring – shutterstock.comWieviele E-Mails erhalten Sie pro Tag? Selbst wenn es “nur” 50 pro Tag sind, dürften davon rund die Hälfte inhaltlich völlig irrelevant sein. Also: Denken Sie lieber zweimal nach, bevor Sie selbst den Senden-Button klicken und überlegen Sie auch, ob der Inhalt der Mail für jeden der Empfänger auch wirklich relevant ist. Romantischer Überschwang
Foto: Theo Gaitaneris – shutterstock.com“Beste Grüße”, “Verbindliche Grüße”, “MfG” sind als E-Mail-Abschiedsgruß für viele Menschen ein absoluter Abturn. Versuchen Sie also zu vermeiden, wie ein Charakter aus einer Schnulze aus dem 19. Jahrhundert zu klingen und lassen sie stattdessen ihre Nachricht und Interpunktion für sich sprechen. Wenn Sie einen Abschiedsgruß hinterlassen möchten, setzen Sie auf das altbewährte “Mit freundlichen Grüßen”. Ansonsten sagen Sie lieber nichts.Antwort-Lag
Foto: Billion Photos – shutterstock.comIst die E-Mail angekommen? Wie sieht es jetzt aus? Schon eine Stunde vergangen und immer noch keine Antwort? Nur weil eine E-Mail in Sekunden übertragen ist, heißt das nicht, dass eine Antwort auch auf dem Fuße folgt. Das empfinden viele Menschen als extrem frustrierend. Überflutung
Foto: Ribah – shutterstock.comAuf der anderen Seite kann eine E-Mail-Flut – und zwar noch bevor Sie überhaupt Gelegenheit hatten, zu lesen, zu verstehen und zu antworten – mindestens genauso viel ungenutztes Wut-Potential freischaufeln wie der Antwort-Lag. Bevor Sie also eine Armada an Einzeilern auf die virtuelle Reise schicken, sollten Sie sich überlegen, wie Sie alle Inhalte in eine E-Mail packen.Emoticons
Foto: ra2studio – shutterstock.comEin großer Nachteil der E-Mail ist, dass die Intentionen des Absenders durch das Fehlen von Gestik und Mimik beim Empfänger falsch ankommen kann. Es kann verlockend sein, diese emotionale Leere mit Emoticons aufzufüllen. Aber das sollten Sie nicht tun. Versuchen Sie stattdessen ihre Absichten so gut wie möglich in geschriebener Sprache auszudrücken.Rudel-Mails
Foto: bikeriderlondon – shutterstock.comSie arbeiten an einem Projekt und wollen allen Team-Mitgliedern ein Status-Update zukommen lassen? Geht klar. Auch wenn Sie eine Überraschungsparty für einen Kollegen zum Geburtstag planen und eine größere Gruppe darüber informieren möchten, ist dagegen nichts einzuwenden. Bevor Sie nun jedoch eine Gruppen-E-Mail verfassen, sollten Sie nach anderen Kommunikationswegen Ausschau halten – zum Beispiel Collaboration-Apps, Video-Chats, Online-Dokumente oder das gute, alte Face-to-Face-Meeting. Das kann unter Umständen nämlich wesentlich produktiver und effizienter sein, als eine E-Mail. Wenn Sie doch eine schicken, achten Sie darauf, dass im Adressfeld wirklich nur diejenigen Empfänger stehen, die auch eine wichtige Rolle innerhalb des Projekts/Anliegens einnehmen. Schreierei
Foto: Ollyy – shutterstock.comHalten Sie sich zurück, wenn es um die Verwendung von Ausrufezeichen geht. Schließlich wollen Sie doch nicht wie ein Marktschreier wirken oder schlimmer noch, dem Empfänger vermitteln, Sie wären wütend. Professionelle E-Mails sollten klar, sachlich und verständlich formuliert werden. Also ohne Ausrufezeichen (und ohne Versalien-Orgien).

Wahnsinn im Postfach: Die größten E-Mail-Sünden​ Weiterlesen »

Intel unter Tan: Das erwartet Unternehmen​

Allgemein

Die Ernennung des Halbleiter-Veteranen Lip-Bu Tan zum CEO markiert einen entscheidenden Moment für Intel und seine Unternehmenskunden. Intel Angesichts der wachsenden Konkurrenz durch AMD, ARM-basierte Chips und RISC-V-Alternativen steht Intel unter zunehmendem Druck, seine x86-Dominanz zu verteidigen.  Während viele Unternehmen weiterhin auf Intel für Rechenzentren, KI-Beschleunigung und PC-Deployments setzen, verändert sich die Landschaft:   AMD nimmt Intel Marktanteile bei x86 ab,   ARM expandiert in Rechenzentren und   Nvidia hat sich in der KI-Technologie einen Vorsprung erarbeitet.  Diese Herausforderungen haben Intel zugesetzt. Für IT-Entscheider in Unternehmen wird entscheidend sein, welche Strategie Lip-Bu Tan künftig als Intel-CEO verfolgt: Bleibt x86 eine verlässliche Investition, oder gewinnen alternative Architekturen an Bedeutung? Seine Entscheidung wird darüber mitbestimmen, wie wettbewerbsfähig Intel im sich schnell verändernden Unternehmensmarkt bleibt.  Zentrale Bedenken hinsichtlich x86  IT-Einkäufer fragen sich insbesondere, wie Tans Führung die langfristige Zukunft von x86-basierter Software und Infrastruktur beeinflussen wird. So gewinnen ARM-Prozessoren in Rechenzentren an Bedeutung, da Unternehmen wie Amazon Web Services und Microsoft eigene ARM-Chips entwickeln. Zudem verstärkt China die Förderung von RISC-V als alternative Architektur, was den Druck auf x86 erhöht.  Trotz dieser Herausforderungen sind Analysten optimistisch, dass x86 in der Unternehmens-IT weiterhin eine Schlüsselrolle spielen wird – vor allem aufgrund seines breit angelegten Ökosystems, der Softwarekompatibilität und der anhaltenden Dominanz bei traditionellen Workloads.  „Wir erwarten nicht, dass die Ernennung des neuen CEOs die Investitionen von Unternehmen in x86 wesentlich beeinflussen wird“, erklärt Raymond Paquet, Vice President Analyst bei Gartner. „Im Enterprise-PC-Geschäft dominiert x86 weiterhin den Markt, und Intel genießt große Markentreue. Im Bereich Unternehmensrechenzentren gibt es jedoch immer mehr Angriffe auf Intels installierte Basis durch Wettbewerber“, räumt der Analyst ein.  Danish Faruqui, CEO von Fab Economics, erwartet hingegen, dass Tan die bisherige Intel-Strategie zur Stärkung des x86-Ökosystems mit Branchenpartnern fortsetzen wird.  „Intels Umsatz basiert auf dem x86-Portfolio, daher bleibt die Investition in das x86-Ökosystem eine strategische Kernkompetenz. Intel und AMD werden den x86-Markt weiter bedienen und die Investitionen der Unternehmen in x86-basierte Software und Infrastruktur fördern.“, erklärt Faruqui.  Über x86 hinaus: Die Rolle der KI  Für Unternehmen stellt sich jedoch nicht nur die Frage, ob x86 an Bedeutung verliert, sondern auch, wie Intel x86 für eine KI-gesteuerte Welt weiterentwickeln wird.  „Wenn Tan x86 mit energieeffizienten Designs und KI-Beschleunigung neu erfindet, könnte es seine Relevanz bis weit ins nächste Jahrzehnt erhalten“, prognostiziert Abhishek Singh, Partner bei Everest Group. „Unternehmen, die ihre gesamte IT-Infrastruktur auf x86 aufgebaut haben – von Enterprise Software über Cloud-Workloads bis hin zu Rechenzentren –, könnten erleben, dass Intel mit wettbewerbsfähigeren Prozessoren wieder Fahrt aufnimmt.“  Es ist aber auch möglich, dass Tan Intels Fokus über x86 hinaus verlagert, indem er auf KI-Beschleuniger und modulare Rechenarchitekturen setzt.  „Dies wäre ein fundamentaler Strategiewechsel und könnte bedeuten, dass Intel sich auf eine Zukunft vorbereitet, in der Unternehmen verschiedene Rechenarchitekturen kombinieren, anstatt sich standardmäßig für x86 zu entscheiden“, meint Singh und fügt hinzu: „Das wahrscheinlichste Szenario liegt in der Mitte: Intel wird x86 mit KI-optimierten Funktionen modernisieren und gleichzeitig stärker in Beschleuniger und alternative Architekturen investieren.“  Manish Rawat, Halbleiteranalyst bei TechInsights, ist ähnlicher Meinung. Sie erwartet, dass Tan durch strategische Übernahmen und Partnerschaften mit KI- und Cloud-Startups ein integriertes Ökosystem aufbaut. Dadurch könnte Intel über klassische Siliziumchips hinaus in End-to-End-Unternehmenslösungen expandieren.  Eine solche Strategie würde es Unternehmen ermöglichen, kurzfristig weiter in x86 zu investieren und parallel langfristig Übergänge zu neuen Architekturen zu planen.  Diskrete GPUs und KI-Beschleunigung  „Unter Tans Führung wird Intel voraussichtlich den Fokus auf KI-Beschleunigung innerhalb seiner Prozessoren verstärken, wobei der Fokus eher auf Inferenz-Anwendungen als auf KI-Training liegt“, schätzt Fab-Economics-CEO Faruqui. Ein solcher Ansatz ziele darauf ab, mit AMD zu konkurrieren, während ein direkter Wettkampf mit Nvidia vermieden werde.  Intels Ambitionen im Bereich diskreter GPUs – insbesondere im Bereich Enterprise AI – wirkten bislang oft reaktiv und nicht so, als wären sie Teil einer klaren strategischen Vision. Das Unternehmen trat spät in diesen Markt ein und sah sich der Dominanz von Nvidias CUDA-Ökosystem sowie AMDs aggressivem Vorstoß in KI-GPUs gegenüber.  „Tans Hintergrund deutet darauf hin, dass er nicht um jeden Preis auf diskrete GPUs setzen wird“, analysiert Singh. „Er versteht, dass der wahre KI-Wettbewerb nicht nur auf GPUs beschränkt ist, sondern sich um KI-zentrierte Rechenarchitekturen dreht. Unternehmen, die in der KI-Computing-Welt erfolgreich sind, integrieren KI-Funktionen in ihr gesamtes Silizium, nicht nur in eine dedizierte GPU-Linie.“  Intel hat bereits begonnen, KI-Beschleunigung in seine CPUs zu integrieren – ein Ansatz, den Singh mit Blick auf den neuen Intel-CEO für wahrscheinlich hält. Anstatt Nvidia nachzueifern, könnte Intel KI-Funktionen direkt in CPUs und andere Prozessoren einbetten, um Unternehmen eine skalierbare KI-Lösung zu bieten, ohne eine komplette GPU-Architektur neu zu entwickeln, meint er.  Dennoch werden diskrete GPUs laut Singh nicht völlig verschwinden. „Bestimmte Workloads erfordern weiterhin dedizierte KI-Prozessoren, und Intel wird diesen Bereich nicht völlig aufgeben. Aber unter Tan wird Intel KI-Computing als Ganzes priorisieren, anstatt sich ausschließlich auf den GPU-Wettbewerb mit Nvidia zu konzentrieren.“  Was IT-Einkäufer erwarten können  Analysten sind sich einig, dass Intels Server-Roadmap bis 2025 feststeht und kurzfristig keine größeren Änderungen unter Tan zu erwarten sind. Große Neuausrichtungen bei Server- und High-End-Produkten erfordern Zeit, weshalb kurzfristige Umstellungen unwahrscheinlich sind.  „Langfristig, zwischen 2026 und 2028, erwarten wir jedoch größere Umstrukturierungen in Intels Server- und PC-Strategie, die auf KI-Computing und den AI-PC-Markt ausgerichtet sind“, erklärt Faruqui. Dies werde auf den Intel-18A-Derivaten basieren und gezielte Partnerschaften erfordern, um wettbewerbsfähige Produkte sicherzustellen.  Intel steht vor einer zentralen Herausforderung: Es muss seine bestehende x86-Basis unterstützen, während es sich an eine Zukunft mit KI-zentriertem Computing und alternativen Architekturen anpasst.  Singh geht davon aus, dass Tan einen modulareren und KI-getriebenen Ansatz für Intels Server-Strategie verfolgen wird, was Folgendes umfassen könnte:  Hybride Rechenmodelle, in denen x86 weiter existiert, aber KI-Beschleunigung eine größere Rolle spielt.  Schnellere Produktzyklen, um agiler auf Marktveränderungen zu reagieren.  Mögliche Restrukturierungen, um klarere Unterscheidungen zwischen KI-Produkten und klassischen x86-Angeboten zu schaffen.  „Eine große Frage ist, ob Tan Intel näher an eine ARM/RISC-V-Zukunft für Rechenzentren heranführen wird“, fügt der Everest-Analyst hinzu. „Es ist zwar unwahrscheinlich, dass Intel x86 aufgeben wird, aber es ist möglich, dass das Unternehmen hybride Architekturen erforscht, die Elemente von ARM oder RISC-V für bestimmte Workloads enthalten.“  Rawat wies auch darauf hin, dass Intels Strategie unter Tan wahrscheinlich Investitionen in die Lieferkette und stärkere Foundry-Partnerschaften beinhalten wird, um die Belastbarkeit der Fertigung zu verbessern. Diese Änderungen könnten zwar zu kurzfristigen Produktionsanpassungen führen, er erwartet jedoch, dass sie langfristig für berechenbarere Lieferketten sorgen werden.  Für die IT-Einkäufer in den Unternehmen ist die zentrale Erkenntnis: Kontinuität vor Disruption. Die x86-Architektur wird weiterhin im Mittelpunkt stehen, aber es wird erwartet, dass Intel einen diversifizierteren, KI-integrierten Ansatz für das Server-Computing verfolgen wird.   IT-Entscheider, die langfristige Infrastrukturinvestitionen planen, sollten Intels Schritte beobachten – nicht nur bei den CPUs, sondern in seinem gesamten KI-gesteuerten Compute-Stack. (mb)  

Intel unter Tan: Das erwartet Unternehmen​ Die Ernennung des Halbleiter-Veteranen Lip-Bu Tan zum CEO markiert einen entscheidenden Moment für Intel und seine Unternehmenskunden. Intel

Angesichts der wachsenden Konkurrenz durch AMD, ARM-basierte Chips und RISC-V-Alternativen steht Intel unter zunehmendem Druck, seine x86-Dominanz zu verteidigen. 

Während viele Unternehmen weiterhin auf Intel für Rechenzentren, KI-Beschleunigung und PC-Deployments setzen, verändert sich die Landschaft:  

AMD nimmt Intel Marktanteile bei x86 ab,  

ARM expandiert in Rechenzentren und  

Nvidia hat sich in der KI-Technologie einen Vorsprung erarbeitet. 

Diese Herausforderungen haben Intel zugesetzt. Für IT-Entscheider in Unternehmen wird entscheidend sein, welche Strategie Lip-Bu Tan künftig als Intel-CEO verfolgt: Bleibt x86 eine verlässliche Investition, oder gewinnen alternative Architekturen an Bedeutung? Seine Entscheidung wird darüber mitbestimmen, wie wettbewerbsfähig Intel im sich schnell verändernden Unternehmensmarkt bleibt. 

Zentrale Bedenken hinsichtlich x86 

IT-Einkäufer fragen sich insbesondere, wie Tans Führung die langfristige Zukunft von x86-basierter Software und Infrastruktur beeinflussen wird. So gewinnen ARM-Prozessoren in Rechenzentren an Bedeutung, da Unternehmen wie Amazon Web Services und Microsoft eigene ARM-Chips entwickeln. Zudem verstärkt China die Förderung von RISC-V als alternative Architektur, was den Druck auf x86 erhöht. 

Trotz dieser Herausforderungen sind Analysten optimistisch, dass x86 in der Unternehmens-IT weiterhin eine Schlüsselrolle spielen wird – vor allem aufgrund seines breit angelegten Ökosystems, der Softwarekompatibilität und der anhaltenden Dominanz bei traditionellen Workloads. 

„Wir erwarten nicht, dass die Ernennung des neuen CEOs die Investitionen von Unternehmen in x86 wesentlich beeinflussen wird“, erklärt Raymond Paquet, Vice President Analyst bei Gartner. „Im Enterprise-PC-Geschäft dominiert x86 weiterhin den Markt, und Intel genießt große Markentreue. Im Bereich Unternehmensrechenzentren gibt es jedoch immer mehr Angriffe auf Intels installierte Basis durch Wettbewerber“, räumt der Analyst ein. 

Danish Faruqui, CEO von Fab Economics, erwartet hingegen, dass Tan die bisherige Intel-Strategie zur Stärkung des x86-Ökosystems mit Branchenpartnern fortsetzen wird. 

„Intels Umsatz basiert auf dem x86-Portfolio, daher bleibt die Investition in das x86-Ökosystem eine strategische Kernkompetenz. Intel und AMD werden den x86-Markt weiter bedienen und die Investitionen der Unternehmen in x86-basierte Software und Infrastruktur fördern.“, erklärt Faruqui. 

Über x86 hinaus: Die Rolle der KI 

Für Unternehmen stellt sich jedoch nicht nur die Frage, ob x86 an Bedeutung verliert, sondern auch, wie Intel x86 für eine KI-gesteuerte Welt weiterentwickeln wird. 

„Wenn Tan x86 mit energieeffizienten Designs und KI-Beschleunigung neu erfindet, könnte es seine Relevanz bis weit ins nächste Jahrzehnt erhalten“, prognostiziert Abhishek Singh, Partner bei Everest Group. „Unternehmen, die ihre gesamte IT-Infrastruktur auf x86 aufgebaut haben – von Enterprise Software über Cloud-Workloads bis hin zu Rechenzentren –, könnten erleben, dass Intel mit wettbewerbsfähigeren Prozessoren wieder Fahrt aufnimmt.“ 

Es ist aber auch möglich, dass Tan Intels Fokus über x86 hinaus verlagert, indem er auf KI-Beschleuniger und modulare Rechenarchitekturen setzt. 

„Dies wäre ein fundamentaler Strategiewechsel und könnte bedeuten, dass Intel sich auf eine Zukunft vorbereitet, in der Unternehmen verschiedene Rechenarchitekturen kombinieren, anstatt sich standardmäßig für x86 zu entscheiden“, meint Singh und fügt hinzu: „Das wahrscheinlichste Szenario liegt in der Mitte: Intel wird x86 mit KI-optimierten Funktionen modernisieren und gleichzeitig stärker in Beschleuniger und alternative Architekturen investieren.“ 

Manish Rawat, Halbleiteranalyst bei TechInsights, ist ähnlicher Meinung. Sie erwartet, dass Tan durch strategische Übernahmen und Partnerschaften mit KI- und Cloud-Startups ein integriertes Ökosystem aufbaut. Dadurch könnte Intel über klassische Siliziumchips hinaus in End-to-End-Unternehmenslösungen expandieren. 

Eine solche Strategie würde es Unternehmen ermöglichen, kurzfristig weiter in x86 zu investieren und parallel langfristig Übergänge zu neuen Architekturen zu planen. 

Diskrete GPUs und KI-Beschleunigung 

„Unter Tans Führung wird Intel voraussichtlich den Fokus auf KI-Beschleunigung innerhalb seiner Prozessoren verstärken, wobei der Fokus eher auf Inferenz-Anwendungen als auf KI-Training liegt“, schätzt Fab-Economics-CEO Faruqui. Ein solcher Ansatz ziele darauf ab, mit AMD zu konkurrieren, während ein direkter Wettkampf mit Nvidia vermieden werde. 

Intels Ambitionen im Bereich diskreter GPUs – insbesondere im Bereich Enterprise AI – wirkten bislang oft reaktiv und nicht so, als wären sie Teil einer klaren strategischen Vision. Das Unternehmen trat spät in diesen Markt ein und sah sich der Dominanz von Nvidias CUDA-Ökosystem sowie AMDs aggressivem Vorstoß in KI-GPUs gegenüber. 

„Tans Hintergrund deutet darauf hin, dass er nicht um jeden Preis auf diskrete GPUs setzen wird“, analysiert Singh. „Er versteht, dass der wahre KI-Wettbewerb nicht nur auf GPUs beschränkt ist, sondern sich um KI-zentrierte Rechenarchitekturen dreht. Unternehmen, die in der KI-Computing-Welt erfolgreich sind, integrieren KI-Funktionen in ihr gesamtes Silizium, nicht nur in eine dedizierte GPU-Linie.“ 

Intel hat bereits begonnen, KI-Beschleunigung in seine CPUs zu integrieren – ein Ansatz, den Singh mit Blick auf den neuen Intel-CEO für wahrscheinlich hält. Anstatt Nvidia nachzueifern, könnte Intel KI-Funktionen direkt in CPUs und andere Prozessoren einbetten, um Unternehmen eine skalierbare KI-Lösung zu bieten, ohne eine komplette GPU-Architektur neu zu entwickeln, meint er. 

Dennoch werden diskrete GPUs laut Singh nicht völlig verschwinden. „Bestimmte Workloads erfordern weiterhin dedizierte KI-Prozessoren, und Intel wird diesen Bereich nicht völlig aufgeben. Aber unter Tan wird Intel KI-Computing als Ganzes priorisieren, anstatt sich ausschließlich auf den GPU-Wettbewerb mit Nvidia zu konzentrieren.“ 

Was IT-Einkäufer erwarten können 

Analysten sind sich einig, dass Intels Server-Roadmap bis 2025 feststeht und kurzfristig keine größeren Änderungen unter Tan zu erwarten sind. Große Neuausrichtungen bei Server- und High-End-Produkten erfordern Zeit, weshalb kurzfristige Umstellungen unwahrscheinlich sind. 

„Langfristig, zwischen 2026 und 2028, erwarten wir jedoch größere Umstrukturierungen in Intels Server- und PC-Strategie, die auf KI-Computing und den AI-PC-Markt ausgerichtet sind“, erklärt Faruqui. Dies werde auf den Intel-18A-Derivaten basieren und gezielte Partnerschaften erfordern, um wettbewerbsfähige Produkte sicherzustellen. 

Intel steht vor einer zentralen Herausforderung: Es muss seine bestehende x86-Basis unterstützen, während es sich an eine Zukunft mit KI-zentriertem Computing und alternativen Architekturen anpasst. 

Singh geht davon aus, dass Tan einen modulareren und KI-getriebenen Ansatz für Intels Server-Strategie verfolgen wird, was Folgendes umfassen könnte: 

Hybride Rechenmodelle, in denen x86 weiter existiert, aber KI-Beschleunigung eine größere Rolle spielt. 

Schnellere Produktzyklen, um agiler auf Marktveränderungen zu reagieren. 

Mögliche Restrukturierungen, um klarere Unterscheidungen zwischen KI-Produkten und klassischen x86-Angeboten zu schaffen. 

„Eine große Frage ist, ob Tan Intel näher an eine ARM/RISC-V-Zukunft für Rechenzentren heranführen wird“, fügt der Everest-Analyst hinzu. „Es ist zwar unwahrscheinlich, dass Intel x86 aufgeben wird, aber es ist möglich, dass das Unternehmen hybride Architekturen erforscht, die Elemente von ARM oder RISC-V für bestimmte Workloads enthalten.“ 

Rawat wies auch darauf hin, dass Intels Strategie unter Tan wahrscheinlich Investitionen in die Lieferkette und stärkere Foundry-Partnerschaften beinhalten wird, um die Belastbarkeit der Fertigung zu verbessern. Diese Änderungen könnten zwar zu kurzfristigen Produktionsanpassungen führen, er erwartet jedoch, dass sie langfristig für berechenbarere Lieferketten sorgen werden. 

Für die IT-Einkäufer in den Unternehmen ist die zentrale Erkenntnis: Kontinuität vor Disruption. Die x86-Architektur wird weiterhin im Mittelpunkt stehen, aber es wird erwartet, dass Intel einen diversifizierteren, KI-integrierten Ansatz für das Server-Computing verfolgen wird.  

IT-Entscheider, die langfristige Infrastrukturinvestitionen planen, sollten Intels Schritte beobachten – nicht nur bei den CPUs, sondern in seinem gesamten KI-gesteuerten Compute-Stack. (mb) 

Intel unter Tan: Das erwartet Unternehmen​ Weiterlesen »

Ist KI-Washing das neue Greenwashing?​

Allgemein

Mogelpackung AI – nach Greenwashing treten immer mehr Fälle von KI-Washing auf. Anggalih Prasetya – shutterstock.com Das Problem des Greenwashing ist hinlänglich bekannt: Unternehmen versuchen, sich ein „Nachhaltigkeits-Mäntelchen“ umzuhängen, um ihre Produkte als vermeintlich „grün“ besser vermarkten zu können. Dies scheint mittlerweile auch, so die Academic Society for Artificial Intelligence, für KI zu gelten. KI scheint in dieser Hinsicht das neue „öko“ geworden zu sein. Jetzt also auch AI Washing? Das ist für die Studiengesellschaft eigentlich nicht verwunderlich. Denn das Thema Künstliche Intelligenz ist nicht erst seit ChatGPT in aller Munde. Der Chatbot darf allerdings als Maßstab dafür gelten, wie weit KI bereits in unseren Alltag Einzug gehalten hat. Etikettenschwindel Smarte Geräte zur Automatisierung daheim, die persönlichen Fitness-Tracker, Navigationssysteme, moderne Handys – all das sind Beispiele für Produkte, die ohne KI nicht so leistungsfähig wären, wie wir dies inzwischen gewöhnt sind. Da liegt es nahe, dass auch Hersteller ihre Produkte gern mit dem Attribut KI bewerben, um diese so in den Augen der Konsumenten aufzuwerten. Leider trifft dies der Academic Society zufolge auch auf Angebote zu, bei denen die KI nur in den Werbetexten vorkommt. So stellt Rechtsanwalt Daniel Huber von der Kanzlei IT-Recht fest, dass die Werbung bei erstaunlich vielen Produkten suggeriert, dass sie KI enthalte. Und das, obwohl man sich das aufgrund der Art des Produktes manchmal gar nicht so recht vorstellen könne. Er geht davon aus, dass bei genauer Betrachtung in Wirklichkeit nicht in jedem der so beworbenen Produkte KI im eigentlichen Sinne enthalten ist. Die rechtliche Seite Doch das KI-Washing ist nicht ungefährlich. Schnell kann es sich hierbei um einen Verstoß gegen das Gesetz gegen den unlauteren Wettbewerb (UWG) handeln. Laut Anwalt Huber liegt ein Verstoß gegen das Gesetz vor, wenn eine irreführende geschäftliche Handlung dazu führt, dass Verbraucher oder sonstige Marktteilnehmer eine Kaufentscheidung treffen, die sie andernfalls nicht getroffen hätten. Bislang sind jedoch noch kaum Fälle bekannt, in denen irreführend Werbeaussagen zu KI hierzulande rechtliche Konsequenzen nach sich gezogen hätten. Anders sieht es in den USA aus. Dort ermittelt die Federal Trade Commission (FTC), die gegen unlautere und täuschende Geschäftspraktiken vorgeht, nach Angaben des Wirtschaftsmagazins Capital bereits wegen unlauterer und täuschender Geschäftspraktiken. Erste KI-Washing-Verfahren in den USA So unter anderem gegen einen Betreiber von Onlineshops, der seine Produkte als „powered by AI“ bewarb, obwohl der tatsächliche Mehrwert durch KI in diesen Produkten begrenzt gewesen sein soll. Ähnlich gehe die US-Börsenaufsicht SEC gegen Anlageberater vor, die fälschlicherweise behaupteten, ihre Investmententscheidungen würden größtenteils durch KI gesteuert, wie das Wirtschaftsmagazin weiter berichtet. Experten weisen in dem Zusammenhang zudem auf die Strafzahlungen hin, die bei nachgewiesenem KI-Washing fällig werden können. So ermöglich es die neue EU-KI-Verordnung der Bundesnetzagentur, bei groben Verstößen empfindliche Bußgelder zu verhängen. Die Rede ist immerhin von bis zu sieben Prozent des weltweiten Jahresumsatzes oder 35 Millionen Euro. Unabhängig von den drohenden Strafen sollten Unternehmen noch einen anderen Aspekt im Zusammenhang mit KI-Washing beachten: Den drohenden Reputationsverlust durch enttäuschte Kunden und Nutzer. 

Ist KI-Washing das neue Greenwashing?​ Mogelpackung AI – nach Greenwashing treten immer mehr Fälle von KI-Washing auf.
Anggalih Prasetya – shutterstock.com

Das Problem des Greenwashing ist hinlänglich bekannt: Unternehmen versuchen, sich ein „Nachhaltigkeits-Mäntelchen“ umzuhängen, um ihre Produkte als vermeintlich „grün“ besser vermarkten zu können. Dies scheint mittlerweile auch, so die Academic Society for Artificial Intelligence, für KI zu gelten. KI scheint in dieser Hinsicht das neue „öko“ geworden zu sein.

Jetzt also auch AI Washing? Das ist für die Studiengesellschaft eigentlich nicht verwunderlich. Denn das Thema Künstliche Intelligenz ist nicht erst seit ChatGPT in aller Munde. Der Chatbot darf allerdings als Maßstab dafür gelten, wie weit KI bereits in unseren Alltag Einzug gehalten hat.

Etikettenschwindel

Smarte Geräte zur Automatisierung daheim, die persönlichen Fitness-Tracker, Navigationssysteme, moderne Handys – all das sind Beispiele für Produkte, die ohne KI nicht so leistungsfähig wären, wie wir dies inzwischen gewöhnt sind. Da liegt es nahe, dass auch Hersteller ihre Produkte gern mit dem Attribut KI bewerben, um diese so in den Augen der Konsumenten aufzuwerten. Leider trifft dies der Academic Society zufolge auch auf Angebote zu, bei denen die KI nur in den Werbetexten vorkommt.

So stellt Rechtsanwalt Daniel Huber von der Kanzlei IT-Recht fest, dass die Werbung bei erstaunlich vielen Produkten suggeriert, dass sie KI enthalte. Und das, obwohl man sich das aufgrund der Art des Produktes manchmal gar nicht so recht vorstellen könne. Er geht davon aus, dass bei genauer Betrachtung in Wirklichkeit nicht in jedem der so beworbenen Produkte KI im eigentlichen Sinne enthalten ist.

Die rechtliche Seite

Doch das KI-Washing ist nicht ungefährlich. Schnell kann es sich hierbei um einen Verstoß gegen das Gesetz gegen den unlauteren Wettbewerb (UWG) handeln. Laut Anwalt Huber liegt ein Verstoß gegen das Gesetz vor, wenn eine irreführende geschäftliche Handlung dazu führt, dass Verbraucher oder sonstige Marktteilnehmer eine Kaufentscheidung treffen, die sie andernfalls nicht getroffen hätten.

Bislang sind jedoch noch kaum Fälle bekannt, in denen irreführend Werbeaussagen zu KI hierzulande rechtliche Konsequenzen nach sich gezogen hätten. Anders sieht es in den USA aus. Dort ermittelt die Federal Trade Commission (FTC), die gegen unlautere und täuschende Geschäftspraktiken vorgeht, nach Angaben des Wirtschaftsmagazins Capital bereits wegen unlauterer und täuschender Geschäftspraktiken.

Erste KI-Washing-Verfahren in den USA

So unter anderem gegen einen Betreiber von Onlineshops, der seine Produkte als „powered by AI“ bewarb, obwohl der tatsächliche Mehrwert durch KI in diesen Produkten begrenzt gewesen sein soll. Ähnlich gehe die US-Börsenaufsicht SEC gegen Anlageberater vor, die fälschlicherweise behaupteten, ihre Investmententscheidungen würden größtenteils durch KI gesteuert, wie das Wirtschaftsmagazin weiter berichtet.

Experten weisen in dem Zusammenhang zudem auf die Strafzahlungen hin, die bei nachgewiesenem KI-Washing fällig werden können. So ermöglich es die neue EU-KI-Verordnung der Bundesnetzagentur, bei groben Verstößen empfindliche Bußgelder zu verhängen. Die Rede ist immerhin von bis zu sieben Prozent des weltweiten Jahresumsatzes oder 35 Millionen Euro.

Unabhängig von den drohenden Strafen sollten Unternehmen noch einen anderen Aspekt im Zusammenhang mit KI-Washing beachten: Den drohenden Reputationsverlust durch enttäuschte Kunden und Nutzer.

Ist KI-Washing das neue Greenwashing?​ Weiterlesen »

ServiceNow’s Yokohama-Release fokussiert sich auf KI-Agenten​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?quality=50&strip=all 5427w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit den in Xanadu vorgestellten KI-gestützten Self-Service-Vertriebsportalen dringt ServiceNow in (bislang) angestammtes Salesforce-Territorium ein.JHVEPhoto – shutterstock.com Aufbauend auf den KI-gesteuerten Erweiterungen von 2024, einschließlich der mit dem Xanadu-Release im November vorgestellten KI-Agenten, umfasst Yokohama nun Teams von vorkonfigurierten KI-Agenten, die laut ServiceNow „vom ersten Tag an Produktivität und vorhersehbare Ergebnisse auf einer einzigen Plattform liefern“. Dazu gehören:  KI-Agenten für Sicherheitsprozesse (SecOps), die den gesamten Lebenszyklus von Sicherheitsvorfällen verschlanken, repetitive Aufgaben eliminieren und SecOps-Teams in die Lage versetzen, echte Bedrohungen schneller abzuwehren.  Autonome KI-Agenten für das Änderungsmanagement, die, so ServiceNow, „wie ein erfahrener Change Manager agieren und durch die Analyse der Auswirkungen, historischer Daten und ähnlicher Änderungen sofort benutzerdefinierte Implementierungs-, Test- und Backout-Pläne erstellen.“  KI-Agenten für proaktive Netzwerktests und -reparatur, die als KI-gestützte Troubleshooter fungieren und Netzwerkprobleme automatisch erkennen, diagnostizieren und beheben, bevor sie die Leistung beeinträchtigen.  Darüber hinaus ermöglicht das neue ServiceNow AI Agent Studio No-Code/Low-Code-Entwicklern, ihre eigenen KI-Agenten zu erstellen, zu verwalten und zu überwachen sowie Agenten miteinander zu verknüpfen, um Automatisierungs-Workflows zu erstellen. Sowohl das Studio als auch der bereits angekündigte AI Agent Orchestrator sind jetzt allgemein verfügbar.  Die KI wird von der Workflow Data Fabric gespeist, die eine vollständig verwaltete, unternehmensweite Datenkonnektivität bietet.  Zu den weiteren neuen Funktionen in Yokohama gehören   neue generative KI-gestützte Fähigkeiten, die Entwicklern helfen, ihre Agenten schneller zu testen, zu optimieren und bereitzustellen,   RPA Bot Generation, um Bots mithilfe natürlicher Sprache zu erstellen,  App Summarization, um KI-generierte Zusammenfassungen zu App-Beschreibungen zu erstellen, und   die Generierung von Automated Test Framework (ATF) für Testszenarien.  „Mit dieser Version definieren wir die Arbeitsweise von KI-Agenten neu, verbessern unsere Workflows und integrieren Echtzeitdaten, erhöhen die Geschäftskonnektivität und verbessern das Kundenerlebnis“, erklärte Amy Lokey, EVP und Chief Experience Officer, während eines Medienbriefings. Sie hob zwei weitere neue Funktionen hervor: Service Observability und Self-Service-Portale.  „Service Observability bedeutet ein System, vollständige Transparenz“, erläuterte sie: „Unternehmen jonglieren mit Dutzenden von Überwachungs- und Beobachtungs-Tools – wir vereinheitlichen sie zu einer Single Source of Truth.“ Dabei zeigten KI-gesteuerte Insights die Ursachen schneller auf, bewerteten die Auswirkungen auf das Geschäft und lösten Probleme, bevor sie eskalieren.   Die Self-Service-Verkaufs- und Auftragsverwaltungsportale ermöglichen es Kunden wiederum, Bestellungen aufzugeben, Produkte zu konfigurieren und den Status zu verfolgen, ohne dazu einen Vertriebs- oder Supportmitarbeiter zu benötigen.  ServiceNow rückt Salesforce auf die Pelle Wie Scott Bickley, Advisory Fellow bei der Info-Tech Research Group, feststellte, sieht ServiceNow hier eine ähnliche Chance wie Oracle, das unbeabsichtigt die erste Welle der Public Cloud verpasste und dann in der Lage war, aus den Erfahrungen der ersten Welle von Hyperscalern zu lernen.  „Im Legacy-Universum von Salesforce gibt es möglicherweise Kunden, die hoch konfigurierte Systeme haben, die nicht optimal funktionieren, und deren Daten im Laufe der Zeit nicht gepflegt und bereinigt wurden“, erklärte er. Diesen könnte ServiceNow nun einen Neuanfang anbieten: „Mit uns können Sie einige Funktionen überspringen, für die Sie in einem Altsystem Jahre brauchen würden, um sie neu zu konfigurieren und neu zu gestalten.“   Service Observability wiederum sei ein Anwendungsfall, der für KI wie geschaffen ist, bemerkte Bickley. Sie könne Signale untersuchen, die in der Regel standardisiert sind, und feststellen, ob es Anomalien gibt.  „Anschließend ist es ziemlich einfach, Regeln dafür aufzustellen, wo Abweichungen angezeigt werden sollen, und dann die wahrscheinlichen Gründe für diese Abweichungen zu ermitteln und sogar eine automatische Ursachenanalyse zu erstellen“, so der Analyst. ServiceNow habe auch ein einzigartiges Wertversprechen, indem es zum Beispiel sein IT Operations Management (ITOM) und seine Vertriebs- und Auftragsplanung für Anwendungsfälle im Bereich der Betriebstechnologie miteinander verknüpft. Salesforce verfüge nicht über diese Möglichkeit.  Allerdings, so fügte er hinzu, sollten die Kunden klein anfangen. „Kunden müssen wirklich einen vorsichtigen und gut durchdachten Ansatz in Betracht ziehen, wie sie diese Technologien bewerten und einsetzen wollen“, so Bickley. Wenn man das Werbematerial liest, habe man den Eindruck, dass die Technologie heute schon einsatzbereit sei. Die Kunden würden aber erst dann einen gewissen Nutzen daraus ziehen, wenn Dinge wie Datenmanagement, saubere Prozesse, gut definierte Anwendungsfälle und interne, funktionsübergreifende Teams, die diese Szenarien zum Leben erwecken können, vorhanden sind.   „Aber in den meisten Fällen müssen die Unternehmen erst darauf hinarbeiten“, hält Bickley fest. (mb)  

ServiceNow’s Yokohama-Release fokussiert sich auf KI-Agenten​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?quality=50&strip=all 5427w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/sn-hq-shutterstock.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit den in Xanadu vorgestellten KI-gestützten Self-Service-Vertriebsportalen dringt ServiceNow in (bislang) angestammtes Salesforce-Territorium ein.JHVEPhoto – shutterstock.com

Aufbauend auf den KI-gesteuerten Erweiterungen von 2024, einschließlich der mit dem Xanadu-Release im November vorgestellten KI-Agenten, umfasst Yokohama nun Teams von vorkonfigurierten KI-Agenten, die laut ServiceNow „vom ersten Tag an Produktivität und vorhersehbare Ergebnisse auf einer einzigen Plattform liefern“. Dazu gehören: 

KI-Agenten für Sicherheitsprozesse (SecOps), die den gesamten Lebenszyklus von Sicherheitsvorfällen verschlanken, repetitive Aufgaben eliminieren und SecOps-Teams in die Lage versetzen, echte Bedrohungen schneller abzuwehren. 

Autonome KI-Agenten für das Änderungsmanagement, die, so ServiceNow, „wie ein erfahrener Change Manager agieren und durch die Analyse der Auswirkungen, historischer Daten und ähnlicher Änderungen sofort benutzerdefinierte Implementierungs-, Test- und Backout-Pläne erstellen.“ 

KI-Agenten für proaktive Netzwerktests und -reparatur, die als KI-gestützte Troubleshooter fungieren und Netzwerkprobleme automatisch erkennen, diagnostizieren und beheben, bevor sie die Leistung beeinträchtigen. 

Darüber hinaus ermöglicht das neue ServiceNow AI Agent Studio No-Code/Low-Code-Entwicklern, ihre eigenen KI-Agenten zu erstellen, zu verwalten und zu überwachen sowie Agenten miteinander zu verknüpfen, um Automatisierungs-Workflows zu erstellen. Sowohl das Studio als auch der bereits angekündigte AI Agent Orchestrator sind jetzt allgemein verfügbar. 

Die KI wird von der Workflow Data Fabric gespeist, die eine vollständig verwaltete, unternehmensweite Datenkonnektivität bietet. 

Zu den weiteren neuen Funktionen in Yokohama gehören  

neue generative KI-gestützte Fähigkeiten, die Entwicklern helfen, ihre Agenten schneller zu testen, zu optimieren und bereitzustellen,  

RPA Bot Generation, um Bots mithilfe natürlicher Sprache zu erstellen, 

App Summarization, um KI-generierte Zusammenfassungen zu App-Beschreibungen zu erstellen, und  

die Generierung von Automated Test Framework (ATF) für Testszenarien. 

„Mit dieser Version definieren wir die Arbeitsweise von KI-Agenten neu, verbessern unsere Workflows und integrieren Echtzeitdaten, erhöhen die Geschäftskonnektivität und verbessern das Kundenerlebnis“, erklärte Amy Lokey, EVP und Chief Experience Officer, während eines Medienbriefings. Sie hob zwei weitere neue Funktionen hervor: Service Observability und Self-Service-Portale. 

„Service Observability bedeutet ein System, vollständige Transparenz“, erläuterte sie: „Unternehmen jonglieren mit Dutzenden von Überwachungs- und Beobachtungs-Tools – wir vereinheitlichen sie zu einer Single Source of Truth.“ Dabei zeigten KI-gesteuerte Insights die Ursachen schneller auf, bewerteten die Auswirkungen auf das Geschäft und lösten Probleme, bevor sie eskalieren.  

Die Self-Service-Verkaufs- und Auftragsverwaltungsportale ermöglichen es Kunden wiederum, Bestellungen aufzugeben, Produkte zu konfigurieren und den Status zu verfolgen, ohne dazu einen Vertriebs- oder Supportmitarbeiter zu benötigen. 

ServiceNow rückt Salesforce auf die Pelle

Wie Scott Bickley, Advisory Fellow bei der Info-Tech Research Group, feststellte, sieht ServiceNow hier eine ähnliche Chance wie Oracle, das unbeabsichtigt die erste Welle der Public Cloud verpasste und dann in der Lage war, aus den Erfahrungen der ersten Welle von Hyperscalern zu lernen. 

„Im Legacy-Universum von Salesforce gibt es möglicherweise Kunden, die hoch konfigurierte Systeme haben, die nicht optimal funktionieren, und deren Daten im Laufe der Zeit nicht gepflegt und bereinigt wurden“, erklärte er. Diesen könnte ServiceNow nun einen Neuanfang anbieten: „Mit uns können Sie einige Funktionen überspringen, für die Sie in einem Altsystem Jahre brauchen würden, um sie neu zu konfigurieren und neu zu gestalten.“  

Service Observability wiederum sei ein Anwendungsfall, der für KI wie geschaffen ist, bemerkte Bickley. Sie könne Signale untersuchen, die in der Regel standardisiert sind, und feststellen, ob es Anomalien gibt. 

„Anschließend ist es ziemlich einfach, Regeln dafür aufzustellen, wo Abweichungen angezeigt werden sollen, und dann die wahrscheinlichen Gründe für diese Abweichungen zu ermitteln und sogar eine automatische Ursachenanalyse zu erstellen“, so der Analyst. ServiceNow habe auch ein einzigartiges Wertversprechen, indem es zum Beispiel sein IT Operations Management (ITOM) und seine Vertriebs- und Auftragsplanung für Anwendungsfälle im Bereich der Betriebstechnologie miteinander verknüpft. Salesforce verfüge nicht über diese Möglichkeit. 

Allerdings, so fügte er hinzu, sollten die Kunden klein anfangen. „Kunden müssen wirklich einen vorsichtigen und gut durchdachten Ansatz in Betracht ziehen, wie sie diese Technologien bewerten und einsetzen wollen“, so Bickley. Wenn man das Werbematerial liest, habe man den Eindruck, dass die Technologie heute schon einsatzbereit sei. Die Kunden würden aber erst dann einen gewissen Nutzen daraus ziehen, wenn Dinge wie Datenmanagement, saubere Prozesse, gut definierte Anwendungsfälle und interne, funktionsübergreifende Teams, die diese Szenarien zum Leben erwecken können, vorhanden sind.  

„Aber in den meisten Fällen müssen die Unternehmen erst darauf hinarbeiten“, hält Bickley fest. (mb) 

ServiceNow’s Yokohama-Release fokussiert sich auf KI-Agenten​ Weiterlesen »

Wie eBPF das Container-Game verändert​

Allgemein

Das Umwälzungspotenzial von eBPF geht über Containernetzwerke hinaus.MOLPIX | shutterstock.com „Niemand ist eine Insel“, schrieb Dichter John Donne. Im Gegensatz dazu sind Container sehr wohl in sich selbst geschlossen und dabei mit allem ausgestattet, was sie brauchen, um unabhängig zu funktionieren – Code, Abhängigkeiten und Laufzeitmodulen. Diese Autonomie ist aus Security-Perspektive zu begrüßen, ist aber eher störend, wenn es darum geht, Container zu vernetzen. Allerdings sind insbesondere verteilte Workloads auf Verbindungen zwischen den Containern angewiesen, wie Bill Mulligan, Head of Community bei Isovalent, dem Unternehmen hinter dem Open-Source-Projekt Cilium, erklärt: „In der Distributed-Computing-Welt läuft alles über das Netzwerk – es ist die entscheidende Komponente, damit Anwendungen funktionieren und zusammenwirken können.“ Bislang wurden Container über virtuelle Netzwerke miteinander verbunden. Diese Netzwerke auf Grundlage Software-basierter Netzwerkadapter, Switches, Firewalls und Load Balancer weisen allerdings Mängel hinsichtlich ihrer Effizienz, Usability und Programmierbarkeit auf. Die Lösung für dieses Problem besteht jedoch ausnahmsweise nicht darin, zu abstrahieren. Stattdessen gilt es, eine Ebene tiefer in den Stack abzutauchen: Der Extended Berkeley Packet Filter – kurz eBPF – ist eine Grundlagentechnologie, die ursprünglich dem Linux-Universum entsprungen ist. Sie steht inzwischen auch für Windows und macOS zur Verfügung – und ermöglicht es, Networking auf Betriebssystemebene zu implementieren. Das soll Containernetzwerke realisieren, die: effizienter funktionieren, transparenter sind und sich besser kontrollieren lassen. Dabei bietet sich die Technologie nicht nur als Lösung für Containernetzwerke, sondern für moderne Softwarenetzwerke im Allgemeinen an. In diesem Artikel werfen wir mit verschiedenen Experten einen Blick darauf, wie eBPF (nicht nur) Containernetzwerke verändert. Containernetzwerke und die eBPF-Revolution Bislang wurden Containernetzwerke vor allem über Legacy-Workarounds etabliert, die betriebliche Hürden aufwerfen können. IDC Research Manager Taranvir Singh ordnet ein: „Traditionelle Containernetzwerk-Stacks stützen sich hauptsächlich auf iptables und Sidecar-Proxys, um Netzwerk-Traffic zu managen. Sollen diese Ansätze skaliert werden, können sie wegen ihrer Komplexität und ihres enormen Prozess-Overheads ineffizient werden.“ Dazu kommen traditionelle Methoden, die ebenfalls dazu beitragen, dass unnötige Mehrarbeit anfällt, wie Liz Rice, Chief Open Source Officer bei Isovalent, erklärt. Da Container von Natur aus voneinander und vom Server isoliert sind, mache eine virtuelle Ethernet-Verbindung und einen Netzwerk-Stack auf beiden Seiten der Verbindung erforderlich: „Diese Redundanz führt zu unnötigem Overhead und höheren Latenzzeiten.“ Nicht zuletzt hingen Containernetzwerke bislang auch ganz wesentlich von der Deployment-Umgebung ab, berichtet ihr Isovalent-Kollege Mulligan: „Vor eBPF waren Leistungs- und Flexibilitätssteigerungen nur mit einem Kernel-Bypass oder Hardwarebeschleunigung zu erreichen. Das hat zwar Vorteile gebracht, dafür aber den Traum vom White-Box-Networking gekillt, weil die Performance stark davon abhängig war, wo die Dinge gelaufen sind.“ Heutzutage werden die meisten Implementierungen auf Plugins migriert, die auf dem Container-Network-Interface (CNI)-Standard basieren. „Dieser ermöglicht im Wesentlichen, Binärdateien auf Host-Ebene bereitzustellen, die das Netzwerk gemäß spezifischen Anforderungen und Präferenzen konfigurieren und dazu verschiedene Technologien nutzen“, erklärt Shane Utt, Senior Principal Software Enginneer bei Red Hat. Zu den populären CNI-Plugins zählen zum Beispiel: Flannel, Calico, Weave und inzwischen auch Cilium, das auf eBPF basiert. „eBPF ist revolutionär, weil es auf Kernel-Ebene arbeitet“, meint Rice und fügt erklärend hinzu: „Obwohl Container auf demselben Host ihre eigene isolierte Ansicht des Benutzerbereichs aufweisen, teilen sie sich gemeinsam mit dem Host den gleichen Kernel. Werden auf dieser Ebene neue Netzwerk-, Observability- oder Security-Funktionen hinzugefügt, stehen sie sofort und mit geringem Overhead allen containerisierten Anwendungen zur Verfügung.“ Damit Tools auf eBPF-Basis eingesetzt werden können, müssten Container weder neu konfiguriert noch neu gestartet werden, versichert die Managerin. Auch IDC-Mann Singh sieht eBPF besser positioniert als andere Cloud-Native-Technologien: „Dass Netzwerkrichtlinien und -prozesse wie Packet Routing, Filtering und Load Balancing auf Kernel-Ebene ablaufen, erschließt diverse potenzielle Benefits und ermöglicht es, Pakete effizienter zu verarbeiten – eine entscheidende Netzwerkanforderung moderner Applikations-Workloads“, konstatiert der Analyst. Zudem, so ergänzt er, bringe diese Nähe zur Infrastruktur auch den Vorteil, umfassende Observability ohne zusätzliche Monitoring-Proxys zu realisieren (dazu später mehr). Neue Strategien zielen ferner darauf ab, eBPF-Prozesse auf die Hardware auszulagern, um das Networking weiter zu optimieren und parallel die Sicherheit zu erhöhen. Laut Rice kann dazu eine Netzwerkkarte in Kombination mit dem High-Performance-Framework eXpress Data Path (XDP) zum Einsatz kommen: „Indem die Paketverarbeitung auf die Hardware verlagert wird, lassen sich ‚Ping of Death‘-Sicherheitslücken effizient minimieren. Diese werden von kriminellen Hackern genutzt, um fehlerhafte oder bösartige Pakete einzuschleusen.“ Riskanten Code eliminieren zu können, bevor er den Netzwerk-Stack des Kernels erreiche, optimiere die Isolierung und damit die Sicherheit enorm, hält die Isovalent-Managerin fest. eBPF kann nicht nur Networking Folglich wird eBPF nicht nur zu Networking-, sondern auch zu Security- und Observability-Zwecken eingesetzt – unter anderem. „eBPF geht inzwischen weit über seine Wurzeln im Netzwerkbereich hinaus und erstreckt sich auch auf Observability, Tracing, Profiling, Security und vieles mehr“, konstatiert Mulligan und verweist auf eine wachsende Zahl von eBPF-Fallstudien. Die Technologie, so der Isovalent-Manager, bringe wieder Innovation in Bereiche, in denen es seit Jahren oder Jahrzehnten keine größeren Änderungen oder Aktualisierungen mehr gegeben habe. Auch Lin Sun, Director of Open Source beim Connectivity-Spezialisten Solo.io, rechnet mit einer dynamischen eBPF-Entwicklung, die über Containernetzwerke hinausgeht: „eBPF könnte künftig in den Bereichen Observability, Sicherheit und Compliance eine noch wichtigere Rolle spielen, als im Networking“. Der Manager verweist auf diverse eBPF-Projekte mit Wachstumspotenzial in den genannten Bereichen – etwa: Kepler, Pixie Tetragon und KubeArmor. „Mit weiteren Integrationen von IaaS-Netzwerkdiensten lassen sich die Vorteile von eBPF auf den gesamten Netzwerk-Stack ausweiten“, führt IDC-Analyst Singh aus. Er ergänzt, eBPF könne heterogene Netzwerke – etwa Legacy-Datenbanken, die auf VMs laufen, die über verschiedene Clouds verteilt sind – standardmäßig um einen Networking-Layer ergänzen. Weitere kommerzielle und quelloffene Projekte, die auf eBPF setzen, sind etwa: Das bereits erwähnte Cilium, das auch in andere Projekte wie OpenTelemetry integriert ist. Mit dem Plugin lässt sich eBPF dazu nutzen, universelle Netzwerkrichtlinien dynamisch auf Kubernetes-Cluster anzuwenden. Confluent und eBay setzen beispielsweise auf diese Cloud-Native-Technologie. Ein weiteres, wichtiges eBPF-Projekt ist auch LoxiLB. Hier kommt eBPF zum Einsatz, um die Geschwindigkeit und Programmierbarkeit des Load Blancing bei Kubernetes zu optimieren. Bei Project Calico handelt es sich hingegen um eine Container-Netzwerk- und Sicherheitslösung, die eine „pluggable“ eBPF-Datenebene bietet. eBPF-Bedenken und die Zukunft Sie haben es vermutlich schon geahnt – auch mit Blick auf eBPF gibt es Herausforderungen. Zum Beispiel gehen die erheblichen Performance-Verbesserungen beim Networking mit einer erhöhten Komplexität einher, wie Red-Hat-Entwickler Utt berichtet: „Die operativen Herausforderungen, wenn es darum geht, containerisierte Workloads zu managen, sind beträchtlich und könnten letztlich sogar dazu beitragen, Containernetzwerke weniger transparent zu gestalten.“ Auch die Befürworter von Service-Meshes sind nicht in allen Anwendungsfällen vollständig von eBPF überzeugt. So auch Solo.io-Gründer Sun: „Es hat sich gezeigt, dass sich der Durchsatz um fünf bis zehn Prozent steigern lässt, wenn iptable-Regeln durch eBPF ersetzt werden. Für eine so umfassende Überarbeitung ist das eine eher geringfügige Verbesserung“, meint der Manager. Sun verweist zudem darauf, dass das Experten-Knowhow in Sachen eBPF noch sehr rar gesät sei und empfiehlt deshalb vorerst auf Nummer Sicher zu gehen: „Die Komplexität von eBPF ist nicht zu unterschätzen, beispielsweise wenn es um die Kernel-Anforderungen, Privilegien für eBPF-Programme oder Debugging geht. Es ist deshalb sinnvoll, für Service-Mesh-Projekte weiterhin iptables-Regeln zu verwenden“. Trotz der genannten Bedenken: eBPF ist auf dem besten Weg, sich als vorherrschendes Modell für Cloud-Netzwerke zu etablieren – und die vielen, einzelnen Container-„Inseln“ zu einem Kontinent zu verbinden, wie John Donne es (vielleicht) formulieren würde. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Wie eBPF das Container-Game verändert​ Das Umwälzungspotenzial von eBPF geht über Containernetzwerke hinaus.MOLPIX | shutterstock.com

„Niemand ist eine Insel“, schrieb Dichter John Donne. Im Gegensatz dazu sind Container sehr wohl in sich selbst geschlossen und dabei mit allem ausgestattet, was sie brauchen, um unabhängig zu funktionieren – Code, Abhängigkeiten und Laufzeitmodulen. Diese Autonomie ist aus Security-Perspektive zu begrüßen, ist aber eher störend, wenn es darum geht, Container zu vernetzen.

Allerdings sind insbesondere verteilte Workloads auf Verbindungen zwischen den Containern angewiesen, wie Bill Mulligan, Head of Community bei Isovalent, dem Unternehmen hinter dem Open-Source-Projekt Cilium, erklärt: „In der Distributed-Computing-Welt läuft alles über das Netzwerk – es ist die entscheidende Komponente, damit Anwendungen funktionieren und zusammenwirken können.“

Bislang wurden Container über virtuelle Netzwerke miteinander verbunden. Diese Netzwerke auf Grundlage Software-basierter Netzwerkadapter, Switches, Firewalls und Load Balancer weisen allerdings Mängel hinsichtlich ihrer Effizienz, Usability und Programmierbarkeit auf. Die Lösung für dieses Problem besteht jedoch ausnahmsweise nicht darin, zu abstrahieren.

Stattdessen gilt es, eine Ebene tiefer in den Stack abzutauchen: Der Extended Berkeley Packet Filter – kurz eBPF – ist eine Grundlagentechnologie, die ursprünglich dem Linux-Universum entsprungen ist. Sie steht inzwischen auch für Windows und macOS zur Verfügung – und ermöglicht es, Networking auf Betriebssystemebene zu implementieren. Das soll Containernetzwerke realisieren, die:

effizienter funktionieren,

transparenter sind und

sich besser kontrollieren lassen.

Dabei bietet sich die Technologie nicht nur als Lösung für Containernetzwerke, sondern für moderne Softwarenetzwerke im Allgemeinen an. In diesem Artikel werfen wir mit verschiedenen Experten einen Blick darauf, wie eBPF (nicht nur) Containernetzwerke verändert.

Containernetzwerke und die eBPF-Revolution

Bislang wurden Containernetzwerke vor allem über Legacy-Workarounds etabliert, die betriebliche Hürden aufwerfen können. IDC Research Manager Taranvir Singh ordnet ein: „Traditionelle Containernetzwerk-Stacks stützen sich hauptsächlich auf iptables und Sidecar-Proxys, um Netzwerk-Traffic zu managen. Sollen diese Ansätze skaliert werden, können sie wegen ihrer Komplexität und ihres enormen Prozess-Overheads ineffizient werden.“

Dazu kommen traditionelle Methoden, die ebenfalls dazu beitragen, dass unnötige Mehrarbeit anfällt, wie Liz Rice, Chief Open Source Officer bei Isovalent, erklärt. Da Container von Natur aus voneinander und vom Server isoliert sind, mache eine virtuelle Ethernet-Verbindung und einen Netzwerk-Stack auf beiden Seiten der Verbindung erforderlich: „Diese Redundanz führt zu unnötigem Overhead und höheren Latenzzeiten.“

Nicht zuletzt hingen Containernetzwerke bislang auch ganz wesentlich von der Deployment-Umgebung ab, berichtet ihr Isovalent-Kollege Mulligan: „Vor eBPF waren Leistungs- und Flexibilitätssteigerungen nur mit einem Kernel-Bypass oder Hardwarebeschleunigung zu erreichen. Das hat zwar Vorteile gebracht, dafür aber den Traum vom White-Box-Networking gekillt, weil die Performance stark davon abhängig war, wo die Dinge gelaufen sind.“

Heutzutage werden die meisten Implementierungen auf Plugins migriert, die auf dem Container-Network-Interface (CNI)-Standard basieren. „Dieser ermöglicht im Wesentlichen, Binärdateien auf Host-Ebene bereitzustellen, die das Netzwerk gemäß spezifischen Anforderungen und Präferenzen konfigurieren und dazu verschiedene Technologien nutzen“, erklärt Shane Utt, Senior Principal Software Enginneer bei Red Hat.

Zu den populären CNI-Plugins zählen zum Beispiel:

Flannel,

Calico,

Weave und inzwischen auch

Cilium, das auf eBPF basiert.

„eBPF ist revolutionär, weil es auf Kernel-Ebene arbeitet“, meint Rice und fügt erklärend hinzu: „Obwohl Container auf demselben Host ihre eigene isolierte Ansicht des Benutzerbereichs aufweisen, teilen sie sich gemeinsam mit dem Host den gleichen Kernel. Werden auf dieser Ebene neue Netzwerk-, Observability- oder Security-Funktionen hinzugefügt, stehen sie sofort und mit geringem Overhead allen containerisierten Anwendungen zur Verfügung.“

Damit Tools auf eBPF-Basis eingesetzt werden können, müssten Container weder neu konfiguriert noch neu gestartet werden, versichert die Managerin.

Auch IDC-Mann Singh sieht eBPF besser positioniert als andere Cloud-Native-Technologien: „Dass Netzwerkrichtlinien und -prozesse wie Packet Routing, Filtering und Load Balancing auf Kernel-Ebene ablaufen, erschließt diverse potenzielle Benefits und ermöglicht es, Pakete effizienter zu verarbeiten – eine entscheidende Netzwerkanforderung moderner Applikations-Workloads“, konstatiert der Analyst. Zudem, so ergänzt er, bringe diese Nähe zur Infrastruktur auch den Vorteil, umfassende Observability ohne zusätzliche Monitoring-Proxys zu realisieren (dazu später mehr).

Neue Strategien zielen ferner darauf ab, eBPF-Prozesse auf die Hardware auszulagern, um das Networking weiter zu optimieren und parallel die Sicherheit zu erhöhen. Laut Rice kann dazu eine Netzwerkkarte in Kombination mit dem High-Performance-Framework eXpress Data Path (XDP) zum Einsatz kommen: „Indem die Paketverarbeitung auf die Hardware verlagert wird, lassen sich ‚Ping of Death‘-Sicherheitslücken effizient minimieren. Diese werden von kriminellen Hackern genutzt, um fehlerhafte oder bösartige Pakete einzuschleusen.“

Riskanten Code eliminieren zu können, bevor er den Netzwerk-Stack des Kernels erreiche, optimiere die Isolierung und damit die Sicherheit enorm, hält die Isovalent-Managerin fest.

eBPF kann nicht nur Networking

Folglich wird eBPF nicht nur zu Networking-, sondern auch zu Security- und Observability-Zwecken eingesetzt – unter anderem. „eBPF geht inzwischen weit über seine Wurzeln im Netzwerkbereich hinaus und erstreckt sich auch auf Observability, Tracing, Profiling, Security und vieles mehr“, konstatiert Mulligan und verweist auf eine wachsende Zahl von eBPF-Fallstudien. Die Technologie, so der Isovalent-Manager, bringe wieder Innovation in Bereiche, in denen es seit Jahren oder Jahrzehnten keine größeren Änderungen oder Aktualisierungen mehr gegeben habe.

Auch Lin Sun, Director of Open Source beim Connectivity-Spezialisten Solo.io, rechnet mit einer dynamischen eBPF-Entwicklung, die über Containernetzwerke hinausgeht: „eBPF könnte künftig in den Bereichen Observability, Sicherheit und Compliance eine noch wichtigere Rolle spielen, als im Networking“. Der Manager verweist auf diverse eBPF-Projekte mit Wachstumspotenzial in den genannten Bereichen – etwa:

Kepler,

Pixie

Tetragon und

KubeArmor.

„Mit weiteren Integrationen von IaaS-Netzwerkdiensten lassen sich die Vorteile von eBPF auf den gesamten Netzwerk-Stack ausweiten“, führt IDC-Analyst Singh aus. Er ergänzt, eBPF könne heterogene Netzwerke – etwa Legacy-Datenbanken, die auf VMs laufen, die über verschiedene Clouds verteilt sind – standardmäßig um einen Networking-Layer ergänzen.

Weitere kommerzielle und quelloffene Projekte, die auf eBPF setzen, sind etwa:

Das bereits erwähnte Cilium, das auch in andere Projekte wie OpenTelemetry integriert ist. Mit dem Plugin lässt sich eBPF dazu nutzen, universelle Netzwerkrichtlinien dynamisch auf Kubernetes-Cluster anzuwenden. Confluent und eBay setzen beispielsweise auf diese Cloud-Native-Technologie.

Ein weiteres, wichtiges eBPF-Projekt ist auch LoxiLB. Hier kommt eBPF zum Einsatz, um die Geschwindigkeit und Programmierbarkeit des Load Blancing bei Kubernetes zu optimieren.

Bei Project Calico handelt es sich hingegen um eine Container-Netzwerk- und Sicherheitslösung, die eine „pluggable“ eBPF-Datenebene bietet.

eBPF-Bedenken und die Zukunft

Sie haben es vermutlich schon geahnt – auch mit Blick auf eBPF gibt es Herausforderungen. Zum Beispiel gehen die erheblichen Performance-Verbesserungen beim Networking mit einer erhöhten Komplexität einher, wie Red-Hat-Entwickler Utt berichtet: „Die operativen Herausforderungen, wenn es darum geht, containerisierte Workloads zu managen, sind beträchtlich und könnten letztlich sogar dazu beitragen, Containernetzwerke weniger transparent zu gestalten.“

Auch die Befürworter von Service-Meshes sind nicht in allen Anwendungsfällen vollständig von eBPF überzeugt. So auch Solo.io-Gründer Sun: „Es hat sich gezeigt, dass sich der Durchsatz um fünf bis zehn Prozent steigern lässt, wenn iptable-Regeln durch eBPF ersetzt werden. Für eine so umfassende Überarbeitung ist das eine eher geringfügige Verbesserung“, meint der Manager.

Sun verweist zudem darauf, dass das Experten-Knowhow in Sachen eBPF noch sehr rar gesät sei und empfiehlt deshalb vorerst auf Nummer Sicher zu gehen: „Die Komplexität von eBPF ist nicht zu unterschätzen, beispielsweise wenn es um die Kernel-Anforderungen, Privilegien für eBPF-Programme oder Debugging geht. Es ist deshalb sinnvoll, für Service-Mesh-Projekte weiterhin iptables-Regeln zu verwenden“.

Trotz der genannten Bedenken: eBPF ist auf dem besten Weg, sich als vorherrschendes Modell für Cloud-Netzwerke zu etablieren – und die vielen, einzelnen Container-„Inseln“ zu einem Kontinent zu verbinden, wie John Donne es (vielleicht) formulieren würde. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Wie eBPF das Container-Game verändert​ Weiterlesen »

Geschäftsessen: Mit guten Tischmanieren punkten​

Allgemein

Damit Sie sicher durch Ihre Geschäftsessen kommen, hat das Beratungsteam von korrekt! hier die wichtigsten zehn Etikette-Regeln bei Tisch für Sie zusammengestellt:1. Wann kommt die Serviette auf den Schoß?Legen Sie die Serviette auf den Schoß, bevor Sie die Speisekarte zur Hand nehmen. Bei einem vorbestellten Menü in größerer Runde nehmen Sie die Serviette erst, wenn der erste Gang serviert wird.Weitere interessante Tipps finden Sie unter “Geschäftsessen: Zehn Tipps für den perfekten Gastgeber“.2. Brotkorb: Wann darf man zugreifen?Greift der Gastgeber nach dem Besteck, ist das das Zeichen für den Essensbeginn. Foto: JSB – Fotolia.comAuch wenn der Hunger noch so groß ist: der Brotkorb sollte nicht schon vor der Weinbestellung leer gegessen sein. Grundsätzlich sind Brot und Butter Beilagen zur Vorspeise. Nach dem ersten Schluck Wein kann man aber schon mal zugreifen.3. Darf man Brot schneiden?Ganz wichtig: Brot wird gebrochen, nicht geschnitten. Brechen Sie mundgerechte Stücke ab und bestreichen Sie diese dann mit der Butter. Das kleine Buttermesser bleibt übrigens immer auf dem Brotteller. Auch der Brotteller bleibt unverändert auf der linken Seite Ihres Gedeckes stehen.4. “Ich freue mich, dass Sie hier sind.”Das bekannte “Guten Appetit!” ist out. Besser sind ein paar nette Worte mit erhobenem Glas zu den Gästen sprechen. Danach greift der Gastgeber einfach zum Besteck und beginnt.5. Finger oder Besteck?Ob Sie bestimmte Speisen mit den Fingern essen dürfen, erkennen Sie daran, dass eine Fingerschale zur Verfügung steht. Wenn nicht, müssen Sie Messer und Gabel einsetzen. Merke: Keine Fingerschale, keine Finger! Foto: Brian A Jackson – shutterstock.com6. Wohin mit dem benutzten Besteck?Haben Sie das Besteck erst mal benutzt, darf es den Tisch nicht mehr berühren – auch nicht auf dem Tellerrand abgestützt.Wenn Sie eine Pause machen möchten, kreuzen Sie das Besteck einfach auf dem Teller. Die Gabelzinken zeigen dabei nach unten.7. Krabbencocktail? – Kein Problem.Wird Ihnen z.B. ein Krabbencocktail oder ein Eis auf einem Unterteller serviert, legen Sie später das benutzte Besteck auf dem Teller ab. Bitte lassen Sie auch den Suppen-, Kaffee- oder Teelöffel nicht in der Tasse.8. Darf man nachwürzen?Ja, aber probieren Sie erst die Speisen, bevor Sie würzen.9. Wenn ein Glas umfällt …Kommt es trotz größter Vorsicht zu einem Malheur, bleiben Sie souverän und machen Sie keinen großen Wirbel darum. Bei einer heruntergefallenen Gabel lassen Sie sich vom Kellner einfach eine neue bringen. Sollten Sie mit einem umgestoßenen Glas den Anzug Ihres Tischnachbarn treffen, entschuldigen Sie sich und bieten natürlich eine Reinigung an.10. Übung macht den Meister.Üben Sie diese Dinge ruhig auch mal im privaten Umfeld, denn je öfter Sie diese kleinen Details trainieren, desto leichter fällt Ihnen ein offizielles Essen.Mehr zur Business-Etikette:Soforthilfe bei Knigge-BlackoutsNamen vergessen?Wer kennt das nicht: Sie haben den Namen Ihres Gesprächspartners vergessen. Kein Problem, geben Sie es offen zu im Sinne von “Mein Namensgedächtnis lässt mich leider gerade im Stich. Wie war gleich Ihr Name?” Bleiben Sie kurz und knapp und wenden Sie sich dann den Sachthemen zu. Under- oder Overdressed?Sie erscheinen in der falschen Kleidung bei einer Veranstaltung. Begehen Sie jetzt nicht den Fehler, allen davon zu erzählen, dass Sie sich bei der Kleiderwahl vertan haben. Bleiben Sie gelassen und nehmen Sie eher beiläufig Stellung dazu. Im Sinne von “Ich habe mich sehr beeilt, heute herzukommen” oder “Mein Koffer wurde am Flughafen vertauscht”. Allerdings: Sind Sie gänzlich falsch gekleidet, ist es oft besser, einfach zu gehen. Verbal ins Fettnäpfchen getreten?Wenn Sie gerne viel reden, wird es immer wieder passieren, dass Sie etwas sagen, was Ihrem Gegenüber peinlich ist. Wichtig ist in diesem Fall, dass Sie sich bewusst sind, dass es dem anderen peinlich ist. Vermeiden Sie große verbale Entschuldigungen oder Bemerkungen wie “Das muss Ihnen doch nicht peinlich sein.” Denn dem anderen ist nicht nur das Gesagte peinlich, sondern auch die Tatsache, dass es ihm peinlich ist. Daher: Lieber das Thema wechseln, um dem anderen wieder mehr Sicherheit zu geben.Von Etikette keine Ahnung?Wie war das doch gleich: Wen begrüßt man zuerst, die ältere Dame oder den Chef? Mit welchem Besteck isst man welche Speise? Was tun, wenn man sich in der Situation nicht auskennt oder bereits einen Knigge-Fauxpas begangen hat? In diesem Fall folgen Sie Ihrer Intuitionoder fragen Sie knapp, direkt und höflich, wie es geht oder welches Besteck jetzt angesagt ist, statt aus den Augenwinkeln zum Nachbarn zu schielen, um dort abzukupfern. Sympathisch wirkt etwa, wenn Sie sagen: “Entschuldigen Sie, ich habe keine Ahnung, wen ich wem zuerst vorstellen muss. Da frage ich sonst immer meine Frau. Aber die ist heute leider nicht da.”Der Klassiker: Das umgestoßene WeinglasEin Weinglas umzustoßen, ist wohl jedem schon einmal passiert. Peinlich. Noch peinlicher ist es, wenn es bei einem Geschäftsessen passiert und es sich über die Gattin des Chefs ergießt. Was tun? Auch hier gilt: Bleiben Sie ganz ruhig. Vermeiden Sie hektische Hilfsmaßnahmen. Entschuldigen Sie sich bei der Leidtragenden und bitten Sie dann die Bedienung um Hilfe. Bieten Sie Hilfe an, werden Sie aber nicht ungefragt tätig. Selbstverständlich bieten Sie an, die Reinigungskosten zu übernehmen. Wenn der Magen knurrtDie größte Angst haben viele vor Magen- oder Darmgeräuschen im Berufsleben. Gerade bei wichtigen Meetings kann es da zu peinlichen Situationen kommen, wenn die Geräusche nicht nur einmal, sondern gehäuft auftreten. Bei Magengeräuschen hilft oft ein Glas Wasser.Bei Blähungen sollten Sie sich kurz entschuldigen, ohne Gründe zu nennen, und sich auf der Toilette Erleichterung verschaffen, bevor Sie zum Meeting zurückkehren. Das gleiche gilt übrigens bei Schluckauf: Unterbrechen Sie das Meeting oder Gespräch für einige Minuten – oder vertagen Sie es auf den kommenden Tag, wenn der Schluckauf nicht aufhört. Wenn der Kollege schlecht riechtWie sagt man es dem Kollegen, dass er stark nach Schweiß riecht oder Mundgeruch hat? Regel Nummer eins ist, dem Gegenüber die Möglichkeit zu geben, sein Gesicht zu wahren. Daher sollte man zunächst indirekt auf das Problem hinweisen, indem Sie etwa dem betroffenen Kollegen erzählen, Sie hätten selbst einmal ein Schweiß- oder Mundgeruchsproblem gehabt und es aber mit einem besonders starken Deo beziehungsweise einer Zungenbürste in den Griff bekommen. Ignoriert der Betroffene den Hinweis, werden Sie um ein vertrauliches Gespräch nicht umhin kommen. Machen Sie aber keine Staatsaffäre daraus, sondern gehen Sie es diskret an. Sie haben keine AhnungNichts ist peinlicher, als zuzugeben, dass man keine Ahnung hat, oder wenn unsere berufliche Kompetenz in Frage gestellt wird. Wer die Wissenslücke entdeckt, ob Chef oder Kollege, ist dabei egal. Gehen Sie in diesem Fall nicht gleich in die Defensive, sondern geben Sie unumwunden zu: “Das habe ich vergessen” oder “In diesem Bereich kenne ich mich nicht aus.” Das wirkt souveräner, als nach und nach zugeben zu müssen, dass man doch keine Ahnung hat. Ein Kunde beschwert sichStellen Sie sich vor, Sie sind in einem Kundengespräch und ein anderer Kunde platzt herein und beschwert sich. Was nun? Weisen Sie zunächst die Anschuldigungen zurück, zeigen Sie sich aber dann höflich und kooperativ im Sinne von “Ich kümmere mich sofort um das Problem.” Sorgen Sie zudem dafür, dass der Beschwerdeführer den Raum verlässt und sie ihr anderes Gespräch zu Ende führen können.. Sie haben einen Fehler gemachtIn diesem Fall kann es hilfreich sein, wenn Sie sich peinlich berührt zeigen. Haben Sie etwa einem Kunden eine falsche Information gegeben, sollten Sie das zugeben und sagen, dass es Ihnen peinlich ist. Das wirkt entwaffnend, vor allem wenn Sie sich bemüht zeigen, den Fehler wieder gut zu machen.Sie haben einen Riesenfehler gemachtIhr Chef brüllt Sie an: “Haben Sie das verbockt?” und tobt und wütet und ist sachlichen Argumenten nicht zugänglich. Peinlich. Hier gibt es nur die Möglichkeit, den Chef toben zu lassen. Widersprechen Sie nicht und geben Sie nur knappe Antworten. Ihr Chef will sich offenbar erst einmal Luft verschaffen. Im zweiten Schritt geben Sie den Fehler zu und entschuldigen Sie sich. Als drittes bieten Sie eine Lösung an. Über Anwesende lästernWas tun, wenn Sie über einen Kollegen lästern, der dummerweise plötzlich hinter Ihnen steht? In diesem Fall sollten Sie einfach den Mund halten, denn alle Erklärungen, Rechtfertigungen und ähnliches verschlimmern die Situation nur. Wenn eine Lüge auffliegt…… ist das im Berufsleben besonders peinlich. Wer kennt das nicht: Der Chef fragt, ob man eine Aufgabe schon erledigt hat – hat man nicht, sagt aber ja, nur um den Chef schnell loszuwerden. Und dann kommt unweigerlich die Frage des Vorgesetzten: “Kann ich mal sehen.” Dumm gelaufen. Nun gilt es, keine weiteren Notlügen zu erfinden, sonst ist eine heillose Verstrickung vorprogrammiert. Besser ist es, abzulenken, Verwirrung zu stiften oder sich über irgendeinen Vorwurf aufzuregen im Sinne von “Ach, mir fällt da gerade ein …” oder “Wollen Sie mir etwa unterstellen, ich hätte …”. Und dann sollten Sie solche Bequemlichkeitslügen NIE wieder anwenden.Weitere Sofort-Hilfe bei Knigge-Blackouts …… wie etwa zum Thema Erröten, wie man sich wieder fängt, Peinlichkeit als Waffe oder Ablenkungsmanöver und humorvolles Reagieren erhalten Sie im Taschenguide “Peinliche Situationen meistern” von Matthias Nöllke. 2008, Rudolf Haufe Verlag. 6,90 Euro. ISBN 978-3-448-08814-4. 

Geschäftsessen: Mit guten Tischmanieren punkten​ Damit Sie sicher durch Ihre Geschäftsessen kommen, hat das Beratungsteam von korrekt! hier die wichtigsten zehn Etikette-Regeln bei Tisch für Sie zusammengestellt:1. Wann kommt die Serviette auf den Schoß?Legen Sie die Serviette auf den Schoß, bevor Sie die Speisekarte zur Hand nehmen. Bei einem vorbestellten Menü in größerer Runde nehmen Sie die Serviette erst, wenn der erste Gang serviert wird.Weitere interessante Tipps finden Sie unter “Geschäftsessen: Zehn Tipps für den perfekten Gastgeber“.2. Brotkorb: Wann darf man zugreifen?Greift der Gastgeber nach dem Besteck, ist das das Zeichen für den Essensbeginn.
Foto: JSB – Fotolia.comAuch wenn der Hunger noch so groß ist: der Brotkorb sollte nicht schon vor der Weinbestellung leer gegessen sein. Grundsätzlich sind Brot und Butter Beilagen zur Vorspeise. Nach dem ersten Schluck Wein kann man aber schon mal zugreifen.3. Darf man Brot schneiden?Ganz wichtig: Brot wird gebrochen, nicht geschnitten. Brechen Sie mundgerechte Stücke ab und bestreichen Sie diese dann mit der Butter. Das kleine Buttermesser bleibt übrigens immer auf dem Brotteller. Auch der Brotteller bleibt unverändert auf der linken Seite Ihres Gedeckes stehen.4. “Ich freue mich, dass Sie hier sind.”Das bekannte “Guten Appetit!” ist out. Besser sind ein paar nette Worte mit erhobenem Glas zu den Gästen sprechen. Danach greift der Gastgeber einfach zum Besteck und beginnt.5. Finger oder Besteck?Ob Sie bestimmte Speisen mit den Fingern essen dürfen, erkennen Sie daran, dass eine Fingerschale zur Verfügung steht. Wenn nicht, müssen Sie Messer und Gabel einsetzen. Merke: Keine Fingerschale, keine Finger!
Foto: Brian A Jackson – shutterstock.com6. Wohin mit dem benutzten Besteck?Haben Sie das Besteck erst mal benutzt, darf es den Tisch nicht mehr berühren – auch nicht auf dem Tellerrand abgestützt.Wenn Sie eine Pause machen möchten, kreuzen Sie das Besteck einfach auf dem Teller. Die Gabelzinken zeigen dabei nach unten.7. Krabbencocktail? – Kein Problem.Wird Ihnen z.B. ein Krabbencocktail oder ein Eis auf einem Unterteller serviert, legen Sie später das benutzte Besteck auf dem Teller ab. Bitte lassen Sie auch den Suppen-, Kaffee- oder Teelöffel nicht in der Tasse.8. Darf man nachwürzen?Ja, aber probieren Sie erst die Speisen, bevor Sie würzen.9. Wenn ein Glas umfällt …Kommt es trotz größter Vorsicht zu einem Malheur, bleiben Sie souverän und machen Sie keinen großen Wirbel darum. Bei einer heruntergefallenen Gabel lassen Sie sich vom Kellner einfach eine neue bringen. Sollten Sie mit einem umgestoßenen Glas den Anzug Ihres Tischnachbarn treffen, entschuldigen Sie sich und bieten natürlich eine Reinigung an.10. Übung macht den Meister.Üben Sie diese Dinge ruhig auch mal im privaten Umfeld, denn je öfter Sie diese kleinen Details trainieren, desto leichter fällt Ihnen ein offizielles Essen.Mehr zur Business-Etikette:Soforthilfe bei Knigge-BlackoutsNamen vergessen?Wer kennt das nicht: Sie haben den Namen Ihres Gesprächspartners vergessen. Kein Problem, geben Sie es offen zu im Sinne von “Mein Namensgedächtnis lässt mich leider gerade im Stich. Wie war gleich Ihr Name?” Bleiben Sie kurz und knapp und wenden Sie sich dann den Sachthemen zu. Under- oder Overdressed?Sie erscheinen in der falschen Kleidung bei einer Veranstaltung. Begehen Sie jetzt nicht den Fehler, allen davon zu erzählen, dass Sie sich bei der Kleiderwahl vertan haben. Bleiben Sie gelassen und nehmen Sie eher beiläufig Stellung dazu. Im Sinne von “Ich habe mich sehr beeilt, heute herzukommen” oder “Mein Koffer wurde am Flughafen vertauscht”. Allerdings: Sind Sie gänzlich falsch gekleidet, ist es oft besser, einfach zu gehen. Verbal ins Fettnäpfchen getreten?Wenn Sie gerne viel reden, wird es immer wieder passieren, dass Sie etwas sagen, was Ihrem Gegenüber peinlich ist. Wichtig ist in diesem Fall, dass Sie sich bewusst sind, dass es dem anderen peinlich ist. Vermeiden Sie große verbale Entschuldigungen oder Bemerkungen wie “Das muss Ihnen doch nicht peinlich sein.” Denn dem anderen ist nicht nur das Gesagte peinlich, sondern auch die Tatsache, dass es ihm peinlich ist. Daher: Lieber das Thema wechseln, um dem anderen wieder mehr Sicherheit zu geben.Von Etikette keine Ahnung?Wie war das doch gleich: Wen begrüßt man zuerst, die ältere Dame oder den Chef? Mit welchem Besteck isst man welche Speise? Was tun, wenn man sich in der Situation nicht auskennt oder bereits einen Knigge-Fauxpas begangen hat? In diesem Fall folgen Sie Ihrer Intuitionoder fragen Sie knapp, direkt und höflich, wie es geht oder welches Besteck jetzt angesagt ist, statt aus den Augenwinkeln zum Nachbarn zu schielen, um dort abzukupfern. Sympathisch wirkt etwa, wenn Sie sagen: “Entschuldigen Sie, ich habe keine Ahnung, wen ich wem zuerst vorstellen muss. Da frage ich sonst immer meine Frau. Aber die ist heute leider nicht da.”Der Klassiker: Das umgestoßene WeinglasEin Weinglas umzustoßen, ist wohl jedem schon einmal passiert. Peinlich. Noch peinlicher ist es, wenn es bei einem Geschäftsessen passiert und es sich über die Gattin des Chefs ergießt. Was tun? Auch hier gilt: Bleiben Sie ganz ruhig. Vermeiden Sie hektische Hilfsmaßnahmen. Entschuldigen Sie sich bei der Leidtragenden und bitten Sie dann die Bedienung um Hilfe. Bieten Sie Hilfe an, werden Sie aber nicht ungefragt tätig. Selbstverständlich bieten Sie an, die Reinigungskosten zu übernehmen. Wenn der Magen knurrtDie größte Angst haben viele vor Magen- oder Darmgeräuschen im Berufsleben. Gerade bei wichtigen Meetings kann es da zu peinlichen Situationen kommen, wenn die Geräusche nicht nur einmal, sondern gehäuft auftreten. Bei Magengeräuschen hilft oft ein Glas Wasser.Bei Blähungen sollten Sie sich kurz entschuldigen, ohne Gründe zu nennen, und sich auf der Toilette Erleichterung verschaffen, bevor Sie zum Meeting zurückkehren. Das gleiche gilt übrigens bei Schluckauf: Unterbrechen Sie das Meeting oder Gespräch für einige Minuten – oder vertagen Sie es auf den kommenden Tag, wenn der Schluckauf nicht aufhört. Wenn der Kollege schlecht riechtWie sagt man es dem Kollegen, dass er stark nach Schweiß riecht oder Mundgeruch hat? Regel Nummer eins ist, dem Gegenüber die Möglichkeit zu geben, sein Gesicht zu wahren. Daher sollte man zunächst indirekt auf das Problem hinweisen, indem Sie etwa dem betroffenen Kollegen erzählen, Sie hätten selbst einmal ein Schweiß- oder Mundgeruchsproblem gehabt und es aber mit einem besonders starken Deo beziehungsweise einer Zungenbürste in den Griff bekommen. Ignoriert der Betroffene den Hinweis, werden Sie um ein vertrauliches Gespräch nicht umhin kommen. Machen Sie aber keine Staatsaffäre daraus, sondern gehen Sie es diskret an. Sie haben keine AhnungNichts ist peinlicher, als zuzugeben, dass man keine Ahnung hat, oder wenn unsere berufliche Kompetenz in Frage gestellt wird. Wer die Wissenslücke entdeckt, ob Chef oder Kollege, ist dabei egal. Gehen Sie in diesem Fall nicht gleich in die Defensive, sondern geben Sie unumwunden zu: “Das habe ich vergessen” oder “In diesem Bereich kenne ich mich nicht aus.” Das wirkt souveräner, als nach und nach zugeben zu müssen, dass man doch keine Ahnung hat. Ein Kunde beschwert sichStellen Sie sich vor, Sie sind in einem Kundengespräch und ein anderer Kunde platzt herein und beschwert sich. Was nun? Weisen Sie zunächst die Anschuldigungen zurück, zeigen Sie sich aber dann höflich und kooperativ im Sinne von “Ich kümmere mich sofort um das Problem.” Sorgen Sie zudem dafür, dass der Beschwerdeführer den Raum verlässt und sie ihr anderes Gespräch zu Ende führen können.. Sie haben einen Fehler gemachtIn diesem Fall kann es hilfreich sein, wenn Sie sich peinlich berührt zeigen. Haben Sie etwa einem Kunden eine falsche Information gegeben, sollten Sie das zugeben und sagen, dass es Ihnen peinlich ist. Das wirkt entwaffnend, vor allem wenn Sie sich bemüht zeigen, den Fehler wieder gut zu machen.Sie haben einen Riesenfehler gemachtIhr Chef brüllt Sie an: “Haben Sie das verbockt?” und tobt und wütet und ist sachlichen Argumenten nicht zugänglich. Peinlich. Hier gibt es nur die Möglichkeit, den Chef toben zu lassen. Widersprechen Sie nicht und geben Sie nur knappe Antworten. Ihr Chef will sich offenbar erst einmal Luft verschaffen. Im zweiten Schritt geben Sie den Fehler zu und entschuldigen Sie sich. Als drittes bieten Sie eine Lösung an. Über Anwesende lästernWas tun, wenn Sie über einen Kollegen lästern, der dummerweise plötzlich hinter Ihnen steht? In diesem Fall sollten Sie einfach den Mund halten, denn alle Erklärungen, Rechtfertigungen und ähnliches verschlimmern die Situation nur. Wenn eine Lüge auffliegt…… ist das im Berufsleben besonders peinlich. Wer kennt das nicht: Der Chef fragt, ob man eine Aufgabe schon erledigt hat – hat man nicht, sagt aber ja, nur um den Chef schnell loszuwerden. Und dann kommt unweigerlich die Frage des Vorgesetzten: “Kann ich mal sehen.” Dumm gelaufen. Nun gilt es, keine weiteren Notlügen zu erfinden, sonst ist eine heillose Verstrickung vorprogrammiert. Besser ist es, abzulenken, Verwirrung zu stiften oder sich über irgendeinen Vorwurf aufzuregen im Sinne von “Ach, mir fällt da gerade ein …” oder “Wollen Sie mir etwa unterstellen, ich hätte …”. Und dann sollten Sie solche Bequemlichkeitslügen NIE wieder anwenden.Weitere Sofort-Hilfe bei Knigge-Blackouts …… wie etwa zum Thema Erröten, wie man sich wieder fängt, Peinlichkeit als Waffe oder Ablenkungsmanöver und humorvolles Reagieren erhalten Sie im Taschenguide “Peinliche Situationen meistern” von Matthias Nöllke. 2008, Rudolf Haufe Verlag. 6,90 Euro. ISBN 978-3-448-08814-4.

Geschäftsessen: Mit guten Tischmanieren punkten​ Weiterlesen »

Die besten Digital Whiteboards​

Allgemein

Physische Whiteboards haben in Zeiten hybrider Arbeitsmodelle zwar noch nicht ganz ausgedient, Visual Collaboration Apps laufen ihnen jedoch den Rang ab. Foto: Shift Drive – shutterstock.com Der mit der Pandemie einsetzende Remote-Work-Schub beschäftigt Unternehmen weltweit. Sie müssen sicherstellen, dass ihre Mitarbeiter produktiv und kreativ bleiben. Deswegen rücken auch Visual Collaboration Tools in den Fokus, die vorher vor allem von Softwareentwicklern genutzt wurden und die deutlich über die eher simplen Whiteboard-Funktionen von Plattformen wie Zoom, Teams oder Webex hinausgehen. Die dürften auch in Zukunft relevant bleiben, denn viele Wissensarbeiter werden auch nach der Pandemie nicht ins Office zurückkehren und nicht wenige Unternehmen planen bereits fest mit hybriden Arbeitsmodellen: Einige Angestellte werden vereinzelt ins Büro kommen, andere weiter auf Remote-Arbeit setzen. Ein solches Modell schließt Präsenz-Meetings mit einem physischen Whiteboard aus. Kollaborationsprozesse müssen also in ein durchgängiges, digitales Format überführt werden, wie Mike Fasciani, Senior Research Director bei Gartner, weiß: “Es geht darum, alle Remote-Beteiligten mit den gleichen Kollaborationsfähigkeiten auszustatten und ihnen die gleichen Informationen zur Verfügung zu stellen, wie den physisch Anwesenden. Das physische Whiteboard spielt in diesem Szenario keine Rolle mehr.” Visual Collaboration Tools – Top 7 Wenn es um die Auswahl einer Digital Whiteboard Software geht, sollten Unternehmen im ersten Schritt darauf achten, was reine Whiteboard-Emulationen von echten Visual Collaboration Tools unterscheidet. Letztere zeichnet zum Beispiel aus: ein “Collaboration Canvas”, der durchgängige Workspaces erschafft, auf denen alle Beteiligten Dokumente, Bilder, Videos, Designentwürfe, Diagramme oder andere Content-Typen nach Belieben hinzufügen können; Templates, Planungs-Tools und Task-Assignment-Optionen; Security auf Enterprise-Niveau; administrative Tools und Integrationsmöglichkeiten mit populären Enterprise Apps; Der Einsatzzweck der digitalen Whiteboard Apps geht dabei laut Gartner-Analyst Fasciani über die Softwareentwicklung hinaus. Seiner Einschätzung nach können verschiedene Teams im Unternehmen Visual Collaboration Tools nutzen – etwa für: Brainstorming-Prozesse, Designprozesse, Strategie- und Geschäftsprozessplanung, Produktentwicklung, Marketing-Pläne oder Projektmanagement. Um Ihnen den Weg zum richtigen Visual Collaboration Tool für Ihre Zwecke zu erleichtern, haben wir einige etablierte und aufstrebende Plattformen für Sie zusammengetragen. Bluescape Bluescape ist eine digitale Plattform für die visuelle Zusammenarbeit in einer hybriden Arbeitsumgebung. Die unbegrenzte Anzahl an Workspaces schaffen einen gesicherten Treffpunkt für das Team und bieten ein Content-Repository, zum Beispiel für Brainstorming, Planung und Entscheidungsfindung. Zusätzlich zu den Whiteboard-, Präsentations- und Anmerkungsfunktionen bietet die Plattform eine fortschrittliche Alternative zur Bildschirmfreigabe, da Benutzer mit mehreren Inhalten gleichzeitig interagieren können, anstatt lineares Screen Sharing zu betreiben. Funktionen wie Wasserzeichen für Inhalte und Video-Uploads mit synchronisiertem Playback sind ebenfalls an Bord. Nutzer von Bluescape können mit verschiedenen Content-Typen zeitgleich interagieren. Foto: Bluescape Weitere Funktionen sind: Vorlagen für eine einheitliche Formatierung in Meetings, Präsentationen oder Projekten Integrationen mit wichtigen Unternehmens-Tools wie Microsoft 365, Google Docs, OneDrive, Dropbox, Box, Google Drive, Outlook, Cisco Webex und Zoom Bemerkenswert: Bluescape bietet eigene Clients für mobile Geräte, Browser und touch-fähige In-Room-Displays, inklusive Multi-Screen-Installationen. Sicherheit: Datenverschlüsselung mit TLS 1.2 und 256-Bit-AES Datenspeicherung in Public oder Private Cloud Unterstützung für Bring Your Own Key (BYOK) Single Sign-On (SAML 2.0) NIST-800-171- und NIST-Cybersecurity-Framework-konform ISO-27001-Zertifizierung Enterprise-Funktionen: Bereitstellung in einer von Bluescape verwalteten Public-Cloud-Instanz oder als Managed Virtual Private Cloud sowie in einer von Partnern oder Kunden verwalteten privaten Cloud und On-Premises. Administratoren können darüber hinaus auf selbst erstellte Berichte und Diagramme zugreifen, um Nutzungs- und Verbrauchsdaten von Nutzern, Workspaces oder Clients einzusehen. Preisgefüge: Bluescape konzentriert sich nach eigenen Angaben auf den Enterprise-Einsatz und erarbeitet mit seinen Kunden ein für die jeweiligen Bedürfnisse passendes Preismodell. Conceptboard Conceptboard ist ein deutscher Anbieter digitaler Whiteboards für visuelle Kollaboration. Durch seine Größe und die Nutzung von bis zu 100 Elementen allein in der kostenlosen Version eignet es sich besonders für komplexe Boards. Conceptboard bietet eine Reihe von Templates für moderne Brainstorming-Methoden, Planungen und Meetings, die Anwender auch selbst erstellen können. Mit einer (Video-)Chat-Funktion, einem Moderationsmodus, Tagging- und Kommentarfunktionen sowie der Möglichkeit, Dateien direkt auf dem Board zu teilen, lässt sich die Lösung als ganzheitliche Plattform für kollaboratives Arbeiten und Projektmanagement bezeichnen. Punktet beim Thema Datenschutz und Sicherheit: die deutsche Whiteboard-Lösung Conceptboard. Foto: Conceptboard Weitere Funktionen sind: Teilen der Boards auch mit Personen außerhalb des Unternehmens über einen Direkt-Link Anbindung an bestehende Teamwork-Apps wie Google Drive, Dropbox und MS Teams Kompatibilität mit Promethean-Smartboards für hybrides Arbeiten Individuelle Zugriffsverwaltung der einzelnen Boards Ein History Mode, mit dem Fortschritte im Projekt für alle transparent nachvollziehbar sind Live-Cursor, mit denen sich alle Aktionen in Echtzeit verfolgen lassen Bemerkenswert: Conceptboard wird gerne in der öffentlichen Verwaltung genutzt, da es die nötigen Compliance-Anforderungen erfüllt. Sicherheit: DSGVO-konform und ISO-27001-zertifiziert SAML 2.0 / OAUTH 2.0 Single Sign-On 256-bit AES Data-at-Rest Excryption Secure A+ SSL Encryption Enterprise-Funktionen: Public Cloud: Bereitstellung in einer Public Cloud; Dedicated Server: Mit Unterstützung der eigenen Domain ermöglicht Conceptboard schnelle Ladezeiten und Stabilität; On-Premises: Conceptboard lässt sich auf dem eigenen Server oder im eigenen RZ betreiben. Preisgefüge: Kostenlos nutzbar ist Conceptboard mit einer Beschränkung von 100 Elementen pro Board. Der Premium-Plan kostet fünf Euro pro Nutzer, der Business-Plan 10 Euro. Lösungen für größere Unternehmen und Institutionen sind ebenfalls erhältlich – Preis auf Anfrage. Klaxoon Board Board ist die Flaggschiff-Anwendung des Softwareunternehmens Klaxoon, die keine Installation erfordert. Der visuelle Workspace ermöglicht es seinen Anwendern, Inhalte in verschiedenen Formaten über vorgefertigte Templates zu teilen. Der Collaboration Canvas ist dabei unbegrenzt und soll genutzt werden, um Ideen visuell zu teilen, zu priorisieren und zu organisieren. Board wurde für verschiedene Szenarien entwickelt, darunter für wöchentliche Meetings mit Visual-Collaboration-Ansatz. Dafür benötigt man allerdings die kostenpflichtige “Live App”, die ) und/oder Shop-Software erfolgen kann. Nur so lässt sich die letztlich benötigte Performance abschätzen. für bis zu 15 Teilnehmer ermöglicht. Board lässt sich auch mit Microsoft Teams, Google Meet, Skype, Cisco Webex und Zoom integrieren. Konzipiert für crossfunktionale Teams, verfügt die App über eine ansehnliche Bibliothek von Meeting-Vorlagen. Klaxoon bietet auch eine App- und Tool-Suite für Board, die Funktionen wie Umfragen, Word Clouds oder ein Quiz einbindet, um die Interaktionsrate in Meetings zu steigern. Die Klaxoon Suite integriert mit Dropbox und Microsoft Teams – Jira soll in Kürze folgen. Dank eines hybriden Software/Hardware-Ansatzes (über Klaxoon Box und MeetingBoard) ist auch ein Offline-Zugriff möglich. Ein Klaxoon Board kann bis zu 15 Teilnehmer per Video einbinden. Foto: Klaxoon Bemerkenswert: Die verschiedenen Ansichtsmodi wie Whiteboard, Kanban und Liste ermöglichen es, Informationen schneller zu sortieren. Mit Funktionen wie Quiz oder Umfrage lässt sich Teamwissen auf die Probe stellen, beziehungsweise ein gegenseitiger Lernprozess anregen. Sicherheit: Benutzerdatenverschlüsselung (bei der Übertragung über TLS 1.3 und im Ruhezustand über AES-256) Backups ebenfalls verschlüsselt Hosting in europäischen Rechenzentren Single Sign-On (optional) Enterprise-Funktionen: Zusätzlich zu SSO und SCIM bietet Klaxoon eine Administrationskonsole, die beispielsweise zur Aktivitätsüberwachung genutzt werden oder Auskunft über die Anzahl der generierten Interaktionen pro Benutzer geben kann. Die interne Consulting-Abteilung und das globale Partnernetzwerk unterstützen Kunden mit Meeting-Audits, Visual-Collaboration-Schulungen und anderen Support-Leistungen. Preisgefüge: Kostenloses Ausprobieren der Board-Vorlagen (bis zu 15 Teilnehmer, einmalige Nutzung der Vorlagen); Starter-Tarif (bis zu 100 Teilnehmer, unbegrenzte Anzahl von Boards, inklusive Live-Videokonferenz-App, Vorlagenbibliothek, 10 GB Speicherplatz) für 24,90 Euro pro Monat und Benutzer; einen Enterprise-Plan (bis zu 300 Benutzer, zusätzliche Management-, Sicherheits- und Analysefunktionen) gibt es auf Anfrage. Lucidspark Einfache Whiteboards, wie sie in Web-Conferencing-Apps zu finden sind, können dabei helfen, Ideen zusammenzutragen. Lucidspark wurde hingegen für Teams entwickelt, die diese Ideen umsetzen sollen. Zu den Anwendungsfällen gehören zum Beispiel: Engineering, Projektmanagement, Marketing, User Experience Management, Produktmanagement, Führungsteams und funktionsübergreifende Teams. Lucidspark arbeitet mit Farbzuweisungen, um die Übersicht jederzeit zu wahren. Foto: Lucidspark Die Funktionen umfassen unter anderem: intelligente Datensynthese, mit der Inhalte automatisch nach Themen gruppiert werden können, ohne die Beiträge manuell sortieren zu müssen. Die Software organisiert die Ideen, hebt wichtige Erkenntnisse hervor und weist die nächsten Schritte zu; die Möglichkeit, große Gruppen auf einem Lucidspark-Board zusammenzubringen, um sie dann in kleinere Breakout Boards für Brainstorming und Ideenfindung leiten; Sprachunterstützung für Englisch, Spanisch, Französisch, Portugiesisch, Deutsch und Niederländisch; diverse Voting-Optionen (namentlich und anonym); integrierbar mit Slack, Jira, Microsoft Teams und Google Drive sowie Lucidchart; Bemerkenswert: Das Tool bietet die Möglichkeit, jedem Mitwirkenden eine bestimmte Farbe zuzuweisen, um die Übersichtlichkeit zu wahren. Sicherheit: Datenübertragung mit TLS v1.2 verschlüsselt; im Ruhezustand AES-256-Verschlüsselung; sichere Domain-Bereitstellung; Benutzerauthentifizierung; Domain-Sperrung und Schlüsselverwaltungsdienste; kryptografische Schlüssel werden durch Amazons Key Management Services geschützt; Lucids Cloud-Anbieter ist Amazon Web Services (AWS); das Unternehmen ist PCI-, SOC-2- und EU-US Privacy Shield-zertifiziert und erfüllt die Anforderungen von CCPA und DSGVO; Enterprise-Funktionen: zentralisierte Account-Verwaltung für Benutzer und Administratoren in der gesamten Lucid Visual Collaboration Suite; zentralisierte Account- und Abrechnungsverwaltung; Lizenzverwaltung zur einfachen Bereitstellung, Deprovisionierung und Neuzuweisung von Lizenzen; Dokumentenverwaltung, einschließlich Teamordnern, Dokumenten-Tags und Status; Möglichkeit, anonyme Gastfunktionen zu deaktivieren. Preisgefüge: für bis zu drei Boards (mit jeweils maximal 300 Objekten) kostenlos; der Individual-Plan beginnt bei 8 Euro pro Monat mit unbegrenzten Boards und Objekten; der Team-Plan (mindestens 3 Benutzer) beginnt bei 9 Euro pro Benutzer und Monat und enthält erweiterte Funktionen für die Zusammenarbeit und einige Verwaltungsfunktionen. Der Enterprise-Plan bietet mehr Integrationen und erweiterte Admin-Kontrollen, die Preisgestaltung gibt es auf Anfrage. Miro Das digitale Whiteboard Miro soll sich für sämtliche Unternehmensfunktionen eignen, von der Produktentwicklung bis hin zu Marketing und Sales. Die Miro-App bietet einen unbegrenzten Collaboration Canvas, auf dem bis zu 1000 Teilnehmer gleichzeitig zusammenzuarbeiten können. Hunderte von Vorlagen sind in Miro verfügbar, wobei die Kategorien von Frameworks (Design Thinking, Agile, Lean oder SAFe) bis hin zu teambasierten Vorlagen reichen, die Vertrieb und Marketing, Entwicklung, Produktmanagement, UX-Design, IT, HR oder Teammitglieder auf Führungsebene unterstützen sollen. Miro lässt sich asynchron oder in Echtzeit nutzen und ermöglicht die Einbettung von Videokonferenzen, Chat und Bildschirmfreigaben. Auch was Integrationsmöglichkeiten mit Drittanbieter-Apps und -Diensten angeht, ist Miro breit aufgestellt – von Google Drive über Evernote bis hin zu Slack und Azure Active Directory. Die Live Embed API bietet darüber hinaus weitere Integrationsoptionen, zum Beispiel mit: Microsoft Teams, Asana, Trello, Jira, Miro-Boards werden dabei in die bestehenden Oberflächen der Tools eingebunden. Miro-Benutzer können auch ihre eigenen Apps mit API, SDAK und iframe embed erstellen und diese dann mit anderen über einen Marketplace teilen. Miro integriert mit Cisco Webex und zahlreichen anderen Applikationen und Services. Foto: Miro Bemerkenswert: Mit “Stickies Capture” lassen sich Fotos von einem physischen Whiteboard oder handschriftlichen Notizen digitalisieren, in Miro bearbeiten und organisieren oder als CSV- oder Jira-Dateien exportieren. Im November 2023 hat Miro die Whiteboard-Lösung Freehand von Invision erworben und in sein Angebot integriert. Sicherheit: Datenübertragung verschlüsselt (TLS 1.2 oder höher); Daten im Ruhezustand mit AES-256 verschlüsselt; Hosting auf AWS; Datenspeicherung innerhalb der EU (Irland) und den USA (Virginia); Cloud-Security-Alliance-, SOC2-, SOC3-, CCPA-, DSGVO- und NIST-konform; Enterprise-Funktionen: flexibles Lizenzierungsprogramm, Analyse-Tools, Unternehmens-Dashboards, Meeting- und Workshop-Zusammenfassungen sowie zusätzliche Sicherheitsfunktionen wie Domain-Whitelisting, Link-Zugriffskontrollen und Domain-Kontrolloptionen. Preisgefüge: Kostenlos nutzbar ist Miro mit drei Boards, inklusive Templates; der Team-Plan kostet 8 Dollar pro Mitglied und Monat (jährliche Abrechnung) für unbegrenzte Boards, private Board-Freigabe, benutzerdefinierte Vorlagen und mehr; der Business-Plan (für 20+ Mitglieder) kostet 16 Dollar pro Mitglied und Monat (jährliche Abrechnung) und bietet zusätzlich Single Sign-On, Tagespässe und externe Editoren. Der Enterprise-Plan (auf Anfrage) bietet erweiterte Sicherheits- und Verwaltungsfunktionen mit flexiblen Lizenzierungsoptionen. Mural Laut Mural wird die eigene Plattform von mehr als der Hälfte der Fortune-100-Unternehmen eingesetzt. Zwar soll jeder Mitarbeiter im Unternehmen Mural nutzen können, in erster Linie richtet sich das Visual Collaboration Tool aber an Produkt-, Beratungs-, Führungs-, Vertriebs- und Customer-Success-Teams sowie an Innovationsabteilungen. Die Mural-Plattform umfasst mehr als 180 anpassbare, vorgefertigte Templates und Frameworks für verschiedene Zwecke, zum Beispiel: Brainstorming, Mind Maps, Design Sprints, Sales Discovery, Retrospektiven, anpassbare Formen und Konnektoren, einfaches Diagramming und “Quick Talk” (Sprachanruf innerhalb eines Mural Boards) Das visuelle Interface von Mural kann für diverse Aufgaben genutzt werden, etwa die Task-Priorisierung. Foto: Mural Integrationsmöglichkeiten: OneDrive, Google Drive, Slack, Microsoft Teams, Atlassian Jira, Adobe Creative Cloud Zapier (ermöglicht weitere Integrationen mit mehr als 2.000 Drittanbieter-Apps darunter Airtable, Trello, Evernote, Salesforce und Asana) demnächst soll auch eine App erscheinen, die die Einbindung von Zoom-Videokonferenzen ermöglicht. Bemerkenswert: “Facilitation Superpowers” ermöglicht es, Timer für Aktivitäten zu setzen, andere einzuladen oder auch anonym über Ideen abzustimmen. Ebenso können bestimmte Inhalte gesperrt, Schlüsselelemente zu einer Inhaltsbibliothek hinzugefügt oder das gesamte Mural Board als PDF- oder PNG-Datei exportiert werden. Sicherheit: Daten im Ruhezustand befinden sich nur in der Produktionsumgebung und sind mit AES-256 verschlüsselt; Datenübertragung mit TLS v1.2 und AES_128_CGM verschlüsselt; ECDHE_RSA dient als Schlüsselaustauschmechanismus; Hosting auf Microsoft Azure; Single Sign-On (SAML 2.0); CCPA- und DSGVO-konform, SOC-2-Typ-2-Zertifizierung; Enterprise-Funktionen: Unternehmens-Dashboard mit Überblick über die Workspace-Aktivitäten zur Verwaltung und Überwachung der Nutzung; Abrechnungsgruppen; Unternehmens-APIs für Deprovisionierung und Audit-Protokolle; API-Schlüsselverwaltung; Self-Service-Single-Sign-On sowie Zugang zu Schulungen und praktischem Support. Preisgefüge: kostenloser Free-Tarif (3 Murals, unbegrenzte Mitglieder); Team+-Plan ab 9,99 Dollar pro Monat und Nutzer; der Business-Tarif inklusive SSO kostet 17,99 Dollar pro Nutzer und Monat; Enterprise-Pläne sind – auf Anfrage – ebenfalls verfügbar; Stormboard Stormboard wurde entwickelt, um die Meeting-Probleme zu lösen, die ein durchschnittliches Digital Whiteboard nicht bewältigen kann. Die digitalen Arbeitsbereiche – Storms genannt – stellen Tools zur Verfügung, die Teams dabei unterstützen sollen, Ideen zu priorisieren und zu organisieren, Aufgaben zuzuweisen und nach einem Meeting aufzubereiten. Zu den Funktionen gehören: agile Integrationen in Echtzeit, Aufgabenverwaltung, Reporting die Möglichkeit, alle Inhalte als Notizen, Whiteboards, Dateien, Bilder und Videos zu teilen automatisierte Erstellung von Besprechungsprotokollen anpassbare Templates mit interaktiven Anleitungen Stormboard bietet Integrationen mit mehreren Business-Plattformen von Drittanbietern, darunter: Slack, Microsoft Teams, Jira, Zapier und Azure DevOps. Stormboard stellt digitale Workspaces zur Verfügung, die Teams dabei unterstützen sollen, Projekte zu planen und im Blick zu behalten. Foto: Stormboard Bemerkenswert: Karteikarten ermöglicht die zeilenweise Eingabe von Inhalten, so dass Benutzer Listen erstellen, Inhalte organisieren und gruppieren und auf einen Substorm (einen spezifischen Unterarbeitsbereich innerhalb eines Sturms) zugreifen können, in dem Teams an Projekten arbeiten, Brainstorming betreiben und Zeitpläne erstellen können. Sicherheit: Datenübertragung mit TLS-Verschlüsselung Verschlüsselung für Daten im Ruhezustand variiert je nach Abonnement Hosting auf AWS SOC-2-Zertifizierung Zwei-Faktor-Authentifizierung (über Authenticator-App) Enterprise-Funktionen: Rechnungsstellung, Single Sign-On, erweiterte Benutzerverwaltung, Service Level Agreements, Single Tenant, Aufbewahrung von Unternehmensdaten, Corporate Branding, zusätzliche Unternehmensvorlagen, Concierge-Support, Schulungsprogramme; Preisgefüge: Der Personal-Plan ist für Einzelpersonen und Teams mit bis zu fünf Personen kostenlos; Business kostet 8,33 Dollar pro Benutzer pro Monat; Enterprise-Pläne mit individueller Preisgestaltung gibt es auf Anfrage; kostenlose Testversionen sind verfügbar für Business- und Enterprise-Pläne. Mehr Digital Whiteboard Tools Nicht fündig geworden? Vielleicht reicht Ihnen auch eines der folgenden Tools, darunter Whiteboard-“Emulatoren” und Online Tools, die alle kostenlos getestet werden können: Allo bietet einen Remote Workspace, der einfaches Projektmanagement mit Whiteboard-Funktionen kombiniert; Ayoa ist ein All-in-One Online Whiteboard beziehungsweise eine Mind Mapping App, beispielsweise für Brainstorming-Zwecke; Explain Everything ist ein Whiteboard für digitalen Unterricht; FlatFrog ist ein Projektvisualisierungs- und Task Tracking Tool für Agile, Lean, Pulse und andere Projekte; iObeya ist eine Enterprise Collaboration App mit Digital Visual Management, das auf Lean- und Agile-Prinzipien beruht; das Tool Milanote organisiert Ideen und Projekte in Form von visuellen Boards; Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten Digital Whiteboards​ Physische Whiteboards haben in Zeiten hybrider Arbeitsmodelle zwar noch nicht ganz ausgedient, Visual Collaboration Apps laufen ihnen jedoch den Rang ab.
Foto: Shift Drive – shutterstock.com

Der mit der Pandemie einsetzende Remote-Work-Schub beschäftigt Unternehmen weltweit. Sie müssen sicherstellen, dass ihre Mitarbeiter produktiv und kreativ bleiben. Deswegen rücken auch Visual Collaboration Tools in den Fokus, die vorher vor allem von Softwareentwicklern genutzt wurden und die deutlich über die eher simplen Whiteboard-Funktionen von Plattformen wie Zoom, Teams oder Webex hinausgehen.

Die dürften auch in Zukunft relevant bleiben, denn viele Wissensarbeiter werden auch nach der Pandemie nicht ins Office zurückkehren und nicht wenige Unternehmen planen bereits fest mit hybriden Arbeitsmodellen: Einige Angestellte werden vereinzelt ins Büro kommen, andere weiter auf Remote-Arbeit setzen. Ein solches Modell schließt Präsenz-Meetings mit einem physischen Whiteboard aus.

Kollaborationsprozesse müssen also in ein durchgängiges, digitales Format überführt werden, wie Mike Fasciani, Senior Research Director bei Gartner, weiß: “Es geht darum, alle Remote-Beteiligten mit den gleichen Kollaborationsfähigkeiten auszustatten und ihnen die gleichen Informationen zur Verfügung zu stellen, wie den physisch Anwesenden. Das physische Whiteboard spielt in diesem Szenario keine Rolle mehr.”

Visual Collaboration Tools – Top 7

Wenn es um die Auswahl einer Digital Whiteboard Software geht, sollten Unternehmen im ersten Schritt darauf achten, was reine Whiteboard-Emulationen von echten Visual Collaboration Tools unterscheidet. Letztere zeichnet zum Beispiel aus:

ein “Collaboration Canvas”, der durchgängige Workspaces erschafft, auf denen alle Beteiligten Dokumente, Bilder, Videos, Designentwürfe, Diagramme oder andere Content-Typen nach Belieben hinzufügen können;

Templates, Planungs-Tools und Task-Assignment-Optionen;

Security auf Enterprise-Niveau;

administrative Tools und Integrationsmöglichkeiten mit populären Enterprise Apps;

Der Einsatzzweck der digitalen Whiteboard Apps geht dabei laut Gartner-Analyst Fasciani über die Softwareentwicklung hinaus. Seiner Einschätzung nach können verschiedene Teams im Unternehmen Visual Collaboration Tools nutzen – etwa für:

Brainstorming-Prozesse,

Designprozesse,

Strategie- und Geschäftsprozessplanung,

Produktentwicklung,

Marketing-Pläne

oder Projektmanagement.

Um Ihnen den Weg zum richtigen Visual Collaboration Tool für Ihre Zwecke zu erleichtern, haben wir einige etablierte und aufstrebende Plattformen für Sie zusammengetragen.

Bluescape

Bluescape ist eine digitale Plattform für die visuelle Zusammenarbeit in einer hybriden Arbeitsumgebung. Die unbegrenzte Anzahl an Workspaces schaffen einen gesicherten Treffpunkt für das Team und bieten ein Content-Repository, zum Beispiel für Brainstorming, Planung und Entscheidungsfindung. Zusätzlich zu den Whiteboard-, Präsentations- und Anmerkungsfunktionen bietet die Plattform eine fortschrittliche Alternative zur Bildschirmfreigabe, da Benutzer mit mehreren Inhalten gleichzeitig interagieren können, anstatt lineares Screen Sharing zu betreiben. Funktionen wie Wasserzeichen für Inhalte und Video-Uploads mit synchronisiertem Playback sind ebenfalls an Bord.

Nutzer von Bluescape können mit verschiedenen Content-Typen zeitgleich interagieren.
Foto: Bluescape

Weitere Funktionen sind:

Vorlagen für eine einheitliche Formatierung in Meetings, Präsentationen oder Projekten

Integrationen mit wichtigen Unternehmens-Tools wie Microsoft 365, Google Docs, OneDrive, Dropbox, Box, Google Drive, Outlook, Cisco Webex und Zoom

Bemerkenswert: Bluescape bietet eigene Clients für mobile Geräte, Browser und touch-fähige In-Room-Displays, inklusive Multi-Screen-Installationen.

Sicherheit:

Datenverschlüsselung mit TLS 1.2 und 256-Bit-AES

Datenspeicherung in Public oder Private Cloud

Unterstützung für Bring Your Own Key (BYOK)

Single Sign-On (SAML 2.0)

NIST-800-171- und NIST-Cybersecurity-Framework-konform

ISO-27001-Zertifizierung

Enterprise-Funktionen:

Bereitstellung in einer von Bluescape verwalteten Public-Cloud-Instanz oder

als Managed Virtual Private Cloud sowie

in einer von Partnern oder Kunden verwalteten privaten Cloud und

On-Premises.

Administratoren können darüber hinaus auf selbst erstellte Berichte und Diagramme zugreifen, um Nutzungs- und Verbrauchsdaten von Nutzern, Workspaces oder Clients einzusehen.

Preisgefüge: Bluescape konzentriert sich nach eigenen Angaben auf den Enterprise-Einsatz und erarbeitet mit seinen Kunden ein für die jeweiligen Bedürfnisse passendes Preismodell.

Conceptboard

Conceptboard ist ein deutscher Anbieter digitaler Whiteboards für visuelle Kollaboration. Durch seine Größe und die Nutzung von bis zu 100 Elementen allein in der kostenlosen Version eignet es sich besonders für komplexe Boards. Conceptboard bietet eine Reihe von Templates für moderne Brainstorming-Methoden, Planungen und Meetings, die Anwender auch selbst erstellen können. Mit einer (Video-)Chat-Funktion, einem Moderationsmodus, Tagging- und Kommentarfunktionen sowie der Möglichkeit, Dateien direkt auf dem Board zu teilen, lässt sich die Lösung als ganzheitliche Plattform für kollaboratives Arbeiten und Projektmanagement bezeichnen.

Punktet beim Thema Datenschutz und Sicherheit: die deutsche Whiteboard-Lösung Conceptboard.
Foto: Conceptboard

Weitere Funktionen sind:

Teilen der Boards auch mit Personen außerhalb des Unternehmens über einen Direkt-Link

Anbindung an bestehende Teamwork-Apps wie Google Drive, Dropbox und MS Teams

Kompatibilität mit Promethean-Smartboards für hybrides Arbeiten

Individuelle Zugriffsverwaltung der einzelnen Boards

Ein History Mode, mit dem Fortschritte im Projekt für alle transparent nachvollziehbar sind

Live-Cursor, mit denen sich alle Aktionen in Echtzeit verfolgen lassen

Bemerkenswert: Conceptboard wird gerne in der öffentlichen Verwaltung genutzt, da es die nötigen Compliance-Anforderungen erfüllt.

Sicherheit:

DSGVO-konform und ISO-27001-zertifiziert

SAML 2.0 / OAUTH 2.0 Single Sign-On

256-bit AES Data-at-Rest Excryption

Secure A+ SSL Encryption

Enterprise-Funktionen:

Public Cloud: Bereitstellung in einer Public Cloud;

Dedicated Server: Mit Unterstützung der eigenen Domain ermöglicht Conceptboard schnelle Ladezeiten und Stabilität;

On-Premises: Conceptboard lässt sich auf dem eigenen Server oder im eigenen RZ betreiben.

Preisgefüge: Kostenlos nutzbar ist Conceptboard mit einer Beschränkung von 100 Elementen pro Board. Der Premium-Plan kostet fünf Euro pro Nutzer, der Business-Plan 10 Euro. Lösungen für größere Unternehmen und Institutionen sind ebenfalls erhältlich – Preis auf Anfrage.

Klaxoon Board

Board ist die Flaggschiff-Anwendung des Softwareunternehmens Klaxoon, die keine Installation erfordert. Der visuelle Workspace ermöglicht es seinen Anwendern, Inhalte in verschiedenen Formaten über vorgefertigte Templates zu teilen. Der Collaboration Canvas ist dabei unbegrenzt und soll genutzt werden, um Ideen visuell zu teilen, zu priorisieren und zu organisieren. Board wurde für verschiedene Szenarien entwickelt, darunter für wöchentliche Meetings mit Visual-Collaboration-Ansatz.

Dafür benötigt man allerdings die kostenpflichtige “Live App”, die ) und/oder Shop-Software erfolgen kann. Nur so lässt sich die letztlich benötigte Performance abschätzen. für bis zu 15 Teilnehmer ermöglicht. Board lässt sich auch mit Microsoft Teams, Google Meet, Skype, Cisco Webex und Zoom integrieren. Konzipiert für crossfunktionale Teams, verfügt die App über eine ansehnliche Bibliothek von Meeting-Vorlagen.

Klaxoon bietet auch eine App- und Tool-Suite für Board, die Funktionen wie Umfragen, Word Clouds oder ein Quiz einbindet, um die Interaktionsrate in Meetings zu steigern. Die Klaxoon Suite integriert mit Dropbox und Microsoft Teams – Jira soll in Kürze folgen. Dank eines hybriden Software/Hardware-Ansatzes (über Klaxoon Box und MeetingBoard) ist auch ein Offline-Zugriff möglich.

Ein Klaxoon Board kann bis zu 15 Teilnehmer per Video einbinden.
Foto: Klaxoon

Bemerkenswert: Die verschiedenen Ansichtsmodi wie Whiteboard, Kanban und Liste ermöglichen es, Informationen schneller zu sortieren. Mit Funktionen wie Quiz oder Umfrage lässt sich Teamwissen auf die Probe stellen, beziehungsweise ein gegenseitiger Lernprozess anregen.

Sicherheit:

Benutzerdatenverschlüsselung (bei der Übertragung über TLS 1.3 und im Ruhezustand über AES-256)

Backups ebenfalls verschlüsselt

Hosting in europäischen Rechenzentren

Single Sign-On (optional)

Enterprise-Funktionen: Zusätzlich zu SSO und SCIM bietet Klaxoon eine Administrationskonsole, die beispielsweise zur Aktivitätsüberwachung genutzt werden oder Auskunft über die Anzahl der generierten Interaktionen pro Benutzer geben kann. Die interne Consulting-Abteilung und das globale Partnernetzwerk unterstützen Kunden mit Meeting-Audits, Visual-Collaboration-Schulungen und anderen Support-Leistungen.

Preisgefüge: Kostenloses Ausprobieren der Board-Vorlagen (bis zu 15 Teilnehmer, einmalige Nutzung der Vorlagen); Starter-Tarif (bis zu 100 Teilnehmer, unbegrenzte Anzahl von Boards, inklusive Live-Videokonferenz-App, Vorlagenbibliothek, 10 GB Speicherplatz) für 24,90 Euro pro Monat und Benutzer; einen Enterprise-Plan (bis zu 300 Benutzer, zusätzliche Management-, Sicherheits- und Analysefunktionen) gibt es auf Anfrage.

Lucidspark

Einfache Whiteboards, wie sie in Web-Conferencing-Apps zu finden sind, können dabei helfen, Ideen zusammenzutragen. Lucidspark wurde hingegen für Teams entwickelt, die diese Ideen umsetzen sollen. Zu den Anwendungsfällen gehören zum Beispiel:

Engineering,

Projektmanagement,

Marketing,

User Experience Management,

Produktmanagement,

Führungsteams und

funktionsübergreifende Teams.

Lucidspark arbeitet mit Farbzuweisungen, um die Übersicht jederzeit zu wahren.
Foto: Lucidspark

Die Funktionen umfassen unter anderem:

intelligente Datensynthese, mit der Inhalte automatisch nach Themen gruppiert werden können, ohne die Beiträge manuell sortieren zu müssen. Die Software organisiert die Ideen, hebt wichtige Erkenntnisse hervor und weist die nächsten Schritte zu;

die Möglichkeit, große Gruppen auf einem Lucidspark-Board zusammenzubringen, um sie dann in kleinere Breakout Boards für Brainstorming und Ideenfindung leiten;

Sprachunterstützung für Englisch, Spanisch, Französisch, Portugiesisch, Deutsch und Niederländisch;

diverse Voting-Optionen (namentlich und anonym);

integrierbar mit Slack, Jira, Microsoft Teams und Google Drive sowie Lucidchart;

Bemerkenswert: Das Tool bietet die Möglichkeit, jedem Mitwirkenden eine bestimmte Farbe zuzuweisen, um die Übersichtlichkeit zu wahren.

Sicherheit:

Datenübertragung mit TLS v1.2 verschlüsselt;

im Ruhezustand AES-256-Verschlüsselung;

sichere Domain-Bereitstellung;

Benutzerauthentifizierung;

Domain-Sperrung und Schlüsselverwaltungsdienste;

kryptografische Schlüssel werden durch Amazons Key Management Services geschützt;

Lucids Cloud-Anbieter ist Amazon Web Services (AWS);

das Unternehmen ist PCI-, SOC-2- und EU-US Privacy Shield-zertifiziert und erfüllt die Anforderungen von CCPA und DSGVO;

Enterprise-Funktionen:

zentralisierte Account-Verwaltung für Benutzer und Administratoren in der gesamten Lucid Visual Collaboration Suite;

zentralisierte Account- und Abrechnungsverwaltung;

Lizenzverwaltung zur einfachen Bereitstellung,

Deprovisionierung und Neuzuweisung von Lizenzen;

Dokumentenverwaltung, einschließlich Teamordnern, Dokumenten-Tags und Status;

Möglichkeit, anonyme Gastfunktionen zu deaktivieren.

Preisgefüge: für bis zu drei Boards (mit jeweils maximal 300 Objekten) kostenlos; der Individual-Plan beginnt bei 8 Euro pro Monat mit unbegrenzten Boards und Objekten; der Team-Plan (mindestens 3 Benutzer) beginnt bei 9 Euro pro Benutzer und Monat und enthält erweiterte Funktionen für die Zusammenarbeit und einige Verwaltungsfunktionen. Der Enterprise-Plan bietet mehr Integrationen und erweiterte Admin-Kontrollen, die Preisgestaltung gibt es auf Anfrage.

Miro

Das digitale Whiteboard Miro soll sich für sämtliche Unternehmensfunktionen eignen, von der Produktentwicklung bis hin zu Marketing und Sales. Die Miro-App bietet einen unbegrenzten Collaboration Canvas, auf dem bis zu 1000 Teilnehmer gleichzeitig zusammenzuarbeiten können.

Hunderte von Vorlagen sind in Miro verfügbar, wobei die Kategorien von Frameworks (Design Thinking, Agile, Lean oder SAFe) bis hin zu teambasierten Vorlagen reichen, die Vertrieb und Marketing, Entwicklung, Produktmanagement, UX-Design, IT, HR oder Teammitglieder auf Führungsebene unterstützen sollen. Miro lässt sich asynchron oder in Echtzeit nutzen und ermöglicht die Einbettung von Videokonferenzen, Chat und Bildschirmfreigaben. Auch was Integrationsmöglichkeiten mit Drittanbieter-Apps und -Diensten angeht, ist Miro breit aufgestellt – von Google Drive über Evernote bis hin zu Slack und Azure Active Directory. Die Live Embed API bietet darüber hinaus weitere Integrationsoptionen, zum Beispiel mit:

Microsoft Teams,

Asana,

Trello,

Jira,

Miro-Boards werden dabei in die bestehenden Oberflächen der Tools eingebunden. Miro-Benutzer können auch ihre eigenen Apps mit API, SDAK und iframe embed erstellen und diese dann mit anderen über einen Marketplace teilen.

Miro integriert mit Cisco Webex und zahlreichen anderen Applikationen und Services.
Foto: Miro

Bemerkenswert: Mit “Stickies Capture” lassen sich Fotos von einem physischen Whiteboard oder handschriftlichen Notizen digitalisieren, in Miro bearbeiten und organisieren oder als CSV- oder Jira-Dateien exportieren. Im November 2023 hat Miro die Whiteboard-Lösung Freehand von Invision erworben und in sein Angebot integriert.

Sicherheit:

Datenübertragung verschlüsselt (TLS 1.2 oder höher);

Daten im Ruhezustand mit AES-256 verschlüsselt;

Hosting auf AWS;

Datenspeicherung innerhalb der EU (Irland) und den USA (Virginia);

Cloud-Security-Alliance-, SOC2-, SOC3-, CCPA-, DSGVO- und NIST-konform;

Enterprise-Funktionen:

flexibles Lizenzierungsprogramm,

Analyse-Tools,

Unternehmens-Dashboards,

Meeting- und Workshop-Zusammenfassungen sowie

zusätzliche Sicherheitsfunktionen wie Domain-Whitelisting,

Link-Zugriffskontrollen und

Domain-Kontrolloptionen.

Preisgefüge: Kostenlos nutzbar ist Miro mit drei Boards, inklusive Templates; der Team-Plan kostet 8 Dollar pro Mitglied und Monat (jährliche Abrechnung) für unbegrenzte Boards, private Board-Freigabe, benutzerdefinierte Vorlagen und mehr; der Business-Plan (für 20+ Mitglieder) kostet 16 Dollar pro Mitglied und Monat (jährliche Abrechnung) und bietet zusätzlich Single Sign-On, Tagespässe und externe Editoren. Der Enterprise-Plan (auf Anfrage) bietet erweiterte Sicherheits- und Verwaltungsfunktionen mit flexiblen Lizenzierungsoptionen.

Mural

Laut Mural wird die eigene Plattform von mehr als der Hälfte der Fortune-100-Unternehmen eingesetzt. Zwar soll jeder Mitarbeiter im Unternehmen Mural nutzen können, in erster Linie richtet sich das Visual Collaboration Tool aber an Produkt-, Beratungs-, Führungs-, Vertriebs- und Customer-Success-Teams sowie an Innovationsabteilungen. Die Mural-Plattform umfasst mehr als 180 anpassbare, vorgefertigte Templates und Frameworks für verschiedene Zwecke, zum Beispiel:

Brainstorming,

Mind Maps,

Design Sprints,

Sales Discovery,

Retrospektiven,

anpassbare Formen und Konnektoren,

einfaches Diagramming und

“Quick Talk” (Sprachanruf innerhalb eines Mural Boards)

Das visuelle Interface von Mural kann für diverse Aufgaben genutzt werden, etwa die Task-Priorisierung.
Foto: Mural

Integrationsmöglichkeiten:

OneDrive,

Google Drive,

Slack,

Microsoft Teams,

Atlassian Jira,

Adobe Creative Cloud

Zapier (ermöglicht weitere Integrationen mit mehr als 2.000 Drittanbieter-Apps darunter Airtable, Trello, Evernote, Salesforce und Asana)

demnächst soll auch eine App erscheinen, die die Einbindung von Zoom-Videokonferenzen ermöglicht.

Bemerkenswert: “Facilitation Superpowers” ermöglicht es, Timer für Aktivitäten zu setzen, andere einzuladen oder auch anonym über Ideen abzustimmen. Ebenso können bestimmte Inhalte gesperrt, Schlüsselelemente zu einer Inhaltsbibliothek hinzugefügt oder das gesamte Mural Board als PDF- oder PNG-Datei exportiert werden.

Sicherheit:

Daten im Ruhezustand befinden sich nur in der Produktionsumgebung und sind mit AES-256 verschlüsselt;

Datenübertragung mit TLS v1.2 und AES_128_CGM verschlüsselt;

ECDHE_RSA dient als Schlüsselaustauschmechanismus;

Hosting auf Microsoft Azure;

Single Sign-On (SAML 2.0);

CCPA- und DSGVO-konform, SOC-2-Typ-2-Zertifizierung;

Enterprise-Funktionen:

Unternehmens-Dashboard mit Überblick über die Workspace-Aktivitäten zur Verwaltung und Überwachung der Nutzung;

Abrechnungsgruppen;

Unternehmens-APIs für Deprovisionierung und Audit-Protokolle;

API-Schlüsselverwaltung;

Self-Service-Single-Sign-On sowie

Zugang zu Schulungen und praktischem Support.

Preisgefüge: kostenloser Free-Tarif (3 Murals, unbegrenzte Mitglieder); Team+-Plan ab 9,99 Dollar pro Monat und Nutzer; der Business-Tarif inklusive SSO kostet 17,99 Dollar pro Nutzer und Monat; Enterprise-Pläne sind – auf Anfrage – ebenfalls verfügbar;

Stormboard

Stormboard wurde entwickelt, um die Meeting-Probleme zu lösen, die ein durchschnittliches Digital Whiteboard nicht bewältigen kann. Die digitalen Arbeitsbereiche – Storms genannt – stellen Tools zur Verfügung, die Teams dabei unterstützen sollen, Ideen zu priorisieren und zu organisieren, Aufgaben zuzuweisen und nach einem Meeting aufzubereiten.

Zu den Funktionen gehören:

agile Integrationen in Echtzeit,

Aufgabenverwaltung,

Reporting

die Möglichkeit, alle Inhalte als Notizen, Whiteboards, Dateien, Bilder und Videos zu teilen

automatisierte Erstellung von Besprechungsprotokollen

anpassbare Templates mit interaktiven Anleitungen

Stormboard bietet Integrationen mit mehreren Business-Plattformen von Drittanbietern, darunter:

Slack,

Microsoft Teams,

Jira,

Zapier und

Azure DevOps.

Stormboard stellt digitale Workspaces zur Verfügung, die Teams dabei unterstützen sollen, Projekte zu planen und im Blick zu behalten.
Foto: Stormboard

Bemerkenswert: Karteikarten ermöglicht die zeilenweise Eingabe von Inhalten, so dass Benutzer Listen erstellen, Inhalte organisieren und gruppieren und auf einen Substorm (einen spezifischen Unterarbeitsbereich innerhalb eines Sturms) zugreifen können, in dem Teams an Projekten arbeiten, Brainstorming betreiben und Zeitpläne erstellen können.

Sicherheit:

Datenübertragung mit TLS-Verschlüsselung

Verschlüsselung für Daten im Ruhezustand variiert je nach Abonnement

Hosting auf AWS

SOC-2-Zertifizierung

Zwei-Faktor-Authentifizierung (über Authenticator-App)

Enterprise-Funktionen:

Rechnungsstellung,

Single Sign-On,

erweiterte Benutzerverwaltung,

Service Level Agreements,

Single Tenant,

Aufbewahrung von Unternehmensdaten,

Corporate Branding,

zusätzliche Unternehmensvorlagen,

Concierge-Support,

Schulungsprogramme;

Preisgefüge: Der Personal-Plan ist für Einzelpersonen und Teams mit bis zu fünf Personen kostenlos; Business kostet 8,33 Dollar pro Benutzer pro Monat; Enterprise-Pläne mit individueller Preisgestaltung gibt es auf Anfrage; kostenlose Testversionen sind verfügbar für Business- und Enterprise-Pläne.

Mehr Digital Whiteboard Tools

Nicht fündig geworden? Vielleicht reicht Ihnen auch eines der folgenden Tools, darunter Whiteboard-“Emulatoren” und Online Tools, die alle kostenlos getestet werden können:

Allo bietet einen Remote Workspace, der einfaches Projektmanagement mit Whiteboard-Funktionen kombiniert;

Ayoa ist ein All-in-One Online Whiteboard beziehungsweise eine Mind Mapping App, beispielsweise für Brainstorming-Zwecke;

Explain Everything ist ein Whiteboard für digitalen Unterricht;

FlatFrog ist ein Projektvisualisierungs- und Task Tracking Tool für Agile, Lean, Pulse und andere Projekte;

iObeya ist eine Enterprise Collaboration App mit Digital Visual Management, das auf Lean- und Agile-Prinzipien beruht;

das Tool Milanote organisiert Ideen und Projekte in Form von visuellen Boards;

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten Digital Whiteboards​ Weiterlesen »

Nach oben scrollen
×